Sevilla es la sede del nuevo centro para la transparencia algorítmica de la Unión Europea, que auditará a plataformas y redes para que no discriminen o atenten contra la dignidad de la persona. Su responsable también es español.
¿De qué formas influyen los algoritmos en nuestra vida?
Son como programas, un poco más desarrollados, a los que tú les pides algo y responden en función de la información que tienen. Están en todas partes: en internet —también en el internet de las cosas— en el móvil, incluso en muchos juguetes. Hagas lo que hagas, te influyen. Si haces una búsqueda, pasa por unos algoritmos y te presenta unos resultados. Si ves una plataforma de televisión, te sugiere otros programas.
¿Solo según lo que le pregunte?
Hay más. La fase siguiente del algoritmo es su inteligencia artificial, que aprende y, a medida que tiene más datos sobre nosotros, reacciona de forma distinta. Esto tiene ventajas y peligros, porque tiene tanta información sobre nosotros que nos sugiere cosas que nos pueden venir bien, pero también casi nos impone otras de las que no queremos saber nada. Nosotros nos centramos en riesgos como la discriminación, los ataques contra la dignidad de la persona y los derechos fundamentales o el contenido adulto accesible para niños.
¿Pueden discriminar los algoritmos?
Cuando buscas en internet «mujer profesional» te presentan una mujer blanca. Si buscas «mujer no profesional», sale una mujer negra. Eso sin hablar de la difusión de informaciones falsas, que está a la orden del día y en la que también influyen. Unos investigadores franceses dijeron que la tierra es plana en un tuit; en unas horas se había extendido por todo el mundo y creado una gran polarización entre los que creían esta información y los que no.
¿Hasta qué punto estos ejemplos responden a fallos y sesgos al programar o a intereses creados, como, precisamente, polarizar?
Un algoritmo es un conjunto de órdenes. Luego usa datos para elaborar los resultados. Hay programadores que no tienen el interés de crear informaciones falsas, pero el algoritmo te las puede presentar con datos erróneos que encuentra en internet. En otros casos, algunas redes sociales sí pueden tener intereses, porque cuanto más tiempo estés conectado a ellas, mejor.
Bio
Alberto Pena acaba de aterrizar en Sevilla, donde desde el 1 de mayo es jefe de unidad del Centro Europeo para la Transparencia Algorímica. Ingeniero de sistemas por la Universidad de Valladolid, tiene 34 años de experiencia en el sector privado y en la Comisión Europea.
¿Cómo funcionará el Centro Europeo para la Transparencia Algorítmica (ECAT por sus siglas en inglés)?
Su creación estaba contemplada en la Ley de Servicios Digitales en la UE de 2022, según la cual las plataformas tienen la responsabilidad de que sus algoritmos eviten los riesgos a los que nos referimos. La norma anunciaba que se iba a designar a candidatas a ser auditadas, según su volumen de alcance potencial. A finales de abril se publicaron las 19 primeras, incluyendo Twitter, Meta y Google, y está a punto de designarse otra tanda. En cuatro meses tienen que presentar un análisis de riesgos y cómo los resuelven. Nosotros los analizaremos y, si es necesario, entraremos a auditar. Pediremos que nos dejen analizar sus algoritmos para ver cómo funcionan. Si encontrásemos algo que no es lo que debe ser, construiríamos el caso con metodología científica y lo presentaríamos a las autoridades. Primero se emitiría un aviso y después el Tribunal de Justicia de la UE podría llegar a sancionar a estas plataformas o incluso a cortar su servicio dentro de la Unión.
¿Investigarán a los instrumentos de inteligencia artificial como ChatGPT?
No se los considera una plataforma, pero en el momento en el que se enlazan con un buscador, como ha hecho Microsoft con Bing, sí podría ser. Estos chats han saltado a la palestra por su impacto, al ser capaces de generar casi una conversación humana. Pero hay también herramientas que pueden imitar voces o hacer vídeos. A mí me encanta la innovación, pero cuando el uso de esa tecnología tiene una determinada intención obviamente no es bueno. El análisis y seguimiento de la inteligencia artificial es otra de nuestras áreas de trabajo.
Hablando del ámbito digital, ¿qué impacto puede tener una acción que solo afecte a la UE? ¿Podría una plataforma seguir usando algoritmos sin estos estándares fuera de su territorio?
Una de las intenciones que tenemos es que la experiencia tenga un impacto global, que muchos más países se vayan uniendo a nosotros. Estamos siendo pioneros, incluso sirviendo de inspiración a quien en teoría iba más avanzado, como Estados Unidos. También a Japón.
¿Por qué se ha elegido Sevilla para esta experiencia puntera?
Aquí se lleva haciendo análisis de inteligencia artificial desde hace bastante tiempo. Hay una base de conocimiento, científicos que han desarrollado muchas cosas. Se vio como una oportunidad de colaboración con las autoridades locales, que querían desarrollar un polo tecnológico en la zona.
¿Pueden las personas por sí solas reducir el impacto de los algoritmos en su día a día, por ejemplo, rechazando las cookies?
Ayuda, pero no es suficiente.
MARÍA MARTÍNEZ LÓPEZ
Alfa y Omega
Imagen: Este ingeniero ha ocupado cargos de responsabilidad en gestión dentro de la Comisión Europea desde 2010.
(Foto cedida por Alberto Pena Fernández).