La creación de imágenes sexuales falsas de 22 menores lleva a este experto en inteligencia artificial a pronosticar «un resurgimiento de las humanidades» para afrontar los desafíos.
8 de octubre 2023.- Lo ocurrido en Almendralejo (Badajoz), donde hasta 22 menores fueron desnudadas por una aplicación de inteligencia artificial (IA), es solo un ejemplo de las consecuencias de dejar vía libre al uso de una tecnología con derivadas impredecibles. Uno de los informes más citados, el realizado por Deeptrace, cifra en un aumento exponencial de un 100 % cada seis meses de archivos falsos generados por inteligencia artificial, los deepfake; aunque el volumen real de este contenido se desconoce. José Luis Calvo, ingeniero informático y experto en IA, reconoce los límites para combatir estos abusos legalmente y apuesta por la educación.
¿Es el caso de Almendralejo solo la punta del iceberg?
La tendencia en la IA es que cada vez sea más accesible para todo el mundo, de forma que cualquiera va a poder crear contenido falso, ya sea en imágenes, vídeo, audio o texto. Esto amplía los riesgos, tanto por el volumen de imágenes generadas como por el grado de suplantación. Hay algunas deepfake muy conocidas, como esa imagen del Papa con un abrigo de Balenciaga y otras que fingen conversaciones entre políticos, utilizadas para programas de entretenimiento. Son inofensivas o identificables. La complicación está en su uso en el ámbito local o cotidiano, porque el contenido se distribuye sin desmentido y la víctima queda especialmente indefensa. Estos deepfake actualmente son identificables para el ojo experto. Sin embargo, a medio plazo, viendo su evolución y progreso, es muy probable que lleguen a ser indistinguibles.
Se ha puesto el foco en los menores que utilizaron la herramienta. Pero, ¿no debería buscarse la responsabilidad en quien la crea?
Depende del propósito. Si la aplicación solo sirve para eso, sin duda se le debería exigir al fabricante que ponga medidas para evitar un uso delictivo. Pero, en muchos casos, estas nacen con un propósito que no es dañino. Pedir la responsabilidad sería como acusar al inventor o fabricante de cámaras fotográficas de su uso, por ejemplo, para la difusión de pornografía infantil. Creo, por tanto, que en muchos casos la responsabilidad se debe buscar en el uso y no en la herramienta.
¿La solución pasa por la regulación o por la educación?
Ambas son necesarias. El problema es que es difícil adelantarse, porque el avance de la IA es muy rápido y el regulador necesita un tiempo para entender estos cambios. Y existe el riesgo también de que las leyes se pasen de frenada y regulen limitando el desarrollo tecnológico, lo que haría imposible que Europa se pusiera al nivel de Estados Unidos, China, o incluso Oriente Medio. Es un equilibrio difícil, por lo que es exigible diligencia.
Geoffrey Hinton, uno de los padres de la IA generativa, anunciaba este año que dejaba Google, avisando de los peligros de estas tecnologías. No ha sido el único. ¿Se nos ha ido de las manos el desarrollo tecnológico?
Es cierto que hay mucha alarma. Sin embargo, la mayoría de estas alarmas son altamente especulativas y no concretan cómo se puede llegar a peligros de primer nivel. Hay extremos muy mediáticos que plantean que el desarrollo de la IA puede llevar al fin de la humanidad, como hemos visto en novelas y películas de ciencia ficción. El principal riesgo es que estas voces distraigan de otros problemas menos especulativos como el cambio climático o el impacto que probablemente sí tendrá esta tecnología en el futuro del trabajo, no solo por la cantidad de trabajo automatizado, sino también por un posible cambio en lo que entendemos como trabajo y en cómo se distribuye la riqueza.
¿Cuál es el futuro de la universidad con aplicaciones como ChatGPT? Hay quienes hablan de que se modificará la capacidad de nuestro cerebro.
Es contraintuitivo, pero parece que la educación superior, especialmente las especialidades técnicas o ingenierías, serán las más afectadas por la entrada de la IA. Ciertamente, es probable también que todos estos cambios acaben afectando a nuestro cerebro, de igual manera que, según ciertos estudios, la aparición de los GPS ha modificado nuestra capacidad de orientación o los móviles la de memorizar números de teléfono. Esto no es necesariamente malo. Creo que hay que verlo como una evolución.
En el debate entre la priorización de la formación tecnológica o la humanista algunos dicen que el futuro va por una combinación entre las dos. ¿Va por ahí la solución hacia una tecnología más humana?
En mi opinión sí, son necesarias ambas. Creo que vamos a vivir un resurgimiento de las humanidades, puesto que hay muchas cuestiones que requieren comprensión de las posibilidades y de las limitaciones de la tecnología, junto con un análisis ético de esas posibilidades. En un corto plazo se necesitarán equipos que puedan afrontar los problemas tanto desde la perspectiva tecnológica como la humanista. En este sentido, aunque hay carreras universitarias que se verán afectadas, hay otras que se reforzarán, como es el caso de las humanidades y la filosofía, precisamente porque desarrollan el pensamiento crítico y son más difícilmente sustituibles por la IA.
SANDRA VÁREZ
Alfa y Omega
Imagen: Es miembro del comité de expertos del seminario Huella digital: ¿servidumbre o servicio? de la Fundación Pablo VI.
(Foto cedida por José Luis Calvo).