El Arzobispo Ettore Balestrero, Observador Permanente de la Santa Sede ante las Naciones Unidas y las Organizaciones Internacionales en Ginebra, habló sobre el tema durante un debate del Grupo de Expertos Gubernamentales, reiterando que el armamento dirigido por Inteligencia Artificial «nunca debería optar por quitar la vida a un ser humano».
Ciudad del Vaticano, 29 de agosto 2024.- Para la Santa Sede es «de la máxima urgencia» dotarse de un «sólido instrumento jurídicamente vinculante» que prohíba el uso de las llamadas «armas autónomas letales» y, mientras tanto, «establecer una moratoria inmediata sobre su desarrollo y uso». Así lo subrayó el arzobispo Ettore Balestrero, observador permanente de la Santa Sede ante las Naciones Unidas y las Organizaciones Internacionales en Ginebra, en su intervención en la segunda sesión del Grupo de Expertos Gubernamentales (GGE) 2024 sobre tecnologías emergentes en el campo de los sistemas de armas autónomas letales (Laws), que se celebra en la ciudad suiza del 26 al 30 de agosto.
Discurso del Papa en el G7 sobre Inteligencia Artificial
Citando el discurso del Papa Francisco sobre Inteligencia Artificial a los líderes del G7 reunidos en Borgo Egnazia (Italia) el pasado 14 de junio, Balestrero recordó que el Pontífice les instó a «reconsiderar el desarrollo y el uso de dispositivos como las llamadas “armas autónomas letales” y, eventualmente, prohibir su uso». Esto comienza con un compromiso efficaz y concreto de introducir un control humano cada vez más adecuado. Ninguna máquina debería optar jamás por quitar la vida a un ser humano». Sin embargo, para el prelado, los campos de batalla actuales «se están convirtiendo también en campos de pruebas para armas cada vez más sofisticadas».
Las armas autónomas no son entidades moralmente responsables
La Santa Sede, prosiguió el arzobispo, aprueba y apoya el enfoque del Grupo de Expertos «en el análisis de las funciones potenciales y los aspectos tecnológicos de los sistemas de armas autónomas», porque la identificación de sistemas «incompatibles con el derecho internacional humanitario y otras obligaciones internacionales existentes» podría ser de gran utilidad para establecer prohibiciones y restricciones, «teniendo en cuenta consideraciones éticas más amplias». Para la Santa Sede, aclaró el observador permanente, «los sistemas de armas autónomas no pueden considerarse entidades moralmente responsables». En efecto, la persona humana, dotada de razón, «posee una capacidad única de juicio moral y de toma de decisiones éticas que no puede ser reproducida por ningún conjunto de algoritmos, por complejo que sea». Por ello, la delegación de la Santa Sede aprecia las referencias tanto al «control apropiado» como al «juicio humano» en el «texto fluido» redactado como base para el debate de la sesión, aunque pide «una mayor claridad y una comprensión común de estos términos».
Una máquina elige, el hombre decide con el corazón
Por eso, monseñor Balestrero recordó la differencia entre «elección» y «decisión». En su discurso en el G7 de Borgo Egnazia, el Pontífice, subrayando que las máquinas se limitan a producir elecciones técnicas algorítmicas, recordó que «el ser humano, sin embargo, no sólo elige, sino que en su corazón es capaz de decidir». Y esto es un elemento más estratégico que una elección, porque requiere una evaluación práctica». Además, continuó el Papa Francisco, «una decisión ética es aquella que tiene en cuenta no sólo los resultados de una acción, sino también los valores en juego y los deberes que conlleva». Por ello, siempre citando el discurso del Papa, el arzobispo reiteró que para la Santa Sede es necesario «asegurar y salvaguardar un espacio de adecuado control humano sobre las elecciones que hacen los programas de inteligencia artificial: de ello depende la propia dignidad humana.
El progreso técnico debe estar al servicio del bien común
El representante del Vaticano subrayó a continuación que existe una creciente «conciencia mundial de las preocupaciones éticas que suscita el uso de la inteligencia artificial como arma». Esto también se reflejó en el papel prominente asignado a las consideraciones éticas en la reciente conferencia «La humanidad en la encrucijada: los sistemas de armas autónomas y el desafío de la regulación», celebrada en Viena los días 29 y 30 de abril de 2024. Y concluyó recordando que «el desarrollo de armas cada vez más sofisticadas no es ciertamente la solución». Los beneficios que la humanidad obtendrá del actual progreso tecnológico dependerán, como escribe Francisco en la Encíclica Laudato si’, «de la medida en que dicho progreso vaya acompañado de un adecuado desarrollo de responsabilidades y valores que pongan los avances tecnológicos al servicio del desarrollo humano integral y del bien común».
ALESSANDRO DI BUSSOLO