Hazte socio/a
Última hora
León XIV y el ataque a Irán: ¡De nuevo la guerra!

Expertos señalan en el Vaticano que la Iglesia debería apoyar el desarrollo de sistemas éticos frente a la IA

La Secretaría de Economía y la ULSA organizan un evento, apreciado y alentado por el Papa, sobre los riesgos y el potencial de las nuevas tecnologías

Los participantes en el seminario celebrado en el Vaticano | @Vatican Media

(Vatican News).- "Abundancia de medios y confusión de fines". La fórmula atribuida a Albert Einstein refleja un mundo impactado y moldeado por las nuevas tecnologías. Los intereses en juego son múltiples, no neutrales y es, en este contexto, que la Santa Sede, desprovista de intereses militares o comerciales, puede desempeñar un papel clave en la promoción de una gobernanza global que fomente sistemas éticos desde su diseño. Estas fueron algunas de las reflexiones que surgieron del seminario "Potencialidades y Desafíos de la Inteligencia Artificial ", organizado por la Secretaría para la Economía y la Oficina del Trabajo de la Sede Apostólica (ULSA), celebrado esta mañana, 2 de marzo, en el Salón San Pío X, Via della Conciliazione, 5, Roma.

El profesor Pasquale Passalacqua, director de la ULSA, al inaugurar el seminario, destacó que el propio Papa León XIV, informado directamente de la iniciativa, la valoró y alentó, con la esperanza de una mayor concienciación en este ámbito actual y complejo. Los debates fueron moderados por Alessandro Gisotti , subdirector editorial del Dicasterio para la Comunicación. Intervinieron Monseñor Paul Tighe , secretario del Dicasterio para la Cultura y la Educación; el Padre Paolo Benanti, profesor de la Pontificia Universidad Gregoriana y de la Universidad LUISS Guido Carli; y el profesor Corrado Giustozzi , profesor del máster en Ingeniería de Sistemas Inteligentes de la Universidad Campus Bio-Medico.

El arzobispo Tighe planteó algunas preguntas orientadoras al comienzo de su discurso, cuestionando cómo la Iglesia, y también la Curia Romana, deberían pensar en su presencia y misión en un mundo transformado por la inteligencia artificial: ¿cómo puede la Iglesia ser una presencia positiva en este nuevo y prometedor mundo? ¿Cómo podemos garantizar que el potencial de la IA contribuya al verdadero progreso de la humanidad, sin exacerbar las deficiencias existentes?

Volatilidad, incertidumbre, complejidad, ambigüedad

Para resumir las consecuencias del lanzamiento en 2022 de ChatGPT, uno de los chatbots más populares desarrollados por la empresa estadounidense OpenAI, el obispo irlandés utilizó el acrónimo VUCA: Volatility (Volatilidad), Uncertainty (Incertidumbre), Complexity (Complejidad) e Ambiguity (Ambigüedad). Se trata de un contexto tan rápido e impredecible que ni siquiera los propios desarrolladores lo perciben, en una carrera que entrelaza "desafíos económicos y políticos", donde las promesas de un "futuro brillante" se superponen con "amenazas existenciales", a veces respaldadas simultáneamente por los llamados "padrinos de la IA". Los riesgos, "sin caer en la retórica apocalíptica", son, sin embargo, concretos: "armas biológicas, propaganda, desinformación, sistemas fuera del control humano".

Cómo afrontar el “paradigma tecnocrático”

El Secretario del Dicasterio para la Cultura y la Educación instó entonces a un punto de encuentro entre diferentes corrientes de pensamiento: «Las posibilidades que nos depara el futuro son infinitas», afirmó el filósofo austriaco Karl Popper. Sin embargo, el futuro no puede ignorar la human agency, es decir, la «responsabilidad operativa humana».

Este postulado ya fue afirmado por el Papa Benedicto XVI en la encíclica Caritas in Veritate , y hoy se reitera en el llamamiento dirigido a toda la Iglesia para «apoyar el desarrollo de sistemas de IA ethics by design, es decir, éticos desde su concepción». Representatividad, transparencia y comprensibilidad son palabras clave para contrarrestar el «paradigma tecnocrático» ya identificado por el papa Francisco, que corre el riesgo de amplificar las injusticias, las desigualdades, la polarización y las amenazas ambientales en lugar de abordarlas.

Una inteligencia artificial ética

Por lo tanto, el desarrollo de la IA no se produce en espacios neutrales, reiteró el obispo. Está entrelazado con rivalidades geopolíticas, presiones comerciales y vanidad personal, lo que puede socavar las consideraciones éticas. Ante la falta de regulación internacional, las grandes potencias buscan la superioridad tecnológica, especialmente en el ámbito militar, mientras que la conciencia de una posible burbuja financiera incentiva la asunción de riesgos en detrimento de la seguridad. Al respecto, Monseñor Tighe citó noticias recientes y el caso de Anthropic, una empresa estadounidense fundada con el objetivo de desarrollar una IA más ética y sujeta a presiones gubernamentales para que relaje sus compromisos éticos con respecto a los usos militares y de vigilancia.

Los modelos están diseñados para complacer al usuario, a menudo por las mismas empresas que controlan las redes sociales, hasta el punto de "adular" a los usuarios y generar "alucinaciones", proporcionando "respuestas más que precisas

Los riesgos sociales de las nuevas tecnologías

A nivel social, los modelos de IA a menudo perpetúan e intensifican dinámicas perjudiciales ya establecidas por la digitalización: individualismo, polarización, falta de memoria compartida y esperanza colectiva, y la prevalencia de la emoción sobre la argumentación. Los modelos están diseñados para complacer al usuario, a menudo por las mismas empresas que controlan las redes sociales, hasta el punto de "adular" a los usuarios y generar "alucinaciones", proporcionando "respuestas más que precisas".

El Secretario del Dicasterio enfatizó además el riesgo de que la IA concentre la riqueza y el poder "en muy pocas manos", vinculando su desarrollo a grandes desafíos globales como la lucha contra el cambio climático o el acceso a la atención médica, y haciéndose eco del llamado del Papa Francisco a reformas políticas y económicas sistémicas. 

También destacó el riesgo de delegar tareas cognitivas específicamente humanas a la IA, especialmente por parte de quienes no pueden evaluar críticamente sus resultados ni plantear las preguntas adecuadas. No solo se ven afectadas las esferas laboral y académica, sino también las personales, relacionales y espirituales, encarnando la observación del psicólogo Abraham Maslow: "Para quien tiene un martillo, todo le parece un clavo".

La Iglesia debe guiar el desarrollo de la IA

Ante tales complejidades, el obispo recordó el documento Antiqua et Nova , elaborado en colaboración con el Dicasterio para la Doctrina de la Fe, indicando que «la sabiduría del corazón, capaz de integrar el todo y las partes», es lo que la humanidad más necesita hoy: una inteligencia que, ante el poder de las herramientas disponibles, cuestione su utilidad, sus propósitos y sus consecuencias.

En este contexto, se comprende «la atención que suscitó el compromiso del papa León XIV de situar la reflexión sobre la inteligencia artificial entre las prioridades de su pontificado». Por su parte, la Iglesia posee «autoridad moral» y la capacidad de reunir interlocutores cualificados, convirtiéndose en un socio clave para guiar el desarrollo de la IA.

El conocimiento, un don y no algo dado

El arzobispo Tighe explicó, punto por punto, cómo estos principios pueden traducirse en acciones concretas de la Iglesia. En cuanto a la competitividad, promovió la cooperación y la gobernanza global de las nuevas tecnologías. En un contexto de polarización, reafirmó la cultura del encuentro y el diálogo. En relación con las desigualdades, recordó que un pacto social realista debe unir también diversas culturas y visiones del mundo. Finalmente, en cuanto a la delegación cognitiva, reafirmó la visión católica de la educación: el conocimiento no son meros datos, sino algo que se recibe, se confronta y se transmite.

El Secretario del Dicasterio para la Cultura y la Educación concluyó su intervención señalando la responsabilidad específica de la Curia Romana con respecto a la IA: "sensibilizar sobre los problemas" y "apoyar la labor de la Iglesia en todo el mundo". En concreto, esto significa fortalecer la red de universidades católicas, en particular las facultades de teología y filosofía. Reconectando los puntos de la intervención, Gisotti precisó cómo ésta representó un "compromiso" por parte de toda la Iglesia, notando una particular analogía entre el último apéndice de la inteligencia artificial, los robots, los cyborgs y el personaje literario de Frankenstein, nacido de la pluma de Mary Shelley, quien comenzó a imaginarlo a partir de los primeros experimentos relacionados con la electricidad y el galvanismo.

La intervención de Monseñor Tighe

Los desafíos éticos de la IA

La presentación del Padre Benanti se centró en los desafíos éticos de la inteligencia artificial. Inicialmente, mostró dos fotografías de la Quinta Avenida de Nueva York: una tomada en 1900, con solo caballos recorriendo sus calles, y otra de 1913, poblada exclusivamente por automóviles. "¿Cuál de las dos es mejor?", preguntó el franciscano. La respuesta puede variar en función de diversos factores que se consideren en cada momento. "Por lo tanto, la pregunta es errónea: si abordamos la inteligencia artificial en términos de si es mejor o peor, nos enfrentamos a un sinfín de argumentos, algunos de los cuales están vinculados a diferentes intereses". Por lo tanto, es necesario considerar una nueva "ética de la tecnología" que cuestione la "política" de tales modelos.

"Todo artefacto tecnológico, cuando impacta en un contexto social, funciona como una disposición de poder y una forma de orden", afirmó el Padre Benanti, poniendo como ejemplo los algoritmos que determinaron qué ciudadano tenía acceso prioritario a la atención médica durante la pandemia. Una cuestión urgente, que resuena en “varias mesas”: desde la Santa Sede hasta las Naciones Unidas, donde las citadas “disposiciones de poder” están cada vez más influidas por los acuerdos comerciales. 

Los diferentes propósitos de la tecnología

Esto también repercute en el contexto informativo: la visibilidad de un artículo no depende necesariamente de su calidad, sino cada vez más de la posición que el algoritmo le otorga en las páginas web. Una "intermediación de poder", argumentó el profesor. La innovación puede estar dictada por un "propósito específico", cuando surge en respuesta a una necesidad, aunque "nunca neutral". Pero también existen familias de tecnologías que "en sí mismas no cambian nada, pero modifican la forma de hacer las cosas".

Las llamadas " tecnologías de propósito general ", como la electricidad. En su caso, históricamente, la difusión fue posible gracias a su "democratización", la reducción de precios. "Lo mismo ocurre con los sistemas de inteligencia artificial, que nacen como herramientas pseudo-libres". Y no es casualidad que las nuevas tecnologías puedan considerarse "de propósito general", es decir, una "capa" que tarde o temprano abarcará todos los aspectos de la vida. "Por eso es un tema tan importante: porque a través de la IA hemos cambiado la naturaleza de los objetos que crean la realidad". Una llamada "sociedad definida por el software ", una sociedad definida por el software que utiliza, que afecta la naturaleza y los procesos de toma de decisiones de cualquier organización, incluida la Santa Sede. 

La ventaja de usar IA, afirmó el padre Benanti, reside en eliminar la fricción. Un término, una metáfora, con muchas aplicaciones concretas. Por ejemplo, una aplicación de citas elimina la fricción, el esfuerzo de encontrar al amor de la vida. «Pero al hacerlo, uno cede parte de su poder», y la información transmitida se convierte así en una herramienta de control.

Los ponentes del evento

¿Qué es un algoritmo?

La presentación del profesor Giustozzi se centró en la naturaleza de la IA y sus limitaciones técnicas, presentando uno de sus componentes esenciales: el algoritmo. En términos sencillos, puede definirse como una "estrategia de resolución de problemas", consistente en una secuencia de operaciones elementales. Sus propiedades fundamentales son: finitud: "el algoritmo debe constar de un número finito de pasos de duración finita"; terminación: "debe completarse tras un tiempo finito"; generalidad: "debe proporcionar una solución para todos los problemas pertenecientes a una determinada clase"; y uniambigüedad: "los pasos deben ser inequívocos, deterministas e inequívocos". Por ejemplo, una receta de cocina no puede considerarse un algoritmo: solo resuelve un caso específico (la preparación de un plato concreto) y no una clase de problemas; además, a menudo contiene instrucciones formuladas de forma ambigua: basta con considerar el clásico "añadir sal al gusto".

Las cuestiones críticas de las nuevas tecnologías

Tras presentar la figura del matemático persa Abu Ja'far Muhammad ibn Musa al-Khwarizmi, quien vivió entre los siglos VIII y IX y fue pionero en un enfoque sistemático y lógico para la resolución de ecuaciones de primer y segundo grado, el conferenciante repasó los principales problemas críticos de los procesos de toma de decisiones basados en algoritmos. Entre ellos se encuentra el problema del sesgo : los algoritmos pueden implementar mecánicamente "estrategias de elección que están en la mente de su creador", a veces incorporando sesgos, ya sea de buena fe o deliberados, que distorsionan o hacen que los resultados sean injustos.

Un ejemplo citado es el Índice de Desarrollo Humano (IDH), desarrollado por las Naciones Unidas desde 1993, que a menudo es criticado por su tendencia a "premiar los modelos sociales que más se asemejan a Noruega". Además, un algoritmo puede ser ineficaz si el problema se formula incorrectamente; puede producir resultados distorsionados si se basa en suposiciones imprecisas o aproximaciones demasiado simplistas. o puede fallar si no ha sido “adecuadamente validado en un número suficiente de casos significativos” o si “su implementación adolece de errores lógicos o de programación”.

La importancia del entrenamiento en IA

Profundizando en el tema, el profesor Giustozzi explicó que los algoritmos típicos de IA operan a un mayor nivel de abstracción y no son necesariamente deterministas: no codifican simplemente "qué hacer para resolver un problema", sino "qué hacer para aprender a resolverlo". Por lo tanto, se definen como "abiertos", ya que "sus resultados no se derivan directamente de las reglas, sino que dependen de la experiencia adquirida por el sistema".

El cartel del evento

En este sentido, el entrenamiento , o la fase de instrucción, adquiere una importancia crucial en el desarrollo del algoritmo: si los datos están incompletos o distorsionados, los resultados serán inevitablemente incorrectos o discriminatorios. Esta naturaleza compleja e intrincada, hasta el punto de que para enmarcarla, el profesor adaptó un famoso aforismo de San Agustín sobre el tiempo: "Si nadie me pregunta, lo sé bien; pero si quiero explicárselo a quien me pregunta, no lo sé". El profesor finalmente llamó la atención sobre los riesgos asociados con el uso de la IA, enfatizando que siempre debe considerarse un "apoyo" a la actividad humana y que sus resultados deben estar sujetos a una revisión crítica constante.

Refiriéndose al concepto de entrenamiento  y recopilación de datos, Gisotti señaló cómo el impacto de la IA también afecta al medio ambiente y a nuestro hogar común: en Virginia, Estados Unidos, más del 30% de la energía es utilizada por los llamados centros de datos, los centros que almacenan la información con la que se entrenan las nuevas tecnologías. En Irlanda, la cifra sigue siendo igualmente significativa: el 20% es utilizado por Google. En resumen, una organización con un alto consumo energético.

Reconocer y respetar lo que caracteriza al ser humano.

En la inauguración del seminario, el profesor Passalacqua transmitió los saludos del presidente de la ULSA, Monseñor Marco Sprizzi, quien no pudo asistir a la reunión debido a su compromiso con la celebración del bicentenario de las relaciones diplomáticas entre Brasil y la Santa Sede. En su saludo, además de llamar la atención del Papa sobre el evento tras haber sido informado por Monseñor Sprizzi en la audiencia que le concedió el 6 de febrero, recordó las palabras del propio Pontífice, quien, en su audiencia del pasado diciembre con los participantes de la conferencia "Inteligencia Artificial y Cuidado de la Casa Común ", enfatizó que "reconocer y respetar lo que caracteriza a la persona humana y asegura su crecimiento armonioso" es "esencial para establecer un marco adecuado para gestionar las implicaciones de la inteligencia artificial".

También te puede interesar

Lo último

3 de marzo 50 años. Las víctimas de aquel año 1976

Hoy disfrutarían quizá de sus nietos

Extraído de "Sinfonía divina, acordes encarnados" Edit. PPC

Del diálogo y las bombas. Jesús y la samaritana