Una tesis de Deusto advierte del riesgo de automatizar la injusticia si no aplicamos un marco feminista y de derechos humanos a la tecnología
'Hic et nunc' insta a la acción inmediata, al considerar que estamos en un momento crítico para sentar las reglas de la IA que gobernará nuestro futuro
(Universidad de Deusto).- En un mundo donde los algoritmos deciden quién recibe un préstamo o el nivel de riesgo de una mujer que sufre violencia de género, la neutralidad de la tecnología está bajo sospecha o directamente no existe. Borja Sanz Urquijo, autor de la tesis ‘Hic et nunc (Aquí y ahora), Análisis interdisciplinar del potencial y las limitaciones de la IA para la defensa de los derechos humanos desde un marco feminista’, defendida en la Universidad de Deusto, advierte de que, si no aplicamos un marco feminista y de derechos humanos a la tecnología, corremos el riesgo de automatizar la injusticia a una velocidad sin precedentes.
El sesgo se materializa con la infrarrepresentación de las mujeres en el sector de la IA: apenas constituyen un 22% del talento global y menos del 15% de los puestos directivos. Si la inteligencia artificial se alimenta de macrodatos procedentes de historias clínicas diseñadas para hombres, resoluciones judiciales sesgadas o redes sociales en las que prospera el odio machista, los algoritmos tienden a reproducir, incluso amplificar, las desigualdades estructurales. Es el llamado ‘sesgo por omisión’, en el que la ausencia de datos sobre mujeres genera modelos que, por ejemplo, diagnostican peor los infartos en mujeres o penalizan con mayor severidad su solvencia crediticia.
Borja Sanz, que es profesor e investigador de la Facultad de Ingeniería de la Universidad de Deusto y que con ‘Hic et nunc’ tiene ya dos tesis en su haber, mantiene en su investigación una postura equilibrada entre la tecnofobia y el tecnooptimismo, al considerar la doble dimensión de la tecnología, según la cual las herramientas digitales también ofrecen oportunidades para la protección y el empoderamiento, mediante canales de denuncia seguros, redes de apoyo y sistemas de alerta temprana.
El fin de la IA extractiva
Hasta ahora, la relación entre la administración y la ciudadanía ha sido, según explica en su tesis, extractiva. El sistema funciona como una gran aspiradora: recoge datos íntimos y sensibles de las personas, los procesa en una "caja negra" —un algoritmo cuyo funcionamiento interno es a menudo un misterio incluso para quienes lo han creado— y devuelve una decisión fría.
"Sostenemos que estos sistemas pueden evolucionar", afirma el investigador Sanz. La propuesta para evitar sesgos y revictimización es pasar de ese modelo en el que la víctima es un mero "yacimiento de datos" a un sistema que la empodere. ¿Cómo? Haciéndola partícipe del diseño de la herramienta y asegurando que la tecnología no solo sirva para clasificar el riesgo, sino para ofrecer soluciones humanas y tangibles.
La interseccionalidad: más allá del código
Uno de los puntos más innovadores de la tesis es la necesidad de aplicar la interseccionalidad en la programación. Los algoritmos actuales suelen ser "ciegos" a las capas de identidad que caracterizan a las personas. Una mujer que sufre violencia no enfrenta los mismos retos si es migrante, si vive en una zona rural sin transporte público o si tiene una discapacidad.
Si a la hora de diseñar e implementar estos sistemas no se contemplan estas variables, el sistema genera "puntos ciegos". La tesis propone que la IA debe ser capaz de entender estas realidades complejas para no dejar a nadie atrás, transformando la frialdad del dato en una herramienta de protección personalizada.
‘Hic et nunc’: momento crítico para sentar la reglas de la IA
La conclusión de la tesis es un llamamiento a la acción inmediata. El ‘Hic et nunc’ del título insta a la sociedad a actuar, ya que es ahora cuando se están escribiendo las reglas de la IA que gobernará nuestras vidas en las próximas décadas.
La propuesta final es sustituir la "ética de la eficiencia" por una "ética del cuidado". Esto significa que el éxito de una IA no debería medirse solo por su precisión estadística, sino por su capacidad para proteger la dignidad humana, garantizar la transparencia y permitir que cualquier persona pueda entender y cuestionar por qué una máquina ha tomado una decisión sobre su vida.
En definitiva, la tesis ‘Hic et nunc’ nos recuerda que la inteligencia artificial es, ante todo, una herramienta humana. Y como tal, debe estar al servicio de la igualdad y la justicia, no de prejuicios del pasado.