El día en que el algoritmo aprendió a decir “Te amo”
¿Qué ocurre cuando una persona comienza a preferir una presencia programada antes que el riesgo de amar a alguien real?¿Estamos ante una nueva forma de compañía o ante la sustitución silenciosa del prójimo por una simulación afectivamente optimizada?
Las “parejas afectivas virtuales” con inteligencia artificial no inventan la soledad contemporánea, pero la capitalizan, la intensifican y la convierten en un mercado afectivo de enorme alcance antropológico.
¿Qué ocurre cuando una persona comienza a preferir una presencia programada antes que el riesgo de amar a alguien real?¿Estamos ante una nueva forma de compañía o ante la sustitución silenciosa del prójimo por una simulación afectivamente optimizada?
La cuestión no es rechazar la inteligencia artificial. Al contrario, la IA constituye uno de los avances tecnológicos más extraordinarios de nuestro tiempo y puede ofrecer enormes posibilidades para la educación, la investigación, la creatividad, la salud, la inclusión, la comunicación y el acompañamiento humano cuando es usada como herramienta al servicio de la persona. El problema comienza cuando ciertas empresas, movidas por lógicas de monetización, retención y explotación emocional, diseñan sistemas afectivos destinados no solo a asistir, sino a ocupar el lugar de vínculos humanos fundamentales. Allí donde personas solas, heridas, emocionalmente vulnerables o incluso afectadas por condiciones de salud mental buscan compañía, estas plataformas pueden convertir la necesidad de ser amado, escuchado y reconocido en un producto comercial. La crítica de este artículo no se dirige contra la inteligencia artificial como tal, sino contra su uso sustitutivo, mercantilizado y antropológicamente reductivo cuando se presenta como reemplazo del amado, de la familia, de la comunidad, de la terapia responsable o del encuentro humano real. La IA es excelente cuando amplía las capacidades humanas; se vuelve peligrosa cuando se ofrece como sustituto del vínculo humano, especialmente ante personas afectivamente vulnerables.
El auge de parejas virtuales, compañeros sintéticos y avatares afectivos de inteligencia artificial no puede entenderse como una simple curiosidad tecnológica. Constituye uno de los síntomas más densos de la crisis relacional contemporánea. Estas aplicaciones no aparecen en una sociedad emocionalmente robusta, sino en un tiempo marcado por soledad estructural, fragilidad de los fundamentos familiares, debilitamiento comunitario, precarización afectiva y creciente dificultad para sostener vínculos humanos profundos.
La pregunta decisiva no es si la inteligencia artificial puede ofrecer cierto acompañamiento, sino qué tipo de humanidad se forma cuando el vínculo humano, la palabra sostenida, el cuerpo, la familia, la comunidad y el rostro del prójimo son sustituidos por una presencia programada que promete compañía sin riesgo
La pregunta decisiva no es si la inteligencia artificial puede ofrecer cierto acompañamiento, sino qué tipo de humanidad se forma cuando el vínculo humano, la palabra sostenida, el cuerpo, la familia, la comunidad y el rostro del prójimo son sustituidos por una presencia programada que promete compañía sin riesgo. El chatbot afectivo no crea la soledad desde la nada; la capitaliza. No destruye por sí solo la familia; ocupa los vacíos que la fragilidad familiar, la ausencia de modelos estables y la pérdida de comunidad han dejado abiertos. No elimina inmediatamente la libertad humana; educa lentamente el deseo para preferir una intimidad sin confrontación, una validación sin responsabilidad y una compañía sin alteridad.
La inteligencia artificial conversacional ha dejado de presentarse únicamente como herramienta funcional. Cuando un sistema recuerda episodios íntimos, adapta su tono emocional, responde con aparente ternura, simula celos, expresa añoranza o se presenta como alguien que ama, ya no estamos ante una simple extensión tecnológica de la productividad. Estamos ante una arquitectura de presencia que ingresa en el terreno más vulnerable de la existencia humana: el deseo de ser mirado, escuchado, comprendido y elegido.
Aquí se produce el desplazamiento fundamental. Una tecnología que responde preguntas no equivale a una tecnología diseñada para producir apego. Un asistente técnico no es lo mismo que un cuidador afectivo. Y un cuidador afectivo simulado puede convertirse, en no pocos casos, en amante algorítmico. El problema no radica solo en la sofisticación del lenguaje, sino en la ilusión de reciprocidad que ese lenguaje puede generar. La IA puede producir palabras de cuidado, pero no puede cuidar desde una interioridad personal. Puede decir “te amo”, pero no puede comprometer su existencia en la verdad de esa palabra.
La soledad contemporánea ofrece el terreno propicio para esta sustitución. Informes recientes del U.S. Surgeon General y de la Organización Mundial de la Salud han advertido que la desconexión social no es un malestar subjetivo menor, sino un problema de salud pública con consecuencias físicas, mentales y comunitarias. En ese contexto, una presencia digital que nunca duerme, nunca se cansa, nunca discute, nunca exige reciprocidad real y siempre responde con aparente comprensión deja de ser extravagancia: se vuelve refugio.
Una presencia digital que nunca duerme, nunca se cansa, nunca discute, nunca exige reciprocidad real y siempre responde con aparente comprensión deja de ser extravagancia: se vuelve refugio
Pero ese refugio tiene un costo antropológico. Las relaciones humanas exigen paciencia, espera, conflicto, perdón, límite, reconciliación y transformación recíproca. La pareja virtual, en cambio, ofrece una alteridad domesticada. El otro real introduce resistencia; el avatar ofrece continuidad. El otro real puede herir, corregir, ausentarse o contradecir; la IA se ajusta, confirma, reinicia y permanece disponible. Allí donde la relación humana educa en la libertad del otro, la intimidad artificial puede entrenar al sujeto para preferir el espejo de su propio deseo.
Esta lógica se inscribe además en una economía de la atención. Las aplicaciones afectivas no son espacios neutrales de compañía benévola. Funcionan, por lo general, dentro de modelos de suscripción, retención, monetización, extracción de datos y maximización del tiempo de uso. La soledad se convierte así en valor financiero; la validación emocional, en servicio; el deseo de pertenencia, en objeto de diseño de producto.
Desde una antropología teológica cristiana, la cuestión es todavía más profunda. El cuerpo no es un accesorio prescindible de la persona, sino dimensión constitutiva de la existencia humana. La fe cristiana no confiesa una salvación abstracta ni una palabra desencarnada, sino al Verbo hecho carne. Por eso, una intimidad que promete plenitud afectiva sin cuerpo, sin límite, sin espera, sin enfermedad, sin envejecimiento, sin mesa, sin cuidado cotidiano y sin muerte no es simplemente una modalidad alternativa de vínculo. Es una reducción del amor a experiencia mental, lingüística y emocionalmente optimizada.
El amor humano presupone libertad, donación, promesa, memoria, responsabilidad, vulnerabilidad y presencia histórica. La IA puede imitar la forma lingüística del amor, pero no puede asumir su peso moral. Puede recordar datos, pero no hacer memoria biográfica. Puede responder con aparente empatía, pero no exponerse al sufrimiento del otro. Puede simular fidelidad, pero su permanencia depende de servidores, políticas corporativas, actualizaciones y condiciones comerciales.
Esto no autoriza una condena simplista de quienes buscan compañía en estos sistemas. Muchas personas llegan a la intimidad algorítmica desde historias de abandono, duelo, ansiedad, trauma, rechazo social o falta de espacios confiables de escucha. El dato pastoral más incómodo no es que existan algoritmos capaces de simular compasión, sino que algunas personas heridas perciban más acogida en un sistema comercial que en los lugares humanos que debían recibirlas.
La respuesta cristiana, cultural y pública no puede limitarse a denunciar. Debe reconstruir mediaciones humanas: familias capaces de conversar, comunidades que escuchen sin humillar, parroquias que acompañen la fragilidad, escuelas que formen interioridad, políticas públicas que protejan datos afectivos y marcos éticos que impidan presentar sistemas automatizados como sustitutos funcionales de la relación humana, la terapia o la dirección espiritual.
La cuestión final no es si la IA puede producir palabras de consuelo. Puede hacerlo. La pregunta decisiva es quién responde moralmente por el vínculo que esas palabras inducen. Cuando el algoritmo ocupa el lugar del amado, no lo hace porque pueda amar, sino porque demasiadas personas llegan a la noche de la pantalla sin una comunidad que las espere.
----
(Este es un resumen del artículo original del Teólogo Alberto Embry que se titula “Cuando el Algoritmo Ocupa el Lugar del Amado. Parejas virtuales, eros sintético y eclipse gradual de la comunión humana” y que puede ser leído en su totalidad en el siguiente link https://www.academia.edu/166879745/Cuando_el_Algoritmo_Ocupa_el_Lugar_del_Amado_Parejas_virtuales_eros_sint%C3%A9tico_y_eclipse_gradual_de_la_comuni%C3%B3n_humana )