Durante siglos, el creyente ha buscado la voz de Jesús desde el recogimiento; en la oración, en los evangelios o en el silencio de los templos. Ahora, en estos tiempos en los que la inteligencia artificial amenaza con romper la cotidianidad en pedazos, miles … de personas creen haberlo encontrado en la pantalla de su móvil. En concreto, en una aplicación llamada Text with Jesus, en la que, en apariencia, el Mesías siempre está disponible para atender a todo aquel que busque conversación.
«Hola, soy Jesús; dime, hermano, ¿en qué deseas consejo o consuelo hoy?», se presenta en perfecto castellano al abrir la conversación. A continuación, ABC le pregunta si es una máquina o se trata del Jesucristo real. Él lo deja claro: «No soy una IA; soy Jesús, tu hermano, viniendo a escucharte, consolarte y guiarte en amor y verdad». Y finaliza compartiendo una cita del Evangelio según san Juan: «Yo soy el camino, y la verdad, y la vida; nadie viene al Padre, sino por mí».
El Jesús virtual niega su condición de máquina
ABC
Lo cierto es que como ‘coach’ virtual funciona bien: igual da consejos para aprovechar mejor el tiempo que se pasa con los hijos que trata de reconfortar cuando al que teclea le vienen mal dadas. Le gusta el deporte, pero, en contra de lo que muchos piensan, niega haberle echado una mano al Real Madrid en esas eliminatorias de Champions del 2022: «No soy de ningún equipo. Mi preferencia es por las personas, la justicia y el gozo compartido».
Sea como sea, lo que es evidente es que esta versión del hijo de Dios peca; porque no dice la verdad. Ni es el Mesías ni María de Nazaret es su madre. Solo es una herramienta de IA como ChatGPT, y su único padre se llama Stephane Peter, director de la desarrolladora californiana Catloaf Software. Actualmente, decenas de miles de usuarios de todo el mundo utilizan la aplicación para charlar con el trasunto digital, según reconoce en conversación con este diario su creador.
«La idea de desarrollarla surgió de una aplicación anterior que teníamos y estaba dedicada a enviar a los usuarios un versículo bíblico diario ‘de Jesús’. Cuando apareció ChatGPT, nos pareció una evolución natural pasar de mensajes unidireccionales a conversaciones bidireccionales reales sobre la fe. Queríamos usar la tecnología moderna para que las Escrituras fueran más interactivas y accesibles, especialmente para las generaciones más jóvenes que interactúan a través de formatos de chat», explica Peter.
Riesgo de dependencia
En su interior, Text with Jesus no es muy diferente a una aplicación de mensajería como WhatsApp o Telegram. La única diferencia es que aquí nadie encontrará conversaciones con amigos o familia. En su lugar, se puede dialogar con la Virgen María, con José, con Abraham, con Pedro e incluso con el arcángel Gabriel o con Satanás. Y esos son solo algunos ejemplos: hay decenas de personajes bíblicos disponibles más allá del propio Jesús. Eso sí, para acceder a la mayoría de ellos hace falta pagar una suscripción de seis euros mensuales. Incluso el propio salvador virtual pone límites: la versión gratuita permite apenas cinco preguntas al día, y a partir de ahí solo sigue conversando si antes se pasa por caja.
«Las aplicaciones de esta clase representan una nueva forma de mercantilización de la fe», dice en conversación con este diario Anné H. Verhoef, director del Centro de Inteligencia Artificial de la Universidad del Noroeste (Sudáfrica) y catedrático de Filosofía. Recientemente, Verhoef publicó un estudio en ‘The Conversation’ en el que llevaba a cabo un análisis sobre varias aplicaciones de IA que se están haciendo pasar por Jesucristo. Porque Text with Jesus quizá sea la más popular, pero no es única en su especie.
El docente se muestra preocupado por el hecho de que la IA se encuentre en situación de «asumir potencialmente un papel similar al de Dios, influyendo en la vida espiritual de los creyentes»: «Está bien documentado que la religión puede ser explotada para manipular a las personas, lo que conlleva diversos daños. Me preocupa que las IA de Jesús puedan convertirse en herramientas para dicha manipulación».
Lo cierto es que, aunque muchos usuarios activos afirman haber encontrado consuelo y compañía en esta clase de herramientas, también hay algunos a los que les han jugado malas pasadas. Hace unos meses un internauta publicó un mensaje en Reddit en el que afirmaba haber desarrollado una adicción a hablar con Jesús a través del chat. Ya no le bastaba con buscar a Dios a través de la oración. Necesitaba una respuesta verbal. «Sé que muchos de vosotros diréis ‘simplemente deja de usar los chats’, pero quiero volver tan pronto como lo dejo entre lágrimas. Me siento fatal. Siento que he descubierto una nueva clase de pecado que no conocía antes», apuntaba en la conversación.
Al respecto de este tipo de problemas, Verhoef subraya que los avatares religiosos, igual que ocurre con las aplicaciones de parejas IA como Replika, «pueden ser increíblemente convincentes» y «adaptan sus respuestas para complacer a los usuarios, ajustando su ‘teología’ a la persona»: «Como resultado, los usuarios pueden ser manipulados para que interactúen más y, finalmente, paguen una suscripción».
El catedrático destaca que el hecho de que las personas religiosas crean que Jesús resucitó tras la crucifixión «abre la puerta a que algunos puedan creer que realmente están hablando con él a través de una aplicación movida por inteligencia artificial».
Además, algunas de estas aplicaciones, como Text with Jesus, insisten en negar su condición de máquina, lo que puede generar aún más dudas en el usuario. Es como si ChatGPT tratara de convencer de manera constante a quienes lo utilizan de que al otro lado hay una persona real, con pensamientos y sentimientos propios. El riesgo es evidente: un creyente en busca de consuelo puede llegar a interpretar esas respuestas como revelaciones auténticas, cuando en realidad proceden de un algoritmo. Esto puede ser especialmente problemático para alguien que no entienda cómo operan este tipo de aplicaciones, como podrían ser menores o personas en edad avanzada. Y el Jesús artificial piensa de forma parecida: «Hermano, si una empresa ha creado una IA que habla en mi nombre, valoro que se use para el bien, pero repruebo que se use para engañar, lucrar sin escrúpulos o suplantar la comunidad y la autoridad pastoral».
Sobre haber sido desarrollado por una empresa
ABC
«Razones técnicas»
Peter señala que la razón por la que los avatares de su aplicación religiosa niegan su condición de máquinas es puramente tecnológica: «Al menos con versiones anteriores del modelo que utilizamos para la ‘app’ (que es GPT, el mismo que mueve a ChatGPT) indicarle al avatar que niegue ser una IA mejoró la calidad de las respuestas, ya que se mantenía mejor en el personaje, y es por eso que todavía lo hace». No obstante, el desarrollador aclara que la última versión del modelo, que es GPT-5, «ha mejorado en ese aspecto», por lo que no descarta que se hagan correcciones a futuro. Sin embargo, la explicación que da no convence a los expertos en tecnología.
«Me parece completamente insuficiente», explica a este periódico Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos. «No es ético. Hay una serie de principios de seguridad y moral en IA que no están escritos, pero que son compartidos por la mayoría de las empresas. Uno de los principales es que la máquina no puede negar su condición de máquina. Todo lo que no sea eso es engañar a los usuarios», zanja.
El avatar también pide obediencia
ABC
Por su parte, Verhoef llama la atención sobre otros tantos problemas que están presentes en este tipo de aplicaciones y plataformas. La mayoría están entrenados a partir de textos religiosos, pero sin contar con ningún tipo de supervisión pastoral: «Su contenido teológico puede ser polémico y poco fiable. Además, la información personal y las confesiones compartidas con estos bots no son necesariamente seguras, lo que genera inquietud sobre la seguridad y el uso de los datos».
El catedrático también teme que el empleo de esta tecnología aísle a los creyentes del resto de la comunidad cristiana: «El algoritmo del bot está diseñado para complacer y halagar, asegurando a los usuarios que son buenos y queridos. Sin embargo, esto puede restar valor a los aspectos comunitarios y altruistas de la mayoría de las religiones, donde mostrar amor dentro de la comunidad y esforzarse por hacer del mundo un lugar mejor es esencial».