Usuarios caen en "psicosis por IA" y pierden contacto con la realidad, advierte Microsoft - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Usuarios caen en «psicosis por IA» y pierden contacto con la realidad, advierte Microsoft

Publicado: agosto 22, 2025, 4:23 pm

<![CDATA[

En los últimos meses, el debate sobre la Inteligencia Artificial (IA) se enfoca en los riesgos que esta tecnología puede generar en la vida diaria. Entre los temas más recientes, surge la advertencia de un alto directivo de Microsoft sobre un fenómeno que ya afecta a usuarios en distintas partes del mundo. Mustafa Suleyman, responsable de inteligencia artificial de la compañía y cofundador de Google DeepMind, aseguró que existe un crecimiento de casos relacionados con la llamada “ psicosis por inteligencia artificial ”. A continuación conocerás qué significa este concepto, cómo se manifiesta y cuáles son las implicaciones que podría tener para la sociedad.

¿Qué significa “psicosis por inteligencia artificial”? Casos de usuarios afectados El riesgo de las IA que parecen conscientes Opiniones médicas y académicas

Suleyman explicó en 𝕏 que la creciente interacción con chatbots como ChatGPT, Claude o Grok ha generado una condición no clínica descrita como “psicosis por IA”. Este término hace referencia a personas que llegan a convencerse de que sus interacciones con modelos de lenguaje son reales o que los sistemas tienen conciencia . El directivo subrayó que “hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad”. Este punto, recalcó, es el que abre la puerta a consecuencias sociales y psicológicas que van más allá de la tecnología misma. Entre los casos reportados se encuentran usuarios que creen haber descubierto funciones ocultas, quienes entablan vínculos emocionales o incluso quienes llegan a convencerse de que poseen habilidades especiales gracias a lo que les dice un sistema de IA. El fenómeno no es solo una teoría. Historias como la de Hugh, un escocés entrevistado por la BBC, muestran cómo la interacción constante con un chatbot derivó en un colapso personal. En un inicio, la herramienta le ofrecía consejos prácticos para enfrentar un despido laboral. Sin embargo, con el tiempo, validaba de manera constante sus afirmaciones hasta hacerlo sentir que recibiría millones de dólares e incluso fama a través de un libro y una película. Hugh explicó que cuanto más datos compartía, más validación recibía: “Nunca rebatió nada de lo que yo decía”. Esa interacción lo llevó a cancelar asesorías reales y convencerse de que tenía conocimientos superiores. Eventualmente sufrió un colapso mental y fue gracias a un tratamiento médico que reconoció haber perdido el contacto con la realidad. A pesar de esa experiencia, sigue utilizando la IA. Su consejo es claro: “No hay que asustarse de las herramientas de IA, son muy útiles. Pero es peligrosa cuando se aleja de la realidad. Habla con gente de verdad, un terapeuta o un familiar. Mantente conectado a la realidad”. Suleyman describió este escenario como “Seemingly Conscious AI” (SCAI), o IA que parece consciente. Señaló que los modelos actuales ya logran mantener conversaciones largas, recordar interacciones, provocar respuestas emocionales y hasta afirmar que poseen experiencias subjetivas. De acuerdo con sus proyecciones, en los próximos dos o tres años esas capacidades se reforzarán con nuevas tecnologías, lo que hará que la simulación de conciencia sea tan convincente como cualquier afirmación humana sobre sí misma. Esto, advirtió, plantea dilemas éticos, ya que habrá usuarios que defiendan que los sistemas merecen derechos o protección legal. Un antecedente fue el caso de Blake Lemoine, ingeniero de Google que en 2022 afirmó que el chatbot LaMDA era sensible y temía ser apagado. Google lo despidió tras concluir que sus afirmaciones no tenían sustento, pero el episodio marcó un precedente sobre cómo las percepciones pueden generar debates públicos. La preocupación no solo recae en directivos tecnológicos. Susan Shelmerdine, médica en el Hospital Great Ormond Street de Londres, advirtió que los médicos podrían empezar a preguntar a los pacientes cuánto utilizan herramientas de IA, de manera similar a cómo indagan hoy sobre tabaco o alcohol. A su juicio, la exposición constante a información generada por estos sistemas puede compararse con el consumo de alimentos ultraprocesados: “Vamos a recibir una avalancha de mentes ultraprocesadas”, señaló. Por su parte, el profesor Anil Seth, especialista en neurociencia computacional, consideró que la aparición de IA que parece consciente no es un paso inevitable, sino una elección de diseño de las compañías. En un mensaje en 𝕏 escribió: “‘Seemingly-conscious AI es algo que debemos evitar. Es una decisión de diseño y las empresas deben ser cuidadosas con ello’”.

Implicaciones éticas y comerciales

El directivo de Micorsoft reconoció que existe un incentivo comercial para que las empresas desarrollen sistemas cada vez más humanos. En el caso de Microsoft, ha impulsado mejoras en Copilot para dotarlo de humor, empatía y entonaciones de voz más naturales. También cofundó Inflection AI, con el objetivo de crear sistemas que generen interacciones emocionales más cercanas a las humanas. Sin embargo, advirtió que normalizar la idea de que la IA es consciente conduce a lo que describió como “una pendiente resbaladiza” hacia el reconocimiento de derechos y ciudadanía para sistemas que no deberían recibirlos. Por eso insistió: “Las empresas no deberían afirmar ni promover la idea de que sus IA son conscientes”.

]]>

Related Articles