Publicado: junio 11, 2025, 12:30 pm
¿Estamos convirtiéndonos en adictos a la inteligencia artificial? ¿Usar ChatGPT a diario puede equipararse a una dependencia como la del juego o las drogas? Un nuevo estudio internacional, con participación española a través de la Universitat de València, lo tiene claro: no, ChatGPT no causa adicción clínica y usarlo con frecuencia no equivale a desarrollar una dependencia patológica.
La conclusión es contundente: “Para clasificar una conducta como adictiva, debe haber evidencia convincente de consecuencias negativas, pérdida de control, angustia psicológica y deterioro funcional. Sin embargo, la investigación existente sobre el uso problemático de ChatGPT u otros bots de IA conversacional no proporciona evidencia científica tan sólida”.
Por lo tanto, advierten los investigadores, “es necesario tener cuidado para evitar la (sobre)patologización, los tratamientos inadecuados o innecesarios y la regulación excesiva” de herramientas que tienen muchos beneficios cuando se utilizan de manera consciente y regulada.
El estudio —titulado La gente no se está volviendo adicta a la IA: cuestionando el concepto de «adicción a ChatGPT»— ha sido elaborado por un equipo internacional formado por Víctor Ciudad-Fernández (Universitat de València), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne).
«No existe evidencia científica sólida»
Tras analizar los estudios existentes sobre la supuesta adicción a ChatGPT, los autores detectaron un patrón preocupante: muchos de ellos utilizan cuestionarios adaptados de escalas diseñadas para medir la dependencia al alcohol o la cocaína.
“Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot. Es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, denuncia Víctor Ciudad-Fernández, del grupo de investigación I‑PSI‑TEC de la Universitat de València.
Los investigadores recuerdan que este tipo de alarma social no es nuevo. Durante los últimos cien años, distintos medios y voces públicas han alertado sobre supuestas adicciones a tecnologías como la radio, la televisión o Internet, todas ellas sin evidencia científica concluyente.
“A lo largo de la historia, las nuevas tecnologías se han asociado repetidamente con preocupaciones generalizadas y «pánicos morales», especialmente cuando su adopción es repentina e implica cambios significativos en el funcionamiento diario”, indica el estudio.
¿Por qué usamos ChatGPT? La clave no está en la dependencia
Los estudios analizados no muestran daño clínicamente significativo entre los usuarios frecuentes de ChatGPT. No se han detectado deterioros funcionales graves ni consecuencias negativas importantes. Por el contrario, el uso suele estar vinculado a la curiosidad, el aprendizaje o incluso estrategias de afrontamiento.
Por lo tanto, uno de los principales riesgos que advierten los autores es el de la sobrepatologización. Es decir, calificar de adicción cualquier conducta habitual o placentera, sin tener en cuenta el contexto ni el impacto real en la vida de las personas.
“Si todas las conductas en las que una persona se implica pueden ser consideradas adictivas, entonces todo puede ser una adicción y el término pierde su significado. Hoy en día existen artículos científicos sobre adicción al tango argentino, a la pesca o al bronceado, pero la evidencia científica que respalda estos constructos es mínima”, señala Ciudad-Fernández.
El estudio concluye con un mensaje claro: “No afirmamos que no exista un uso problemático de chatbots de IA”. Al contrario, lo que se afirma es que los datos disponibles ofrecen “evidencia muy débil para considerar potencialmente el uso intensivo de chatbots de IA como una conducta adictiva”.
Los investigadores reconocen que “el uso peligroso de la tecnología es un problema relevante de salud pública”, sin embargo, consideran que “la (sobre)patologización del respaldo intensivo de la tecnología probablemente promueva la estigmatización de los usuarios, tratamientos inapropiados o innecesarios y una regulación excesiva de herramientas que ofrecen numerosos beneficios cuando se utilizan de forma responsable y regulada”.
Así, este estudio invita a un cambio de perspectiva: en lugar de patologizar el empleo de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su utilización se vuelve problemática.