Publicado: octubre 8, 2025, 7:23 am
El uso de ChatGPT se ha popularizado en España para redactar correos electrónicos, crear imágenes, programar, automatizar tareas, responder a preguntas o corregir textos, entre otras opciones. No obstante, los expertos en ciberseguridad alertan que también puede emplearse con fines maliciosos para manipular conversaciones o difundir noticias falsas, aunque más allá de estos dos usos malintencionados, recientemente, OpenAI ha dado a conocer cómo se usa ChatGPT para impulsar campañas maliciosas, generar contenido con información sesgada y monitorizar las conversaciones en redes sociales.
En un nuevo informe, la compañía de Sam Altman revela que ha interrumpido la actividad de 40 redes por violar los términos de uso de ChatGPT desde febrero del año pasado. Concretamente, los ciberdelincuentes ubicados en China, Rusia, Corea y Camboya abusaron del chatbot de OpenAl para desplegar ciberataques, estafas y operaciones de influencia encubiertas.
ChatGPT se usa para crear malware y difundir desinformación
En el caso del mal uso en Corea, los ciberdelincuentes emplearon ChatGPT para desarrollar malware y una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó utilizar dicho chatbot para engañar a las personas en una campaña fraudulenta.
Por otro lado, se ha detectado su uso en regímenes autoritarios, como China, con el fin de desarrollar herramientas que habiliten la monitorización a gran escala en las redes sociales. Y el empleo de los modelos de OpenAI para generar contenido para YouTube y TikTok con el que difundir desinformación e información sesgada.
Asimismo, este chatbot se ha empleado para buscar información que ayude a identificar las estafas, lo que ha llevado a la compañía de Altman a estimar que «ChatGPT se utiliza para identificar timos hasta tres veces más a menudo que para estafas».
Otros casos de mal uso
Como hemos mencionado al principio de la noticia, los expertos en ciberseguridad alertan que los riesgos más peligrosos y preocupantes del mal uso de ChatGPT son el uso del phishing, que consiste en mensajes que intentan engañar a los usuarios, y el malvertising, que hace referencia a anuncios falsos que dirigen a webs maliciosas.
ChatGPT no permite crear este tipo de contenido, ya que va en contra de sus políticas, pero si alguien logra engañar a dicho chatbot podría crear correos electrónicos o anuncios realistas redactados como si de una compañía legítima se tratase, con el objetivo de que pasen los filtros de seguridad para engañar a los usuarios.