Una menor demanda a la IA que sus compañeros de clase usaron para 'desnudarla' sin permiso - Colombia
Registro  /  Login

Portal de Negocios en Colombia


Una menor demanda a la IA que sus compañeros de clase usaron para 'desnudarla' sin permiso

Una adolescente estadounidense ha presentado una demanda ante el contra la empresa responsable de la aplicación de inteligencia artificial ClothOff, diseñada para generar imágenes de desnudos a partir de fotografías normales. La joven acusa a la compañía y a sus fundadores de facilitar intencionadamente … la creación y distribución de material de abuso sexual infantil y sostiene que el sistema de IA de la aplicación fue concebido «para producir imágenes sexualmente explícitas de personas reales, incluidas menores de edad, sin su consentimiento».
Según la denuncia, presentada el pasado 16 de octubre y recogida previamente por el medio especializado ‘Ars Technica’, la menor tenía 15 años cuando fue víctima de la aplicación. Algunos compañeros de clase utilizaron una fotografía suya en bañador, tomada por un familiar durante las vacaciones de verano, para crear una versión manipulada en la que la menor aparecía sin ropa. Otras compañeras de escuela también se vieron afectadas.

La demanda describe, además, que, desde el descubrimiento de la imagen, la menor ha sufrido ansiedad, pérdida de apetito, insomnio y aislamiento social. También ha desarrollado un miedo persistente a que las imágenes falsas circulen en internet. Señala, a su vez, que tuvo dificultades para asistir a la escuela y que su familia ha tenido que buscarle apoyo psicológico.
«Vive con el temor constante de que el material producido por ClothOff siga disponible en línea, permanezca en posesión de la empresa y pueda ser compartido o publicado nuevamente en cualquier momento», zanja la demanda.

Publicado: octubre 21, 2025, 7:00 am

La fuente de la noticia es https://www.abc.es/tecnologia/menor-demanda-ia-companeros-clase-usaron-desnudarla-20251021132934-nt.html

Una adolescente estadounidense ha presentado una demanda ante el contra la empresa responsable de la aplicación de inteligencia artificial ClothOff, diseñada para generar imágenes de desnudos a partir de fotografías normales. La joven acusa a la compañía y a sus fundadores de facilitar intencionadamente la creación y distribución de material de abuso sexual infantil y sostiene que el sistema de IA de la aplicación fue concebido «para producir imágenes sexualmente explícitas de personas reales, incluidas menores de edad, sin su consentimiento».

Según la denuncia, presentada el pasado 16 de octubre y recogida previamente por el medio especializado ‘Ars Technica’, la menor tenía 15 años cuando fue víctima de la aplicación. Algunos compañeros de clase utilizaron una fotografía suya en bañador, tomada por un familiar durante las vacaciones de verano, para crear una versión manipulada en la que la menor aparecía sin ropa. Otras compañeras de escuela también se vieron afectadas.

La demanda describe, además, que, desde el descubrimiento de la imagen, la menor ha sufrido ansiedad, pérdida de apetito, insomnio y aislamiento social. También ha desarrollado un miedo persistente a que las imágenes falsas circulen en internet. Señala, a su vez, que tuvo dificultades para asistir a la escuela y que su familia ha tenido que buscarle apoyo psicológico.

«Vive con el temor constante de que el material producido por ClothOff siga disponible en línea, permanezca en posesión de la empresa y pueda ser compartido o publicado nuevamente en cualquier momento», zanja la demanda.

Cierre de la aplicación y borrado de datos

El texto añade que el material generado por ClothOff habría sido utilizado para entrenar su propio sistema de inteligencia artificial, lo que «multiplica el daño» al posibilitar la creación de imágenes similares de otras víctimas. Por todo ello, se solicita al tribunal que ordene el cierre de aplicación y que obligue a la empresa a eliminar todas las imágenes falsas generadas y cualquier material íntimo no consentido que almacene. Según se recoge, la herramienta produce cada día una media de 200.000 fotografías y recibe unas 27 millones de vistas.

Además de a Clothoff, la denuncia incluye como demandado nominal a Telegram, al considerar que la plataforma permitió la difusión de contenido generado por ClothOff mediante bots y canales sin la debida supervisión.

Según ha informado ‘Ars Technica’, aparentemente la ‘app’ de mensajería ya eliminó el bot de ClothOff y podría buscar desvincularse del proceso judicial. Un portavoz de la red señaló a ‘The Wall Street Journal’, a este respecto, que «la pornografía no consensuada y las herramientas para crearla están explícitamente prohibidas por los términos de servicio de Telegram y se eliminan cuando se descubren».

Artículos Relacionados