Registro  /  Login

Portal de Negocios en Colombia


El Gobierno prevé etiquetar todo el contenido que se genere con IA y sancionar las conductas «perversas»

11/03/2025

Actualizado a las 14:33h.

El Consejo de Ministros ha dado luz verde este martes al anteproyecto de ley para el buen uso y la gobernanza de la inteligencia artificial (IA). Entre otras medidas de transparencia y regulación, recoge la exigencia de etiquetar los contenidos generados por sistemas de IA.
El objetivo de la norma es que todos los usuarios puedan identificar con claridad cuando una imagen, audio o vídeo que imita de forma realista a personas, objetos, lugares, entidades o eventos reales ha sido creado o alterado mediante inteligencia artificial. Para aquellas empresas que la incumplan, la ley prevé sanciones de entre 7,5 y 35 millones de euros.

«Todos somos susceptibles de ser víctimas de una suplantación, de sufrir un ‘deepfake’. La IA es una herramienta muy poderosa que puede mejorar nuestra vida, pero también puede ser un arma para difundir bulos, mentiras, esparcir odio y perjudicar la democracia», ha señalado el ministro de Transformación Digital y Función Pública, Óscar López.

Hace menos de dos semanas, Europol detuvo a dos españoles que formaban parte de una organización criminal encargada de distribuir pornografía infantil generada con IA, que luego revendían a través de una página web. En los ocho discos duros que incautaron en Madrid y Barcelona había más de 16.800 archivos con contenido pedófilo. Pero las alarmas saltaron en septiembre de 2023, cuando un par de menores de un instituto de Almendralejo (Badajoz), desnudaron a varias compañeras de clase mediante inteligencia artificial.

Publicado: marzo 11, 2025, 11:00 am

La fuente de la noticia es https://www.abc.es/tecnologia/gobierno-preve-etiquetar-contenido-genere-ia-sancionar-20250311133646-nt.html

11/03/2025


Actualizado a las 14:33h.

El Consejo de Ministros ha dado luz verde este martes al anteproyecto de ley para el buen uso y la gobernanza de la inteligencia artificial (IA). Entre otras medidas de transparencia y regulación, recoge la exigencia de etiquetar los contenidos generados por sistemas de IA.

El objetivo de la norma es que todos los usuarios puedan identificar con claridad cuando una imagen, audio o vídeo que imita de forma realista a personas, objetos, lugares, entidades o eventos reales ha sido creado o alterado mediante inteligencia artificial. Para aquellas empresas que la incumplan, la ley prevé sanciones de entre 7,5 y 35 millones de euros.

«Todos somos susceptibles de ser víctimas de una suplantación, de sufrir un ‘deepfake’. La IA es una herramienta muy poderosa que puede mejorar nuestra vida, pero también puede ser un arma para difundir bulos, mentiras, esparcir odio y perjudicar la democracia», ha señalado el ministro de Transformación Digital y Función Pública, Óscar López.

Hace menos de dos semanas, Europol detuvo a dos españoles que formaban parte de una organización criminal encargada de distribuir pornografía infantil generada con IA, que luego revendían a través de una página web. En los ocho discos duros que incautaron en Madrid y Barcelona había más de 16.800 archivos con contenido pedófilo. Pero las alarmas saltaron en septiembre de 2023, cuando un par de menores de un instituto de Almendralejo (Badajoz), desnudaron a varias compañeras de clase mediante inteligencia artificial.

Prácticas prohibidas y «sistemas de alto riesgo»

López ha destacado que «la ley protege nuestros derechos digitales dentro del marco europeo» y ha enumerado algunos ejemplos de cuáles serán las prácticas prohibidas de la IA. Entre ellas, el uso de prácticas subliminales o clasificar de forma biométrica en espacios públicos no autorizados, salvo razones de seguridad como puede ser la identificación de personas buscadas por terrorismo, explotación sexual de menores o tráfico ilícito de estupefacientes o armas, entre otros.

Sobre las prácticas subliminales, pone el ejemplo de una IA que pueda alimentar las conductas adictivas a un ludópata, pero también el caso de aquellos sistemas que puedan explotar las vulnerabilidades en razón de edad, donde ha ejemplificado un juguete infantil que anima a niños que completen retos que pueden llevar a lesiones graves, «algo que ya estamos viendo aunque parezca mentira», ha remarcado el ministro. Aquellas empresas que vulneren la ley sufrirán sanciones de entre 7,5 y 35 millones de euros o el 2 o 7% del negocio mundial de la empresa.

La normativa también plantea «sistemas de alto riesgo». Se trata del uso «perverso» de IA en juguetes o productos sanitarios cuando no está contemplado para su educación o la salud del paciente, y también en infraestructuras críticas, de empleo, de educación o de servicios sanitarios. Para aquellas empresas que no cumplan la legislación en materias de sistemas de de alto riesgo, deberán hacer frente a infracciones de entre 500.000 y 7,5 millones de euros o el 1 o 2% del volumen de negocio mundial de la compañía.

La norma se inspira en el Reglamento europeo aprobado en junio del año pasado por el Parlamento y el Consejo sobre esta materia, donde ya se recoge un listado de prácticas de inteligencia artificial prohibidas como «la introducción en el mercado o la utilización de sistemas que se sirvan de técnicas deliberadamente manipuladoras o engañosas con el objetivo de alterar de manera sustancial el comportamiento de una persona, mermando su capacidad para tomar una decisión informada».

Para aquellas empresas que quieran implementar una IA en España, pero teman violar la futura norma, López ha indicado que han creado un ‘sandbox’ (un entorno de pruebas), donde ya están testado 12 sistemas y todas las empresas que lo soliciten pueden entrar para comprobar la viabilidad de su IA.

Las autoridades encargadas de velar por este cumplimiento serán muy variadas: para los asuntos relacionados con biometría, la responsabilidad recaerá en la Agencia Española de Protección de Datos (AEPD), mientras que el Consejo General del Poder Judicial hará lo propio con los casos de uso en justicia o la Junta Electoral Central para lo concerniente al aterrizaje de la IA en próximos comicios. Para el resto de aplicaciones, será la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia) la que tendrá plenos poderes de gobernanza.


Artículos Relacionados