California promulga ley sobre seguridad de inteligencia artificial - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


California promulga ley sobre seguridad de inteligencia artificial

Publicado: septiembre 30, 2025, 12:18 am

El gobernador de California Gavin Newsom promulgó una legislación innovadora que exige a las empresas de inteligencia artificial más grandes del mundo que divulguen públicamente sus protocolos de seguridad y reporten incidentes críticos.

La ley conocida como SB 53 «ayudará al estado de California a incentivar la innovación al mismo tiempo que se protege la seguridad pública», declaró Newsom al anunciar la promulgación.

La ley es una de las medidas más significativas de California destinadas a regular el rápido avance de la industria de la inteligencia artificial de Silicon Valley. También le permitirá al estado conservar su posición como un centro global de tecnología.

«Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar la innovación mientras implementamos medidas de seguridad sensatas», dijo en un comunicado el senador estatal Scott Wiener, ponente del proyecto de ley.

La nueva ley representa un exitoso segundo intento de Wiener de establecer regulaciones de seguridad para la IA después de que Newsom vetó la propuesta anterior tras una furiosa oposición de la industria tecnológica.

También ocurre después de un intento fallido de la administración Trump de impedir que los estados promulguen regulaciones sobre inteligencia artificial. El gobierno argumenta que crearían un caos regulatorio y ralentizarían la innovación hecha en Estados Unidos en una carrera contra China.

La nueva ley estipula que las grandes compañías de IA tienen que divulgar públicamente editados sus protocolos de seguridad y protección de la propiedad intelectual.

Te puede interesar

La legislación también establece protecciones para informantes de empleadores que revelen evidencia de peligros o violaciones de seguridad. También requiere que las empresas informen sobre casos en los que los sistemas de IA se comporten de manera peligrosa y engañosa durante las pruebas.

Por ejemplo, si un sistema de IA miente sobre la efectividad de los controles diseñados para evitar que brinde asistencia para la construcción de armas biológicas, los desarrolladores deben divulgar el incidente si éste aumenta significativamente los riesgos de daños catastróficos.

El grupo de trabajo detrás de esta ley fue liderado por destacados expertos como la investigadora Fei-Fei Li, de la Universidad de Standford, conocida como la «madrina de la IA».

Related Articles