Google, Microsoft y xAI, bajo lupa: EEUU revisará sus modelos de IA para evaluar los posibles riesgos - Colombia
Registro  /  Login

Portal de Negocios en Colombia


Google, Microsoft y xAI, bajo lupa: EEUU revisará sus modelos de IA para evaluar los posibles riesgos

El Centro de Estándares e Innovación en Inteligencia Artificial (CAISI, por sus siglas) del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de Estados Unidos ha anunciado una serie de acuerdos con Google, Microsoft y xAI para revisar los modelos de IA antes de que se pongan a disposición de los usuarios.Acorde a la información compartida en un comunicado oficial, «CAISI llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de vanguardia de la IA y mejorar la seguridad en este campo», de esta manera, dicho organismo podrá evaluar los modelos antes de su lanzamiento público y realizar evaluaciones posteriores a su implementación.Según CAISI, estos acuerdos también fomentan el intercambio de información, impulsan mejoras voluntarias en los modelos de IA y garantizan una comprensión clara de las capacidades de la inteligencia artificial y el estado de la competencia internacional. Por lo tanto, para evaluar de forma exhaustiva las capacidades y los riesgos relacionados con la seguridad nacional, los desarrolladores tienen que proporcionar a CAISI modelos con medidas de seguridad para que los evaluadores del gobierno puedan participar en las evaluaciones y proporcionar comentarios sobre posibles mejoras.»Los acuerdos respaldan las pruebas en entornos clasificados y se redactan con la flexibilidad necesaria para responder rápidamente a los continuos avances de la IA», agrega CAISI en el comunicado. Así pues, al realizar investigaciones e identificar los riesgos de seguridad, se puede mitigar cualquier peligro para «gestionar de forma responsable el futuro de la IA» e «impulsar la innovación tecnológica disruptiva».Por otro lado, cabe mencionar que las evaluaciones realizadas en virtud de estos acuerdos contribuirán a impulsar el desarrollo y el uso seguro de la IA, basándose en la Orden Ejecutiva sobre IA de la administración Biden-Harris y en los compromisos voluntarios asumidos con la administración por los principales desarrolladores de modelos de inteligencia artificial.Chris Fall, director de CAISI, afirma en el comunicado que «la ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional. Estas colaboraciones ampliadas con la industria nos ayudan a intensificar nuestro trabajo en beneficio del interés público en un momento crítico».

Publicado: mayo 6, 2026, 3:00 am

La fuente de la noticia es https://www.20minutos.es/tecnologia/fabricantes/google-microsoft-xai-bajo-lupa-eeuu-revisara-modelos-ia-evaluar-posibles-riesgos_6966829_0.html

El Centro de Estándares e Innovación en Inteligencia Artificial (CAISI, por sus siglas) del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de Estados Unidos ha anunciado una serie de acuerdos con Google, Microsoft y xAI para revisar los modelos de IA antes de que se pongan a disposición de los usuarios.

Acorde a la información compartida en un comunicado oficial, «CAISI llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de vanguardia de la IA y mejorar la seguridad en este campo», de esta manera, dicho organismo podrá evaluar los modelos antes de su lanzamiento público y realizar evaluaciones posteriores a su implementación.

Según CAISI, estos acuerdos también fomentan el intercambio de información, impulsan mejoras voluntarias en los modelos de IA y garantizan una comprensión clara de las capacidades de la inteligencia artificial y el estado de la competencia internacional. Por lo tanto, para evaluar de forma exhaustiva las capacidades y los riesgos relacionados con la seguridad nacional, los desarrolladores tienen que proporcionar a CAISI modelos con medidas de seguridad para que los evaluadores del gobierno puedan participar en las evaluaciones y proporcionar comentarios sobre posibles mejoras.

«Los acuerdos respaldan las pruebas en entornos clasificados y se redactan con la flexibilidad necesaria para responder rápidamente a los continuos avances de la IA», agrega CAISI en el comunicado. Así pues, al realizar investigaciones e identificar los riesgos de seguridad, se puede mitigar cualquier peligro para «gestionar de forma responsable el futuro de la IA» e «impulsar la innovación tecnológica disruptiva».

Por otro lado, cabe mencionar que las evaluaciones realizadas en virtud de estos acuerdos contribuirán a impulsar el desarrollo y el uso seguro de la IA, basándose en la Orden Ejecutiva sobre IA de la administración Biden-Harris y en los compromisos voluntarios asumidos con la administración por los principales desarrolladores de modelos de inteligencia artificial.

Chris Fall, director de CAISI, afirma en el comunicado que «la ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional. Estas colaboraciones ampliadas con la industria nos ayudan a intensificar nuestro trabajo en beneficio del interés público en un momento crítico».

Artículos Relacionados