Publicado: abril 29, 2026, 9:23 am
Google ha permitido que el Pentágono de Estados Unidos utilice sus herramientas de inteligencia artificial, en medio de la presión de más de 600 empleados de la compañía que han pedido a la dirección vetar este tipo de acuerdo militar.
El diario The Wall Street Journal informa que Google ha autorizado al Departamento de Defensa a emplear su tecnología en proyectos confidenciales, aunque el contrato incluye condiciones que prohíben su uso para vigilancia masiva dentro del país o para crear armas completamente autónomas. Pero como acabamos de mencionar, alrededor de 600 trabajadores enviaron una carta al director ejecutivo de la compañía de Mountain View, Sundar Pichai, solicitando que se detuviera cualquier colaboración con el Pentágono .
En la misiva, expresaron su preocupación por el posible uso indebido de la IA y defendieron que esta debe beneficiar a la humanidad, no emplearse de forma dañina: «Ahora mismo, no hay manera de garantizar que nuestras herramientas no se utilicen para causar daños terribles o erosionar las libertades civiles lejos del escrutinio público. Queremos que la IA beneficie a la humanidad, no que se utilice de forma inhumana o extremadamente dañina».
En el pasado, Google ya había abandonado un proyecto militar similar, conocido como Proyecto Maven, tras las protestas internas de sus empleados en 2018. Por el momento, Google ya tiene un contrato con el Pentágono para trabajos no clasificados a través de un programa conocido como genAI.mil
¿Google ocupará el puesto de Anthropic?
Google figura entre las empresas que buscan ocupar el hueco que dejó Anthropic cuando demandó al Pentágono por su designación como «riesgo para la cadena de suministro», después de que la compañía solicitara que su tecnología no se utilizara para la vigilancia masiva en Estados Unidos ni para conflictos automatizados.
Ante esta situación, acorde la información compartida por el diario France 24, Google ha planteado incluir cláusulas contractuales que impidan que Gemini se emplee en vigilancia masiva interna o en el desarrollo de armas autónomas sin supervisión humana adecuada. Sin embargo, el Pentágono ha insistido en mantener una formulación más amplia basada en «todos los usos legales», argumentando que esto es necesario para preservar la flexibilidad operativa.
Los empleados, por su parte, sostienen que las salvaguardas propuestas no pueden aplicarse de forma efectiva y recuerdan que la política del Departamento de Defensa impide que actores externos impongan controles sobre sus sistemas de inteligencia artificial.
