Publicado: octubre 22, 2025, 8:30 am
El último desvelo de Silicon Valley es crear la inteligencia artificial que sea más lista y capaz que cualquier ser humano . Sin embargo, su desarrollo también preocupa a algunas de las mentes científicas más agudas, que temen que su llegada pueda representar un enorme riesgo para la sociedad. Más de 800 personalidades, entre las que figuran los premios Nobel y ‘padres de la IA’ Geoffrey Hinton y Yoshua Bengio , el príncipe Harry de Inglaterra o el cofundador de Apple Steve Wozniack , han firmado una carta abierta en la que solicitan parar el desarrollo de una tecnología que, según algunos , puede representar una amenaza para el mercado laboral o, incluso, para la supervivencia humana. Los firmantes -entre los que se encuentra también la ex presidenta de Irlanda Mary Robinson, el ex estratega de la primera administración Trump, Steve Bannon, o el fundador de Virgin Group, Richard Branson- solicitan el levantamiento de una prohibición al desarrollo de la superinteligencia hasta que haya un «amplio consenso científico» para crearla «de forma segura y controlada». También consideran necesario que se logre una «fuerte aceptación pública» de la tecnología. «Los sistemas de IA de vanguardia podrían superar a la mayoría de las personas en la mayoría de las tareas cognitivas en tan solo unos pocos años. Estos avances podrían desbloquear soluciones para importantes desafíos globales, pero también conllevan riesgos significativos», avisa Hinton, considerado como uno de los ‘padrinos’ de la IA. El científico señala que «para avanzar de manera segura hacia la superinteligencia» es necesario diseñar sistemas de IA que sean «incapaces de dañar a las personas, ya sea por desalineación o uso malicioso». Por su parte, el informático Stuart J. Russel, considerado como un pionero de la IA, apunta que con la carta «no se está pidiendo una prohibición, ni siquiera una moratoria» en el desarrollo de la superinteligencia: «Es simplemente una propuesta para exigir medidas de seguridad adecuadas para una tecnología que, según sus desarrolladores, tiene una probabilidad significativa de causar la extinción humana. ¿Es eso demasiado pedir?». La carta ha sido compartida por Future of Life Institute, organización que durante más de una década ha expresado su preocupación por el riesgo que representan las máquinas inteligentes para la humanidad. Ya compartió una similar en 2023 en la que muchos de los firmantes que aparecen en la presente ya solicitaban una paralización en el desarrollo de la inteligencia artificial. Algo que, claro está, no se cumplió. Y tampoco parece que en esta ocasión vayan a correr mejor suerte; porque la carrera entre las grandes tecnológicas por crear la superinteligencia va a una velocidad endiablada . Meta, propietaria de las redes sociales Facebook e Instagram, anunció a mediados de año la creación de un nuevo grupo de trabajadores y científicos enfocado en desarrollar esa superinteligencia artificial . Con el fin de conseguir este empeño, la empresa dirigida por Mark Zuckerberg ha invertido ya decenas de miles de millones de euros y ha estado tentando a científicos de la competencia con contratos más propios de estrellas deportivas que de científicos. Evidentemente, en la carrera también están empresas como Google u OpenAI. Hace unos meses Sam Altman , CEO de la empresa detrás de ChatGPT, señaló que «la humanidad está cerca de construir una superinteligencia digital». Aunque el ejecutivo no es firmante de la carta, sí que ha querido participar en ella con una declaración en la que señala que «el desarrollo de una inteligencia artificial superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad». Sin embargo, como el propio Altman ha reconocido en alguna ocasión, los beneficios que esta tecnología puede traer para la sociedad hace que, a su juicio, merezca la pena correr el riesgo.