Premios Nobel, políticos y celebridades piden en una carta parar la creación de la IA superhumana
El último desvelo de Silicon Valley es crear la inteligencia artificial que sea más lista y capaz que cualquier ser humano. Sin embargo, su desarrollo también preocupa a algunas de las mentes científicas más agudas, que temen que su llegada pueda representar un enorme … riesgo para la sociedad. Más de 800 personalidades, entre las que figuran los premios Nobel y ‘padres de la IA’ Geoffrey Hinton y Yoshua Bengio, el príncipe Harry de Inglaterra o el cofundador de Apple Steve Wozniack, han firmado una carta abierta en la que solicitan parar el desarrollo de una tecnología que, según algunos, puede representar una amenaza para el mercado laboral o, incluso, para la supervivencia humana.
Los firmantes -entre los que se encuentra también la ex presidenta de Irlanda Mary Robinson, el ex estratega de la primera administración Trump, Steve Bannon, o el fundador de Virgin Group, Richard Branson- solicitan el levantamiento de una prohibición al desarrollo de la superinteligencia hasta que haya un «amplio consenso científico» para crearla «de forma segura y controlada». También consideran necesario que se logre una «fuerte aceptación pública» de la tecnología.
«Los sistemas de IA de vanguardia podrían superar a la mayoría de las personas en la mayoría de las tareas cognitivas en tan solo unos pocos años. Estos avances podrían desbloquear soluciones para importantes desafíos globales, pero también conllevan riesgos significativos», avisa Hinton, considerado como uno de los ‘padrinos’ de la IA. El científico señala que «para avanzar de manera segura hacia la superinteligencia» es necesario diseñar sistemas de IA que sean «incapaces de dañar a las personas, ya sea por desalineación o uso malicioso».
Por su parte, el informático Stuart J. Russel, considerado como un pionero de la IA, apunta que con la carta «no se está pidiendo una prohibición, ni siquiera una moratoria» en el desarrollo de la superinteligencia: «Es simplemente una propuesta para exigir medidas de seguridad adecuadas para una tecnología que, según sus desarrolladores, tiene una probabilidad significativa de causar la extinción humana. ¿Es eso demasiado pedir?».
