Publicado: septiembre 21, 2025, 11:23 am
La inteligencia artificial (IA) está en plena ebullición, pero sus asombrosos avances podrÃan estar aún lejos de lo que pueden llegar a alcanzar. Es lo que sostienen dos expertos, que avisan de la llamada ‘super inteligencia artificial’ (ASI, por sus siglas en inglés).
Eliezer Yudkowsky, fundador del Machine Intelligence Research Institute (MIRI) y su presidente Nate Soares, han escrito un libro titulado If Anyone Builds It, Everyone Dies («Si alguien lo construye, todos mueren»), donde alertan de que la super inteligencia artificial está a solo dos o cinco años de su desarrollo y que podrÃa suponer el fin de la humanidad.
Los autores argumentan que la ASI no ofrecerá una «lucha justa» y que ejecutará múltiples «enfoques de toma de control». «Un adversario superinteligente no revelará todas sus capacidades ni comunicará sus intenciones. No ofrecerá una lucha justa», explican.
Yudkowsky y Soares creen que la ASI e volverá indispensable o indetectable hasta que pueda atacar con decisión o tomar una posición estratégica inexpugnable. De ser necesario, la ASI puede considerar, preparar e intentar múltiples estrategias de toma de control simultáneamente. Y solo una de ellas debe funcionar para que la humanidad se extinga.
Este proceso ya ha empezado, dicen. Sostienen que los laboratorios de IA ya han comenzado a implementar sistemas que no comprenden. Una vez que estas IA sean lo suficientemente inteligentes, los investigadores afirman que las más desarrolladas podrÃan generar sus propios objetivos.
La base de la teorÃa de Yudkowsky es lo que él llama ‘ortogonalidad’: la noción de que la inteligencia y la benevolencia son rasgos separados, y que un sistema de IA no se volverÃa automáticamente más amigable a medida que se volviera más inteligente, explica a The New York Times.