Publicado: octubre 5, 2025, 1:23 am
La inteligencia artificial avanza a pasos agigantados y muchas veces nos preguntamos qué pasaría si los humanos no fuesen capaz de regularla, puesto a que supondría una verdadera amenaza. Algunos estudios publicados indican que esta tecnología no puede compararse al pensamiento humano, pero hay otras investigaciones que revelan que las personas no son conscientes de los riesgos que suponen los avances de la IA, por lo que existe una mínima posibilidad de que pueda acabar con los usuarios.
Si esto llegase a ser cierto de cara a los próximos años, el estudio ‘¿Irán a la guerra la humanidad y la inteligencia artificial?’, publicado por el filósofo Simon Goldstein de la Universidad de Hong Kong en el diario científico AI & Society, afirma que este conflicto podría desencadenarse por culpa de los fallos de información, los cambios de poder y la falta de puntos focales:
- Fallos de información: Los errores de información aumentan las probabilidades de guerra, sobre todo cuando las dos partes tienen percepciones distintas sobre quién puede ganar. Este tipo de malentendido es más probable en un conflicto entre humanos e inteligencia artificial, puesto a que resulta muy complicado evaluar con precisión lo que una IA puede hacer. Además, a esto se suma que la inteligencia artificial y los humanos procesan la información de una forma muy diferente, lo que puede aumentar aún más los riesgos de confusión y enfrentamiento.
- Cambios de poder: En un conflicto entre humanos e inteligencia artificial, el problema es que la IA no deja de mejorar porque su capacidad crece a medida que dispone de más datos y potencia de cálculo. Asimismo, los sistemas de IA pueden mostrar saltos inesperados de rendimiento, es decir, mejoras repentinas que no se pueden prever solo con ver su crecimiento. Por otro lado, sería muy difícil que humanos e IA lleguen a un acuerdo de paz duradero, ya que cualquier pacto podría volverse obsoleto si las capacidades de la IA cambian rápidamente.
- Falta de puntos focales: En un enfrentamiento entre IA y humanos, la coordinación sobre qué reglas respetar durante un conflicto sería complicada, puesto a que podría ser difícil ponerse de acuerdo en determinados en aspectos —como proteger a la población civil, evitar ataques a ciudades, limitar la guerra a ciertas fronteras geográficas o respetar a los prisioneros—. En este punto, el problema es que las IA no tienen población civil, ciudades o territorio físico. Sin esa simetría con los humanos, resulta mucho más difícil que ambas partes acepten reglas comunes. Así, aunque tanto los humanos como la IA quisieran evitar una guerra total, no está claro que pudieran coordinarse de manera efectiva para conseguirlo.
Pese a estas posibles causas, el artículo sugiere varias intervenciones para reducir la probabilidad de una guerra entre la IA y los seres humanos: «Para abordar las fallas de información, la humanidad debería invertir más en la monitorización cuidadosa de las capacidades de la IA y en el diseño de sistemas de IA que analicen la información de forma similar a la de los humanos. Para afrontar los cambios de poder, la humanidad debería limitar el aumento de las capacidades de la IA. Para abordar la falta de puntos focales, la humanidad debería aumentar los puntos de similitud entre la IA y la humanidad».
¿Se podría evitar este conflicto?
Este artículo forma parte de un proyecto más amplio centrado en la alineación cultural. La alineación se entiende como el diseño de sistemas de IA que reflejan valores humanos compartidos, pero, hasta ahora, la mayoría de los estudios sobre la alineación han sido técnicos, enfocándose en cómo controlar y supervisar los objetivos internos de los sistemas de IA.
En contraste, este artículo propone un enfoque cultural. Bajo esta perspectiva, el filósofo de la Universidad de Hong Kong se centra en diseñar instituciones sociales óptimas para la interacción entre humanos e IA, con el objetivo de fomentar la cooperación pacífica en lugar del conflicto.
Además, verdaderamente, el problema es la «fragilidad de la cultura». ¿El motivo? El estudio indica que, «si los sistemas de IA no se diseñan teniendo en cuenta las instituciones culturales, existe una probabilidad significativa de que no se generalice el conflicto entre IA y humano». Por lo tanto, de cara a un futuro, esto significa que se crearía un «tipo especial de riesgo» porque es posible que no se pueda producir «equilibrios pacíficos entre IA y humanos a tiempo».