Kenneth Payne, profesor universitario y experto en IA, sobre robots militares: "Entramos ya en territorio 'Terminator" - España
Registro  /  Login

Otro sitio más de Gerente.com


Kenneth Payne, profesor universitario y experto en IA, sobre robots militares: «Entramos ya en territorio 'Terminator»

Publicado: mayo 16, 2026, 6:38 pm

La inteligencia artificial (IA) está en pleno desarrollo y de su mano avanza también la robótica. Aunque tendemos a pensar en robots que nos ayuden en la industria o en el sector servicios, hay otros en los que se puede aplicar su tecnología: es el caso de la defensa.

El profesor Kenneth Payne, experto en estrategia del King’s College de Londres y autor del libro Yo, robot de guerra, ha dedicado 15 años a investigar las «mentes artificiales» de la guerra del futuro.

En conversación con The Sun, Payne explica que la presencia de robots en escenarios de guerra está más avanzado de lo que se cree: «En cierto modo, estamos hablando de Terminator en algunos de sus aspectos», dice el profesor Payne en referencia a la saga de películas protagonizada por Arnold Schwarzenegger.

«He visto recientemente que se habían desplegado robots humanoides en el teatro de operaciones de Rusia y Ucrania. Estamos empezando a adentrarnos en territorio Terminator», insiste el experto.

«Todos estamos familiarizados con ChatGPT , y pueden imaginarse cómo se aplica ChatGPT a estos robots cuando entran en batalla», prosigue el autor. Payne describe esto como la transformación de los chatbots en máquinas «enraizadas», donde una máquina interactúa con el mundo físico, ofreciendo un «razonamiento complejo y contextual» en el fragor de la batalla.

Según el profesor Payne, no son solo los soldados rasos quienes están destinados a desaparecer. Los altos mandos también pueden ser sustituidos dentro de poco por inteligencias artificiales.

Pero el profesor Payne afirma que la guerra se parece más a una partida de póker de alto riesgo, porque implica «azar e información asimétrica». «Y me gusta mucho más esa analogía que la del ajedrez. Pero incluso la IA moderna puede superar a los mejores jugadores de póker», explica.

«Hay un par de razones para ser cautelosos a la hora de introducir esto. Una es la rendición de cuentas, la cuestión ética. Y la otra es que, en realidad, todavía en los márgenes, los humanos se desempeñan un poco mejor», reflexiona el profesor.

«Algunos de los ingredientes que intervienen en la estrategia, por ejemplo, pensar en las mentes de los demás, liderar… los humanos son mejores en este tipo de cálculos de ‘teoría de la mente’ que incluso los chatbots más avanzados. Pero la brecha se está reduciendo cada vez más».

Según el profesor Payne, estamos entrando en una dinámica de «carrera armamentística». «Si crees que tu enemigo va a adoptar estas tecnologías… entonces te corresponde a ti intentarlo tú mismo», dice.

Y señala que, aunque uno desee que los humanos siempre tengan el control, existen «dos fuerzas realmente poderosas que se oponen a ello». Lo primero, dice, es la escala.

«Estas tecnologías podrían dar lugar a un gran número de sistemas robóticos autónomos en el campo de batalla, mucho más allá de lo que un ser humano puede controlar», explica.

«La idea de un enjambre se basa en este tipo de estrategia de abrumar al adversario mediante un gran número de plataformas capaces que operan por sí mismas», dice Payne.

La otra es la velocidad. «Piensa en esto particularmente en el ámbito de la guerra cibernética, donde las cosas suceden en un abrir y cerrar de ojos, más rápido que un abrir y cerrar de ojos. Y su ciberataque puede dirigirse de forma autónoma. Pues bien, entonces necesita una respuesta cibernética autónoma para gestionarlo«, explica Payne.

«Así que estás operando a velocidad vertiginosa, y tienes que decidir si intensificar el ataque enemigo o cómo responder de otra manera, más rápido de lo que un ser humano podría esperar«, agrega.

Pero en esto hay un lado positivo: los robots no se cansan. No les afecta la «niebla de la guerra». Y lo más importante, no se enfadan. «Las atrocidades son parte de la guerra desde los inicios de la historia de la humanidad», afirma Payne.

«Los robots no van a tener miedo. No van a sentir rabia. No van a cometer atrocidades en el campo de batalla», explica

Pero hay un gran inconveniente. Si una guerra se vuelve «incruenta» para el bando con la mejor tecnología, ¿se vuelve demasiado fácil para los políticos iniciarla? Si no regresan a casa ataúdes cubiertos con banderas, el costo político de la guerra disminuye.

¿Y si un robot comete un error? Payne pone de ejemplo un escenario donde un robot soldado se enfrenta a un niño que sostiene una pistola de juguete, ¿qué sucede si toma una decisión equivocada?

«Eso es prácticamente indiscutible. Se trata de un fallo de los sensores al no detectar que era una pistola de juguete. Es una mala aplicación del estado de derecho, que establece que no se debe atacar a civiles, y mucho menos a niños», dice.

«Un comandante humano podría dudar. Podría ver el campo de batalla y retroceder. Pero una IA programada para priorizar el objetivo por encima de todo podría simplemente calcular la pérdida de civiles ‘aceptable’ y apretar el gatillo», dice Payne.

«Soy escéptico ante la posibilidad de regular o establecer un régimen de control de armas», admite Payne.

«El adversario podría estar diciendo: ‘No, no, toda esta tecnología de IA que hemos desarrollado es para su uso en el sector del transporte médico'», prosigue el autor. «Y entonces, minutos u horas antes del combate, cargan estas capacidades… y se lanzan con un ejército totalmente autónomo», reflexiona.

¿Es entonces inminente todo esto? Payne cree que no tanto. «¿Cuánto dura la batería? La tecnología de las baterías está considerablemente por detrás de la tecnología de la IA», dice el profesor.

«Así que creo que hay algunas razones prosaicas por las que creo que veremos soldados de infantería humanos en los campos de batalla del futuro durante muchos años más», concluye.

Related Articles