Publicado: septiembre 3, 2025, 1:24 pm
Estados Unidos sigue presionando al régimen de Maduro. A última hora de este martes, el presidente del país norteamericano, Donald Trump, anunció que fuerzas estadounidenses habían llevado a cabo un ataque contra una supuesta lancha cargada de drogas perteneciente al grupo narcoterroristas del Tren de Aragua. El Gobierno, además, compartió un vídeo de la acción en el que se puede ver la explosión de la lancha y que fue grabada con visión nocturna. Apenas unas horas después, Venezuela ponía en duda la autenticidad del documento sugiriendo que había sido realizado con IA . «Parece que Marco Rubio sigue mintiéndole a su presidente: luego de meterlo en un callejón sin salida, ahora le da como ‘prueba’ un video con IA (así comprobado)«, afirmó en su canal de Telegram el ministro de Comunicación de Venezuela, Freddy Ñáñez . Para llegar a esta conclusión, Ñáñez simplemente subió el vídeo a la aplicación de inteligencia artificial Gemini, creada por Google, y le preguntó si «ese vídeo es hecho con IA». La máquina le dijo que era probable; pero igual que le podía haber señalado todo lo contrario. «Yo he hecho exactamente lo mismo con la grabación y Gemini me ha dicho que no parece que se trate de un contenido sintético realizado con inteligencia artificial generativa», explica en conversación con ABC Miguel Lucas, director global de innovación de la firma Llorente y Cuenca y experto en temas de IA. Porque eso es lo que pasa con esta tecnología, que igual que te dice una cosa en un momento dado para, después, desdecirse. Lucas remarca que «l a IA generativa como Gemini no puede usarse como arma probatoria «, porque »sufren alucinaciones, ofrecen datos erróneos o se los inventan«: »No debería ser utilizada nunca de esta forma, porque igual que te dice que algo ha podido ser creado con IA te dice lo contrario«. Esto se debe a que la ‘app’ de Google, que funciona igual que ChatGPT, no ha sido diseñada para dilucidar si un contenido ha sido creado o no por una máquina. Además, a pesar de los intentos, ninguna empresa tecnológica ha sido capaz de crear una herramienta de verificación lo suficientemente fiable como para apuntar, directamente, que un contenido ha sido realizado a partir de la inteligencia artificial. El vídeo compartido por el Gobierno de Estados Unidos también cuenta con sus peculiaridades , ya que se trata de una grabación en baja definición que hace que resulte más complicado que una máquina, o una persona, pueda comprobar su veracidad. «No hay fiabilidad en la respuesta de Gemini. No debería ser tomado en cuenta para decir que se trata de un documento falso. Además, si quieres ser serio a la hora de analizar la posibilidad de que sea vídeo alterado no utilizas tecnología generalista de ciudadanía que está al alcance de todo el mundo, como ChatGPT o Gemini, recurres a herramientas dedicadas a ello que no están al alcance de todo el mundo», remata Lucas. En la misma línea que Lucas se mueve Sergio Álvarez-Teleña, director ejecutivo de SciTheWorld, una de las empresas de IA más punteras que hay en España. En conversación con este diario apunta que la calidad del vídeo explica el que Gemini, en un momento dado, pueda considerarlo como falso: «El vídeo es algo anómalo para Gemini, porque la herramienta ha sido entrenada seguro con vídeos de mucha más calidad. A la herramienta le sorprende porque probablemente no está capacitada con imágenes de operaciones especiales de esta clase». A pesar de que, a primera vista, ningún experto humano consultado ve indicios de falsedad en el vídeo, avisan de que con el avance de la inteligencia artificial cada vez va a ser más difícil distinguir lo real de lo que no lo es . «Esto va a comenzar a ser constante y solo nos vamos a poder fiar de lo que vemos, ni siquiera de lo que digan los gobiernos, y esto cada vez va a ir a más», explica a este diario Juan Ignacio Rouyet, profesor experto en IA y Ética de la Universidad Internacional de La Rioja.