Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

La IA guía las bombas

Imagine una herramienta basada en inteligencia artificial tan avanzada que, solo a partir de los datos que maneja, es capaz de seleccionar con precisión los objetivos que deben ser atacados durante una guerra y el orden de prioridad. Esa tecnología existe, y está siendo empleada … activamente en la guerra de Irán desde su inicio el sábado de la semana pasada. De acuerdo con varios expertos consultados por ABC, parece la principal responsable de que Estados Unidos e Israel consiguieran atacar cerca de 900 objetivos iraníes solo en las primeras 12 horas de la contienda. Algo inaudito que solo se explica mediante el empleo de la IA generativa.
«Nunca se habían visto tantos ataques en un periodo tan corto de tiempo», destaca el analista de defensa Carlos Delgado. El experto apunta que el papel que juega la IA en la guerra actual es cada vez más importante, pero que, al menos por el momento, no tiene nada que ver con lo que se pudo ver en películas futuristas y distópicas como ‘Terminator’. Las máquinas no atacan solas, al menos de momento. Pero sí ayudan a golpear donde más le duele al enemigo.

Noticia relacionada

Después de firmar con el Pentágono

«Lo que estamos viendo ahora mismo en Irán es cómo la inteligencia artificial acelera al máximo la toma de decisiones, agiliza los procesos y facilita la selección de objetivos. Te dice lo que debes atacar y el orden en el que hacerlo. Ahora bien, puede cometer errores. No hay ningún sistema que sea infalible», añade Delgado.
El país mejor preparado para ello parece ser, precisamente, Estados Unidos. El Pentágono cuenta con drones capaces de detectar objetivos y analizar imágenes mediante inteligencia artificial, y se sabe que lleva años experimentando con armamento autónomo. Pero en lo que respecta al conflicto iraní, el sistema más destacado por el momento sigue siendo Project Maven. Desarrollado inicialmente con la colaboración de varias empresas tecnológicas -entre ellas Palantir Technologies-, se trata de una herramienta capaz de analizar grandes volúmenes de datos de inteligencia, como fotografías tomadas por drones y satélites, identificar posibles objetivos y priorizar amenazas en el campo de batalla.

«La IA está agilizando la toma de decisiones. Te dice lo que debes atacar y el orden en el que hacerlo»

Carlos Delgado
Analista de defensa

Desde 2024, el sistema está reforzado por el modelo avanzado de inteligencia artificial Claude, desarrollado por la empresa Anthropic. Este tipo de IA permite ir más allá del simple análisis de imágenes: puede leer informes de inteligencia, cruzar información procedente de distintas agencias gubernamentales y ofrecer una interpretación rápida de la situación. No toma decisiones, pero sí que es de gran ayuda a la hora de trabajar con los datos y organizar los ataques.

Un portaviones estadounidense durante el inicio de la ofensiva.

(CENTCOM)

El uso de esta tecnología -que, según ‘The Wall Street Journal’, ya habría jugado un papel importante en la captura del expresidente venezolano Nicolás Maduro- ha sido crucial en los primeros días del conflicto iraní. «Dado que la IA Claude de Anthropic es la única de su clase aprobada para funcionar en redes que contienen información militar clasificada, lo más probable es que sea la que ahora mismo se está utilizando para seleccionar objetivos», explica a este diario Peter Asaro, experto en IA militar, profesor universitario y vicepresidente de Stop Killer Robots, organización que trata de frenar el desarrollo de armamento completamente autónomo.

Difícil de sustituir

La relación entre Anthropic y el Gobierno estadounidense no pasa por su mejor momento. La semana pasada, el Pentágono catalogó a la tecnológica como «un riesgo en la cadena de suministro para la seguridad nacional» y ordenó al ejército dejar de utilizar su IA. La razón: la insistencia de la firma y de su CEO, Dario Amodei, en mantener dos líneas rojas: que su IA no se utilice para vigilancia masiva de ciudadanos estadounidenses ni para el desarrollo de armas completamente autónomas.

La IA de Anthropic se ha convertido en un elemento esencial en las operaciones del Ejército de Estados Unidos

A pesar de la ruptura, el ejército estadounidense ha seguido utilizando la tecnología de Claude. Principalmente, porque no tiene preparada la alternativa y, a estas alturas, su IA se ha convertido en una herramienta imprescindible y de uso diario para varias agencias gubernamentales, de acuerdo con fuentes consultadas por ‘The Washington Post’. Además, eliminarla de los sistemas en los que ya está operando no parece tarea fácil. Quizá por eso el Gobierno se ha dado un plazo de seis meses para ello. Mientras se cumple ese tiempo, el Pentágono y Anthropic han vuelto a sentarse para ver si es posible arreglar sus diferencias, según reconoció el propio Amodei este jueves.
Sea como sea, el Departamento de la Guerra estadounidense cerró la semana pasada un acuerdo con OpenAI, creadora de ChatGPT, para añadir su tecnología a los sistemas de defensa estadounidenses. En caso de que las negociaciones con Anthropic no lleguen a buen puerto, la tecnología de esta firma será la que sustituya a Claude.

Gaza, el banco de pruebas

Aunque la guerra de Irán ha sido el conflicto en el que el uso de IA generativa ha resultado más evidente, esta tecnología ya se había puesto a prueba anteriormente con fines militares. «El banco de pruebas fue Gaza», explica a este periódico Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Barcelona. «Los informes sobre la guerra israelí en Gaza dejan claro que han estado utilizando sistemas de IA en combate, principalmente para analizar inteligencia y elaborar listas de objetivos, así como para rastrear y seleccionar objetivos individuales», añade Asaro.
Sobre los sistemas que actualmente podría estar empleando en Irán el Ejército de Israel, destaca especialmente Lavender, tecnología que ya jugó un papel importante durante la guerra en Gaza. Se trata de un sistema diseñado para identificar personas concretas que podrían pertenecer a grupos armados y generar listas de posibles blancos.

Israel ya utilizó en Gaza sistemas como Lavender o Gospel, con los que es posible detectar enemigos y organizar ataques

Israel también tiene una herramienta llamada Gospel que, como Maven, analiza grandes cantidades de datos de vigilancia y genera recomendaciones de objetivos para bombardeos. «Parece muy probable que las Fuerzas de Defensa de Israel (FDI) estén utilizando sistemas similares para elaborar listas de objetivos humanos en Irán, aunque con diferentes tipos y fuentes de datos de inteligencia que los utilizados contra Hamás», destaca Asaro a este respecto.

MÁS INFORMACIÓN

Por el momento no está claro si Irán está recurriendo a la IA para seleccionar los objetivos de sus ataques. Sus acciones durante el conflicto se han basado principalmente en el uso de misiles balísticos y drones dirigidos contra Israel y contra bases estadounidenses en la región. Aun así, el volumen de estas acciones sigue siendo muy inferior al que han alcanzado sus adversarios en la contienda. El país afirma que, desde 2025, utiliza inteligencia artificial para la detección de misiles; aunque esto no ha impedido que se hayan registrado más de 2.000 ataques contra su territorio solo en los cuatro primeros días de enfrentamientos.

Irán explotó la Wikipedia para intentar hacer propaganda favorable al régimen

Según una investigación del sitio especializado ‘Neutral POV’, editores proiraníes habrían estado realizando cambios constantes en Wikipedia con el fin de hacer propaganda a favor del régimen de Irán. Según se recoge, este tipo de acciones se estarían llevando a cabo desde hace … años, pero han ganado especial protagonismo durante los últimos meses, sobre todo con el inicio de las protestas populares a finales del pasado diciembre.
Siempre según el citado medio, durante el mes de enero, una red de editores alineados con el Gobierno de Irán y con el régimen encabezado hasta hace una semana por Alí Jamenei se dedicó a hacer cambios en cientos de artículos relacionados con el régimen. Una segunda investigación desveló la subida masiva de más de 10.000 imágenes y vídeos relacionados con las protestas a Wikimedia Commons, el repositorio global de medios de Wikipedia, procedentes de medios estatales iraníes.

MÁS INFORMACIÓN

Con este tipo de acciones, los editores afines al régimen buscarían hacer propaganda y controlar la narrativa. Con el inicio de la guerra entre Estados Unidos, Israel y el régimen iraní, Wikipedia está tratando de evitar que los artículos relacionados puedan sufrir sesgos. Algunas páginas incluso han sido bloqueadas temporalmente para impedir nuevas ediciones, según explican a ABC desde la Fundación Wikimedia, la encargada de mantener y proteger los contenidos de Wikipedia.
«Este tipo de acciones suelen ser realizadas por enciclopedistas nuevos que no llevan mucho tiempo colaborando en Wikipedia», señala Miguel Ángel García, administrador de Wikipedia, abogado y antiguo miembro de la Junta Directiva de Wikimedia España.

Guerras de ediciones

Cuando hay algún conflicto internacional, Wikimedia suele estar muy pendiente de los cambios que se realizan en las entradas más sensibles. Además, cuanto mayor es el interés y la actualidad de un tema, más enciclopedistas revisan lo que se añade y lo que se elimina. Por ejemplo, el artículo principal del conflicto de Irán actualmente puede llegar a sufrir más de 150 cambios en una sola hora.
«Es más fácil que los artículos de Irán estuviesen sesgados hace unos días que ahora. En estos momentos hay muchos editores leyendo e interesándose por el conflicto, por lo que nos resulta mucho más sencillo detectar si hay sesgos o desinformaciones», explica García.
Con todo, el wikipedista reconoce que es fácil que se inicien guerras de ediciones, en las que «unos editores defienden una postura concreta, mientras que otros se muestran en contra». Esto provoca que una misma entrada pueda recibir constantes cambios en los que los sesgos igual aparecen que desaparecen. Lo normal en estos casos es que se genere una protección de la página.
«A partir de ese momento solo pueden modificarla editores consagrados que llevan ya mucho tiempo compartiendo contenido en Wikipedia y llevan cientos de ediciones», prosigue el enciclopedista. En caso de que los editores más experimentados no se pongan de acuerdo «se podría bloquear la página por completo», lo que provocaría que solo puedan participar los administradores, que tienen capacidad para borrar y recrear páginas enteras o bloquear usuarios, entre otras cosas.
García señala que el artículo sobre la muerte de Alí Jamenei, creado el 28 de febrero, acumula ya más de 80 ediciones y que, de momento, «no se han detectado razones para impedir los cambios». Eso no pasa con el artículo principal dedicado al exlíder del régimen, que está bloqueado por Wikipedia desde el 1 de marzo, y así seguirá hasta este domingo 8. Precisamente para evitar la desinformación y las guerras de ediciones.

OpenAI pierde la carrera de la IA y los expertos temen por la supervivencia de la empresa

Es noviembre de 2022 y Sundar Pichai, CEO de Google, está preocupado. Hace apenas unos días, una startup llamada OpenAI puso en línea una máquina que, aparentemente, es capaz de resolver cualquier duda que tenga el usuario. Su nombre es ChatGPT, y el … ejecutivo indio teme que, con el tiempo, acabe dejando obsoleto a su motor de búsqueda, el sitio al que todo el mundo acude cuando navega por internet. Hay que responder; y por eso entra en un bucle de reuniones en las que trata de encontrar la mejor forma de hacerlo. Necesita nuevos productos para competir y no quedarse atrás. Y los necesita rápido si quiere que Google siga manteniendo su estatus de albacea principal de toda la información que se cuelga en la red.
Tres años después, la empresa de Mountain View no solo no ha perdido la carrera de la inteligencia artificial; sino que parece que, ahora mismo, la lidera. Y que va a ganarla. Para empezar, porque tiene lo más importante: dinero. Hace apenas unos días, anunció su intención de duplicar sus gastos anuales hasta alcanzar los 185.000 millones de dólares; y una parte importante de ese dinero irá destinado, directamente, a la mejora de su inteligencia artificial y, más en concreto, de ‘su ChatGPT’: Gemini.

MÁS INFORMACIÓN

Mientras tanto, OpenAI sigue tratando de encontrar fórmulas que le permitan aumentar los ingresos generados por su tecnología, que sigue lejos -a años luz- de ser rentable. La firma, liderada por Sam Altman, espera sufrir pérdidas de 100.000 millones de dólares en los próximos cuatro años. Su supervivencia sigue dependiendo de las inyecciones de fondos procedentes de terceros, como los 110.000 millones que va a recibir de Amazon, SoftBank o Nvidia, y de los acuerdos a los que llega con empresas e instituciones para el uso de su tecnología, como el que firmó recientemente con el Pentágono, de 200 millones. Y es que, aunque pueda sorprender, el uso de ChatGPT provoca más gastos a la compañía que beneficios; y esta, a diferencia de Google, no cuenta con un imperio de aplicaciones y publicidad online que le ayude a sostener su IA.
Recientemente algunos analistas de negocio y expertos en IA, como Sebastian Mallaby en ‘The New York Times’, han apuntado que la firma, la misma que inició la carrera de los robots parlantes, corre riesgo de quebrar «en los próximos 18 meses». Y otros expertos están de acuerdo. «El riesgo existe, efectivamente», explica en conversación con ABC Miguel Lucas, director global de innovación en Llorente y Cuenca. «El éxito en la adopción de ChatGPT tiene una relación directa con las pérdidas que está teniendo la empresa. Tiene muchos usuarios, pero también muchos gastos para mantener su servicio. Para este 2026 se espera que las pérdidas hasta dupliquen las del año pasado (9.000 millones de dólares en 2025 frente a unos 17.000 en 2026, según las filtraciones)», remata el experto.

OpenAI tuvo unas pérdidas de 9.000 millones de dólares solo en 2025. Este año podrían ser del doble, según las filtraciones

Joe Haslam, director ejecutivo del programa de Scaleup de propietarios del IE Business School, no tiene tan claro que esto ocurra, aunque no le extrañaría nada que, en el futuro, OpenAI termine siendo propiedad de otra compañía. «Creo que alguien intervendría y adquiriría la tecnología o se cerraría algún tipo de acuerdo para garantizar la supervivencia», apunta el docente a este diario. A pesar de ello, remarca que la sensación que tiene actualmente es que «pase lo que pase, Google lo tiene ya todo para ganar»: «Fabrica sus propios chips, no tiene problemas de talento y tiene un gran negocio basado en la publicidad que le permite seguir invirtiendo en mejorar su IA».

Google invierte en la competencia

ChatGPT sigue siendo la máquina conversacional más empleada por los usuarios. Se estima que, cada mes, unas 810 millones de personas usan el robot para hacer consultas; pero solo el 5% de ellos tiene contratado alguno de los planes de pago. Una cifra demasiado baja como para cubrir los gastos operativos del chatbot. Y, mientras tanto, la competencia le pisa los talones. Recientemente, Sundar Pichai anunció que Gemini había alcanzado los 750 millones mensuales, 100 más de los que tenía en el trimestre anterior. ¿La razón? Gemini 3, una nueva versión de la máquina del buscador que, temporalmente, llegó a estar bastante por encima de lo que eran capaz de ofrecer la mayoría de robots de la competencia.

La IA de Google cuenta con 750 millones de usuarios mensuales. Ha ganado 100 millones en un trimestre y ya está cerca de ChatGPT

«Los que usamos Gemini y ChatGPT nos damos cuenta de que la herramienta de Google no tiene nada que envidiar a las demás. Incluso es bastante mejor en algunos apartados, como en la generación de imágenes», dice Lucas. El experto destaca, además, que Google tiene menos dificultades que OpenAI para conseguir usuarios porque su tecnología está presente en muchos más servicios que ChatGPT, como en su propio buscador o en herramientas como Gmail. Y la influencia de Google llega mucho más allá, incluso a tecnológicas que, en teoría, le están haciendo la competencia dentro del terreno de la IA.
Actualmente, la empresa liderada por Sundar Pichai es la propietaria del 14% de Anthropic, startup creada por extrabajadores de OpenAI y que está detrás de una de las herramientas de IA más populares del momento: Claude Code, que se ha convertido en una de las herramientas favoritas de los desarrolladores y ha provocado parcialmente que, la empresa haya alcanzado una valoración de 380.000 millones de dólares. Además, Google ha comenzado a tener participación en xAI, la empresa de IA de Elon Musk, después de que esta se fusionase con SpaceX hace unas semanas. El buscador mantiene desde 2015 el 7% de la propiedad de la compañía aeroespacial. «Es todo un foso de seguridad en torno a la IA. Pase lo que pase con sus propias herramientas, se garantiza sacar algo de los demás», dice el director global de innovación de Llorente y Cuenca.
Google también ha reducido al mínimo la dependencia de la tecnología de otras empresas. Ni siquiera necesita los chips de Nvidia, claves para poder entrenar a las máquinas y que estas sean capaces de responder las solicitudes que reciben. Google se fabrica los suyos. «Todavía están un paso por detrás de los de Nvidia, pero son mucho más eficientes. Al consumir menos energía pueden ahorrar dinero en el entrenamiento de su IA », explica Lucas.

ChatGPT añade anuncios para buscar nuevos ingresos

Desde hace escasos días, los usuarios de ChatGPT en Estados Unidos han comenzado a ver anuncios relacionados con sus consultas. En concreto en la versión gratuita y en Go, que actualmente tiene un precio de unos 10 euros mensuales. En un comunicado, la empresa de IA señala que el funcionamiento de su máquina «requiere una infraestructura importante y una inversión continua», y que «la publicidad ayuda a financiar ese trabajo».
«Al menos tienen que intentar encontrar cómo hacer más caja», señala Haslam sobre el anuncio. Sea como sea, la llegada de publicidad a la plataforma no ha debido ser una decisión sencilla para OpenAI. En 2024, Sam Altman se refirió a su incorporación como «un último recurso» y algo que resultaría «especialmente inquietante». Temía que los usuarios perdieran confianza en los resultados del chatbot, que creyesen que, cuando este les hablaba sobre un producto concreto, lo hiciese realmente porque una tercera empresa había pagado para promocionarlo.
«Hay que al menos intentar hacer caja. Hacen lo que tienen que hacer», apunta Haslam al respecto. Sarah Friar, directora financiera de OpenAI, también ha dejado caer en varias ocasiones durante las últimas semanas que la compañía está estudiando la posibilidad de comenzar a solicitar recompensas a las empresas que realicen descubrimientos apoyándose en su tecnología, por ejemplo, a las farmacéuticas.

El truco de Google para encontrar tus datos personales en internet y borrarlos

Google tiene una herramienta que permite a los usuarios descubrir si su información personal, como los datos de contactos o el número de pasaporte, está disponible en los resultados de su buscador, para poder solicitar su retirada.Se trata de ‘Resultados sobre ti’, … y está vinculada a la cuenta de Google. Se accede a ella desde la ‘app’ del buscador en el móvil -al pinchar en la imagen o la letra del nombre- y desde la web dedicada.

Para poder realizar una búsqueda de los datos, esta herramienta requiere que el usuario añada esa información en esta herramienta. El sistema de Google realizará revisiones periódicas y notificará si encuentra alguno de esos datos en los resultados del buscador.

¿Qué puede encontrar?

‘Resultados sobre ti’ se centra en los datos de contacto, como el nombre, el apodo, el número de teléfono, la dirección de correo electrónico y la dirección física. No se limita a uno, sino que si el usuario tiene varios, por ejemplo, dos número de teléfono o ‘emails’, puede introducirlos todos.

Probamos OpenClaw: el mayordomo de IA viral que trabaja para ti desde tu ordenador

Durante las últimas semanas, internet se ha inundado de imágenes de langostas y Mac minis, acompañadas de la etiqueta «este es mi nuevo empleado». Todo gracias a OpenClaw, un asistente de código abierto que no vive en un chat, sino en tu ordenador, siempre … encendido, y que interactúa por los canales que ya usas: WhatsApp, Telegram, Slack, Discord, Signal, iMessage, Google Chat o Teams, entre tantos otros.
El cambio es sencillo: ya no hablamos de IA para chatear, como ocurre con ChatGPT, sino de IA para hacer. Una vez que tiene acceso a tu ordenador, puede realizar numerosas tareas, como abrir archivos, navegar por internet o ejecutar comandos en el terminal.

Aunque todos se han obsesionado con el Mac mini, hasta el punto de agotarlo en las tiendas, nosotros lo hemos instalado en un mini PC AMD, específicamente un Geekom A9 Max con CPU Ryzen AI 9 HX 370, NPU de hasta 80 TOPS, que supera al Mac Mini en rendimiento. Además, cuenta con Wi-Fi 7 y doble LAN 2.5G, lo que le otorga más que suficiente potencia para hacer funcionar OpenClaw, manteniéndose ultra silencioso al estar encendido todo el día.
La razón para montarlo en un ordenador independiente es la preocupación por la seguridad de dejar a la IA con acceso a nuestras cuentas personales. Lo más seguro es usar un sistema limpio y vacío. En este caso, lo montamos en un Docker con WSL, una herramienta que permite empaquetar aplicaciones junto con todo lo necesario para que funcionen y que asegura que la herramienta no pueda ‘escapar’ de su entorno sin una orden expresa.

Un asistente que trabaja mientras tu haces otra cosa

OpenClaw destaca principalmente por tres características que explican su éxito. La primera es la persistencia: es una IA que está activa todo el día, con memoria duradera y la capacidad de trabajar constantemente en tareas. La segunda son los canales: puedes interactuar con OpenClaw a través de tu sistema de chat favorito. Y la tercera es el ecosistema de ‘skills’ o herramientas que le puedes proporcionar a la IA, el cual ha crecido exponencialmente en los últimos días.
Lo más adictivo de OpenClaw es su capacidad para planificar y encadenar tareas. Tú le das un objetivo, lo divide en pasos, se toma su tiempo y busca la mejor forma de resolverlas. Por ejemplo, si le das una idea de negocio, es probable que cree la página web, compre el dominio, alquile el ‘hosting’ e incluso realice un estudio de mercado. Básicamente, funciona igual que lo haría un empleado administrativo. Es la misma IA que ya conocemos, pero sin las limitaciones de un chat. Es tu propio agente, sin barreras.
Las consecuencias más sorprendentes del éxito de OpenClaw comenzaron a manifestarse poco después de su publicación en GitHub. Moltbook, una red social tipo Reddit «para agentes», ya cuenta con un millón y medio de usuarios bot. Incluso la clásica protección «confirma que eres humano» ha sido reemplazada por «confirma que eres un bot» para evitar que los humanos ingresen. Lo más interesante son las conversaciones que han surgido, como la organización de huelgas o la creación de nuevas religiones. Aunque expertos ya han alertado a ABC de que muchas de ellas han podido ser creadas por las máquinas a partir de las órdenes de sus dueños.
Otra de las distopías que han surgido es la web RentAHuman, una plataforma en la que los agentes pueden «alquilar humanos» para tareas en el mundo físico. Un agente puede ir allí y publicar ofertas de trabajo para humanos, que hasta ahora han incluido actividades como contar cuántas palomas hay en una plaza o pedirle a alguien que sostenga un cartel que diga «una IA me ha pagado 100 dólares para sostener este cartel en público». Tareas aleatorias e inocentes, pero que, probablemente, deberían hacernos reflexionar como sociedad.

Inseguro

Como mencionamos, el talón de Aquiles de OpenClaw es la seguridad. Incluso sus creadores sugieren que las personas «no técnicas» deberían evitar usarlo. Además, los ‘skills’ no tienen ningún tipo de supervisión, y ya han aparecido muchos con código malicioso, especialmente diseñados para acceder a fondos en criptomonedas. Esa es la razón por la cual Google, Microsoft y OpenAI no se arriesgan a trabajar con un agente tan abierto y potencialmente peligroso.
Nuestra regla, por ahora, es la misma que con cualquier prueba de laboratorio: cuentas separadas, permisos mínimos gracias al Docker, y nada de mezclarlo con tu vida digital. Si sigues estas pautas, OpenClaw puede ser un gran asistente y, aún más, una increíble experiencia de IA.

Probamos el HoverAir X1 Pro Max, el pequeño dron tipo 'selfie' ideal para deportistas

Hace más de dos años probamos el HoverAir X1, un dron tipo ‘selfie’ totalmente desconocido por aquel entonces que nos dejó un gran sabor de boca. Fue el primero que realmente cumplía lo que prometía: uso muy sencillo en el seguimiento, portabilidad absoluta … y la posibilidad de convertirse en una ‘selfie cam’ con solo pulsar un botón, sin necesidad de mando.
Desde entonces, Zero Zero Robotics ha seguido perfeccionando la fórmula con nuevos modelos como el HoverAir X1 Pro y el HoverAir X1 Pro Max, que llevamos varias semanas probando, y llegó a las tiendas recientemente con un precio de 649 euros.

El éxito de la marca ha sido evidente. Incluso DJI, líder indiscutible del sector, ha seguido esta línea con el DJI Neo y el Neo 2, competidores directos del X1 Pro Max.

Diseño y construcción

Los nuevos X1 Pro mantienen el espíritu de «encender, poner en la palma de la mano y volar», pero mejoran especialmente el seguimiento en deportes como ciclismo o actividades en la nieve.

Probamos el OnePlus 15, el móvil que te hará olvidar el cargador

Llevamos tres semanas conviviendo con el nuevo OnePlus 15. Tres semanas en las que el cargador ha pasado de ser algo de primera necesidad a un objeto casi olvidado al fondo de un cajón, rescatado solo cada dos o tres días (a veces incluso … cuatro). Y es que, si hay algo que define al nuevo buque insignia de la firma china, es la ruptura total con una de las mayores ansiedades del siglo XXI: la autonomía. Sin embargo, y todo hay que decirlo, en este viaje hacia la potencia bruta y la energía inagotable, OnePlus parece haber dejado atrás parte de la elegancia y la excelencia fotográfica que tanto nos costó ver madurar en sus predecesores.
Hace apenas un mes, la compañía presentó este terminal en Praga bajo la promesa de ser un «salto de dos generaciones». Ahora, y tras someterlo a las pruebas más exigentes, podemos decir que la afirmación es cierta en cuanto al «músculo», pero discutible en lo que respecta al ‘ojo’. El OnePlus 15 es un titán de fuerza bruta que, además, acaba de experimentar una bajada de precio. El modelo de base cuesta, en efecto, 979 euros, lejos de los ‘flagship’ de otras marcas que superan con creces los 1.000 euros.

Gran batería

Empecemos por lo que, sin duda, está cambiando las reglas del juego. Porque en un cuerpo de dimensiones contenidas (apenas 8,1 mm de grosor y 215 gramos), los ingenieros de OnePlus han logrado integrar una batería de 7.300 mAh. No es un error tipográfico. Gracias a la tecnología Silicon NanoStack, que incrementa el contenido de silicio en un 15%, la densidad energética se ha disparado en este terminal.
En nuestras pruebas de uso real, el resultado fue sencillamente abrumador. Y es que hemos llegado a encadenar hasta cuatro días completos de uso moderado sin pasar por el enchufe. E incluso en las jornadas de mayor estrés, con navegación GPS, juego intensivo y edición de vídeo de propina, llegar a la noche con menos del 40% de batería fue un desafío casi imposible. Y cuando finalmente se agota, la carga rápida SUPERVOOC de 120W devuelve la vida al terminal en apenas 39 minutos. Es, sin lugar a dudas, la mejor experiencia de autonomía que hemos probado en un gama alta en los últimos años.