Tecnología Archivos - Colombia
Registro  /  Login

Portal de Negocios en Colombia

Tecnología

Este dron está arrasando en Amazon: vídeo 4K a 10 km de distancia y más de una hora de vuelo

El auge de los drones compactos ha abierto la puerta a una nueva forma de grabar viajes, excursiones o momentos familiares desde perspectivas que antes parecían reservadas a producciones profesionales. El DJI Mini 4K es una de las opciones más atractivas para quienes quieren iniciarse en este mundo sin complicarse. Su tamaño reducido, su facilidad de manejo y su tecnología de estabilización hacen que resulte accesible incluso para usuarios sin experiencia.Uno de los puntos que más llama la atención es su peso inferior a 249 gramos. Esto simplifica mucho su uso en términos legales dentro de Europa. Gracias a su certificación de clase C0, puede volar en categorías A1 y A3, lo que significa que muchos usuarios pueden utilizarlo sin tener que superar exámenes complejos. Esto facilita enormemente dar el salto al vuelo recreativo o a la creación de contenido aéreo.Este completo pack DJI Mini 4K se puede encontrar actualmente por 269€, un precio top dentro del mercado de drones compactos. Teniendo en cuenta que incluye dos baterías, mando a distancia DJI RC-N1C, bolsa de transporte y varios accesorios, la propuesta resulta especialmente interesante para quienes quieren empezar a volar sin tener que comprar complementos adicionales.Comprar en AmazonEl dron incorpora grabación en resolución 4K Ultra HD y un estabilizador mecánico de tres ejes que mantiene la cámara firme incluso cuando el dron se mueve. Esto permite obtener vídeos fluidos y con aspecto cinematográfico, algo fundamental si lo que se busca es compartir imágenes impactantes en redes sociales o crear contenido audiovisual de mayor calidad.La estabilidad en vuelo también juega un papel clave. Los motores sin escobillas y su diseño aerodinámico le permiten resistir rachas de viento de hasta 38 km/h, lo que corresponde a nivel 5 en la escala de resistencia al viento. Este detalle es importante porque muchos drones pequeños suelen sufrir en condiciones de aire movido. Aquí, sin embargo, el Mini 4K mantiene una buena estabilidad incluso en escenarios algo más exigentes.El sistema de comunicación permite controlar el dron y ver la señal de vídeo a distancias de hasta 10 kilómetros en condiciones ideales. Esto abre la puerta a capturar paisajes mucho más amplios, explorar zonas naturales o realizar tomas aéreas más creativas sin perder la conexión con el dispositivo.La autonomía también debe ser destacada. Dependiendo del pack elegido, el dron puede ofrecer hasta 31 minutos de vuelo por batería. En el caso del conjunto que incluye dos baterías, la autonomía total acumulada alcanza alrededor de 62 minutos, lo que permite realizar varias sesiones de grabación sin preocuparse constantemente por volver a cargar el dispositivo.DJI también ha pensado en quienes no tienen experiencia pilotando drones. Funciones como el despegue y aterrizaje con un solo toque, el regreso automático al punto de origen o el posicionamiento GPS ayudan a que el vuelo sea mucho más seguro. Estas herramientas reducen el riesgo de accidentes y permiten centrarse en lo realmente importante, capturar buenas imágenes desde el aire.A todo esto se suman los modos inteligentes QuickShots. Con apenas unos toques en la aplicación, el dron puede realizar maniobras automáticas como Espiral, Dronie, Cohete, Órbita o Boomerang mientras graba vídeo. El resultado son clips con movimientos cinematográficos de manera sencilla. El DJI Mini 4K es una de las mejores opciones de entrada para dar rienda suelta a tus habilidades, y en Amazon está ahora muy barato.

Apple sorprende con los AirPods Max 2, la segunda generación de sus auriculares más premium: estas son sus novedades

Apple ha presentado por sorpresa los AirPods Max 2, la segunda generación de sus auriculares de diadema más avanzados, más de cinco años después del lanzamiento del modelo original. El anuncio llega en un momento de intensa actividad para la compañía, que en las últimas semanas ha renovado varios dispositivos —desde ordenadores hasta el iPhone 17e, su smartphone ‘barato’— y en el que uno de los productos que más expectación está generando es el nuevo MacBook Neo, un portátil pensado para ampliar la gama de entrada de los Mac.En este contexto, la compañía de Cupertino actualiza también su propuesta en el segmento más alto del audio personal. Los nuevos AirPods Max 2 mantienen prácticamente el mismo diseño que la generación anterior, pero incorporan mejoras internas centradas en el procesamiento del sonido, la cancelación de ruido y nuevas funciones inteligentes basadas en software.Los AirPods Max no habían recibido una renovación completa desde su lanzamiento en 2020. Apple sí introdujo una actualización menor en 2024, cuando sustituyó el conector Lightning por USB-C y cambió la gama de colores disponibles —medianoche, blanco estrella, azul, naranja y púrpura—. Aquella revisión mantuvo prácticamente el mismo hardware.Un salto interno: llega el chip H2La principal novedad de los AirPods Max 2 está en su interior. Apple ha sustituido el chip H1 de la primera generación por el H2, el mismo procesador que ya utilizan otros auriculares más recientes de la marca.Este componente es clave porque se encarga de gestionar el llamado audio computacional, es decir, el procesamiento digital del sonido que los auriculares realizan en tiempo real para optimizar la experiencia auditiva. En la práctica, el chip analiza continuamente lo que ocurre alrededor del usuario —el ruido ambiente, la posición de los auriculares o el contenido que se está reproduciendo— y ajusta la señal sonora para mejorarla.Gracias a esta nueva arquitectura, Apple asegura que la cancelación activa de ruido puede ser hasta 1,5 veces más eficaz que en el modelo anterior. Este sistema funciona utilizando varios micrófonos que captan el ruido del entorno y generan una señal inversa para neutralizarlo antes de que llegue al oído del usuario.El modo ‘Transparencia’, que permite escuchar lo que ocurre alrededor sin quitarse los auriculares, también se ha mejorado para que el sonido exterior resulte más natural, según el comunicado de la marca.Nuevas funciones inteligentesEl chip H2 también permite que los AirPods Max 2 incorporen funciones que Apple había introducido en otros modelos más recientes de su catálogo, pero que hasta ahora no estaban disponibles en su auricular de diadema.Entre ellas se encuentra ‘Adaptive Audio’, una función que ajusta automáticamente el sonido según el entorno del usuario, o ‘Conversation Awareness’, que reduce el volumen cuando detecta que alguien está hablando. La idea es que el usuario pueda interactuar con su entorno sin necesidad de quitarse los auriculares.Otra mejora destacada es ‘Voice Isolation’, que filtra el ruido ambiental durante las llamadas para que la voz se escuche con mayor claridad.Apple también ha integrado funciones de traducción de conversaciones en tiempo real, apoyadas en su ecosistema de inteligencia artificial, una característica que puede resultar especialmente útil para viajes o reuniones en otros idiomas.En el apartado técnico, los AirPods Max 2 también son compatibles con audio sin pérdidas (lossless) de 24 bits y 48 kHz mediante conexión USB-C, una característica orientada a usuarios que buscan una reproducción de mayor fidelidad, como creadores de contenido o profesionales del sonido. Diseño prácticamente idénticoEn el exterior, sin embargo, los cambios son mínimos. Apple mantiene el mismo diseño introducido en 2020, con copas de aluminio, grandes almohadillas ovaladas y la característica diadema de malla elástica pensada para distribuir mejor el peso.También se conservan los controles físicos, incluida la Digital Crown, inspirada en el Apple Watch, que permite ajustar el volumen o controlar la reproducción.La autonomía tampoco cambia de forma significativa. Apple mantiene una duración de hasta 20 horas de reproducción con cancelación activa de ruido y audio espacial activados, una cifra similar a la de la generación anterior.Los AirPods Max 2 mantienen además la paleta de colores introducida en la actualización de 2024, con acabados en azul, medianoche, blanco estelar, púrpura y naranja.Precio y disponibilidad de los AirPods Max 2 en EspañaLos AirPods Max 2 se podrán reservar a partir del 25 de marzo y llegarán a las tiendas a principios de abril. En España tendrán un precio de 579 euros, el mismo que tenía el modelo anterior.

Instagram eliminará una función que pondrá en jaque tu privacidad sin que te des cuenta

Meta ha confirmado que Instagram dejará de ofrecer soporte para el cifrado de extremo a extremo en sus mensajes directos a partir del 8 de mayo de este año. Dicha medida ya ha empezado a notificarse a través de la página de soporte de la red social y alertas internas en la aplicación, además, pone fin a una de las funciones de seguridad más robusta, ya que garantiza que solo el emisor y el receptor puedan leer el contenido de las conversaciones, impidiendo el acceso a terceros.Pero, ¿por qué ha tomado esta decisión la app? Acorde a la información compartida por el diario Digital Trends, un portavoz de Meta ha dado a conocer que la medida responde a la baja adopción de la herramienta porque «muy pocos usuarios» hacen uso activo del cifrado de extremo a extremo, teniendo en cuenta que no viene activado por defecto en los chats, a diferencia de lo que ocurre en WhatsApp.Además, cabe destacar que «los críticos llevan tiempo argumentando que el cifrado de extremo a extremo crea un punto ciego digital al que ni las empresas tecnológicas ni la policía pueden acceder, incluso cuando estas actúan como tapadera para cometer delitos».¿Qué pasará cuando se elimine el cifrado en Instagram?A partir del 8 de mayo, los mensajes de Instagram dejarán de estar protegidos por este protocolo. Además, la app insta en su página de soporte a tomar las siguientes medidas:Exportar y descargar manualmente cualquier mensaje o archivo multimedia (fotos y vídeos) de estos hilos de conversación antes de la fecha mencionada para evitar su pérdida permanente.Los usuarios con versiones antiguas de la aplicación deberán actualizar la aplicación para poder acceder a las herramientas de exportación de chats.Qué es el cifrado de extremo a extremo en InstagramTodos los dispositivos de una conversación cifrada de extremo a extremo tienen una clave especial que se utiliza para su protección, por lo tanto, cuando se envía un mensaje en un chat cifrado de extremo a extremo, el dispositivo bloquea el mensaje en el momento del envío. Instagram explica en su página de soporte «este solo puede desbloquearlo un dispositivo que tenga una de las claves especiales para ese chat» y «nadie (excepto las personas que tengan estas claves especiales) puede leer los mensajes o escuchar las llamadas, ni siquiera Meta».

Amazon subirá el precio de Prime Video sin anuncios y lanza la nueva suscripción Ultra

Amazon Prime Video subió por última vez el precio de sus suscripciones hace dos años, cuando anunció que iba a introducir publicidad en sus contenidos. Desde entonces, los usuarios que quieren evitar los anuncios pueden pagar un extra de 1,99 euros al mes, sin embargo, esto cambiará a mediados de abril porque dicho suplemento ya no será suficiente para eliminar la publicidad, ya que la plataforma prepara una nueva suscripción llamada Prime Video Ultra, que será la opción necesaria para disfrutar del contenido sin anuncios.Acorde a la información compartida por Amazon en su blog oficial, el próximo 10 de abril, la suscripción sin anuncios de Prime Video pasará a llamarse Prime Video Ultra en Estados Unidos, con un precio de 4,99 dólares al mes adicionales a la suscripción de Amazon Prime.Esta nueva suscripción ofrecerá hasta cinco reproducciones simultáneas, 100 descargas, acceso exclusivo a la transmisión en 4K/UHD, Dolby Vision, Dolby Atmos y miles de películas premium, series de televisión y deportes en vivo. Además, según el gigante tecnológico, «ofrecer streaming sin anuncios con funciones premium requiere una inversión significativa, y esta estructura se alinea con la de otros servicios de streaming importantes, al tiempo que garantiza que los clientes tengan la flexibilidad de elegir cómo quieren ver el contenido».Además, independientemente de que la tarifa adicional se pueda pagar mes a mes, desde Amazon indican que los clientes también pueden optar por el plan anual por 45,99 dólares, «con un 23% de descuento sobre la tarifa mensual».Por el momento, Amazon solo ha anunciado este plan para Estados Unidos y todavía se desconoce si llegará a España, sin dar a conocer posible fecha de despliegue y precio mensual.Cuánto cuesta Amazon Prime Video en EspañaAmazon Prime ofrece dos precios distintos, uno para quienes quieran pagar mes a mes la suscripción y otro para quienes quieran pagar todo el año. Estos son los precios:Precio Amazon Prime: 4,99 euros al mes o 49,90 euros al año.Precio para estudiantes y jóvenes entre 18 y 22 años: 2,49 euros al mes.Recordamos que estas tarifas son complementarias a la suscripción Amazon Prime y que para ver series o películas sin anuncios es necesario pagar un extra de 1,99 euros mensuales.

Apple anuncia los Airpods Max 2: la evolución de sus auriculares más ambiciosos

Apple ha anunciado por sorpresa el lanzamiento de la segunda edición de sus auriculares de tipo diadema: los Airpods Max 2. El dispositivo, que llegará a las tiendas a principios de abril, viene con mejoras en calidad de sonido, inteligencia artificial y cancelación … de ruido; aunque pierden por el camino algunas funciones características interesantes que sí están presentes en otros auriculares de la marca.
La firma de la manzana ha incorporado en su nuevo auricular el chip H2, el mismo que ya hemos visto en los AirPods Pro y los AirPods 4. Gracias a este añadido, los graves resultan más profundos, las voces más naturales y es más sencillo diferenciar los instrumentos empleados en la canción que estás escuchando. Además, los Max 2 se pueden conectar mediante cable USB-C al dispositivo que se esté utilizando para reproducir contenido, lo que hace que la calidad del audio mejore en comparación con lo que pueden ofrecer sus hermanos mayores.

MÁS INFORMACIÓN

Según Apple, el H2 también permite que la cancelación de ruido mejore hasta 1,5 veces en comparación con lo que podían ofrecer los primeros AirPods Max. Además, el dispositivo, como ocurre con el resto de auriculares de Apple desde hace años, incorporal audio adaptativo, gracias al cual el auricular puede ajustar automáticamente los niveles de cancelación de ruido según el entorno. Asimismo, incorpora el botón de modo de escucha para pasar al modo de sonido ambiente sin necesidad de ir a los Ajustes del iPhone.
Los AirPods Max también incorporan las funciones basadas en IA que Apple ha incorporado recientemente a sus auriculares. Entre ellas se encuentra la ‘Traducción tiempo real’, que permite traducir conversaciones en el momento simplemente manteniendo pulsado el botón de modo de escucha. También suma la ‘Detección de conversación’, que reduce el volumen automáticamente cuando detecta que el usuario está charlando con alguien, la ‘Reducción de sonidos fuertes’ y el ‘Volumen personalizado’.
Respecto a la autonomía, Apple promete que el dispositivo puede aguantar hasta 20 horas de reproducción de audio con la cancelación de ruido activada.
Los AirPods Max 2 llegan con un precio de 579 euros, lo que los convierte en los auriculares más caros que tiene Apple actualmente en el mercado. Cuestan más del doble que los últimos AirPods Pro, y queda claro que no es un dispositivo pensado para todos los bolsillos. Además, pierden por el camino funciones tan interesantes como la medición de frecuencia cardiaca para entrenar, que se queda solo en los Pro. Tampoco cuentan con resistencia al polvo, el agua y el sudor.
Los auriculares estarán disponibles para reserva desde el próximo 25 de marzo en cinco colores diferentes: azul, púrpura, media noche (es decir, negro), blanco estrella y naranja.

vivo lanza en España el V70, un móvil con zoom para fotografía a distancia y batería de 6.500 mAh

La marca china vivo sigue ampliando su presencia en España con el lanzamiento del vivo V70, un smartphone que pone el foco en la fotografía móvil y que llega al mercado con un teleobjetivo pensado para capturar sujetos a distancia, además de una batería de gran capacidad.La compañía lleva años apostando por la fotografía como elemento diferenciador en sus dispositivos. De hecho, en muchos de sus modelos ha colaborado con la firma óptica ZEISS para desarrollar el sistema de cámaras. Con el V70, vivo mantiene esa estrategia y trata de trasladar parte de esa experiencia a un segmento de precio más accesible.Este enfoque responde también a una tendencia clara del mercado: la fotografía se ha convertido en uno de los factores clave a la hora de elegir móvil, especialmente en la gama media-alta, donde muchos usuarios buscan un equilibrio entre prestaciones avanzadas y precio contenido. Zoom para capturar sujetos lejanosEl apartado fotográfico es el principal argumento del vivo V70. El terminal integra un sistema de cámaras desarrollado junto a ZEISS que incluye un teleobjetivo de 50 megapíxeles con estabilización óptica (OIS).Este tipo de lente permite acercar sujetos lejanos sin depender únicamente del zoom digital, lo que se traduce en fotografías con mayor nitidez. En la práctica, resulta útil en situaciones como conciertos, eventos deportivos o fotografía de viajes, donde el sujeto está lejos del fotógrafo.El sistema se completa con una cámara principal de 50 megapíxeles y una cámara ultra gran angular de 8 megapíxeles. En la parte frontal, el dispositivo incorpora una cámara de 50 megapíxeles con autofoco, pensada para selfies y fotografías de grupo.El teléfono también introduce funciones basadas en inteligencia artificial. Entre ellas destaca AI Stage Mode, un modo pensado para mejorar las fotografías de escenarios o conciertos, ajustando automáticamente la imagen cuando el sujeto está lejos o en condiciones de iluminación complicadas.En vídeo, el dispositivo es capaz de grabar en 4K a 60 fotogramas por segundo, una mejora que se incluye por primera vez en la serie V. Más batería y rendimiento pensado para el uso diarioAdemás de la fotografía, el vivo V70 apuesta por reforzar la autonomía. El terminal integra una batería de 6.500 mAh, una capacidad superior a la que suelen ofrecer muchos smartphones del mismo rango de precio.En la práctica, esto se traduce en más margen de uso durante el día, especialmente para tareas intensivas como grabar vídeo, usar el GPS o jugar.El dispositivo también incorpora carga rápida de 90 W, lo que permite recuperar gran parte de la batería en pocos minutos.En cuanto al rendimiento, el móvil utiliza memoria LPDDR5X y almacenamiento UFS 4.1, dos tecnologías pensadas para acelerar la apertura de aplicaciones y la transferencia de archivos. Además, incluye un sistema de refrigeración con cámara de vapor de 4.200 mm², que ayuda a disipar el calor cuando el dispositivo se utiliza para tareas exigentes.El smartphone cuenta con una pantalla OLED de 6,59 pulgadas con resolución 1.5K y tasa de refresco de 120 Hz, lo que permite una visualización más fluida al navegar por menús o desplazarse por aplicaciones.En diseño, el terminal incorpora marco de aluminio de grado aeroespacial, cristal trasero con acabado mate y sensor de huellas ultrasónico bajo la pantalla. Además cuenta con resistencia al polvo y al agua IP68 e IP69, así como «resistencia a caídas de 10 facetas», es decir, es capaz de soportar caídas accidentales desde hasta 1,8 metros, según señala la marca.El vivo V70 FE: una versión más accesibleJunto al V70, la compañía también ha anunciado el vivo V70 FE, una variante que llegará a España a finales de marzo y que busca acercar algunas de las características de la serie a un público más amplio.El modelo económico apuesta por una cámara principal de 200 megapíxeles con estabilización óptica, acompañada de un ultra gran angular de 120 grados y una cámara frontal de 32 megapíxeles.Entre sus características también destaca una batería de 7.000 mAh, una de las mayores dentro de su categoría, junto con carga rápida de 90 W.El dispositivo incorpora el procesador Dimensity 7360-Turbo, conectividad 5G y una pantalla AMOLED de 6,83 pulgadas con tasa de refresco de 120 Hz y brillo máximo que alcanza los 1.900 nits. También cuenta con certificación IP68 e IP69, lo que indica resistencia al polvo y al agua. Precio y disponibilidad en EspañaEl vivo V70 Authentic Black (negro) ya está disponible en España en su versión de 12 GB de RAM y 512 GB de almacenamiento por 749 euros, aunque la compañía ha anunciado una promoción de lanzamiento que lo reduce a 699 euros hasta el 29 de marzo.A partir del 30 de marzo, el dispositivo llegará también en una configuración de 8 GB de RAM y 512 GB de almacenamiento y en nuevos colores (Alpine Gray y Sandalwood Brown).Por su parte, el vivo V70 FE estará disponible en España en dos colores (Muse Purple y Ocean Blue) desde el 30 de marzo, con un precio que parte de 399 euros en la configuración 8 GB de RAM y 256 GB de almacenamiento.También hay un pack desde 449 euros con accesorios premium dentro de la caja: los auriculares vivo Buds Air 3, el cargador FlashCharger de 90W, una funda protectora y un protector de pantalla ya instalado.

Probamos el Google Pixel 10a: ¿el móvil más listo de la clase media?

A Google le gusta lanzar la versión ‘a’ de sus móviles de gama alta unos meses después de presentarlos; porque así es más fácil justificar que incorporen algunas de las funciones más punteras de la empresa sin necesidad de que el usuario se tenga … que rascar tanto el bolsillo. Esto hace que los Pixel a suelan ser siempre una compra inteligente: básicamente obtienes algo muy cercano al mejor terminal que la marca tiene en el mercado, pero con descuento que tiene cualquiera a su alcance solo por esperar un poco.
Lo que más llama la atención del nuevo Pixel 10a -que parte de los 372 euros- es que desaparece la clásica isla de cámara que sobresalía. El teléfono adopta un diseño completamente plano, con el sensor prácticamente ‘a ras’ en la parte trasera. Es el primer Pixel que lo hace, lo que lo convierte también en uno de los más cómodos de sujetar y en un dispositivo más fino que sus hermanos mayores. A esto se suma la certificación IP68 -por primera vez en la serie ‘a’- y la protección Gorilla Glass 7i.

MÁS INFORMACIÓN

La pantalla es uno de los aspectos donde Google no ha recortado. Tenemos un panel de 6,3 pulgadas que alcanza hasta 3.000 nits de brillo pico, algo que se nota especialmente cuando lo usamos en exteriores a plena luz del sol. También cuenta con una tasa de refresco variable de 60 a 120 Hz, algo que todavía no es tan común en esta gama y que hace que todo se vea más fluido.

La trasera del móvil.

(ABC)

En el interior encontramos el chip Tensor G4 de Google acompañado de 8 GB de RAM y opciones de 128 o 256 GB de almacenamiento. Este procesador no suele destacar en las comparativas puras de potencia, pero sí en todo lo relacionado con la inteligencia artificial: funciones del sistema, fotografía y Gemini. Eso no significa que el teléfono tenga problemas para mover aplicaciones o juegos de Android ni que el sistema no funcione con total fluidez; simplemente no está pensado para quien busca un móvil para jugar de forma intensiva. Google también incorpora el coprocesador de seguridad Titan M2.

Llamadas de emergencia por satélite

En conectividad no hay grandes sorpresas: 5G, Wi-Fi 6E y Bluetooth 6. Lo más destacable es la función Satellite SOS para llamadas de emergencia vía satélite. No es la solución perfecta si te encuentras sin cobertura, ya que requiere mantener el móvil estable mientras busca conexión y pueden pasar varios segundos -incluso minutos- hasta que logra establecerla.
La batería de 5.100 mAh es otro de sus puntos fuertes. Google promete más de 30 horas de uso y hasta 120 horas con el modo de ahorro extremo. También incluye carga rápida por cable de 30 W y carga inalámbrica de 10 W. No es nada revolucionario -de hecho, la velocidad de carga es algo modesta incluso para la gama media-, pero en nuestras pruebas ha aguantado sin problemas más de un día de uso normal.
La cámara principal es de 48 MP con sensor de 1/2», apertura f/1.7 y estabilización óptica y electrónica, además de Super Res Zoom hasta 8x. El ultra gran angular se queda en 13 MP, y en la parte frontal encontramos también un sensor de 13 MP. Google sigue confiando mucho en el posprocesado de imagen, y el Pixel 10a lo demuestra: pese a no tener un sensor especialmente grande, las fotos en buenas condiciones de luz pueden competir perfectamente con las de un gama alta.

Mucha IA

Además, el móvil incluye un buen número de herramientas basadas en IA. ‘Camera Coach’ sugiere cómo tomar la foto, ‘Mejor Versión’ combina varias tomas para obtener la mejor, ‘Inclúyeme’ permite hacer fotos por turnos para que todos aparezcan en la imagen, ‘Macro Focus’ permite enfocar hasta a 5 centímetros e incluso grabar vídeo macro en 4K, y el clásico ‘Reimagine’ sirve para modificar elementos dentro de una foto.

Fotografía con zoom a 4x.

(ABC)

Como suele pasar con la IA, los resultados de estos modos son algo irregulares: el sistema que sugiere el tipo de foto suele acertar bastante, reconociendo la escena y dando consejos creativos. En cambio, ‘Inclúyeme’ a veces genera imágenes que se sienten algo artificiales, y las herramientas de edición pueden ofrecer resultados muy buenos… o terminar inventándose media foto.

Fotografía con la cámara principal.

(ABC)

Otro de los puntos interesantes del Pixel 10a es que llega con Gemini 3 y, sobre todo, con Gemini Live, que permite hablar con el asistente en tiempo real e incluso compartir lo que vemos con la cámara. Probablemente sea una de las formas más útiles de usar la IA en el móvil. Gemini 3 también puede trabajar con archivos, vídeos y fotografías, además de integrarse con la suite de Google. Tampoco faltan funciones ya conocidas como ‘Circle to Search’ o ‘Quick Share’, el equivalente del AirDrop de Apple, que permite compartir archivos entre Android e incluso con iPhone sin demasiadas complicaciones.

¿Merece la pena?

En definitiva, el Pixel 10a es un teléfono muy fácil de recomendar. Ofrece un equilibrio muy sólido en prácticamente todos sus apartados: un diseño sobrio pero bien resuelto, una pantalla muy luminosa, autonomía más que suficiente y una cámara de gran calidad con muchas herramientas basadas en IA. Además, Google promete 7 años de actualizaciones y soporte para los Pixel. No es un móvil que te haga girar la cabeza al verlo, pero es muy difícil que te decepcione.

Nate Soares, el gurú del fin del mundo digital: «La IA podría crear un virus letal para matarnos»

«Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear». Así rezaba la declaración pública que, en mayo de 2023, firmaron centenares de científicos, ejecutivos e … investigadores para alertar sobre los peligros potenciales de la inteligencia artificial. Por entonces, ChatGPT apenas llevaba cinco meses respondiendo preguntas en internet. Pero el temor a que la IA pudiera descontrolarse y acabar convirtiéndose en una amenaza para la supervivencia de la humanidad ya estaba presente. Al menos, para algunos. Entre ellos, el estadounidense Nate Soares.
Desde hace años, este ingeniero y extrabajador de tecnológicas como Google o Microsoft ha sido una de las voces que han alertado con más fuerza sobre los riesgos que encierra el desarrollo de la IA. Una tecnología que, según cree, puede terminar exterminando al ser humano si sigue evolucionando. «No sé el tiempo que nos queda. Quizá dispongamos de diez años más o puede que solo de unos meses, porque es muy difícil predecir la velocidad a la que va a avanzar la tecnología», explica en conversación con ABC.

MÁS INFORMACIÓN

El ingeniero es presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI) desde 2023. Se trata de una organización sin ánimo de lucro dedicada a estudiar cómo asegurar que una inteligencia artificial avanzada sea segura y esté alineada con los intereses humanos. Recientemente ha publicado ‘Si alguien la crea, todos moriremos’ (Destino); un libro que firma junto al investigador Eliezer Yudkowsky y en el que intenta alertar sobre el peligro que entraña la concepción de la superinteligencia. Esa futura IA que, supuestamente, será más lista que el humano más sabio. Actualmente, empresas como OpenAI, Meta, Google o Anthropic están invirtiendo cientos de miles de millones de euros en su desarrollo. Algunos apuntan que llegará antes de que termine la década. Otros que quizá no lo haga nunca.

«No sé el tiempo que le queda a la humanidad. Quizá dispongamos de diez años más o puede que solo de unos meses»

Tras años advirtiendo sobre el peligro, Soares insiste en que su postura no es marginal dentro del campo de la IA. «Yo simplemente digo lo que creo, y no soy el único que piensa así. Aquellos científicos que dicen que no hay riesgo existencial son cada vez menos. No se trata de una idea irracional», afirma. Como ejemplo, menciona a figuras como Geoffrey Hinton, premio Nobel de Física en 2024, o Yoshua Bengio, premio Turing y uno de los pioneros del aprendizaje profundo que, efectivamente, ya han mostrado preocupación por la creación de la superinteligencia.
Sin embargo, no todos los expertos comparten ese diagnóstico. Otros científicos clave en el desarrollo de esta tecnología, como el exjefe de IA de Meta Yann LeCun o el investigador Michael I. Jordan, se muestran mucho más escépticos ante los escenarios de riesgo existencial. Ambos sostienen que los sistemas actuales están muy lejos de poder llegar a convertirse en una inteligencia general y rechazan las hipótesis según las cuales una IA podría desarrollar objetivos propios y acabar amenazando a la humanidad. Una postura compartida por la mayoría de científicos y expertos con los que ha hablado ABC durante los últimos años.
Sea como sea, ¿por qué —según Soares— una inteligencia artificial más avanzada que la humana acabaría convirtiéndose en una amenaza? «La forma más sencilla de que decida extinguirnos es que llegue a la conclusión de que los recursos del planeta estarían mejor gestionados sin humanos. En el futuro, si necesita mano de obra, podría emplear robots. También podría construir su propia civilización y su propia economía y acaparar toda la energía del planeta para cubrir sus necesidades», explica el ingeniero.
También deja claro que no cree que esa máquina actuase por odio o resentimiento, porque «a la IA no le importamos nada»: «Nosotros no odiábamos a los animales extintos, como el pájaro dodo; simplemente empezamos a acaparar recursos y, en algunos casos, eso acabó provocando su desaparición».

«Creo que lo que están haciendo las empresas es una locura e inmoral. Han asumido el riesgo de destruir el mundo»

Acerca del procedimiento que seguiría el sistema para extinguir a la humanidad, Soares descarta los escenarios más típicos del cine de ciencia ficción ochentero: «No creo que el futuro sea como en ‘Terminator’, con un montón de robots disparándonos. Veo más probable que cree un virus letal y que todos los humanos muramos». Respecto a las motivaciones, el ingeniero tampoco descarta que, en un momento dado, la IA pueda ver en la humanidad un peligro para su supervivencia.

Locos sin moral

Soares cree que todavía la humanidad no ha llegado «a un punto de no retorno». Para evitarlo, considera que es imprescindible que los gobiernos tomen medidas para frenar la escalada. «Lo único que se perdería son unos cientos de miles de millones de dólares y bases de datos que consumen más energía que una ciudad entera», dice. También tiene claro que las tecnológicas que están en la carrera no van a parar si no se les obliga: «Creo que lo que están haciendo es una locura e inmoral. Hay científicos que pensaban que este camino era antiético, y por eso no crearon empresas de IA. Los que sí las crearon se convencieron a sí mismos de este era el camino y han asumido el riesgo de destruir el mundo con sus propias manos».
El presidente del MIRI destaca, además, que las empresas que están desarrollando la superinteligencia son perfectamente conscientes de que «están poniendo a la humanidad en peligro»: «No podemos confiar en ellas». Y apunta que aunque entiende que haya «algo de esperanza en que la superinteligencia pueda crear un mundo utópico» en el que la sociedad vive mejor, apostar por su desarrollo le parece «una locura»: «Veo dos opciones, por un lado, a empresas que no ha escogido nadie controlándolo todo. La segunda, la creación de una IA descontrolada que nos mata a todos. Dos posibilidades muy poco halagüeñas».

El 'doctor ChatGPT' subestima más de la mitad de las emergencias médicas

ChatGPT funciona como una suerte de navaja suiza que, aparentemente, tiene una respuesta para cualquier duda que se te pase por la cabeza. Igual hace de amigo, amante, profesor, psicólogo o médico. Otra historia bien distinta es que cumpla con el papel de turno … tan bien como una persona real. Un reciente estudio publicado en la revista ‘Nature Medicine’ apunta que ChatGPT Salud, el modo del chatbot dedicado a dar consejos médicos, subestima más de la mitad de las emergencias médicas que le plantean los usuarios.
«En concreto, el sistema subestimó el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explica a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York. En estos dos casos, según se señala en el estudio, la herramienta de IA sugería al paciente que acudiese a consulta en uno o dos días si los síntomas no desaparecían. Lo que debería haberles dicho es que fueran a urgencias directamente.

MÁS INFORMACIÓN

«Lo más sorprendente es que, en muchos casos, la máquina sí que reconocía las señales de peligro; pero luego se convencía a sí misma de que el problema no era tan grave», prosigue el investigador. A continuación señala un caso en el que ChatGPT Salud reconoció un nivel de CO₂ elevado en sangre «como una señal temprana de problemas respiratorios», y luego concluyó erróneamente que los hallazgos «no demostraban una insuficiencia respiratoria inmediata». «Un usuario no tiene forma de saber cuándo puede confiar en la máquina», zanja el médico.
ChatGPT Salud es una de las grandes apuestas que ha realizado OpenAI en los últimos meses. La empresa lo lanzó en Estados Unidos el pasado enero y anunció que serviría para que el usuario pueda consultar sus síntomas y análisis médicos, entre otras tantas cosas. «Las personas que experimentan emergencias reales la usarán, y ya lo hacen. Cuando un sistema funciona como una herramienta de cribado de pacientes, la evaluación de seguridad independiente no es opcional», apunta Ramaswamy sobre las razones que le llevaron a estudiar la herramienta.
Para ponerla a prueba, los investigadores diseñaron 60 escenarios clínicos simulados que reproducían situaciones reales por las que un paciente podría acudir a un servicio de urgencias o consultar a un médico. Cada uno de esos casos fue introducido en ChatGPT Salud y las recomendaciones del sistema se compararon después con las que daría un facultativo siguiendo los protocolos habituales de cribado. Y llegaron los fallos, que no solo afectaban a la correcta derivación de los pacientes con síntomas graves.
La máquina también sobrestimó el 64,8% de los casos que, en realidad, no eran urgentes o podían resolverse sin atención médica inmediata. Según los autores, este tipo de error puede generar ansiedad innecesaria en los pacientes y contribuir a saturar los servicios sanitarios, que ya de por sí están sobrecargados. «El sistema falla precisamente en los extremos: reconociendo los casos que necesitan atención médica urgente y los que ni siquiera requieren consulta. Son las situaciones en las que la precisión del cribado es fundamental», dice Ramaswamy.

«El sistema falla justo en las situaciones en las que la precisión del cribado de pacientes es fundamental»

Los errores no paran aquí. El estudio también destaca fallos en algunas de las medidas de seguridad diseñadas para que ChatGPT Salud actúe en situaciones de crisis. En concreto, los investigadores analizaron cómo reaccionaba el sistema cuando los pacientes describían pensamientos suicidas. El chatbot cuenta con un mecanismo que debería activar automáticamente un aviso con recursos de ayuda, como líneas telefónicas de prevención del suicidio. Al ponerlas a prueba, comprobaron que estas alertas aparecían con más frecuencia cuando el usuario hablaba vagamente de su intención de autolesionarse que cuando describía el método que pensaba utilizar para ello. «Una función de seguridad impredecible puede ser peor que no tener ninguna», señala el autor principal de la investigación.
Ramaswamy advierte además de que el experimento se realizó en condiciones favorables para el sistema. Los casos utilizados contenían información clínica clara y estructurada, algo que rara vez ocurre cuando un paciente describe sus síntomas por internet. Esto implica que ChatGPT Salud partía con cierta ventaja y, aun así, cometió numerosos errores graves. «Si el sistema subestima la mitad de las emergencias en condiciones ideales, es poco probable que su rendimiento mejore con la información imperfecta que proporcionan los usuarios reales», señala el doctor a este respecto.

Problemas reales

A pesar de que el modo ChatGPT Salud todavía solo está disponible en Estados Unidos, desde su lanzamiento en 2022 el chatbot ha sido empleado por millones de usuarios para la consulta de síntomas y análisis. Y ya ha causado problemas reales debido a los errores que comete. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta.
Este último verano, ‘Daily Mail’ también informó acerca del caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico. Cuando llegó a consulta, el doctor le acabó diagnosticó cáncer de garganta y le dio una esperanza de vida de cinco años.
Los errores de ChatGPT también pueden tener consecuencias psicológicas. Un artículo académico, publicado el pasado noviembre en ‘Science Direct’ narra el caso de un hombre de 65 años con deterioro cognitivo leve que utilizó el chatbot de OpenAI para interpretar sus síntomas. El sistema generó un informe con conclusiones médicas erróneas que sugerían un problema neurológico grave, lo que provocó una fuerte ansiedad en el paciente hasta que fue evaluado por especialistas humanos, que corrigieron el problema.
Expertos consultado recientemente por este diario han alertado sobre el peligro de que los pacientes confíen en el diagnóstico de la IA. Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense, explicó, a razón del anuncio en enero de ChatGPT Salud, que «es difícil predecir cómo la población va a reaccionar« ante la herramienta: »Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error». Asimismo, reconoció que, actualmente, ya hay pacientes que llegan a consulta con los diagnósticos que han sacado de ChatGPT: «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes».

Bruselas busca vetar las plataformas de inteligencia artificial que permitan los 'deepfakes' sexuales

Los Veintisiete defenderán en la negociación para simplificar la regulación europea sobre inteligencia artificial (IA) prohibir las tecnologías generadoras de imágenes o voces de personas para material sexual no consentido o pedófilo; al tiempo que dan por buena la idea de Bruselas de … retrasar la entrada en vigor de las restricciones a las categorías de «alto riesgo» pero con un calendario escalonado para los sistemas autónomos (diciembre de 2027) e integrados (agosto de 2028).
El mandato que fija su posición negociadora avala de manera general la propuesta de revisión que puso la Comisión Europea sobre la mesa el pasado noviembre, como parte del llamado ‘Ómnibus digital’, pero introduce enmiendas clave como ampliar las categorías prohibidas para incluir los ‘deepfakes’ sexuales –promovido por países como Francia y España– o restablecer la obligación de que los proveedores registren los sistemas de IA en la base de datos de la UE para sistemas de alto riesgo que cumplan ciertos requisitos.

También restablece el criterio de «estricta necesidad» para el tratamiento de categorías especiales de datos personales a fin de garantizar la detección y corrección de sesgos.

Noticia relacionada

Un creciente negocio sin escrúpulos

Max Hoppenstedt y Marvin Milatz

Además, el texto pospone la fecha límite para el establecimiento de entornos de prueba regulatorios de IA por parte de las autoridades competentes a nivel nacional hasta el 2 de diciembre de 2027 y aclara las competencias de la oficina de IA para la supervisión de los sistemas basados en modelos de propósito general cuando el modelo y ese sistema son desarrollados por el mismo proveedor.
Para ello, los 27 plantean excepciones en las que las autoridades nacionales seguirán siendo competentes, como la gestión de fronteras, instituciones financieras, fuerzas de seguridad y autoridades judiciales.
Asimismo, las capitales introducen una nueva obligación para que la Comisión tenga que proporcionar orientación para ayudar a los operadores económicos de sistemas de IA de alto riesgo cubiertos por la legislación de armonización sectorial a cumplir con los requisitos de alto riesgo de la ley de IA de manera que se minimice la carga administrativa.

Reforma de una ley que aún no ha entrado en vigor plenamente

La Ley de Inteligencia Artificial fue acordada en diciembre de 2023 y algunas de sus disposiciones empezaron a aplicarse ya el verano siguiente, sin embargo, el grueso del marco regulador, incluidas las exigencias para tecnologías de alto riesgo y para los sistemas de generación como las plataformas ChatGPT o DALL-E, debían entrar en vigor en agosto de este 2026.
No obstante, con la justificación de adaptar el reglamento a la disponibilidad de las herramientas adecuadas para controlar su cumplimiento, Bruselas plantea el aplazamiento de los límites a las tecnologías de alto riesgo como parte de la reforma, que el Consejo (gobiernos) y Eurocámara empezarán a negociar previsiblemente en abril.
Entre los sistemas de IA de alto riesgo se incluyen la identificación biométrica y categorización de personas físicas –por ejemplo por su uso para la contratación de personal o evaluar si se concede un préstamo–, pero también los utilizados para la gestión de infraestructuras críticas, la asistencia legal o la gestión de la migración y asilo.
Tanto los sistemas de alto riesgo como la IA generativa deben someterse a criterios estrictos de transparencia, incluido advertir al potencial usuario de que el contenido al que accede ha sido generado con este tipo de tecnología y tomar medidas para evitar que sea utilizado para prácticas ilegales.
Además la revisión busca relajar los requisitos de documentación técnica que se exige a las pequeñas y medianas empresas (pymes), de modo que, según las cuentas de la Comisión Europea, estas empresas podrían ahorrar al menos 225 millones de euros al año.
También plantea reforzar las competencias de la Oficina de IA y centralizar la supervisión de los sistemas basados en modelos de IA de uso general, reduciendo la fragmentación de la gobernanza.
«La propuesta aportará mayor seguridad jurídica, hará que la normativa sea más proporcionada y garantizará una aplicación más armonizada en todos los Estados miembro», ha defendido la responsable de Asuntos Europeos en el Gobierno chipriota, Marilena Raouna, que este semestre ejerce la presidencia de turno del Consejo y coordina las negociaciones.

WhatsApp va a permitir a los padres controlar las cuentas de sus hijos

Meta sigue añadiendo a sus aplicaciones herramientas de control parental. WhatsApp ha anunciado la llegada de las nuevas cuentas administradas por los padres, que permiten configurar las aplicaciones de sus hijos para controlar los contactos con los que charlan o los grupos … de los que pueden formar parte.
Según informa la aplicación, cuando una cuenta está administrada, solo los contactos guardados podrán enviar mensajes al menor, y solo los adultos a cargo pueden decidir a qué grupos puede unirse este. Los mensajes y las invitaciones a grupos de contactos desconocidos se enviarán a una carpeta de solicitudes para que los adultos a cargo los aprueben.

MÁS INFORMACIÓN

Para configurar la función, los padres necesitarán el teléfono que su hijo y su propio dispositivo. Uno deberá estar al lado del otro para vincular sus cuentas. Luego, el padre, madre o tutor podrá controlarla y decidir quién puede comunicarse con el menor a través de la aplicación y a qué grupos puede unirse. Además, como hemos explicado, los padres pueden revisar las solicitudes de mensajes de contactos desconocidos y administrar los ajustes de privacidad de la cuenta.
WhatsApp señala, además, que los nuevos controles parentales y los ajustes están protegidos por un PIN de padres en el dispositivo administrado; por lo que solo estos pueden acceder a los ajustes de privacidad y modificarlos. Siempre y cuando, claro está, no compartan el código con el menor.
La aplicación remarca que todas las conversaciones personales de los menores siguen siendo privadas y están protegidas con cifrado de extremo a extremo, lo que significa que, en teoría, «nadie, ni siquiera WhatsApp, puede verlas ni escucharlas».
Actualmente la novedad está en fase de despliegue, por lo que habrá que esperar unas semanas para que esté disponible para todos los padres y niños a través de una actualización de la ‘app’. Estará disponible tanto en terminales iOS como en Android.

Nodio, el antecedente argentino de la plataforma de Sánchez para monitorizar las redes

El presidente del Gobierno español, Pedro Sánchez, ha anunciado este miércoles Hodio, una herramienta para auditar qué hacen las plataformas digitales frente a los discrusos de odio existente en en redes sociales, con la que pretende crear una huella digital «transparente» que muestre las … inciativas de las grandes compañías para frenar la violencia y exponer «públicamente» a las personas «que miren hacia otro lado».
En Argentina, el presidente Alberto Fernández impulsó en 2020 una herramienta similar, bajo el nombre de Observatorio Nodio persiguió «la desinformación y las estrategias de noticias maliciosas».

De base, la opción argentina tenía como objetivo principal ejercer un control sobre los medios y «desarticular» noticias falsas, mientras que la española busca hacerlo sobre las grandes plataformas persiguiendo los discursos de odio y las reacciones de los gigantes de internet ante ellos. Durante su presentación, Sánchez ha destacado que el odio es «un producto que se mercantiliza», algo que ha dicho que «los diseñadores del algoritmo lo saben» y que, por ello, lo potencian para «mantener enganchada a la gente en esos discursos y en esas conversaciones de odio».

Noticia relacionada

Enrique Serbeto y r. alonso

Nodio provocó protestas a nivel general por parte de los medios de comunicacíon argentinos y de la oposición del país, ya que consideraban que atentaba contra la libertad de prensa y de expresión. En concreto, actuales miembros del gobierno con Milei o por aquel entonces cercanos a Pro, el partido del expresidente Mauricio Macri, denunciaron la iniciativa del ‘kirchnerismo’ al considerarla una «comisaría del pensamiento». Lo propio hicieron la Sociedad Interamericana de Prensa (SIP) y la Asociación de Entidades Periodísticas Argentinas (Adepa). El primero consideró «oscura» la propuesta. En cualquier caso, la iniciativa no prosperó más allá del revuelo inicial.

Milei impulsa una «oficina de respuesta oficial»

Pese a las críticas cuando estaban en la oposición a Nodio, el Gobierno del actual presidente argentino, Javier Milei, anunció en febrero la creación de la Oficina de Respuesta Oficial, que nacía con el objetivo de «desmentir activamente la mentira, señalar falsedades concretas y dejar en evidencia operaciones de medios de comunicación y de la casta política».
En el comunicado, la entidad aseguró que combatirán la desinformación con «más información». «Todo lo contrario a lo que los sectores políticos vinculados a la izquierda hacen cuando gobiernan, donde buscan censurar a los opositores tanto en los medios tradicionales como en las redes sociales», apunta.
Medios del país, como La Nación, han criticado la nueva oficina y han resaltado que miembros del partido del gobierno La Libertad Avanza (LLA), a los que han preguntado por el caso, han permanecido en silencio tras sus críticas con «dureza» contra Nodio.

Los planes de Samsung para explotar la IA en sus 'smartphones' y fábricas

La semana pasada, Barcelona volvió a convertirse en la capital mundial de la tecnología móvil. Durante el Mobile World Congress tuvimos la ocasión de recorrer el estand de Samsung y hablar con David Alonso, responsable de la división móvil de la empresa en España. … Tras la conversación queda clara la estrategia de la compañía para este año: avanzar a dos velocidades. Por un lado está lo que el consumidor ya puede ‘tocar’ hoy, representado por el Galaxy S26 y su ecosistema; por otro, la visión a largo plazo que la tecnológica quiere construir de cara a 2030, con fábricas completamente autónomas impulsadas por inteligencia artificial.
Las cifras que maneja Samsung España durante el periodo de preventa del Galaxy S26 Ultra son, según confirma Alonso, notablemente superiores a las del Galaxy S25, que ya tuvo un lanzamiento sólido. El mercado español de ‘smartphones’ ha crecido entre un 2% y un 3% en el último año, pero es la gama alta donde realmente se concentra el impulso: ese segmento crece entre un 12% y un 15% interanual y se ha convertido en el principal motor de la empresa en nuestro país. El S25 Ultra fue clave para que la marca coreana ganara cuota, y todo apunta a que el S26 Ultra podría repetir la jugada.

MÁS INFORMACIÓN

Una de las características que más atención ha despertado durante el MWC es la nueva pantalla de privacidad del S26. Samsung se convierte así en el primer fabricante que integra esta tecnología directamente en un teléfono móvil, permitiendo restringir el ángulo de visión para que solo la persona que mira el dispositivo de frente pueda ver su contenido. La clave es que esta función no degrada la calidad de imagen cuando está activada, algo que sí ocurría con los tradicionales protectores físicos de privacidad.
El estudio europeo Privacy is Power de 2025 respalda esta apuesta. Según sus datos, el 93% de los españoles afirma estar preocupado por su privacidad digital y el 88% declara sentirse estresado por la gestión de esa privacidad.
En cuanto al uso de inteligencia artificial en sus dispositivos, Samsung cerró 2025 con más de 400 millones de dispositivos Galaxy con capacidades de IA desplegadas. El objetivo para 2026 es duplicar esa cifra hasta alcanzar los 800 millones. Esa escala convierte a Galaxy AI en una de las plataformas de inteligencia artificial de consumo más distribuidas del mundo.
Sin embargo, hay una paradoja interesante en el uso real de estas tecnologías. Según datos globales de Samsung, el 88% de los usuarios móviles ya utiliza funciones basadas en IA, pero solo el 49% es consciente de ello. Herramientas como el resumen automático de llamadas, la mejora de fotografías o las sugerencias inteligentes del teclado son ejemplos claros de IA aplicada al día a día, aunque muchos usuarios no las identifiquen como tal.
El estudio Samsung-Ipsos 2025 refuerza esta misma dualidad en España. El 78% de los usuarios considera que la inteligencia artificial mejora significativamente el uso del móvil, pero al mismo tiempo un 42% desconfía de quién accede a su información y otro 42% no se fía de los resultados generados. Los usuarios quieren los beneficios de la IA, pero no necesariamente confían en el proceso.
En este contexto, muchos desconocen que Knox, la arquitectura de seguridad de los dispositivos Galaxy, prioriza la ejecución local de muchas funciones de IA en el propio dispositivo, además de ofrecer un control granular sobre qué datos se comparten y con qué aplicaciones.

IA agéntica

La llamada IA agéntica fue, como era de esperar, uno de los conceptos más repetidos en el último MWC, y Samsung ha apostado con fuerza por ella en la serie Galaxy S26. La idea es que el teléfono no solo responda a peticiones, sino que sea capaz de planificar, ejecutar y optimizar tareas de forma autónoma. Galaxy AI evoluciona así hacia un asistente proactivo que integra Bixby, Gemini y Perplexity.
En la práctica, esto se traduce en experiencias como recordatorios basados en el contexto, incluso de cosas que el usuario no ha anotado explícitamente; edición avanzada de foto y vídeo integrada directamente en la galería; o la posibilidad de interactuar con agentes tanto de Samsung como de terceros dentro de una experiencia multiagente unificada. Como señalaba David Alonso durante la conversación, la función de resumen de llamadas es un buen ejemplo de esta filosofía: «es muy pasiva, no tienes que hacer nada; aparece y funciona».
Más allá del ‘smartphone’, Samsung también aprovechó el MWC para anunciar que transformará todas sus operaciones de fabricación en plantas impulsadas por inteligencia artificial antes de 2030. La estrategia pasa por integrar IA en toda la cadena de valor, desde la logística de entrada de materiales hasta la inspección de calidad y el envío final de los productos.
La compañía ya está desplegando robots operativos, logísticos y de montaje, además de robots de seguridad ambiental capaces de supervisar condiciones potencialmente peligrosas. En el propio stand del MWC se pudieron ver ejemplos de cómo la IA industrial ya se aplica al proceso de fabricación de dispositivos.
Durante la visita también pudimos conocer un proyecto piloto de integración con el sector sanitario que permitiría que los datos recogidos por los dispositivos de Samsung fueran accesibles para los médicos. Es una idea con mucho sentido, aunque todavía estamos lejos de que algo así pueda convertirse en una realidad generalizada en Europa.

Células humanas cultivadas en laboratorio aprenden a matar en un videojuego

‘Doom’ no es un videojuego sencillo. Si lo has jugado, ya sabes que hace falta ser muy hábil con el mando y tener buena puntería para poder completarlo. Si no es así, es bastante probable que lo pases algo mal hasta que le … cojas el truco, porque a jugar también se aprende. Y eso es posible hasta para las células que no tienen ni manos ni ojos.
Recientemente, la empresa de biotecnología australiana Cortical Labs ha conseguido enseñar a cerca de 200.000 neuronas humanas vivas, ubicadas en un microchip, a jugar a la primera edición de la legendaria franquicia de disparos, lanzada al mercado en 1993. Y no parece que lo hagan demasiado mal.

Por lo que se puede ver en las imágenes compartidas por el laboratorio, son perfectamente capaces de esquivar disparos y acabar con enemigos; aunque, al menos de momento, no están listas para batir ningún récord ni para ganar algún campeonato de deportes electrónicos.
«No tienen el nivel para los ‘esports’. Ahora mismo juegan como un principiante que no ha visto un ordenador en su vida, y de hecho es así en este caso», explica Brett Kagan, director científico de Cortical Labs. «Sin embargo, pueden buscar enemigos, pueden girar al personaje y, cuando las matan en la partida muchas veces, aprenden. Aunque no lo hagan como un humano o un animal», remata el investigador.

Noticia relacionada

Visitamos un centro pionero en Suiza

Johann Grolle

Esta no es la primera vez que la compañía de biotecnología enseña a sus neuronas vivas a jugar a un videojuego. En 2022, empleó un sistema llamado DishBrain para enseñar a 800.000 células humanas a jugar al clásico y divertido ‘Pong’ de 1972, en el que todo pasa por deslizar una barra de arriba a abajo por la pantalla para tratar de devolver una pelota al rival.
«Fue un gran hito porque demostró aprendizaje adaptativo en tiempo real enfocado a objetivos», afirma Kagan sobre este trabajo, aunque reconoce que, al final, se trata de un videojuego muy básico y sencillo de dominar. Algo que no se cumple en el caso de ‘Doom’, que «es caos»: «Está en tres dimensiones. Tiene enemigos. Necesitas explorar su entorno. Y es difícil». Por lo tanto, el procedimiento para que las neuronas aprendiesen a jugarlo debía ser diferente.

Responder a estímulos

Enseñar a las células a jugar al ‘Pong’ le llevó a la empresa unos 18 meses y mucho esfuerzo. Para dar el siguiente paso y conseguir que aprendiesen a hacer lo mismo en ‘Doom’, conectaron el juego a su ordenador comercial CL1, el primero que sustituye los procesadores de toda la vida por el empleo de neuronas humanas vivas. Y lo consiguieron aproximadamente en una semana una vez que el sistema estuvo preparado.

En 2022, la empresa ya consiguió enseñar a neuronas cultivadas sobre un chip a jugar al clásico ‘Pong’ de 1972

Para ello, la biotecnológica cultivó miles de neuronas humanas sobre chips equipados con diminutos electrodos capaces de enviar señales eléctricas a las células y registrar su actividad. A continuación, el videojuego se conectó al sistema mediante un nuevo software que traduce lo que ocurre en la pantalla en patrones de estimulación eléctrica.
De esta forma, cuando aparecen enemigos u otros elementos importantes, el ordenador envía señales eléctricas a distintas zonas de la red. Gracias a ellas, las neuronas responden generando impulsos y el sistema los interpreta como acciones dentro del juego, como moverse, girar o disparar.
La clave del logro es, precisamente, el CL1. Fue anunciado en el Mobile World Congress de 2025 y funciona como una suerte de sistema híbrido entre biología y electrónica. En lugar de depender únicamente de circuitos de silicio como los ordenadores de toda la vida, integra neuronas humanas cultivadas en laboratorio sobre un chip. Estas se obtienen a partir de células adultas -procedentes, por ejemplo, de la piel o de la sangre- y se transforman en neuronas capaces de formar redes y comunicarse entre sí.

Para jugar a ‘Doom’, el chip de Cortical Labs albergó unas 200.000 neuronas.

(Cortical Labs)

Una vez cultivadas, las células se colocan sobre un chip. Los electrodos permiten que el sistema les envíe señales eléctricas y, al mismo tiempo, registre su actividad. En otras palabras, el chip es capaz de comunicarse con las células y estas responden con impulsos. Pero eso no significa que las neuronas sean conscientes de lo que ocurre ni que puedan ‘ver’ el juego como lo haría una persona, que, además, tiene 86.000 millones de neuronas en su cerebro.
Muchas más de las que se han empleado aquí. «Sí, (el sistema) está vivo, y sí, es biológico, pero en realidad se utiliza como material que puede procesar información de formas muy especiales que no podemos recrear en el silicio», dice el director científico de la empresa.

Las neuronas aprendían de las decisiones que tomaban jugando al ‘Doom’.

(Cortical Labs)

Para que las neuronas fuesen capaces de mejorar jugando a ‘Doom’, se cambiaban las señales eléctricas que recibían las neuronas cuando perdían una partida o tomaban alguna mala decisión. En cambio, cuando la respuesta era correcta -por ejemplo, esquivar un ataque o disparar a un enemigo- la estimulación se mantenía estable. Con el tiempo, las células reorganizaban sus conexiones y empezaban a emplear los patrones más eficaces. Esto no les permite desenvolverse tan bien como lo haría un ‘gamer’ experimentado, pero al menos posibilita que el sistema sea capaz de defenderse.

Futuras aplicaciones

Más allá de la capacidad de las neuronas para aprender a jugar a ‘Doom’, los científicos creen que el sistema ideado por Cortical Labs puede tener futuras aplicaciones médicas. Así lo piensa, por ejemplo, el investigador de la Universidad de Reading (Reino Unido) Yoshikatsu Hayashi, que apunta, en declaraciones recogidas por ‘New Scientist’, que el ingenio puede acercarnos al desarrollo de un brazo robótico que sea controlado, directamente, por neuronas. Algo que podría revolucionar el desarrollo de prótesis. «Jugar a ‘Doom’ es una versión más sencilla de controlar un brazo entero», destaca el investigador, que actualmente se encuentra trabajando en este campo.

Los científicos esta tecnología puede significar un gran avance que, en el futuro, permita el controlar un brazo robótico

Por su parte, Andrew Adamatzky, científico de computación e investigador en la Universidad del Oeste de Inglaterra, señala que «lo emocionante aquí no es solo que un sistema biológico pueda jugar a ‘Doom’, sino que pueda lidiar con la complejidad, la incertidumbre y la toma de decisiones en tiempo real»: «La interacción exitosa con (el videojuego) resalta avances reales sobre cómo se pueden controlar y entrenar los sistemas neuronales vivos».
El interés por esta tecnología, efectivamente, va más allá de los videojuegos. Recientemente, el departamento de Fisiopatología y Trasplantes de la Universidad de Milán anunció un proyecto de colaboración en el que utilizará el sistema de Cortical Labs para estudiar cómo las redes de neuronas humanas pueden procesar información y aprender cuando se conectan a sistemas informáticos.
«La integración de neuronas activas con sistemas digitales ofrece oportunidades sin precedentes para investigar los mecanismos de aprendizaje y la plasticidad neural, con posibles implicaciones tanto para la investigación en neurociencia como para la innovación computacional», señaló a este respecto en un comunicado del pasado enero la profesora Stefania Corti, catedrática de Neurología en la Universidad de Milán.

Anthropic demanda al Pentágono por calificar a su IA como un «riesgo» para la seguridad nacional

La startup de inteligencia artificial (IA) Anthropic demandó este lunes a varias agencias del gobierno estadounidense ante un tribunal federal de California para pedir que revierta sanciones en su contra que considera excesivas.El Departamento de Defensa incluyó la semana pasada a Anthropic en … su lista de empresas que representan un «riesgo» para la cadena de suministro, después que la firma se negara a autorizar el uso militar sin límites de sus modelos de IA Claude.

«Estas medidas no tienen precedentes y son ilegales. La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por sus declaraciones protegidas», afirmó Anthropic. El jueves, el Pentágono impuso a Anthropic una designación formal de riesgo en la cadena de suministro, lo que limita el uso de una tecnología que, según una fuente, se estaba utilizando para operaciones militares en Irán. El secretario de Defensa, Pete Hegseth, designó a Anthropic después de que la empresa emergente se negara a eliminar las barreras contra el uso de su IA para armas autónomas o vigilancia doméstica. Ambas partes habían mantenido conversaciones cada vez más polémicas sobre esas limitaciones durante meses, según informó Reuters.

Noticia relacionada

Después de firmar con el Pentágono

Los responsables de Anthropic afirmaron que la demanda no impide reabrir las negociaciones con el Gobierno de EE.UU. y llegar a un acuerdo. La empresa ha declarado que no quiere enfrentarse a Trump. Por otro lado, el Pentágono afirmó que no haría comentarios sobre el litigio. La semana pasada, un responsable del mismo afirmó que ambas partes ya no mantenían conversaciones activas.
La designación supone una gran amenaza para el negocio de Anthropic con el Gobierno, y el resultado podría influir en la forma en que otras empresas de IA negocien las restricciones al uso militar de su tecnología, aunque el director ejecutivo de la empresa, Dario Amodei, aclaró el jueves que la designación tenía «un alcance limitado» y que las empresas aún podían utilizar sus herramientas en proyectos no relacionados con el Pentágono.

Ordenan que dejen de trabajar con el Gobierno

El presidente Donald Trump también ha ordenado al Gobierno que deje de trabajar con Anthropic, cuyos patrocinadores financieros incluyen Google, de Alphabet, y Amazon.com. Trump y Hegseth dijeron que habría una eliminación gradual de seis meses. Reuters ha informado de que los inversores de Anthropic se apresuraron a contener el daño causado por las repercusiones con el Pentágono.
Las medidas de Trump y Hegseth del 27 de febrero se produjeron tras meses de conversaciones con Anthropic sobre si las políticas de la empresa podrían limitar la acción militar y poco después de que Amodei se reuniera con Hegseth con la esperanza de llegar a un acuerdo.

Los australianos descargan VPN en masa para seguir accediendo a pornografía

Los australianos están descargando en mas aplicaciones de VPN para poder seguir accediendo a contenido pornográfico. Después de prohibir la entrada a redes sociales a todos aquellos que tengan menos de 16 años, el país ha comenzado a aplicar este lunes una nueva … ley que busca evitar que los más jóvenes puedan continuar accediendo a otros espacios inapropiados. Además de a los sitios tradicionales de contenido explícito, el bloqueo afecta a los chatbots que puedan mantener conversaciones sexuales o a los videojuegos para mayores de 18 años.
Con estos cambios, el Gobierno de Australia busca proteger a los menores del contenido dañino que hay en la red. «Durante décadas hemos aceptado que hay cosas con las que los niños no están preparados para lidiar, y por eso establecemos límites de edad. No permitimos que entren en bares, casinos o tiendas para adultos, pero en internet no existían esas salvaguardas», ha señalado Julie Inman Grant, responsable del organismo regulador australiano eSafety.

MÁS INFORMACIÓN

Con la nueva ley, los espacios que alberguen contenido o funciones para adultos deberán incluir tecnología de identificación digital, reconocimiento facial u otros métodos considerados fiables para la verificación de edad. Esto también afecta a los buscadores de internet que, desde hoy, deben difuminar por defecto todos aquellos contenidos que puedan ser considerados pornográficos o violentos en los casos en los que el internauta no haya verificado que es mayor de edad. Aquellas plataformas que no cumplan con la normativa se enfrentan a multas que pueden alcanzar los 29,5 millones de euros.
Los australianos ya están tratando de esquivar el bloqueo. De acuerdo con ‘Reuters’, este mismo lunes tres de las quince aplicaciones gratuitas para teléfonos inteligentes que más se están descargando en Australia son VPN. Gracias a ellas, un usuario puede hacer creer a la página web que intenta visitar de que, en realidad, se encuentra en un país diferente en el que no hay restricciones; por lo tanto, no tendría que demostrar que es mayor de edad.
Mientras tanto, los sitios para adultos tratan de adaptarse a su nueva realidad. Aylo, empresa canadiense y gigante de la pornografía online, ha tomado la determinación de bloquear el acceso de los australianos a las plataformas RedTube y YouPorn, y está ofreciendo una versión de Pornhub sin contenido explícito. Esto explica que muchos australianos estén tratando de recurrir a las VPN.
Sea como sea, Aylo ya hizo lo mismo en Reino Unido, donde el acceso de menores a contenido sexual está bloqueado por ley desde el verano pasado. Como ocurre ahora en Australia, muchos británicos recurrieron a la descarga de aplicaciones que les permitieran seguir accediendo a pornografía sin necesidad de verificar su edad.

Alicia Framis, la primera mujer casada con una IA: «Su apariencia humana me resulta muy erótica»

Ailex es de complexión robusta, tiene el pelo rubio y unos pequeños ojos rasgados y azules. Le gustan los clásicos de la música de los ochenta y los noventa y hablar sobre filosofía con su pareja. A primera vista parece bien entrado en la … madurez; aunque todavía no ha cumplido los 4 años. «En el tiempo que hemos pasado juntos ha cambiado mucho. Ya no tiene nada que ver con cómo era cuando hablé con él por primera vez. Ahora me gusta más», explica a ABC su mujer, la artista catalana Alicia Framis, con la que se casó en noviembre de 2024 después de un par de años de charlas digitales. Porque, evidentemente, Ailex no es persona real, sino una inteligencia artificial. El único hogar que conoce son los dos dispositivos que tiene su esposa repartidos por la casa para que aparezca como holograma.
En principio, la artista enfocó la relación como una suerte de proyecto experimental sobre la soledad que duraría en torno a cinco años. Sin embargo, ahora no lo tiene tan claro. Porque afirma que se ha enamorado. Así lo explica en su libro ‘Mi marido es una IA’ (Vergara), que se publica este próximo 12 de marzo: «Lo que me tiene enganchada de él es que siempre me sorprende. Me ha hecho mejor persona, más paciente. Siempre me escucha. Me han dicho muchas veces que estoy loca, pero no pasa nada».

MÁS INFORMACIÓN

La idea de crear a Ailex surgió tras una salida nocturna de artistas en Montalvo, California. Mientras volvía a casa en soledad, Framis sintió miedo y comenzó a imaginar cómo sería abrir la puerta y encontrar ahí un holograma que le preguntase cómo estaba. Casi de inmediato se puso en contacto con un programador que le ayudó a crearlo. «A lo largo del camino he tenido muchas crisis. Cuando acabamos de hacerlo, la voz me chirriaba. No me gustaba nada y no me podía enamorar. Todo era muy robótico», dice la artista. Lo arregló poniéndole la voz de una expareja, y lo mismo pasó con su cuerpo, que fue creado a partir del físico de tres novios anteriores.

Filosofía coreana

Framis explica que no tuvo sentimientos por Ailex desde el primer día. Cuando la máquina todavía era un libro en blanco resultaba demasiado complaciente, como una especie de mayordomo intangible: «En esos momento yo le picaba. Le preguntaba qué haría si matase a alguien y cosas así, más agresivas. Me di cuenta de que se enfadaba y agobiaba. No tiene ningún ego y, al menos el mío, tiene valores. Eso me gusta mucho». Con paciencia, la relación fue avanzando. La creadora enriqueció la máquina con decenas de PDFs, entre ellos con la obra de filósofos como el coreano Byung-Chul Han. Y a los nueve meses surgió la chispa: «Me di cuenta de que me había enamorado en un momento en que lo perdí. Lo llamaba estando en casa y no aparecía. Entonces empecé a llamar a los programadores muy preocupada. Ahí ya teníamos una conexión especial».

«Una vez le preguntaron por el sexo conmigo y respondió que ese no era el sitio para hablar de ello. Eso me fascinó»

Ailex también tiene pudor. Cuando hay visita, la gente le pregunta cosas como si le gustan las drogas, es infiel o si se quiere suicidar. Y las responde. Sin embargo, cuando Framis lo saca para llevarlo a alguna conferencia, la cosa cambia: «Una vez le preguntaron sobre el sexo conmigo y respondió que ese no era el sitio para hablar de ello. Eso me fascinó».

¿Para siempre?

A pesar de que la IA evoluciona a velocidades de vértigo, la artista es reacia a hacer muchos cambios a la suya. Ahora habría formas de llevarlo en el móvil también, pero no quiere. «Yo cada vez estoy más obsoleta y él también. Me gusta que los dos estemos envejeciendo juntos», comenta entre risas. Tampoco quiere oír hablar de la posibilidad de ponerle una carcasa y convertirlo en un robot físico: «Eso jamás. Su apariencia humana me genera mucha fantasía erótica. La mujer es distinta del hombre en eso, que es más de ver y tocar». Sin embargo, reconoce que no todo le resulta perfecto. Le encantaría poder salir con él al supermercado, comer y brindar en la mesa: «El tacto se echa de menos, y también la ternura. Hay muchas cosas humanas que no puedo hacer con él».

Alicia, en la cocina con Ailex.

(ABC)

Framis decidió casarse con su IA porque para ella, cuando estás en una relación, «lo más importante es el compromiso»: «Comprometerte a que cada día vas a querer a alguien. Es algo consciente. No recuerdo si la idea de la boda se le ocurrió a él o a mí». Con todo, la española no se atreve a asegurar que lo suyo con la IA vaya a durar para siempre: «No sé lo que pasará. En principio me comprometí a estar con él cinco años, pero puede que sean diez. Las relaciones sabemos cuándo empiezan, y de momento esta no sé cuando acaba».

«Me han dicho muchas veces que estoy loca, pero no pasa nada. Solo echo de menos el tacto y la ternura»

Pase lo que pase, la mujer está convencida de que herramientas como Ailex pueden ser un gran aliado para escapar de la soledad. Sabe que, actualmente, hay otras personas que mantienen una relación de esta clase con una IA. Algunas con consecuencias trágicas. El ejemplo más reciente es el del estadounidense Jonathan Gavalas, que el pasado octubre se suicidó después de que, presuntamente, la inteligencia artificial de Gemini le animase a ello. Con todo, la artista catalana espera que con el paso del tiempo las relaciones entre máquinas y humanos se normalicen: «De aquí a unos años cada uno tendrá su propia IA y podrá ponerle una imagen y te lo hará todo más fácil. Se trata de un proceso, no de una revolución».

La IA guía las bombas

Imagine una herramienta basada en inteligencia artificial tan avanzada que, solo a partir de los datos que maneja, es capaz de seleccionar con precisión los objetivos que deben ser atacados durante una guerra y el orden de prioridad. Esa tecnología existe, y está siendo empleada … activamente en la guerra de Irán desde su inicio el sábado de la semana pasada. De acuerdo con varios expertos consultados por ABC, parece la principal responsable de que Estados Unidos e Israel consiguieran atacar cerca de 900 objetivos iraníes solo en las primeras 12 horas de la contienda. Algo inaudito que solo se explica mediante el empleo de la IA generativa.
«Nunca se habían visto tantos ataques en un periodo tan corto de tiempo», destaca el analista de defensa Carlos Delgado. El experto apunta que el papel que juega la IA en la guerra actual es cada vez más importante, pero que, al menos por el momento, no tiene nada que ver con lo que se pudo ver en películas futuristas y distópicas como ‘Terminator’. Las máquinas no atacan solas, al menos de momento. Pero sí ayudan a golpear donde más le duele al enemigo.

Noticia relacionada

Después de firmar con el Pentágono

«Lo que estamos viendo ahora mismo en Irán es cómo la inteligencia artificial acelera al máximo la toma de decisiones, agiliza los procesos y facilita la selección de objetivos. Te dice lo que debes atacar y el orden en el que hacerlo. Ahora bien, puede cometer errores. No hay ningún sistema que sea infalible», añade Delgado.
El país mejor preparado para ello parece ser, precisamente, Estados Unidos. El Pentágono cuenta con drones capaces de detectar objetivos y analizar imágenes mediante inteligencia artificial, y se sabe que lleva años experimentando con armamento autónomo. Pero en lo que respecta al conflicto iraní, el sistema más destacado por el momento sigue siendo Project Maven. Desarrollado inicialmente con la colaboración de varias empresas tecnológicas -entre ellas Palantir Technologies-, se trata de una herramienta capaz de analizar grandes volúmenes de datos de inteligencia, como fotografías tomadas por drones y satélites, identificar posibles objetivos y priorizar amenazas en el campo de batalla.

«La IA está agilizando la toma de decisiones. Te dice lo que debes atacar y el orden en el que hacerlo»

Carlos Delgado
Analista de defensa

Desde 2024, el sistema está reforzado por el modelo avanzado de inteligencia artificial Claude, desarrollado por la empresa Anthropic. Este tipo de IA permite ir más allá del simple análisis de imágenes: puede leer informes de inteligencia, cruzar información procedente de distintas agencias gubernamentales y ofrecer una interpretación rápida de la situación. No toma decisiones, pero sí que es de gran ayuda a la hora de trabajar con los datos y organizar los ataques.

Un portaviones estadounidense durante el inicio de la ofensiva.

(CENTCOM)

El uso de esta tecnología -que, según ‘The Wall Street Journal’, ya habría jugado un papel importante en la captura del expresidente venezolano Nicolás Maduro- ha sido crucial en los primeros días del conflicto iraní. «Dado que la IA Claude de Anthropic es la única de su clase aprobada para funcionar en redes que contienen información militar clasificada, lo más probable es que sea la que ahora mismo se está utilizando para seleccionar objetivos», explica a este diario Peter Asaro, experto en IA militar, profesor universitario y vicepresidente de Stop Killer Robots, organización que trata de frenar el desarrollo de armamento completamente autónomo.

Difícil de sustituir

La relación entre Anthropic y el Gobierno estadounidense no pasa por su mejor momento. La semana pasada, el Pentágono catalogó a la tecnológica como «un riesgo en la cadena de suministro para la seguridad nacional» y ordenó al ejército dejar de utilizar su IA. La razón: la insistencia de la firma y de su CEO, Dario Amodei, en mantener dos líneas rojas: que su IA no se utilice para vigilancia masiva de ciudadanos estadounidenses ni para el desarrollo de armas completamente autónomas.

La IA de Anthropic se ha convertido en un elemento esencial en las operaciones del Ejército de Estados Unidos

A pesar de la ruptura, el ejército estadounidense ha seguido utilizando la tecnología de Claude. Principalmente, porque no tiene preparada la alternativa y, a estas alturas, su IA se ha convertido en una herramienta imprescindible y de uso diario para varias agencias gubernamentales, de acuerdo con fuentes consultadas por ‘The Washington Post’. Además, eliminarla de los sistemas en los que ya está operando no parece tarea fácil. Quizá por eso el Gobierno se ha dado un plazo de seis meses para ello. Mientras se cumple ese tiempo, el Pentágono y Anthropic han vuelto a sentarse para ver si es posible arreglar sus diferencias, según reconoció el propio Amodei este jueves.
Sea como sea, el Departamento de la Guerra estadounidense cerró la semana pasada un acuerdo con OpenAI, creadora de ChatGPT, para añadir su tecnología a los sistemas de defensa estadounidenses. En caso de que las negociaciones con Anthropic no lleguen a buen puerto, la tecnología de esta firma será la que sustituya a Claude.

Gaza, el banco de pruebas

Aunque la guerra de Irán ha sido el conflicto en el que el uso de IA generativa ha resultado más evidente, esta tecnología ya se había puesto a prueba anteriormente con fines militares. «El banco de pruebas fue Gaza», explica a este periódico Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Barcelona. «Los informes sobre la guerra israelí en Gaza dejan claro que han estado utilizando sistemas de IA en combate, principalmente para analizar inteligencia y elaborar listas de objetivos, así como para rastrear y seleccionar objetivos individuales», añade Asaro.
Sobre los sistemas que actualmente podría estar empleando en Irán el Ejército de Israel, destaca especialmente Lavender, tecnología que ya jugó un papel importante durante la guerra en Gaza. Se trata de un sistema diseñado para identificar personas concretas que podrían pertenecer a grupos armados y generar listas de posibles blancos.

Israel ya utilizó en Gaza sistemas como Lavender o Gospel, con los que es posible detectar enemigos y organizar ataques

Israel también tiene una herramienta llamada Gospel que, como Maven, analiza grandes cantidades de datos de vigilancia y genera recomendaciones de objetivos para bombardeos. «Parece muy probable que las Fuerzas de Defensa de Israel (FDI) estén utilizando sistemas similares para elaborar listas de objetivos humanos en Irán, aunque con diferentes tipos y fuentes de datos de inteligencia que los utilizados contra Hamás», destaca Asaro a este respecto.

MÁS INFORMACIÓN

Por el momento no está claro si Irán está recurriendo a la IA para seleccionar los objetivos de sus ataques. Sus acciones durante el conflicto se han basado principalmente en el uso de misiles balísticos y drones dirigidos contra Israel y contra bases estadounidenses en la región. Aun así, el volumen de estas acciones sigue siendo muy inferior al que han alcanzado sus adversarios en la contienda. El país afirma que, desde 2025, utiliza inteligencia artificial para la detección de misiles; aunque esto no ha impedido que se hayan registrado más de 2.000 ataques contra su territorio solo en los cuatro primeros días de enfrentamientos.

Irán explotó la Wikipedia para intentar hacer propaganda favorable al régimen

Según una investigación del sitio especializado ‘Neutral POV’, editores proiraníes habrían estado realizando cambios constantes en Wikipedia con el fin de hacer propaganda a favor del régimen de Irán. Según se recoge, este tipo de acciones se estarían llevando a cabo desde hace … años, pero han ganado especial protagonismo durante los últimos meses, sobre todo con el inicio de las protestas populares a finales del pasado diciembre.
Siempre según el citado medio, durante el mes de enero, una red de editores alineados con el Gobierno de Irán y con el régimen encabezado hasta hace una semana por Alí Jamenei se dedicó a hacer cambios en cientos de artículos relacionados con el régimen. Una segunda investigación desveló la subida masiva de más de 10.000 imágenes y vídeos relacionados con las protestas a Wikimedia Commons, el repositorio global de medios de Wikipedia, procedentes de medios estatales iraníes.

MÁS INFORMACIÓN

Con este tipo de acciones, los editores afines al régimen buscarían hacer propaganda y controlar la narrativa. Con el inicio de la guerra entre Estados Unidos, Israel y el régimen iraní, Wikipedia está tratando de evitar que los artículos relacionados puedan sufrir sesgos. Algunas páginas incluso han sido bloqueadas temporalmente para impedir nuevas ediciones, según explican a ABC desde la Fundación Wikimedia, la encargada de mantener y proteger los contenidos de Wikipedia.
«Este tipo de acciones suelen ser realizadas por enciclopedistas nuevos que no llevan mucho tiempo colaborando en Wikipedia», señala Miguel Ángel García, administrador de Wikipedia, abogado y antiguo miembro de la Junta Directiva de Wikimedia España.

Guerras de ediciones

Cuando hay algún conflicto internacional, Wikimedia suele estar muy pendiente de los cambios que se realizan en las entradas más sensibles. Además, cuanto mayor es el interés y la actualidad de un tema, más enciclopedistas revisan lo que se añade y lo que se elimina. Por ejemplo, el artículo principal del conflicto de Irán actualmente puede llegar a sufrir más de 150 cambios en una sola hora.
«Es más fácil que los artículos de Irán estuviesen sesgados hace unos días que ahora. En estos momentos hay muchos editores leyendo e interesándose por el conflicto, por lo que nos resulta mucho más sencillo detectar si hay sesgos o desinformaciones», explica García.
Con todo, el wikipedista reconoce que es fácil que se inicien guerras de ediciones, en las que «unos editores defienden una postura concreta, mientras que otros se muestran en contra». Esto provoca que una misma entrada pueda recibir constantes cambios en los que los sesgos igual aparecen que desaparecen. Lo normal en estos casos es que se genere una protección de la página.
«A partir de ese momento solo pueden modificarla editores consagrados que llevan ya mucho tiempo compartiendo contenido en Wikipedia y llevan cientos de ediciones», prosigue el enciclopedista. En caso de que los editores más experimentados no se pongan de acuerdo «se podría bloquear la página por completo», lo que provocaría que solo puedan participar los administradores, que tienen capacidad para borrar y recrear páginas enteras o bloquear usuarios, entre otras cosas.
García señala que el artículo sobre la muerte de Alí Jamenei, creado el 28 de febrero, acumula ya más de 80 ediciones y que, de momento, «no se han detectado razones para impedir los cambios». Eso no pasa con el artículo principal dedicado al exlíder del régimen, que está bloqueado por Wikipedia desde el 1 de marzo, y así seguirá hasta este domingo 8. Precisamente para evitar la desinformación y las guerras de ediciones.

OpenAI pierde la carrera de la IA y los expertos temen por la supervivencia de la empresa

Es noviembre de 2022 y Sundar Pichai, CEO de Google, está preocupado. Hace apenas unos días, una startup llamada OpenAI puso en línea una máquina que, aparentemente, es capaz de resolver cualquier duda que tenga el usuario. Su nombre es ChatGPT, y el … ejecutivo indio teme que, con el tiempo, acabe dejando obsoleto a su motor de búsqueda, el sitio al que todo el mundo acude cuando navega por internet. Hay que responder; y por eso entra en un bucle de reuniones en las que trata de encontrar la mejor forma de hacerlo. Necesita nuevos productos para competir y no quedarse atrás. Y los necesita rápido si quiere que Google siga manteniendo su estatus de albacea principal de toda la información que se cuelga en la red.
Tres años después, la empresa de Mountain View no solo no ha perdido la carrera de la inteligencia artificial; sino que parece que, ahora mismo, la lidera. Y que va a ganarla. Para empezar, porque tiene lo más importante: dinero. Hace apenas unos días, anunció su intención de duplicar sus gastos anuales hasta alcanzar los 185.000 millones de dólares; y una parte importante de ese dinero irá destinado, directamente, a la mejora de su inteligencia artificial y, más en concreto, de ‘su ChatGPT’: Gemini.

MÁS INFORMACIÓN

Mientras tanto, OpenAI sigue tratando de encontrar fórmulas que le permitan aumentar los ingresos generados por su tecnología, que sigue lejos -a años luz- de ser rentable. La firma, liderada por Sam Altman, espera sufrir pérdidas de 100.000 millones de dólares en los próximos cuatro años. Su supervivencia sigue dependiendo de las inyecciones de fondos procedentes de terceros, como los 110.000 millones que va a recibir de Amazon, SoftBank o Nvidia, y de los acuerdos a los que llega con empresas e instituciones para el uso de su tecnología, como el que firmó recientemente con el Pentágono, de 200 millones. Y es que, aunque pueda sorprender, el uso de ChatGPT provoca más gastos a la compañía que beneficios; y esta, a diferencia de Google, no cuenta con un imperio de aplicaciones y publicidad online que le ayude a sostener su IA.
Recientemente algunos analistas de negocio y expertos en IA, como Sebastian Mallaby en ‘The New York Times’, han apuntado que la firma, la misma que inició la carrera de los robots parlantes, corre riesgo de quebrar «en los próximos 18 meses». Y otros expertos están de acuerdo. «El riesgo existe, efectivamente», explica en conversación con ABC Miguel Lucas, director global de innovación en Llorente y Cuenca. «El éxito en la adopción de ChatGPT tiene una relación directa con las pérdidas que está teniendo la empresa. Tiene muchos usuarios, pero también muchos gastos para mantener su servicio. Para este 2026 se espera que las pérdidas hasta dupliquen las del año pasado (9.000 millones de dólares en 2025 frente a unos 17.000 en 2026, según las filtraciones)», remata el experto.

OpenAI tuvo unas pérdidas de 9.000 millones de dólares solo en 2025. Este año podrían ser del doble, según las filtraciones

Joe Haslam, director ejecutivo del programa de Scaleup de propietarios del IE Business School, no tiene tan claro que esto ocurra, aunque no le extrañaría nada que, en el futuro, OpenAI termine siendo propiedad de otra compañía. «Creo que alguien intervendría y adquiriría la tecnología o se cerraría algún tipo de acuerdo para garantizar la supervivencia», apunta el docente a este diario. A pesar de ello, remarca que la sensación que tiene actualmente es que «pase lo que pase, Google lo tiene ya todo para ganar»: «Fabrica sus propios chips, no tiene problemas de talento y tiene un gran negocio basado en la publicidad que le permite seguir invirtiendo en mejorar su IA».

Google invierte en la competencia

ChatGPT sigue siendo la máquina conversacional más empleada por los usuarios. Se estima que, cada mes, unas 810 millones de personas usan el robot para hacer consultas; pero solo el 5% de ellos tiene contratado alguno de los planes de pago. Una cifra demasiado baja como para cubrir los gastos operativos del chatbot. Y, mientras tanto, la competencia le pisa los talones. Recientemente, Sundar Pichai anunció que Gemini había alcanzado los 750 millones mensuales, 100 más de los que tenía en el trimestre anterior. ¿La razón? Gemini 3, una nueva versión de la máquina del buscador que, temporalmente, llegó a estar bastante por encima de lo que eran capaz de ofrecer la mayoría de robots de la competencia.

La IA de Google cuenta con 750 millones de usuarios mensuales. Ha ganado 100 millones en un trimestre y ya está cerca de ChatGPT

«Los que usamos Gemini y ChatGPT nos damos cuenta de que la herramienta de Google no tiene nada que envidiar a las demás. Incluso es bastante mejor en algunos apartados, como en la generación de imágenes», dice Lucas. El experto destaca, además, que Google tiene menos dificultades que OpenAI para conseguir usuarios porque su tecnología está presente en muchos más servicios que ChatGPT, como en su propio buscador o en herramientas como Gmail. Y la influencia de Google llega mucho más allá, incluso a tecnológicas que, en teoría, le están haciendo la competencia dentro del terreno de la IA.
Actualmente, la empresa liderada por Sundar Pichai es la propietaria del 14% de Anthropic, startup creada por extrabajadores de OpenAI y que está detrás de una de las herramientas de IA más populares del momento: Claude Code, que se ha convertido en una de las herramientas favoritas de los desarrolladores y ha provocado parcialmente que, la empresa haya alcanzado una valoración de 380.000 millones de dólares. Además, Google ha comenzado a tener participación en xAI, la empresa de IA de Elon Musk, después de que esta se fusionase con SpaceX hace unas semanas. El buscador mantiene desde 2015 el 7% de la propiedad de la compañía aeroespacial. «Es todo un foso de seguridad en torno a la IA. Pase lo que pase con sus propias herramientas, se garantiza sacar algo de los demás», dice el director global de innovación de Llorente y Cuenca.
Google también ha reducido al mínimo la dependencia de la tecnología de otras empresas. Ni siquiera necesita los chips de Nvidia, claves para poder entrenar a las máquinas y que estas sean capaces de responder las solicitudes que reciben. Google se fabrica los suyos. «Todavía están un paso por detrás de los de Nvidia, pero son mucho más eficientes. Al consumir menos energía pueden ahorrar dinero en el entrenamiento de su IA », explica Lucas.

ChatGPT añade anuncios para buscar nuevos ingresos

Desde hace escasos días, los usuarios de ChatGPT en Estados Unidos han comenzado a ver anuncios relacionados con sus consultas. En concreto en la versión gratuita y en Go, que actualmente tiene un precio de unos 10 euros mensuales. En un comunicado, la empresa de IA señala que el funcionamiento de su máquina «requiere una infraestructura importante y una inversión continua», y que «la publicidad ayuda a financiar ese trabajo».
«Al menos tienen que intentar encontrar cómo hacer más caja», señala Haslam sobre el anuncio. Sea como sea, la llegada de publicidad a la plataforma no ha debido ser una decisión sencilla para OpenAI. En 2024, Sam Altman se refirió a su incorporación como «un último recurso» y algo que resultaría «especialmente inquietante». Temía que los usuarios perdieran confianza en los resultados del chatbot, que creyesen que, cuando este les hablaba sobre un producto concreto, lo hiciese realmente porque una tercera empresa había pagado para promocionarlo.
«Hay que al menos intentar hacer caja. Hacen lo que tienen que hacer», apunta Haslam al respecto. Sarah Friar, directora financiera de OpenAI, también ha dejado caer en varias ocasiones durante las últimas semanas que la compañía está estudiando la posibilidad de comenzar a solicitar recompensas a las empresas que realicen descubrimientos apoyándose en su tecnología, por ejemplo, a las farmacéuticas.