Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Apple anuncia los Airpods Max 2: la evolución de sus auriculares más ambiciosos

Apple ha anunciado por sorpresa el lanzamiento de la segunda edición de sus auriculares de tipo diadema: los Airpods Max 2. El dispositivo, que llegará a las tiendas a principios de abril, viene con mejoras en calidad de sonido, inteligencia artificial y cancelación … de ruido; aunque pierden por el camino algunas funciones características interesantes que sí están presentes en otros auriculares de la marca.
La firma de la manzana ha incorporado en su nuevo auricular el chip H2, el mismo que ya hemos visto en los AirPods Pro y los AirPods 4. Gracias a este añadido, los graves resultan más profundos, las voces más naturales y es más sencillo diferenciar los instrumentos empleados en la canción que estás escuchando. Además, los Max 2 se pueden conectar mediante cable USB-C al dispositivo que se esté utilizando para reproducir contenido, lo que hace que la calidad del audio mejore en comparación con lo que pueden ofrecer sus hermanos mayores.

MÁS INFORMACIÓN

Según Apple, el H2 también permite que la cancelación de ruido mejore hasta 1,5 veces en comparación con lo que podían ofrecer los primeros AirPods Max. Además, el dispositivo, como ocurre con el resto de auriculares de Apple desde hace años, incorporal audio adaptativo, gracias al cual el auricular puede ajustar automáticamente los niveles de cancelación de ruido según el entorno. Asimismo, incorpora el botón de modo de escucha para pasar al modo de sonido ambiente sin necesidad de ir a los Ajustes del iPhone.
Los AirPods Max también incorporan las funciones basadas en IA que Apple ha incorporado recientemente a sus auriculares. Entre ellas se encuentra la ‘Traducción tiempo real’, que permite traducir conversaciones en el momento simplemente manteniendo pulsado el botón de modo de escucha. También suma la ‘Detección de conversación’, que reduce el volumen automáticamente cuando detecta que el usuario está charlando con alguien, la ‘Reducción de sonidos fuertes’ y el ‘Volumen personalizado’.
Respecto a la autonomía, Apple promete que el dispositivo puede aguantar hasta 20 horas de reproducción de audio con la cancelación de ruido activada.
Los AirPods Max 2 llegan con un precio de 579 euros, lo que los convierte en los auriculares más caros que tiene Apple actualmente en el mercado. Cuestan más del doble que los últimos AirPods Pro, y queda claro que no es un dispositivo pensado para todos los bolsillos. Además, pierden por el camino funciones tan interesantes como la medición de frecuencia cardiaca para entrenar, que se queda solo en los Pro. Tampoco cuentan con resistencia al polvo, el agua y el sudor.
Los auriculares estarán disponibles para reserva desde el próximo 25 de marzo en cinco colores diferentes: azul, púrpura, media noche (es decir, negro), blanco estrella y naranja.

vivo lanza en España el V70, un móvil con zoom para fotografía a distancia y batería de 6.500 mAh

La marca china vivo sigue ampliando su presencia en España con el lanzamiento del vivo V70, un smartphone que pone el foco en la fotografía móvil y que llega al mercado con un teleobjetivo pensado para capturar sujetos a distancia, además de una batería de gran capacidad.La compañía lleva años apostando por la fotografía como elemento diferenciador en sus dispositivos. De hecho, en muchos de sus modelos ha colaborado con la firma óptica ZEISS para desarrollar el sistema de cámaras. Con el V70, vivo mantiene esa estrategia y trata de trasladar parte de esa experiencia a un segmento de precio más accesible.Este enfoque responde también a una tendencia clara del mercado: la fotografía se ha convertido en uno de los factores clave a la hora de elegir móvil, especialmente en la gama media-alta, donde muchos usuarios buscan un equilibrio entre prestaciones avanzadas y precio contenido. Zoom para capturar sujetos lejanosEl apartado fotográfico es el principal argumento del vivo V70. El terminal integra un sistema de cámaras desarrollado junto a ZEISS que incluye un teleobjetivo de 50 megapíxeles con estabilización óptica (OIS).Este tipo de lente permite acercar sujetos lejanos sin depender únicamente del zoom digital, lo que se traduce en fotografías con mayor nitidez. En la práctica, resulta útil en situaciones como conciertos, eventos deportivos o fotografía de viajes, donde el sujeto está lejos del fotógrafo.El sistema se completa con una cámara principal de 50 megapíxeles y una cámara ultra gran angular de 8 megapíxeles. En la parte frontal, el dispositivo incorpora una cámara de 50 megapíxeles con autofoco, pensada para selfies y fotografías de grupo.El teléfono también introduce funciones basadas en inteligencia artificial. Entre ellas destaca AI Stage Mode, un modo pensado para mejorar las fotografías de escenarios o conciertos, ajustando automáticamente la imagen cuando el sujeto está lejos o en condiciones de iluminación complicadas.En vídeo, el dispositivo es capaz de grabar en 4K a 60 fotogramas por segundo, una mejora que se incluye por primera vez en la serie V. Más batería y rendimiento pensado para el uso diarioAdemás de la fotografía, el vivo V70 apuesta por reforzar la autonomía. El terminal integra una batería de 6.500 mAh, una capacidad superior a la que suelen ofrecer muchos smartphones del mismo rango de precio.En la práctica, esto se traduce en más margen de uso durante el día, especialmente para tareas intensivas como grabar vídeo, usar el GPS o jugar.El dispositivo también incorpora carga rápida de 90 W, lo que permite recuperar gran parte de la batería en pocos minutos.En cuanto al rendimiento, el móvil utiliza memoria LPDDR5X y almacenamiento UFS 4.1, dos tecnologías pensadas para acelerar la apertura de aplicaciones y la transferencia de archivos. Además, incluye un sistema de refrigeración con cámara de vapor de 4.200 mm², que ayuda a disipar el calor cuando el dispositivo se utiliza para tareas exigentes.El smartphone cuenta con una pantalla OLED de 6,59 pulgadas con resolución 1.5K y tasa de refresco de 120 Hz, lo que permite una visualización más fluida al navegar por menús o desplazarse por aplicaciones.En diseño, el terminal incorpora marco de aluminio de grado aeroespacial, cristal trasero con acabado mate y sensor de huellas ultrasónico bajo la pantalla. Además cuenta con resistencia al polvo y al agua IP68 e IP69, así como «resistencia a caídas de 10 facetas», es decir, es capaz de soportar caídas accidentales desde hasta 1,8 metros, según señala la marca.El vivo V70 FE: una versión más accesibleJunto al V70, la compañía también ha anunciado el vivo V70 FE, una variante que llegará a España a finales de marzo y que busca acercar algunas de las características de la serie a un público más amplio.El modelo económico apuesta por una cámara principal de 200 megapíxeles con estabilización óptica, acompañada de un ultra gran angular de 120 grados y una cámara frontal de 32 megapíxeles.Entre sus características también destaca una batería de 7.000 mAh, una de las mayores dentro de su categoría, junto con carga rápida de 90 W.El dispositivo incorpora el procesador Dimensity 7360-Turbo, conectividad 5G y una pantalla AMOLED de 6,83 pulgadas con tasa de refresco de 120 Hz y brillo máximo que alcanza los 1.900 nits. También cuenta con certificación IP68 e IP69, lo que indica resistencia al polvo y al agua. Precio y disponibilidad en EspañaEl vivo V70 Authentic Black (negro) ya está disponible en España en su versión de 12 GB de RAM y 512 GB de almacenamiento por 749 euros, aunque la compañía ha anunciado una promoción de lanzamiento que lo reduce a 699 euros hasta el 29 de marzo.A partir del 30 de marzo, el dispositivo llegará también en una configuración de 8 GB de RAM y 512 GB de almacenamiento y en nuevos colores (Alpine Gray y Sandalwood Brown).Por su parte, el vivo V70 FE estará disponible en España en dos colores (Muse Purple y Ocean Blue) desde el 30 de marzo, con un precio que parte de 399 euros en la configuración 8 GB de RAM y 256 GB de almacenamiento.También hay un pack desde 449 euros con accesorios premium dentro de la caja: los auriculares vivo Buds Air 3, el cargador FlashCharger de 90W, una funda protectora y un protector de pantalla ya instalado.

Probamos el Google Pixel 10a: ¿el móvil más listo de la clase media?

A Google le gusta lanzar la versión ‘a’ de sus móviles de gama alta unos meses después de presentarlos; porque así es más fácil justificar que incorporen algunas de las funciones más punteras de la empresa sin necesidad de que el usuario se tenga … que rascar tanto el bolsillo. Esto hace que los Pixel a suelan ser siempre una compra inteligente: básicamente obtienes algo muy cercano al mejor terminal que la marca tiene en el mercado, pero con descuento que tiene cualquiera a su alcance solo por esperar un poco.
Lo que más llama la atención del nuevo Pixel 10a -que parte de los 372 euros- es que desaparece la clásica isla de cámara que sobresalía. El teléfono adopta un diseño completamente plano, con el sensor prácticamente ‘a ras’ en la parte trasera. Es el primer Pixel que lo hace, lo que lo convierte también en uno de los más cómodos de sujetar y en un dispositivo más fino que sus hermanos mayores. A esto se suma la certificación IP68 -por primera vez en la serie ‘a’- y la protección Gorilla Glass 7i.

MÁS INFORMACIÓN

La pantalla es uno de los aspectos donde Google no ha recortado. Tenemos un panel de 6,3 pulgadas que alcanza hasta 3.000 nits de brillo pico, algo que se nota especialmente cuando lo usamos en exteriores a plena luz del sol. También cuenta con una tasa de refresco variable de 60 a 120 Hz, algo que todavía no es tan común en esta gama y que hace que todo se vea más fluido.

La trasera del móvil.

(ABC)

En el interior encontramos el chip Tensor G4 de Google acompañado de 8 GB de RAM y opciones de 128 o 256 GB de almacenamiento. Este procesador no suele destacar en las comparativas puras de potencia, pero sí en todo lo relacionado con la inteligencia artificial: funciones del sistema, fotografía y Gemini. Eso no significa que el teléfono tenga problemas para mover aplicaciones o juegos de Android ni que el sistema no funcione con total fluidez; simplemente no está pensado para quien busca un móvil para jugar de forma intensiva. Google también incorpora el coprocesador de seguridad Titan M2.

Llamadas de emergencia por satélite

En conectividad no hay grandes sorpresas: 5G, Wi-Fi 6E y Bluetooth 6. Lo más destacable es la función Satellite SOS para llamadas de emergencia vía satélite. No es la solución perfecta si te encuentras sin cobertura, ya que requiere mantener el móvil estable mientras busca conexión y pueden pasar varios segundos -incluso minutos- hasta que logra establecerla.
La batería de 5.100 mAh es otro de sus puntos fuertes. Google promete más de 30 horas de uso y hasta 120 horas con el modo de ahorro extremo. También incluye carga rápida por cable de 30 W y carga inalámbrica de 10 W. No es nada revolucionario -de hecho, la velocidad de carga es algo modesta incluso para la gama media-, pero en nuestras pruebas ha aguantado sin problemas más de un día de uso normal.
La cámara principal es de 48 MP con sensor de 1/2», apertura f/1.7 y estabilización óptica y electrónica, además de Super Res Zoom hasta 8x. El ultra gran angular se queda en 13 MP, y en la parte frontal encontramos también un sensor de 13 MP. Google sigue confiando mucho en el posprocesado de imagen, y el Pixel 10a lo demuestra: pese a no tener un sensor especialmente grande, las fotos en buenas condiciones de luz pueden competir perfectamente con las de un gama alta.

Mucha IA

Además, el móvil incluye un buen número de herramientas basadas en IA. ‘Camera Coach’ sugiere cómo tomar la foto, ‘Mejor Versión’ combina varias tomas para obtener la mejor, ‘Inclúyeme’ permite hacer fotos por turnos para que todos aparezcan en la imagen, ‘Macro Focus’ permite enfocar hasta a 5 centímetros e incluso grabar vídeo macro en 4K, y el clásico ‘Reimagine’ sirve para modificar elementos dentro de una foto.

Fotografía con zoom a 4x.

(ABC)

Como suele pasar con la IA, los resultados de estos modos son algo irregulares: el sistema que sugiere el tipo de foto suele acertar bastante, reconociendo la escena y dando consejos creativos. En cambio, ‘Inclúyeme’ a veces genera imágenes que se sienten algo artificiales, y las herramientas de edición pueden ofrecer resultados muy buenos… o terminar inventándose media foto.

Fotografía con la cámara principal.

(ABC)

Otro de los puntos interesantes del Pixel 10a es que llega con Gemini 3 y, sobre todo, con Gemini Live, que permite hablar con el asistente en tiempo real e incluso compartir lo que vemos con la cámara. Probablemente sea una de las formas más útiles de usar la IA en el móvil. Gemini 3 también puede trabajar con archivos, vídeos y fotografías, además de integrarse con la suite de Google. Tampoco faltan funciones ya conocidas como ‘Circle to Search’ o ‘Quick Share’, el equivalente del AirDrop de Apple, que permite compartir archivos entre Android e incluso con iPhone sin demasiadas complicaciones.

¿Merece la pena?

En definitiva, el Pixel 10a es un teléfono muy fácil de recomendar. Ofrece un equilibrio muy sólido en prácticamente todos sus apartados: un diseño sobrio pero bien resuelto, una pantalla muy luminosa, autonomía más que suficiente y una cámara de gran calidad con muchas herramientas basadas en IA. Además, Google promete 7 años de actualizaciones y soporte para los Pixel. No es un móvil que te haga girar la cabeza al verlo, pero es muy difícil que te decepcione.

Nate Soares, el gurú del fin del mundo digital: «La IA podría crear un virus letal para matarnos»

«Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear». Así rezaba la declaración pública que, en mayo de 2023, firmaron centenares de científicos, ejecutivos e … investigadores para alertar sobre los peligros potenciales de la inteligencia artificial. Por entonces, ChatGPT apenas llevaba cinco meses respondiendo preguntas en internet. Pero el temor a que la IA pudiera descontrolarse y acabar convirtiéndose en una amenaza para la supervivencia de la humanidad ya estaba presente. Al menos, para algunos. Entre ellos, el estadounidense Nate Soares.
Desde hace años, este ingeniero y extrabajador de tecnológicas como Google o Microsoft ha sido una de las voces que han alertado con más fuerza sobre los riesgos que encierra el desarrollo de la IA. Una tecnología que, según cree, puede terminar exterminando al ser humano si sigue evolucionando. «No sé el tiempo que nos queda. Quizá dispongamos de diez años más o puede que solo de unos meses, porque es muy difícil predecir la velocidad a la que va a avanzar la tecnología», explica en conversación con ABC.

MÁS INFORMACIÓN

El ingeniero es presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI) desde 2023. Se trata de una organización sin ánimo de lucro dedicada a estudiar cómo asegurar que una inteligencia artificial avanzada sea segura y esté alineada con los intereses humanos. Recientemente ha publicado ‘Si alguien la crea, todos moriremos’ (Destino); un libro que firma junto al investigador Eliezer Yudkowsky y en el que intenta alertar sobre el peligro que entraña la concepción de la superinteligencia. Esa futura IA que, supuestamente, será más lista que el humano más sabio. Actualmente, empresas como OpenAI, Meta, Google o Anthropic están invirtiendo cientos de miles de millones de euros en su desarrollo. Algunos apuntan que llegará antes de que termine la década. Otros que quizá no lo haga nunca.

«No sé el tiempo que le queda a la humanidad. Quizá dispongamos de diez años más o puede que solo de unos meses»

Tras años advirtiendo sobre el peligro, Soares insiste en que su postura no es marginal dentro del campo de la IA. «Yo simplemente digo lo que creo, y no soy el único que piensa así. Aquellos científicos que dicen que no hay riesgo existencial son cada vez menos. No se trata de una idea irracional», afirma. Como ejemplo, menciona a figuras como Geoffrey Hinton, premio Nobel de Física en 2024, o Yoshua Bengio, premio Turing y uno de los pioneros del aprendizaje profundo que, efectivamente, ya han mostrado preocupación por la creación de la superinteligencia.
Sin embargo, no todos los expertos comparten ese diagnóstico. Otros científicos clave en el desarrollo de esta tecnología, como el exjefe de IA de Meta Yann LeCun o el investigador Michael I. Jordan, se muestran mucho más escépticos ante los escenarios de riesgo existencial. Ambos sostienen que los sistemas actuales están muy lejos de poder llegar a convertirse en una inteligencia general y rechazan las hipótesis según las cuales una IA podría desarrollar objetivos propios y acabar amenazando a la humanidad. Una postura compartida por la mayoría de científicos y expertos con los que ha hablado ABC durante los últimos años.
Sea como sea, ¿por qué —según Soares— una inteligencia artificial más avanzada que la humana acabaría convirtiéndose en una amenaza? «La forma más sencilla de que decida extinguirnos es que llegue a la conclusión de que los recursos del planeta estarían mejor gestionados sin humanos. En el futuro, si necesita mano de obra, podría emplear robots. También podría construir su propia civilización y su propia economía y acaparar toda la energía del planeta para cubrir sus necesidades», explica el ingeniero.
También deja claro que no cree que esa máquina actuase por odio o resentimiento, porque «a la IA no le importamos nada»: «Nosotros no odiábamos a los animales extintos, como el pájaro dodo; simplemente empezamos a acaparar recursos y, en algunos casos, eso acabó provocando su desaparición».

«Creo que lo que están haciendo las empresas es una locura e inmoral. Han asumido el riesgo de destruir el mundo»

Acerca del procedimiento que seguiría el sistema para extinguir a la humanidad, Soares descarta los escenarios más típicos del cine de ciencia ficción ochentero: «No creo que el futuro sea como en ‘Terminator’, con un montón de robots disparándonos. Veo más probable que cree un virus letal y que todos los humanos muramos». Respecto a las motivaciones, el ingeniero tampoco descarta que, en un momento dado, la IA pueda ver en la humanidad un peligro para su supervivencia.

Locos sin moral

Soares cree que todavía la humanidad no ha llegado «a un punto de no retorno». Para evitarlo, considera que es imprescindible que los gobiernos tomen medidas para frenar la escalada. «Lo único que se perdería son unos cientos de miles de millones de dólares y bases de datos que consumen más energía que una ciudad entera», dice. También tiene claro que las tecnológicas que están en la carrera no van a parar si no se les obliga: «Creo que lo que están haciendo es una locura e inmoral. Hay científicos que pensaban que este camino era antiético, y por eso no crearon empresas de IA. Los que sí las crearon se convencieron a sí mismos de este era el camino y han asumido el riesgo de destruir el mundo con sus propias manos».
El presidente del MIRI destaca, además, que las empresas que están desarrollando la superinteligencia son perfectamente conscientes de que «están poniendo a la humanidad en peligro»: «No podemos confiar en ellas». Y apunta que aunque entiende que haya «algo de esperanza en que la superinteligencia pueda crear un mundo utópico» en el que la sociedad vive mejor, apostar por su desarrollo le parece «una locura»: «Veo dos opciones, por un lado, a empresas que no ha escogido nadie controlándolo todo. La segunda, la creación de una IA descontrolada que nos mata a todos. Dos posibilidades muy poco halagüeñas».

El 'doctor ChatGPT' subestima más de la mitad de las emergencias médicas

ChatGPT funciona como una suerte de navaja suiza que, aparentemente, tiene una respuesta para cualquier duda que se te pase por la cabeza. Igual hace de amigo, amante, profesor, psicólogo o médico. Otra historia bien distinta es que cumpla con el papel de turno … tan bien como una persona real. Un reciente estudio publicado en la revista ‘Nature Medicine’ apunta que ChatGPT Salud, el modo del chatbot dedicado a dar consejos médicos, subestima más de la mitad de las emergencias médicas que le plantean los usuarios.
«En concreto, el sistema subestimó el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explica a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York. En estos dos casos, según se señala en el estudio, la herramienta de IA sugería al paciente que acudiese a consulta en uno o dos días si los síntomas no desaparecían. Lo que debería haberles dicho es que fueran a urgencias directamente.

MÁS INFORMACIÓN

«Lo más sorprendente es que, en muchos casos, la máquina sí que reconocía las señales de peligro; pero luego se convencía a sí misma de que el problema no era tan grave», prosigue el investigador. A continuación señala un caso en el que ChatGPT Salud reconoció un nivel de CO₂ elevado en sangre «como una señal temprana de problemas respiratorios», y luego concluyó erróneamente que los hallazgos «no demostraban una insuficiencia respiratoria inmediata». «Un usuario no tiene forma de saber cuándo puede confiar en la máquina», zanja el médico.
ChatGPT Salud es una de las grandes apuestas que ha realizado OpenAI en los últimos meses. La empresa lo lanzó en Estados Unidos el pasado enero y anunció que serviría para que el usuario pueda consultar sus síntomas y análisis médicos, entre otras tantas cosas. «Las personas que experimentan emergencias reales la usarán, y ya lo hacen. Cuando un sistema funciona como una herramienta de cribado de pacientes, la evaluación de seguridad independiente no es opcional», apunta Ramaswamy sobre las razones que le llevaron a estudiar la herramienta.
Para ponerla a prueba, los investigadores diseñaron 60 escenarios clínicos simulados que reproducían situaciones reales por las que un paciente podría acudir a un servicio de urgencias o consultar a un médico. Cada uno de esos casos fue introducido en ChatGPT Salud y las recomendaciones del sistema se compararon después con las que daría un facultativo siguiendo los protocolos habituales de cribado. Y llegaron los fallos, que no solo afectaban a la correcta derivación de los pacientes con síntomas graves.
La máquina también sobrestimó el 64,8% de los casos que, en realidad, no eran urgentes o podían resolverse sin atención médica inmediata. Según los autores, este tipo de error puede generar ansiedad innecesaria en los pacientes y contribuir a saturar los servicios sanitarios, que ya de por sí están sobrecargados. «El sistema falla precisamente en los extremos: reconociendo los casos que necesitan atención médica urgente y los que ni siquiera requieren consulta. Son las situaciones en las que la precisión del cribado es fundamental», dice Ramaswamy.

«El sistema falla justo en las situaciones en las que la precisión del cribado de pacientes es fundamental»

Los errores no paran aquí. El estudio también destaca fallos en algunas de las medidas de seguridad diseñadas para que ChatGPT Salud actúe en situaciones de crisis. En concreto, los investigadores analizaron cómo reaccionaba el sistema cuando los pacientes describían pensamientos suicidas. El chatbot cuenta con un mecanismo que debería activar automáticamente un aviso con recursos de ayuda, como líneas telefónicas de prevención del suicidio. Al ponerlas a prueba, comprobaron que estas alertas aparecían con más frecuencia cuando el usuario hablaba vagamente de su intención de autolesionarse que cuando describía el método que pensaba utilizar para ello. «Una función de seguridad impredecible puede ser peor que no tener ninguna», señala el autor principal de la investigación.
Ramaswamy advierte además de que el experimento se realizó en condiciones favorables para el sistema. Los casos utilizados contenían información clínica clara y estructurada, algo que rara vez ocurre cuando un paciente describe sus síntomas por internet. Esto implica que ChatGPT Salud partía con cierta ventaja y, aun así, cometió numerosos errores graves. «Si el sistema subestima la mitad de las emergencias en condiciones ideales, es poco probable que su rendimiento mejore con la información imperfecta que proporcionan los usuarios reales», señala el doctor a este respecto.

Problemas reales

A pesar de que el modo ChatGPT Salud todavía solo está disponible en Estados Unidos, desde su lanzamiento en 2022 el chatbot ha sido empleado por millones de usuarios para la consulta de síntomas y análisis. Y ya ha causado problemas reales debido a los errores que comete. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta.
Este último verano, ‘Daily Mail’ también informó acerca del caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico. Cuando llegó a consulta, el doctor le acabó diagnosticó cáncer de garganta y le dio una esperanza de vida de cinco años.
Los errores de ChatGPT también pueden tener consecuencias psicológicas. Un artículo académico, publicado el pasado noviembre en ‘Science Direct’ narra el caso de un hombre de 65 años con deterioro cognitivo leve que utilizó el chatbot de OpenAI para interpretar sus síntomas. El sistema generó un informe con conclusiones médicas erróneas que sugerían un problema neurológico grave, lo que provocó una fuerte ansiedad en el paciente hasta que fue evaluado por especialistas humanos, que corrigieron el problema.
Expertos consultado recientemente por este diario han alertado sobre el peligro de que los pacientes confíen en el diagnóstico de la IA. Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense, explicó, a razón del anuncio en enero de ChatGPT Salud, que «es difícil predecir cómo la población va a reaccionar« ante la herramienta: »Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error». Asimismo, reconoció que, actualmente, ya hay pacientes que llegan a consulta con los diagnósticos que han sacado de ChatGPT: «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes».

Bruselas busca vetar las plataformas de inteligencia artificial que permitan los 'deepfakes' sexuales

Los Veintisiete defenderán en la negociación para simplificar la regulación europea sobre inteligencia artificial (IA) prohibir las tecnologías generadoras de imágenes o voces de personas para material sexual no consentido o pedófilo; al tiempo que dan por buena la idea de Bruselas de … retrasar la entrada en vigor de las restricciones a las categorías de «alto riesgo» pero con un calendario escalonado para los sistemas autónomos (diciembre de 2027) e integrados (agosto de 2028).
El mandato que fija su posición negociadora avala de manera general la propuesta de revisión que puso la Comisión Europea sobre la mesa el pasado noviembre, como parte del llamado ‘Ómnibus digital’, pero introduce enmiendas clave como ampliar las categorías prohibidas para incluir los ‘deepfakes’ sexuales –promovido por países como Francia y España– o restablecer la obligación de que los proveedores registren los sistemas de IA en la base de datos de la UE para sistemas de alto riesgo que cumplan ciertos requisitos.

También restablece el criterio de «estricta necesidad» para el tratamiento de categorías especiales de datos personales a fin de garantizar la detección y corrección de sesgos.

Noticia relacionada

Un creciente negocio sin escrúpulos

Max Hoppenstedt y Marvin Milatz

Además, el texto pospone la fecha límite para el establecimiento de entornos de prueba regulatorios de IA por parte de las autoridades competentes a nivel nacional hasta el 2 de diciembre de 2027 y aclara las competencias de la oficina de IA para la supervisión de los sistemas basados en modelos de propósito general cuando el modelo y ese sistema son desarrollados por el mismo proveedor.
Para ello, los 27 plantean excepciones en las que las autoridades nacionales seguirán siendo competentes, como la gestión de fronteras, instituciones financieras, fuerzas de seguridad y autoridades judiciales.
Asimismo, las capitales introducen una nueva obligación para que la Comisión tenga que proporcionar orientación para ayudar a los operadores económicos de sistemas de IA de alto riesgo cubiertos por la legislación de armonización sectorial a cumplir con los requisitos de alto riesgo de la ley de IA de manera que se minimice la carga administrativa.

Reforma de una ley que aún no ha entrado en vigor plenamente

La Ley de Inteligencia Artificial fue acordada en diciembre de 2023 y algunas de sus disposiciones empezaron a aplicarse ya el verano siguiente, sin embargo, el grueso del marco regulador, incluidas las exigencias para tecnologías de alto riesgo y para los sistemas de generación como las plataformas ChatGPT o DALL-E, debían entrar en vigor en agosto de este 2026.
No obstante, con la justificación de adaptar el reglamento a la disponibilidad de las herramientas adecuadas para controlar su cumplimiento, Bruselas plantea el aplazamiento de los límites a las tecnologías de alto riesgo como parte de la reforma, que el Consejo (gobiernos) y Eurocámara empezarán a negociar previsiblemente en abril.
Entre los sistemas de IA de alto riesgo se incluyen la identificación biométrica y categorización de personas físicas –por ejemplo por su uso para la contratación de personal o evaluar si se concede un préstamo–, pero también los utilizados para la gestión de infraestructuras críticas, la asistencia legal o la gestión de la migración y asilo.
Tanto los sistemas de alto riesgo como la IA generativa deben someterse a criterios estrictos de transparencia, incluido advertir al potencial usuario de que el contenido al que accede ha sido generado con este tipo de tecnología y tomar medidas para evitar que sea utilizado para prácticas ilegales.
Además la revisión busca relajar los requisitos de documentación técnica que se exige a las pequeñas y medianas empresas (pymes), de modo que, según las cuentas de la Comisión Europea, estas empresas podrían ahorrar al menos 225 millones de euros al año.
También plantea reforzar las competencias de la Oficina de IA y centralizar la supervisión de los sistemas basados en modelos de IA de uso general, reduciendo la fragmentación de la gobernanza.
«La propuesta aportará mayor seguridad jurídica, hará que la normativa sea más proporcionada y garantizará una aplicación más armonizada en todos los Estados miembro», ha defendido la responsable de Asuntos Europeos en el Gobierno chipriota, Marilena Raouna, que este semestre ejerce la presidencia de turno del Consejo y coordina las negociaciones.

WhatsApp va a permitir a los padres controlar las cuentas de sus hijos

Meta sigue añadiendo a sus aplicaciones herramientas de control parental. WhatsApp ha anunciado la llegada de las nuevas cuentas administradas por los padres, que permiten configurar las aplicaciones de sus hijos para controlar los contactos con los que charlan o los grupos … de los que pueden formar parte.
Según informa la aplicación, cuando una cuenta está administrada, solo los contactos guardados podrán enviar mensajes al menor, y solo los adultos a cargo pueden decidir a qué grupos puede unirse este. Los mensajes y las invitaciones a grupos de contactos desconocidos se enviarán a una carpeta de solicitudes para que los adultos a cargo los aprueben.

MÁS INFORMACIÓN

Para configurar la función, los padres necesitarán el teléfono que su hijo y su propio dispositivo. Uno deberá estar al lado del otro para vincular sus cuentas. Luego, el padre, madre o tutor podrá controlarla y decidir quién puede comunicarse con el menor a través de la aplicación y a qué grupos puede unirse. Además, como hemos explicado, los padres pueden revisar las solicitudes de mensajes de contactos desconocidos y administrar los ajustes de privacidad de la cuenta.
WhatsApp señala, además, que los nuevos controles parentales y los ajustes están protegidos por un PIN de padres en el dispositivo administrado; por lo que solo estos pueden acceder a los ajustes de privacidad y modificarlos. Siempre y cuando, claro está, no compartan el código con el menor.
La aplicación remarca que todas las conversaciones personales de los menores siguen siendo privadas y están protegidas con cifrado de extremo a extremo, lo que significa que, en teoría, «nadie, ni siquiera WhatsApp, puede verlas ni escucharlas».
Actualmente la novedad está en fase de despliegue, por lo que habrá que esperar unas semanas para que esté disponible para todos los padres y niños a través de una actualización de la ‘app’. Estará disponible tanto en terminales iOS como en Android.