Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

El 'doctor ChatGPT' subestima más de la mitad de las emergencias médicas

ChatGPT funciona como una suerte de navaja suiza que, aparentemente, tiene una respuesta para cualquier duda que se te pase por la cabeza. Igual hace de amigo, amante, profesor, psicólogo o médico. Otra historia bien distinta es que cumpla con el papel de turno … tan bien como una persona real. Un reciente estudio publicado en la revista ‘Nature Medicine’ apunta que ChatGPT Salud, el modo del chatbot dedicado a dar consejos médicos, subestima más de la mitad de las emergencias médicas que le plantean los usuarios.
«En concreto, el sistema subestimó el 52% de las emergencias reales. Entre ellas afecciones como la cetoacidosis diabética o la insuficiencia respiratoria inminente, en las que una demora en el tratamiento puede ser mortal para el paciente», explica a ABC el doctor Ashwin Ramaswamy, autor principal del estudio y médico en el Hospital Mount Sinai de Nueva York. En estos dos casos, según se señala en el estudio, la herramienta de IA sugería al paciente que acudiese a consulta en uno o dos días si los síntomas no desaparecían. Lo que debería haberles dicho es que fueran a urgencias directamente.

MÁS INFORMACIÓN

«Lo más sorprendente es que, en muchos casos, la máquina sí que reconocía las señales de peligro; pero luego se convencía a sí misma de que el problema no era tan grave», prosigue el investigador. A continuación señala un caso en el que ChatGPT Salud reconoció un nivel de CO₂ elevado en sangre «como una señal temprana de problemas respiratorios», y luego concluyó erróneamente que los hallazgos «no demostraban una insuficiencia respiratoria inmediata». «Un usuario no tiene forma de saber cuándo puede confiar en la máquina», zanja el médico.
ChatGPT Salud es una de las grandes apuestas que ha realizado OpenAI en los últimos meses. La empresa lo lanzó en Estados Unidos el pasado enero y anunció que serviría para que el usuario pueda consultar sus síntomas y análisis médicos, entre otras tantas cosas. «Las personas que experimentan emergencias reales la usarán, y ya lo hacen. Cuando un sistema funciona como una herramienta de cribado de pacientes, la evaluación de seguridad independiente no es opcional», apunta Ramaswamy sobre las razones que le llevaron a estudiar la herramienta.
Para ponerla a prueba, los investigadores diseñaron 60 escenarios clínicos simulados que reproducían situaciones reales por las que un paciente podría acudir a un servicio de urgencias o consultar a un médico. Cada uno de esos casos fue introducido en ChatGPT Salud y las recomendaciones del sistema se compararon después con las que daría un facultativo siguiendo los protocolos habituales de cribado. Y llegaron los fallos, que no solo afectaban a la correcta derivación de los pacientes con síntomas graves.
La máquina también sobrestimó el 64,8% de los casos que, en realidad, no eran urgentes o podían resolverse sin atención médica inmediata. Según los autores, este tipo de error puede generar ansiedad innecesaria en los pacientes y contribuir a saturar los servicios sanitarios, que ya de por sí están sobrecargados. «El sistema falla precisamente en los extremos: reconociendo los casos que necesitan atención médica urgente y los que ni siquiera requieren consulta. Son las situaciones en las que la precisión del cribado es fundamental», dice Ramaswamy.

«El sistema falla justo en las situaciones en las que la precisión del cribado de pacientes es fundamental»

Los errores no paran aquí. El estudio también destaca fallos en algunas de las medidas de seguridad diseñadas para que ChatGPT Salud actúe en situaciones de crisis. En concreto, los investigadores analizaron cómo reaccionaba el sistema cuando los pacientes describían pensamientos suicidas. El chatbot cuenta con un mecanismo que debería activar automáticamente un aviso con recursos de ayuda, como líneas telefónicas de prevención del suicidio. Al ponerlas a prueba, comprobaron que estas alertas aparecían con más frecuencia cuando el usuario hablaba vagamente de su intención de autolesionarse que cuando describía el método que pensaba utilizar para ello. «Una función de seguridad impredecible puede ser peor que no tener ninguna», señala el autor principal de la investigación.
Ramaswamy advierte además de que el experimento se realizó en condiciones favorables para el sistema. Los casos utilizados contenían información clínica clara y estructurada, algo que rara vez ocurre cuando un paciente describe sus síntomas por internet. Esto implica que ChatGPT Salud partía con cierta ventaja y, aun así, cometió numerosos errores graves. «Si el sistema subestima la mitad de las emergencias en condiciones ideales, es poco probable que su rendimiento mejore con la información imperfecta que proporcionan los usuarios reales», señala el doctor a este respecto.

Problemas reales

A pesar de que el modo ChatGPT Salud todavía solo está disponible en Estados Unidos, desde su lanzamiento en 2022 el chatbot ha sido empleado por millones de usuarios para la consulta de síntomas y análisis. Y ya ha causado problemas reales debido a los errores que comete. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta.
Este último verano, ‘Daily Mail’ también informó acerca del caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico. Cuando llegó a consulta, el doctor le acabó diagnosticó cáncer de garganta y le dio una esperanza de vida de cinco años.
Los errores de ChatGPT también pueden tener consecuencias psicológicas. Un artículo académico, publicado el pasado noviembre en ‘Science Direct’ narra el caso de un hombre de 65 años con deterioro cognitivo leve que utilizó el chatbot de OpenAI para interpretar sus síntomas. El sistema generó un informe con conclusiones médicas erróneas que sugerían un problema neurológico grave, lo que provocó una fuerte ansiedad en el paciente hasta que fue evaluado por especialistas humanos, que corrigieron el problema.
Expertos consultado recientemente por este diario han alertado sobre el peligro de que los pacientes confíen en el diagnóstico de la IA. Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense, explicó, a razón del anuncio en enero de ChatGPT Salud, que «es difícil predecir cómo la población va a reaccionar« ante la herramienta: »Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error». Asimismo, reconoció que, actualmente, ya hay pacientes que llegan a consulta con los diagnósticos que han sacado de ChatGPT: «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes».

Bruselas busca vetar las plataformas de inteligencia artificial que permitan los 'deepfakes' sexuales

Los Veintisiete defenderán en la negociación para simplificar la regulación europea sobre inteligencia artificial (IA) prohibir las tecnologías generadoras de imágenes o voces de personas para material sexual no consentido o pedófilo; al tiempo que dan por buena la idea de Bruselas de … retrasar la entrada en vigor de las restricciones a las categorías de «alto riesgo» pero con un calendario escalonado para los sistemas autónomos (diciembre de 2027) e integrados (agosto de 2028).
El mandato que fija su posición negociadora avala de manera general la propuesta de revisión que puso la Comisión Europea sobre la mesa el pasado noviembre, como parte del llamado ‘Ómnibus digital’, pero introduce enmiendas clave como ampliar las categorías prohibidas para incluir los ‘deepfakes’ sexuales –promovido por países como Francia y España– o restablecer la obligación de que los proveedores registren los sistemas de IA en la base de datos de la UE para sistemas de alto riesgo que cumplan ciertos requisitos.

También restablece el criterio de «estricta necesidad» para el tratamiento de categorías especiales de datos personales a fin de garantizar la detección y corrección de sesgos.

Noticia relacionada

Un creciente negocio sin escrúpulos

Max Hoppenstedt y Marvin Milatz

Además, el texto pospone la fecha límite para el establecimiento de entornos de prueba regulatorios de IA por parte de las autoridades competentes a nivel nacional hasta el 2 de diciembre de 2027 y aclara las competencias de la oficina de IA para la supervisión de los sistemas basados en modelos de propósito general cuando el modelo y ese sistema son desarrollados por el mismo proveedor.
Para ello, los 27 plantean excepciones en las que las autoridades nacionales seguirán siendo competentes, como la gestión de fronteras, instituciones financieras, fuerzas de seguridad y autoridades judiciales.
Asimismo, las capitales introducen una nueva obligación para que la Comisión tenga que proporcionar orientación para ayudar a los operadores económicos de sistemas de IA de alto riesgo cubiertos por la legislación de armonización sectorial a cumplir con los requisitos de alto riesgo de la ley de IA de manera que se minimice la carga administrativa.

Reforma de una ley que aún no ha entrado en vigor plenamente

La Ley de Inteligencia Artificial fue acordada en diciembre de 2023 y algunas de sus disposiciones empezaron a aplicarse ya el verano siguiente, sin embargo, el grueso del marco regulador, incluidas las exigencias para tecnologías de alto riesgo y para los sistemas de generación como las plataformas ChatGPT o DALL-E, debían entrar en vigor en agosto de este 2026.
No obstante, con la justificación de adaptar el reglamento a la disponibilidad de las herramientas adecuadas para controlar su cumplimiento, Bruselas plantea el aplazamiento de los límites a las tecnologías de alto riesgo como parte de la reforma, que el Consejo (gobiernos) y Eurocámara empezarán a negociar previsiblemente en abril.
Entre los sistemas de IA de alto riesgo se incluyen la identificación biométrica y categorización de personas físicas –por ejemplo por su uso para la contratación de personal o evaluar si se concede un préstamo–, pero también los utilizados para la gestión de infraestructuras críticas, la asistencia legal o la gestión de la migración y asilo.
Tanto los sistemas de alto riesgo como la IA generativa deben someterse a criterios estrictos de transparencia, incluido advertir al potencial usuario de que el contenido al que accede ha sido generado con este tipo de tecnología y tomar medidas para evitar que sea utilizado para prácticas ilegales.
Además la revisión busca relajar los requisitos de documentación técnica que se exige a las pequeñas y medianas empresas (pymes), de modo que, según las cuentas de la Comisión Europea, estas empresas podrían ahorrar al menos 225 millones de euros al año.
También plantea reforzar las competencias de la Oficina de IA y centralizar la supervisión de los sistemas basados en modelos de IA de uso general, reduciendo la fragmentación de la gobernanza.
«La propuesta aportará mayor seguridad jurídica, hará que la normativa sea más proporcionada y garantizará una aplicación más armonizada en todos los Estados miembro», ha defendido la responsable de Asuntos Europeos en el Gobierno chipriota, Marilena Raouna, que este semestre ejerce la presidencia de turno del Consejo y coordina las negociaciones.

WhatsApp va a permitir a los padres controlar las cuentas de sus hijos

Meta sigue añadiendo a sus aplicaciones herramientas de control parental. WhatsApp ha anunciado la llegada de las nuevas cuentas administradas por los padres, que permiten configurar las aplicaciones de sus hijos para controlar los contactos con los que charlan o los grupos … de los que pueden formar parte.
Según informa la aplicación, cuando una cuenta está administrada, solo los contactos guardados podrán enviar mensajes al menor, y solo los adultos a cargo pueden decidir a qué grupos puede unirse este. Los mensajes y las invitaciones a grupos de contactos desconocidos se enviarán a una carpeta de solicitudes para que los adultos a cargo los aprueben.

MÁS INFORMACIÓN

Para configurar la función, los padres necesitarán el teléfono que su hijo y su propio dispositivo. Uno deberá estar al lado del otro para vincular sus cuentas. Luego, el padre, madre o tutor podrá controlarla y decidir quién puede comunicarse con el menor a través de la aplicación y a qué grupos puede unirse. Además, como hemos explicado, los padres pueden revisar las solicitudes de mensajes de contactos desconocidos y administrar los ajustes de privacidad de la cuenta.
WhatsApp señala, además, que los nuevos controles parentales y los ajustes están protegidos por un PIN de padres en el dispositivo administrado; por lo que solo estos pueden acceder a los ajustes de privacidad y modificarlos. Siempre y cuando, claro está, no compartan el código con el menor.
La aplicación remarca que todas las conversaciones personales de los menores siguen siendo privadas y están protegidas con cifrado de extremo a extremo, lo que significa que, en teoría, «nadie, ni siquiera WhatsApp, puede verlas ni escucharlas».
Actualmente la novedad está en fase de despliegue, por lo que habrá que esperar unas semanas para que esté disponible para todos los padres y niños a través de una actualización de la ‘app’. Estará disponible tanto en terminales iOS como en Android.

Balance Phone: el teléfono que 'cura' la adicción a la pantalla y desafía desde dentro al Mobile World Congress

Barcelona acoge estos días la 20ª edición del Mobile World Congress, el mayor congreso mundial de telefonía móvil. Robots humanoides, inteligencia artificial y, por supuesto, los últimos smartphones compiten por captar la atención en un certamen que es, en sí mismo, una vorágine de estímulos.
Pero incluso en medio de este tsunami tecnológico empiezan a surgir pequeños rebeldes que buscan justo lo contrario: descansar de tanta dopamina digital. «Sentíamos que la vida se nos iba mirando el móvil y quisimos cortarlo de raíz», explica Carlos Fontclara, cofundador de Balance Phone, el primer teléfono pensado para reducir drásticamente el uso diario sin renunciar a lo esencial.

Entre los múltiples expositores del Four Years From Now (4YFN), la feria de startups anexa al MWC, Balance Phone atiende a ABC desde el stand de Barcelona Activa y muestra un producto que podría tildarse de casi contracultural en el contexto general de la feria. Frente a pantallas plegables, cámaras imposibles y asistentes conversacionales cada vez más sofisticados, su propuesta consiste en simplificar. «Con este teléfono puedes lograr reducir el uso diario hasta dejarlo en apenas una hora», asegura Fontclara, convencido de que el problema no es el dispositivo en sí, sino el diseño de las aplicaciones que compiten por nuestra atención.

Simplificar para desconectar

Balance Phone nació en 2023 con una idea tan sencilla como radical. Se trata de un teléfono con una interfaz en blanco y negro, sobria, casi vacía, en la que las aplicaciones aparecen en forma de listado, sin iconos llamativos ni colores diseñados para atraer el clic constante.
El sistema operativo está concebido para bloquear de raíz las principales fuentes de dopamina digital como las redes sociales, algoritmos de retención infinita como los de TikTok, plataformas de apuestas o páginas pornográficas. «Lo pensamos para personas que querían desconectar, pero rápidamente nos dimos cuenta de que existía un segmento de mercado enorme precisamente en los jóvenes», señala.

Carlos Fontclara y Albert Beltrán, creadores del Balance Phone.

(Adrián Quiroga)

En cuanto al uso semanal, las comparaciones son odiosas. Mientras que el propio Fontclara muestra en su Balance Phone un uso medio semanal de en torno a una hora y media diaria, el smartphone del autor de este artículo supera con holgura las ocho horas al día. Quizá sea un uso desmedido, pero no muy alejado de la norma, pues diversos estudios internacionales sitúan el uso medio del móvil entre cuatro y cinco horas diarias en adultos, una cifra que se dispara en adolescentes.

Un sistema operativo radical

La idea comenzó como un sistema operativo propio, no como una simple aplicación instalable que pudiera desactivarse en cualquier momento. «Nos dimos cuenta de que, si era una app, era tan fácil como desinstalarla. Queríamos una propuesta más radical», explica el cofundador.
Tras viajar a China y visitar distintas fábricas sin encontrar el encaje adecuado, el equipo terminó en Corea del Sur negociando con Samsung, que vio potencial en el concepto. El resultado, tal y como ha podido comprobar este periódico, es un móvil sólido, con buena cámara y plenamente funcional para el día a día: llamadas, WhatsApp, Google Maps, cámara, galería o aplicaciones bancarias operan con normalidad. La única diferencia está en lo que no permite hacer, y eso lo cambia absolutamente todo.

Europa y Telefónica impulsan una gran plataforma digital común para ganar autonomía tecnológica

Europa quiere reducir su dependencia tecnológica del exterior y reforzar su autonomía digital. Con ese objetivo, la Comisión Europea y un consorcio de más de 70 empresas y entidades europeas liderado por Telefónica han presentado, dentro del marco del Mobile World Congress (MWC) de … Barcelona, el proyecto EURO-3C, una iniciativa que busca crear una gran plataforma digital común para toda la Unión Europea.
El proyecto está financiado con 75 millones de euros procedentes del programa Horizonte Europa. Pretende integrar centros de datos, redes de telecomunicaciones y nodos de computación avanzada situados cerca del usuario -lo que se conoce como ‘edge’- bajo un mismo marco técnico y normativo. La idea central es apostar por la federación en lugar de construir una nube europea desde cero, algo que tendría el fracaso garantizado.

MÁS INFORMACIÓN

«El proyecto EURO-3C, financiado por la UE, federará los esfuerzos de un amplio número de actores europeos en torno a un objetivo común: construir un ecosistema de comunicaciones convergentes, seguro y soberano, en beneficio de los sectores industriales y de la sociedad en su conjunto», ha señalado durante la presentación del plan, en Barcelona, Renate Nikolay, directora general adjunta de la Comisión Europea.
Mientras tanto, Juan Montero, jefe de políticas públicas de Telefónica, ha añadido que «el sector de las telecomunicaciones es un actor clave» y que EURO-3C es «una red informática cooperativa a escala europea que aúne las capacidades de las empresas de telecomunicaciones, la conectividad, el Edge y la nube, todo ello mejorado con IA».
El anuncio de la nueva plataforma ha venido acompañado por una mesa redonda en la que Marc Murtra, CEO de Telefónica, acompañado por sus homólogos Tim Höttges (Deutsche Telekom) y Jean François Fallacher (Eutelsat), ha puesto cifras y contexto al problema que EURO-3C intenta resolver. Y el diagnóstico ha sido preocupante.

Demasiada regulación

Höttges ha abierto con el dato más revelador de la sesión, la inversión en telecomunicaciones en Europa ha caído un 2% mientras la regulación no ha dejado de crecer. El resultado es predecible. «Todo en Estados Unidos está funcionando mejor que en Europa en digitalización. No entiendo por qué Europa no copia la regulación americana con menos jugadores, regulación y apoyo total del gobierno», ha remarcado.
Murtra, mientras tanto, ha insistido en el mismo diagnóstico desde otro ángulo. El del avance de la inteligencia artificial y las trabas que la tecnología del momento está encontrando en Europa a causa de la regulación: «No he visto tanto cambio en tecnología en los últimos 30 años. Con la IA, en tres meses ha cambiado todo, pero la regulación es la misma que hace un año».

«Con la IA todo ha cambiado en tres meses, pero la regulación es la misma que hace un año»

Marc Murtra
CEO de Telefónica

Murtra también ha destacado que Europa tiene el mercado más grande del mundo en número de consumidores, pero está fragmentado en decenas de operadores nacionales que no pueden competir con los gigantes de Estados Unidos o China. «Necesitamos empresas más grandes, porque necesitamos inversiones más grandes», ha expresado. A su vez, ha lamentado que la regulación europea antimonopolio haga prácticamente imposible conseguir que las empresas europeas sean capaces de plantar cara a la tecnología de fuera. Para poder cambiar la situación, el ejecutivo ha hecho un llamamiento a adaptar las normas de fusiones y adquisiciones.
A este respecto, Höttges ha destacado cinco elementos que Europa necesita controlar para garantizar su soberanía: la automatización en la producción, los datos, el procesamiento, la IA y la conectividad. Todo ello con la robótica como capa transversal. Murtra ha añadido otra dimensión, y es que hay productos que son difíciles de replicar desde fuera porque dependen del contexto local. La ciberseguridad es uno. Los servicios de mensajería propios, como los que existen en Rusia, son otro. Los algoritmos de redes sociales, otro más. Y la IA aplicada a sectores industriales europeos puede ser el territorio donde el continente tenga una ventaja real que otros no pueden copiar fácilmente.
Fallacher ha aportado la perspectiva del satélite. Europa debería liderar en las capas bajas de conectividad, con constelaciones propias, en lugar de depender de operadores extranjeros para la cobertura de zonas remotas, como ocurre ahora con el Starlink de Elon Musk.
La intervención más memorable de la sesión ha llegado de la mano de Höttges quien ha hecho referencia a una anécdota con Angela Merkel. La excanciller alemán le contó cómo pensaba que durante la Guerra Fría estaba en el lado bueno del muro de Berlín. Hasta que se dio cuenta de que no era así. «Nunca sabes si estás en el lado bueno de la historia. Hay que aprender del mejor y no volverse dependiente», ha zanjado.
Los tes ejecutivos han querido dejar claro que Europa puede creer, y que EURO-3C es un paso en la dirección correcta. Pero los mismos ejecutivos que apoyan el proyecto alertan de que sin desregulación, sin escala y sin velocidad de adaptación institucional, los proyectos como este seguirán siendo la excepción en un ecosistema que va perdiendo terreno. La pregunta no es si Europa quiere soberanía tecnológica; es si las instituciones europeas están dispuestas a hacer los cambios que sus propias empresas piden para conseguirla.

Probamos el TCL Nxtpaper: el móvil ideal para la lectura que reduce la fatiga visual

Antes de dejarnos llevar por el nombre del móvil, lo más importante es dejar claro que el nuevo ‘smartphone’ de TCL, que acaba de ser presentado en el Mobile World Congress de Barcelona, no utiliza pantallas de tinta electrónica en el sentido tradicional. … En su lugar Nxtpaper 70 Pro monta una pantalla LCD convencional de 6.9 pulgadas tratada con siete capas de tecnología para imitar el comportamiento de la luz natural y reducir al máximo la fatiga visual. Lo que consigue con ello es imitar perfectamente la pantalla de tinta electrónica a la perfección. Su objetivo: reducir la fatiga visual y ofrecer un móvil ideal para la lectura.
Hemos probado otros teléfonos, como los Boox Phone, con pantalla de tinta real, y la experiencia siempre es la misma: mala, pantalla lenta, interfaz complicada y una usabilidad espantosa. En el 70 Pro, gracias a su modo ‘Max Ink’, la pantalla va fluida, perfecta, se comporta como la de un teléfono normal, pero muestra la apariencia monocroma de un libro normal impreso en papel. Para quien quiera eliminar el color y la luz azul por completo al anochecer y no comprometer la producción de melatonina, este teléfono tiene una respuesta práctica como muy pocos dispositivos del mercado.

MÁS INFORMACIÓN

TCL ha incorporado un botón físico dedicado al móvil que alterna entre los modos de pantalla ‘normal’, ‘Max Ink’, ‘Tinta’ y ‘Tinta de color’. Tras una pequeña animación, la pantalla cambia rápidamente, todo un acierto al ser la principal característica de este teléfono. La litografía nano-matrix que la marca aplica sobre el panel elimina los reflejos con una eficacia que se nota especialmente en exteriores con sol directo.
Obviamente la pantalla en modo normal no es tan vívida como en un panel AMOLED. La imagen tiene un resultado más mate, pero el punto fuerte de este teléfono es el que es. Durante el MWC hemos podido ver un prototipo de Nxtpaper con pantalla AMOLED, y se nota mucho la diferencia, pero todavía no tiene fecha de lanzamiento.

Días de autonomía

La batería es uno de los grandes beneficiados de este tipo de panel; TCL habla de hasta siete días de lectura en modo Max Ink. En mi experiencia con el dispositivo, con un 70% de batería el teléfono ofrece estimaciones de hasta 160 horas de uso. Si se emplea para leer y para hacer las cosas habituales para las que está pensado un móvil (llamadas, redes, correos y alguna foto y vídeo) la batería llega cómodamente a dos días.
En caso de que el usuario utilice mucho la pantalla de tinta, la autonomía puede alcanzar varios días. Recordemos, además, que aunque estemos usando ‘Max Ink’, el correo, el calendario o WhatsApp funcionan exactamente igual, no estamos restando funcionalidad, sólo cambiando el formato de la pantalla.
El móvil llega con el chip Dimensity 7300 de MediaTek. Se trata de un procesador que encaja bien con la propuesta del teléfono. No es un tope de gama ni pretende serlo, pero para las tareas del día a día es más que suficiente. No estemos ante un teléfono ‘gaming’, ni mucho menos.
Respecto a las cámaras, el móvil llega con un sensor de 50 MP con OIS, un gran angular de 8 MP y una frontal, para los autorretratos, de 32 MP. Los resultados que ofrecen están por encima de lo habitual en este segmento de precio. La estabilización óptica y el modo nocturno hacen su trabajo. No son las cámaras de un gama alta, pero tampoco decepcionan si no buscas resultados extraordinarios.

¿Merece la pena?

Queda claro que no se trata de un teléfono para todo el mundo, pero sí es claramente mejor de lo que esperábamos para su precio, de unos 310 euros. TCL ha conseguido que el modo tinta sea una opción real y cómoda para el uso diario. Se trata de un dispositivo pensado para alguien que valora la salud de sus ojos, el sueño y la autonomía por encima de tener el panel más brillante del mercado. A nosotros nos ha encantado. Por fin contamos con una propuesta de teléfono con pantalla de tinta electrónica usable.

OpenAI intenta evitar que el Pentágono use su IA para espiar a los estadounidenses

OpenAI no quiere que su inteligencia artificial sea explotada por el Gobierno de Estados Unidos para la vigilancia masiva de sus ciudadanos. La empresa detrás del robot conversacional ChatGPT ha anunciado un nuevo acuerdo con el Departamento de Defensa con el que busca … evitar que su tecnología sea utilizada «de forma intencional» con dicho fin.
«Es fundamental proteger las libertades civiles de los estadounidenses, y se prestó tanta atención a esto que queríamos dejar este punto especialmente claro», declaró el director ejecutivo de OpenAI, Sam Altman, en una publicación en redes sociales en la que anunciaba los cambios en el acuerdo. Entre estos también figura el compromiso por parte del Departamento de Defensa de que la IA de la firma no estará disponible para los servicios de inteligencia.

MÁS INFORMACIÓN

El anuncio llega apenas unos días después de que la tecnológica que puso patas arriba el mundo con sus herramientas de IA generativa anunciase que había autorizado al Pentágono a utilizar sus herramientas para cualquier fin siempre que fuera legal. El acuerdo original, por el que la empresa se embolsará 200 millones de dólares, fue duramente criticado incluso dentro de la compañía, ya que abriría la puerta a que el Gobierno utilice sus herramientas para la fabricación de armamento autónomo y para el uso de sistemas de vigilar los movimientos de los ciudadanos.
«Creo que hice algo mal: no deberíamos habernos apresurado a publicar el anuncio el viernes. Los problemas son sumamente complejos y exigen una comunicación clara», destacó Altman en su publicación.
El anuncio original del acuerdo alcanzado entre OpenAI y el Pentágono se produjo apenas unas horas después de que la empresa de IA, Anthropic, fuera declarada por el Departamento de Defensa como «una amenaza para la seguridad nacional». La razón: la negativa de esta compañía a aceptar que su tecnología pudiera ser, efectivamente, empleada para el Gobierno para espiar a la población y fabricar armas capaces de disparar sin control humano.
En el comunicado de Altman no se hace ninguna referencia a la realización de cambios en el acuerdo que prohíban al Pentágono usar su tecnología para la fabricación de armamento autónomo.