Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Europa estudia investigar el uso de Grok para crear desnudos de niños y mujeres con IA

La Comisión Europea ha ordenado a la red social X de Elon Musk que conserve todos los documentos y datos internos relacionados con su chatbot de inteligencia artificial integrado, Grok, hasta finales de 2026, dijo el jueves un portavoz de la comisión en … declaraciones recogidas por ‘Reuters’.
«Esto se le está diciendo a la plataforma: ‘Conserven sus documentos internos, no se deshagan de ellos, porque tenemos dudas sobre su cumplimiento… y necesitamos poder tener acceso a ellos si lo solicitamos explícitamente’», dijo el portavoz de la Comisión Thomas Regnier.

El anuncio llega una semana después de que Grok, a través de su cuenta oficial en la red social, reconociese que algunos usuarios se habían aprovechado de un problema técnico de la herramienta para que la creación de este tipo de contenido fuera posible. «Hemos identificado fallas en las salvaguardas y las estamos corrigiendo con urgencia», se señaló en la publicación. Asimismo, la IA remarcaba que la creación de contenido erótico de esta clase »es ilegal y está prohibido«.
Las denuncias de abusos comenzaron a aparecer en X después de que, a finales de diciembre, se lanzara en Grok un botón de «editar imagen». Este permite a los usuarios modificar cualquier imagen en la plataforma -y, según las quejas-, algunos usuarios aprovecharon la novedad para eliminar parcial o completamente la ropa de mujeres o niños en las fotografías.

Muere Vince Zampella, cocreador de 'Call of Duty', muere en un accidente de coche a los 55 años

El desarrollador de videojuegos Vince Zampella, conocido por ser uno de los creadores de ‘Call of Duty’, ha muerto en un accidente de tráfico cuando viajaba en un Ferrari por la autopista Angeles Crest del sur de California. El vehículo se salió de … la carretera, chocó contra un muro de hormigón y un pasajero atravesó el cristal del automóvil.
El accidente se produjo en torno a las 12.45 del domingo en una carretera al norte de Los Ángeles, en las montañas de San Gabriel, según ha confirmado la Patrulla de Carreteras de California y recoge NBC4. El conductor quedó atrapado en el interior del vehículo, que fue pasto de las llamas, y falleció en el lugar. El copiloto murió tras ser trasladado al hospital.

Zampella, de 55 años, deja un imponente legado en generaciones de jugadores. En 2002 cofundó Infinity Ward, el estudio responsable de la franquicia Call of Duty, y ocho años más tarde creó Respawn Entertainment, adquirida posteriormente por Electronic Arts en 2017.

Con él al frente, Respawn Entertainment lanzó títulos como ‘Titanfall’, ‘Titanfall 2’, ‘Apex Legends’ y ‘Star Wars Jedi: Fallen Order’, todos reconocidos por su innovación y éxito comercial. Zampella también dirigió un equipo de estudio de EA con sede en Playa Vista detrás de la franquicia de videojuegos Battlefield.

Spotify sufre un robo masivo de datos que afecta a todo su catálogo

Spotify anunció el lunes que había desactivado las cuentas de un grupo de hackers activistas que afirmó haber «copiado» millones de archivos de música y metadatos del servicio de streaming.El grupo Anna’s Archives declaró en una entrada de blog que había … copiado 86 millones de canciones de Spotify y los metadatos de 256 millones de canciones -un proceso conocido como «scraping»- con el fin de crear un «archivo de conservación» abierto para la música.

Anna’s Archives afirmó que los 86 millones de archivos musicales representaban más del 99,6% de las «escuchas» de Spotify, mientras que las copias de metadatos representaban el 99,9% de todas las canciones de Spotify.
La violación, que no tiene ningún impacto en los usuarios de Spotify, significa que, en teoría, cualquiera podría utilizar la información para crear su propio archivo musical gratuito, aunque en la práctica sería rápidamente perseguido por los titulares de los derechos.

Google se compromete a ser más transparente con los editores españoles y a hacer cambios en el sistema de remuneración

La Comisión Nacional de los Mercados y la Competencia (CNMC) ha concluido este viernes la investigación a Google por un posible abuso de posición de dominio en sus negociaciones con las editores de prensa y agencias de noticias españolas. Para ello, la tecnológica estadounidense … ha tenido que comprometerse a crear «un sistema más transparente, equitativo y conforme a la normativa española cuando negocia con las editoras de prensa y agencias de prensa para incluir sus noticias en Google Search, Google News, Google Discover y Google News Showcase».
En concreto, Google ha garantizado que, en adelante, informará a los editores sobre la metodología y parámetros de cálculo de la remuneración y sobre los ingresos publicitarios relevantes. También se establecen «plazos y fases claras para la negociación de los acuerdos», la «revisión anual de la oferta económica, con opción para los editores de aceptar la actualización o mantener las condiciones previas»; la limitación del alcance de las licencias, la separación de las negociaciones en función del servicio y la eliminación de cláusulas disuasorias. Finalmente, Google se compromete a no tomar represalias «contra los editores por limitar el uso de sus contenidos o por no alcanzar un acuerdo».

Este compromiso, que será válido durante los próximos cinco años y se puede renovar por otros cinco, afecta a todas las editoriales de prensa y agencias de noticias españolas hayan firmado o no acuerdos previos con el buscador. CNMC considera que gracias a este se mejora la competencia en el mercado y se contribuye a proteger el derecho a la información de los usuarios.

La investigación a Google tuvo su inicio en 2023 tras una denuncia del Centro Español de Derechos Reprográficos (CEDRO), en la que se acusaba el a la tecnológica de aplicar prácticas anticompetitivas en la agregación de noticias y el mercado publicitario digital. Además, la CNMC investigaba si los hechos podrían distorsionar el funcionamiento normal del mercado, perjudicando al interés general, mediante la vulneración de disposiciones legales o el aprovechamiento indebido de situaciones en las que otras empresas dependen económicamente de su posición. Cabe recordar que Google controla un buen puñado de los principales canales por los internautas acceder a la información. Entre ellos: Google Search, Google News, Google Discover y Google News Showcase.

Fundación Cibervoluntarios reivindica en la ONU que la tecnología esté al servicio de las personas

Fundación Cibervoluntarios ha reivindicado esta semana en la sede de la ONU la soberanía digital ciudadana, por una tecnología al servicio de las personas. «Reclamamos que la tecnología sea esa palanca que nos ayude a construir un mundo mejor», ha defendido la presidenta de … Fundación Cibervoluntarios, Yolanda Rueda, en la Asamblea General de las Naciones Unidas.
La ONG española, pionera en el voluntariado tecnológico, ha participado como representante de la sociedad civil en la revisión 20 años después de la Cumbre Mundial sobre la Sociedad de la Información (WSIS). Durante su intervención, ha subrayado la importancia de que la sociedad civil sea parte activa en los procesos de decisión «para que la tecnología sea esa palanca que nos ayude a construir un mundo mejor».

«Queremos y reclamamos un sitio en la mesa para la ciudadanía, espacios donde poder participar de forma activa y donde nuestra voz sea fundamental en la toma de decisiones clave que atañen al desarrollo, diseño y uso de la tecnología», ha desarrollado Yolanda Rueda, que también ha recordado que la red «nació abierta, descentralizada, pensada para compartir y ha posibilitado el mayor intercambio de conocimiento de la historia».
En estos tiempos de transformación tecnológica y de herramientas capaces de responder cualquier pregunta gracias a la IA, Cibervoluntarios considera imprescindible que se tenga en cuenta a los usuarios para evitar que la nueva tecnología pueda convertirse en «una nueva forma de control». A este respecto, Rueda ha alertado de la creciente concentración del poder tecnológico en muy pocas manos y de los riesgos que supone para los derechos, la diversidad y la capacidad de las sociedades de imaginar alternativas.