Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Europa estudia investigar el uso de Grok para crear desnudos de niños y mujeres con IA

La Comisión Europea ha ordenado a la red social X de Elon Musk que conserve todos los documentos y datos internos relacionados con su chatbot de inteligencia artificial integrado, Grok, hasta finales de 2026, dijo el jueves un portavoz de la comisión en … declaraciones recogidas por ‘Reuters’.
«Esto se le está diciendo a la plataforma: ‘Conserven sus documentos internos, no se deshagan de ellos, porque tenemos dudas sobre su cumplimiento… y necesitamos poder tener acceso a ellos si lo solicitamos explícitamente’», dijo el portavoz de la Comisión Thomas Regnier.

El anuncio llega una semana después de que Grok, a través de su cuenta oficial en la red social, reconociese que algunos usuarios se habían aprovechado de un problema técnico de la herramienta para que la creación de este tipo de contenido fuera posible. «Hemos identificado fallas en las salvaguardas y las estamos corrigiendo con urgencia», se señaló en la publicación. Asimismo, la IA remarcaba que la creación de contenido erótico de esta clase »es ilegal y está prohibido«.
Las denuncias de abusos comenzaron a aparecer en X después de que, a finales de diciembre, se lanzara en Grok un botón de «editar imagen». Este permite a los usuarios modificar cualquier imagen en la plataforma -y, según las quejas-, algunos usuarios aprovecharon la novedad para eliminar parcial o completamente la ropa de mujeres o niños en las fotografías.

Elon Musk, el hombre más rico del mundo, tiene claro qué trabajos serán reemplazados primero por la IA: «Desaparecerán a la velocidad del rayo»

Desde hace varias décadas se discute qué campos del mercado laboral se verán más afectados por el avance de la inteligencia artificial. Sin embargo, ese debate adquirió una dimensión completamente nueva con la irrupción masiva de los modelos de lenguaje en diciembre de 2022. … El éxito sin precedentes de ChatGPT dejó entrever en pocas semanas una verdad difícil de asumir: la inteligencia artificial no amenaza tanto a los trabajos manuales como a los intelectuales. Pero, ¿cuáles están más amenazados?

Una de las voces más escuchadas en este debate es, como parece lógico, la de Elon Musk. El hombre más rico del mundo, fundador de empresas punteras en el desarrollo de la IA y la robótica, lleva años sosteniendo que, a largo plazo, prácticamente todos los trabajos acabarán desapareciendo y que será necesario implantar una renta básica universal para sostener el sistema económico.

En una charla reciente en el famoso podcast de Joe Rogan, ha hablado precisamente de qué ocurrirá antes de llegar a ese escenario y de cuáles son los trabajos que, en su opinión, desaparecerán a corto y medio plazo, y cuáles serán los más resistentes.

IA y productividad humana

Según explica, la inteligencia artificial sigue siendo, por ahora, fundamentalmente digital. Esto significa que es especialmente eficaz en tareas que se realizan íntegramente en un ordenador. En cambio, los trabajos que implican manipular objetos físicos, moverse en el espacio o interactuar con el mundo material seguirán existiendo durante mucho más tiempo. En sus palabras, la IA puede «mejorar la productividad de los humanos que trabajan con las manos», pero no sustituirlos de forma masiva en el corto plazo.

La revista 'Time' elige a los arquitectos de la IA como personas del año

El final de año trae consigo las tradicionales listas que repasan lo acontecido durante los últimos doce meses. Uno de los eventos más esperados es la selección de la personas del año por la revista estadounidense ‘Time’. En 2024, el elegido fue Donald Trump … , recién elegido presidente, en su segunda elección como persona más importante.
Este año los elegidos son lo que la revista denomina ‘arquitectos de la IA’: los hombres y mujeres que han trabajado para que la Inteligencia Artificial haya «despuntado con fuerza» en este 2025 y que «ha hecho evidente que no habría vuelta atrás».

Su propuesta incluye una doble portada. Por un lado, una ilustración que firma Peter Crowther donde se ven las letras AI —las siglas en inglés de Inteligencia Artificial— apuntaladas con andamios. Por la otra, los grandes protagonistas del ascenso sentados sobre una viga, emulando la famosa foto de los obreros que construían el edificio del Rockefeller Center en Nueva York.

En la imagen, que firma Jason Sellerm aparecen Mark Zuckerberg, Elon Musk, Sam Altman y Jensen Huang, el CEO de Nvidia, empresa que se ha convertido en la primera en alcanzar los 5.000 millones de dólares de capitalización.

Intelcia proyecta alcanzar un volumen de negocio de 700 millones de euros al finalizar el año

Tras la compra de Grupo Unísono, Intelcia le apuesta a liderar el sector en servicios multicanal y digitales de habla hispana. El objetivo de Intelcia Spain & Latam es alcanzar un crecimiento del 31% respecto a 2021, lo que supone un incremento anual del 8% y se traduce en una facturación prevista de 210 millones de euros, consolidando su liderazgo en los mercados de habla hispana.