Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Así va a cambiar la IA la forma en la que usas GMail

Hasta ahora, IA había llegado tímidamente a Gmail con ese botón de ‘Pregunta a Gemini’ situado arriba a la derecha. Google acaba de presentar la «siguiente evolución» de la integración de la inteligencia artificial en su archiconocido cliente de correo, una que … te entiende, te resume y te propone acciones.
Empezamos con las actualizaciones que verán los usuarios gratuitos del servicio próximamente. Seguramente has usado alguna vez las respuestas rápidas de «¡Gracias!» o «¡Perfecto!», útiles, aunque muy limitadas. Ahora desaparecen y se actualizan con una respuesta sugerida personalizada, contestaciones rápidas adaptadas al contexto del hilo y a tu estilo, todo aprendido de tu historial. En la demostración de la empresa, el ejemplo que vimos es la típica conversación de coordinación familiar. La gracia está en que la respuesta sugerida no fue un ‘sí’ genérico, sino una contestación mucho más completa y que tenía sentido en la conversación, con tu tono habitual, para que luego la retoques antes de enviarla. También llega la función ‘Ayúdame a escribir’, un asistente que te redacta el correo usando una orden, como «pide una factura» o «invita a una cena», y desde ahí es capaz de crear un bonito texto.

Una de las funcionalidades estrella, que ya vimos en Workspace, la versión de Gmail profesional, son los resúmenes de los hilos. Tremendamente útiles cuando llegas tarde a una conversación y quieres leer solo lo importante. Ahora también estarán disponibles en el mail gratuito.

Funciones de pago

Dentro de las funciones de pago, la estrella es el ‘Buzón de IA’, una nueva carpeta que filtra los correos importantes y que puedes consultar cada mañana. Además, categoriza los mensajes como ‘prioritarios’ o ‘ponte al día’ y te hace un resumen de cosas que no abriste o contestaste. Justo esta funcionalidad es la que más tardaremos en ver. De momento sólo algunos usuarios seleccionados están probando.

Grok desactiva la generación de imágenes con su IA tras la polémica de las fotografías sexualizadas

Grok, la herramienta de inteligencia artificial (IA) de la red social X (antes Twitter), ha limitado su generador de imágenes tras la polémica de las fotografías sexualizadas demandadas por miles de usuarios, entre las que se encuentran menores de edad.Musk ha sido amenazado … con multas y varios países se han pronunciado públicamente en contra de la herramienta por la creación de imágenes sexualmente explícitas. Algunos usuarios utilizaban Grok para generar imágenes de mujeres y niños desnudos a veces colocándolos en posiciones sexualizadas.

La plataforma de Elon Musk ha restringido el acceso a esta herramienta a los miembros de pago y ha ofrecido a los usuarios sin insignia de verificación la opción de adquirir una suscripción para desbloquearla.

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Intelcia proyecta alcanzar un volumen de negocio de 700 millones de euros al finalizar el año

Tras la compra de Grupo Unísono, Intelcia le apuesta a liderar el sector en servicios multicanal y digitales de habla hispana. El objetivo de Intelcia Spain & Latam es alcanzar un crecimiento del 31% respecto a 2021, lo que supone un incremento anual del 8% y se traduce en una facturación prevista de 210 millones de euros, consolidando su liderazgo en los mercados de habla hispana.