Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Los abogados que se enfrentan a Elon Musk para resucitar Twitter: «Seguiremos adelante, pase lo que pase»

Cuando Steve Coates comenzó a trabajar como abogado para Twitter, en 2013, la red social de micromensajes no se encontraba, precisamente, en su mejor momento. Las pérdidas anuales superaban los 600 millones de dólares, y por mucho que la plataforma crecía en número … de usuarios, con cerca de 220 millones para cuando cerró el curso, la dirección continuaba encontrando importantes obstáculos en su lucha para convertirse en un negocio rentable. Sin embargo, el equipo que estaba detrás estaba contento con su trabajo. «Ese Twitter era un sitio divertido en el que trabajar; todo era muy emocionante. Me quedé ahí hasta 2016; y por entonces lo que había en los equipos era mucho optimismo. Creo que, realmente, todos pensábamos que estábamos ayudando para que la plataforma funcionase como un lugar con libertad de expresión real. Un sitio pensado para ser como una plaza pública virtual», señala el jurista en conversación con ABC.
Pero los números siguieron sin cuadrar, y Coates, como muchos otros, se vio forzado a salir de la red social. En su caso, rumbo a Amazon, desde donde pasó unos años viendo cómo el sitio del pajarito azul iba transformándose hasta que, en 2023, ya como propiedad de Elon Musk, perdía hasta su nombre original para pasar a llamarse X.
Ahora el abogado, especializado en marcas registradas, ha formado equipo con un grupo de empresarios y desarrolladores para crear Operación Bluebird, una nueva compañía que está intentando desarrollar una aplicación de micromensajes que llegaría con el nombre, ahora en desuso, de Twitter. Y es que, según la ley de marcas estadounidenses, si una marca no se utiliza durante tres años consecutivos, y no se muestra interés en su recuperación, esta puede considerarse abandonada y resulta posible que una nueva compañía la explote. Siempre y cuando, claro está, la Oficina de Patentes dé el visto bueno. Y mientras que eso ocurre, o no, más de 150.000 personas han solicitado cuenta para el momento en el que se produzca el lanzamiento de la aplicación.

«Operación Bluebird comenzó a gestarse en julio de 2023, cuando Elon Musk dejó de usar el nombre de Twitter», explica a este diario Michael Peroff, miembro del equipo que está tratando de resucitar Twitter y, como Coates, abogado especializado en en registro de marcas. Peroff señala que, cuando se anunció la llegada de X en sustitución del pájaro azul, se quedó «en shock», porque Musk estaba renunciado de forma gratuita a «una marca mundialmente conocida». «Con el tiempo, pasamos de pensar: ‘¿podemos legalmente demostrar el abandono de la marca? a, si lo logramos y tenemos una plataforma tipo Twitter, ‘¿qué haríamos con ella?’ ‘¿cómo la mejoraríamos?’».

Una red familiar

El plan de Operación Bluebird es que la nueva red social comience a operar para este mismo 2026. Aunque antes tendrán que superar dos escollos importantes. El primero: la Oficina de Patentes de Estados Unidos debe dar su visto bueno. La segunda: X, que no está dispuesta a ceder por las buenas el uso de la marca Twitter; por lo que el pasado 16 de diciembre presentó una demanda civil contra la startup para tratar de impedírselo. En esta, se acusa al equipo de emprendedores de «intentar descaradamente apropiarse de la mundialmente conocida marca Twitter».

X acusa a la startup de «intentar descaradamente apropiarse de la mundialmente conocida marca Twitter». Ha demandado para impedirlo

«No hemos tenido comunicación directa con X, todo se tratará por las vías legales correspondientes. Somos optimistas con el resultado que tendremos, tanto a nivel legal como a nivel de negocio», dice Coates, que remarca que Operación Bluebird ya tiene «planes alternativos» por si finalmente no tuviesen autorización para usar el nombre de Twitter: «Seguiremos adelante, pase lo que pase». Y también saben cómo quieren que funcione su red social. El objetivo es que se convierta en un espacio en el que la gente «se sienta igual que en el Twitter original», pero mejor.
«La red social tendrá elementos familiares, pero también habrá mejores herramientas. Hemos hecho un estudio pormenorizado de todo lo que funcionó en el Twitter original y de lo que no», señala Peroff. «También usaremos inteligencia artificial. No será algo con lo que puedas interactuar, como Grok o ChatGPT, estará ahí para dar algo de contexto a los usuarios sobre el contenido que otros publican», remarca el jurista.

La incitación al odio se perseguirá

«Nuestro enfoque sobre el contenido será también muy diferente al que hay en X y en otras redes sociales. Se han convertido en un entorno peligroso con riesgos reales», apunta Coates, por su parte. Se intuye que la intención de la startup es que la moderación del contenido, y la persecución de las incitaciones al odio, sea más intensa que en otras aplicaciones; aunque esperan conseguirlo sin minar la libertad de expresión de los internautas.
Sea como sea, esperan conseguir crear un espacio en el que todo el mundo se sienta cómodo. Incluidos los menores. «He aprendido mucho de los errores del antiguo Twitter. Aún me acuerdo cuando hace 10 años la red social decidió permitir los vídeos violentos del grupo terrorista ISIS siempre y cuando no los publicase ISIS directamente. Eso me resultó muy difícil de aceptar. Significaba que mis hijos no podían usar Twitter», destaca el extrabajador de la red social del pajarito.

Indonesia bloquea el acceso a Grok por la generación de falsos desnudos

Indonesia ha anunciado este sábado la suspensión temporal de Grok, el asistente de inteligencia artificial de la plataforma X de Elon Musk, a raíz del escándalo de falsas imágenes pornográficas de personas desnudas.Estas imágenes, creadas al pedirle a Grok que desnudara a personas reales … a partir de sus fotos o vídeos, han provocado protestas en todo el mundo.

«Para proteger a las mujeres, los niños y al público frente a los riesgos de contenidos pornográficos falsos generados mediante tecnología de inteligencia artificial, el gobierno bloqueó temporalmente el acceso a la aplicación Grok», ha indicado la ministra de Comunicación y Digitalización de Indonesia, Meutya Hafid, en un comunicado.

«El gobierno considera las prácticas de ‘deepfake’ no consensuadas como una grave violación de los derechos humanos, de la dignidad y de la seguridad de los ciudadanos en el espacio digital», ha subrayado el ministerio en su comunicado, que ha convocado a representantes de X para obtener aclaraciones sobre este asunto.

Probamos el Samsung TriFold: el primer móvil de la marca con tres pantallas

Siguiendo la estela de Huawei, Samsung acaba de presentar en el CES de Las Vegas su propuesta TriFold, un móvil con pantalla plegable tipo ‘libro’ con triple pantalla. 6,5 pulgadas cerrado, y 10 pulgadas abierto; por lo tanto, ahora sí que podemos hablar … de un formato tableta, pero una ultrafina de 3,9 mm en el punto más delgado, más fino que el Galaxy Z Fold 7. Abierta se siente como cualquier otra tableta de alta gama, fina y ligera.
Es al plegar sus tres pantallas donde nos encontramos con un grosor de 12,9 milímetros, que lo sitúa entre el Galaxy Fold 6 y 5. Os contamos este primer contacto que hemos tenido con el que será el móvil más caro de 2026.

Una de las claves cuando empiezas a revisar el TriFold está en las bisagras. Se nota que no son dos piezas idénticas, una es más compacta y la otra más amplia, para que el grosor no sea excesivo. Esa asimetría, que puede parecer rara al principio, termina desapareciendo dejando una sensación sólida al abrir y cerrar el teléfono. La propia de un producto bien acabado y resistente.
Y aquí viene el primer ‘shock’: al empezar a abrir y cerrar el TriFold, este va del revés, es decir, al contrario que el Fold normal de doble pantalla. Lo bueno es que Samsung es consciente de ello, y ha puesto una alerta que te avisa en pantalla en cuanto lo intentas doblar mal. De hecho, si intentas plegarlo como no es, puedes empezar el movimiento, pero no termina de cerrar si vas mal encaminado, y puedes estar tranquilo, porque no se rompe.

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Europa estudia investigar el uso de Grok para crear desnudos de niños y mujeres con IA

La Comisión Europea ha ordenado a la red social X de Elon Musk que conserve todos los documentos y datos internos relacionados con su chatbot de inteligencia artificial integrado, Grok, hasta finales de 2026, dijo el jueves un portavoz de la comisión en … declaraciones recogidas por ‘Reuters’.
«Esto se le está diciendo a la plataforma: ‘Conserven sus documentos internos, no se deshagan de ellos, porque tenemos dudas sobre su cumplimiento… y necesitamos poder tener acceso a ellos si lo solicitamos explícitamente’», dijo el portavoz de la Comisión Thomas Regnier.

El anuncio llega una semana después de que Grok, a través de su cuenta oficial en la red social, reconociese que algunos usuarios se habían aprovechado de un problema técnico de la herramienta para que la creación de este tipo de contenido fuera posible. «Hemos identificado fallas en las salvaguardas y las estamos corrigiendo con urgencia», se señaló en la publicación. Asimismo, la IA remarcaba que la creación de contenido erótico de esta clase »es ilegal y está prohibido«.
Las denuncias de abusos comenzaron a aparecer en X después de que, a finales de diciembre, se lanzara en Grok un botón de «editar imagen». Este permite a los usuarios modificar cualquier imagen en la plataforma -y, según las quejas-, algunos usuarios aprovecharon la novedad para eliminar parcial o completamente la ropa de mujeres o niños en las fotografías.

OpenAI crea ChatGPT Salud, su herramienta para responder preguntas médicas, analizar resultados y ofrecer consejos

OpenAI sigue sumando funcionalidades a ChatGPT. La tecnológica centrada en inteligencia artificial generativa ha anunciado la llegada de una nueva versión de su chatbot centrada en la salud y el bienestar llamada ChatGPT Salud. Esta está diseñada, según señala la propia tecnológica en comunicado, … para que el usuario pueda compartir de forma segura con la máquina su información médica, como los resultados de sus análisis o su historial clínico, para que la máquina lo ayude a interpretar los resultados recientes de sus pruebas, prepare sus citas médicas u ofrezca recomendaciones.
Desde la llegada de ChatGPT a la red a finales de 2022, los usuarios han recurrido al robot para buscar consejo médico. De acuerdo con la propia empresa, actualmente, más de 230 millones de personas a nivel global le hacen consultas semanales sobre bienestar y cuidado personal.

La novedad, que en primer momento solo estará disponible para los usuarios afincados en Estados Unidos, es compatible con aplicaciones de bienestar del ‘smartphone’, como es el caso de Apple Health, Function o MyFitnessPal. Gracias a ellas, el robot puede contar con toda la información básica de salud del usuario para poder aconsejarlo mejor. Ahora bien, que nadie se confunda. OpenAI deja claro que la herramienta no aspira a sustituir la atención médica tradicional.
«No sirve para diagnóstico ni tratamiento. En cambio, ayuda a resolver preguntas cotidianas y a identificar patrones a lo largo del tiempo, no solo en momentos de enfermedad, para que tengas más claridad y confianza en tus conversaciones médicas importantes», dejan claro desde OpenAI. La empresa también remarca que los datos médicos compartidos por los usuarios no serán empleados para el entrenamiento de ChatGPT. A este respecto, la empresa señala que la novedad «se creó como un espacio seguro con protecciones adicionales para la información médica sensible y controles fáciles de usar».