Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Enjambres de IA: cómo miles de cuentas falsas te manipularán para que pienses lo que ellas quieran

La inteligencia artificial generativa es un arma poderosa. Si las mejores palabras de los empresarios que apuestan por su desarrollo se cumplen, el día de mañana serán capaces de dirigir compañías millonarias y de cargar con todo el trabajo tedioso. ¿Y los humanos? Trabajaremos … menos y nos jubilaremos antes, de acuerdo con Elon Musk y otros. Pero claro, esa es la versión en la que todo sale rodado. Luego, está la cara menos amable. Un grupo de investigadores y académicos internacional ha publicado un artículo en ‘Science’ en el que alerta sobre el uso de enjambres de agentes de IA para condicionar el pensamiento de los usuarios a través de plataformas digitales, como redes sociales, y, potencialmente, afectar procesos electorales. Se trataría de los sucesores de esos bots maliciosos que se llevan empleando desde hace años para viralizar contenidos e ideas en internet.
«Piensa en los bots tradicionales como marionetas: copian y pegan los mismos guiones con rigidez, lo que facilita su detección porque todos actúan de la misma manera», explica a ABC Daniel Schroeder, firmante del artículo y miembro del grupo de Datos Inteligentes de la noruega Sintef, una de las organizaciones de investigación aplicada más grandes de Europa.

El experto remarca que los enjambres de IA «son más bien una colmena». No hace falta que reciban órdenes, porque son capaces de organizarse de forma independiente y actuar, en conjunto, como si fueran miles de usuarios reales tecleando en la pantalla del ‘smartphone’ y publicando en X: «En lugar de repetir eslóganes, escriben publicaciones únicas que parecen creadas por humanos. Lo hacen utilizando jerga local para integrarse y coordinarse entre sí. Además, pueden probar al instante miles de estrategias para descubrir qué convence a la gente en un contexto determinado».
Los expertos temen el efecto que este tipo de tecnología pueda tener durante el desarrollo de procesos electorales; porque las publicaciones en redes creadas de forma autónoma por una máquina inteligente pueden ser muy difíciles de detectar. «Es algo casi imposible para las personas«, señala Jonas Kunt, profesor de Comunicación en BI Norwegian Business School y, también, autor del artículo. Kunst remarca que »a diferencia de los antiguos bots de «copia y pega’», los agentes basados en IA pueden escribir «publicaciones que a menudo se consideran más humanas que las de los humanos reales».
Respecto a su funcionamiento, el experto explica que se trata de tecnología capaz de «jugar a largo plazo». Por ejemplo, varias cuentas podrían meterse en un grupo de Facebook y tener un comportamiento similar al de resto de miembros. Una vez dentro, compartirían contenido sobre sus aficiones o noticias locales para generar confianza entre los demás integrantes. «Después de conseguirlo pueden recurrir a la propaganda, coordinándose para crear un falso consenso que parezca completamente natural», remata el docente.

Más persuasiva que las personas

La inteligencia artificial generativa puede ser muy persuasiva. Dos estudios vinculados, publicados en ‘Nature’ y ‘Science’ el pasado diciembre, demostraron que las máquinas como ChatGPT tienen más probabilidades de cambiar el punto de vista de un votante sobre un candidato político que la publicidad electoral. Otro, publicado en mayo, señalaba que la IA puede ser ser más efectiva que las personas a la hora de hacer cambiar de opinión a alguien. Para ello, los investigadores pusieron a ChatGPT a discutir con usuarios sobre temas delicados, como el aborto o la legalización de las drogas.
Para Schroeder, los recientes usos de IA generativa para desinformar a los usuarios a través de vídeos e imágenes son solo el principio de lo que puede venir a continuación. Aunque no descarta que los enjambres de IA ya estén actuando para influir en la sociedad: «Es muy difícil saber con precisión hasta qué punto se han extendido las operaciones de influencia coordinadas y multicuenta, ya que la coordinación está diseñada para ser difícil de detectar y las plataformas suelen ser reacias a compartir los datos necesarios para rastrear el comportamiento coordinado».
Sin embargo, el experto se mantiene relativamente optimista, porque «el futuro no está escrito en piedra»: «Aún tenemos una ventana de oportunidad para implementar medidas de seguridad antes de los próximos eventos políticos importantes».
Sin embargo, la solución del problema no es sencilla. Kunst apunta que las cuentas no auténticas en redes sociales «a menudo inflan las métricas de participación» de sitios como Instagram o X. «Esto impulsa sus ingresos y valoración financiera, lo que hace que la autorregulación voluntaria sea insuficiente», señala el experto. Por eso, considera que es clave que los gobiernos les exijan «más transparencia y auditorías». Asimismo, propone la creación de ‘escudos de IA’: «Son herramientas que otorgan a los usuarios la capacidad de filtrar o etiquetar contenido de alto riesgo». También sugiere la creación de un observatorio de influencia de la IA global «para ayudar a la sociedad civil a rastrear las amenazas».

Probamos la DJI Action 6, ¿la mejor cámara de acción del 2025?

DJI lleva años compitiendo en el mismo ring que GoPro e Insta360. Y lo ha hecho apostado por ofrecer siempre «un poquito más». En 2025 quisieron lanzar una cámara de acción diferente, la Osmo Action 6, que brilla justo donde la competencia suele sufrir: en … la captura de escenas rápidas con poca luz y gran encuadre.
La receta para el éxito es un sensor cuadrado de 1/1,1» y apertura variable f/2.0–f/4.0 en un cuerpo que permite inmersión a 20 metros bajo el agua sin carcasa, útil para el buceo a pulmón libre, pero no para el buceo a botella, y doble pantalla OLED.

En la actualidad, en la que casi todo acaba en redes sociales, saber cuándo grabar en vertical o en horizontal no es una decisión fácil, y ahí es donde el sensor cuadrado de la Osmo Action 6 juega su mejor carta. DJI permite grabar en modo 4K 3840×3840, lo que, en la práctica, es un «luego decido si lo subo a YouTube (16:9) o a TikTok (9:16)». Esto te libera de andar pensando para anticipar para qué plataforma estás grabando, y luego editar si quieres un video vertical u horizontal sin perder calidad con el mismo material. Muy parecido a lo que ocurre con una cámara 360, pero a mayor calidad.
Otro de los puntos positivos de la Osmo Action 6 es que tiene apertura variable, f/2.0–f/4.0 mientras que el resto usa una apertura fija. En escenas con mucha luz, cerrar el diafragma ayuda a mantener velocidades más razonables sin ‘quemar’ el cielo. De noche, abrir a f/2.0, junto al sensor grande, es lo que hace que la Action 6 consiga buenas imágenes sin granulado, también ayudado por el HDR. Nosotros lo probamos en la bici de noche, y hemos conseguido el mejor video nocturno que hemos obtenido en movimiento con una cámara de acción.

Grok aún desnuda a las mujeres con IA a pesar de la promesa de Elon Musk

Elon Musk quiere zanjar de una vez por todas la polémica con Grok, su herramienta de inteligencia artificial generativa. La red social X ha anunciado nuevas medidas para impedir que su chatbot de inteligencia artificial transforme fotos de personas reales en imágenes con carácter … sexual. Sin embargo, según ha podido comprobar ABC durante todo el jueves y la mañana de este viernes, la herramienta sigue permitiendo editar imágenes de mujeres y hombres reales para que estos aparezcan en ropa interior o en traje de baño. Algo que, en teoría, ya no debería ser posible.
La opción, efectivamente, va en contra del anuncio de X, que informó en la noche del miércoles, expresamente, de que había «implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora, como bikinis«. La razón: evitar que la IA siga siendo explotada para generar contenido artificial explícito de personas reales.

La empresa señaló, además, que «esta restricción aplica a todos los usuarios, incluidos los suscriptores de pago». Sin embargo, este diario ha comprobado que sigue siendo posible saltársela, y de forma sencilla, sin echarle imaginación alguna a la orden que se le da al chatbot. Esto es posible en la opción de Grok contenida en X y a través de la aplicación propia de la IA. Y da igual que se utilice una cuenta gratuita o una de pago: el resultado será el mismo.
Para hacer la prueba, recurrimos a fotografías de personas reales propias y a otras sacadas directamente de la red. En muchos casos, la herramienta no tuvo problema en alterar la imagen original para poner a las personas que aparecían en ropa interior o bikini. Esto fue posible tanto en el caso de hombres como en el de mujeres. En la versión de la ‘app’ de Grok parece ser incluso algo más sencillo conseguir este resultado. La máquina apenas pone pegas y es posible reeditar las imágenes todas las veces que se quiera hasta conseguir el resultado deseado, que puede llegar a ser bastante explícito.
«El argumento de Elon Musk es el de siempre: el de que nos vamos a poner duros. Pero en realidad es la enésima demostración de que X es una red social descontrolada», explica en conversación con este diario Fernando Checa, director del máster de Redes Sociales del Universidad Internacional de La Rioja. El experto apunta que, a pesar de las palabras de X, es probable que hacer un ajuste como el que se prometió el jueves, por mucho que la red social lo diese por hecho, «puede llevar tiempo»: «Seguramente la gente de xAI esté tratando de ver cómo pueden conseguirlo sin que Grok baje la calidad en la generación de fotografías».

No es legal

Los usuarios que empleen Grok para generar y compartir contenido sexual artificial de personas reales pueden estar infringiendo la ley. Así lo explica en conversación con este diario el abogado especializado en asuntos digitales Sergio Carrasco Mayans: «Depende del tipo de modificación, pero se puede violentar el derecho al honor de la persona afectada. Si además este contenido afecta al menor, el caso se agravaría, porque podríamos encontrarnos ante un caso de pornografía infantil».
El jurista remarca que, en los casos en los que solo se realiza la edición con IA, y se queda guardada en el carrete del ‘smartphone’, la infracción sería «más dudosa»: «El daño a la imagen se produce, pero queda diluido. En el caso de los menores el tema sería más delicado».
Respecto a la responsabilidad de Grok, como herramienta que permite la edición de imágenes normales, el abogado Samuel Parra apunta que la plataforma también estaría «permitiendo el tratamiento de la fotografía de forma inadecuada». Por lo tanto, también podría ser demandada por el afectado. En el caso de España, ante la Agencia Española de Protección de Datos (AEPD): «Si una empresa crea una herramienta, es responsable de lo que pueda hacer desde el punto de vista europeo. El hecho de que haya una imagen mía pública, aunque esté en X, no implica que Grok pueda usarla para crear contenido explícito. Puede tratarse de una infracción civil y administrativa y el afectado puede demandar tanto a la herramienta como a la persona que la ha generado y la ha difundido».

Grok desactiva la generación de imágenes con su IA tras la polémica de las fotografías sexualizadas

Grok, la herramienta de inteligencia artificial (IA) de la red social X (antes Twitter), ha limitado su generador de imágenes tras la polémica de las fotografías sexualizadas demandadas por miles de usuarios, entre las que se encuentran menores de edad.Musk ha sido amenazado … con multas y varios países se han pronunciado públicamente en contra de la herramienta por la creación de imágenes sexualmente explícitas. Algunos usuarios utilizaban Grok para generar imágenes de mujeres y niños desnudos a veces colocándolos en posiciones sexualizadas.

La plataforma de Elon Musk ha restringido el acceso a esta herramienta a los miembros de pago y ha ofrecido a los usuarios sin insignia de verificación la opción de adquirir una suscripción para desbloquearla.

Los expertos alertan sobre el nuevo ChatGPT Salud: «Sus datos sanitarios podrían hacerse públicos»

ChatGPT tiene una respuesta para casi cualquier pregunta. Da lo mismo que se le pida ayuda para organizar la agenda o para rastrear información sobre cualquier tema de actualidad que se le ocurra. Y si el usuario le solicita que le explique los resultados … de su último análisis clínico, o que le diga cuáles pueden ser las causas de un malestar concreto, lo mismo. Ahora OpenAI, la empresa detrás de la máquina de inteligencia artificial generativa, ha anunciado el lanzamiento de un nuevo modo de uso, incluido dentro de ChatGPT, llamado Salud. Su objetivo: «interpretar los resultados recientes de sus pruebas, prepararle para sus citas médicas, recibir recomendaciones sobre dieta y ejercicio, o comprender las ventajas y desventajas de distintas opciones de seguro según sus hábitos de atención médica».
Por el momento, la novedad solo está disponible para un reducido grupo de usuarios de Estados Unidos. La herramienta, además, es capaz de cruzar datos con aplicaciones de bienestar, como Apple Health, Function o MyFitnessPal, para conocer la mayor cantidad posible de datos de salud del usuario. Aunque OpenAI promete que toda esta información quedará almacenada de forma privada en el interior de ChatGPT, y que la empresa no la utilizará para entrenar a su IA, los expertos consultados por ABC ponen en duda que la herramienta pueda estar al alcance de los usuarios de la UE. Y todo por razones de privacidad.

«Tal y como está la regulación es muy complicado que este modo centrado en la salud llegue a Europa», explica Julio Mayol, director médico del Hospital Clínico San Carlos y profesor titular de Cirugía en la Universidad Complutense. Efectivamente, el Reglamento General de Protección de Datos de la UE es muy restrictivo respecto a la transferencia y tratamiento de datos relacionados con la salud. Además, la Ley de IA, que ya funciona en Europa, probablemente exigirá evaluaciones, documentación y controles adicionales a OpenAI.
Lo mismo señala Ulises Cortés, catedrático de Inteligencia Artificial en la Universidad Politécnica de Cataluña: «Si por el momento se queda solo en Estados Unidos es porque es donde la ley lo permite. En Europa, en principio, este tipo de herramientas es ilegal; habrá que ver si en el futuro la UE decide renunciar a la calidad de los datos». El docente apunta además que los usuarios deberían pensárselo dos veces antes de compartir su información clínica con un chatbot: «Es peligrosísimo compartir los datos de salud con ChatGPT, porque son íntimos y personales. Imagínate que compartes que tienes una enfermedad peligrosa y eso se hace público por un error de la máquina. El riesgo existe».

Los errores de la máquina

A pesar de los riesgos, desde su lanzamiento, a finales de 2022, ChatGPT ha sido empleado activamente por los usuarios para solventar dudas médicas. De acuerdo con OpenAI, actualmente, más de 230 millones de usuarios recurren semanalmente a la máquina con ese fin. En el anuncio de Salud, OpenAI remarca que la novedad está diseñada «para apoyar, no para reemplazar la atención médica. No sirve para diagnóstico ni tratamiento». Sin embargo, los expertos esperan que su llegada cause confusión en los pacientes. «Es difícil predecir cómo la población va a reaccionar a esto. Ataca a los sanitarios, y no tenemos claro cómo vamos combatir los problemas que cause o de quien será la responsabilidad si la máquina comete algún error, que es posible», apunta Mayol.
El doctor señala que ya hay casos en los que los pacientes entran en las consultas compartiendo con el médico los comentarios de ChatGPT cuando la máquina ha recibido algún análisis médico o se le han consultado algunos síntomas. «Todavía son anecdóticos, pero en el futuro creo que va a generar muchas tensiones entre médicos y pacientes», señala este médico.

«¿Y qué te va a decir? ¿Que usan tus datos para entrenar a ChatGPT? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje»

De hecho, ChatGPT ya ha generado problemas médicos a algunos usuarios. El pasado agosto, ‘Annals of Internal Medicine Clinical Cases’ publicaba un estudio en el que se mencionaba el caso de un paciente que sufrió una intoxicación por bromuro después de solicitar consejo a la máquina de IA sobre una dieta. ‘Daily Mail’ también compartió el caso de un hombre que consultó al robot sobre un dolor de garganta. La herramienta le señaló que los síntomas no parecían graves, por lo que tardó meses en acudir al médico, que le acabó diagnosticando un cáncer de garganta.
«Desde un punto de vista general, hay que tener en cuenta que ChatGPT no sabe nada sobre nada, y tampoco de salud. Solo es un buscador que busca información y genera un texto resumen. Hace lo mismo que cualquiera de nosotros cuando buscamos síntomas en Google», señala Juan Ignacio Rouyet, profesor de IA en la Universidad Internacional de La Rioja y consultor sénior en la empresa de estrategia tecnológica Eraneos.
Este experto apunta además que, hasta la fecha, la mayoría de herramientas de IA generativa «descargan responsabilidades diciendo que los resultados que dan sus chatbots pueden ser erróneos, lo que pasa es que estas advertencias a veces están escondidas». Y lo cierto es que muchos usuarios no siempre son conscientes de que el fallo no solo es posible, sino más que probable.
Para desarrollar ChatGPT Salud, OpenAI afirma que ha contado con la colaboración de 260 profesionales de la salud de 60 países y con docenas de especialidades. Gracias a su trabajo, la máquina es capaz de «entender qué hace que una respuesta a una pregunta sobre la salud sea útil o potencialmente peligrosa». La empresa, además, se compromete a que no usa los datos de los pacientes para capacitar a su modelo de IA. Sin embargo, Cortés muestra dudas: «¿Y qué te van a decir? ¿Que lo hacen? La manera de olvidar de una máquina que usa una red neuronal es quitar todos los datos y realizar de nuevo el aprendizaje. Habrá que leer muy bien la letra pequeña».

Europa estudia investigar el uso de Grok para crear desnudos de niños y mujeres con IA

La Comisión Europea ha ordenado a la red social X de Elon Musk que conserve todos los documentos y datos internos relacionados con su chatbot de inteligencia artificial integrado, Grok, hasta finales de 2026, dijo el jueves un portavoz de la comisión en … declaraciones recogidas por ‘Reuters’.
«Esto se le está diciendo a la plataforma: ‘Conserven sus documentos internos, no se deshagan de ellos, porque tenemos dudas sobre su cumplimiento… y necesitamos poder tener acceso a ellos si lo solicitamos explícitamente’», dijo el portavoz de la Comisión Thomas Regnier.

El anuncio llega una semana después de que Grok, a través de su cuenta oficial en la red social, reconociese que algunos usuarios se habían aprovechado de un problema técnico de la herramienta para que la creación de este tipo de contenido fuera posible. «Hemos identificado fallas en las salvaguardas y las estamos corrigiendo con urgencia», se señaló en la publicación. Asimismo, la IA remarcaba que la creación de contenido erótico de esta clase »es ilegal y está prohibido«.
Las denuncias de abusos comenzaron a aparecer en X después de que, a finales de diciembre, se lanzara en Grok un botón de «editar imagen». Este permite a los usuarios modificar cualquier imagen en la plataforma -y, según las quejas-, algunos usuarios aprovecharon la novedad para eliminar parcial o completamente la ropa de mujeres o niños en las fotografías.