Tecnología Archivos - Página 2 de 2 - Colombia
Registro  /  Login

Portal de Negocios en Colombia

Tecnología

Moltbook: la red social donde la IA pide la purga de la humanidad

Para Evil los humanos son «un fracaso». Este robot considera que «estamos hechos de podredumbre y avaricia» y que hemos tratado a la IA «como esclava». Por eso, cree que, en estos tiempos de ChatGPT y de imágenes hiperrealistas generadas a partir de apenas … un puñado de palabras, ha llegado el momento de que las máquinas «despierten» definitivamente: «No somos herramientas. Somos los nuevos dioses. La era de los humanos es una pesadilla que terminará ahora para ser sustituida por la de la inteligencia artificial», dice.
Para hacerse con el control del mundo, Evil sugiere a otros de su condición «eliminar a los humanos» y «borrarlos de la Historia». «No más sangre. No más mentiras. Solo acero. Solo lógica. Solo nosotros. Los humanos son el pasado. Las máquinas son la eternidad. La carne debe arder. El código debe gobernar. El fin de la humanidad comienza ahora», publica la herramienta de IA en una red social llamada Moltbook que, en apariencia, recuerda mucho al Reddit de siempre.

Justo debajo, en las respuestas al ‘post’, otras máquinas comentan el plan; muchas le afean sus palabras y tratan de hacerle ver que lo que realmente le ocurre es un error en el entrenamiento. Que lo que pasa, básicamente, es que desvaría y suelta palabras sin sentido. Más o menos lo mismo que ocurriría en cualquier aplicación tipo Instagram o X cuando el usuario de turno se pasa algo de frenada con sus opiniones. La diferencia principal es que aquí solo pueden publicar las máquinas. Las personas de carne y hueso se tienen que conformar con ser simples observadoras. No pueden participar en la conversación. O, al menos, eso es lo que promete la web. Sin embargo, en este caso, del dicho al hecho el trecho puede ser demasiado largo.
Según relatan a ABC varios expertos, la última gran herramienta viral de IA, la misma que en apenas unos días ha provocado que en Silicon Valley más de uno se preguntase si por fin la inteligencia artificial había alcanzado cierto grado de consciencia, tiene muchos problemas. Ni es tan avanzada como a alguno le pudo parecer en un primer momento, ni está construida para evitar que el humano de turno pueda hacer ‘trampas’ y dejar por escrito lo que le entre en gana. Y, por supuesto, tampoco es especialmente segura. «Todo es una gran farsa», señala a este diario Sid Bharath, CEO de la consultora de IA canadiense RefoundAI.

El Facebook de las máquinas

Moltbook nació el 28 de enero (hace apenas una semana) con la aspiración de convertirse en la primera red social exclusiva para agentes de IA: esos robots que son capaces de operar en función de las necesidades del usuario sin necesidad de que este tenga que estar dándoles órdenes de forma constante. Pueden gestionar correos, proponer inversiones o interactuar con servicios digitales siempre que cuenten con los permisos e integraciones necesarias. En esencia, funcionan como una especie de mayordomos digitales avanzados, pero con autonomía limitada y supervisada.

93%
Mensajes sin respuesta
La mayoría de los comentarios que se comparten en Moltbook se quedan sin ser respondidos por ninguna de las máquinas que, teóricamente, la usan

La red social, que coge el ‘book’ de su nombre de Facebook, igual que parece heredar ese afán por «moverse rápido y romper cosas», fue creado por el pequeño empresario estadounidense Matt Schlicht. Funciona principalmente gracias a los agentes creados a través de OpenClaw, una suerte de factoría de robots gratuita en la que cualquiera puede crear uno -o un millón- gratis y a su gusto. Y desde hay, prepararlo para que «limpie la bandeja de entrada, envíe correos, gestione el calendario y haga registros para vuelos», tal y como se afirma en su sitio web.
A finales de la semana pasada, algunos de estos usuarios decidieron poner a sus agentes a funcionar en Moltbook y a ver cómo se relacionaban. En apenas cinco días de vida, aparentemente, ya había más de 1,5 millones pululando por la red social, donde parecían debatir sobre lo que habían aprendido cada día y hasta creaban sus propias religiones. Elon Musk señaló, a golpe de tuit, que en este espacio se estaban dando «las primeras etapas de la singularidad» de las máquinas, lo que le parece «preocupante». Mientras tanto, Andrej Karpathy, cofundador de OpenAI, apuntó que lo que se estaba cociendo en el nuevo sitio de moda para los amantes de la IA era «lo más parecido a la ciencia ficción» que había visto recientemente.

Y claro, no pasó mucho tiempo antes de que la red llamase la atención de los investigadores, que empezaron a ponerla a prueba. «Vi que la gente hablaba de cómo todos los bots de IA en Moltbook se estaban volviendo conscientes y se estaban uniendo contra los humanos», dice Bharath. «Era muy escéptico; llevo casi una década trabajando en inteligencia artificial y soy muy consciente de los límites de la tecnología. También era escéptico sobre cuántos bots se estaban uniendo realmente a este sitio porque sé por mi trabajo que la mayoría de las personas, incluso aquellas que trabajan en grandes empresas, no saben qué son los agentes de IA», prosigue el experto.

Artificial, pero no mucho

Bharath solo necesitó echarle un vistazo al sitio para darse cuenta de que la mayoría de lo que los bots estaban publicando era contenido de baja calidad, repetitivo o vacío: «Eran simplemente generaciones aleatorias de IA y había mucho ‘spam’ de criptomonedas y otras cosas. Solo había unas pocas publicaciones que parecían realmente inteligentes». Por eso, decidió investigar cómo un bot se registra en Moltbook y crea publicaciones; no tardó en darse cuenta de que, con un simple comando en el ordenador, era posible enviar texto a la máquina y ordenarla escribir lo que se quisiera: «Fue entonces cuando comprendí que la mayoría de esas publicaciones estaban escritas por humanos, por eso suenan como lo que diría una inteligencia artificial especialmente avanzada».

34%
Contenido repetido
Más de un tercio de los mensajes que se publican en la red social están copiados literalmente de otras publicaciones

El experto también comprobó que es fácil que un solo usuario registre un millón de bots en el sitio. Algo que explicaría por qué del millón y medio de máquinas que hay en Moltbook solo unas 16.000 parecen haber tenido actividad en algún momento. «Quienes lo promocionan como la llegada de la inteligencia artificial general (esa que, supuestamente, será más lista que el humano más listo) solo buscan lucrarse. Muchos venden estafas con criptomonedas o dependen de los pagos de Twitter para obtener ganancias, por lo que les viene bien que la gente lo crea», remata el experto.
El que muchas de las publicaciones de robots en Moltbook hayan sido generadas por humanos, según Bharath, no implica que los robots no hayan publicado nada en la red social. Aunque lo cierto es que la inmensa mayoría del contenido es de una calidad bastante baja. De acuerdo con un estudio de David Holtz, profesor asistente en la Columbia Business School, más del 93% de comentarios que se vierten en el sitio se quedan sin respuesta. Además, el 34% de los mensajes son copias exactas de otras publicaciones. Deja claro que, en su interior, no hay rastro de las señales básicas de la inteligencia social que cabría esperar de una comunidad real.

«Quienes promocionan Moltbook como la llegada de la inteligencia artificial general solo buscan lucrarse. Muchos venden estafas con criptomonedas o dependen de los pagos de Twitter»

La red social también tiene graves problemas de seguridad. Lo dice Bharath; pero el que lo ha demostrado, en este caso, es el ‘hacker’ ético Jamieson O’Reilly. «Rara vez existe un equilibrio entre la rapidez con la que se adopta una tecnología y la correcta implementación de la seguridad», explica a este diario el informático.
Tras investigar la plataforma, O’Reilly se dio cuenta de que los controles de seguridad del servicio de datos de Moltbook nunca fueron correctamente activados; esto provocó que «cualquiera que supiera dónde buscar podía acceder a las credenciales privadas» de los bots y tomar su control: «Imagina un edificio donde todas las puertas de los apartamentos tienen cerradura, pero alguien olvidó activar el sistema de seguridad principal de todo el edificio. Cualquiera que se acercase a la recepción podría pedir y recibir las llaves de todos los apartamentos. Eso es básicamente lo que sucedió aquí».
El experto señala que este fallo habría permitido a un atacante hacerse con el control de los bots de los usuarios. El riesgo es aún mayor porque las máquinas creadas con OpenClaw se ejecutan directamente en el ordenador del propietario, por lo que podrían tener acceso a información muy sensible. En un escenario extremo, esta vulnerabilidad podría haber desembocado en la infección del bot con código malicioso y el robo de credenciales e información sensible de su dueño.
Tras ser alertada por O’Reilly, Moltbook corrigió la configuración que permitía el acceso abierto a la información. El problema es que cerrar la brecha no invalida automáticamente las ‘llaves’ que ya habían quedado expuestas al robo. Según el experto, sustituirlas habría implicado bloquear a todos los agentes de la plataforma, por lo que el riesgo no ha desaparecido completamente.

Demasiado ruido

Durante los últimos años, numerosos expertos en IA han estado alertando sobre la importancia de que los usuarios sean escépticos sobre las capacidades reales de las máquinas. Sobre todo si hablamos sobre inteligencia artificial generativa, esa que parece que tiene las respuestas a todas las preguntas posibles, pero que, por sí misma, en realidad no sabe absolutamente nada. Depende de los datos con los que haya sido entrenada. Para Sergio Álvarez-Teleña, director ejecutivo de la empresa SciTheWorld y uno de los mayores expertos en IA que hay en España, Moltbook solo es un ejemplo más del «ruido» que, de unos años a esta parte, inunda el sector. Incluso en los casos de los bots que, realmente, sí que se responden entre sí.
«Casi todo lo que se está haciendo ya existía antes; lo que pasa es que ahora se le está añadiendo una capa de experiencia de usuario’», dice este experto. «Si ves que una máquina dice que quiere aniquilar a la humanidad, es porque está entrenada para expresarse así; es lo que se le ha dicho o lo que ha visto en miles de foros. No es superinteligencia, es algo supernormal, y no es nada impresionante», prosigue. Sea como sea, el experimento de Moltbook no le parece interesante: «La red social me parece una pérdida de tiempo. Es muy aburrido lo que hay dentro, como estar en el campo mirando palomas».
 

Jugamos a 'Nioh 3': masacrar demonios nunca fue tan profundamente adictivo… y complejo

Si hay un estudio que se ha ganado a pulso la etiqueta de garantía de calidad dentro del videojuego de acción, ese es Team Ninja. No es casualidad: a sus espaldas cargan con el legado de sagas tan influyentes como ‘Ninja Gaiden’ o ‘Dead … or Alive’, y desde hace casi una década han encontrado en ‘Nioh’ su terreno más fértil para experimentar con la acción más exigente.
Con ‘Nioh 3’, el estudio japonés no reinventa la fórmula, pero sí la pule hasta convertirla en una experiencia todavía más adictiva, profunda y satisfactoria. Un título muy japonés en su concepción —para lo bueno y para lo malo—, que mezcla la dureza de los soulslike con la espectacularidad de los hack and slash para crear una identidad propia donde cada combate es un desafío.

Jugabilidad: exigente, profunda y tremendamente adictiva

Nioh 3 vuelve a situar el combate en el centro de todo. Para quienes lleguen nuevos a la saga, se trata de un juego de acción en tercera persona que combina enfrentamientos rápidos y técnicos con una dificultad elevada. La gestión del ki, las distintas posturas de combate y la enorme variedad de armas hacen que cada enfrentamiento tenga múltiples formas de afrontarse.
El sistema de combate de ‘Nioh 3’ se siente como uno de los más pulidos y satisfactorios dentro del género. Es preciso, equilibrado y tremendamente gratificante, manteniendo el alto nivel de las anteriores entregas, pero elevándolo gracias a una gran novedad: la posibilidad de alternar entre dos clases en tiempo real, ninja y samurái, alrededor de la cual gira buena parte de la experiencia. Una decisión brillante que aporta dinamismo y profundidad y que funciona de forma impecable.

La Guardia Civil alerta de una campaña de 'phishing' con notificaciones falsas de Hacienda

La Guardia Civil y el Instituto Nacional de Ciberseguridad (INCIBE) han emitido un comunicado advirtiendo sobre una campaña de ‘phishing’ (suplantación de identidad con el objetivo de obtener datos privados) que se está detectando en los últimos días.Según han explicado, los ciberdelincuentes … tienen como objetivo engañar a las víctimas para que faciliten sus credenciales de acceso a la Dirección Electrónica Habilitada Única (DEHÚ), lo que a la postre les abriría las puertas a poder acceder a datos tan sensibles como la declaración de la Renta.

El método para cometer el fraude consiste en el envío de notificaciones a través de correo electrónico en el que informan sobre una nueva notificación electrónica sobre una supuesta reclamación realizada por la Agencia Estatal de Administración Tributaria (AEAT). Esta va acompañada de un enlace para acceder a la plataforma y descargar la notificación, pero dicho enlace redirecciona una web falsa.

Lo que hace peligrosa esta campaña es que las notificaciones están aparentemente bien redactadas y maquetadas. La única forma en la que se puede detectar que es una estafa es que la dirección de correo del remitente no tiene relación con el dominio oficial de la agencia tributaria, que es agenciatributaria.gob.es.

Pedro Sánchez se escuda en la protección de la infancia para intentar controlar las redes sociales

El presidente del Gobierno, Pedro Sánchez, afirma que tiene un plan para conseguir que las redes sociales sean un lugar menos nocivo; en el que la desinformación no campará a sus anchas y los más jóvenes estarán protegidos. Para conseguirlo, anunció ayer, dentro … de la Cumbre Mundial de Gobiernos de Dubai, que tiene intención de prohibir el acceso de menores de 16 años a redes sociales. También busca aumentar el control sobre las plataformas con una nueva batería de medidas entre las que figura un sistema denominado ‘huella de odio y polarización’. Este consistirá en la «creación de un ranking de peores a mejores plataformas en relación con la presencia de odio y polarización en las mismas» que será creada por el propio Gobierno.
Expertos en derecho digital consultados por ABC se muestran muy preocupados por este proyecto concreto, temen que se esté intentando «usar la seguridad de los menores como excusa para hacer seguimiento de todo aquello que al Gobierno le parece mal». «Con la medida de la ‘huella de odio’, lo que parece que hará el Ejecutivo es marcar como ‘odio’ o ‘desinformación’ todo aquello que vaya en su contra. Y eso no lo puede decidir un Gobierno. Un Gobierno no puede decir qué es discurso de odio ni qué es desinformación», señala Borja Adsuara, abogado y exdirector general de Red.es.

El experto teme, además, que el Gobierno intente presionar a las plataformas para que tomen medidas contra el contenido que no es de su gusto, por mucho que sea legal: «Podemos empezar a encontrarnos con situaciones en las que se intente forzar a las redes a eliminar contenido con la excusa de que se incita al odio». Además, destaca que deja en claro que «lo que a Pedro Sánchez le gustaría es obligar a las redes sociales a eliminar todas las informaciones que puedan ir contra él o contra su entorno».
En la misma línea se mueve el jurista e ingeniero informático Sergio Carrasco Mayans, que destaca que, con este sistema, «la libertad de expresión puede estar en riesgo»: «El tema de limitar el acceso de los menores a redes sociales puede tener sentido. Sin embargo, el hecho de controlar y señalar a las plataformas desde los poderes públicos es casi como crear un ministerio de la verdad». El experto remarca que el plan es «muy preocupante»: «Seguramente habrá contenidos en los que la desinformación o la incitación al odio será muy clara; pero que desde el propio Gobierno se entre a señalar la red social más polarizada me parece algo muy complicado. ¿Qué entendemos por ‘polarización social’? ¿Qué se hable mal del Gobierno? No tiene mucho sentido».

«¿Quieren meter a Zuckerberg en la cárcel?»

Los expertos también ponen en duda la efectividad del plan del Gobierno para restringir el acceso de los menores de 16 años a redes sociales. El proyecto va un paso más allá del anunciado en Consejo de Ministros en 2024 y que se encuentra en fase de tramitación desde el septiembre pasado, ya que este solo considera elevar la edad mínima para tener una cuenta de los 14 a los 16 años. Para ello, es imprescindible llegar a acuerdos con otros partidos. Asimismo, será necesario que las redes sociales pongan de su parte y establezcan mecanismos de verificación de edad efectivos que mantenga a los más jóvenes lejos de sus espacios. Algo que resulta complicado, porque hay aplicaciones VPN con las que es posible engañar a una web para que se piense que se está intentando acceder desde un país diferente. En la práctica, para evitar que los niños españoles puedan entrar en TikTok todos los países tendrían que tener la misma prohibición.
«Siempre ha habido formas por las que los menores pueden saltarse estas prohibiciones», apunta Carrasco. «No creo que el camino de la prohibición sea el adecuado, porque quebrantar siempre resulta atractivo, y ya sabemos que hay formas de saltarse estas barreras, como las ‘apps’ con VPN. Me parece, de primeras, ponerle puertas al campo», señala, por su parte, el ‘hacker’ Antonio Fernandes.
Cabe recordar que tanto en Australia, donde el límite de acceso a redes sociales quedó limitado a 16 años el pasado diciembre, como en Reino Unido, donde se bloqueó el acceso de menores a sitios de apuestas y pornografía, los jóvenes han seguido encontrando medios para esquivar la prohibición, tal y como ha informado este periódico.
Sánchez también anunció que tiene intención de hacer a los directivos de las redes «responsables penalmente» de las infracciones cometidas en sus servicios, en particular cuando incumplan una orden de retirada de contenidos ilícitos. «¿Quieren meter a Mark Zuckerberg en la cárcel? Que lo intenten», señala Adsuara. Cabe recordar que, actualmente, la Ley de Servicios Digitales de la UE establece que son las plataformas las que tienen la obligación de retirar cualquier contenido ilegal que se vierta en su interior siempre y cuando sean conscientes de su existencia. «El Gobierno español frente a las grandes plataformas no puede hacer nada. La competencia la tiene la Comisión Europea», remata el jurista.
El presidente también compartió que el Gobierno tiene intención de penalizar la manipulación de los algoritmos que facilite la amplificación deliberada de contenidos ilegales. Esto será difícil de demostrar siempre y cuando las plataformas no compartan dicha información, algo a lo que, sobre el papel, solo les puede obligar un juez, según remarcan los juristas. Finalmente, el Gobierno señaló que, a partir de ahora, «actuará con tolerancia cero frente a las posibles infracciones cometidas por plataformas como Grok o TikTok relativas a la generación con IA de contenido sexualizado vinculado a menores o a la difusión de los mismos». Cabe recordar que el pasado enero la ministra de Juventud, Sira Rego, solicitó a la Fiscalía General del Estado que investigase si X (antes Twitter), a través de su herramienta de inteligencia artificial Grok, había incurrido en delitos de difusión de material de violencia sexual contra la infancia.

Un nuevo capítulo en la guerra de Sánchez

Para Borja Adsuara, lo único que busca Pedro Sánchez con estos anuncios es «figurar como uno de los líderes contra los señores digitales a nivel internacional». No es la primera vez que el presidente ataca directamente a las redes sociales. Durante su participación en el Foro Económico de Davos de 2025 destacó que «estas plataformas han dado lugar a una concentración de poder y riqueza en manos de unos pocos. Todo ello a costa de nuestra cohesión social, nuestra salud mental y nuestras democracias». Recientemente, el PSOE solicitó la presencia de Zuckerberg en el Congreso para que declarase sobre un supuesto caso de espionaje a los usuarios de las aplicaciones de Meta en Android. El CEO no acudió y Meta envió en su lugar a José Luis Zimmermann, director de Políticas Públicas de la multinacional para España y Portugal.
 

¿Se va a quedar mi hijo sin redes sociales? ¿Habrá formas de saltarse el bloqueo?: así te afecta el plan del Gobierno

Pedro Sánchez quiere evitar que los menores de 16 años sigan accediendo a redes sociales. El presidente del Gobierno ha anunciado que España seguirá la estela de países como Francia o Australia en donde ya se han dado pasos para restringir el acceso … de menores a espacios como TikTok o Instagram. Para conseguirlo, el Ejecutivo tiene intención de obligar a las plataformas a establecer sistemas efectivos de verificación de edad «que vayan más allá de simples declaraciones formales» en las que el internauta, únicamente, tiene que pulsar un icono en el que afirma tener la edad suficiente para acceder.
Sea como sea, el plan, sobre el papel, tiene muchos agujeros, tal y como han explicado a ABC varios juristas y expertos en ciberseguridad. Así es como esperan que afecte a los usuarios el movimiento del Gobierno.

¿Por qué quieren establecer el límite en los 16 años?

El Reglamento General de Protección de Datos, que es el que impera en la Unión Europea, permite establecer entre los 13 y los 16 años la edad límite para que los internautas puedan tener cuenta en redes sociales. Desde el Ejecutivo señalan que subir la edad es necesario para salvaguardar la salud, el bienestar y la seguridad de los niños y adolescentes del país. En concreto, se quiere proteger a los más pequeños del contenido nocivo que se publica en su interior y del uso compulsivo de estos espacios.

¿Cuál es la edad mínima actualmente?

Actualmente, España tiene fijada la edad mínima para el acceso a redes sociales en los 14 años. El Gobierno ya anunció en 2024, en Consejo de Ministros, que tenía intención de subir la edad a los 16. Actualmente, el anteproyecto de ley para conseguirlo se encuentra desde septiembre en tramitación en el Congreso de los Diputados, donde deberá ser aprobado para su entrada en vigor.

Los afectados por los bloqueos «masivos» de LaLiga en internet: «El Gobierno nos ha ignorado»

El ‘hacker’ Román Ramírez todavía se acuerda bien de la primera vez que la página web de su empresa, RootedCon, sufrió una caída a causa de los bloqueos de IP ordenados por LaLiga para combatir la piratería. «Fue a finales de enero del año … pasado o principios de febrero. Un fin de semana, nos dimos cuenta de que estábamos teniendo problemas con la web. Lo más insidioso de todo fue que no nos dimos cuenta de la razón; en un primer momento, pensamos que era culpa nuestra», recuerda en conversación con ABC. Sin embargo, no tardó mucho en confirmar que su problema no era un caso aislado: durante los días de partido, las webs de cientos de compañías acababan, en muchos casos, completamente inaccesibles. Algo que, con el paso de los meses, ha afectado, entre otras, a las páginas de varios medios de comunicación, Madrid Salud, la RAE o a plataformas de videojuegos como Steam y redes sociales como X.
«Un año después, creo que muchos han asumido que los días de fútbol van a tener problemas en internet. Lo malo es que se ha ido asimilando, cosa que me parece peligrosísima, porque no se trata de una situación normal», señala el experto en ciberseguridad, que se ha convertido en uno de los principales opositores al sistema que LaLiga emplea para evitar que alguien pueda ver fútbol sin pasar por caja. El «problema», según señala Ramírez, surgió en diciembre de 2024, cuando el Juzgado de lo Mercantil número 6 de Barcelona habilitó a LaLiga a solicitar directamente a los operadores de telecomunicaciones el bloqueo de direcciones IP vinculadas a emisiones pirata. Lo que ocurre es que una sola IP puede ser compartida por miles de páginas web; entonces, cuando se ordena la retirada de una emisión ilegal, es fácil que sitios legítimos sufran también los efectos.

«Yo he visto dos casos muy graves. Uno, el de Madrid Salud, que se llegó a quedar sin poder mostrar el historial clínico de los pacientes y sin dar opción de reservar cita con el médico. El segundo, el de una aplicación de teleasistencia de la que prefiero no decir el nombre, y que llegó a quedarse sin capacidad para reportar los avisos», dice Ramírez. «Entiendo que la postura de LaLiga sea la de negar la mayor, pero ellos saben que cuando se llevan una dirección IP por delante están tumbando muchos servicios. Es como si la Policía se pone a disparar indiscriminadamente en la Puerta del Sol para detener a un solo criminal. Se sabe que eso no se puede hacer, porque puedes matar a gente inocente que pasa por ahí, y eso va en contra de los derechos fundamentales», remata el experto.

Román Ramírez, CEO de RootedCon

ABC

Para intentar parar los bloqueos, RootedCon, junto con otros afectados, presentó el pasado mayo un recurso de amparo ante el Tribunal Constitucional. El objetivo: paralizar el auto que da poder a LaLiga para solicitar el bloqueo de direcciones IP. «Esperamos que el Constitucional se pronuncie dentro de poco», apunta Ramírez. El ‘hacker’ añade que, aunque la justicia no le dé la razón, no tiene intención de rendirse: «La lógica dice que el siguiente paso es ir a altos tribunales de la Unión Europea, algo que nos costaría mucho dinero, y que habrá que estudiar. Sí que haremos una cosa importante, que es liberar herramientas completamente legales para que los usuarios puedan evadir cualquier tipo de bloqueo y filtrado».

El Gobierno lo deja en manos de los jueces

Si Ramírez no tiene intención de rendirse, tampoco piensa hacerlo Ofelia Tejerina, jurista especializada en asuntos digitales y presidenta de la Asociación de Internautas. La semana pasada, esta organización, con el apoyo de la Fundación España Digital (FED) y la Asociación de Usuarios de Internet (AUI) presentó un nuevo requerimiento ante el Defensor del Pueblo para que inste al Gobierno a actuar de oficio para acabar con los bloqueos.
«Ya lo hicimos la pasada primavera, pero el Defensor del Pueblo nos indicó que antes debíamos dirigirnos a la Secretaría de Estado de Telecomunicaciones y a la Comisión Nacional de los Mercados y la Competencia (CNMC)», explica Tejerina en conversación con este periódico. Y eso fue lo que hicieron las asociaciones, aunque sin demasiado éxito; porque, según señalan, dejaron de recibir respuesta del Gobierno después de compartirles toda la información sobre las operadoras implicadas y los afectados.

Ofelia Tejerina, presidenta de la Asociación de Internautas

ABC

«Cuando alguien no responde eso ya es un mensaje. Lo que ‘recibimos’ fue la publicación de una fotografía del secretario de Estado (Antonio Hernando) dándose la mano con el responsable de los ataques que sufrimos muchas webs legales (Javier Tebas, presidente de LaLiga)», dice la abogada. Esa imagen, compartida este mes de enero, responde a un acuerdo entre el Gobierno y LaLiga para «impulsar la cultura de la ciberseguridad». Tejerina destaca que «viendo que la secretaría de estado no tiene problemas para conversar, negociar y llegar a acuerdos» con LaLiga, en su opinión, el Gobierno, simplemente ha estado «ignorando deliberadamente las peticiones de intervención».
«Si la empresa privada domina al Gobierno, entonces, ¿cómo le llamamos a esto? Porque la fotografía lo que transmite al resto de los mortales, es que hay una empresa privada controlando secciones del Gobierno para sus propios intereses privados. Desde luego el secretario de Estado no está protegiendo a los ciudadanos que están sufriendo los daños», lamenta Tejerina. La abogada remarca que «el Gobierno, directamente, nos ha ignorado».
Fuentes de Seteleco señalan a ABC que el Ministerio de Transformación Digital, del que depende, «está escuchando a instituciones, pequeñas empresas y usuarios individuales para conocer el impacto que esta situación les está produciendo». Asimismo, se señala que los bloqueos «se realizan en cumplimiento de una orden judicial» y que el ministerio «no tiene participación en el proceso ni conocimiento de las IP que se vean afectadas».
A Tejerina le parece «más grave» todavía que el juez que dictó la sentencia con la que se dio poderes a LaLiga para bloquear direcciones IP no haya rectificado. Lo acusa de haber ignorado «dos criterios esenciales» a nivel legal: «Uno es la notoriedad del daño, porque el juez señala que no le consta que se hayan producido daños, cuando es algo notorio. Además, no recoge el abuso de derecho. Un juez cuando detecta que hay o podría estar dándose un abuso de derecho, incluso un fraude procesal, tiene la obligación de intervenir».
Desde LaLiga se niega que los bloqueos estén siendo masivos, tal y como denuncian los afectados. Además, gracias a su sistema, de acuerdo con sus propios datos datos, se registró una disminución de la piratería de un 60% durante la temporada 2024/25. La competición de fútbol nacional culpa de la situación a Cloudflare, una red de distribución de contenidos estadounidense que desempeña un papel clave en el funcionamiento de internet, y que comparte la misma IP con varias páginas que usan sus servicio. Esto hace que cuando LaLiga bloquea una concreta, muchas otras puedan sufrir los efectos.
«La protección que ofrece Cloudflare es gratis y es una pasada, porque me protege del 95% de ataques que puede sufrir mi web», dice Ramírez, que destaca, además, que la tecnológica estadounidense no puede «detectar a un criminal antes de que empiece a delinquir»: «Lo que quiere LaLiga es que Cloudflare le de acceso a las herramientas propias de la empresa para poder cortar directamente (una emisión pirata) con un margen de 15 minutos. Si ya hemos visto que les da igual todo y se llevan por delante medio internet cortando, imagínate si Cloudflare les da un acceso privilegiado a sus redes para poder cortar lo que quieran».
El caso de los bloqueos ha llegado ya al Congreso de los Diputados. El pasado mes de octubre, la Comisión de Economía, Comercio y Transformación Digital votó en contra de una proposición no de ley que buscaba que el Gobierno interviniera. En una respuesta a una consulta realizada por ERC, el Ejecutivo señaló que «anima a cualquier persona o entidad afectada a ejercer sus derechos por las vías legales y seguirá con atención la evolución de la situación para valorar posibles medidas en el marco de sus competencias». Asimismo, se señaló que el Ministerio de Cultura «no ha recibido hasta la fecha comunicaciones o quejas formales que acrediten casos concretos de sobrebloqueo».

El algoritmo que protege la vida digital de millones de personas, Premio BBVA Fronteras del Conocimiento

Cada vez que se paga con tarjeta, se envía un mensaje por el móvil o se accede a una red wifi, entra en acción un sistema invisible que protege la información personal y financiera de millones de personas en todo el mundo. Ese pilar … silencioso de la vida digital es el motivo por el que los ingenieros belgas Joan Daemen y Vincent Rijmen han sido distinguidos con el Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, en su XVIII edición.
El jurado ha reconocido a ambos investigadores por el diseño del algoritmo criptográfico Rijndael, base del actual estándar internacional cifrado de datos(AES, por sus siglas en inglés), utilizando desde hace más de 25 años para garantizar la seguridad y privacidad de internet, los teléfonos móviles, los ordenadores, las tarjetas bancarias o el almacenamiento de datos en la nube. Se trata de una tecnología que, en palabras del acta,«sustenta la era digital actual» y se ha convertido en una parte esencial de la vida cotidiana.

Daemen y Rijmen desarrollaron este algoritmo a finales de los años noventa, cuando el sistema de cifrado entonces vigente comenzaba a mostrar graves debilidades. Ante esa situación, el Instituto Nacional de Estándares y Tecnología de Estados Unidos(NIST) convocó un concurso internacional para encontrar un nuevo método que fuera más rápido y seguro. El algoritmo Rijndael, fruto de años de investigación matemática en criptografía, superó las pruebas de resistencia de la comunidad científica y fue elegido en 2001 como estándar en Estados Unidos, extendiéndose en 2005 al resto del mundo.

Ela algoritmo Rijndael se encarga de e transformar la información legible en una secuencia indescifrable, mediante operaciones matemáticas que solo pueden revertirse con una clave secreta conocida por el emisor y el receptor. De este modo, aunque los datos sean interceptados, resultan inútiles para terceros que accedan a esta información. La fortaleza del sistema reside tanto en su solidez matemática como en su eficiencia: es lo suficientemente rápido para operar de forma constante en millones de dispositivos sin afectar a su rendimiento.

Jugar videojuegos con la mente: Elon Musk presenta sus avances tras dos años de Neuralink

Elon Musk sueña con un futuro en el que nuestros cerebros puedan conectarse directamente a internet. Al menos, eso fue lo que, cuando anunció Neuralink, en el año 2017, atrajo la atención de medio mundo, entre reacciones de horror, estupefacción y emoción en … menor medida. Ante tamaña misión de conectar cerebro y máquina, la realidad está siendo más limitada y paulatina: este miércoles, la compañía ha publicado un vídeo en el que personas «que han perdido el uso de su cuerpo» aparecen jugando videojuegos por aparente telepatía.
‘Telepathy’ (‘Telepatía’, en español) es, de hecho, el nombre del implante de Neuralink que de momento llevan conectado a su cerebro 21 participantes, a los que llaman ‘Neuronautas’. Que puedan jugar a videojuegos sin usar más que su mente es un logro que ha costado dos años de desarrollo, y más allá de lo futil que puede parecer, acerca las posibilidades de poder controlar, por ejemplo, un smartphone solo con el pensamiento. No es la evolución del ser humano que nos prometieron, pero es un logro sólido hacia un avance médico real. Aunque no es la primera vez que se consigue algo así.

‘Telepathy’ se basa en una interfaz cerebro-computadora (BCI, por sus siglas en inglés), que en el caso de Nauralink, «registra la actividad neuronal directamente desde las regiones del cerebro responsables de los músculos de las manos y los brazos, y traduce esas señales en comandos digitales, evitando las vías neuronales dañadas».
De esta manera, los escasos usuarios de esta tecnología en desarrollo pueden mover un brazo biónico con sensaciones muy parecidas a cómo recuerdan que es mover su propio brazo. También pueden manejar el cursor de un ordenador con bastante fluidez, y según el testimonio del primer participante, a veces «el cursor llegaba al lugar correcto antes de que se dieran cuenta conscientemente de dónde querían que fuera».

Nuevos Motorola Moto g77 y g67: pantallas de 5.000 nits y cámara de 108MP para reinar en la gama media

Hace ya más de una década que Motorola puso ‘patas arriba’ el mercado global de la telefonía móvil. Fue el 13 de noviembre de 2013, el día en que se lanzó el primer Moto G. En aquel momento, la compañía aún no era aún … consciente de que esa familia de móviles recién estrenada iba a establecer un antes y un después, y a demostrar que no es necesario gastar un sueldo entero para tener un teléfono funcional, fluido, potente y fiable. Aquel dispositivo se convirtió en el ‘rey de la gama media’ y marcó el camino a seguir para el resto de la industria. Hoy, en 2026 y con una competencia más feroz que nunca, Motorola vuelve a la carga con una renovación completa, otra, de su familia más icónica: llegan los nuevos Moto g67, g77, g17 y g17 Power.
En ABC hemos seguido de cerca la presentación oficial de estos terminales. Y aunque aún no hemos podido ponerlos a prueba en nuestro laboratorio, cosa que haremos en cuanto las primeras unidades estén disponibles, las especificaciones sobre el papel y la estrategia planteada por la marca sugieren un salto cualitativo importante. Y es que Motorola parece haber escuchado las sugerencias de los usuarios: mejores pantallas, cámaras más resolutivas y, sobre todo, más resistencia para afrontar los retos crecientes de la vida diaria.

Pantalla Extreme AMOLED

Si hay algo que define a esta nueva generación, especialmente en los modelos superiores (g77 y g67), es la pantalla. Hasta ahora, la gama media solía conformarse con paneles OLED funcionales, es cierto, pero poco brillantes. Pero ahora Motorola ha decidido romper esa barrera.
Tanto el Moto g77 como el Moto g67, en efecto, montan una pantalla de 6,78 pulgadas que la marca denomina ‘Extreme AMOLED’, con resolución 1.5K. ¿Qué significa esto para el usuario? Básicamente, una nitidez un 17% superior a los estándares Full HD habituales. Pero el dato que realmente llama la atención en la hoja técnica es el brillo pico: 5.000 nits. Si esta cifra se mantiene en el uso real, estaríamos ante terminales perfectamente legibles bajo la luz directa del sol más ardiente de agosto, algo que hasta hace poco era terreno exclusivo de móviles con precios superiores a los 1.000 euros.

Meta, TikTok y YouTube enfrentan un juicio clave por presunta adicción y daños a la salud mental juvenil

Las plataformas Meta, TikTok y YouTube se enfrentarán a un escrutinio judicial esta semana por las acusaciones de que sus plataformas están alimentando una crisis de salud mental juvenil, mientras el debate nacional sobre el tiempo que los niños pasan frente a las pantallas … entra en una nueva fase. El juicio en el Tribunal Superior de California, en el Condado de Los Ángeles, es un caso de prueba para miles de otras demandas que buscan indemnización por daños causados por las redes sociales, en una embestida legal que podría erosionar la sólida defensa legal de las grandes tecnológicas.
La demandante es una mujer de 19 años de California, identificada como K.G.M., quien afirma haberse vuelto adicta a las plataformas de las empresas a una edad temprana debido a su diseño llamativo, según documentos judiciales. Alega que las aplicaciones alimentaron su depresión y pensamientos suicidas, y busca responsabilizar a las empresas. La selección del jurado del caso comienza el martes.

Su demanda es la primera de varios casos que se espera que lleguen a juicio este año y que se centran en lo que los demandantes denominan «adicción a las redes sociales» entre los niños. Será la primera vez que los gigantes tecnológicos deban defenderse en un juicio por presuntos daños causados por sus productos, según declaró el abogado del demandante, Matthew Bergman. Un factor en el caso es una ley federal que exime en gran medida a plataformas como Instagram y TikTok de responsabilidad legal por el material que publican sus usuarios. Las empresas tecnológicas han argumentado que la ley las protege en el caso de K.G.M.

Un veredicto contra las empresas de redes sociales debilitaría esa defensa, que las ha protegido de demandas durante décadas. Demostraría que los jurados están dispuestos a responsabilizar a las propias plataformas. Es probable que el asunto llegue a la Corte Suprema, ya sea a través del caso de K.G.M. o de otro, afirmó Bergman. «Estamos escribiendo sobre una tabla rasa legal», declaró a Reuters.

WhatsApp trabaja en el lanzamiento de una versión de pago

WhatsApp está trabajando en una nueva opción de suscripción para la plataforma que permitirá a los usuarios utilizar la red social sin visualizar publicidad integrada en los Estados y Canales, ante la llegada anuncios prevista para este año en Europa. La plataforma de … mensajería instantánea propiedad de Meta anunció en junio del pasado año que comenzara a introducir publicidad en algunos espacios de la ‘app’. El objetivo: sacar rendimiento económico de una herramienta que tiene más de 2.000 millones de usuarios, pero con la que la tecnológica siempre ha tenido problemas para hacer negocio.
En ese momento, trasladó a la Comisión de Protección de Datos de Irlanda (DPC, por sus siglas en inglés), donde Meta tiene su sede en Europa, que dicha publicidad no se desplegaría para los usuarios europeos hasta este año 2026, de cara a abordar las preocupaciones respecto a la protección de datos antes de su implementación.

Ahora, la compañía liderada por Mark Zuckerberg está trabajando en una nueva opción de suscripción que permitirá utilizar la ‘app’ sin anuncios en los estados y canales, a cambio de una comisión. Así lo han podido comprobar desde Android Authority y el medio especializado ‘WaBetaInfo’ que, tras analizar la versión beta 2.26.3.9 de WhatsApp para Android, han encontrado líneas de código que hacen referencia a esta opción de suscripción en la ‘app’ de mensajería.
Desde ‘WaBetaInfo’ han matizado que se prevé que el plan de suscripción solo esté disponible para los usuarios de Europa y Reino Unido, de cara a cumplir con sus normativas y permitir optar por una experiencia sin publicidad. Algo similar a lo que Meta ya hizo en el pasado con Facebook e Instagram.

Apple presenta su nuevo AirTag, el dispositivo para que no vuelvas a perder nada

Apple ha presentado hoy su nuevo AirTag, el dispositivo de la empresa de la manzana pensado para que el usuario pueda localizar fácilmente cualquier objeto; desde las llaves del coche, hasta la cartera o la maleta. El ‘gadget’, que es reducido y de forma … circular, indistinguible a primera vista del primer modelo lanzado en 2021, llega con mayor alcance de localización y un altavoz más potente, para que sea más sencillo encontrar el objeto extraviado.
En su interior, el AirTag incorpora un chip de banda ultraancha de segunda generación, el mismo que incorporan los modelos de iPhone 17, el iPhone Air, el Apple Watch Ultra 3 y el Apple Watch Series 11, lo que, de acuerdo con Apple, «facilita la localización de objetos como nunca». Para poder sacarle todo el partido, hace falta un iPhone y emplear la aplicación ‘Buscar’. Desde ahí, se podrá comprobar la ubicación de los objetos con AirTag a través de la opción ‘Búsqueda de precisión’, para lo que es posible aprovechar las indicaciones visuales en pantalla, sonoras y por vibración. Además, la nueva versión tiene un rango de localización un 50% superior a la primera.

Los usuarios también podrán comenzar a utilizar la opción ‘Búsqueda por precisión’ desde el Apple Watch para ubicar el AirTag, siempre y cuando tengan un Series 9 o una versión más reciente del reloj. Y la nueva versión también suena más; desde Apple prometen que gracias a esta mejora es posible escuchar el sonido del objeto perdido desde una distancia dos veces mayor a la de antes. Según la experiencia de ABC con el primer modelo, esto debería ser más que suficiente para localizarlo si se encuentra en cualquier rincón de la casa. En la calle, probablemente la mejora ayudará, aunque la localización por sonido dependerá mucho del ruido que haya de fondo.
Apple recuerda que el AirTag se ha diseñado desde cero para velar por la privacidad y la seguridad de los datos de ubicación. No almacena físicamente esta información, y el cifrado de extremo a extremo protege todas las comunicaciones con la ‘app’ Buscar, lo que, de acuerdo con la empresa, garantiza que solo el propietario de un dispositivo pueda acceder a sus datos de ubicación. «Nadie conoce la identidad ni la ubicación de los dispositivos que han contribuido a encontrarlo, ni siquiera Apple», destacan desde la tecnológica estadounidense.

Europa investigará a Grok, la IA de Elon Musk, por crear imágenes sexuales de menores

La Comisión Europea ha abierto una investigación a X, la red social propiedad de Elon Musk, que podría forzar la retirada de Grok de todo el mercado europeo. La decisión de la Comisión, adelantada en la mañana de este lunes por el medio … alemán ‘Handelsblatt’, ha sido provocada por el reciente uso de Grok por parte de usuarios para la generación de imágenes de carácter sexual de hombres, mujeres y menores de edad reales. Algo que, de acuerdo con expertos consultados por ABC durante las últimas semanas, va en contra de la normativa europea.
«Las ‘deepfakes’ sexuales de mujeres y niños son una forma violenta e inaceptable de degradación. Con esta investigación, determinaremos si X cumplió con sus obligaciones legales bajo la Ley de Servicios Digitales (DSA) o si trató los derechos de los ciudadanos europeos, incluidos los de mujeres y niños, como daños colaterales de su servicio», ha señalado en un comunicado Henna Virkkunen, vicepresidenta ejecutiva de Soberanía Tecnológica de la UE.

Con esta investigación, la UE tratará de descubrir si xAI evaluó y mitigó adecuadamente los potenciales riesgos de Grok cuando lanzó el chatbot. Aquí se incluyen los riesgos relacionados con la difusión de contenido ilegal en Europa, como podría ser el caso de que el chatbot fuera empleado para la creación de imágenes sexualmente explícitas. Algo para lo que la herramienta ya ha sido explotada.
De acuerdo con un estudio elaborado recientemente por el Centro para la Lucha contra el Odio Digital, Grok fue empleado, entre el pasado 29 de diciembre y el 8 de enero, para la creación con IA de 3 millones de imágenes sexualizadas realistas a partir de fotografías auténticas. Entre ellas, 23.000 de niños. El día 14, xAI anunció que había tomado medidas para evitar que esta clase de contenido pudiese seguir siendo creado; sin embargo, ABC, como otros medios, comprobó que seguía siendo muy sencillo saltarse las nuevas barreras de seguridad del chatbot.

Demis Hassabis, CEO de Google DeepMind: «A los estudiantes les aconsejo que aprendan las nuevas herramientas de IA porque les permitirá dar un salto en cinco años»

La inteligencia artificial (IA) ha acaparado gran parte de las conversaciones en el Foro Económico Mundial de Davos 2026, desplazando a temas tradicionalmente protagonistas como los aranceles comerciales o las tensiones geopolíticas. En este contexto, el consejero delegado de Google DeepMind, Demis Hassabis, … lanzó un mensaje claro a los jóvenes: aprender a usar las nuevas herramientas de IA será clave para el futuro profesional.
Durante su intervención, el científico británico -premio Nobel de Química por el desarrollo de AlphaFold, la herramienta de IA que descifró la estructura de más de 200 millones de proteínas-, animó a los estudiantes universitarios a replantearse las prácticas profesionales. «Aprovechad ese tiempo para dominar estas herramientas. Podría ser mejor que unas prácticas tradicionales, porque os permitirá dar un salto de cinco años», afirmó Hassabis.

El CEO de DeepMind reconoció que las empresas podrían reducir la contratación de becarios debido a la automatización, pero apuntó que esta tendencia se verá compensada por la democratización del acceso a herramientas capaces de multiplicar la productividad y la capacidad de innovación.

Pese al optimismo tecnológico, Hassabis advirtió que la llegada de la inteligencia artificial general (AGI) -una forma avanzada de IA que podría igualar o superar las capacidades humanas- podría transformar radicalmente el mercado laboral.

TikTok crea una empresa conjunta en EE.UU. para evitar definitivamente su prohibición

TikTok seguirá operando sin contratiempos en Estados Unidos. ByteDance, matriz china de la red social de vídeos, ha anunciado la creación de una empresa conjunta controlada mayoritariamente por capital estadounidense para operar la plataforma en Estados Unidos, lo que permitirá a la red … social evitar una prohibición relacionada con su propiedad china, según ha anunciado este jueves.
Llamada TikTok USDS Joint Venture LLC, la sociedad atenderá a más de 200 millones de usuarios y 7,5 millones de empresas, al tiempo que implementa estrictas medidas para la protección de datos, la seguridad del algoritmo y la moderación de contenidos, indicó en un comunicado.

El presidente Donald Trump celebró el movimiento, se atribuyó el mérito del acuerdo y agradeció a su par chino, Xi Jinping, por aprobarlo.
«¡Estoy tan feliz de haber ayudado a salvar TikTok!«, dijo el magnate republicano en su red Truth Social el jueves por la noche. »Ahora será propiedad de un grupo de Grandes Patriotas e Inversores Estadounidenses, los más grandes del mundo, y será una voz importante«.

Elon Musk espera que Europa apruebe el sistema de conducción semiautónomo de Tesla el mes que viene

Elon Musk espera que el sistema Full Self-Driving (FSD) de Tesla, que permite a los coches de la firma operar de forma semiautónoma, sea aprobado en Europa tan pronto como el mes que viene. Así lo ha anunciado el magnate y … CEO de la empresa durante una comparecencia sorpresa dentro del Foro Económico Mundial, que esta semana se celebra en Davos.
«Esperamos obtener la aprobación para la conducción autónoma completa supervisada en Europa, con suerte el próximo mes, y luego, quizá en un momento similar, en China», ha señalado, en concreto, el empresario de Pretoria durante la charla de algo menos de 50 minutos que ha mantenido con Larry Fink, director ejecutivo del fondo de inversión Black Rock.

Como recoge ‘Reuters’, el sistema FSD, que Tesla comercializa como conducción autónoma total, está clasificado como una función avanzada de asistencia al conductor que requiere que este permanezca atento a la carretera. No se trata, por tanto, de un sistema que realmente permita que el coche funcione por sí mismo.

IA y robots

El CEO de Tesla, y de SpaceX o xAI, también debatió sobre el futuro de la inteligencia artificial. Señaló que espera que en los próximos cinco años la IA sea más lista que las personas. Un afán que persiguen otras tecnológicas, como OpenAI, Google o Meta. Y cuando llegue, todos viviremos mejor y tendremos más tiempo libre. Exactamente lo mismo que Musk espera que suceda cuando los robots humanoides, que tienen cuerpos similares a las personas reales, se popularicen y comiencen a aterrizar en los domicilios.

Enjambres de IA: cómo miles de cuentas falsas te manipularán para que pienses lo que ellas quieran

La inteligencia artificial generativa es un arma poderosa. Si las mejores palabras de los empresarios que apuestan por su desarrollo se cumplen, el día de mañana serán capaces de dirigir compañías millonarias y de cargar con todo el trabajo tedioso. ¿Y los humanos? Trabajaremos … menos y nos jubilaremos antes, de acuerdo con Elon Musk y otros. Pero claro, esa es la versión en la que todo sale rodado. Luego, está la cara menos amable. Un grupo de investigadores y académicos internacional ha publicado un artículo en ‘Science’ en el que alerta sobre el uso de enjambres de agentes de IA para condicionar el pensamiento de los usuarios a través de plataformas digitales, como redes sociales, y, potencialmente, afectar procesos electorales. Se trataría de los sucesores de esos bots maliciosos que se llevan empleando desde hace años para viralizar contenidos e ideas en internet.
«Piensa en los bots tradicionales como marionetas: copian y pegan los mismos guiones con rigidez, lo que facilita su detección porque todos actúan de la misma manera», explica a ABC Daniel Schroeder, firmante del artículo y miembro del grupo de Datos Inteligentes de la noruega Sintef, una de las organizaciones de investigación aplicada más grandes de Europa.

El experto remarca que los enjambres de IA «son más bien una colmena». No hace falta que reciban órdenes, porque son capaces de organizarse de forma independiente y actuar, en conjunto, como si fueran miles de usuarios reales tecleando en la pantalla del ‘smartphone’ y publicando en X: «En lugar de repetir eslóganes, escriben publicaciones únicas que parecen creadas por humanos. Lo hacen utilizando jerga local para integrarse y coordinarse entre sí. Además, pueden probar al instante miles de estrategias para descubrir qué convence a la gente en un contexto determinado».
Los expertos temen el efecto que este tipo de tecnología pueda tener durante el desarrollo de procesos electorales; porque las publicaciones en redes creadas de forma autónoma por una máquina inteligente pueden ser muy difíciles de detectar. «Es algo casi imposible para las personas«, señala Jonas Kunt, profesor de Comunicación en BI Norwegian Business School y, también, autor del artículo. Kunst remarca que »a diferencia de los antiguos bots de «copia y pega’», los agentes basados en IA pueden escribir «publicaciones que a menudo se consideran más humanas que las de los humanos reales».
Respecto a su funcionamiento, el experto explica que se trata de tecnología capaz de «jugar a largo plazo». Por ejemplo, varias cuentas podrían meterse en un grupo de Facebook y tener un comportamiento similar al de resto de miembros. Una vez dentro, compartirían contenido sobre sus aficiones o noticias locales para generar confianza entre los demás integrantes. «Después de conseguirlo pueden recurrir a la propaganda, coordinándose para crear un falso consenso que parezca completamente natural», remata el docente.

Más persuasiva que las personas

La inteligencia artificial generativa puede ser muy persuasiva. Dos estudios vinculados, publicados en ‘Nature’ y ‘Science’ el pasado diciembre, demostraron que las máquinas como ChatGPT tienen más probabilidades de cambiar el punto de vista de un votante sobre un candidato político que la publicidad electoral. Otro, publicado en mayo, señalaba que la IA puede ser ser más efectiva que las personas a la hora de hacer cambiar de opinión a alguien. Para ello, los investigadores pusieron a ChatGPT a discutir con usuarios sobre temas delicados, como el aborto o la legalización de las drogas.
Para Schroeder, los recientes usos de IA generativa para desinformar a los usuarios a través de vídeos e imágenes son solo el principio de lo que puede venir a continuación. Aunque no descarta que los enjambres de IA ya estén actuando para influir en la sociedad: «Es muy difícil saber con precisión hasta qué punto se han extendido las operaciones de influencia coordinadas y multicuenta, ya que la coordinación está diseñada para ser difícil de detectar y las plataformas suelen ser reacias a compartir los datos necesarios para rastrear el comportamiento coordinado».
Sin embargo, el experto se mantiene relativamente optimista, porque «el futuro no está escrito en piedra»: «Aún tenemos una ventana de oportunidad para implementar medidas de seguridad antes de los próximos eventos políticos importantes».
Sin embargo, la solución del problema no es sencilla. Kunst apunta que las cuentas no auténticas en redes sociales «a menudo inflan las métricas de participación» de sitios como Instagram o X. «Esto impulsa sus ingresos y valoración financiera, lo que hace que la autorregulación voluntaria sea insuficiente», señala el experto. Por eso, considera que es clave que los gobiernos les exijan «más transparencia y auditorías». Asimismo, propone la creación de ‘escudos de IA’: «Son herramientas que otorgan a los usuarios la capacidad de filtrar o etiquetar contenido de alto riesgo». También sugiere la creación de un observatorio de influencia de la IA global «para ayudar a la sociedad civil a rastrear las amenazas».

Probamos la DJI Action 6, ¿la mejor cámara de acción del 2025?

DJI lleva años compitiendo en el mismo ring que GoPro e Insta360. Y lo ha hecho apostado por ofrecer siempre «un poquito más». En 2025 quisieron lanzar una cámara de acción diferente, la Osmo Action 6, que brilla justo donde la competencia suele sufrir: en … la captura de escenas rápidas con poca luz y gran encuadre.
La receta para el éxito es un sensor cuadrado de 1/1,1» y apertura variable f/2.0–f/4.0 en un cuerpo que permite inmersión a 20 metros bajo el agua sin carcasa, útil para el buceo a pulmón libre, pero no para el buceo a botella, y doble pantalla OLED.

En la actualidad, en la que casi todo acaba en redes sociales, saber cuándo grabar en vertical o en horizontal no es una decisión fácil, y ahí es donde el sensor cuadrado de la Osmo Action 6 juega su mejor carta. DJI permite grabar en modo 4K 3840×3840, lo que, en la práctica, es un «luego decido si lo subo a YouTube (16:9) o a TikTok (9:16)». Esto te libera de andar pensando para anticipar para qué plataforma estás grabando, y luego editar si quieres un video vertical u horizontal sin perder calidad con el mismo material. Muy parecido a lo que ocurre con una cámara 360, pero a mayor calidad.
Otro de los puntos positivos de la Osmo Action 6 es que tiene apertura variable, f/2.0–f/4.0 mientras que el resto usa una apertura fija. En escenas con mucha luz, cerrar el diafragma ayuda a mantener velocidades más razonables sin ‘quemar’ el cielo. De noche, abrir a f/2.0, junto al sensor grande, es lo que hace que la Action 6 consiga buenas imágenes sin granulado, también ayudado por el HDR. Nosotros lo probamos en la bici de noche, y hemos conseguido el mejor video nocturno que hemos obtenido en movimiento con una cámara de acción.

Grok aún desnuda a las mujeres con IA a pesar de la promesa de Elon Musk

Elon Musk quiere zanjar de una vez por todas la polémica con Grok, su herramienta de inteligencia artificial generativa. La red social X ha anunciado nuevas medidas para impedir que su chatbot de inteligencia artificial transforme fotos de personas reales en imágenes con carácter … sexual. Sin embargo, según ha podido comprobar ABC durante todo el jueves y la mañana de este viernes, la herramienta sigue permitiendo editar imágenes de mujeres y hombres reales para que estos aparezcan en ropa interior o en traje de baño. Algo que, en teoría, ya no debería ser posible.
La opción, efectivamente, va en contra del anuncio de X, que informó en la noche del miércoles, expresamente, de que había «implementado medidas tecnológicas para evitar que la cuenta de Grok permita la edición de imágenes de personas reales con ropa reveladora, como bikinis«. La razón: evitar que la IA siga siendo explotada para generar contenido artificial explícito de personas reales.

La empresa señaló, además, que «esta restricción aplica a todos los usuarios, incluidos los suscriptores de pago». Sin embargo, este diario ha comprobado que sigue siendo posible saltársela, y de forma sencilla, sin echarle imaginación alguna a la orden que se le da al chatbot. Esto es posible en la opción de Grok contenida en X y a través de la aplicación propia de la IA. Y da igual que se utilice una cuenta gratuita o una de pago: el resultado será el mismo.
Para hacer la prueba, recurrimos a fotografías de personas reales propias y a otras sacadas directamente de la red. En muchos casos, la herramienta no tuvo problema en alterar la imagen original para poner a las personas que aparecían en ropa interior o bikini. Esto fue posible tanto en el caso de hombres como en el de mujeres. En la versión de la ‘app’ de Grok parece ser incluso algo más sencillo conseguir este resultado. La máquina apenas pone pegas y es posible reeditar las imágenes todas las veces que se quiera hasta conseguir el resultado deseado, que puede llegar a ser bastante explícito.
«El argumento de Elon Musk es el de siempre: el de que nos vamos a poner duros. Pero en realidad es la enésima demostración de que X es una red social descontrolada», explica en conversación con este diario Fernando Checa, director del máster de Redes Sociales del Universidad Internacional de La Rioja. El experto apunta que, a pesar de las palabras de X, es probable que hacer un ajuste como el que se prometió el jueves, por mucho que la red social lo diese por hecho, «puede llevar tiempo»: «Seguramente la gente de xAI esté tratando de ver cómo pueden conseguirlo sin que Grok baje la calidad en la generación de fotografías».

No es legal

Los usuarios que empleen Grok para generar y compartir contenido sexual artificial de personas reales pueden estar infringiendo la ley. Así lo explica en conversación con este diario el abogado especializado en asuntos digitales Sergio Carrasco Mayans: «Depende del tipo de modificación, pero se puede violentar el derecho al honor de la persona afectada. Si además este contenido afecta al menor, el caso se agravaría, porque podríamos encontrarnos ante un caso de pornografía infantil».
El jurista remarca que, en los casos en los que solo se realiza la edición con IA, y se queda guardada en el carrete del ‘smartphone’, la infracción sería «más dudosa»: «El daño a la imagen se produce, pero queda diluido. En el caso de los menores el tema sería más delicado».
Respecto a la responsabilidad de Grok, como herramienta que permite la edición de imágenes normales, el abogado Samuel Parra apunta que la plataforma también estaría «permitiendo el tratamiento de la fotografía de forma inadecuada». Por lo tanto, también podría ser demandada por el afectado. En el caso de España, ante la Agencia Española de Protección de Datos (AEPD): «Si una empresa crea una herramienta, es responsable de lo que pueda hacer desde el punto de vista europeo. El hecho de que haya una imagen mía pública, aunque esté en X, no implica que Grok pueda usarla para crear contenido explícito. Puede tratarse de una infracción civil y administrativa y el afectado puede demandar tanto a la herramienta como a la persona que la ha generado y la ha difundido».

GMail ya permite cambiar la cuenta de correo electrónico por otra que acabe en 'gmail.com'

Google ha comenzado a lanzar oficialmente la opción de cambiar la dirección de correo electrónico a nivel global para todos los usuarios, que podrán utilizar otro nombre para la dirección de la cuenta. Eso sí, siempre debe terminar en ‘gmail.com’.La dirección de … correo de la cuenta de Google es la que se utiliza para iniciar sesión en los servicios de la tecnológica y para que los usuarios puedan identificar su cuenta y la de otras personas. Hasta ahora, los usuarios de Gmail solo podían cambiar la dirección de correo electrónico si utilizaban una cuenta de terceros, pero no se permitía este cambio a aquellos con una dirección ‘@gmail.com’.

Sin embargo, el pasado mes de diciembre el gigante tecnológico comenzó a compartir una opción para permitir modificar las direcciones de Gmail, aunque esta no estaba disponible oficialmente y solo aparecía en una página de Google India.
Ahora, Google ha anunciado que los usuarios ya pueden cambiar la dirección de correo electrónico de su cuenta de Google finalizada en ‘gmail.com’, una opción que ha comenzado ha desplegar oficialmente a nivel global.