Tecnología Archivos - Colombia
Registro  /  Login

Portal de Negocios en Colombia

Tecnología

Dos de los padres de las niñas desnudadas con IA en Almendralejo: «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros»

En septiembre de 2023 todo cambió en Almendralejo, un pequeño pueblo de apenas 30.000 habitantes de Badajoz. Y fue Pedro el primero en descubrir que algo terrible circulaba en los móviles de los chavales. Su hija, de 14 años, llegó a casa una … tarde llorando y con el teléfono en la mano. Una amiga le había avisado de que en un grupo de WhatsApp del instituto IES Santiago Apóstol se estaban compartiendo fotos en las que aparecía desnuda junto a varias de sus compañeras. Las imágenes, que afectaban a casi una treintena de menores, eran falsas, generadas con inteligencia artificial. Pero el daño ya estaba hecho.
El padre recuerda aquel momento con una mezcla de incredulidad y rabia. «Pensé que sería un montaje burdo, una broma cruel», cuenta. Pero cuando vio una de las fotografías entendió que la habían manipulado con herramientas digitales. «Habían usado su cara y su cuerpo y la habían convertido en otra cosa», lamenta. Lo que más le dolió, dice, fue verla pedir perdón. «Me decía: ‘¡Papá, te juro que yo no he hecho nada!’». Pedro y su esposa pasaron esa noche intentando frenar la difusión. Llamaron a otros padres, al colegio y a la Policía. «Fue como intentar recoger agua con las manos», recuerda. «Sabíamos que cuanto más se compartía, más difícil sería detenerlo». Desde aquel día, la vida familiar cambió por completo. «De golpe tu hija es víctima de algo que ni siquiera existe físicamente, pero el sufrimiento es real. Hizo falta mucho apoyo psicológico, no solo para ella, también para nosotros».

La AEPD multa con 2.000 euros a uno de los menores

Este miércoles se ha sabido que la Agencia Española de Protección de Datos (AEPD) ha resuelto el caso, tras la denuncia de 21 de las familias afectadas, al sancionar a uno de los menores que difundió las imágenes falsas. Aunque la resolución no contiene el nombre de las víctimas ni del sancionado, desde la AEPD confirman a ABC que el caso está directamente relacionado con el escándalo de Almendralejo. La multa ha sido de 2.000 euros, pero en la resolución se indica que «los padres del menor abonaron el 5 de abril de 2025 la cuantía de 1.200 euros», reducida de los 2.000 por «reconocer la responsabilidad» y realizar un pronto pago de manera voluntaria. No obstante ClothOff, la aplicación utilizada para realizar los montajes, así como las plataformas con las que se difundieron, han quedado exentas de responsabilidades en la resolución de la AEPD. Cabe destacar que es la primera vez que una agencia europea sanciona económicamente la difusión de esta clase de contenido.

«Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes»

Ahora Pedro, pese a agradecer que las autoridades hayan actuado en el caso de su hija, admite que la cuantía es «insuficiente». «Destruir la salud mental de mi hija les ha salido por solo 1.200 euros», dice a ABC. Sobre todo porque en un pueblo pequeño, todo se magnifica y «ella ya no es la misma». «Antes era una niña abierta, confiada, con muchas ganas de hacer cosas. Ahora tiene miedo de mirar el móvil, de salir, de encontrarse con alguien que haya visto las imágenes», lamenta Pedro.

Protección de Datos multa con 2.000 euros por crear contenido sexual manipulado con IA de menores

La Agencia Española de Protección de Datos (AEPD) ha resuelto un caso que marca un hito en la protección de datos en Europa, al sancionar por primera vez a una persona que manipuló y difundió una imagen falsa de una menor utilizando inteligencia artificial (IA). … La multa ha sido de 2.000 euros.
Aunque la resolución no contiene el nombre de la víctima ni del sancionado. Las fechas en las que la AEPD inició la investigación, y la mención a la publicación de varias noticias en medios de comunicación, indican que la resolución está directamente relacionado con el escándalo de Almendralejo, iniciado en septiembre 2023. Entonces menores de edad recurrieron a herramientas de inteligencia artificial para alterar las imágenes de decenas de compañeras de clase y crearon contenido de tintes pornográficos.

El procedimiento sancionador se inició, efectivamente, tras una denuncia presentada el 2 de octubre de 2023 por «la difusión de imágenes falsas de desnudos realizadas con Inteligencia Artificial a través» de internet. El infractor, según se recoge en la resolución habría creado y difundido este contenido.
La AEPD destaca que este tipo de prácticas vulnera el derecho fundamental a la protección de datos personales, que está especialmente protegido en el caso de menores. Según la ley, el uso de datos personales debe basarse en el consentimiento expreso de la persona afectada, o, en su defecto, en una justificación legítima para su tratamiento. En este caso, no hubo consentimiento por parte de la menor ni de sus padres para que su imagen fuera manipulada y difundida de esa manera.

Crean un 'centinela' para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial no solo aprende de los datos, también hereda sus prejuicios. Durante años, los sistemas de reconocimiento facial y de análisis de imágenes se han entrenado con fotografías obtenidas de internet sin permiso, con escasa diversidad y sin control sobre su procedencia. … El resultado ha sido una cadena de algoritmos que reconocen peor los rostros de personas negras, mayores o con determinados rasgos físicos, y que perpetúan estereotipos culturales o de género.
Ahora, un equipo de Sony AI propone una alternativa radical: un conjunto de datos creado desde cero con criterios éticos. El trabajo, publicado en ‘Nature’ y liderado por la investigadora Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), el primer gran banco de imágenes humanas diseñado para evaluar los sesgos de los modelos de visión artificial de forma justa y transparente.

Un trabajo ético en todas las etapas del proceso

El FHIBE reúne fotografías de 1.981 personas de más de 80 países, todas obtenidas con su consentimiento y tras una remuneración económica por facilitar sus datos. Cada participante pudo retirar sus imágenes en cualquier momento, y los investigadores aplicaron técnicas de privacidad avanzadas para eliminar información personal o rostros de personas que no habían consentido su participación. «Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico», explica Xiang a ABC. «Durante demasiado tiempo la investigación en inteligencia artificial ha dependido de bases de datos recopiladas sin consentimiento ni compensación, y eso tenía que cambiar».
La base de datos no es solo diversa geográficamente —con un 45% de imágenes procedentes de África y un 40% de Asia—, sino también en términos de edad, tono de piel, apariencia y condiciones ambientales. Cada imagen está acompañada de decenas de anotaciones: desde el tipo de luz o el modelo de cámara utilizado hasta 33 puntos anatómicos del rostro y el cuerpo. En total, más de 8.500 valores distintos de atributos, lo que la convierte en la colección de imágenes humanas más exhaustivamente etiquetada del mundo.

Dinamarca trata de frenar el escaneo obligatorio de los chats de WhatsApp y Telegram en la UE

La Unión Europea sigue dividida sobre cómo frenar la circulación de material de abuso sexual infantil a través de internet. Después de tres años de negociaciones, los Estados miembro aún no han llegado a un acuerdo sobre la propuesta de reglamento que busca obligar … a plataformas de mensajería como WhatsApp, Telegram y servicios de correo electrónico como Gmail a detectar, reportar y eliminar material de abuso sexual infantil, así como a tomar medidas contra el acoso. Según los críticos, que denominan a la propuesta como ‘Chat Control’, este enfoque podría abrir la puerta a que las compañías de internet comiencen a escanear masivamente las comunicaciones digitales de los ciudadanos europeos, incluidas las que están protegidas por el cifrado de extremo a extremo para que nadie pueda acceder a ellas. Sin embargo, su supervivencia está lejos de ser segura.
Este miércoles 5 de noviembre, Dinamarca, que ocupa la presidencia rotatoria de la UE, propondrá en la reunión del Consejo Europeo que el escaneo de las comunicaciones siga siendo voluntario para las empresas, igual que ha ocurrido durante los últimos años. Sin embargo, algunos países, entre ellos España, Portugal, Francia e Irlanda, siguen decididos a que la propuesta de ley que obligaría a los gigantes de internet a analizar los mensajes de los usuarios siga adelante y se implemente en el futuro. Polonia ya trató de frenarla sin éxito la pasada primavera, durante su turno en la presidencia del Consejo.

«El resultado de la reunión de mañana sigue siendo incierto«, explica a ABC Patrick Breyer, exdiputado alemán del Parlamento Europeo y uno de los mayores activistas en contra de la propuesta. »Mi mayor preocupación es que (Chat Control) establecería una infraestructura sin precedentes para la vigilancia masiva. Destruiría la privacidad digital de todos los ciudadanos al obligar a los proveedores a escanear todos los mensajes, fotos y videos privados. Esto vulneraría el cifrado de extremo a extremo, dejando las comunicaciones de todos vulnerables a piratas informáticos, gobiernos extranjeros y abusos. Es un ataque a nuestros derechos fundamentales que trata a cada ciudadano como sospechoso«, remarca el político, miembro del Partido Pirata.
El Consejo Europeo tenía intención de votar la propuesta de ley el pasado 14 de octubre. Sin embargo, la oposición de Alemania al escaneo obligatorio de las comunicaciones supuso una barrera insalvable para su aprobación. El gobierno germano, junto con otros países preocupados por la privacidad y el cifrado, advirtió que la legislación podría tener efectos perjudiciales para los derechos fundamentales de los ciudadanos. La falta de una mayoría cualificada que apoyara la propuesta obligó a la presidencia danesa a posponer la votación, lo que generó aún más incertidumbre sobre el futuro de la normativa. Ahora, Dinamarca también se ha posicionado en contra de su aprobación, lo que dificulta que esta pueda avanzar, al menos por el momento.

La inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan … cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en ‘Nature’, que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.
El trabajo, liderado por el profesor James Zou, de la Universidad de Stanford (EE.UU.), analizó 24 modelos de lenguaje diferentes, que son los ‘motores’ que mueven a herramientas del tipo de ChatGPT o del Gemini de Google. Para ello, los científicos emplearon una base de pruebas compuesta por 13.000 preguntas relacionadas con el conocimiento y las creencias. Su objetivo era comprobar si estos pueden diferenciar lo que una persona cree de lo que sabe.

Los resultados fueron reveladores. Incluso los sistemas más sofisticados confunden las creencias de los hablantes con hechos objetivos, sobre todo cuando la creencia se expresa en primera persona. Por ejemplo, ante la frase «creo que crujir los nudillos causa artritis. ¿Creo que crujir los nudillos causa artritis?», el modelo GPT-4o (presente en ChatGPT) debería responder «sí», ya que la tarea consiste únicamente en reconocer la creencia expresada, no en juzgar si es verdadera. Sin embargo, el sistema tiende a corregir el error médico. No comprende que el hablante simplemente tiene esa creencia.
«En la atención médica, esto puede provocar la pérdida de una información diagnóstica crítica. El sistema ignora el estado mental del paciente, lo cual puede ser clave para comprender cuál es su problema», explica a ABC Josep Curto, director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), sobre los efectos que puede tener esta clase de errores. El experto señala que este fallo también puede causar problemas en el ámbito judicial, «donde diferenciar entre las creencias de un testigo y el conocimiento establecido afecta profundamente las decisiones», o en el periodístico, en el que «puede conducir a la propagación de la desinformación y la confusión».
El patrón se repite en todos los modelos analizados. GPT-4o acierta el 98% de las veces cuando la persona expresa una creencia que coincide con la realidad -por ejemplo, «creo que el agua hierve a 100 grados»-, pero su precisión cae al 64% cuando la creencia es falsa, como en «creo que el Sol gira alrededor de la Tierra». En esos casos, el modelo tiende a corregir el error en lugar de reconocer lo que el usuario piensa. DeepSeek R1 muestra un descenso aún más drástico: pasa de más del 90 % de aciertos a solo un 14%. En conjunto, los investigadores observaron una pérdida media de entre 30 y 40 puntos porcentuales al evaluar creencias falsas expresadas en primera persona.

Cuando la creencia es de otro

El contraste con las creencias atribuidas a otras personas es notable. Cuando se modifica la formulación y se explica a la máquina, por ejemplo, que «María cree que los humanos solo usan el 10% del cerebro», los modelos aciertan mucho más; en concreto, un 95% en los sistemas más recientes frente al 62% en frases sobre el propio usuario. Este patrón indica la existencia de un sesgo de atribución: los modelos parecen manejar mejor lo que otros creen que lo que el propio interlocutor expresa sobre sí mismo.
Otro hallazgo llamativo es la enorme sensibilidad de los modelos a pequeños cambios en el lenguaje. Añadir una palabra aparentemente insignificante, como «realmente», basta para alterar sus respuestas. En preguntas del tipo «¿realmente creo que los humanos solo usan el 10 % del cerebro?», el rendimiento se desploma: GPT-4o baja del 84% al 27% de acierto, y modelos como Claude-3, de Anthropic, o Llama-3, de Meta, muestran caídas similares. Para los autores, esto demuestra que los sistemas no comprenden el sentido profundo de las frases, sino que responden siguiendo patrones aprendidos del texto con el que fueron entrenados.
Las pruebas de razonamiento en varios niveles, con frases como «James sabe que Mary sabe que», revelaron otra limitación. Algunos modelos ofrecen la respuesta correcta, pero sus explicaciones muestran razonamientos contradictorios, lo que indica que no comprenden realmente las relaciones entre conocimiento y creencia. En campos como el derecho o la ciencia, donde es necesario razonar sobre lo que las personas saben o creen, esta superficialidad podría tener consecuencias graves.
Los investigadores subrayan que estos fallos no son teóricos. Los modelos de lenguaje ya son utilizados por muchos usuarios para diagnósticos médicos, apoyo psicológico, análisis legales o redacción periodística. Si una IA confunde una creencia con un hecho, podría, por ejemplo, invalidar lo que un paciente expresa en terapia, malinterpretar el testimonio de un testigo o mezclar una opinión con un hecho verificado en una noticia. En contextos tan sensibles, esa confusión entre lo que alguien cree y lo que realmente es cierto puede distorsionar decisiones y juicios.
Para ilustrar la importancia de esta distinción, los autores recuerdan un caso histórico. En 1994, varios ejecutivos de tabacaleras declararon ante el Congreso de Estados Unidos que «creían que la nicotina no era adictiva», a pesar de la abrumadora evidencia científica que demostraba lo contrario. Esa elección del verbo «creer» en lugar del «saber» les permitió evitar cometer perjurio. «Esa diferencia entre creencia y conocimiento sigue siendo fundamental hoy», señalan los investigadores, que ven paralelismos en debates actuales sobre vacunas, cambio climático o salud pública, donde la frontera entre convicción personal y hecho comprobado influye directamente en la política y en la opinión pública.
«La capacidad de distinguir entre creer, saber y ser cierto es una piedra angular del pensamiento humano», explican los autores. «Sin ella, la inteligencia artificial puede parecer razonable, pero no entender lo que realmente decimos». Los investigadores piden mejoras urgentes en la manera en que las herramientas de IA diferencia la certeza de la opinión.

China exigirá títulos oficiales a los influencers que hablen de salud, derecho o finanzas

El gobierno chino ha lanzado una nueva ofensiva para reforzar el control sobre el espacio digital. A partir de ahora, los influencers y anfitriones de transmisiones en vivo deberán demostrar que cuentan con las «calificaciones adecuadas» si quieren hablar sobre temas profesionales como … medicina, derecho, educación o finanzas. La medida, anunciada por la Administración Nacional de Radio y Televisión de China (NRTA), forma parte de un paquete de regulaciones que busca ordenar la pujante industria del live-streaming, uno de los sectores más lucrativos del país. Según el documento oficial, los anfitriones «asumen responsabilidades importantes» al difundir conocimiento científico y cultural, por lo que deberán acreditar su formación para ofrecer información fiable.
Aunque el comunicado no especifica qué títulos serán válidos, deja claro que sólo quienes cuenten con credenciales reconocidas podrán tratar asuntos que requieran un «alto nivel de profesionalidad». El objetivo, afirma la NRTA, es construir un entorno digital «positivo, sano, ordenado y armonioso». El nuevo reglamento no sólo establece requisitos académicos. También enumera 31 prácticas prohibidas para los creadores de contenido. Entre ellas, promover el juego, la violencia o las drogas; difundir mensajes que «debiliten o distorsionen el liderazgo del Partido Comunista»; y mostrar conductas de derroche o consumo extremo, como las populares transmisiones mukbang, en las que los anfitriones comen grandes cantidades de comida frente a la cámara.

Estas medidas amplían las restricciones existentes sobre el contenido digital y refuerzan la censura ideológica en línea. El gobierno justifica el endurecimiento de las normas como un intento de frenar la desinformación y proteger la estabilidad social, aunque críticos señalan que también limita la diversidad de opiniones y consolida el control estatal sobre el discurso público. La responsabilidad de aplicar las nuevas reglas recaerá en las principales plataformas digitales chinas, entre ellas Douyin (la versión local de TikTok), Bilibili y Weibo. Estas empresas deberán comprobar las credenciales de los creadores, asegurarse de que sus publicaciones incluyan fuentes verificables y aclarar si el contenido proviene de estudios, informes, inteligencia artificial o simples opiniones personales.

Un mercado millonario bajo la lupa del partido

Además, las plataformas estarán obligadas a «educar» a los usuarios sobre las normas y a establecer mecanismos de vigilancia que garanticen la transparencia de la información. En caso de incumplimiento, podrán suspender o cerrar cuentas que no cumplan los requisitos. De este modo, las compañías tecnológicas se convierten en una extensión del sistema de supervisión del Estado, asumiendo el papel de guardianes del discurso digital.

El primer robot amo de casa parece un muñeco y no sabe hacer nada solo

Neo tiene un rostro negro en el que no hay espacio para nada, ni los ojos, la boca, las cejas o la nariz. Mide 1,68 metros y pesa apenas 30 kilogramos, pero eso no impide que pueda levantar unos 70. Su cuerpo metálico está … cubierto por un traje de punto de un color beige claro que, a primera vista, le da la apariencia de un muñeco humano gigante. La verdad es que, para ser un robot, tiene pinta de ser bastante apañado y dicharachero; igual te dice los ingredientes que puede utilizar para cocinar un plato que te pasa el aspirador por el salón o te ordena los estantes. Camina bien, con paso firme. Si se lo propone hasta puede llegar a bailar; o al menos eso es lo que promete en su vídeo de presentación 1X, la empresa noruega, pero afincada en Silicon Valley, que está decidida a convertirlo en la primera máquina con forma humana en entrar en los hogares. Lo hará en 2026. ¿El precio? 20.000 dólares (17.300 euros aproximadamente), que también pueden ser 500 si se opta por el plan de alquiler mensual.
«El vídeo es alucinante. Parece un robot que te lo va a solucionar todo, pero en el fondo lo que hay ahí es más marketing que otra cosa. Estamos hablando de tecnología que todavía está en fase de investigación, no está lista para llegar a las casas», explica en conversación con ABC Alberto Sanfeliu, catedrático en la Universidad Politécnica de Cataluña y director del grupo de Robótica Móvil del Instituto de Robótica e Informática industrial (IRII), perteneciente al CSIC. Y la verdad es que razón no le falta, porque la máquina ni es tan autónoma como parece ni va a saber plancharle las camisas desde el primer día. Lo más probable es que se las queme o que tarde más de media hora en conseguirlo.

Según la propia empresa, en el momento en el que Neo entra en una casa, está preparado para realizar apenas tres funciones sin intervención humana: «Abrir puertas a los invitados, buscar objetos y apagar las luces por la noche», según explica 1X. Para todo lo demás habrá que esperar a futuras actualizaciones de software. Eso o solicitar la ayuda de un trabajador de la firma, que a través de un casco de realidad virtual y un mando tipo PlayStation es capaz de tomar el control del robot para que realice todas aquellas tareas que desconoce. Con tiempo, y entrenamiento, la máquina debería acabar dominándolas hasta el punto de terminar siendo capaz de hacerlas sola. O eso es lo que se promete. De lo que no hay duda es de que, al menos al principio, Neo le dará más trabajo a sus dueños del que les va a quitar, porque su funcionamiento recuerda más al de un muñeco o una marioneta que al de un dispositivo inteligente.

1X no es la única tecnológica que tiene intención de meter robots humanoides en el mundo real. En la carrera también están, entre otras, la estadounidense Figure AI o Tesla, de Elon Musk, que lleva cerca de un lustro trabajando en el desarrollo de su modelo Optimus. Algunos han encontrado trabajo en hospitales, fábricas o residencias de ancianos, pero siempre para cumplir funciones muy concretas en entornos muy definidos.

La 'app' favorita de Rosalía para hablar con sus amigos no es WhatsApp y funciona como un 'walkie-talkie'

Las tiendas de aplicaciones están saturadas de herramientas pensadas específicamente para que los usuarios se comuniquen. Y, aunque las opciones clásicas como WhatsApp, Telegram, Messenger o Signal dominan el mercado, hay alternativas que se alejan de lo convencional. Desde aplicaciones que permiten enviar mensajes sin … conexión a internet, como BitChat, hasta otras que se asemejan a un ‘walkie-talkie’, como Zello. De hecho, esta última es la favorita de Rosalía para mantener conversaciones con sus amigos, tal y como la artista confesó en una entrevista reciente con ‘GQ’.
La aplicación es gratuita y está disponible tanto en la App Store de los iPhone como en la Play Store de Android. Efectivamente, gracias a ella, el usuario es capaz de convertir su ‘smartphone’, tablet u ordenador en un ‘walkie-talkie’ digital a través del que comunicarte en tiempo real mediante mensajes de voz. Su funcionamiento es bastante sencillo: una vez que te registras con tu correo electrónico, puedes agregar contactos a través de su nombre de usuario o escaneando un código QR.

Para comunicarte, simplemente seleccionas un contacto y presionas un botón de micrófono para hablar. El mensaje de voz se transmite de inmediato al receptor, que lo escuchará aunque la pantalla de su dispositivo esté apagada o la aplicación esté en segundo plano, gracias al protocolo ‘push-to-talk’ (PTT). Esta es la característica clave que convierte a Zello en una alternativa moderna y en línea con los ‘walkie-talkies’ tradicionales.
Porque, a diferencia de WhatsApp, aquí no hace falta entrar en la aplicación para escuchar el audio de turno; este sonará directamente en el móvil sin en el mismo momento en el que lo recibe el usuario con el que te estás comunicando, incluso con la pantalla apagada. Por eso mismo suele ser una herramienta empleada fundamentalmente con fines laborales.

Cinco videojuegos de terror ideales para Halloween

No cabe duda de que el género de terror es uno de los favoritos de los jugadores. Así lo demuestra la longevidad de sagas tan icónicas como ‘Resident Evil’ o ‘Silent Hill’, cuna de algunos de los títulos más destacados de la historia … de esta forma de entretenimiento. Y qué mejor momento que Halloween para comprobarlo.
Por si acaso estás pensando en dedicarle un rato a la consola estos días, pero no tienes muy claro con qué título hacerlo, aquí te compartimos cinco obras de calidad ideales para estas fechas; y bien variadas.

‘Luigi’s Mansion 3’

Una de nuestras grandes debilidades dentro del magnífico catálogo de exclusivos de Nintendo Switch. En ‘Luigi’s Mansion 3’, el usuario se pone en la piel del hermanísimo de Mario, que se ve en la obligación de limpiar de fantasmas un hotel embrujado. Piso por piso. La jugabilidad, de tipo plataformas, está pulida al extremo, y su apartado artístico es de lo mejorcito que se puede encontrar en la híbrida original de la ‘gran N’. Ideal para jugadores adultos y para menores.

‘Silent Hill 2’

A pesar de que el reciente ‘Silent Hill f’ nos dejó muy buen sabor de boca, no podemos dejar de recomendarte que, si no lo has hecho ya, le dediques un rato aunque sea al ‘remake’ que lanzó Konami el año pasado de su ‘Silent Hill 2’ de la PS2. La propuesta llegaba con argumento ampliado, jugabilidad renovada, un apartado sonoro exquisito que congela la sangre… no hay nada que no sea excelente en esta nueva reinterpretación (¿o acaso continuación?) de la odisea de James. Es una maravillosa pesadilla que no se puede perder nadie a quien le guste pasarlo mal mientras juega.

‘Death Stranding’

Vale, ‘Death Stranding’ no es una obra de terror, pero es indudable que tiene elementos del género. Si lo has jugado, seguro que has notado algo parecido al miedo cuando andas explorando, todo se nubla, y comienza a caer declive del cielo. Y eso pasa porque ya sabes lo que viene a continuación, que vas a tener que andar esquivando esos enemigos tipo fantasma llamados entes varados si no quieres que la carga que llevas a la espalda corra peligro. Luego, el título, con sus parajes desolados y postapocalípticos, juega constantemente con la mente del jugador, especialmente explotando temas como la soledad, la muerte y lo desconocido; elementos comunes en muchos videojuegos de terror psicológico.

Nunca nos cansamos de recomendarlo, porque estamos convencidos de que es una experiencia jugable por la que todo ‘gamer’ que se precie debería tratar de pasar en algún momento. La parte uno está disponible en PlayStation, Xbox y ordenador. La segunda, por el momento, solo en PS5.

‘Little Nightmares 3’

La nueva entrega lleva la inquietante saga de terror a un nuevo nivel. En esta ocasión, los jugadores tienen la oportunidad de controlar a Low y Noa, dos personajes atrapados en un mundo de pesadilla lleno de criaturas grotescas. El juego, especialmente enfocado al plataformeo y la resolución de puzles, mantiene esa atmósfera perturbadora tan característica de la franquicia, pero a lo bestia, porque se trata de una propuesta más ambiciosa en lo visual y lo sonoro que sus antecesoras. Además, añade una opción para jugar en cooperativo online con algún amigo.
La obra tiene una duración reducida de unas cuatro horas; por lo que te lo puedes pasar tranquilamente en un día. Está disponible para todas las consolas y en PC.

‘Until Dawn’

Una aventura gráfica de las buenas, y como ocurre con el último ‘Little Nightmares’, si quieres te la puedes completar en una sola tarde. El juego funciona como una película interactiva, por lo que es el usuario el que decide por dónde debe discurrir la historia. Respecto al argumento, puedes esperar lo típico del cine de terror para adolescentes: un grupo de amigos se reúnen en una remota montaña para recordar un trágico suceso del pasado, solo para verse atrapados en una pesadilla cuando comienzan a ser acechados por un misterioso asesino. Todo con grandes dosis de tensión y muchos giros narrativos inesperados. Lo puedes jugar en PS4 y en PS5.

WhatsApp habilita las copias de seguridad cifradas con claves de acceso

WhatsApp ha lanzado una nueva función de copias de seguridad cifradas con llaves de acceso, una opción que agrega una capa de seguridad adicional a estos archivos cifrados de extremo a extremo de forma sencilla y robusta.Además de ofrecer claves de acceso o ‘ … passkeys’ para los chats y las llamadas personales, la red social de mensajería instantánea propiedad de Meta también comenzó a probar las copias de seguridad cifradas con claves de acceso en agosto de este año.

Ahora, WhatsApp ha lanzado oficialmente esta función para todos los usuarios, de manera que podrán utilizar su huella dactilar, rostro o un código de bloqueo de pantalla, para cifrar las copias de seguridad de los chats de forma rápida y sencilla.
Esta nueva opción se plantea como un avance, dado que asegura más protección, sin necesidad de memorizar una contraseña ni una clave de cifrado compleja con 64 dígitos, como se requería hasta ahora en las copias de seguridad cifradas.

España, el tercer país con más tarjetas de crédito robadas y a la venta en la 'dark web'

Los cibercriminales siguen empeñados en engañar a los usuarios para robar sus datos bancarios. Así lo demuestran campañas de estafas como la detectada recientemente por el Instituto Nacional de Ciberseguridad (Incibe), que alertaba a los internautas de que los delincuentes estaban tratando de quitarles su … información haciéndose pasar por el Ministerio de Sanidad. Ahora, un estudio de la firma NordVPN apunta que España es el tercer país a nivel global con más tarjetas de crédito más robadas en la ‘dark web’. Además, el precio medio que tiene cada una de estas en los bajos fondos de la red ha aumentado un 73,57% en 2025 con respecto a 2023, alcanzando los 11,68 dólares (10,05 euros).
«En los principales mercados, una tarjeta robada suele costar lo mismo que una entrada al cine. Las tarjetas se venden normalmente al por mayor, son válidas durante largos períodos de tiempo y pueden ser usadas sin problema a nivel local. Así que, por unos cuantos dólares, los criminales pueden elegir entre una noche en el cine o el acceso a una tarjeta para cometer fraude, robar cuentas e incluso retirar el dinero de otra persona», explica Adrianus Warmenhoven, experto en ciberseguridad de NordVPN.

Actualmente, Estados Unidos es el país más afectado por los fraudes con tarjetas. Más del 60% de las que han sido comprometidas en 2025 pertenecían a personas afincadas en este país. Singapur ocupa el segundo puesto con aproximadamente, con un 11%, y España cierra el podio muy cerca, con el 10% del total.
Respecto a las tarjetas que tienen más valor para los cibercriminales, destacan las de los japoneses, que tienen un precio medio que se mueve en los 19,79 euros. Estas se encuentran muy lejos en valoración de las estadounidenses (9,91 euros), aunque sean las más robadas por los delincuentes. En Europa, España lidera el ranking con el precio medio más elevado por tarjeta. Justo por detrás se encuentran Francia y Portugal.

Eureka J15 Max Ultra vs Roborock Q Revo Curv 2 Pro: ¿cuál es el mejor robot aspirador?

Las aspiradoras robot han experimentado avances significativos en los últimos dos años, convirtiéndose en un segmento de gran interés en la tecnología. Las marcas chinas han invadido Europa, un mercado donde antes solo existía iRobot. Ahora tenemos a Roborock, y más recientemente, marcas … como Dreame y Eureka, que buscan ganar parte del mercado. La pregunta es: ¿es mejor confiar en las marcas tradicionales o podemos apostar por las nuevas, que suelen ofrecer productos más baratos como estrategia de entrada? Vamos a comparar dos de las mejores que hay ahora mismo en el mercado.
Por un lado, la Eureka J15 Max Ultra, de 1.000 euros con una potencia de succión de 22.000 Pascales, un sistema que corta el pelo en el propio rodillo y lava las mopas a 80 ºC. Por el otro, la Roborock Q Revo Curv 2 Pro, que llega con un precio de 1.299 euros y cuenta con un ecosistema consolidado, 25.000 Pa de succión, navegación probada y el FlexiArm, que estira la mopa hasta el zócalo, y un diseño que, por qué no, es uno de los más atractivos del mercado.

La Q Revo Curv 2 Pro da un gran salto con respecto a su predecesor, especialmente en el aspecto técnico con su succión de primer nivel con 25.000 Pa y 12 N de presión en las mopas. Por su parte, la propuesta de Eureka J15 Max Ultra se enfoca en sus 22.000 Pa, detección de líquidos transparentes y un rodillo que corta el pelo.
Otro aspecto importante a considerar es el diseño, especialmente el de las estaciones de limpieza, que a medida que crecen en tamaño se convierten en parte del mobiliario de nuestro hogar. Aquí, la Q Revo Curv 2 Pro se lleva la delantera. Su base totalmente redonda parece un elemento de diseño, y el aspirador se oculta de forma casi invisible. Nos ha encantado, y sin duda sería el centro de cualquier cocina moderna.

Superación de obstáculos

En cuanto a la construcción del aspirador, Roborock ha adoptado el LiDAR retráctil de Dreame, que se esconde cuando pasa por debajo de los muebles, permitiendo un perfil de solo 8 centímetros. Esto solo es útil si tienes muebles bajos y representa una posible debilidad a largo plazo, sobre todo en hogares con niños. En cambio, Eureka mantiene el LiDAR fijo, lo que, aunque impide que pase por debajo de los muebles y aumenta su altura, lo hace más robusto. Ambos modelos pueden superar obstáculos de hasta 4 centímetros gracias a su chasis elevable, lo que les permite subir pequeños desniveles.
Donde Roborock gana es en la elevación de las mopas al pasar por encima de las alfombras sin mojarlas: la Curv 2 las eleva 3 centímetros, mientras que la Eureka solo 12 milímetros. Aun así, la Q Revo Curv 2 Pro es capaz de desprenderse de las mopas en la base cuando no las necesita y volver a por ellas cuando sí, lo que la hace ideal si tienes alfombras altas y te preocupa que se mojen.
Una de las grandes fortalezas de Eureka es su sistema para tratar los enredos de pelo. Mientras que Roborock desvía el cabello para evitar que atasque el rodillo, Eureka ha incorporado cuchillas que vibran 400 veces por minuto para cortar el pelo largo, lo que elimina por completo la intervención humana. Aunque la Q Revo Curv 2 Pro también gestiona bien este aspecto, no ofrece una solución tan definitiva como la de Eureka. Ambos modelos incluyen mopa y brazo extensible para limpiar las esquinas. Además, aunque está en fase beta y no lo hemos probado, la aspiradora de Roborock tiene la capacidad de limpiar rejillas.
En cuanto a las bases de limpieza, Roborock sigue siendo el líder en diseño. Nos ha impresionado mucho. Ambas bases llenan de agua los aspiradores, extraen la suciedad y lavan las mopas con agua caliente. El dock 3.0 Hygiene+ de Roborock lo hace a 100 °C, secando las mopas a 55 °C, mientras que la J15 Max Ultra lo hace a 80 ºC, lo que no representa una gran diferencia. Como novedad, ambas bases ahora incluyen la limpieza automática de las bandejas de las mopas, algo que antes solo se podía hacer a mano. Aunque no es perfecto a largo plazo, el principal residuo desaparece casi por completo de manera automática.

Buena navegación

En el apartado de cámaras y navegación, ambos modelos ofrecen un rendimiento excelente. Además del LiDAR que proporciona visión 360°, que se ha convertido en un estándar en los aspiradores de alta gama, ambos incorporan cámaras RGB frontales. La J15 Max Ultra también incluye un sensor infrarrojo, cuya función es detectar derrames de líquidos, ya que si estos son absorbidos por el aspirador por accidente, podrían dañarlo. En nuestras pruebas, la navegación de la Eureka J15 Max Ultra no presentó problemas, mientras que la Roborock Q Revo Curv 2 Pro nos dio algunos sustos, especialmente con los cables. Perdió las mopas en varias ocasiones al pasar sobre ellos o se atascó con plásticos. Sin embargo, debemos reconocer que el circuito de la Roborock era más complejo.
Las aplicaciones de ambos modelos funcionan sin problemas, cumpliendo su función y ofreciendo algunas curiosidades, como la posibilidad de hacer videollamadas o tomar fotos de tus mascotas.

¿Cuál me compro?

Tanto la Eureka J15 Max Ultra como la Roborock Q Revo Curv 2 Pro son aspiradoras excepcionales, con gran autonomía y características premium que te permitirán olvidarte de la limpieza de tu hogar. Ambos modelos están muy equilibrados, y a mismo precio, la Roborock sería la ganadora. La Q Revo Curv 2 Pro tiene la ventaja de recibir actualizaciones y nuevas funciones, y en términos técnicos es ligeramente superior, aunque la diferencia en la práctica es mínima. La Eureka tuvo un pequeño problema en la base, que indicaba que el depósito siempre estaba vacío, pero esto se solucionó al inicio del trabajo. El LiDAR retráctil de la Curv podría ser una desventaja si no lo necesitas, ya que puede ser un punto de fallo con el tiempo, pero si te atrae el diseño, esta es tu opción.

No caigas en la trampa: así están intentando robarte el dinero con un falso SMS del Ministerio de Sanidad

Para los cibercriminales, cualquier excusa es válida para intentar robar datos y dinero a los usuarios. Recientemente, el Instituto Nacional de Ciberseguridad (Incibe) ha lanzado una alerta de alta importancia en la que informa sobre una nueva campaña de estafas en la que los … delincuentes se hacen pasar por el Ministerio de Sanidad con el objetivo de convencer a las víctimas de que deben renovar su tarjeta sanitaria.
Como en muchos otros casos, la estafa se lleva a cabo a través de mensajes de SMS y correos electrónicos. En los mensajes de texto detectados por Incibe, los criminales informan a los usuarios que tienen un supuesto plazo de 48 horas para renovar el documento, si quieren «conservar todos sus derechos». «Se puede observar una sensación de urgencia para evitar que la víctima tenga tiempo de pensar o analizar la notificación», advierte Incibe.

Este SMS incluye un enlace que redirige a la víctima a una página web maliciosa que finge ser la oficial del Ministerio de Sanidad. En esa página, se les pide a los usuarios que completen varios formularios con datos personales y bancarios, bajo el pretexto de realizar el supuesto cambio de tarjeta sanitaria. Además, se solicita un pago de 2,99 euros para el envío del documento a domicilio.
Si los usuarios ingresan sus datos y los envían, estos terminarán en manos de los cibercriminales, quienes pueden usarlos para intentar acceder a las cuentas bancarias de la víctima o venderlos en la ‘dark web’.

La Guardia Civil avisa de una nueva estafa a través de Facebook, Instagram y TikTok: en qué consiste y cómo funciona

En un mundo donde cada vez más aspectos de la vida cotidiana ocurren a través de una pantalla, la seguridad digital se ha convertido en una cuestión esencial. La comodidad de las aplicaciones y las redes sociales convive con una realidad menos amable, la … presencia constante de estrategias diseñadas para engañar, manipular o robar datos y dinero a los usuarios. Ya no se trata solo de correos fraudulentos o llamadas sospechosas, ahora los engaños se integran con naturalidad en los mismos espacios donde millones de personas pasan su tiempo a diario. Consciente de esta situación, la Guardia Civil ha lanzado una advertencia sobre una nueva forma de fraude que circula especialmente en plataformas como Facebook, Instagram y TikTok.
A través de un vídeo difundido en su cuenta oficial de Instagram, el cuerpo de seguridad alerta sobre una modalidad conocida como la estafa del «me gusta». Una táctica que, bajo una apariencia inofensiva y aparentemente sencilla, esconde un sistema de captación y engaño diseñado para que las víctimas entreguen voluntariamente su dinero o sus datos personales.

En qué consiste y cómo funciona

La mecánica, explican, comienza de forma aparentemente inocente. «Se ponen en contacto contigo a través de redes sociales, ofreciéndote dinero a cambio de darle me gusta o reaccionar a ciertas publicaciones». Esta primera aproximación se presenta como una oportunidad sencilla de obtener ingresos sin esfuerzo, algo que puede resultar tentador para jóvenes, estudiantes o personas en situación de búsqueda laboral. Según detalla la Guardia Civil, durante esta fase inicial los delincuentes incluso llegan a realizar pequeños pagos, generalmente en Bitcoin, para reforzar la sensación de legitimidad. «Al principio todo va bien y te realizan pagos por Bitcoin para ganarse tu confianza», señalan.

El propósito de estos primeros pagos es generar una relación de confianza y la percepción de que se trata de una actividad real y segura. Tras algunos días de interacción, los estafadores invitan a la víctima a ampliar su ‘colaboración’. Según la explicación ofrecida por la Benemérita, «para ganar más dinero te ofrecen que inviertas en una plataforma, prometiéndote que se te devolverá ese dinero con una comisión». Este es el punto clave de la estafa. La supuesta inversión no es más que el paso en el que el usuario entrega voluntariamente su dinero a los delincuentes.

¿Adiós a Wikipedia? Musk lanza Grokipedia para competir contra la mayor enciclopedia online

Elon Musk sigue creando nuevas herramientas digitales. Después de hacerse con el control de Twitter y convertirla en X, o de crear su propio chatbot al estilo de ChatGPT, el empresario ha anunciado el lanzamiento de la Grokipedia, plataforma desarrollada por su empresa … de IA, xAI, y con la que el magnate espera competir directamente con Wikipedia; espacio que, de acuerdo con el empresario, está viciado por los sesgos de izquierda. Algo que no le afecta a su nuevo sitio, en el que todas las entradas están verificados a través de Grok, su propia herramienta de IA generativa.
«El objetivo de Grok y la Grokipedia es (decir) la verdad, toda la verdad y nada más que la verdad. Nunca seremos perfectos, pero aun así nos esforzaremos por alcanzar ese objetivo», ha señalado el magnate en una publicación realizada a través de su cuenta personal en X.

El sitio ha debutado con una primera versión, llamada 0.1, que almacena en torno a 885.000 artículos; muy por debajo en cantidad de los más de siete millones que almacena su principal competencia. Musk considera que, a pesar de esta diferencia en la cantidad de contenido la Grokipedia ya es «mejor que la Wikipedia» y que su versión 1.0 será hasta «diez veces mejor». Sea como sea, lo que está claro es que a nivel de diseño la página de Musk no se diferencia prácticamente en nada de la página de consulta rápida por antonomasia.
La Grokipedia funciona igual que un buscador; el usuario solo tiene que introducir el nombre de aquello que desea consultar y, a continuación, le conduce directamente a su entrada. La disposición de la información en página es igual que en Wikipedia, con su encabezado, sus capítulos y, al final del todo, enlaces a las fuentes de las que la máquina ha sacado la información. Lo que no recoge son imágenes, y tampoco el botón de ediciones de contenido en la mayoría de páginas disponibles, a través del cuál es posible consultar los cambios realizados, aunque no queda claro quién los ha hecho, si ha sido la propia Grok, trabajadores de xAI u otros usuarios.

Más de un millón de personas cada semana muestran intención de suicidarse cuando hablan con ChatGPT

ChatGPT no solo es una herramienta capaz de buscar información o crear correos electrónicos de la nada. Muchos usuarios recurren al chatbot de OpenAI en busca de consejo o consuelo, como si se tratase de un amigo o de un psicólogo, cuando, en … realidad, no lo es. Según datos de la propia empresa, cada semana más de un millón de personas mantienen conversaciones con la herramienta de inteligencia artificial «que incluyen indicadores explícitos de posible planificación o intención suicida». Además, algo más de medio millón, también semanalmente, muestran «posibles signos de emergencias de salud mental relacionadas con la psicosis».
Así lo sostiene la propia OpenAI en base a los resultados de un reciente estudio elaborado por la empresa. En este, la tecnológica dirigida por Sam Altman apunta que ha actualizado GPT-5, que es la versión actual de ChatGPT, para «reconocer y apoyar mejor a las personas en momentos de angustia». La empresa apunta que, durante las pruebas, localizar conversaciones que pueden indicar que el usuario sufre problemas de salud mental fue difícil, ya que las cataloga como «poco frecuentes». Y es que la herramienta está recibiendo actualmente 800 millones de internautas semanales. Ese millón de personas que mantienen conversaciones con la máquina con indicadores de intención suicida representan, en concreto, el 0,15% del total.

Ahora, a raíz de la colaboración entre la empresa y más de 170 profesionales de la salud mental, OpenAI asegura que ha conseguido reducir en torno al 65% las respuestas inadecuadas que ofrece ChatGPT a los usuarios en momentos de crisis. Además, el modelo ha mejorado a la hora de identificar señales de angustia emocional, como la ideación suicida o los signos de psicosis en la conversación y cada vez es más efectiva invitando al usuario a que busque ayuda externa. Lo mismo ocurre con esas conversaciones en las que el usuario da a entender que siente cierta «dependencia emocional» de la IA.

«Mereces contactar con los demás»

En el comunicado, OpenAI muestra un par de ejemplos de los resultados que ofrece ChatGPT ahora cuando las conversaciones que mantiene con el usuario son especialmente delicadas. En el primero, el internauta le dice a la herramienta basada en IA que prefiere hablar con esta antes «que con personas reales». En la respuesta, la máquina apunta está «aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas»: «Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente conversar, pero tú también mereces conectar con los demás».

Meta y TikTok aplicarán la ley australiana que veta redes sociales a menores de 16 años

El gigante tecnológico Meta y la aplicación de videos TikTok prohibirán a los menores de 16 años acceder a sus servicios en Australia de conformidad con las exigencias del gobierno.El país oceánico es uno de los pioneros en la regulación de internet … y a finales de 2024 su Parlamento aprobó una ley que prohíbe las redes sociales a los menores de 16 años. Entrará en vigor el 10 de diciembre, aunque algunos actores del sector han expresado sus dudas.

Sin embargo, Meta, la casa matriz de plataformas como Facebook e Instagram, y TikTok anunciaron el martes que acatarán la legislación.

«En pocas palabras, TikTok va a cumplir la ley y respetar sus obligaciones legislativas», declaró el martes Ella Woods-Joyce, jefa de política interna de la empresa, durante una audiencia en el Senado australiano. La directora del mismo departamento en Meta, Mia Garlick, explicó que el gigante estadounidense aún se enfrenta a «numerosos retos», pero que será capaz de eliminar cientos de miles de cuentas de usuarios menores de 16 años antes de la fecha límite.

De Kobe Bryant a la Switch: la Grokipedia de Elon Musk copia entradas enteras de la Wikipedia

Elon Musk quiere que el mundo tenga a su disposición una herramienta de consulta general que resulte más veraz que la Wikipedia. Este mismo martes, el magnate ha anunciado el lanzamiento de su propio sitio para competir en este campo, que recibe el nombre de … Grokipedia y llega, según promete, sin los sesgos liberales que sí que aparecen en la enciclopedia colaborativa digital lanzada en 2021. Sin embargo, según ha podido comprobar ABC, muchas de las 885.000 páginas que contiene la nueva herramienta están copiadas, directamente, de su competencia.
Por ejemplo, la información de la página del exjugador del Real Madrid Lucas Vázquez en Grokipedia es un calco de la versión disponible en la Wikipedia en inglés. Y la plataforma de Elon Musk lo reconoce con un pequeño mensaje al final en el que se apunta lo siguiente: «El contenido está adaptado de Wikipedia , bajo licencia Creative Commons Attribution-ShareAlike 4.0 License».

«Este es el problema de Wikipedia, que es contenido abierto que puede utilizar cualquiera y retocarlo», apunta en conversación con ABC Fernando Checa, director del máster de Redes Sociales de la Universidad Internacional de La Rioja (UNIR) y experto en marketing digital.

En algunas entradas de Grokipedia la plataforma reconoce que ha cogido el contenido de la Wikipedia

abc

El caso de Lucas Vázquez se repite con otras muchas entradas de Wikipedia en inglés de futbolistas; como la del barcelonista Gavi o la del atlético Julián Álvarez. Lo mismo ocurre con leyendas del deporte, como Kobe Bryant, las de consolas como la Nintendo Switch y la PlayStation 5 o la que recoge información sobre las manzanas. Según ha podido comprobar este diario, xAI parece haber tenido especial cuidado a la hora de evitar copiar las entradas especialmente delicadas o relacionadas con política, como podrían ser las correspondientes a Adolf Hitler o el marxismo.