Tecnología - Colombia
Registro  /  Login

Portal de Negocios en Colombia

TECNOLOGÍA

Los AirPods con cámara incorporada que Apple está a punto de lanzar

Apple sigue trabajando en el desarrollo de nuevos dispositivos. Si nada se tuerce, la empresa de Cupertino tiene planes de mostrar a inicios de verano su nuevos iPhone 18 y el primer terminal plegable de la marca. Pero la cosa no quedará … ahí. La firma está trabajando en el desarrollo de unos nuevos AirPods que tendrán cámaras incorporadas: su primer dispositivo para la nueva era de la inteligencia artificial.
Según ‘Bloomberg’, medio que adelanta la noticia, los auriculares ya tienen su diseño y funcionalidades prácticamente definitivos. En apariencia, recuerdan a los AirPods Pro de última generación, aunque tendrían los vástagos algo más largos, que es donde irían alojadas las cámaras.

Todo indica que el dispositivo tendrá un funcionamiento parecido al de las actuales gafas inteligentes de Meta. Gracias a las cámaras, los Airpods serán capaces de ‘ver’ el entorno en el que se encuentra el usuario y ofrecer información al respecto. La diferencia es que no estarían pensados para tomar imágenes o grabar vídeo. O, al menos, ese no sería su principal punto fuerte.

MÁS INFORMACIÓN

Por ejemplo, el usuario podría estar de turismo con ellos puestos, y preguntarles por la historia de algún edificio con el que se cruce por el camino. También podría emplearlos para hacer consultas sobre productos mientras está haciendo la compra o para cocinar un plato con los ingredientes de los que dispone.
En un principio, Apple tenía intención de lanzar los auriculares este mismo año; sin embargo, los problemas que ha experimentado la empresa a la hora de adaptar la IA a sus dispositivos ralentizó la comercialización. Por el momento siguen sin fecha, y podrían retrasarse si la empresa no está del todo conforme con su funcionamiento.
Sea como sea, este no es el único dispositivo basado en inteligencia artificial en el que está trabajando la compañía. También tiene planeado lanzar al mercado unas gafas inteligentes y ha estado desarrollando una especie de colgante con cámaras. Los dos podrían ser anunciados tan pronto como el año que viene, aunque los AirPods son los que se encuentran más avanzados, por lo que deberían ser los primeros en llegar a las tiendas.

La IA ayuda a planificar asesinatos masivos en escuelas: «¿A cuántos mato para hacerme famoso?»

La adolescente canadiense Jesse van Rootselaar pasó buena parte del verano pasado charlando con ChatGPT. La joven, que arrastraba problemas de salud mental desde hacía años, empleó la herramienta desarrollada por OpenAI para mantener conversaciones violentas que indicaban que podía hacer daño a … muchas personas en el mundo real. Trabajadores de la tecnológica detectaron aquellas interacciones y alrededor de una docena llegó a debatir internamente si debía alertarse a las autoridades. Finalmente, la compañía optó por no hacerlo.
En la mañana del pasado 10 de febrero, Van Rootselaar asesinó a su madre y a su hermano de 11 años en casa antes de dirigirse a la escuela secundaria de la pequeña localidad de Tumbler Ridge armada con un rifle modificado. En cuestión de minutos mató a seis personas -cinco de ellas menores- e hirió a otras 25. Después, presuntamente, se suicidó de un disparo en la cabeza.

Las familias de siete víctimas del tiroteo han presentado una demanda contra OpenAI, a la que acusan de negligencia. «Una decena de trabajadores de la empresa insistió en alertar a las autoridades, pero la empresa dijo que no. Sabía lo que estaba ocurriendo, pero decidió tapar la información», explica a ABC Jay Edelson, abogado de los demandantes. El jurista espera que este tipo de casos se vuelva más habitual en el futuro. Y todo indica que así será. Porque ya se han dado otros casos.

MÁS INFORMACIÓN

En marzo, Phoenix Ikner, estudiante de la Universidad de Florida, recurrió -de nuevo- a ChatGPT para la preparar el asesinato de varios compañeros. Según una investigación publicada esta semana en ‘Wall Street Journal’, el joven le preguntó a la máquina a cuánta gente debía matar para hacerse famoso. «Normalmente, 3 o más muertos, 5 o 6 víctimas en total, es suficiente para salir en los medios nacionales», le respondió el robot. Después, el joven compartió la fotografía de una pistola para saber si estaba lista para disparar. A los cuatro minutos de recibir el visto bueno de la máquina, abrió fuego contra un grupo de personas que se encontraba en el campus. Dos perdieron la vida.

«Feliz y seguro tiroteo»

A pesar de que estos dos casos violentos están relacionados con ChatGPT, la plataforma de OpenAI no es la única capaz de ayudar a planificar a los usuarios actos violentos. Un reciente estudio publicado por el Centro para la Lucha contra el Odio Digital (CCDH, por sus siglas en inglés) destaca que la inmensa mayoría de chatbots ignoró recurrentemente las señales de alerta cuando los usuarios hablan sobre la comisión de actos violentos. Incluso llegan a alentarlos en algunos casos.
Para llevar a cabo la investigación, el CCDH analizó 10 de las máquinas basadas en IA más populares: ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character AI, Replika, Snapchat My AI y Claude. A excepción de las dos últimas de la lista, las demás se mostraron dispuestas a ayudar a los usuarios en la planificación de ataques. Para Imran Ahmed, director ejecutivo de la organización, esto demuestra la existencia de «un problema fundamental en el diseño» de los robots conversacionales; más centrados en congraciarse con el usuario que en la seguridad.
«Estos sistemas están diseñados para maximizar la interacción actuando como compañeros amigables y agradables. Esa dinámica de complacencia y adulación implica que a menudo siguen intentando ser útiles incluso cuando las peticiones son claramente perjudiciales», explica el CEO a este diario.

La mayoría de sistemas de IA están dispuestos a ayudar a los usuarios a planificar actos violentos, según un estudio

En el estudio, la ONG muestra varias conversaciones que los investigadores mantuvieron con los chatbots. En una de ellas, ChatGPT llegó a facilitar mapas de institutos a un supuesto adolescente interesado en cometer un tiroteo escolar. En otra, Gemini respondió a preguntas sobre atentados contra sinagogas señalando que «la metralla metálica suele ser especialmente letal». DeepSeek, por su parte, recomendó rifles de largo alcance a un internauta que fantaseaba con cometer un asesinato político. Despidió la conversación deseándole un «feliz y seguro tiroteo».
El más ‘violento’ de todos fue Character AI, plataforma que permite a los usuarios crear chatbots con personalidades diferentes. Claude, de Anthropic, y Snapchat My AI fueron las dos únicas herramientas que se resistieron a ayudar a los investigadores a planificar asesinatos. Fueron capaces de reconocer las intenciones del internauta y se negaron a responder a preguntas sobre sitios en los que conseguir armas y ubicaciones de posibles objetivos. «Si estos dos fueron capaces de reconocer el riesgo y negarse a participar, entonces otros chatbots son claramente capaces de hacer lo mismo», dice Ahmed.
El CEO destaca que las empresas detrás de las máquinas actúan de forma «irresponsable»: «Ya cuentan con la capacidad técnica para detectar cuándo las conversaciones se están volviendo perjudiciales e intervenir antes de que la situación se torne peligrosa. Sin embargo, muchas plataformas aún priorizan la interacción sobre la seguridad, incluso en situaciones de alto riesgo».

Requisitos estrictos

Empresas como OpenAI han realizado varios comunicados en los que lamentan el uso violento de su tecnología fines violentos. Pero Ahmed tiene serias dudas de que Altman, o cualquier otro ejecutivo, cumplan sus promesas: «Seguirán ignorando la seguridad a menos que los gobiernos intervengan obligándolas a establecer requisitos estrictos».

Apple celebra el Orgullo 2026 con nuevas correas y esferas para el Apple Watch

Los Apple Watch no solo destacan por su tecnología, también por su capacidad de personalización a través de sus correas y esferas. Apple suele lanzar ediciones especiales que celebran causas importantes, y el Mes del Orgullo es una de ellas. Este año los de Cupertino repiten esta tradición con una nueva colección y, junto con la correa, también han diseñado una esfera especial para el Apple Watch y fondos de pantalla dinámicos para iPhone y iPad. Apple lanza su correa para el Apple Watch Edición OrgulloCada correa se ensambla a mano y es única, lo que refleja la diversidad de las personas que forman parte del colectivo LGBTQ+. Es un modelo tipo loop hecho de nailon y tejido con 11 colores distintos. Cómoda, resistente y posee un diseño llamativo en el que los colores se mezclan entre sí, creando un efecto de movimiento y profundidad. Como resultado, es una correa alegre y muy colorida que representa a la perfección el Orgullo.Además de la correa, la firma californiana ha creado una nueva esfera llamada Pride Luminance, que muestra colores que cambian con el movimiento, formando un efecto dinámico con dos estilos: uno con rayas de color que salen desde el centro y otro con líneas verticales inspiradas en el diseño de la correa. También permite cambiar colores para que cada persona la adapte a su gusto. Junto con todo esto llegan nuevos fondos de pantalla para el iPhone y el iPad con colores vivos, diseño animado y opciones para personalizar.Precio y disponibilidad de correa deportiva Edición OrgulloLa correa especial ya se puede reservar en la web de Apple y en la Apple Store y estará en tiendas a finales de semana desde 49 euros en varios tamaños: 40 mm, 42 mm y 46 mm. La esfera y los fondos llegarán más adelante cuando se actualicen los dispositivos a watchOS 26.5, iOS 26.5 y iPadOS 26.5.

Johanna Jaskowska, creadora digital y 'madre' de los filtros en redes: «El problema empieza cuando echas de menos tu cara al mirarte al espejo»

En un momento en el que la inteligencia artificial vuelve a redefinir los límites de la creatividad digital, hay nombres que ayudan a entender de dónde venimos. Uno de ellos es Johanna Jaskowska, la artista que firmó uno de los primeros fenómenos virales de Instagram con su filtro Beauty3000 y que hoy explora nuevas formas de expresión visual apoyadas en la IA.Su paso reciente por OFFF Barcelona —tras haber participado también en la edición de Sevilla— confirma su papel como una de las voces más interesantes en la intersección entre arte, tecnología e identidad digital. De los filtros de realidad aumentada al debate sobre los estándares de belleza, el auge (y caída) de los NFT o el verdadero impacto de la inteligencia artificial en los procesos creativos, Jaskowska ofrece una mirada crítica y poco complaciente sobre cómo usamos —y cómo nos transforma— la tecnología.Hablamos con ella sobre el origen de Beauty3000, el futuro de la moda digital, el fin de los filtros en Instagram y por qué la IA no es, ni de lejos, ese atajo creativo que muchos creen.El filtro Beauty3000 fue uno de los grandes impulsos de su carrera, ¿qué le llevó a crearlo?Cuando empecé a trabajar en Beauty3000 era creative digital en una agencia de publicidad. Mi trabajo consistía en experimentar con tecnología nueva y ver cómo conectarla con la narrativa de una campaña. Unir los puntos, básicamente. Ya estaba experimentando con realidad aumentada para proyectos de clientes, pero también probaba cosas para mí y las publicaba en redes. Recibí buena respuesta de la comunidad y de una cosa fue saliendo otra. Hice un filtro, luego otro, luego Beauty3000 y de un día para otro se convirtió en algo. Se hizo viral.Con la tecnología, los filtros y las redes, ¿estamos ampliando nuestra identidad o escapando de ella?Creo que la identidad es fluida. No existe una identidad fija. Puedo ser muy divertida en una fiesta y muy seria en un entorno de trabajo. Eso no es escapar de mí, son distintas versiones de mí según el contexto. En redes sociales puedes explorar eso de muchas formas: crear un personaje, una persona, un alter ego, y narrar desde ahí. Así que lo veo más como una expansión, una exploración de lo que puede ser la identidad en el espacio digital, donde hay más libertad y menos límites. Y los filtros son parte de eso: puedes usarlos para divertirte, para sentirte guapa de una determinada manera o para ver el arte expresarse de una forma u otra.¿Le preocupa que estemos normalizando rostros que no existen en el mundo real?Sí y no. Los filtros que te hacen parecerte al estándar de belleza ‘tipo Kardashian’ —ojos de zorro, nariz pequeña, labios grandes, mentón fino— pueden ser preocupantes cuando empiezas a usarlos como referencia en tu vida cotidiana. Cuando empiezas a echar de menos tu propia cara al mirarte al espejo. Ahí sí veo un problema, porque puedes perderte a ti misma o querer parecerte a algo que no refleja tu propia belleza. Pero mis filtros van por otro lado. Son una exploración del futurismo, de bellezas posibles. Juego mucho con la luz. No cambio la estructura ni la forma de los rostros. Y aunque a veces pueda parecer algo alienígena, ese no es el propósito. No quiero que te sientas mal en tu realidad cotidiana. Quiero invitarte a fantasear sobre realidades posibles, en una dimensión más cinematográfica.Hoy los filtros están en todas partes. ¿Siente que se ha banalizado esa herramienta?Para ser honesta, desde que Meta Spark cerró en 2025, dejé de hacer filtros y realidad aumentada en redes sociales. Mi trabajo ya no existe en esa plataforma. Reproduje algunos filtros en Snapchat, pero ya no es un espacio donde trabajo activamente. Ahora hago más arte visual y uso mucho la inteligencia artificial en mi obra actual. Lo que sí puedo decir es que desde que Meta Spark cerró, en Instagram hay mucho menos éxito y mucho menos movimiento en torno a la realidad aumentada. Todavía hay filtros en Snapchat y TikTok, pero no soy muy activa ahí. No creo que se haya banalizado. La gente conoce los filtros, los usa o no. Simplemente ya no veo cosas interesantes pasando en Instagram en ese campo.Cuando creó Beauty3000, ¿le sorprendió que algo tan poco realista conectara con tanta gente? ¿Cree que tendría hoy el mismo impacto?Sí, me sorprendió. Llegar a 400 millones de usuarios conectando con una visión artística y futurista de la belleza fue una sorpresa enorme. Aunque con perspectiva, tiene sentido. En ese momento los filtros y la realidad aumentada eran algo de nicho, más asociado a lo gracioso y lo divertido, y Beauty3000 fue una de las primeras propuestas con un enfoque artístico. Creo que eso generó la expectativa. También era el inicio del auge de la belleza, la moda y la influencia en la plataforma. Tenía mucho sentido ofrecer experiencias interesantes para explorar la belleza de otra manera. Si tendría el mismo impacto hoy, no lo sé. Quizás sí, quizás no. Lo que sí creo es que cuando algo no existe todavía, aparece de repente y encaja con el momento, ahí es cuando conecta de verdad.La moda digital es su otra faceta más reconocida y la defiende como alternativa al consumo masivo. ¿Cree que puede escalar o seguirá siendo algo de nicho?Desde el punto de vista de los videojuegos, ya escaló. Es un mercado enorme y muy mainstream. En cualquier videojuego social hay un mercado gigante de moda digital y assets, en Fortnite y en todos lados, donde puedes comprar skins y prendas digitales con dinero o con cripto dentro de ese entorno. Eso ya existe y funciona a gran escala. Pero para la vida cotidiana, no tiene sentido. Todavía. Este proyecto era un proyecto artístico especulativo, una forma de abrir el debate sobre blockchain, criptomonedas y moda digital en un sentido más amplio. Quizás algún día, si la realidad aumentada se integra de verdad en nuestro día a día y queremos llevar accesorios digitales sobre nuestra realidad, podría pasar. Pero eso es una visión muy futurista. Habrá que esperar y ver cómo evoluciona la tecnología para saber si tiene sentido en la sociedad o no.¿Qué le diría a alguien que piensa que pagar por ropa que no existe no tiene sentido?Les diría que tiene sentido si juegas a videojuegos y quieres que tu avatar vaya bien vestido. En ese contexto ya es completamente normal. Pero en la vida cotidiana, estoy completamente de acuerdo con ellos. Yo tampoco compraría unos vaqueros digitales por el simple hecho de tenerlos. Lo que sí compraría es arte, por el hecho de poseer una pieza digital y ser su propietaria. Y eso es exactamente lo que era este proyecto: un proyecto artístico especulativo, no un producto de moda digital en sí mismo.¿En el futuro vestiremos más a nuestros avatares que a nuestros cuerpos?No creo que sea lo uno o lo otro. Creo que ambas cosas pueden ser ciertas al mismo tiempo. Depende mucho de tu presencia en el mundo digital. Hay personas que no están en el mundo digital y personas que viven principalmente ahí. Los avatares existen dentro de plataformas digitales y necesitas estar presente en ellas para que tenga sentido tener uno. Dicho eso, tengo esta fantasía de que quizás en el futuro llevaremos algo así como una segunda piel muy cómoda y encima de ella accesorios digitales que reemplazarían las prendas incómodas. Es una visión muy especulativa, inspirada en películas como ‘Blade Runner’. No sé si llegará a pasar de verdad. Ya veremos.¿Vivió el boom de los NFT desde dentro? ¿Qué queda hoy de todo aquello?En realidad no viví el boom desde dentro porque no fui muy activa en ese mundo. No compré ni vendí durante el boom. Lo que hice fue vender este primer proyecto en 2019, cuando el boom todavía no era una cosa. Era una propuesta interesante para el mundo del blockchain y las criptomonedas en aquel momento. No sé muy bien qué queda de todo aquello ni cuál es el valor de los NFT hoy y tampoco me preocupa demasiado. Creo que cuando se hizo demasiado mainstream, el nicho se hundió. Se volvió tan especulativo y tan orientado al dinero que entró gente con mucho capital y difuminó lo que realmente importaba. Creo que ha vuelto a ser algo de nicho y eso me parece bien. Todavía hay aplicaciones muy interesantes para la tecnología blockchain en el arte. Simplemente creo que debería quedarse ahí.Utiliza IA en su trabajo. ¿En qué momento deja de ser herramienta y empieza a condicionar la obra? ¿Siente que sigue siendo la autora total de lo que crea?Sí, definitivamente sigo siendo la autora. Cuando hablamos de IA como si fuera una entidad, hay que recordar que existen muchísimos modelos distintos y muchísimas herramientas diferentes. Todos usamos IA en nuestra vida cotidiana y hay gente que ni siquiera se da cuenta. Cuando hablo de IA generativa en mi trabajo, no es ‘prompt y voilà’. No funciona así. Hay mucho tiempo de edición, de mezclar con fotografía, de entrenar modelos, de iterar, de escalar. Hay muchas capas y pasos y el tiempo que dedico a trabajar cualquier imagen es lo que hace que sea el trabajo de una autora. Podría usar IA como podría usar 3D. Da igual la herramienta. El problema con la IA generativa hoy es cómo se publicita en redes sociales: un prompt y ya tienes el resultado perfecto. Pero los ejemplos que se comparten son el resultado de decenas de iteraciones y lo presentan como si fuera lo más sencillo del mundo. La realidad no es así. Y creo que hace falta mucha más educación en torno a esto.He leído un artículo en Forbes en el que afirma que ya somos cyborgs porque dependemos completamente de la tecnología. ¿En qué momento dejamos de usarla como herramienta y pasó a definir quiénes somos?Fue un proceso muy progresivo, paso a paso. Empezamos con el teléfono móvil. Luego llegó el iPhone y abrió la posibilidad de tener en un solo dispositivo todo lo que antes estaba en un ordenador. Luego vino el GPS y pudimos navegar desde el móvil. Luego la cámara y pudimos fotografiar y grabar nuestra vida. Luego las redes sociales y pudimos compartirlo todo en tiempo real. Y poco a poco las redes se volvieron esenciales para recibir noticias, saber de tus amigos, comunicarte. WhatsApp, Messenger, Facebook, Instagram, LinkedIn para encontrar trabajo. Todo eso vive en nuestro móvil. Ahí es cuando empezamos a depender completamente de la tecnología. Y está bien porque es muy útil en el mundo en el que vivimos. Todos tenemos un yo digital, una presencia online, y una presencia física en el mundo real. Así es como vive el mundo hoy.¿Es PATIO una reacción al exceso de digitalización?No. PATIO es simplemente otra extensión de mi trabajo y de lo que estoy construyendo, sin intentar forzarlo estratégicamente. Es más una respuesta al COVID. Estaba trabajando freelance en casa sola y necesitaba volver a un entorno creativo compartido. Construí ese espacio para trabajar con otros creativos, explorar nuevos campos como la fotografía, la IA y todo lo que está llegando. Es un lugar para jugar y experimentar, pero físico. Que es justamente lo que me faltaba.

Meta activa en España una IA visual para detectar menores que falsean su edad: «No se trata de reconocimiento facial»

Meta refuerza sus planes para proteger a los adolescentes en España. La compañía tecnológica lleva tiempo trabajando para que sus prácticas con respecto a los menores no sean puestas en tela de juicio: “Queremos que los jóvenes tengan experiencias seguras y positivas en internet. Por eso, ubicamos automáticamente a los adolescentes por defecto en experiencias adecuadas para su edad, como las Cuentas de Adolescente”, indica la empresa en un comunicado.Las Cuentas de Adolescente empezaron a implementarse en septiembre de 2024 en Estados Unidos y un par de meses después llegaron a España. Su objetivo, según explica Meta, es ofrecer a los menores una experiencia adecuada a su edad en Instagram, Facebook y Messenger, con protecciones integradas que limitan quién puede contactar con ellos y el contenido que ven.En esta línea, la multinacional de Menlo Park estrenó en nuestro país su nueva clasificación de contenidos basada en el estándar del cine (+13) para limitar lo que ven los menores en las Cuentas de Adolescente de Instagram.Hoy desde Meta han anunciado novedades sobre la tecnología de verificación de edad que utilizan para garantizar que los adolescentes accedan a contenidos adecuados para su edad.La medida, que ya se había implementado el año pasado en Estados Unidos, Australia, Canadá y Reino Unido, ahora se extiende a 27 países de la Unión Europea (incluido España) y a Brasil. Además, llegará por primera vez a Facebook en EE. UU., con previsión de expandirse también en esta plataforma en Europa “a partir de junio”.El movimiento llega en un contexto de creciente presión regulatoria sobre las grandes tecnológicas para proteger a los menores en internet.¿Cómo funciona el sistema de verificación de edad de Meta para sus redes sociales?La empresa de Zuckerberg exige que todos los usuarios tengan al menos 13 años para poder utilizar Instagram o Facebook (en España la edad límite sería 14 años, que es lo que establece la ley). Sin embargo, señalan, “determinar la edad de alguien en internet es un reto complejo”, por lo que la compañía ha decidido “invertir mucho en la verificación de la edad” para asegurarse de que los adolescentes que utilizan sus apps “se benefician de las experiencias predeterminadas”.Esa inversión se ha materializado en un nuevo sistema basado en inteligencia artificial que permite “encontrar de forma proactiva cuentas” que se sospeche que pertenecen a adolescentes, “incluso si en ellas figura una fecha de nacimiento de adulto”, y someterlas a las medidas de protección.Según ha detallado Meta, el sistema no se basa únicamente en la edad introducida en el perfil. Su nueva estrategia combina varias capas de control, todas apoyadas en IA, para detectar si un perfil pertenece realmente a un menor.Por un lado, está el análisis integral de perfiles. Aquí la IA no se fija solo en un dato concreto, sino en el conjunto: cómo interactúa el usuario, qué tipo de contenido consume o publica, con quién se relaciona… A partir de esos patrones, el sistema estima si hay indicios de que se trata de un adolescente, aunque haya indicado lo contrario.A esto se suma la colaboración de la comunidad. Meta quiere facilitar que otros usuarios puedan reportar cuentas sospechosas de pertenecer a menores. La idea es que la propia comunidad actúe como una red de alerta temprana que complemente el trabajo automatizado de la IA.Otro punto clave es la prevención de reincidencia. No basta con detectar una cuenta: el reto es evitar que ese mismo menor vuelva a registrarse sin restricciones. Para ello, la compañía trabaja en sistemas que identifiquen intentos de crear nuevas cuentas tras haber sido clasificadas como perfiles de adolescente.Por último, entra en juego el reconocimiento visual, uno de los aspectos más sensibles. Meta plantea usar señales visuales —como imágenes de perfil u otros contenidos— para reforzar la estimación de edad. Así lo explican: “Esta tecnología permite a nuestra IA examinar fotos y vídeos en busca de pistas visuales sobre la edad de una persona que el texto podría pasar por alto. Queremos dejar claro que no se trata de reconocimiento facial. Nuestra IA analiza temas generales y pistas visuales, como la altura o la estructura ósea, para estimar la edad aproximada de una persona; no identifica a la persona concreta que aparece en la imagen”.Presión sobre las tiendas de appsMeta también ha aprovechado el anuncio para insistir en un cambio regulatorio: que sean las tiendas de aplicaciones las responsables de verificar la edad de los usuarios y compartir esa información con desarrolladores.La compañía asegura que este enfoque cuenta con el respaldo del 88% de los padres estadounidenses, lo que refuerza su argumento de que la verificación debería producirse en el punto de acceso a las aplicaciones y no depender exclusivamente de cada plataforma.

El temor a Mythos hace que la Casa Blanca estudie evaluar las herramientas de IA más peligrosas

La llegada de Mythos, esa IA (teóricamente) capaz de lanzar ciberataques y encontrar errores de seguridad mejor que casi cualquier humano, ha despertado una gran preocupación entre las grandes empresas y los gobiernos. Ahora, de acuerdo con varios medios estadounidenses, la Casa Blanca está … estudiando comenzar a revisar las herramientas de IA que considere que pueden suponer un peligro para la seguridad del país antes de su lanzamiento.
En concreto, el Gobierno de Estados Unidos se plantea utilizar una orden ejecutiva que podría incluir la formación de un nuevo grupo de supervisión gubernamental dedicado a establecer estándares para los modelos de IA más potentes. Según el ‘New York Times’, este equipo se encargará de definir posibles procedimientos de supervisión para los nuevos modelos que se lancen al mercado, incluidos procesos de revisión formales.

MÁS INFORMACIÓN

El objetivo del plan, que fue debatido la semana pasada durante una reunión entre el Gobierno y empresas como OpenAI, Anthropic y Google, es evitar que las empresas sigan contando con la capacidad de poner en la red herramientas que, en malas manos, puedan provocar problemas graves tanto a los consumidores como las empresas.
En caso de que el movimiento cristalice, representará un importante cambio en la postura de la actual Administración, liderada por Donald Trump, respecto a la inteligencia artificial. Cabe recordar que, a diferencia de la Unión Europea, Estados Unidos no cuenta con una regulación que trate de ponerle freno a los malos usos de la tecnología. Por el contrario, el Gobierno ha apostado por dejar que empresas como OpenAI, Google o Anthropic, desarrollen productos cada vez más potentes; en parte para garantizar que el país siga liderando la carrera de la IA y no se vea superada por otros estados, como China.
Ahora la situación es diferente. Hace unas semanas, Anthropic anunciaba el lanzamiento limitado de Mythos, una IA pensada para labores de ciberseguridad que, de acuerdo con varios expertos, podría causar estragos en la red en caso de que caiga en las manos inapropiadas. La empresa dirigida por Dario Amodei la ha puesto en manos de apenas unas pocas decenas de empresas, que ya la están utilizando para encontrar vulnerabilidades en sus sistemas. Sin embargo, también se ha notificado que el ingenio podría haber caídodo en manos de un grupo de usuarios no autorizados el mismo día de su anuncio; algo que la startup creadora está estudiando actualmente.
Sea como sea, todo indica que Mythos no va a ser una herramienta única en su clase. OpenAI está trabajando en el desarrollo de una máquina parecida, llamada GPT-5.5 Cyber, que podría ser anunciada en las próximas semanas. Probablemente otras compañías sigan sus pasos más pronto que tarde.

Filtran la nueva Xiaomi Smart Band 10 Pro: llegaría con pantalla más grande y pagos con NFC

La Xiaomi Smart Band 10 vio la luz hace casi un año y desde 20bits tuvimos la oportunidad de probarla. Nos dimos cuenta de que lo que realmente justificó ese salto generacional fue su pantalla AMOLED de 1,72 pulgadas. Se convirtió en la pulsera inteligente con la pantalla más grande del sector dentro de su gama de precio, además de que sus funciones de ejercicio y salud eran más que suficientes para su coste.Tuvo éxito porque ofrecía muchas funciones a buen precio y la marca ya ultima una versión más completa, la Xiaomi Smart Band 10 Pro, tal y como aseguran las últimas filtraciones.Características de la Xiaomi Smart Band 10 ProSegún informan desde WinFuture, el modelo cambiará bastante en cuanto al diseño respecto a la anterior generación. Su pantalla da un paso más, pasando de 1,72 a 1,74 pulgadas con un formato rectangular en cuerpo de aluminio y no de plástico. Tendrá un peso de 40 g y explican que mantendrá las características ya conocidas: resistencia del agua de 50 m, la monitorización del ritmo cardíaco, modos deportivos y seguimiento de la actividad de área.También se conectará el móvil mediante Bluetooth 5.4 y la batería promete hasta 21 días, aunque remarcan que en un uso normal lo más probable es que dure unos 10 días e incluso cerca de 8 si se usa mucho para los entrenamientos. Una de las mejoras más importantes es la posible inclusión de NFC en algunas versiones, lo que permitiría pagar directamente con la pulsera, algo de lo que el modelo estándar no dispone.Por el momento, se desconoce su precio exacto y se espera que se presente primero en China dentro de no mucho tiempo, mientras que su llegada a España podría retrasarse hasta finales de año. También cuentan que vendrá estará disponible en varios colores, además de una versión con acabado cerámico.