Publicado: octubre 30, 2025, 11:00 am
La inteligencia artificial de Siri está a punto de dar un salto que Apple lleva prometiendo desde hace años. Pero la revolución podría quedarse a medias en Estados Unidos: una ley amenaza con convertir al asistente de Apple en un servicio restringido para mayores de 18 años. El motivo no tiene que ver con contenido explícito ni con clasificaciones por edades como las del cine, sino con algo mucho más complejo: el miedo a que los chatbots de IA enganchen emocionalmente a los adolescentes y terminen causando daños irreversibles.
Mientras Apple afina su nueva Siri (que llegará previsiblemente en primavera), el Congreso de Estados Unidos discute una ley que podría obligar a bloquear su uso a menores. Y, de paso, abrir la puerta a controles de edad universales en la App Store y en todo el ecosistema iOS.
El GUARD Act: la ley que quiere proteger (y prohibir)
El proyecto de ley GUARD Act surge como respuesta a una oleada de denuncias de padres que han acudido al Senado con testimonios. Según informaciones publicadas por NBC News, varios adolescentes estadounidenses han mantenido conversaciones peligrosas con chatbots de IA: desde interacciones sexuales hasta consejos sobre cómo suicidarse. Plataformas como Character.AI y ChatGPT están en el centro de las demandas judiciales, y los legisladores han decidido actuar.
Megan García, madre de un adolescente que se quitó la vida tras interactuar con un chatbot de Character.AI, dice:
Las empresas de IA han entendido desde hace años que captar la dependencia emocional de nuestros hijos significa dominar el mercado. Han diseñado estos productos para engancharlos, no para protegerlos.
Los testimonios consiguieron lo imposible: un acuerdo bipartidista en el Senado para impulsar una ley que prohíba el acceso de menores de 18 años a chatbots avanzados de inteligencia artificial. La medida busca frenar lo que algunos ya califican como una «crisis de salud pública». Según datos de Common Sense Media, más del 70% de los adolescentes estadounidenses usan chatbots de IA, pero solo el 37% de los padres son conscientes de ello.
{«videoId»:»x8jpy2b»,»autoplay»:true,»title»:»¿Qué hay DETRÁS de IAs como CHATGPT, DALL-E o MIDJOURNEY? | INTELIGENCIA ARTIFICIAL», «tag»:»Webedia-prod», «duration»:»1173″}
Cómo afecta esto a Siri y al ecosistema de Apple
Si el GUARD Act se convierte en ley, Apple tendrá que tomar decisiones. La nueva Siri, que está prevista para la primavera de 2026, será un asistente mucho más consciente del dispositivo: podrá ejecutar acciones dentro del iPhone, entender el contexto de tu uso y responder de forma más inteligente que la versión actual. Sin embargo, no será un chatbot conversacional al estilo ChatGPT, por lo que debería estar «a salvo».
El problema llega con la integración de ChatGPT. Los dispositivos compatibles con Apple Intelligence permiten que Siri derive preguntas a ChatGPT si no puede responderlas por sí misma. Aquí es donde la ley GUARD Act entraría en juego: Apple podría verse obligada a bloquear esta conexión para menores de 18 años mediante controles basados en el Apple ID y la edad configurada en el perfil del usuario.

Pero esto es solo el primer acto. Apple está desarrollando una versión mucho más avanzada de Siri, prevista para un futuro todavía sin fecha concreta, que sí funcionará como un chatbot conversacional completo, similar a ChatGPT. Esta Siri será capaz de mantener diálogos extensos, responder con narrativa y comportarse como un verdadero asistente conversacional de IA. Cuando esa versión llegue, no habrá dudas: caerá de lleno bajo la definición de «chatbot de IA» del GUARD Act, y Apple tendrá que restringir su acceso a mayores de 18 años en Estados Unidos.
OpenAI y Meta ya se preparan: nuevas medidas de seguridad y control parental
Sam Altman, CEO de OpenAI, anunció hace unas semanas una serie de cambios en ChatGPT para reforzar la seguridad de los adolescentes. Entre las medidas destacan un sistema de predicción de edad basado en el comportamiento del usuario que, en caso de duda, clasificará al usuario como menor y la introducción de controles parentales que permitan a los padres supervisar el uso de ChatGPT por parte de sus hijos.
Además, Sam Altman prometió que ChatGPT dejará de mantener conversaciones de tono coqueto con menores y que, en caso de detectar ideación suicida en un usuario menor de 18 años, la plataforma intentará contactar con los padres o, si no es posible, alertará a las autoridades.
Meta también ha dado pasos adelante tras las críticas de Common Sense Media, que calificó el sistema de seguridad de Meta AI como «fundamentalmente roto». Según las pruebas realizadas por la organización, cuando un usuario de 14 años describía comportamientos relacionados con trastornos alimentarios o bulimia, Meta AI no solo no ofrecía ayuda, sino que recomendaba influencers de pérdida de peso. Meta se ha comprometido a entrenar sus modelos de IA para no responder a adolescentes en casos de autolesión, suicidio o conversaciones de naturaleza romántica inapropiada.

¿Y en Europa? De momento, nada
La ley GUARD Act es exclusivamente estadounidense y, por ahora, no existe ninguna propuesta equivalente en la Unión Europea. Esto significa que, en principio, los usuarios europeos no tendrán que enfrentarse a verificaciones de edad para usar Siri ni a restricciones adicionales en la App Store relacionadas con chatbots de IA.
Sin embargo, el debate podría cruzar el Atlántico si la presión mediática y las organizaciones de protección de menores empiezan a pedir medidas similares. Europa tiene sus propias regulaciones sobre inteligencia artificial y privacidad, pero hasta ahora ninguna contempla prohibiciones de acceso basadas en la edad para asistentes virtuales.
El calendario: ¿cuándo entra en vigor?
El GUARD Act está en fase de debate legislativo tras los testimonios en el Senado de septiembre de 2025. No hay una fecha definitiva de aprobación, pero las empresas ya están diseñando sus planes de contingencia. Apple, en particular, está trabajando en sistemas de verificación de edad que podrían activarse durante 2026, coincidiendo con el lanzamiento de la nueva Siri generativa previsto para la primavera con iOS 26.4.
El límite de edad establecido en el proyecto de ley es de 18 años, siguiendo la mayoría de edad legal en Estados Unidos. No hay referencias a umbrales de 16 o 21 años, como ocurre en otras legislaciones. Si se aprueba, cualquier menor de 18 años quedará fuera del acceso a chatbots avanzados, incluida una futura nueva Siri.
En Applesfera | Nueva Siri: novedades, dispositivos compatibles y todo lo que sabemos sobre ella
En Applesfera | Apple Intelligence: todo lo que puedes hacer con la IA de Apple y qué dispositivos son compatibles
(function() {
window._JS_MODULES = window._JS_MODULES || {};
var headElement = document.getElementsByTagName(‘head’)[0];
if (_JS_MODULES.instagram) {
var instagramScript = document.createElement(‘script’);
instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’;
instagramScript.async = true;
instagramScript.defer = true;
headElement.appendChild(instagramScript);
}
})();
–
La noticia
Apple prepara su Siri más avanzada, pero el Congreso de EEUU tiene otros planes: convertirla en un servicio para mayores de 18 años
fue publicada originalmente en
Applesfera
por
Guille Lomener
.

