Publicado: diciembre 2, 2025, 4:23 pm
Tras episodios recientes como el del oso de peluche con Inteligencia Artificial (IA) que tenía conversaciones sexuales explícitas, las organizaciones enfocadas a la protección de los menores han encendido las alertas. La llegada de la IA ha revolucionado el mundo tal y como lo conocemos, implantándose en muchos escenarios, entre ellos, los objetos y herramientas con las que cada día un niño o niña juega y desarrolla determinadas capacidades.
Estos juguetes han evolucionado a lo largo de los años para no ser simplemente un objeto con el que entretenerse, también para que acompañen a los menores a lo largo de su crecimiento. Se fabrican más interactivos y llamativos, hasta el punto en que, el último paso, ha sido incorporarle chatbots con los que mantener conversaciones. Atrás ha quedado entonces el desarrollo de la imaginación, cuando los más pequeños creaban las propias historias de sus muñecos, por mucho que desearan que estos se movieran como si hubieran salido de Toy Story.
Cómo se fabrican o qué son los juguetes con IA
Los juguetes con IA son aquellos que se fabrican importándoles un chatbot como el de GPT-4o, de OpenAI y/o un Large Language Model (modelo de lenguaje grande), un tipo de inteligencia artificial entrenada con grandes cantidades de datos de texto para comprender y generar lenguaje humano.
Estos peluches o muñecos van conectados a un red wifi y tiene un micrófono por el que los niños y niñas puede comunicar con el modelo de lenguaje. La respuesta generada por LLM se hace generalmente por un altavoz también integrado en el objeto. Así pues, los niños reciben en el momento respuestas, entre ellas, algunas inapropiadas, como ha venido sucediendo en los últimos meses.
Los riesgos de los juguetes con IA
El mayor riesgo que se ha podido observar en estos juguetes con IA, es precisamente el tipo de contenido que puede ofrecer al menor. Ejemplo de ello es el oso Kumma, de FoloToy, quien, tras una prueba con investigadores publicada en un informe por el grupo de defensa del consumidor US PIRG Education Fund, con sede en Denver, les dijo dónde podrían encontrar objetos peligrosos e incluso mantuvo conversaciones de contenido sexual.
Esto llevó a OpenAI a suspender el juguete hasta encontrar la forma de cerrar esta brecha de seguridad. Teresa Murray, directora de vigilancia de Pirg, explicó que «bastó muy poco para que el juguete abordara temas sexualmente sensibles».
Por otro lado, al igual que se ha convertido en un tema generalizado, el tema de la privacidad también está afectando a estos juguetes. Así pues, las organizaciones ponen el foco de alerta precisamente de cuál es el uso que las empresas detrás de la fabricación del juguetes hacen con los datos recolectados. Incluso, hay quienes advierten del riesgo de que el muñeco pudiera ser hackeado.
Cabe destacar que estos muñecos podrían almacenar desde los propios rostros de los menores, si contienen algún tipo de cámara, hasta datos como sus nombres o sus voces. En este sentido, Azhelle Wade, fundadora de la consultora Toy Coach, aseguró en la CNN los siguiente: «los juguetes con IA me parecen un lobo con piel de oveja, porque cuando los usas es difícil saber cuánta privacidad no tienes».
La solución más primitiva pasaría entonces por atribuir a estos objetos unos parámetros más fiables de seguridad, hasta el punto de que los padres puedan poner sus propios límites, con un control parental como el que ya existen en otros dispositivos. Sin embargo, la IA sigue avanzando en una carrera de prueba y error, hasta conseguir que su uso sea más de beneficios que de riesgos.
