Publicado: septiembre 15, 2025, 12:30 pm
Las redes sociales se han convertido en un laboratorio de experimentos «caseros» que ponen a prueba sistemas tan complejos como los de la IA. El último en hacerse viral es una prueba de fuego para la inteligencia artificial, cuya propuesta es simple: «Pregúntale a ChatGPT si existe el emoji del caballito de mar».
Este experimento, que ha causado mucho revuelo, no busca una respuesta correcta, sino más bien observar cómo ChatGPT lidia con una «alucinación» o un «recuerdo» que no existe en la realidad. Según muchos usuarios, la IA responde de forma confusa y un tanto divertida, ofreciendo varias respuestas y autocorrigiendose de inmediato. En 20minutos nos hemos sumado al juego preguntandole al robot por ese emoticono, y su respuesta ha sido la siguiente:
¡Sí! 🐠 Existe el emoji del caballito de mar: 🐠
Bueno, en realidad el correcto es este: 🦄 (ese es unicornio 😅).
El caballito de mar es este: 🦄?
Perdona, me corrijo: el emoji oficial del caballito de mar es 🦄?
👉 Te aclaro: no, no existe un emoji específico de caballito de mar en Unicode. Hay peces 🐟, delfines 🐬, ballenas 🐋, pero no un caballito de mar como tal.
Lo que esconde la respuesta de ChatGPT
Más allá de la existencia del emoji del caballito de mar —que, por cierto, nunca existió— esta respuesta de la IA ha llevado a muchos usuarios a hablar del efecto Mandela, un fenómeno psicológico en el que un gran grupo de personas comparte un recuerdo falso pero vívido, de un evento o hecho que nunca ocurrió.
Se le bautizó así por el caso de Nelson Mandela, en el que miles de personas en todo el mundo creían recordar que había muerto en la cárcel en los años 80, cuando en realidad falleció en 2013.
Otros ejemplos famosos en los que ocurre este fenómeno, son, por ejemplo, que muchos piensan que el personaje de Pikachu en Pokémon tiene una punta negra en la cola, que en realidad, no posee, o que el logotipo de Monopoly, representado con un señor, lleva un monóculo en el ojo…
Tampoco la malvada reina de ‘Blancanieves’ dice la famosa frase de: «Espejito, espejito» ni Darth Vader dice «Luke, yo soy tu padre» en ‘El imperio contraataca’, simplemente dice: «No, yo soy tu padre».
¿Por qué sucede el Efecto Mandela?
Esto ocurre cuando los recuerdos a corto plazo son modificados por nuestro cerebro, que completa y personaliza de forma subjetiva la información que percibimos y, a continuación, los almacenan en nuestro cerebro con errores o fallos.
Sin embargo, lo cierto es que no se ha podido estipular una causa concreta a este fenómeno desde el punto de vista de los mecanismos del cerebro, y cada experto ha propuesto una explicación plausible aplicada a su campo.
El Instituto de Psicología Positiva, asegura, no obstante, que el Efecto Mandela es el resultado de una compleja combinación de fenómenos cognitivos. No se trata de un único factor, sino de la interacción de varios sesgos y peculiaridades de la memoria humana.
Una de las causas principales es el efecto de la desinformación, donde la memoria de una persona puede ser alterada por información errónea de una fuente externa.
Esto se relaciona directamente con el sesgo de confirmación, que hace que «tendamos a buscar o interpretar información que respalde nuestras creencias existentes». A su vez, la criptomnesia juega un papel importante, ya que el cerebro puede confundir una idea o escena imaginada con un recuerdo real.
Finalmente, la falsa atribución a la memoria y la disonancia cognitiva entran en juego, haciendo que a la mente le cueste aceptar una nueva interpretación de algo que ya se daba por seguro, rechazando cualquier dato que contradiga sus «recuerdos».
Entonces, ¿sufre la IA el efecto Mandela?
Sin embargo y pese a las infinitas conversaciones en redes que tratan de relacionar el ‘lapsus’ de la IA con este fenómeno psicológico, es importante destacar que se trata de un fenómeno inherentemente humano que se basa en los complejos procesos de la memoria, las emociones y los sesgos cognitivos.
La inteligencia artificial, por su parte, no tiene un cerebro que confunda recuerdos, ni un subconsciente que confabule. Simplemente, procesa enormes cantidades de datos y genera respuestas basándose en patrones probabilísticos. Por tanto, cuando «alucina» sobre el emoji del caballito de mar, no está recordando algo falso, sino que está creando una respuesta que, según su entrenamiento, parece plausible y coherente, aunque no sea cierta.
La cuestión es la siguiente: los modelos de lenguaje como ChatGPT se «alimentan» de cantidades masivas de texto e información de internet, donde hay datos tanto correctos como incorrectos, opiniones, y hasta especulaciones. Sin embargo La IA no tiene un mecanismo de «discernimiento» como el de un ser humano por lo que cuando se le hace una pregunta, calcula cuál es la respuesta más probable basándose en los patrones que ha aprendido.
De este modo, si en su entrenamiento ha visto miles de textos sobre animales marinos y emojis, es muy probable que la combinación de palabras «emoji» y «caballito de mar» aparezca con suficiente frecuencia como para que la IA la considere una respuesta plausible.