Publicado: octubre 1, 2025, 12:30 pm
Un mismo chatbot de inteligencia artificial no siempre responde igual a una misma pregunta. Sistemas como ChatGPT, Grok o la ‘vista creada con IA’ de Google generan sus respuestas en base a probabilidades y a los datos de los que beben, así que cada vez que predice un resultado, puede ser distinto en redacción y en contenido. Esto es algo por lo que habéis preguntado a través del chatbot de WhatsApp de Maldita.es (+34 644 229 319). En esas diferencias se pueden colar datos incorrectos, descontextualizados y desinformación.
Un chatbot de IA puede responder de manera distinta a una misma pregunta ya que funciona gracias a un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés). Estos son modelos matemáticos que han sido entrenados con grandes cantidades de texto para tratar de predecir cómo es más probable que continúe una frase. Las respuestas se basan en probabilidad, según el prompt (instrucción de texto) y lo aprendido durante su entrenamiento, por lo que el resultado de la predicción puede ser distinto.
«Aprenden patrones estadísticos, no reglas humanas», señala a Maldita.es Liany Mendoza, especialista en desarrollo de software e interacción humano-computadora. Por eso, aunque la pregunta sea la misma, no existe una única respuesta correcta. Carmen Torrijos, lingüista computacional y responsable de IA en Prodigioso Volcán, precisa a Maldita.es que «es una tecnología predictiva que fabrica la respuesta cada vez, no la tiene guardada».
Otros factores también influyen, como el historial de la conversación, si el sistema está conectado a internet y la información del usuario, como ubicación o idioma. Julián Estévez, profesor e investigador en inteligencia artificial, indica a Maldita.es que las versiones y actualizaciones del modelo pueden cambiar el resultado: «Si consultas un LLM en diferentes días, puede que interactúes con diferentes versiones del mismo».
Cuando estas respuestas varían, no solo cambia la redacción: también pueden incluir datos incorrectos o descontextualizados, y generar desinformación. Por eso siempre hay que contrastar lo que responde una IA con fuentes de información fiables.
Ocurrió, por ejemplo, con Grok, la IA de la red social X. Ante preguntas sobre una fotografía histórica, ofrecía versiones distintas sobre fecha, lugar y autor, pero todas equivocadas: atribuía la imagen a Estados Unidos durante la Gran Depresión, cuando en realidad fue tomada en Málaga durante el franquismo, según el archivo histórico de la Universidad de Málaga.
También ha sucedido con la ‘vista creada con IA’ de Google: una función que genera un resumen con Gemini, la IA de la empresa, para responder a nuestras búsquedas. Ha pasado con el bulo de los aviones Canadair: circula un contenido que asegura que los 14 aviones Canadair en servicio en España se compraron en 1971 con el franquismo, pero es falso, se compraron durante la democracia. Sin embargo, la ‘vista creada con IA’ de
Google generó un resumen en el que indicaba que fuentes de Maldita.es dicen que no se ha comprado ningún avión Canadair desde Franco (algo que es falso y que además Maldita sí ha desmentido). Distintos compañeros de Maldita.es han repetido la misma búsqueda y, en otras ocasiones, no genera esta vista con IA, pero posiciona el artículo al respecto como primer enlace.