Sabemos que a ChatGPT le podemos preguntar sobre cualquier cosa gracias a su amplio repertorio de respuestas para resolver cualquier duda o tema. También somos conscientes de que es y será, con las mejoras ya tiene y con las que le llegarán, una auténtica revolución.
Pero no en todos aspectos avanza, sino que incluso en algunos demuestra estar lejos e incluso parecer ‘algo tonto’. Varios usuarios han realizado una serie de preguntas sobre varios nombres y ChatGPT reconoce que no es capaz de dar respuesta.
ChatGPT se queda ‘tonto’ al hablar de varios nombres
Brian Hood, David Mayer, Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza son una serie de nombres para los cuales ChatGPT no tiene respuesta y es incapaz de decir nada al respecto. De hecho, muestra un mensaje de error con las palabras «Soy incapaz de producir una respuesta». Ni siquiera da algo de información, directamente pone el mencionado mensaje.
Da igual que pongas los nombres sueltos, con o sin contexto, que la IA no puede terminar de mencionarlo sin que salte el error, entonces la duda está en porque el chatbot de la compañía de Sam Altman es incapaz de hablar sobre esta lista de nombres. Bien, pues parece que el misterio no lo es tanto cuando todos ellos están relacionados con procesos legales de privacidad.
En un post de Reddit se puede leer que Brian Hood es un alcalde australiano que amenazó con demandar a OpenAI porque ChatGPT le asignaba un delito que él no cometió. Resulta que Hood denuncio una serie de sobornos, pero el chatbot le incrimino a él por recibirlos, es decir, completamente al revés. Turley en su caso es un colaborador de Fox News que fue acusado de realizar una llamada falsa de emergencias que termino con la policía en su vivienda. Scorza, por su parte, es un miembro de la protección de datos de Italia
El resto de nombres también están relacionados con algún tema de privacidad o tiene algún tipo de batalla legal en ese ámbito. De ahí que ChatGPT les considere personas non gratas y que no pueda dar ninguna información sobre ellos. Esto genera dudas sobre si hay más nombres de este tipo con los que el chatbot se queda bloqueado al intentar dar información.