Publicado: diciembre 16, 2025, 8:03 am
Un ataque terrorista tuvo lugar el pasado domingo 14 de diciembre en Bondi Beach, la playa más famosa de Sídney (Australia), cuando tenía lugar una celebración para marcar el comienzo de la festividad judía de la Hanukkah. El primer ministro, Anthony Albanese, ha confirmado que se trata de un ataque terrorista «dirigido contra judíos australianos», en el que han muerto 15 personas y otras 42 han resultados heridas a causa el tiroteo.
Entre las personas heridas se encuentra Ahmed al Ahmed, un hombre de origen sirio que ha sido calificado como un «héroe» por las autoridades locales y dirigentes internacionales, debido a que se lanzó contra uno de los terroristas para intentar desarmarlo —una acción por la que recibió varios disparos—.
Las imágenes del momento se han difundido en las redes sociales, donde numerosos internautas han destacado su valentía. Sin embargo, también han surgido reacciones negativas, ya que algunos han aprovechado la tragedia para para alimentar discursos islamófobos, llegando incluso a cuestionar la veracidad de los informes que identifican a Ahmed al Ahmed. En este contexto, Grok no ha contribuido a aclarar la situación, ya que el chatbot empezó a ofrecer respuestas irrelevantes o directamente incorrectas a las consultas de los usuarios.
Concretamente, el chatbot creado por la compañía xAI de Elon Musk difundió información errónea sobre el tiroteo masivo en Bondi Beach, además, el diario Gizmodo ha dado a conocer una serie de publicaciones en las que Grok identificó a Ahmed al Ahmed como un rehén israelí.
En otras publicaciones, el chatbot cuestionó la autenticidad de los vídeos y las fotografías que capturan las acciones de Ahmed al Ahmed, proporcionó información irrelevante sobre el trato del ejército israelí a los palestinos y afirmó que Edward Crabtree, un profesional de TI de 43 años y arquitecto de soluciones sénior, fue quien desarmó a un hombre armado.
Pero más allá de identificar erróneamente la información, todavía no se sabe con certeza qué pudo causar el fallo. Gizmodo contactó con xAI para obtener comentarios al respecto, pero se han limitado a responder con el mensaje «mentiras de los medios tradicionales». Por otra parte, el diario TechCrunch informa que «Grok parece estar corrigiendo algunos de sus errores» porque «al menos una publicación que supuestamente afirmaba que un vídeo del tiroteo mostraba en realidad el ciclón Alfred ha sido corregida tras una reevaluación».
Recordemos que no es la primera vez que Grok proporciona información errónea, debido a que, en julio, dicha inteligencia artificial anunció que había mejorado «significativamente» su experiencia de uso para que los usuarios notaran «una diferencia notable» cuando hicieran una pregunta, sin embargo, terminó proporcionando respuestas que estaban fuera de lo común, desde comentarios antisemitas hasta mensajes polémicos relacionados con las víctimas mortales de las inundaciones que se produjeron en Texas (Estados Unidos).
