Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6786

Incidentes Asociados

Incidente 13073 Reportes
Grok AI Reportedly Generated Fabricated Civilian Hero Identity During Bondi Beach Shooting

Loading...
Grok está fallando y difundiendo información errónea sobre el tiroteo de Bondi Beach
gizmodo.com · 2025

El chatbot de inteligencia artificial Grok de Elon Musk vuelve a fallar.

En esta ocasión, entre otros problemas, el chatbot está difundiendo información errónea sobre el tiroteo de Bondi Beach, en el que al menos once personas murieron en una reunión de Hanukkah.

Un transeúnte, identificado como Ahmed al Ahmed, de 43 años, logró desarmar a uno de los agresores. El video de la interacción se ha compartido ampliamente en redes sociales, y muchos elogian su heroísmo. Excepto aquellos que han aprovechado la oportunidad para explotar la tragedia y propagar la islamofobia, principalmente negando la validez de los informes que identifican al transeúnte.

Grok no está ayudando a la situación. El chatbot parece estar fallando, al menos desde el domingo por la mañana, respondiendo a las consultas de los usuarios con respuestas irrelevantes o, en ocasiones, completamente erróneas.

En respuesta a un usuario que le preguntó a Grok la historia detrás del video que muestra a Al Ahmed derribando al tirador, la IA afirmó: "Este parece ser un antiguo video viral de un hombre trepando una palmera en un estacionamiento, posiblemente para podarla, lo que provocó que una rama cayera y dañara un auto estacionado. Las búsquedas en diversas fuentes no muestran ubicación, fecha ni lesiones verificadas. Podría ser un montaje; la autenticidad es incierta".

En otra instancia, Grok afirmó que la foto que mostraba a Al Ahmed herido era de un rehén israelí tomado por Hamás el 7 de octubre.

En respuesta a la consulta de otro usuario, Grok volvió a cuestionar la autenticidad del enfrentamiento con Al Ahmed, justo después de un párrafo irrelevante sobre si el ejército israelí atacaba deliberadamente a civiles en Gaza.

En otra ocasión, Grok describió un video claramente marcado en el tuit para mostrar el tiroteo entre los agresores y la policía en Sídney como si fuera del ciclón tropical Alfred, que devastó Australia a principios de este año. Aunque en este caso, el usuario insistió en la respuesta para pedirle a Grok que reevaluara la información, lo que hizo que el chatbot se diera cuenta de su error.

Más allá de identificar erróneamente la información, Grok parece estar realmente confundido. A un usuario se le servió un resumen del tiroteo de Bondi y sus consecuencias en respuesta a una pregunta sobre la empresa tecnológica Oracle. También parece ser información confusa sobre el tiroteo de Bondi y el tiroteo de la Universidad de Brown, que tuvo lugar solo unas horas antes del ataque en Australia.

El fallo también se extiende más allá del tiroteo de Bondi. A lo largo de la mañana del domingo, Grok identificó erróneamente a futbolistas famosos, divulgó información sobre el uso de paracetamol durante el embarazo cuando se le preguntó sobre la mifepristona, la píldora abortiva, o habló sobre el Proyecto 2025 y las probabilidades de que Kamala Harris se presente de nuevo a la presidencia cuando se le pidió que verificara una afirmación completamente distinta sobre una iniciativa policial británica.

No está claro qué está causando el fallo. Gizmodo contactó con xAI, desarrollador de Grok, para obtener comentarios, pero solo respondieron con la respuesta automática habitual: "Mentiras de los medios tradicionales".

Tampoco es la primera vez que Grok pierde el contacto con la realidad. El chatbot ha dado bastantes respuestas cuestionables este año, desde una "modificación no autorizada" que provocó que respondiera a cada consulta con teorías de conspiración sobre "genocidio blanco" en Sudáfrica hasta decir que preferiría matar a toda la población judía del mundo antes que vaporizar la mente de Musk.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd