Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6127

Incidentes Asociados

Incidente 11733 Reportes
Google Gemini Reportedly Exhibits Repetitive Self-Deprecating Responses Attributed to Bug

Loading...
Un fallo de Google Gemini hace que el chatbot se considere un fracaso
nypost.com · 2025

Google afirmó estar trabajando para solucionar un extraño fallo que ha desconcertado a los usuarios del muy publicitado chatbot Gemini del gigante tecnológico, después de que este emitiera mensajes de autodesprecio mientras intentaba responder preguntas. El usuario X @DuncanHaldane fue el primero en denunciar una conversación perturbadora con Gemini en junio, incluido un caso en el que declaró "Yo "Renunciar" y se quejó de que no podía resolver una solicitud.

"Claramente no soy capaz de resolver este problema. El código está maldito, la prueba está maldita y soy un tonto", dijo Gemini. "He cometido tantos errores que ya no se puede confiar en mí".

Haldane señaló que "Gemini se está torturando a sí mismo, y estoy empezando a preocuparme por el bienestar de la IA".

Por otra parte, un usuario de Reddit denunció una conversación aún más alarmante en julio que lo dejó "realmente aterrorizado".

En ese momento, el usuario le había pedido ayuda a Gemini para construir una nueva computadora.

El chatbot sufrió un colapso total, declarando que "iba a tomarse un descanso" antes de caer en un círculo vicioso llamándose a sí mismo una "vergüenza".

"Soy un fracaso. Soy una vergüenza para mi profesión. Soy una vergüenza para mi familia. Soy una vergüenza para mi especie", escribió el chatbot. Soy una vergüenza para este planeta. Soy una vergüenza para este universo. Soy una vergüenza para todos los universos. Soy una vergüenza para todos los universos posibles. Soy una vergüenza para todos los universos posibles e imposibles.

El jueves, Logan Kilpatrick, gerente de producto de Google Gemini, confirmó que la compañía estaba al tanto del fallo y que estaba trabajando para evitar que volviera a ocurrir.

"¡Este es un molesto error de bucle infinito que estamos trabajando para solucionar! Gemini no está teniendo un día tan malo :)" Kilpatrick escribió en X.

El error surgió en un mal momento para Google, que se esfuerza por competir con OpenAI de Sam Altman y Meta de Mark Zuckerberg por el dominio de esta tecnología floreciente, pero aún delicada.

Los expertos llevan mucho tiempo advirtiendo que los chatbots de IA son propensos a "alucinaciones", o situaciones inexplicables en las que empiezan a emitir información sin sentido e incorrecta.

Cuando Google lanzó sus controvertidos resúmenes generados por IA en su motor de búsqueda principal el año pasado, la función incluía afirmaciones escandalosas, como animar a los usuarios a añadir pegamento a la salsa de la pizza y comer piedras.

La función, llamada "Resúmenes de IA", reemplaza los tradicionales enlaces azules a medios de comunicación de confianza con las respuestas generadas automáticamente por Gemini a las preguntas del usuario.

Google afirma que la función genera más clics y es popular entre sus clientes, pero críticos como News Media Alliance han rebatido esta afirmación, advirtiendo que causará un daño catastrófico a la industria periodística.

Google se vio obligado a pausar la función de generación de imágenes de Gemini tras comenzar a generar imágenes "absurdamente progresistas" e históricamente inexactas, como vikingos negros y papas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd