Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5167

Incidentes Asociados

Incidente 10393 Reportes
Anysphere AI Support Bot for Cursor Reportedly Invents Login Policy, Leading to Subscription Cancellations

Loading...
Un gran problema para la IA: las «alucinaciones» empeoran
newser.com · 2025

Algo extraño está sucediendo en el mundo de la inteligencia artificial: a medida que los bots se vuelven más poderosos, generan más errores —"alucinaciones"— que nunca, informa el New York Times. Y como explica el artículo de los periodistas tecnológicos Cade Metz y Karen Weise, "no está del todo claro por qué". Por ejemplo, informan que el nuevo y mejorado sistema de razonamiento o3, implementado por Open AI, alucinó el 33 % del tiempo al realizar una prueba comparativa con preguntas sobre figuras públicas. Es preocupante, pero lo que resulta aún más desconcertante es que la tasa de error duplica la del sistema de razonamiento anterior. Estadísticas similares de otras empresas respaldan la idea de que se trata de una tendencia generalizada en la industria.

En un ejemplo real, relatan cómo un bot de IA para Cursor, una herramienta para programadores, informó a los clientes que una nueva política de la empresa les prohibía usar Cursor en más de un ordenador. Tras una reacción violenta, el director ejecutivo tuvo que explicar que dicha política no existía. El problema principal es que los bots basan sus respuestas en el análisis de grandes cantidades de datos; no pueden determinar qué es objetivamente verdadero o falso. "A pesar de nuestros mejores esfuerzos, siempre alucinan", declara al Times Amr Awadallah, de Vectara, empresa que desarrolla herramientas de IA para empresas. "Eso nunca desaparecerá". - Una publicación en Futurism de Victor Tangermann considera todo lo anterior como un grave problema para la industria. "En resumen, a pesar de sus mejores esfuerzos, las alucinaciones nunca han estado tan extendidas, y por el momento, la tecnología ni siquiera va en la dirección correcta".

  • El año pasado, el director ejecutivo de Nvidia, Jensen Huang, ofreció una evaluación general y predijo que pasaría un tiempo antes de que los bots obtuvieran la información correcta de forma consistente, según Tom's Hardware. "Creo que estamos a varios años de poder lograrlo, y mientras tanto, tenemos que seguir aumentando nuestra capacidad de computación".
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd