Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1039: El bot de soporte de inteligencia artificial de Anysphere para Cursor inventa una política de inicio de sesión que provoca cancelaciones de suscripciones.

Descripción:
Traducido por IA
En abril de 2025, los usuarios de Cursor, un asistente de programación con IA desarrollado por Anysphere, reportaron haber cerrado sesión inesperadamente. Un bot de soporte con IA, "Sam", supuestamente respondió con una política de inicio de sesión inventada para justificar el comportamiento. Esta política imaginaria no se basaba en ningún cambio real de la empresa. El incidente, según se informa, provocó la cancelación de suscripciones.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Anysphere y Unknown LLM developer developed an AI system deployed by Cursor y Anysphere, which harmed Software developers , Small businesses relying on Cursor y Cursor users.
Sistemas de IA presuntamente implicados: Cursor login system y Cursor AI support bot ("Sam")

Estadísticas de incidentes

ID
1039
Cantidad de informes
2
Fecha del Incidente
2025-04-19
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Una IA de atención al cliente se volvió descontrolada: es una advertencia para todas las empresas que estén considerando reemplazar a sus trabajadores con automatización.
La IA se vuelve más poderosa, pero sus alucinaciones empeoran
Una IA de atención al cliente se volvió descontrolada: es una advertencia para todas las empresas que estén considerando reemplazar a sus trabajadores con automatización.

Una IA de atención al cliente se volvió descontrolada: es una advertencia para todas las empresas que estén considerando reemplazar a sus trabajadores con automatización.

fortune.com

La IA se vuelve más poderosa, pero sus alucinaciones empeoran

La IA se vuelve más poderosa, pero sus alucinaciones empeoran

nytimes.com

Una IA de atención al cliente se volvió descontrolada: es una advertencia para todas las empresas que estén considerando reemplazar a sus trabajadores con automatización.
fortune.com · 2025
Traducido por IA

La startup de inteligencia artificial Anysphere ha estado en alza durante los últimos dos meses, gracias a la creciente popularidad de su asistente de codificación de software impulsado por inteligencia artificial, Cursor. La empresa, que e…

La IA se vuelve más poderosa, pero sus alucinaciones empeoran
nytimes.com · 2025
Traducido por IA

El mes pasado, un bot de IA que gestiona el soporte técnico de Cursor, una herramienta prometedora para programadores informáticos, alertó a varios clientes sobre un cambio en la política de la empresa. Indicaba que ya no se les permitía us…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Uber Autonomous Cars Running Red Lights

Danger, danger! 10 alarming examples of AI gone wild

Aug 2014 · 10 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
Uber Autonomous Cars Running Red Lights

Danger, danger! 10 alarming examples of AI gone wild

Aug 2014 · 10 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5