Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3011

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un abogado enfrenta sanciones después de que usó ChatGPT para escribir un informe plagado de citas falsas
engadget.com · 2023

Con el entusiasmo por la IA alcanzando un punto álgido en los últimos meses, muchas personas temen programas como [ChatGPT](https://www.engadget.com/openai-just-released-gpt-4-a-multi-modal-generative- ai-172326765.html) algún día los dejará sin trabajo. Para un abogado de Nueva York, esa pesadilla podría convertirse en realidad antes de lo esperado, pero no por las razones que podría pensar. Según lo informado por The New York Times, el abogado Steven Schwartz del bufete de abogados Levidow, Levidow and Oberman recurrió recientemente al chatbot de OpenAI en busca de ayuda para redactar un informe legal, con resultados previsiblemente desastrosos.

La firma de Schwartz ha estado demandando a la aerolínea colombiana Avianca en nombre de Roberto Mata, quien afirma que resultó herido en un vuelo al Aeropuerto Internacional John F. Kennedy en la ciudad de Nueva York. Cuando la aerolínea le pidió recientemente a un juez federal que desestimara el caso, los abogados de Mata presentaron un escrito de 10 páginas argumentando por qué la demanda debería proceder. El documento citaba más de media docena de decisiones judiciales, incluidas “Varghese contra China Southern Airlines”, “Martínez contra Delta Airlines” y “Miller contra United Airlines”. Desafortunadamente para todos los involucrados, nadie que leyó el escrito pudo encontrar ninguna de las decisiones judiciales citadas por los abogados de Mata. ¿Por qué? Porque ChatGPT los fabricó todos. Ups.

En una declaración jurada presentada el jueves, Schwartz dijo que había usado el chatbot para “complementar” su investigación para el caso. Schwartz escribió que "no estaba al tanto de la posibilidad de que el contenido de [ChatGPT] pudiera ser falso". Incluso compartió capturas de pantalla que mostraban que le había preguntado a ChatGPT si los casos que citaba eran reales, a lo que el programa respondió que sí, alegando que las decisiones se podían encontrar en “bases de datos legales acreditadas”, incluidas Westlaw y LexisNexis.

Schwartz dijo que "lamenta mucho" usar ChatGPT "y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad". Si tiene otra oportunidad de escribir un informe legal está en el aire. El juez que supervisa el caso ordenó una audiencia el 8 de junio para discutir posibles sanciones por la "circunstancia sin precedentes" creada por las acciones de Schwartz.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd