Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3021

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un abogado usó ChatGPT para respaldar una demanda. No salió bien.
thestreet.com · 2023

La gente ha intentado usar ChatGPT para todo, desde medir el rendimiento de las acciones y automatizar mensajes de trabajo hasta escribir ensayos universitarios que luego pasan como propio.

Mientras continúa el debate sobre hasta dónde se puede (y se debe) llevar el uso de inteligencia artificial  , los clientes que pagan por servicios profesionales pueden no estar contentos de que se usen en su nombre.

Un abogado terminó en aprietos después de utilizar la investigación judicial generada por ChatGPT en un caso para el que fue contratado. ChatGPT es el sistema de IA conversacional desarrollado por OpenAI y respaldado masivamente por Microsoft.

Como informado por primera vez por The New York Times, Roberto Mata contrató al bufete de abogados de Nueva York Levidow, Levidow & Oberman después de que un carro de metal lo atropellara en el aeropuerto John F. Kennedy.

Abogado 'sin darse cuenta de que su contenido podría ser falso'

Mata había demandado a la aerolínea colombiana Avianca Airlines  (AVHOQ)  por sus lesiones. Cuando la aerolínea le pidió a un tribunal federal de Manhattan que desestimara el caso, el juez no pudo encontrar los casos a los que hacían referencia los abogados de Mata para argumentar por qué debería proceder.

"Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", escribió el juez P. Kevin Castel en una solicitud de aclaración del bufete de abogados.

Después de que se descubrió que no existían casos de otros clientes que demandaron a Delta Airlines (DAL) y Korean Air Lines, el abogado Steven A. Schwartz dijo que había usado ChatGPT mientras estaba "sin saber que su contenido podría ser falso".

Antes de producir texto en nombre de los usuarios, ChatGPT emite advertencias de que puede "producir información inexacta".

Schwartz le dijo al juez que no tenía la intención de engañar al tribunal ni a la aerolínea, que "lamenta mucho" la situación y que no volvería a usar ChatGPT sin verificar completamente sus resultados.

El juez calificó la situación de "circunstancia sin precedentes".

Schwartz ahora enfrenta una audiencia judicial el 8 de junio sobre si debe ser sancionado, [informó CNN](https://www.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index .html).

Debate sobre cuándo se puede usar ChatGPT

El uso de ChatGPT está menos mal visto si solía acelerar ciertas tareas. Un desarrollador web bajo el nombre de Daniel [dicho recientemente ](https://www.vice.com/en/article/v7begx/overused-hustlers-exploit-chatgpt-to-take-on-even-more-full-time -jobs) Vice's Motherboard que usa la plataforma para responder ciertos correos electrónicos y hacer el trabajo inicial de escribir código que luego revisa manualmente.

En general, sin embargo, aquellos que usan ChatGPT en el trabajo se mantienen callados debido a la discusión en curso sobre cuánto se puede usar antes de que se vuelva poco ético.

"Si soy honesto, a ChatGPT le gusta el 80 por ciento de mi trabajo", le dijo a Vice un trabajador de tecnología que consiguió un trabajo adicional escribiendo materiales de marketing. El trabajador se mantuvo en el anonimato para no meterse en problemas con su empleador.

Y claramente nadie debería usar el programa sin asegurarse de la veracidad de los resultados que arroja.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd