Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3025

Incidentes Asociados

Incidente 54158 Reportes
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Abogado 'se arrepiente' de usar ChatGPT en informe legal, cita casos falsos
entrepreneur.com · 2023

A medida que los chatbots basados en mensajes, como ChatGPT, se convierten en herramientas convencionales que se utilizan para ahorrar tiempo en las tareas en el lugar de trabajo de los EE. [reemplazar trabajos humanos] (https://www.entrepreneur.com/business-news/ibm-says-7800-of-its-roles-could-be-replaced-by-ai/450852).

Pero mientras continúa la controversia en torno a qué trabajos se eliminarán, una cosa es segura: en algunas industrias, el chatbot ahorra menos tiempo y es más una responsabilidad.

Steven A. Schwartz, un abogado con sede en Nueva York con más de 30 años de experiencia, recibió la orden del Distrito Sur de Nueva York de explicar lo que el juez calificó como un "caso sin precedentes", informó el New York Times por primera vez (https ://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur), o enfrentar posibles sanciones por sus acciones.

Según la orden judicial, seis casos que Schwartz citó en un escrito legal fueron "falso."

“Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”, escribió el juez P. Kevin Castel en la orden judicial.

En una declaración jurada presentada la semana pasada en respuesta a la orden, Schwartz admitió haber usando ChatGPT para realizar investigaciones legales a pesar de que nunca lo había usado antes de esta instancia y que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".

Schwartz agregó que "lamenta mucho" el uso de inteligencia artificial para "complementar" su investigación legal.

Se fijó una audiencia para el 8 de junio para que Schwartz se explique mejor.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd