Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3524

Incidentes Asociados

Incidente 62312 Reportes
Google Bard Allegedly Generated Fake Legal Citations in Michael Cohen Case

Loading...
La cita del abogado de Michael Cohen sobre un caso ficticio genera sospechas en ChatGPT
newsweek.com · 2023

Abogado de Michael Cohen, el único solucionador y abogado de [Donald Trump](https://www.newsweek.com/topic/donald -trump), ha sido acusado de citar casos judiciales inexistentes en documentos judiciales después de utilizar el programa de inteligencia artificial ChatGPT para investigaciones.

Se alega que David M. Schwartz, que representa a Cohen mientras busca poner fin a su libertad supervisada poco después de ser encarcelado por mentir al Congreso, incluyó tres fallos falsos en noviembre que mostraban que había un precedente para la Corte de Apelaciones de Estados Unidos para la Segunda Guerra Mundial. Circuito haciendo tal movimiento.

Sin embargo, en una respuesta escrita, el juez de distrito estadounidense de Nueva York, Jesse Furman, dijo que parece que "ninguno de estos casos existe". Furman le dijo a Schwartz que debe proporcionar copias de las tres decisiones citadas al tribunal antes del 19 de diciembre, o enfrentar sanciones.

Los expertos ahora han acusado a Schwartz de utilizar IA para investigar casos, mientras señalan que algo similar ocurrió a principios de este año con un abogado que representaba a un hombre que estaba demandando a la aerolínea Avianca.

El ex abogado y leal a Donald Trump, Michael Cohen, sale de un tribunal de Manhattan después de testificar ante un gran jurado el 13 de marzo de 2023 en la ciudad de Nueva York. Su abogado ha sido acusado de utilizar IA para crear documentos judiciales, que incluían casos ficticios. Spencer Platt/Getty Images

Uno de esos expertos, Joe Patrice, editor senior de Above the Law con títulos en economía y ciencias políticas de la Universidad de Oregon y un doctorado en derecho de la Facultad de Derecho de la Universidad de Nueva York, escribió en una columna para el sitio que las presentaciones de Schwartz en el caso de Cohen tienen " todas las características de una búsqueda alucinante de IA utilizando un producto listo para usar como ChatGPT en lugar de uno diseñado específicamente para proporcionar resultados legales".

El reportero Matthew Russell Lee publicó en X, anteriormente Twitter, que "parece que el abogado de Michael Cohen o su IA citaron casos inexistentes" en su intento por poner fin a la vigilancia supervisada. liberar.

Se ha contactado a Cohen y Schwartz para hacer comentarios por correo electrónico.

Furman no acusó específicamente a Schwartz de usar ChatGPT en sus presentaciones legales, pero señaló que existe un precedente para imponer sanciones contra abogados que se encuentran "citando casos inexistentes ante la Corte" mientras hace referencia a la demanda que involucra a Avianca donde se utilizó la herramienta de inteligencia artificial.

En mayo, el abogado Steven Schwartz, sin parentesco, se vio obligado a disculparse después de que se descubrió que había utilizado ChatGPT para investigaciones y terminó citando tres decisiones judiciales inexistentes para respaldar los argumentos de su cliente. La demanda involucró a Roberto Mata demandando a Avianca por acusaciones de que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo de agosto de 2019 de El Salvador a Nueva York.

Luego, Schwartz presentó un escrito que detallaba varios otros ejemplos en los que se habían presentado demandas similares después de que la aerolínea intentara desestimar el caso. Tres de los casos citados (Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines) fueron atribuidos falsamente por ChatGPT y no fueron decisiones judiciales reales, informó The New York Times.

En una declaración jurada posterior, Schwartz dijo que nunca antes había usado ChatGPT, por lo que "no estaba consciente de la posibilidad de que su contenido pudiera ser falso", y le dijo al juez Kevin Castel que "lamenta profundamente" haber usado la herramienta de inteligencia artificial.

Posteriormente, Schwartz fue sancionado y se le ordenó pagar una multa de 5.000 dólares, junto con su colega abogado Peter LoDuca.

"Muchos daños se derivan de la presentación de opiniones falsas. La parte contraria pierde tiempo y dinero en exponer el engaño", escribió Castel en una opinión de junio. "La parte contraria pierde tiempo y dinero exponiendo el engaño. El tiempo del Tribunal se le quita a otros esfuerzos importantes. El cliente puede verse privado de argumentos basados en precedentes judiciales auténticos".

En 2018, Cohen fue sentenciado a tres años, la mayor parte de los cuales pasó en prisión domiciliaria, después de declararse culpable de delitos fiscales federales, mentir al Congreso y a Violaciones de financiación de campaña en relación con los pagos de dinero pagados a la actriz de cine para adultos [Stormy Daniels] (https://www.newsweek.com/topic/stormy-daniels) y a la modelo de Playboy Karen McDougal para mantener en secreto las supuestas aventuras entre ellos y Trump. antes de las elecciones de 2016.

A Cohen le dijeron que debía permanecer bajo tres años de libertad supervisada después de que terminara su sentencia de prisión.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd