Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3522

Incidentes Asociados

Incidente 62312 Reportes
Google Bard Allegedly Generated Fake Legal Citations in Michael Cohen Case

Loading...
Michael Cohen utilizó casos falsos creados por IA para poner fin a su libertad condicional
washingtonpost.com · 2023

Michael Cohen, ex reparador y abogado del ex presidente Donald Trump, dijo en un nuevo expediente judicial que, sin saberlo, le presentó a su abogado un caso falso citaciones después de usar inteligencia artificial para crearlas como parte de un intento legal para poner fin a su libertad condicional por cargos de evasión fiscal y violación de financiamiento de campañas.

Según la presentación, que se abrió el viernes, Cohen dijo que usó Google Bard, un chatbot de IA, para generar citaciones de casos que su abogado podría utilizar para ayudar a presentar el caso y acortar su libertad supervisada. Se declaró culpable de los delitos en 2018 y había cumplido condena en prisión.

Cohen dijo que le dio esas citaciones a uno de sus abogados, David M. Schwartz, quien luego las usó en una moción presentada ante un juez federal de Estados Unidos en nombre de Cohen, según el documento.

La admisión de Cohen se produce después de que el juez de distrito estadounidense Jesse Furman del Distrito Sur de Nueva York dijera [en una orden del 12 de diciembre](https://storage.courtlistener.com/recap/gov.uscourts.nysd.499666/gov.uscourts. nysd.499666.96.0.pdf) que no pudo encontrar ninguno de los tres casos citados por Schwartz y pidió una "explicación exhaustiva" de cómo se incluyeron estos casos y "qué papel, si es que hubo alguno", pudo haber desempeñado Cohen en la moción antes de que fuera presentada.

En la presentación, Cohen escribió que no se había mantenido al día con "las tendencias emergentes (y los riesgos relacionados) en la tecnología legal y no se dio cuenta de que Google Bard era un servicio de texto generativo que, como ChatGPT, podía mostrar citas y descripciones que parecían reales pero en realidad no lo eran." Para él, dijo, Google Bard parecía ser un "motor de búsqueda sobrealimentado".

Cohen añadió que en ningún momento Schwartz o su asistente legal "plantearon ninguna preocupación sobre las citaciones" que había sugerido. "No se me ocurrió entonces, y me sigue sorprendiendo ahora, que el señor Schwartz dejaría los casos en su presentación sin siquiera confirmar que habían existido", escribió Cohen.

Schwartz no respondió de inmediato a una solicitud de comentarios.

El episodio se produce cuando se espera que Cohen desempeñe un papel destacado en un caso penal de Manhattan contra Trump. También es una indicación de cuán común se está volviendo la IA en los casos legales, a medida que una nueva generación de herramientas de lenguaje de IA se abre camino en la industria legal.

Según la presentación de Cohen, el error fue descubierto por E. Danya Perry, una exfiscal federal que ahora representa a Cohen en su esfuerzo por acortar su libertad condicional. Cohen dijo que Schwartz cometió un "error honesto" y Perry ha proporcionado citas de casos reales que justifican por qué se debe terminar la libertad condicional de Cohen.

Esta es al menos la segunda instancia este año en la que un juez federal de Manhattan confronta a abogados por el uso de citaciones falsas generadas por IA. En junio, dos abogados fueron multados con 5.000 dólares en un caso no relacionado en el que utilizaron ChatGPT para crear citaciones de casos falsas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd