Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3528

Incidentes Asociados

Incidente 62312 Reportes
Google Bard Allegedly Generated Fake Legal Citations in Michael Cohen Case

Loading...
El ex 'reparador' de Trump, Michael Cohen, admite haber utilizado Google Bard para citar casos judiciales falsos
ca.finance.yahoo.com · 2023

El ex "reparador" de Donald Trump, Michael Cohen, utilizó [Google Bard](https://www.engadget.com/google-bard-ai-hands-on-a-work-in-progress-with-plenty-of- caveats-170956025.html) para citar casos legales inventados que terminaron en un tribunal federal. The New York Times informó el viernes que Cohen admitió en documentos judiciales no sellados que pasó documentos que hacían referencia a casos falsos a su abogado, quien luego los transmitió a un juez federal. Según se informa, Cohen escribió en la declaración jurada que no se había mantenido al tanto de las "tendencias emergentes (y los riesgos relacionados) en la tecnología legal".

El equipo legal de Cohen presentó la documentación en una moción solicitando el fin anticipado de la supervisión judicial de su caso de financiamiento de campaña de 2018, por el cual [presentó](https://www.justice.gov/usao-sdny/pr/michael-cohen -sentencia-3-años-de-prisión) tres años de prisión. Después de que el abogado de Cohen, David M. Schwartz, presentó los documentos legales al tribunal federal, el juez Jesse M. Furman del Tribunal del Distrito Federal dijo que estaba teniendo problemas para encontrar las tres decisiones citadas por Schwartz (a través de Cohen).

El juez Furman le dijo a Schwartz que si no podía proporcionar documentación de los casos, el abogado debía proporcionar "una explicación detallada de cómo la moción llegó a citar casos que no existen y qué papel, si alguno, jugó el Sr. Cohen en la redacción". o revisar la moción antes de que fuera presentada." Schwartz también debe explicar por qué no debería ser sancionado "por citar ante el tribunal casos inexistentes". Cohen es un ex abogado que fue inhabilitado después de declararse culpable de múltiples delitos graves.

Entra Bardo. Cohen dijo que no se dio cuenta de que el robot de IA "era un servicio de texto generativo que, como ChatGPT, podía mostrar citas y descripciones que parecían reales pero que en realidad no lo eran". Cohen también culpó a su abogado, diciendo que no se dio cuenta de que Schwartz "dejaría los casos en su presentación sin siquiera confirmar que existían".

Aunque los abogados que utilizan chatbots de IA para citar casos alucinados facilitan la comedia, este error podría tener profundas implicaciones para un caso crítico con posibles ramificaciones políticas. Se espera que Cohen sea el testigo estrella en el caso penal de Manhattan contra Trump por supuestamente falsificar registros comerciales. El error de Bard les da a los abogados de Trump nuevas municiones para desacreditar al que alguna vez fue el reparador.

Cohen se une a la compañía de [el abogado de ChatGPT Steven Schwartz](https://www.engadget.com/a-lawyer-faces-sanctions-after-he-used-chatgpt-to-write-a-brief-riddled-with- fake-citations-175720636.html), que citó casos inventados (obtenidos a través del [chabot de OpenAI](https://www.engadget.com/how-openais-chatgpt-has-changed-the-world-in-just -a-year-140050053.html)) en un caso civil a principios de este año. Supuestamente se le unió el abogado del rapero de Fugees, Pras Michel. En octubre, el artista acusó a su abogado de [utilizar un programa de inteligencia artificial en el que podría haber tenido un interés financiero](https://www.engadget.com/fugees-rapper-pras-accuses-his-lawyer-of-using- ai-in-closing-arguments-185311864.html) para presentar sus argumentos finales.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd