Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3532

Incidentes Asociados

Incidente 62312 Reportes
Google Bard Allegedly Generated Fake Legal Citations in Michael Cohen Case

Loading...
Michael Cohen utilizó una herramienta de inteligencia artificial para generar casos falsos en los expedientes judiciales
independent.co.uk · 2023

Michael Cohen, el antiguo abogado y “reparador” de Donald Trump, utilizó Google Bard, el programa de inteligencia artificial, para proporcionar a su abogado citas legales ficticias, según documentos judiciales recientemente revelados.

Las citaciones falsas se incluyeron luego en una moción presentada ante un juez federal de Manhattan para abogar por el fin anticipado de la supervisión judicial de Cohen después de haber sido liberado de prisión por cargos de violación de financiamiento de campaña de los que se declaró culpable en 2018.

Cohen explicó en una declaración jurada publicada el viernes (29 de diciembre) que no se había mantenido al tanto de las “tendencias emergentes (y los riesgos relacionados) en la tecnología legal y no se dio cuenta de que Google Bard era un servicio de texto generativo que, como ChatGPT, podría mostrar citas y descripciones que parecían reales pero que en realidad no lo eran”.

Añadió que tampoco se dio cuenta de que su abogado, David Schwartz, “dejaría los casos en su presentación al por mayor sin siquiera confirmar que existían”.

La existencia de citaciones de casos falsos salió a la luz a mediados de diciembre cuando el juez Jesse Furman pidió al Sr. Schwartz que proporcionara al tribunal copias de ellas, habiendo descubierto que, hasta donde él sabía, “ninguno de estos casos existe”.

El juez Furman escribió: “Además, el Tribunal se puso en contacto con el Secretario del Tribunal de Apelaciones del Segundo Circuito de los Estados Unidos, quien no encontró ningún registro de ninguna de las tres decisiones e informó que el número de expediente que figuraba... no es un número de expediente válido”.

La nueva abogada de Cohen, Danya Perry, también dijo al tribunal que no podía encontrar los casos judiciales citados.

Este episodio vergonzoso tiene implicaciones más amplias para Cohen.

Se espera que el ex confidente de Trump sea el testigo estrella en el caso penal de Manhattan contra el ex presidente por los pagos de dinero a la estrella de cine para adultos Stormy Daniels.

El equipo legal de Trump, así como el propio expresidente, han retratado durante mucho tiempo a Cohen como un mentiroso y fabulista en serie, y se han burlado de su actuación en el estrado de los demandantes en la [Organización Trump] del estado de Nueva York (/topic/trump-organization ) juicio por fraude civil.

La nueva revelación de que tanto Cohen como su abogado presentaron citas ficticias proporcionadas por un programa gratuito de inteligencia artificial sólo agregará munición a sus ataques e intentos de socavar su credibilidad en el estrado de los testigos.

Esta no es la primera vez este año que un tribunal de Manhattan ha tenido que lidiar con citaciones legales falsas generadas por IA.

En junio, dos abogados que se disculparon respondiendo a un juez enojado en un tribunal federal [culparon a ChatGPT por engañarlos para que incluyeran investigaciones legales ficticias] (https://www.independent.co.uk/news/ap-lawyers-chatgpt-new-york -manhattan-b2354342.html) en un expediente judicial.

Los abogados Steven Schwartz y Peter LoDuca presentaron una demanda contra una aerolínea que incluía referencias a casos judiciales anteriores que Schwartz pensó que eran reales pero que en realidad fueron inventados por el chatbot de IA.

Schwartz explicó que utilizó el innovador programa mientras buscaba precedentes legales que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida en un vuelo de 2019.

En las decisiones judiciales pertinentes se incluyeron Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines.

Al igual que en el caso Cohen, el problema fue que varios de los casos no eran reales y otros involucraban a aerolíneas que no existían.

Actualmente está previsto que el caso penal de Manhattan contra Trump llegue a juicio el 25 de marzo de 2024.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd