Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4827

Incidentes Asociados

Incidente 96011 Reportes
Plaintiffs' Lawyers Admit AI Generated Erroneous Case Citations in Federal Court Filing Against Walmart

Loading...
Una IA que inventa casos puede hacer que despidan a los abogados, advierte un bufete escandalizado
arstechnica.com · 2025

Morgan & Morgan, que se autodenomina "el bufete de abogados especializado en lesiones más grande de Estados Unidos" que lucha "por la gente", aprendió a las malas este mes que incluso un solo abogado que cite ciegamente una jurisprudencia generada por IA puede arriesgarse a manchar la reputación de todo un bufete nacional.

En una carta compartida en un expediente judicial, el director de transformación de Morgan & Morgan, Yath Ithayakumar, advirtió a los más de 1000 abogados del bufete que citar casos falsos generados por IA en los expedientes judiciales podría ser motivo de medidas disciplinarias, incluido el "despido".

"Este es un problema grave", escribió Ithayakumar. "La integridad de su trabajo legal y su reputación dependen de ello".

Los problemas de inteligencia artificial de Morgan & Morgan surgieron en una demanda que afirmaba que Walmart estaba involucrado en el diseño de un juguete de patineta voladora supuestamente defectuoso que supuestamente causó el incendio de la casa de una familia. A pesar de ser un litigante experimentado, Rudwin Ayala, el abogado principal de la firma en el caso, citó ocho casos en una presentación judicial que los abogados de Walmart no pudieron encontrar en ningún otro lugar excepto en ChatGPT.

Estos "casos citados aparentemente no existen en ningún otro lugar que no sea el mundo de la inteligencia artificial", dijeron los abogados de Walmart, instando al tribunal a considerar sanciones.

Hasta el momento, el tribunal no se ha pronunciado sobre posibles sanciones. Pero Ayala fue inmediatamente apartado del caso y fue reemplazado por su supervisor directo, T. Michael Morgan, Esq. Morgan, que expresó su "gran vergüenza" por las citas falsas de Ayala que hicieron perder el tiempo al tribunal, llegó a un acuerdo con los abogados de Walmart para pagar todos los honorarios y gastos asociados con la respuesta a la presentación judicial errónea, que Morgan dijo al tribunal debería servir como una "historia de advertencia" tanto para su firma como para "todas las firmas".

Reuters descubrió que los abogados que citan incorrectamente casos alucinados por IA han complicado los litigios en al menos siete casos en los últimos dos años. Algunos abogados han sido sancionados, incluido un caso temprano en junio pasado en el que se multó a los abogados con 5.000 dólares por citar "galimatías" de chatbots en los documentos presentados. Y en al menos un caso en Texas, según informó Reuters, un abogado fue multado con 2.000 dólares y se le exigió que asistiera a un curso sobre el uso responsable de la IA generativa en aplicaciones legales. Pero en otro incidente de alto perfil, Michael Cohen, ex abogado de Donald Trump, evitó sanciones después de que Cohen accidentalmente le dio a su propio abogado tres citaciones de casos falsos para ayudar a su defensa en su litigio penal por impuestos y financiamiento de campañas.

En un presentación judicial, Morgan explicó que Ayala fue el único responsable de las citaciones de AI en el caso de Walmart. Nadie más involucrado "tenía conocimiento o siquiera se dio cuenta" de que la presentación judicial errónea "contenía algún contenido generado por IA, y mucho menos contenido alucinado", dijo Morgan, insistiendo en que, de haberlo sabido, habría exigido a Ayala que verificara de forma independiente todas las citas.

"El riesgo de que un tribunal pudiera basarse en casos inventados e incorporarlos a nuestro cuerpo de derecho consuetudinario es un pensamiento nauseabundo y aterrador", dijo Morgan, "profundamente" disculpándose con el tribunal al tiempo que reconocía que la IA puede ser "peligrosa cuando se usa sin cuidado".

Además, dijo Morgan, está claro que su firma debe trabajar más duro para capacitar a los abogados en las herramientas de IA que la firma ha estado utilizando desde noviembre de 2024 que estaban destinadas a apoyar, no reemplazar, a los abogados mientras investigaban los casos. A pesar de que la firma supuestamente advirtió a los abogados que la IA puede alucinar o fabricar información, Ayala afirmó sorprendentemente que "erróneamente" creía que el "soporte interno de IA" de la firma era "plenamente capaz" no solo de investigar sino también de redactar informes.

"Esta presentación profundamente lamentable sirve como una dura lección para mí y para nuestra firma, ya que entramos en un mundo en el que la inteligencia artificial se entrelaza cada vez más con la práctica diaria", dijo Morgan al tribunal. "Si bien la inteligencia artificial es una herramienta poderosa, es una herramienta que debe usarse con cuidado. No hay atajos en la ley".

Andrew Perlman, decano de la facultad de derecho de la Universidad de Suffolk, aboga por un uso responsable de la IA en los tribunales y dijo a Reuters que los abogados que citan ChatGPT u otras herramientas de IA sin verificar los resultados son "incompetencia, pura y simple".

Morgan & Morgan rechazó la solicitud de Ars de hacer comentarios.

La firma de abogados realiza cambios para evitar las citas de IA

Morgan & Morgan quiere asegurarse de que nadie más en la firma cometa los mismos errores que Ayala. En la carta enviada a todos los abogados, Ithayakumar reiteró que la IA no se puede utilizar únicamente para investigar casos de manera confiable o redactar informes, ya que "la IA puede generar respuestas plausibles que pueden ser información completamente inventada".

"Como todos los abogados saben (o deberían saber), se ha documentado que la IA a veces inventa jurisprudencia, con citas inventadas, sentencias e incluso citas directas", decía su carta. "Como ya les hemos indicado, si utilizan la IA para identificar casos que se deben citar, cada caso debe ser verificado de forma independiente".

Si bien Harry Surden, un profesor de derecho que estudia cuestiones legales relacionadas con la IA, dijo a Reuters que "los abogados siempre han cometido errores", también sugirió que una dependencia cada vez mayor de las herramientas de IA en el ámbito legal requiere que los abogados aumenten su alfabetización en IA para comprender plenamente "las fortalezas y debilidades de las herramientas". (Una encuesta de Reuters de julio de 2024 [https://www.thomsonreuters.com/content/dam/ewp-m/documents/thomsonreuters/en/pdf/reports/future-of-professionals-report-2024.pdf) descubrió que el 63 por ciento de los abogados han utilizado IA y el 12 por ciento la utiliza regularmente, después de que los expertos señalaran un cambio de paradigma impulsado por la IA en el ámbito legal en 2023.)

En Morgan & Morgan, ha quedado claro en 2025 que se necesita una mejor capacitación en IA en toda su firma a nivel nacional. Morgan le dijo al tribunal que el equipo de tecnología de la firma y los miembros de gestión de riesgos se han reunido para "discutir e implementar políticas adicionales para evitar que esto vuelva a ocurrir en el futuro".

Además, se agregó una casilla de verificación que reconoce el potencial de la IA para producir alucinaciones, y se debe hacer clic en ella antes de que cualquier abogado de la firma pueda acceder a la plataforma de IA interna.

"Además, se están discutiendo salvaguardas y capacitación para protegerse contra cualquier uso erróneo de la inteligencia artificial", dijo Morgan al tribunal.

No está claro si estos esfuerzos ayudarán a Morgan & Morgan a evitar sanciones, pero Ithayakumar sugirió que, a la par de las sanciones, podría estar la pérdida de reputación para la firma o la credibilidad de cualquier abogado individual.

"La confianza ciega en la IA es equivalente a citar un caso no verificado", dijo Ithayakumar a los abogados, diciendo que es su "responsabilidad y obligación ética" verificar los resultados de la IA. "El incumplimiento de los requisitos de verificación de la IA puede resultar en sanciones judiciales, disciplina profesional, disciplina por parte de la firma (que puede incluir el despido) y daño a la reputación. Todos los abogados deben mantenerse informados de las reglas y órdenes específicas relacionadas con la IA en las jurisdicciones donde ejercen y adherirse estrictamente a estas obligaciones".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd