Incidentes Asociados

- Un juez federal ordena a los abogados de Mike Lindell pagar $3,000 a cada uno por presentar una moción generada por IA que contiene casi 30 citas defectuosas y referencias de casos inexistentes.
- El abogado principal admitió haber procesado el borrador de la moción mediante IA sin la debida verificación, delegando la verificación de datos en un abogado adjunto, quien no validó las citas.
- Un fallo judicial destaca la necesidad crucial de que la profesión jurídica establezca estándares de competencia en IA y protocolos adecuados de ingeniería rápida para los bufetes de abogados.
Un juez federal ha lanzado una dura advertencia a la profesión jurídica sobre los peligros del uso indebido de la inteligencia artificial, sancionando a dos abogados que representan al director ejecutivo de MyPillow, Mike Lindell, con multas de $3,000 cada uno por presentar un documento judicial plagado de errores generados por IA, incluyendo citas de casos que simplemente no existen.
La jueza federal de distrito Nina Y. Wang dictaminó el lunes que Christopher Kachouroff y Jennifer DeMaster violaron las normas judiciales al presentar una moción con casi 30 citas falsas o defectuosas en el caso de difamación de Lindell. Las sanciones ponen de relieve una creciente crisis en la práctica legal, ya que los abogados recurren cada vez más a herramientas de inteligencia artificial sin las garantías adecuadas ni comprenden sus limitaciones.
La presentación defectuosa surgió de una polémica demanda por difamación interpuesta por Eric Coomer, exdirector de seguridad de Dominion Voting Systems, contra Lindell y sus empresas. Coomer argumentó con éxito que Lindell lo difamó al difundir rumores de que había participado en fraude electoral, y un jurado le otorgó una indemnización de 2,3 millones de dólares en junio de 2024, una cantidad muy inferior a los 62,7 millones que solicitaba, pero aun así una victoria significativa.
El caso se centró en el papel de Lindell en promover las acusaciones de que Coomer manipuló los sistemas de votación para favorecer a Joe Biden en las elecciones de 2020. Según Coomer, estas acusaciones derivaron en amenazas de muerte, lo que lo obligó a esconderse y, en última instancia, le costó su carrera en seguridad electoral.
El desastre legal comenzó cuando Kachouroff presentó lo que parecía ser una moción de oposición estándar el 25 de febrero de 2025. Sin embargo, cuando el juez Wang cuestionó los numerosos errores en las citas durante una audiencia previa al juicio, surgió un patrón preocupante.
Bajo interrogatorio directo del tribunal, Kachouroff hizo una confesión perjudicial: “Al principio no. Primero, hice un esquema, redacté una moción y luego la procesamos con inteligencia artificial.” Cuando Wang insistió en la verificación, preguntando si “verificó dos veces las citas una vez procesadas con inteligencia artificial,” la respuesta de Kachouroff fue devastadora: “Su Señoría, yo personalmente no lo revisé. Soy responsable de que no se haya verificado.”
Aún más preocupante, Kachouroff afirmó que el documento, plagado de errores, se presentó por accidente: una versión “borrador”. Sin embargo, el juez Wang determinó que la versión supuestamente “final” que pretendía presentar contenía errores sustanciales adicionales, lo que sugiere un fallo total en los procedimientos de control de calidad.
En el ámbito jurídico, una “alucinación” de IA se refiere a una situación en la que un modelo lingüístico inventa hechos, citas o citas que parecen reales, pero son completamente falsos. Contrariamente a la creencia popular, estas alucinaciones no son errores; son una característica conocida de los modelos generativos que intentan imitar el razonamiento humano sin comprender la verdad.
Los abogados que utilizan IA deben comprender que el contenido generado por IA debe tratarse, en el mejor de los casos, como un borrador, no como un producto final listo para el tribunal. La falta de verificación básica por parte del abogado de Lindell demuestra no solo una falta de diligencia debida, sino también una falta de comprensión de qué es y qué no es la IA.
Lo que deberían haber hecho en su lugar Si los abogados hubieran comprendido los principios básicos de la ingeniería rápida y las limitaciones de la IA, podrían haber utilizado su borrador original para gestionar la asistencia de la IA con mayor precisión. Por ejemplo:
Plantilla de ejemplo para redacción legal segura con IA:
“Utilizando el borrador de la moción que se proporciona a continuación, refine el lenguaje para que sea más persuasivo y legalmente sólido, pero no invente jurisprudencia. Cite únicamente autoridades legales verificadas y reales e incluya citas textuales precisas de los casos citados. Marque claramente cualquier fuente o cita que deba verificarse manualmente antes de la presentación.”
INSTRUCCIONES ESENCIALES: - Conserve todas las citas originales exactamente como se proporcionaron - Marque cualquier afirmación legal que pueda requerir respaldo adicional - No invente autoridades legales, nombres de casos ni citas - Mantenga los argumentos legales originales y mejore la presentación.
Los abogados deben verificar la precisión de cada cita y cita textual. Este proceso preserva las fortalezas de la IA (claridad, estructura, persuasión) sin el riesgo de contenido no verificado o ficticio.
Este enfoque habría permitido a los abogados aprovechar las fortalezas de la IA en la organización y la mejora de la prosa, evitando la trampa fatal de las citas inventadas.
El paso en falso de la delegación: Un error fatal La delegación por parte de Kachouroff de las tareas de verificación de citas a DeMaster sin garantizar que se completara correctamente pone de relieve un segundo error crítico: la falta de liderazgo y rendición de cuentas en el ámbito jurídico. En una profesión donde los estándares éticos y la precisión son primordiales, delegar contenido generado por IA sin supervisión constituye un incumplimiento del deber.
El juez Wang fue claro: las sanciones impuestas fueron “la sanción menos severa, suficiente para disuadir y castigar a los abogados defensores en este caso.” Sin embargo, para la comunidad jurídica, las implicaciones son mucho más duraderas.
El juez Wang señaló que “este Tribunal no se complace en sancionar a los abogados que comparecen ante él,” y describió las multas de 3.000 dólares como “la sanción menos severa, suficiente para disuadir y castigar a los abogados defensores en este caso.” Sin embargo, las implicaciones más amplias van mucho más allá de estas sanciones individuales.
La profesión jurídica necesita urgentemente programas obligatorios de formación y certificación en competencias en IA. Los colegios de abogados actuales y los requisitos de formación jurídica continua no han logrado adaptarse a los avances tecnológicos, lo que expone a los profesionales a la misma negligencia profesional demostrada en este caso.
El impacto general
Este caso representa más que solo dos abogados que enfrentan sanciones: es una llamada de atención para toda la profesión jurídica. A medida que las herramientas de IA se vuelven cada vez más sofisticadas y accesibles, la tentación de usarlas sin las debidas garantías no hará más que aumentar.
Las consecuencias de una supervisión inadecuada de la IA van más allá de la vergüenza profesional. La representación del cliente se ve afectada, se desperdician recursos judiciales y la confianza pública en las instituciones jurídicas se erosiona cuando los abogados no mantienen los estándares profesionales básicos.
El caso Lindell ofrece varias lecciones cruciales para los profesionales del derecho:
- La IA es una herramienta, no un sustituto del juicio y la verificación profesionales.
- La delegación sin supervisión constituye negligencia profesional, independientemente de la herramienta utilizada.
- La verificación de citas debe ser realizada por personas, no por sistemas de IA.
- Una formación adecuada es esencial antes de implementar la IA en la práctica jurídica.
Para que la profesión jurídica integre con éxito las herramientas de IA, los profesionales deben comprender tanto sus capacidades como sus limitaciones. Esto requiere ir más allá de los enfoques de ensayo y error y adoptar protocolos de implementación estructurados y profesionales.
El futuro de la práctica jurídica incluirá sin duda la asistencia de la IA, pero solo para quienes se tomen el tiempo de comprender cómo usar estas herramientas de forma responsable. La alternativa, como aprendieron Kachouroff y DeMaster, son sanciones profesionales y daños a la reputación que podrían haberse evitado fácilmente.