Incidentes Asociados
El equipo legal de Mike Lindell, director ejecutivo de MyPillow y entusiasta de las teorías conspirativas electorales, se encuentra en serios problemas tras presentar un escrito judicial generado por inteligencia artificial, según informó The New York Times. El escrito legal estaba plagado de errores, incluyendo citas erróneas de casos citados, tergiversaciones de principios legales y referencias a casos inexistentes.
En total, el tribunal identificó alrededor de 30 errores importantes en el documento. La jueza de Colorado, Nina Wang, impuso multas por la presentación, plagada de errores, alegando que los abogados Christopher Kachouroff y Jennifer DeMaster, del bufete McSweeney, Cynkar y Kachouroff, habían violado las normas federales de procedimiento civil y que "no fueron razonables al certificar que las reclamaciones, defensas y demás argumentos legales contenidos en el escrito de IA estaban justificados por la legislación vigente".
DeMaster y Kachouroff recibieron una multa de 6.000 dólares por la infracción. Lindell y MyPillow no fueron sancionados por la presentación indebida, ya que el tribunal señaló que Kachouroff no había informado a su cliente de que utiliza habitualmente herramientas de IA como Microsoft CoPilot, Google Gemini e incluso Grok (https://www.engadget.com/social-media/grok-sure-seems-antisemitic-after-its-recent-update-000642015.html).
Al ser interrogados, los abogados admitieron haber utilizado IA para preparar el escrito, pero afirmaron haber presentado accidentalmente un borrador anterior en el que los errores aún no se habían corregido. Kachouroff afirmó que contaban con un escrito corregido al momento de la presentación, pero no pudieron aportar ninguna prueba que respaldara su afirmación. El equipo solicitó la desestimación de cualquier posible medida disciplinaria en su contra, pero el tribunal la denegó, considerando que la explicación sobre el escrito redactado con IA no era convincente.
"En resumen, ni las comunicaciones de la defensa ni la versión 'final' del escrito que revisaron corroboran la existencia de la versión 'correcta'", escribió Wang. "Ni el Sr. Kachouroff ni la Sra. DeMaster proporcionaron al Tribunal explicación alguna sobre cómo aparecieron esas citas en ningún borrador del escrito sin el uso de inteligencia artificial generativa ni negligencia grave por parte del abogado".
El escrito se presentó inicialmente en febrero, cuando el equipo defendió a Lindell en una demanda por difamación interpuesta por Eric Coomer, exempleado de Dominion Voting Systems. Desde entonces, un jurado ha fallado a favor de Coomer.
Por supuesto, esta no es la primera vez que los abogados intentan ahorrar en el uso de IA. En los últimos años, muchos profesionales del derecho han sido descubiertos usando inteligencia artificial de forma inapropiada, y muchos de ellos citaron casos falsos fueron creados con herramientas como ChatGPT.