Incidentes Asociados
25 feb (Reuters) - Tres abogados que demandaron a Walmart por lesiones personales deben pagar multas por un total de 5.000 dólares por citar casos falsos generados por inteligencia artificial en una presentación judicial, dictaminó un juez federal.
Los abogados, incluidos dos de la firma de abogados nacional Morgan & Morgan y uno de una firma más pequeña, tenían la obligación ética de garantizar que los casos que citaban fueran reales, dijo el juez de distrito de EE. UU. Kelly Rankin en Wyoming en su orden de sanciones, abre una nueva pestaña el lunes.
"A medida que los abogados hacen la transición al mundo de la IA, el deber de verificar sus fuentes y hacer una investigación razonable sobre la ley existente permanece sin cambios", escribió Rankin.
En los últimos dos años, jueces de todo el país han cuestionado o sancionado a un número cada vez mayor de abogados por incluir casos y citas generados por IA en documentos judiciales. Han surgido ejemplos en al menos nueve demandas desde que los chatbots como ChatGPT marcaron el comienzo de la era de la IA, lo que pone de relieve un nuevo riesgo de litigio.
Rankin impuso una multa de 3.000 dólares a Rudwin Ayala, de Morgan & Morgan, quien a principios de este mes se disculpó y dijo que utilizó un programa interno de IA que "alucinaba" los casos, que incorporó a una presentación en el caso.
El juez también eliminó a Ayala de la demanda e impuso multas de 1.000 dólares a cada uno de ellos: T. Michael Morgan y el abogado local Taly Goody de Goody Law Group, por no hacer lo suficiente para garantizar la precisión de la presentación que redactó Ayala.
Ayala, Morgan y un representante de Morgan & Morgan no respondieron de inmediato a las solicitudes de comentarios el martes. Morgan es hijo del fundador de Morgan & Morgan, John Morgan, según informes anteriores de los medios.
Goody dijo en un correo electrónico que no recibió la presentación para revisarla antes de que se presentara, y señaló una explicación anterior que proporcionó al tribunal.
Walmart se negó a hacer comentarios. Ha negado las acusaciones en la demanda subyacente, que acusa al minorista de vender un juguete de patineta eléctrica defectuoso que supuestamente se incendió y quemó la casa de los demandantes. El caso está programado para ir a juicio el próximo mes.
Al decidir las sanciones, el juez dijo que sopesó el hecho de que los abogados "han estado sobre aviso" sobre la capacidad de la IA generativa para alucinar casos. Dijo que la "honestidad y franqueza" de Ayala y las medidas adoptadas por Morgan & Morgan para evitar futuros incidentes ayudaron a que se aplicara un castigo menos severo.
"Cuando se hace bien, la IA puede ser increíblemente beneficiosa para los abogados y el público", escribió Rankin. "El caso en cuestión es simplemente el último recordatorio de que no hay que confiar ciegamente en las citas de las plataformas de IA, independientemente de la profesión".
En un caso separado, un magistrado federal de Indiana recomendó la semana pasada una multa de 15.000 dólares para un abogado que presentó tres escritos que tenían citas de casos inexistentes generadas por IA y lo remitió al juez principal para una posible sanción adicional.