Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3497

Incidentes Asociados

Incidente 6154 Reportes
Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

Loading...
Estos abogados utilizaron ChatGPT para ahorrar tiempo. Los despidieron y los multaron.
washingtonpost.com · 2023

Zachariah Crabill llevaba dos años fuera de la facultad de derecho, agotado y nervioso, cuando sus jefes agregaron otro caso a su carga de trabajo en mayo. Trabajó durante horas escribiendo una moción hasta que tuvo una idea: ¿Quizás ChatGPT podría ayudar?

En cuestión de segundos, el chatbot de inteligencia artificial completó el documento. Crabill lo envió a su jefe para que lo revisara y lo presentó ante el tribunal de Colorado.

"Estaba emocionado por el dolor de cabeza que me ahorró", dijo al Washington Post. Pero su alivio duró poco. Mientras examinaba el escrito, se dio cuenta con horror de que el chatbot de IA había inventado varias citaciones de demandas falsas.

Crabill, de 29 años, se disculpó con el juez y le explicó que había utilizado un chatbot con inteligencia artificial. El juez lo denunció ante una oficina estatal que maneja quejas de abogados, dijo Crabill. En julio, lo despidieron de su bufete de abogados en Colorado Springs. Mirando hacia atrás, Crabill no usaría ChatGPT, pero dice que puede ser difícil resistirse para un abogado novato abrumado.

"Todo esto es muy nuevo para mí", dijo. "Simplemente no tenía idea de qué hacer ni a quién recurrir".

Los analistas de negocios y los empresarios han [predicho durante mucho tiempo](https://www.washingtonpost.com/news/innovations/wp/2017/09/14/this-silicon-valley-startup-wants-to-replace-lawyers-with- robots/?itid=lk_inline_manual_10) que la profesión jurídica se vería interrumpida por la automatización. A medida que una nueva generación de herramientas de lenguaje de IA arrasa en la industria, ese momento parece haber llegado.

Los abogados estresados están recurriendo a los chatbots para redactar informes tediosos. Los bufetes de abogados están utilizando herramientas de lenguaje de inteligencia artificial para examinar miles de documentos de casos, reemplazando el trabajo de asociados y asistentes legales. Los asistentes legales de IA ayudan a los abogados a analizar documentos, memorandos y contratos en minutos.

El mercado de software legal de IA podría crecer de 1.300 millones de dólares en 2022 a más de 8.700 millones de dólares en 2030, según un [análisis de la industria](https://www.reportlinker.com/p06032048/Global-Legal-AI-Software-Industry. html?utm_source=GNW) por la firma de investigación de mercado Global Industry Analysts. Un informe de Goldman Sachs de abril estimó que el 44 por ciento de las Los empleos podrían automatizarse, más que cualquier otro sector, excepto el trabajo administrativo.

Pero estas herramientas para ahorrar dinero pueden tener un costo. Algunos chatbots con IA son propensos a inventar hechos, lo que provoca que los abogados sean despedidos o multados, o que se desestimen los casos. Los profesionales del derecho se apresuran a crear directrices para el uso de la tecnología, a fin de evitar que las imprecisiones arruinen casos importantes. En agosto, la Asociación de Abogados de Estados Unidos lanzó un grupo de trabajo de un año de duración para estudiar los impactos de la IA en la práctica jurídica.

"Es revolucionario", dijo John Villaseñor, investigador principal del centro de innovación tecnológica de la Brookings Institution. "Pero no es magia".

Un asistente legal lleva cajas cuando llega al juicio de los accionistas de Elon Musk en el edificio federal Phillip Burton en San Francisco el 20 de enero. (Justin Sullivan/Getty Images)

Las herramientas de inteligencia artificial que leen y analizan documentos rápidamente permiten a los bufetes de abogados ofrecer servicios más baratos y aligerar la carga de trabajo de los abogados, dijo Villaseñor. Pero esta bendición también puede ser un campo minado ético cuando resulta en errores de alto perfil.

En la primavera, Lydia Nicholson, abogada de vivienda de Los Ángeles, recibió un informe legal relacionado con el caso de desalojo de su cliente. Pero algo parecía estar mal. El documento citaba demandas que no le sonaban. Nicholson, que usa los pronombres ellos, investigó un poco y se dio cuenta de que muchos eran falsos.

Lo discutieron con colegas y "la gente sugirió: 'Oh, eso parece algo que la IA podría haber hecho'", dijo Nicholson en una entrevista.

Nicholson presentó una moción contra el bufete de abogados Dennis Block, una destacada firma de desalojos en California, señalando los errores. Un juez estuvo de acuerdo después de una investigación independiente y le impuso al grupo una multa de 999 dólares. La firma culpó a un joven abogado recién contratado en su oficina por utilizar "[investigación en línea](https://laist.com/news/housing-homebeing/dennis-block-chatgpt-artificial-intelligence-ai-eviction-court- los-angeles-lawyer-sanction-housing-tenant-landlord)" para redactar la moción y dijo que había renunciado poco después de que se presentara la denuncia. Varios expertos en IA analizaron el informe y lo proclamaron "probablemente" generado por IA, según el sitio de medios LAist.

La firma Dennis Block no respondió a una solicitud de comentarios.

Comparte este artículoNo se requiere suscripción para leerCompartir

No es sorprendente que los chatbots de IA inventen citas legales cuando se les pide que escriban un informe, dijo Suresh Venkatasubramanian, científico informático y director del Centro de Responsabilidad Tecnológica de la Universidad de Brown.

"Lo sorprendente es que alguna vez produzcan algo remotamente preciso", dijo. "Eso no es para lo que están hechos".

Más bien, los chatbots como ChatGPT están diseñados para entablar conversación, habiendo sido entrenados con grandes cantidades de texto publicado para componer respuestas que suenen plausibles a casi cualquier mensaje. Entonces, cuando le solicita a ChatGPT un informe legal, sabe que los informes legales incluyen citas, pero en realidad no ha leído la jurisprudencia relevante, por lo que inventa nombres y fechas que parecen realistas.

Los jueces están luchando por saber cómo abordar estos errores. Algunos están prohibiendo el uso de IA en sus tribunales. Otros piden a los abogados que firmen compromisos para revelar si han utilizado IA en su trabajo. El Colegio de Abogados de Florida está sopesando una propuesta para exigir que los abogados tengan el permiso del cliente para utilizar la IA.

Un punto de discusión entre los jueces es si los códigos de honor que exigen que los abogados juren la exactitud de su trabajo se aplican a la IA generativa, dijo John G. Browning, ex juez del tribunal de distrito de Texas.

Las banderas de Estados Unidos y Texas ondean frente al juzgado del condado de Smith en Tyler, Texas, el 9 de diciembre de 2022. (Jeffrey McWhorter/para The Washington Post)

Browning, que preside el grupo de trabajo sobre IA del Colegio de Abogados del Estado de Texas, dijo que su grupo está sopesando una serie de enfoques para regular su uso, como exigir a los abogados que tomen cursos de educación profesional en tecnología o considerar reglas específicas para cuando la evidencia generada por IA pueda ser incluido.

Lucy Thomson, abogada e ingeniera en ciberseguridad del área de D.C. que preside el grupo de trabajo sobre IA de la Asociación de Abogados de Estados Unidos, dijo que el objetivo es educar a los abogados sobre los riesgos y los beneficios potenciales de la IA. El colegio de abogados aún no ha adoptado una posición formal sobre si se debe prohibir la presencia de IA en los tribunales, añadió, pero sus miembros están discutiendo activamente la cuestión.

"Muchos de ellos piensan que no es necesario ni apropiado que los jueces prohíban el uso de la IA", dijo Thomson, "porque es sólo una herramienta, al igual que otras herramientas de investigación jurídica".

Mientras tanto, la IA se utiliza cada vez más para el "e-descubrimiento": la búsqueda de evidencia en comunicaciones digitales, como correos electrónicos, chats o herramientas en línea en el lugar de trabajo.

Si bien las generaciones anteriores de tecnología permitían a las personas buscar palabras clave específicas y sinónimos en documentos, los modelos de IA actuales tienen el potencial de hacer inferencias más sofisticadas, dijo Irina Matveeva, jefa de ciencia de datos e IA de Reveal, una empresa de tecnología legal con sede en Chicago. Por ejemplo, las herramientas de IA generativa podrían haber permitido a un abogado del caso Enron preguntar: "¿Alguien tenía dudas sobre la valoración de Enron?". y obtener una respuesta basada en el análisis de los documentos por parte del modelo.

Wendell Jisa, director ejecutivo de Reveal, agregó que cree que las herramientas de inteligencia artificial en los próximos años "traerán una verdadera automatización a la práctica del derecho, eliminando la necesidad de esa interacción humana de los abogados del día a día que hacen clic en los correos electrónicos".

Jason Rooks, director de información de un distrito escolar de Missouri, dijo que comenzó a sentirse abrumado durante la pandemia del coronavirus con solicitudes de registros electrónicos por parte de los padres. litigando batallas por la custodia u organizaciones que demandan a las escuelas por sus políticas de covid-19. En un momento dado, estima, pasaba cerca de 40 horas a la semana revisando correos electrónicos.

En cambio, optó por una herramienta de descubrimiento electrónico llamada Logikcull, que dice que utiliza inteligencia artificial para ayudar a examinar documentos y predecir cuáles tienen más probabilidades de ser relevantes para un caso determinado. Luego, Rooks podría revisar manualmente ese subconjunto más pequeño de documentos, lo que redujo el tiempo que dedicaba a cada caso a más de la mitad. (Revelar Logikcull adquirido en agosto, creando una empresa de tecnología legal valorada en más de mil millones de dólares).

Pero incluso el uso de IA para trabajos legales pesados como el descubrimiento electrónico conlleva riesgos, dijo Venkatasubramanian, el profesor de Brown: "Si han sido citados y presentan algunos documentos y no otros debido a un error de ChatGPT, estoy No soy abogado, pero eso podría ser un problema."

Esas advertencias no detendrán a personas como Crabill, cuyas desventuras con ChatGPT fueron [informadas por primera vez](https://krdo.com/news/2023/06/13/colorado-springs-attorney-says-chatgpt-created-fake- cases-he-cited-in-court-documents/) por la estación de radio KRDO de Colorado. Después de que presentó la moción cargada de errores, el caso fue desestimado por razones no relacionadas.

Dice que todavía cree que la IA es el futuro del derecho. Ahora tiene su propia empresa y dice que probablemente utilice herramientas de inteligencia artificial diseñadas específicamente para abogados para ayudarle en sus escritos e investigaciones, en lugar de ChatGPT. Dijo que no quiere quedarse atrás.

"No tiene sentido ser detractor", dijo Crabill, "o estar en contra de algo que invariablemente se convertirá en el camino del futuro".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd