Incidentes Asociados

En un sorprendente giro de los acontecimientos, el uso por parte de un abogado del chatGPT de OpenAI** para obtener asistencia legal resultó contraproducente ya que [el chatbot impulsado por IA fabricó casos inexistentes] (https://www.benzinga.com/ news/23/04/31849266/sundar-pichai-opens-up-about-google-bards-trippy-troubles-nadie-in-the-field-ha-todavía-resolvió-halluci).
Qué sucedió: En un caso extraño que rodea a Mata Vs. Avianca, que involucró a un cliente que demandó a la aerolínea por una lesión en la rodilla causada por un carrito de servicio, el uso de chatGPT dio un giro sorprendente.
Los abogados de Mata se opusieron al intento de Avianca de desestimar el caso y presentaron un escrito que contenía numerosas supuestas decisiones judiciales generadas por el chatbot impulsado por IA.
A primera vista, esto puede parecer un incidente divertido, un error honesto, o ambos, pero lo que sucedió a continuación fue nada menos que extravagante.
Cuando se le presionó para presentar los casos reales en cuestión, el abogado del demandante una vez más buscó la ayuda de chatGPT, lo que llevó a la IA a inventar detalles elaborados de esos casos inventados, que luego se capturaron como capturas de pantalla y se incorporaron a los documentos legales.
Agregando a la asombrosa secuencia, el abogado llegó a pedirle a chatGPT que verificara la autenticidad de uno de los casos, a lo que la IA respondió afirmativamente, lo que resultó en la inclusión de las capturas de pantalla de confirmación de la IA en otra presentación.
Ante esta situación extraordinaria, el juez ha programado una audiencia para el próximo mes para abordar la posibilidad de imponer sanciones a los abogados, reconociendo la necesidad de discutir y abordar las consecuencias de esta circunstancia inédita.
Es pertinente señalar que el mes pasado se informó que un juez indio no podía decidir si se debía otorgar una fianza a un [sospechoso de asesinato que usó chatGPT para obtener ayuda] (https://www.benzinga.com/news/23 /04/31817379/juez-usa-chatgpt-para-decidir-el-destino-del-sospechoso-de-asesinato).
Por qué es importante: Lo que hace que todo el caso sea tan extraño es el hecho de que, si bien es bien sabido que el chatGPT de OpenAI y otros modelos generativos de IA como Bing AI de Microsoft Corp y Google Bard de Alphabet Inc., tienden a alucinar y [proporcionar incluso hechos inventados con la máxima convicción](https://www.benzinga.com/news/23/04/32041343/whos-to-blame-for-ai-censorship-demands-redditor-says-not-chatgpt -o-openai-pero).
Anteriormente, un usuario de Reddit resaltó problemas similares al afirmar que cuando las personas se vuelven excesivamente seguras de sí mismas sobre las habilidades de la IA (en este caso, chatGPT) e ignoran los [peligros potenciales de buscar el consejo del chatbot] (https://www.benzinga.com /news/23/02/30813210/ai-might-not-be-the-answer-for-your-homework-yet-google-bard-da-esta-respuesta-incorrecta-en-el-lanzamiento) en campos sensibles como Medicina o Ley, surgen problemas.
La peor parte es que incluso las personas con conocimientos de tecnología pueden ser víctimas de las bien documentadas [alucinaciones por las que chatGPT es conocido] (https://www.benzinga.com/news/23/03/31470922/elon-musk-and -openai-ceo-sam-altman-continue-advertencias-sobre-riesgos-de-inteligencia-artificial-aquí-cómo).