Incidents associés

Dans une tournure des événements surprenante, l'utilisation par un avocat du chatGPT d'OpenAI pour l'assistance juridique s'est retournée contre le [le chatbot alimenté par l'IA a fabriqué des cas inexistants](https://www.benzinga.com/ news/23/04/31849266/sundar-pichai-ouvre-sur-google-bards-trippy-troubles-no-one-in-the-field-has-encore-solved-halluci).
Ce qui s'est passé : Dans une affaire bizarre entourant Mata Vs. Avianca, qui impliquait un client poursuivant la compagnie aérienne pour une blessure au genou causée par un chariot de service, l'utilisation de chatGPT a pris une tournure surprenante.
Les avocats de Mata se sont opposés à la tentative d'Avianca de rejeter l'affaire et ont soumis un mémoire contenant de nombreuses prétendues décisions de justice générées par le chatbot alimenté par l'IA.
À première vue, cela peut sembler être un incident amusant, une erreur honnête, ou les deux, mais ce qui s'est passé ensuite n'était rien de moins que bizarre.
Lorsqu'il a été pressé de produire les cas réels en question, l'avocat du plaignant a de nouveau demandé l'aide de chatGPT, ce qui a conduit l'IA à inventer des détails élaborés de ces cas inventés, qui ont ensuite été capturés sous forme de captures d'écran et incorporés dans les documents juridiques.
Ajoutant à la séquence étonnante, l'avocat est allé jusqu'à demander à chatGPT de vérifier l'authenticité de l'un des cas, ce à quoi l'IA a répondu par l'affirmative, ce qui a entraîné l'inclusion des captures d'écran de confirmation de l'IA dans un autre dossier.
En réponse à cette situation extraordinaire, le juge a prévu une audience le mois prochain pour aborder la possibilité d'imposer des sanctions aux avocats, reconnaissant la nécessité de discuter et de faire face aux conséquences de cette circonstance sans précédent.
Il est pertinent de noter que le mois dernier, il a été signalé qu'un juge indien ne pouvait pas décider si une caution devait être accordée à un [suspect de meurtre qui a utilisé chatGPT pour obtenir de l'aide] (https://www.benzinga.com/news/23 /04/31817379/juge-use-chatgpt-to-decide-fate-of-murder-suspect).
Pourquoi c'est important : Ce qui rend l'affaire si bizarre, c'est le fait que, même s'il est bien connu que chatGPT d'OpenAI et d'autres modèles d'IA générative comme Bing AI de Microsoft Corp. et Google Bard d'Alphabet Inc., ont tendance à halluciner et [fournir même des faits inventés avec la plus grande conviction] (https://www.benzinga.com/news/23/04/32041343/whos-to-blame-for-ai-censorship-demands-redditor-says-not-chatgpt -ou-openai-mais).
Auparavant, un utilisateur de Reddit avait souligné des problèmes similaires en déclarant que lorsque les gens deviennent excessivement sûrs d'eux-mêmes quant aux capacités de l'IA (dans ce cas, chatGPT) et ne tiennent pas compte des [dangers potentiels de demander conseil au chatbot](https://www.benzinga.com /news/23/02/30813210/ai-might-not-be-the-answer-for-your-homework-yet-google-bard-gives-this-wrong-answer-at-launch) dans des domaines sensibles comme la médecine ou la loi, des problèmes surgissent.
Le pire, c'est que même les personnes férues de technologie peuvent devenir la proie des [hallucinations bien documentées pour lesquelles chatGPT est connu](https://www.benzinga.com/news/23/03/31470922/elon-musk-and -openai-ceo-sam-altman-continue-les-avertissements-sur-les-risques-de-l-intelligence-artificielle-voici-comment).