Incidents associés

Peu de temps après que des informations selon lesquelles des avocats utilisaient ChatGPT pour dynamiser la recherche juridique mais se soient soldées par un désastre ont saisi les médias, Google Bard apparaît comme une deuxième option. Dernièrement, Michael Cohen, l'ancien avocat de Donald Trump, a reconnu avoir cité de faux cas générés par l'IA dans un document juridique, selon le New York Times.
Le dossier indique que Cohen a utilisé le modèle d'IA Bard du géant californien de la technologie pour ses recherches et a supposé qu'il s'agissait d'un "moteur de recherche suralimenté" et non d'un outil d'IA. Le document était une motion demandant au juge fédéral de réduire la durée de la probation de Cohen, a noté The Verge. Après avoir parcouru le dossier, le juge de district américain Jesse Furman a observé qu'« aucun de ces cas n'existe » et a demandé une explication à David Schwartz, l'avocat de Cohen.
En réponse, Cohen a admis par écrit qu'il avait utilisé le rival ChatGPT de Google pour des recherches juridiques et qu'il avait partagé ses conclusions avec son avocat, mais le but n'était pas d'induire le tribunal en erreur. Cohen a ajouté qu'il ne savait pas que ces cas pouvaient être faux et que son avocat les ajouterait sans aucune vérification des antécédents.
"En tant que non-avocat, je n'ai pas suivi les tendances émergentes (et les risques associés) en matière de technologie juridique et je ne savais pas que Google Bard était un service de texte génératif qui, comme Chat-GPT, pouvait afficher des citations et des descriptions qui semblaient réelles mais en fait, ce n'était pas le cas", a déclaré Cohen.
Il a ajouté qu'il avait utilisé Bard à plusieurs reprises (dans le passé) dans d'autres contextes pour trouver des informations précises. Ce n’est pas la première fois qu’AI citant des cas inexistants apparaissent dans les médias. Les grandes entreprises (dont OpenAI et Google) en concurrence dans le domaine de l’IA et les experts ont mis en garde contre l’exactitude des informations partagées par les modèles à intervalles réguliers.
Les résultats de ceux-ci doivent être vérifiés via un examen humain pour leur attribuer la balise légitime. Pendant ce temps, un animateur radio a déposé une plainte contre le modèle viral ChatGPT d'OpenAI pour avoir formulé de fausses accusations de diffamation. De plus, dans un autre cas, le modèle linguistique accusait à tort un professeur de droit de harcèlement sexuel. Ces cas nous rappellent brutalement les limites de la technologie en évolution.