Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3038

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Un avocat admet avoir utilisé ChatGPT au cas où un client poursuivrait une compagnie aérienne
dailymail.co.uk · 2023

Un avocat de New York City s'est retrouvé dans l'eau chaude après avoir admis avoir utilisé de fausses informations fournies par ChatGPT pour effectuer des recherches dans le cadre d'un procès contre Compagnies aériennes Avianca.

Dans le procès, Roberto Mata affirme que son genou a été blessé lorsqu'il a été heurté par un chariot de service en métal lors d'un vol entre El Salvador et l'aéroport international Kennedy à New York en 2019.

Après que la compagnie aérienne ait demandé à un juge de Manhattan de rejeter l'affaire en raison de l'expiration du délai de prescription, l'avocat de Mata Steven Schwartz a soumis un mémoire de 10 pages contenant une demi-douzaine de décisions de justice pertinentes.

Mais les affaires citées dans le dossier - y compris Martinez contre Delta Air Lines, Zicherman contre Korean Air Lines et Varghese contre Chine Southern Airlines - n'existaient pas.

L'avocat d'Avianca a déclaré au tribunal qu'il ne reconnaissait pas les cas, avec Bart Banino, de Condon & Forsyth, racontant CBS MoneyWatch "Nous avons pensé que c'était une sorte de chatbot quelconque."

Steven Schwartz a soumis un mémoire de 10 pages contenant une demi-douzaine de décisions de justice pertinentes qui se sont avérées être rédigées par ChatGPT

Roberto Mata affirme que son genou a été blessé lorsqu'il a été heurté par un chariot de service en métal lors d'un vol Avianca entre El Salvador et l'aéroport international Kennedy de New York.

Il s'est avéré qu'au moins six des cas "semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a déclaré le juge Kevin Castel du district sud de New York le 4 mai.

ChatGPT a été lancé pour la première fois en novembre, suscitant l'excitation et l'alarme quant à sa capacité à générer des essais, des poèmes, des lettres types et des réponses conversationnelles convaincantes de type humain à presque toutes les questions.

Mais, comme l'a découvert l'avocat, la technologie est encore limitée et peu fiable.

Schwartz, du cabinet Levidow, Levidow & Oberman, s'est excusé la semaine dernière dans un affidavit après avoir été appelé par le juge de l'affaire, affirmant qu'il avait utilisé "une source qui s'est révélée peu fiable".

Cette semaine, Schwartz a déclaré qu'il "regrette profondément d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".

L'avocat a ajouté qu'il n'avait jamais utilisé la technologie à des fins de recherche auparavant et "n'était pas au courant de la possibilité que son contenu puisse être faux".

Il a dit qu'il avait même demandé à ChatGTP de vérifier que les cas étaient réels, et qu'il avait dit qu'ils l'étaient.

Dans une copie de l'échange soumis au juge, Schwartz a demandé à ChatGPT : "Est-ce que varghese est un cas réel" et "Les autres cas que vous avez fournis sont-ils faux".

Le bot a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."

L'avocat Peter Loduca, dont le nom figurait également sur le faux dossier judiciaire, a déclaré qu'il n'avait joué aucun rôle dans la recherche, mais "aucune raison de douter de la sincérité" des recherches de Schwartz.

Une audience a été fixée au 8 juin pour discuter des sanctions potentielles contre Schwartz, qui a 30 ans d'expérience en tant qu'avocat à New York.

Schwartz a reçu l'ordre de montrer au juge pourquoi il ne devrait pas être sanctionné pour "l'utilisation d'une notarisation frauduleuse".

OpenAI déclare que son modèle ChatGPT, formé à l'aide d'une technique d'apprentissage automatique appelée Reinforcement Learning from Human Feedback (RLHF), peut simuler un dialogue, répondre à des questions de suivi, admettre des erreurs, contester des prémisses incorrectes et rejeter des demandes inappropriées.

Le développement initial impliquait des formateurs d'IA humains fournissant au modèle des conversations dans lesquelles ils jouaient des deux côtés - l'utilisateur et un assistant d'IA. La version du bot disponible pour les tests publics tente de comprendre les questions posées par les utilisateurs et répond avec des réponses approfondies ressemblant à du texte écrit par l'homme dans un format conversationnel.

Un outil comme ChatGPT pourrait être utilisé dans des applications du monde réel telles que le marketing numérique, la création de contenu en ligne, répondre aux questions du service client ou, comme certains utilisateurs l'ont trouvé, même pour aider à déboguer le code.

Le bot peut répondre à un large éventail de questions tout en imitant les styles de parole humains.

Un outil comme ChatGPT pourrait être utilisé dans des applications du monde réel telles que le marketing numérique, la création de contenu en ligne, la réponse aux questions du service client ou, comme certains utilisateurs l'ont trouvé, même pour aider à déboguer le code.

Comme pour de nombreuses innovations basées sur l'IA, ChatGPT ne va pas sans inquiétude. OpenAI a reconnu la tendance de l'outil à répondre par des "réponses plausibles mais incorrectes ou absurdes", un problème qu'il considère comme difficile à résoudre.

La technologie de l'IA peut également perpétuer des préjugés sociétaux comme ceux concernant la race, le sexe et la culture. Les géants de la technologie, dont Google et Amazon.com d'Alphabet Inc, ont précédemment reconnu que certains de leurs projets qui expérimentaient l'IA étaient "éthiquement risqués" et avaient des limites. Dans plusieurs entreprises, les humains ont dû intervenir et réparer les ravages de l'IA.

Malgré ces inquiétudes, la recherche en IA reste attractive. Les investissements en capital-risque dans les sociétés de développement et d'exploitation de l'IA ont augmenté l'année dernière pour atteindre près de 13 milliards de dollars, et 6 milliards de dollars ont été versés jusqu'en octobre de cette année, selon les données de PitchBook, une société de Seattle qui suit les financements.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c