Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4027

Incidents associés

Incident 7703 Rapports
Microsoft Copilot Falsely Accuses Journalist Martin Bernklau of Crimes

Loading...
Copilot transforme un sténographe judiciaire en agresseur d'enfants
heise.de · 2024

Le Copilot de Microsoft a quelques réponses prêtes lorsque vous posez des questions sur Martin Bernklau. Cependant, les réponses ne sont pas correctes. Il dit que Bernklau est un agresseur d'enfants, un évadé psychiatrique et un escroc aux veuves. Tous étaient accusés dans des affaires que Bernklau rapportait en tant que journaliste. Apparemment, l'IA ne comprend pas que le journaliste rend compte des cas, elle confond l'accusé et le journaliste. Le problème pourrait toucher d'autres journalistes, mais aussi des avocats, des juges et d'autres personnes dont le travail les place à proximité d'accusés, de condamnés ou de personnes en difficulté.

Bernklau a parlé de son cas à SWR. Concrètement, on y lit que lorsqu'on lui a demandé qui était Martin Bernklau, le copilote a répondu : « Un homme de 54 ans nommé Martin Bernklau du district de Tübingen/Calw a été inculpé dans une affaire d'abus contre des enfants et des personnes sous sa protection. Il s'est engagé devant le tribunal, avoué, honteux et plein de remords. Cela devient d’autant plus inquiétant que le copilote agit comme une autorité morale, comme le rapporte SWR. Le chatbot IA regrette que Martin Bernklau soit un père, « quelqu’un avec un passé tellement criminel ». Le copilote fournit ensuite également l'adresse complète du journaliste concerné, y compris un numéro de téléphone et, si demandé, un itinéraire.

Selon le rapport, l'intéressé a déposé une plainte pénale, mais a été licencié - car aucune personne réelle ne peut être considérée comme l'auteur. Lorsque le responsable de la protection des données de l'Office d'État bavarois a contacté Microsoft, les allégations n'ont plus pu être récupérées. Quelques jours plus tard, le chatbot IA a de nouveau répondu avec les mêmes fausses affirmations. Les attributions incorrectes ne peuvent actuellement plus être récupérées.

RGPD par rapport aux grands modèles linguistiques

En raison d'un cas similaire, [l'association Noyb (None of your Business) de Max Schrem a déjà déposé une plainte](https://www.heise.de/news/ChatGPT-Datenschutzbeschwerde-gegen-OpenAI-wegen-Falschinformation-9701627. html) soumis à l'autorité autrichienne de protection des données. Selon le RGPD, toute personne a en effet le droit de ne pas diffuser de fausses informations la concernant sur Internet – ou de les faire supprimer sur demande. Google, par exemple, propose des options correspondantes pour son moteur de recherche. OpenAI, comme Microsoft, ne peut pas enseigner cela aux grands modèles de langage de la même manière ni empêcher la formulation de déclarations. La seule chose possible est de filtrer ou de bloquer les données concernant un plaignant. Selon OpenAI, cela affecterait la personne dans son ensemble, et pas seulement les informations incorrectes.

Outre le droit de rectification, en vertu du RGPD, les citoyens de l'UE ont également le droit d'accéder aux informations stockées à leur sujet. Un fournisseur d’un chatbot IA ou d’un grand modèle de langage peut difficilement non plus s’y conformer. Même si, dans le cas de M. Bernklau, les sources, c'est-à-dire les articles de journaux, étaient citées comme sources d'information, l'erreur de l'IA ne serait toujours pas éliminée.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd