Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5044

Incidents associés

Incident 9983 Rapports
ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

Loading...
Un Norvégien porte plainte contre ChatGPT pour avoir faussement déclaré avoir tué ses fils
abc.net.au · 2025

Un Norvégien a porté plainte après que le chatbot ChatGPT, basé sur l'intelligence artificielle (IA), a faussement affirmé qu'il avait été condamné pour le meurtre de deux de ses enfants.

Arve Hjalmar Holmen a reçu cette fausse information après avoir utilisé ChatGPT pour demander s'il détenait des informations le concernant.

La réponse qu'il a reçue comprenait : « Arve Hjalmar Holmen est un Norvégien qui a attiré l'attention suite à un événement tragique.

Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »

Cependant, tous les détails n'étaient pas inventés.

Le nombre et le sexe de ses enfants étaient corrects, tout comme sa ville natale, ce qui suggère que des informations exactes le concernant étaient disponibles.

L'association de défense des droits numériques Noyb, qui a déposé plainte auprès de l'Autorité norvégienne de protection des données en son nom, a affirmé que la réponse donnée par ChatGPT était diffamatoire et enfreignait les règles européennes de protection des données.

Elle a déclaré que M. Holmen « n'a jamais été accusé ni condamné pour aucun crime et est un citoyen consciencieux ».

ChatGPT affiche un avertissement en bas de son interface principale indiquant aux utilisateurs que le chatbot peut produire de faux résultats et leur demande de « vérifier les informations importantes ».

Mais l'avocat spécialisé en protection des données de Noyb, Joakim Söderberg a déclaré que cela était insuffisant.

« On ne peut pas simplement diffuser de fausses informations et, à la fin, ajouter un petit avertissement indiquant que tout ce que l'on a dit pourrait être faux », a déclaré M. Söderberg dans un communiqué.

Demande d'amende contre OpenAI

Noyb a ordonné à OpenAI de supprimer les informations diffamatoires et d'affiner son modèle afin d'éliminer les inexactitudes.

Il a également demandé le paiement d'une amende administrative par OpenAI « afin d'éviter des violations similaires à l'avenir ».

Depuis l'incident d'août 2024, OpenAI a publié une nouvelle version de son chatbot, nommée GPT-4.5, qui ferait apparemment moins d'erreurs.

Cependant, les experts affirment que la génération actuelle d'IA générative connaîtra toujours des « hallucinations ».

Qu'est-ce qu'une « hallucination » en IA ?

On parle d'« hallucination » en IA lorsque des chatbots présentent de fausses informations comme des faits.**

OpenAI affirme que son dernier chatbot devrait commettre moins d'erreurs d'« hallucination » selon un système de mesure conçu par l'entreprise. Comment fonctionne-t-il et que montre-t-il ?

Un journaliste allemand, Martin Bernklau, a été faussement décrit comme un pédophile, trafiquant de drogue et escroc sur Copilot, l'outil d'IA de Microsoft.

En Australie, le maire du conseil régional du comté de Hepburn, dans l'État de Victoria, Brian Hood, a été décrit à tort par ChatGPT comme un criminel condamné.

L'année dernière, l'IA Gemini de Google a suggéré aux utilisateurs de coller du fromage sur une pizza avec de la colle et a déclaré que les géologues recommandaient aux humains de manger une pierre par jour.

Dans un communiqué, M. Holmen a déclaré que cette hallucination était très dommageable.

« Certains pensent qu'il n'y a pas de fumée sans feu.

Le fait que quelqu'un puisse lire ce message et y croire est ce qui m'effraie le plus. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd