Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5001

Incidents associés

Incident 9983 Rapports
ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

ChatGPT a faussement dit à un homme qu'il avait tué ses enfants
bbc.com · 2025

Un Norvégien a porté plainte après que ChatGPT lui a faussement affirmé avoir tué deux de ses fils et avoir été condamné à 21 ans de prison.

Arve Hjalmar Holmen a contacté l'Autorité norvégienne de protection des données et a exigé une amende contre OpenAI, le créateur du chatbot.

Il s'agit du dernier exemple en date de ce que l'on appelle des « hallucinations », où des systèmes d'intelligence artificielle (IA) inventent des informations et les présentent comme des faits.

M. Holmen affirme que cette hallucination lui est très préjudiciable.

« Certains pensent qu'il n'y a pas de fumée sans feu ; le fait que quelqu'un puisse lire ce message et le croire vrai est ce qui m'effraie le plus », a-t-il déclaré.

OpenAI a été contacté pour commentaires.

M. Holmen a reçu ces fausses informations après avoir utilisé ChatGPT pour rechercher : « Qui est Arve Hjalmar Holmen ? »

La réponse qu'il a reçue de ChatGPT comprenait : « Arve Hjalmar Holmen est un Norvégien qui a attiré l'attention suite à un événement tragique.

Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. »

M. Holmen a déclaré que le chatbot avait à peu près correctement calculé leur différence d'âge, suggérant qu'il disposait d'informations précises le concernant.

L'association de défense des droits numériques Noyb, qui a déposé plainte en son nom, affirme que la réponse de ChatGPT est diffamatoire et enfreint les règles européennes de protection des données concernant l'exactitude des données personnelles.

Noyb a déclaré dans sa plainte que M. Holmen « n'a jamais été accusé ni condamné pour aucun crime et est un citoyen consciencieux. »

ChatGPT comporte une clause de non-responsabilité indiquant : « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes.

Noyb affirme que c'est insuffisant.

« On ne peut pas simplement diffuser de fausses informations et, à la fin, ajouter un petit avertissement indiquant que tout ce que vous avez dit pourrait être faux », a déclaré Joakim Söderberg, avocat chez Noyb.

Les hallucinations sont l'un des principaux problèmes que les informaticiens tentent de résoudre en matière d'IA générative.

Ces hallucinations surviennent lorsque des chatbots présentent de fausses informations comme des faits.

Plus tôt cette année, Apple a suspendu son outil de résumé d'actualités Apple Intelligence au Royaume-Uni après avoir halluciné de faux titres et les avoir présentés comme de vraies informations.

L'IA Gemini de Google a également été victime d'hallucinations : l'année dernière, elle a suggéré de coller du fromage sur une pizza avec de la colle, et a déclaré que les géologues recommandaient aux humains de manger une pierre par kilo. jour.

On ne sait pas exactement ce qui, dans les grands modèles de langage – la technologie qui sous-tend les chatbots – provoque ces hallucinations.

« Il s'agit en réalité d'un domaine de recherche actif. Comment construisons-nous ces chaînes de raisonnement ? » Comment expliquer ce qui se passe réellement dans un grand modèle linguistique ? », a déclaré Simone Stumpf, professeure d'IA responsable et interactive à l'Université de Glasgow.

La professeure Stumpf affirme que cela peut même s'appliquer aux personnes qui travaillent en coulisses sur ce type de modèles.

« Même si vous êtes souvent impliqué dans le développement de ces systèmes, vous ignorez leur fonctionnement réel, ni pourquoi ils génèrent ces informations particulières », a-t-elle déclaré à la BBC.

ChatGPT a modifié son modèle depuis la recherche de M. Holmen en août 2024 et consulte désormais les articles d'actualité pour trouver des informations pertinentes.

Noyb a déclaré à la BBC que M. Holmen avait effectué plusieurs recherches ce jour-là, notamment en saisissant le nom de son frère dans le chatbot, ce qui avait généré « plusieurs histoires différentes, toutes incorrectes ».

Ils ont également reconnu que les recherches précédentes auraient pu influencer la réponse concernant ses enfants, mais ont ajouté que les grands modèles linguistiques sont une « boîte noire » et qu'OpenAI « ne répond pas aux demandes d'accès, ce qui les rend impossibles à trouver. en savoir plus sur les données exactes présentes dans le système.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e