Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Deloitte aurait cité des recherches génér�ées par l'IA dans un rapport d'un million de dollars commandé par un gouvernement provincial canadien.

Incident 1286: Des erreurs de citation prétendument dues à l'intelligence artificielle auraient été découvertes dans le rapport 2025 de Deloitte sur la main-d'œuvre du secteur de la santé à Terre-Neuve-et-Labrador.

Traduit par IA
“Deloitte aurait cité des recherches générées par l'IA dans un rapport d'un million de dollars commandé par un gouvernement provincial canadien.”Dernier rapport
fortune.com2025-11-29

Un rapport sur les soins de santé commandé par le gouvernement canadien à Deloitte, dont le coût pour une province s'élève à près de 1,6 million de dollars, contient des erreurs potentiellement générées par l'intelligence artificielle. Il s'agit du deuxième pays cette année à dénoncer les lacunes de la firme de consultants en matière de vérification des faits.

Ces erreurs, mises au jour dans une enquête publiée samedi par The Independent, un média canadien progressiste couvrant Terre-Neuve-et-Labrador, la province la plus à l'est du pays, figurent dans un rapport de 526 pages diffusé par le gouvernement en mai.

Le rapport fournissait des conseils au ministère de la Santé et des Services communautaires du gouvernement libéral de l'époque sur des sujets tels que les soins virtuels, les mesures incitatives à la fidélisation et les répercussions de la pandémie de COVID-19 sur les travailleurs de la santé, alors que le secteur de la santé de la province était confronté à une pénurie de personnel infirmier et médical.

Le rapport de Deloitte contenait de fausses citations, extraites d'articles universitaires fictifs, utilisées pour étayer les conclusions des analyses de rentabilité, et citait de véritables chercheurs dans des articles auxquels ils n'avaient pas contribué, a révélé le journal The Independent. Il comprenait des articles fictifs coécrits par des chercheurs qui affirmaient n'avoir jamais collaboré.

« Deloitte Canada maintient fermement les recommandations formulées dans son rapport », a déclaré un porte-parole de Deloitte Canada à Fortune. « Nous révisons le rapport afin d'apporter quelques corrections à des citations, ce qui n'a aucune incidence sur ses conclusions. L'intelligence artificielle n'a pas été utilisée pour la rédaction du rapport ; elle a été employée de manière sélective pour appuyer un petit nombre de citations de recherche. »

Le long rapport citait également un article scientifique du Canadian Journal of Respiratory Therapy, introuvable dans sa base de données.

« Il semblerait que pour produire ce genre de résultats, on utilise massivement l'IA », a déclaré Gail Tomblin Murphy, professeure associée à l'École des sciences infirmières de l'Université Dalhousie en Nouvelle-Écosse, au Independent. Mme Tomblin Murphy a été citée par Deloitte dans un article scientifique qui « n'existe pas ». Elle a ajouté n'avoir collaboré qu'avec trois des six autres auteurs mentionnés dans cette fausse citation.

« Il y a assurément de nombreux problèmes avec cela. Nous devons veiller scrupuleusement à ce que les données probantes qui étayent les rapports soient les meilleures possibles, des données validées. Et qu'en fin de compte, ces rapports – non seulement parce qu'ils coûtent cher aux gouvernements et au public – soient exacts, fondés sur des données probantes et utiles pour faire avancer les choses. »

Lundi, le rapport était toujours disponible sur le site web du gouvernement canadien.

Le gouvernement canadien a dépensé un peu moins de 1,6 million de dollars pour ce rapport, en huit versements, selon une demande d'accès à l'information publiée dans un article de blogue mercredi dernier.

Tony Wakeham, chef du Parti progressiste-conservateur de la province et nouveau premier ministre de Terre-Neuve-et-Labrador, a prêté serment à la fin octobre. Le bureau du premier ministre et le ministère de la Santé et des Services communautaires de Terre-Neuve-et-Labrador n'ont pas immédiatement répondu à la demande de commentaires de Fortune concernant le rapport de mai et ne se sont pas exprimés publiquement sur le sujet.

Cette révélation fait suite à la nouvelle, le mois dernier, que Deloitte avait utilisé l'intelligence artificielle dans un rapport de 290 000 $ publié en juillet pour aider le gouvernement australien à lutter contre les abus en matière d'aide sociale. Un chercheur a cependant relevé des incohérences dans cette étude de 237 pages, qui contenait des références à des articles de recherche universitaires inexistants et une citation fabriquée de toutes pièces d'un jugement de la Cour fédérale.

Dans la version révisée de l'étude, discrètement mise en ligne sur le site web du gouvernement australien, le cabinet de conseil a admis avoir utilisé le système de traitement du langage par intelligence artificielle générative Azure OpenAI pour l'élaboration du rapport.

« Les mises à jour apportées n'ont aucune incidence sur le contenu, les conclusions et les recommandations du rapport », a écrit Deloitte dans une section de l'étude mise à jour (https://www.dewr.gov.au/assuring-integrity-targeted-compliance-framework/resources/targeted-compliance-framework-assurance-review-final-report).

Le cabinet membre de Deloitte en Australie a été tenu de rembourser partiellement le gouvernement pour ce rapport. Aucune information n'a encore été rendue publique concernant un éventuel remboursement pour le rapport canadien.

Lire plus
Loading...
Une Ukrainienne accusée d'avoir utilisé une vidéo truquée du Premier ministre dans une escroquerie aux cryptomonnaies

Incident 1289: Le Premier ministre maltais, Robert Abela, aurait été victime d'un deepfake orchestré par un ressortissant ukrainien dans le cadre d'une escroquerie aux cryptomonnaies visant des résidents locaux.

Traduit par IA
“Une Ukrainienne accusée d'avoir utilisé une vidéo truquée du Premier ministre dans une escroquerie aux cryptomonnaies”
newsbook.com.mt2025-11-29

Une ressortissante ukrainienne de 24 ans a été placée en détention provisoire après avoir été accusée d'avoir escroqué plusieurs personnes à Malte grâce à une arnaque aux cryptomonnaies promue par une vidéo truquée du Premier ministre Robert Abela, générée par intelligence artificielle.

La femme, identifiée comme Kateryna Izotkina, titulaire d'un permis de séjour britannique mais sans domicile fixe à Malte, a comparu devant le tribunal mercredi. Elle a plaidé non coupable des accusations de blanchiment d'argent, d'escroquerie, d'enrichissement illicite et d'appartenance à une organisation criminelle.

Lors de l'audience, l'inspecteur Andy Rotin a expliqué que l'affaire avait débuté par la diffusion sur les réseaux sociaux d'une vidéo truquée mettant en scène M. Abela, faisant faussement la promotion d'investissements en cryptomonnaies. Plusieurs personnes ont été victimes de cette supercherie.

Une plaignante a déclaré avoir été escroquée de 52 000 €, transférés à la fois par de multiples transactions et en espèces. Les enquêteurs ont découvert que l'accusée avait continué à faire pression sur la victime pour obtenir d'autres sommes, même après les pertes initiales.

Pour appréhender la suspecte, la police a organisé une opération de livraison sous contrôle. La victime a remis 10 000 € sur la place Żurrieq au moyen de faux billets de 50 € fournis par la police. Des agents en civil ont arrêté Izotkina immédiatement après la remise.

Le tribunal a ordonné le gel de 63 000 € d'avoirs appartenant à l'accusée.

L'avocat de la défense, Nicholai Bugeja, a demandé la mise en liberté sous caution d'Izotkina, soulignant sa coopération avec la police et le fait que les enquêteurs étaient déjà en possession des preuves pertinentes. Cependant, la procureure Marica Ciantar s'est opposée à cette demande, insistant sur le fait que l'enquête n'en était qu'à ses débuts, que la plaignante n'avait pas encore témoigné et que l'accusée présentait un risque de fuite en raison de son absence de liens avec Malte. Mme Ciantar a également soulevé des inquiétudes quant à une possible falsification de preuves et à des liens avec un réseau criminel.

La magistrate Elaine Rizzo a refusé la mise en liberté sous caution et a ordonné le maintien en détention de la femme.

L'affaire est instruite par la procureure générale Marica Ciantar, assistée des inspecteurs Andy Rotin et Duncan Schembri. Les avocats Nicholai Bugeja et Alexander Boichuk ont représenté la défense.

Lire plus
Loading...
La fille d'un Écossais dans le coma en Turquie a été victime d'une escroquerie par deepfake qui lui demandait de l'argent.

Incident 1287: Une usurpation d'identité présumée sur Facebook, basée sur une technologie deepfake, aurait ciblé la fille d'un Écossais dans le coma.

Traduit par IA
“La fille d'un Écossais dans le coma en Turquie a été victime d'une escroquerie par deepfake qui lui demandait de l'argent.”
dailyrecord.co.uk2025-11-29

La fille d'un Écossais dans le coma en Turquie est écœurée par une escroquerie utilisant la technique du deepfake (usurpation d'identité) et demandant de l'argent. Teigan McMahon, originaire de Glasgow, a lancé un appel à l'aide désespéré la semaine dernière après que son père, Peter, a été victime d'un infarctus pendant ses vacances.

Sa famille fait face à des frais médicaux exorbitants, tandis que cet homme de 52 ans est maintenu en vie artificiellement.

Aujourd'hui, Teigan a dû suspendre les dons essentiels après qu'un escroc a créé un faux compte Facebook à son nom. Le faux profil, toujours actif malgré les tentatives de suppression, utilise des photos de Teigan et de son père comme photo de profil et pour publier des messages.

On y trouve également un lien vers la cagnotte de Teigan (https://www.dailyrecord.co.uk/all-about/charity) et une capture d'écran des dons accompagnée d'une publication se faisant passer pour la jeune femme de 20 ans : « Merci à tous pour votre soutien. Je suis ravie que les dons continuent d'affluer. »

Le faux compte Facebook indique être basé à Dallas, au Texas.

Un total de 9 505 £ a été collecté pour Peter avant la suspension des dons le mercredi 26 novembre, alors que la famille s'était fixé un objectif de 12 000 £.

Inquiète, Teigan a déclaré au Record : « J'ai suspendu ma page GoFundMe dès que je l'ai découvert. On m'a dit que le profil avait été supprimé, mais je peux toujours le voir. »

Peter a fait un arrêt cardiaque aux premières heures du mercredi 19 novembre. Son cœur a cessé de battre pendant 70 minutes. Ce père de cinq enfants s'était envolé pour la station balnéaire d'Antalya le 14 novembre pour une semaine de vacances d'hiver.

Teigan s'est immédiatement rendue à l'hôpital pour être au chevet de son père. La fille, dévastée, nous a confié : « J'ai reçu un appel mercredi m'annonçant que mon père était en soins intensifs après avoir fait un infarctus.

« Il avait déjà fait un mini-infarctus il y a quelques mois.

« Cette fois, c'était complètement différent. Ils ont dû lui faire un massage cardiaque pendant plus d'une heure. Son cœur a cessé de battre pendant 70 minutes.

« Cela a endommagé ses reins et il est maintenant sous dialyse.

« Il est toujours dans le coma, mais il respire par lui-même. Nous prions pour qu'il se réveille. Nous espérons un miracle. »

Peter, propriétaire d'un garage de carrosserie, avait pris l'avion sans assurance, et les frais d'hospitalisation s'élevaient déjà à 7 000 £ en trois jours.

Elle a ajouté : « Je ne saurais trop insister sur l'importance de chaque centime. Cette facture augmente de jour en jour et dépasse de loin les capacités financières de ma famille et moi.

Je ne suis pas du genre à demander de l'argent, mais je supplierai littéralement pour sauver la vie de mon père.

Je ferai absolument tout pour donner à mon père les meilleures chances de s'en sortir. »

Le Daily Record a mis en lumière plusieurs cas où des escrocs créent de fausses pages de collecte de fonds en exploitant des tragédies réelles pour arnaquer des familles endeuillées.

Ces exemples incluent le piratage d'un compte Facebook pour créer une fausse cagnotte après le décès de la cavalière de haut niveau Natasha Galpin, et le cas de Nicole Elkabbas, condamnée à près de trois ans de prison pour avoir escroqué le public de plus de 45 000 £ en simulant un cancer des ovaires.

Un porte-parole de GoFundMe a déclaré : « Nous savons que la page de collecte de fonds créée par Tiegan a été partagée par un faux compte sur les réseaux sociaux, mais nous sommes convaincus de son authenticité. »

GoFundMe nous a déjà indiqué disposer d'une équipe Confiance et Sécurité chargée de détecter les fraudes et rembourse généralement les dons en cas de détournement de fonds avéré ou de violation des conditions d'utilisation. La police écossaise a également averti que « ce type d'escroquerie peut être difficile à repérer et que n'importe qui peut se faire avoir ».

Lire plus
Loading...
Une veuve britannique perd plus de 600 000 $ dans une escroquerie générée par une intelligence artificielle

Incident 1285: Une photo truquée de Jason Momoa, prétendument générée par une intelligence artificielle, aurait été utilisée dans une escroquerie sentimentale ayant dépouillé une veuve britannique de 600 000 $.

Traduit par IA
“Une veuve britannique perd plus de 600 000 $ dans une escroquerie générée par une intelligence artificielle”
cryptopolitan.com2025-11-29

Une Britannique a perdu plus de 600 000 dollars dans une escroquerie utilisant l'intelligence artificielle. Les escrocs lui ont fait croire qu'elle entretenait une relation amoureuse avec l'acteur Jason Momoa. Selon les informations recueillies, ils lui ont envoyé plusieurs vidéos, réalisées par intelligence artificielle, où l'acteur tenait divers propos.

Toujours selon les mêmes sources, les escrocs ont utilisé ces images pour faire croire à cette veuve britannique qu'elle pourrait vivre heureuse avec la star hollywoodienne. Ils prétendaient que l'argent qu'elle envoyait servirait à construire leur maison de rêve à Hawaï.

La veuve britannique a entamé une relation après que la star hollywoodienne ait soi-disant répondu à ses commentaires sur une page de fans. Après ce premier contact, il a commencé à la contacter fréquemment et leur relation a évolué rapidement.

Une veuve britannique victime d'une escroquerie

Selon la police, des escrocs, se faisant passer pour Jason Momoa, ont commencé à soutirer de l'argent à une grand-mère. L'un d'eux prétendait que sa fortune était investie dans plusieurs projets cinématographiques. La veuve a finalement mis sa maison du Cambridgeshire en vente et a transféré plus d'un demi-million de livres sterling provenant de la vente à son prétendu petit ami. Après le transfert, plus aucun message et l'homme a disparu.

« Cela peut paraître incroyable, mais c'est une histoire vraie qui a laissé une femme vulnérable sans domicile », a déclaré la police du Cambridgeshire.

La police affirme que les escrocs ont déjà utilisé cette même arnaque sur d'autres victimes au Royaume-Uni et aux États-Unis. Ils ont affirmé qu'une autre Britannique s'était fait escroquer jusqu'à 80 000 £, l'escroc ayant utilisé la même technique d'arnaque sentimentale avec la star hollywoodienne pour duper sa victime sans méfiance.

La Britannique a déclaré avoir parlé avec sa fille, qui, selon elle, allait avoir 15 ans cette année. « On m'a aussi dit qu'il se battait avec son ex-femme pour la maison, et qu'il nous fallait un certificat de mariage pour la garder. Alors, naïve, j'ai payé », a-t-elle ajouté.

Dave York, agent de prévention des fraudes, a souligné que les escrocs ciblent toujours les personnes qu'ils jugent les plus vulnérables, en particulier les veuves. Ils perçoivent leur désespoir à combler un vide dans leur vie, créant ainsi une opportunité pour les criminels.

Des célébrités dénoncent la recrudescence des deepfakes générés par l'IA

Outre Jason Momoa, d'autres personnalités américaines ont vu leurs photos et vidéos utilisées par des criminels. Un exemple typique est celui de Steve Harvey, le célèbre animateur de l'émission « Family Feud ». L'année dernière, il figurait parmi les célébrités dont la voix a été imitée par des escrocs pour promouvoir une arnaque promettant des fonds publics.

« Ça fait des mois que je vous dis de réclamer ces 6 400 $ gratuits », déclare une voix ressemblant à celle de Harvey dans une vidéo. Cependant, Harvey a exhorté les autorités à enquêter sur cette affaire et à traduire les responsables en justice. « Ce qui m'inquiète, ce sont les personnes touchées. Je ne veux pas que mes fans, ni même les autres, soient lésés », a-t-il déclaré.

Depuis le début de l'année, on observe une forte augmentation du nombre d'escrocs utilisant l'intelligence artificielle. Selon un précédent rapport de Cryptopolitan, la Commission des valeurs mobilières du Nigeria a publié un communiqué mettant en garde le public contre l'utilisation de l'intelligence artificielle pour créer des deepfakes de personnalités publiques à des fins frauduleuses. Les escrocs créent ces vidéos truquées pour soutirer de l'argent, tandis que d'autres les utilisent pour promouvoir de faux placements.

Lire plus
Loading...
Une arnaque à l'IA cible les insulaires avec de faux postes de ministre

Incident 1288: Des vidéos truquées (deepfake) et de faux articles de presse auraient été utilisés pour usurper l'identité du ministre en chef de Guernesey dans une escroquerie à l'investissement.

Traduit par IA
“Une arnaque à l'IA cible les insulaires avec de faux postes de ministre”
bbc.com2025-11-29

Des contenus générés par intelligence artificielle et mettant en scène la principale responsable politique de Guernesey ont été utilisés par des escrocs dans une arnaque visant à inciter les habitants à investir, selon la police.

Cette escroquerie, connue sous le nom de deepfake, utilise de fausses vidéos et images de la ministre en chef de Guernesey, la députée Lindsay de Sausmarez, semblant recommander un placement, ainsi que de faux articles de presse locale.

Mme de Sausmarez a déclaré espérer que « la plupart des gens se rendraient vite compte qu'il s'agit d'un faux », mais a conseillé aux habitants de Guernesey d'avertir les personnes vulnérables du caractère frauduleux de ces publications.

Un porte-parole de la police de Guernesey a déclaré : « Soyez vigilants : cette histoire, ainsi que toute autre qui pourrait apparaître et qui mettrait en scène des députés demandant un paiement ou un investissement, est fausse et constitue une escroquerie. »

La police a ajouté que le public devait se méfier des articles faisant la promotion d'investissements ou de gains trop beaux pour être vrais.

Les arnaques par deepfake sont devenues plus fréquentes ces dernières années avec les progrès de l'intelligence artificielle. Des images truquées de personnalités telles que le journaliste financier Martin Lewis et le maire de Londres Sadiq Khan sont utilisées en ligne pour tromper les internautes.

La police de Guernesey a conseillé à la population de bien réfléchir avant de cliquer sur des liens, de saisir des informations personnelles ou de communiquer ses coordonnées bancaires.

Toute personne soupçonnant d'avoir été victime d'une fraude en ligne doit contacter immédiatement sa banque, a ajouté un porte-parole de la police.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    646
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    737
  • 🥈

    Anonymous

    230
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2907
  • 🥈

    Anonymous

    967
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e59d373