Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Un jeune homme de 17 ans est soupçonné d'avoir perpétré une cyberattaque au Japon à l'aide d'une intelligence artificielle.

Incident 1295: Un adolescent japonais aurait utilisé un programme généré par l'IA pour pirater Kaikatsu Frontier et divulguer les données de 7,3 millions de clients.

Traduit par IA
“Un jeune homme de 17 ans est soupçonné d'avoir perpétré une cyberattaque au Japon à l'aide d'une intelligence artificielle.”Dernier rapport
mainichi.jp2025-12-06

TOKYO (Kyodo) – Un adolescent de 17 ans a été arrêté jeudi, soupçonné d'avoir piraté le serveur d'un important opérateur de cybercafés au Japon à l'aide d'un programme généré par une intelligence artificielle conversationnelle, a indiqué une source proche de l'enquête.

Cette arrestation intervient après la cyberattaque dont a été victime Kaikatsu Frontier Inc., exploitant des chaînes de cybercafés Kaikatsu Club et de salles de sport FiT24, en janvier. La maison mère a annoncé que cette attaque pourrait avoir entraîné la fuite des données personnelles de 7,3 millions de clients.

L'élève, scolarisé à Osaka, est soupçonné d'avoir envoyé environ 7,24 millions de commandes non autorisées au serveur de Kaikatsu Frontier afin d'exporter des données personnelles, perturbant ainsi le fonctionnement de l'entreprise, a précisé la source.

Bien que les services d'IA ne génèrent généralement pas de contenu susceptible d'être utilisé à des fins criminelles, l'élève aurait dissimulé ses véritables intentions lorsqu'il a sollicité l'IA.

Il avait déjà été arrêté par la police de Tokyo en novembre pour avoir prétendument commandé une carte Pokémon en ligne en utilisant les informations de carte bancaire d'un tiers.

Lire plus
Loading...
Le Vietnam arrête trois ressortissants de la République de Corée liés à un réseau d'escroquerie sentimentale utilisant des deepfakes.

Incident 1291: Un réseau de fraude sud-coréen aurait utilisé de fausses identités (deepfakes) pour faire venir des victimes dans des opérations d'escroquerie au Cambodge.

Traduit par IA
“Le Vietnam arrête trois ressortissants de la République de Corée liés à un réseau d'escroquerie sentimentale utilisant des deepfakes.”
vietnamnews.vn2025-12-06

ĐÀ NẴNG — La police du centre du Viêt Nam a arrêté trois ressortissants de la République de Corée, accusés d'avoir dirigé un réseau transfrontalier d'escroquerie sentimentale. Ce réseau utilisait la technologie deepfake et aurait contraint des victimes à participer à des arnaques en ligne.

Selon un communiqué de la police publié vendredi, les trois hommes — Choi Minsu, 26 ans, Choi Jinwoo, 25 ans, et Seo Jaeseok, 28 ans — ont été interpellés fin novembre dans un hôtel de Đà Nẵng après avoir fui le Cambodge, où ils sont soupçonnés d'avoir géré une plaque tournante de l'escroquerie dans la ville frontalière de Bavet.

Interpol avait émis des notices rouges à leur encontre à la demande de la République de Corée pour des chefs d'accusation d'escroquerie, de crime organisé et de traite d'êtres humains.

La police vietnamienne a indiqué que le groupe utilisait la technologie deepfake pour se faire passer pour des femmes et établir des contacts sentimentaux avec des victimes masculines en ligne.

Une fois la confiance établie, les victimes étaient incitées à s'inscrire à des missions de voyage rémunérées, avec la promesse de vols et d'hébergement gratuits, ainsi que d'un remboursement à la fin du voyage.

Les hommes persuadaient ensuite leurs victimes de se rendre au Vietnam ou en Thaïlande avant de les inciter à traverser la frontière cambodgienne.

À leur arrivée, les passeports des victimes étaient confisqués, elles étaient détenues et contraintes de mémoriser des argumentaires d'escroquerie préétablis, utilisés dans des opérations de fraude en ligne.

Les autorités estiment que le réseau a escroqué environ un million de dollars américains entre août et décembre 2024.

Les trois suspects ont franchi illégalement la frontière vietnamienne à la mi-octobre 2025 et se sont cachés.

La police de Đà Nẵng, en collaboration avec le ministère de la Sécurité publique, les a localisés dans un hôtel du quartier d'An Hải et les a arrêtés le 28 octobre.

Les hommes ont depuis été remis aux autorités de la République de Corée en vue de leur extradition, a indiqué la police. --- VNS

Lire plus
Loading...
Un homme de Glasgow avoue avoir créé des deepfakes de nudité d'une ancienne camarade de classe.

Incident 1292: Un homme de Glasgow aurait utilisé un outil d'intelligence artificielle pour créer et diffuser des images truquées (deepfakes) de nu d'une ancienne camarade de classe sans son consentement.

Traduit par IA
“Un homme de Glasgow avoue avoir créé des deepfakes de nudité d'une ancienne camarade de classe.”
heraldscotland.com2025-12-06

Un homme de Glasgow est devenu l'une des premières personnes en Écosse à être condamnée pour diffusion de pornographie créée à l'aide de la technologie d'intelligence artificielle « deepfake ».

Callum Brooks, 25 ans, a modifié deux photos publiées sur les réseaux sociaux par une femme qu'il connaissait depuis l'école, et les a envoyées à des amis.

Il a utilisé un logiciel pour créer des images de la femme nue à partir de photos où elle était habillée. L'une des photos la montrait de la taille jusqu'à la tête, tandis que l'autre la montrait en pied.

Brooks a utilisé Photoshop pour faire apparaître la femme dénudée à son insu et sans son consentement.

Brooks a plaidé coupable devant le tribunal de Glasgow pour diffusion d'une photographie de la femme dans une situation intime sans son consentement.

Cet homme de 25 ans, originaire d'Easterhouse à Glasgow, a affirmé que ses actes n'avaient « aucun caractère sexuel », ce que le ministère public a accepté.

Ce primo-délinquant a déclaré avoir commis ce délit pour démontrer les capacités du logiciel.

Cette affaire est l'une des premières de ce type à être portée devant un tribunal écossais.

Le tribunal a appris que Brooks et la victime étaient amis depuis le lycée et étaient restés en contact via les réseaux sociaux.

Avant les faits, Brooks s'était procuré un logiciel de retouche d'images par intelligence artificielle (IA).

La procureure Katie Malcolm a déclaré : « Brooks a pris deux photos sur le compte Instagram de la victime, où elle apparaissait entièrement vêtue.

Il a ensuite modifié ces images pour la montrer dénudée.

L'une était une photo en pied, l'autre un portrait jusqu'à la taille. Brooks a ensuite envoyé ces images à deux amis. »

L'audience a révélé que la victime « n'était au courant de rien » concernant ces images. En février 2024, un ami de Brooks l'a interrogée sur sa connaissance des images qui lui avaient été montrées.

Mlle Malcolm a ajouté : « Elle a été immédiatement gênée et humiliée. Elle a confirmé que les images étaient d'un réalisme saisissant et l'affaire a été signalée à la police. »

Arrêté, Brooks a déclaré aux policiers : « C'était vraiment de la mesquinerie de la part de certaines personnes. Je sais que je n'aurais pas dû faire ça, je n'aurais pas dû utiliser Photoshop. »

Il a affirmé que l'un de ses amis avait demandé les images, contrairement à l'autre.

L'avocat de la défense, Gerry Devaney, a expliqué au tribunal que Brooks s'était disputé avec un de ses amis après l'envoi des images.

L'avocat a ajouté : « L'ami a attiré l'attention de la femme, qui ignorait tout, et lui a montré les images.

« L'intention était de montrer les possibilités du logiciel ; il était assez novateur à l'époque et il en a profité, ce qu'il regrette profondément. »

« Il n'y avait aucun élément sexuel significatif ; il s'agissait du comportement d'un garçon envers des personnes qu'il considérait comme ses amis, et il le regrette aujourd'hui. »

La juge Anna Reid a condamné Brooks à une amende de 335 £.

Lire plus
Loading...
Des vidéos frauduleuses générées par l'IA, utilisant le président chypriote et des célébrités, escroquent des milliers de victimes.

Incident 1293: Une vidéo truquée (deepfake) usurpant l'identité du président chypriote Nikos Christodoulides aurait escroqué des citoyens de plusieurs milliers d'euros.

Traduit par IA
“Des vidéos frauduleuses générées par l'IA, utilisant le président chypriote et des célébrités, escroquent des milliers de victimes.”
in-cyprus.philenews.com2025-12-06

Des vidéos générées par intelligence artificielle (IA) usurpant l'identité du président Nicos Christodoulides, de magnats des affaires et de célébrités ont escroqué des Chypriotes de plusieurs milliers d'euros. Les autorités mettent en garde contre l'absence de protection des citoyens face à cette menace croissante.

À Chypre, une quinzaine de personnes ont perdu entre 10 000 et 15 000 € après avoir été dupées par une vidéo truquée montrant Christodoulides aux côtés des hommes politiques Averof Neophytou et Haris Georgiades, faisant la promotion d'une fausse plateforme d'investissement promettant la prospérité à tous.

Giorgos Michailidis, commissaire de l'Autorité de sécurité numérique, a déclaré qu'aucun outil ni mécanisme n'existe pour protéger les individus contre les IA malveillantes.

« Il est très difficile de se protéger. Il faut être très attentif. Observer les mains, les doigts, par exemple. C'est déjà très difficile, et je pense que cela le deviendra encore plus dans les années à venir, à mesure que l'intelligence artificielle se développera et s'améliorera », a déclaré M. Michailidis.

Depuis plusieurs mois, des escrocs utilisent des personnalités publiques pour donner de la crédibilité à leurs arnaques.

En mars, Sir Stelios Haji-Ioannou, fondateur d'easyGroup, a mis en garde le public contre une escroquerie aux cryptomonnaies en utilisant son image et le nom de son entreprise.

La publicité en ligne trompeuse incitait les internautes à s'inscrire auprès d'une fausse société appelée « easyProfit », promettant des rendements allant jusqu'à 96 % sur les cryptomonnaies et le trading de devises.

La chanteuse Anna Vissi et la présidente de la Banque centrale européenne, Christine Lagarde, sont également apparues dans des vidéos similaires d'arnaques à l'investissement.

En juillet, l'homme d'affaires John Christodoulou a publié sur son compte personnel une vidéo frauduleuse où il incitait les gens à participer à des escroqueries. « Ce n'est pas moi », a-t-il précisé.

En août, une fausse page Facebook se faisant passer pour Phileleftheros a utilisé le présentateur grec Sakis Tanimanidis pour inciter les citoyens à télécharger une application promettant des gains financiers importants.

À Pâques, une vidéo a circulé montrant Donald Trump souhaitant aux Chypriotes un « bon souvla » et promettant de « jeter les Turcs à la mer », le tout en anglais. Le député Christos Christofidis a déclaré que d'innombrables personnes lui avaient envoyé la vidéo, enthousiastes à l'idée que Trump viendrait sauver Chypre.

« Vous n'imaginez pas le nombre de personnes qui me l'ont envoyée, excitées à l'idée que Trump vienne nous sauver », a déclaré Christofidis.

Les arnaques à l'IA peuvent prendre de nombreuses formes, a expliqué Michailidis. Il peut s'agir de voix lors d'appels téléphoniques, de vidéos, de photos, de textes dans des discussions instantanées ou d'autres messages. Une personne communiquant sur Instagram ou Facebook pourrait parler à une IA plutôt qu'à une personne réelle.

Même les experts manquent d'outils ou de mécanismes pour les détecter, a-t-il ajouté.

Lors des récents séismes majeurs en Turquie, une photo a circulé montrant un sauveteur grec tenant un enfant qu'il était censé avoir sauvé. Mais quiconque regardait les mains du sauveteur remarquerait qu'il avait six doigts, a fait remarquer Michailidis.

Il n'existe aucun manuel indiquant précisément ce qu'il faut rechercher, a-t-il conclu. Ils doivent rester vigilants et signaler tout élément suspect.

L'Union européenne a entamé des discussions sur l'étiquetage obligatoire des contenus générés par l'IA, a déclaré Michailidis. Cependant, cette obligation ne s'applique qu'aux outils d'IA légitimes utilisés de bonne foi. Toute personne utilisant l'IA à des fins malveillantes pour tromper le public ne sera pas soumise à cette obligation d'étiquetage.

Les citoyens doivent vérifier les informations, a-t-il insisté. « Il serait judicieux de rappeler pour s'en assurer. »

Les technologies d'IA sont très avancées, a souligné Michailidis. Il est possible de payer un abonnement pour acquérir des logiciels malveillants et des virus afin d'attaquer une personne ou une entreprise. « Il est incroyable de constater à quel point la criminalité dans le secteur de l'IA a progressé », a-t-il affirmé.

L'ingénierie sociale via l'IA est de plus en plus fréquente, a expliqué Michailidis. Il s'agit d'actions menées par l'IA visant à manipuler les individus, à les influencer psychologiquement et à les orienter vers des actions et des comportements spécifiques. Un phénomène similaire semble s'être produit lors de l'élection présidentielle américaine qui a porté Donald Trump au pouvoir, ainsi que lors du référendum britannique sur le Brexit, a-t-il indiqué. Un État pourrait être à l'origine de telles actions, et pas seulement des fraudeurs.

L'action la plus importante à présent est d'informer les citoyens, a déclaré Michailidis. « Il ne faut pas croire tout ce que l'on voit, même si cela paraît réel. Il est essentiel de vérifier », a-t-il affirmé.

« Si nous ne sommes pas vigilants, nous sommes à la merci de l'intelligence artificielle. Nous devons vérifier et rechercher. Cela dépend de nous », a-t-il ajouté.

Christofidis a récemment déposé une proposition de loi criminalisant l'utilisation de personnes dans des contenus générés par l'IA sans leur consentement.

« J'ai récemment vu une vidéo où un présentateur connu vantait les mérites d'un produit minceur. Je l'ai regardée trois fois – elle était tellement réaliste – que j'en ai conclu qu'elle avait été retouchée par l'IA. Si nous pouvons le détecter aujourd'hui, dans un an ou deux, lorsque cette technologie sera perfectionnée, ce sera impossible », a déclaré Christofidis.

Il existe une lacune législative en matière de protection des citoyens, a-t-il souligné.

L'Union européenne doit exiger des plateformes de médias sociaux qu'elles étiquettent les contenus générés par l'IA, a déclaré Christofidis. Il s'est dit inquiet de la prolifération de vidéos de propagande et de vidéos de vengeance.

Lire plus
Loading...
Le New York Times poursuit la start-up d'intelligence artificielle Perplexity pour utilisation d'œuvres protégées par le droit d'auteur.

Incident 1294: Le New York Times a porté plainte contre Perplexity pour utilisation présumée de contenu protégé par le droit d'auteur et attribution mensongère.

Traduit par IA
“Le New York Times poursuit la start-up d'intelligence artificielle Perplexity pour utilisation d'œuvres protégées par le droit d'auteur.”
nytimes.com2025-12-06

Le New York Times a porté plainte vendredi, affirmant que ses droits d'auteur avaient été violés à plusieurs reprises par Perplexity, une start-up spécialisée en intelligence artificielle ayant développé un moteur de recherche internet de pointe.

Le Times a déclaré dans sa plainte avoir contacté Perplexity à plusieurs reprises au cours des 18 derniers mois, exigeant que la start-up cesse d'utiliser son contenu jusqu'à ce qu'un accord soit trouvé. Or, Perplexity a continué d'utiliser les documents du Times.

Cette plainte, déposée devant un tribunal fédéral de New York, est la dernière d'une série de litiges opposant les détenteurs de droits d'auteur aux entreprises d'IA, qui comptent plus de 40 affaires à travers le pays. Jeudi, le Chicago Tribune a également porté plainte contre Perplexity pour violation de droits d'auteur. L'année dernière, Dow Jones, propriétaire du Wall Street Journal, du New York Post et d'autres publications, a formulé des accusations similaires dans une plainte contre la start-up.

Il s'agit de la deuxième plainte déposée par le New York Times contre des entreprises spécialisées en intelligence artificielle. En 2023, le journal avait déjà poursuivi OpenAI et son partenaire Microsoft, les accusant d'avoir entraîné leurs systèmes d'IA à l'aide de millions d'articles du Times sans les rémunérer. Microsoft et OpenAI, créateur du chatbot ChatGPT, contestent ces accusations.

Perplexity, une entreprise de San Francisco fondée en 2022 par un ancien ingénieur d'OpenAI et d'autres entrepreneurs, exploite un moteur de recherche utilisant la même technologie d'IA que ChatGPT.

La plainte accuse Perplexity d'avoir violé les droits d'auteur du New York Times de plusieurs manières, notamment lorsque le moteur de recherche de la start-up récupère des informations sur un site web ou une base de données et les utilise pour générer du texte et répondre aux requêtes des internautes. Selon la plainte, il ne s'agirait pas d'une utilisation équitable de ce contenu, car Perplexity s'est approprié de larges extraits du contenu de la publication – dans certains cas, des articles entiers – et a fourni des informations qui concurrencent directement celles proposées par le New York Times à ses lecteurs.

« Perplexity fournit à ses propres utilisateurs des produits commerciaux qui se substituent au contenu du New York Times, sans autorisation ni rémunération », indique la plainte.

Le New York Times accuse également Perplexity d'atteinte à son image de marque. Dans certains cas, selon la plainte, le moteur de recherche de Perplexity a inventé des informations – ce que les chercheurs en intelligence artificielle appellent une « hallucination » – et les a faussement attribuées au New York Times.

« Les éditeurs poursuivent les entreprises technologiques depuis un siècle, que ce soit la radio, la télévision, Internet, les réseaux sociaux ou maintenant l'IA », a déclaré Jesse Dwyer, directeur de la communication de Perplexity, dans un communiqué au Times. « Heureusement, cela n'a jamais fonctionné, sinon nous en parlerions tous par télégraphe. »

Sur la quarantaine de plaintes déposées par des détenteurs de droits d'auteur contre des entreprises d'IA ces quatre dernières années, la plupart sont encore en cours. En septembre, Anthropic, concurrent d'OpenAI, a accepté de verser 1,5 milliard de dollars aux auteurs et éditeurs après qu'un juge a statué que l'entreprise, basée à San Francisco, avait illégalement téléchargé et stocké des millions d'ouvrages protégés par le droit d'auteur lors du développement de ses systèmes d'IA.

En mai, le New York Times a conclu un accord pluriannuel avec Amazon pour l'utilisation de son contenu éditorial sur les plateformes d'intelligence artificielle du géant technologique. Il s'agissait du premier accord de licence du Times portant sur l'IA générative. Les détails financiers n'ont pas été divulgués.

Amazon utilisera le contenu du site culinaire du Times ainsi que celui de son site sportif, The Athletic. Le contenu du Times servira également à entraîner les modèles d'IA d'Amazon.

De nombreux autres médias ont signé des accords similaires avec des entreprises spécialisées en IA, notamment OpenAI et Microsoft.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    652
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    743
  • 🥈

    Anonymous

    230
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2915
  • 🥈

    Anonymous

    967
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e59d373