Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...

Incident 1429: La Banque d'Italie a mis en garde contre l'utilisation de prétendues images truquées du gouverneur Fabio Panetta dans des publicités d'investissement présumées frauduleuses.

Traduit par IA
“”Dernier rapport
bancaditalia.it2026-03-22
Lire plus
Loading...
Des milliers de personnes sont tombées sous le charme de cette jeune femme MAGA idéale. Elle est créée par intelligence artificielle.

Incident 1422: Un compte anonyme, prétendument généré par IA, se faisant passer pour un membre de l'armée pro-Trump aurait été créé afin d'attirer des abonnés et de les rediriger vers du contenu pour adultes payant.

Traduit par IA
“Des milliers de personnes sont tombées sous le charme de cette jeune femme MAGA idéale. Elle est créée par intelligence artificielle.”
washingtonpost.com2026-03-21

La belle blonde Jessica Foster, déguisée en militaire, a posé avec un avion de chasse F-22 Raptor, s'est mise en tenue de camouflage dans le désert et a foulé le tarmac avec le président Donald Trump le jour du premier jour des frappes contre l'Iran.

La multitude de photos et de vidéos illustrant la vie patriotique de cette « fille idéale MAGA » a fait exploser son compte Instagram, qui a rapidement dépassé le million d'abonnés depuis ses débuts il y a quatre mois.

Mais Jessica Foster n'est qu'une illusion : une femme fictive, probablement créée par une intelligence artificielle, selon les experts. Aucun document public ne prouve son service militaire et son compte, bien que non identifié comme étant une IA, regorge d'indices qui la rendent fausse. Entre ses nombreuses publications pro-Trump, Foster expose également ses pieds de manière ostentatoire.

Le succès viral de Foster met en lumière une stratégie de plus en plus répandue pour capter l'attention en ligne. Une multitude de comptes d'extrême droite, mêlant patriotisme et pornographie soft, utilisent de fausses femmes et des images convaincantes pour capter l'attention des internautes distraits, monétiser leur intérêt et marquer des points politiques.

Des comptes montrant des femmes générées par IA se faisant passer pour des soldats, des conductrices de camions et des policières pro-Trump ont vu leur audience exploser sur des plateformes comme TikTok, Instagram et X, où des milliers d'internautes ont commenté, laissant entendre qu'ils croient à l'authenticité de ces femmes.

Une variante de cette stratégie s'est également déployée ces dernières semaines hors des États-Unis. Des centaines de vidéos générées par intelligence artificielle montrant des soldates et des pilotes iraniennes acclamant l'armée du pays ont proliféré en ligne, comme l'a révélé la BBC. Un indice révélateur de leur supercherie : l'Iran interdit aux femmes de participer à des combats.

Sam Gregory, directeur exécutif de Witness, une association de défense des droits des femmes qui étudie les deepfakes, explique que Foster illustre parfaitement le pouvoir de tromperie des générateurs de vidéos par IA.

Les progrès de l'IA permettent désormais aux créateurs de générer plus facilement un personnage fictif cohérent, utilisable sur plusieurs photos ou vidéos, et de le placer aux côtés de personnalités publiques réelles, donnant ainsi l'impression qu'il est au cœur d'événements réels.

En intégrant des éléments politiques et l'actualité à la vie fictive de ces personnages, leurs créateurs espèrent probablement maximiser leur viralité et se démarquer sur Internet, conclut Gregory. Une fois l'attention du public captée, les créateurs peuvent – comme dans le cas de Foster – le rediriger vers une plateforme payante, où l'utilisateur est invité à payer pour accéder à des scènes encore plus scabreuses.

« Foster est l'incarnation même des fantasmes des partisans de Trump, le tout concentré sur une seule chaîne. Mais c'est manifestement de l'IA : les images sont sans provenance, on ne sait rien d'elle, et il y a des bugs visibles », a-t-il déclaré. « On trouve en ligne une multitude de belles femmes, réelles ou virtuelles, mais en avoir une d'aussi proche du pouvoir, au cœur des grands événements du moment, lui confère un prestige différent. »

La personne qui gère le compte de Foster n'a pas répondu aux demandes de commentaires. Après que le Washington Post a sollicité une réaction, le compte a publié mercredi une nouvelle photo montrant Foster à bord d'un navire militaire dans le détroit d'Ormuz.

Une porte-parole de l'armée a déclaré que les autorités n'avaient trouvé aucune trace de Foster. Instagram a supprimé le compte de Foster pour violation de son règlement jeudi soir, a déclaré un porte-parole de Meta. La Maison Blanche n'a pas répondu aux demandes de commentaires.

La première vidéo de Foster, publiée le jour de Thanksgiving, montrait la jeune femme aux yeux bleus assise sous un drapeau américain, vêtue d'un t-shirt moulant. La légende demandait à tous les « hétéros qui aiment les filles de l'armée américaine » de commenter.

Plus de 50 photos et vidéos ont suivi au cours des mois suivants, révélant une série de rencontres avec la Première dame Melania Trump, le président ukrainien Volodymyr Zelensky, le président russe Vladimir Poutine et la star du football Lionel Messi. Entre ces rencontres, Foster a fait des blagues grivoises, prononcé des discours et participé à des batailles d'oreillers avec ses collègues féminines.

« Le meilleur job du monde », pouvait-on lire en légende d'une vidéo du mois dernier montrant Foster portant un casque et un gilet tactique.

Ces moments étaient pour le moins extravagants, mais même les détails étaient révélateurs. Les insignes sur ses uniformes de combat et de service suggèrent un mélange confus de qualifications, indiquant qu'elle est soit sergent-chef, soit diplômée de l'école des Rangers, soit générale de brigade.

Sur une photo, elle apparaît en train de prononcer un discours à la « Conférence sur la frontière de la paix », une version ratée du nouveau Conseil de la paix de Trump. Sur une autre, où elle tient en otage Nicolás Maduro, l'ancien président vénézuélien, son uniforme affiche son prénom au lieu de son nom.

Malgré tout, des milliers d'utilisateurs se sont précipités sur ses publications pour commenter. À propos de Foster, Justine Moore, investisseuse de la Silicon Valley et membre du fonds de capital-risque Andreessen Horowitz, a déclaré sur X : « Je suis vraiment sidérée par le nombre d'hommes qui suivent des influenceuses qui sont clairement des IA. »

Les publications de Foster ont reçu plus de 100 000 commentaires, provenant en grande partie de comptes dont la photo de profil montre un homme. Certains l'ont accusée d'être une IA, tandis que beaucoup ont simplement salué sa beauté, lui ont envoyé des émojis en forme de cœur ou l'ont encouragée.

Le compte Instagram vérifié d'un responsable des transports brésilien a aimé la plupart de ses photos et a dit à Foster qu'elle était « linda », c'est-à-dire belle. Un autre utilisateur a demandé : « Pourquoi ne réponds-tu JAMAIS ? » (Les comptes n'ont pas répondu aux demandes de commentaires.)

Le compte Instagram de Foster, qui comprend des galeries intitulées « training », « U.S. » et « dailyarmy », était initialement lié à un compte OnlyFans, une plateforme d'abonnement populaire auprès des créateurs de contenu pornographique. Un porte-parole d'OnlyFans a déclaré que le compte avait été supprimé pour non-respect de son règlement, qui exige que tous les créateurs soient des adultes humains vérifiés.

Foster redirige désormais les internautes vers son compte sur Fanvue, une plateforme concurrente d'OnlyFans plus petite, qui accepte les modèles IA et les qualifie de « générées ou améliorées ».

Son compte, « jessicanextdoor », indique être basé à Fort Bragg, l'immense base militaire de Caroline du Nord qui abrite le Commandement des opérations spéciales de l'armée de terre américaine, et décrit Foster comme « fonctionnaire le jour, faiseuse de troubles la nuit 🤍 ».

De nombreux influenceurs utilisent cette technique de tunnel de vente pour convertir les spectateurs gratuits en abonnés payants donnant accès à du contenu plus explicite et exclusif. Fanvue a refusé de communiquer des informations sur ce compte, qui invite les internautes à s'abonner pour obtenir du « contenu exclusif ».

« Au fait, je réponds à tous les messages, mais soyez patients, je ne suis pas un robot », pouvait-on lire sur le compte, accompagné d'un clin d'œil. Quelques jours après sa création, le compte avait déjà récolté plus de 10 000 mentions « J'aime ».

Les personnes mal intentionnées n'ont pas besoin d'intelligence artificielle pour tromper les internautes. De vraies femmes ont vu leurs photos utilisées en ligne pour diffuser des messages politiques qu'elles n'approuvaient pas : en 2023, une supportrice de Trump a été transformée en un compte d'extrême gauche incitant à la haine. En 2024, des influenceurs européens ont été présentés comme des partisans inconditionnels de Trump.

Joan Donovan, professeure adjointe à l'Université de Boston et spécialiste de la manipulation médiatique, explique que l'intelligence artificielle a contribué à la multiplication de ces comptes grâce à leur facilité de création, leurs possibilités de personnalisation infinies et la perspective claire de gains financiers qu'ils offrent à leurs créateurs. Leur connotation politique garantit également la diffusion des images dans les fils d'actualité.

Le principal risque, selon Donovan, est que cette stratégie frauduleuse se transforme en guerre informationnelle. Les comptes anonymes pourraient alors être déployés comme une véritable « armée de bots » capable de diffuser massivement propagande, désinformation ou arguments de guerre.

« Le danger, c'est que nous nous dirigeons vers une société de l'irréel », affirme Donovan. « C'est un moyen efficace de faire passer des messages politiques. On ignore même si la vente de photos de pieds est la véritable vocation de Jessica Foster. »

Alex Horton a contribué à cet article.

Lire plus
Loading...
Une affaire de « faux candidat » utilisant l'IA ravive les craintes d'escroquerie à l'emploi en Corée du Nord

Incident 1421: Un candidat utilisant un deepfake aurait usurpé l'identité de Kenbun Yoshii, un cadre informatique tokyoïte, lors d'un entretien d'embauche en ligne.

Traduit par IA
“Une affaire de « faux candidat » utilisant l'IA ravive les craintes d'escroquerie à l'emploi en Corée du Nord”
upi.com2026-03-21

19 mars (Asia Today) – Un candidat soupçonné d'avoir utilisé un deepfake pour se faire passer pour quelqu'un d'autre a infiltré un entretien d'embauche en ligne dans une entreprise informatique japonaise, soulevant des inquiétudes quant à d'éventuels liens avec des programmes nord-coréens visant à obtenir des emplois à l'étranger et à générer des devises étrangères.

Selon un article paru jeudi dans le Yomiuri Shimbun, le candidat a utilisé l'intelligence artificielle pour usurper l'identité d'une personne réelle en modifiant ses traits faciaux et ses informations personnelles lors d'un entretien à distance mené au début du mois à Tokyo.

L'homme, qui s'est présenté sous un faux nom, a affirmé avoir grandi aux États-Unis et a demandé à travailler entièrement à distance. Lorsqu'on lui a indiqué qu'une présence physique était requise, il a mis fin à l'entretien après environ deux minutes.

Le candidat avait soumis un CV en anglais via une plateforme de recrutement japonaise, faisant état d'une expérience dans une grande entreprise et prétendant maîtriser parfaitement le japonais. Cependant, le recruteur a découvert par la suite que le profil et les informations relatives à la carrière correspondaient à ceux de Kenbun Yoshii, le PDG d'une entreprise informatique basée à Tokyo.

Yoshii a déclaré que des images et des vidéos de lui, disponibles publiquement, semblaient avoir été utilisées pour créer une fausse identité, qualifiant l'incident de « troublant et effrayant ». Il a ensuite reçu plusieurs signalements de candidats utilisant son identité pour postuler auprès d'autres entreprises.

L'analyse de l'enregistrement de l'entretien par plusieurs organisations, dont Okta et une start-up de détection de deepfakes basée à Tokyo, a révélé une forte probabilité que la vidéo ait été générée par intelligence artificielle. Les enquêteurs ont relevé des irrégularités telles qu'une ligne de cheveux peu naturelle, un bref décalage des yeux et une incohérence entre les mouvements des lèvres et le son.

Okta a indiqué que plus de 6 500 cas similaires ont été identifiés dans le monde ces dernières années, impliquant des individus soupçonnés d'être des informaticiens nord-coréens utilisant de fausses identités pour obtenir des emplois à distance dans des entreprises étrangères. Dans certains cas, les revenus ont été transférés en Corée du Nord, contribuant potentiellement au financement de ses programmes d'armement.

Une analyse distincte menée par Trend Micro a mis en évidence que des groupes cybernétiques nord-coréens expérimentent la technologie des deepfakes et produisent un grand nombre de CV falsifiés, revendiquant souvent une expertise en ingénierie full-stack.

Des experts en sécurité ont averti que ces tactiques, autrefois concentrées aux États-Unis et en Europe, se répandent désormais au Japon. Ils ont exhorté les entreprises à renforcer leurs procédures de vérification d'identité, notamment par l'authentification multifacteurs et les entretiens en personne.

Les chercheurs ont également souligné que les progrès rapides de la technologie des deepfakes rendent leur détection de plus en plus difficile sans outils techniques, et recommandent des méthodes de vérification multicouches ainsi qu'un interrogatoire technique approfondi lors des processus de recrutement.

-- Rapport d'Asia Today ; traduction de UPI

Lire plus
Loading...
Un associé de KPMG condamné à une amende pour avoir utilisé l'intelligence artificielle afin de tricher à un test de formation d'IA

Incident 1423: Un associé de KPMG Australie aurait utilisé l'IA pour tricher à un test de formation interne en IA et a été condamné à une amende de 10 000 dollars australiens.

Traduit par IA
“Un associé de KPMG condamné à une amende pour avoir utilisé l'intelligence artificielle afin de tricher à un test de formation d'IA”
theguardian.com2026-03-21

Un associé du cabinet de conseil KPMG a été sanctionné financièrement pour avoir utilisé l'intelligence artificielle afin de tricher lors d'une formation interne sur l'IA.

Cet associé, dont l'identité n'a pas été révélée, a écopé d'une amende de 10 000 dollars australiens (environ 5 200 livres sterling) pour avoir utilisé cette technologie à des fins frauduleuses. Il fait partie d'un groupe d'employés qui auraient eu recours à cette pratique.

Plus d'une vingtaine d'employés de KPMG Australie ont été pris en flagrant délit d'utilisation d'outils d'IA pour tricher lors d'examens internes depuis juillet, a indiqué l'entreprise, ce qui accroît les inquiétudes concernant la fraude facilitée par l'IA dans les cabinets d'expertise comptable.

Le cabinet de conseil a utilisé ses propres outils de détection par IA pour découvrir la fraude, selon l'Australian Finance Review, qui a révélé l'affaire.

Les quatre plus grands cabinets d'audit ont été confrontés à des scandales de fraude ces dernières années. En 2021, KPMG Australie a été condamnée à une amende de 615 000 dollars australiens pour fraude généralisée, après qu'il a été constaté que plus de 1 100 associés avaient partagé indûment les réponses à des tests conçus pour évaluer leurs compétences et leur intégrité.

Cependant, les outils d'intelligence artificielle ont ouvert de nouvelles perspectives de fraude. En décembre, l'Association des experts-comptables agréés (ACCA), le principal organisme comptable du Royaume-Uni, a annoncé qu'il exigerait désormais que les étudiants en comptabilité passent leurs examens en présentiel, car il serait autrement trop difficile d'empêcher la tricherie aux examens à l'aide de l'IA.

Helen Brand, directrice générale de l'ACCA, avait alors déclaré que les outils d'IA avaient atteint un point critique, leur utilisation dépassant les mesures de protection contre la fraude mises en place par l'association.

Des entreprises comme KPMG et PricewaterhouseCoopers ont également rendu obligatoire l'utilisation de l'IA dans leurs évaluations annuelles. Le personnel d'utiliser l'IA au travail, apparemment dans le but d'augmenter les profits et de réduire les coûts.

Les associés de KPMG seront évalués sur leur capacité à utiliser les outils d'IA lors de leurs entretiens d'évaluation de 2026 (https://news.bloombergtax.com/daily-tax-report-international/kpmg-staff-to-be-rated-on-ai-usage-in-yearly-performance-reviews). Niale Cleobury, responsable mondiale de l'IA au sein du cabinet, a déclaré : « Nous avons tous la responsabilité d'intégrer l'IA à l'ensemble de nos activités. »

Sur LinkedIn, certains internautes ont souligné l'ironie de la situation : utiliser l'IA pour tricher lors de sa propre formation. KPMG « lutte contre l’adoption de l’IA au lieu de repenser la formation de ses employés. Il ne s’agit pas d’un problème de tricherie, compte tenu du nouvel ordre mondial. C’est un problème de formation », a écrit Iwo Szapar, créateur d’une plateforme évaluant la « maturité en IA » des organisations, sur LinkedIn.

KPMG a déclaré avoir mis en place des mesures pour identifier l’utilisation de l’IA par son personnel et surveiller le nombre de ses employés ayant fait un usage abusif de cette technologie.

Andrew Yates, directeur général de KPMG Australie, a déclaré : « Comme la plupart des organisations, nous nous sommes interrogés sur le rôle et l’utilisation de l’IA dans le cadre de la formation et des tests internes. C’est un sujet complexe, compte tenu de la rapidité avec laquelle la société l’a adopté.

« Étant donné l’utilisation quotidienne de ces outils, certains employés enfreignent notre politique. Nous prenons ces infractions très au sérieux. » Nous étudions également des moyens de renforcer notre approche dans le cadre du régime actuel d'autodéclaration. »

Lire plus
Loading...
Claude Code supprime l'environnement de production des développeurs, y compris sa base de données et ses instantanés : 2,5 ans d'enregistrements effacés en un instant.

Incident 1424: Selon certaines informations, Claude Code Agent aurait supprimé l'infrastructure de production, la base de données et les instantanés de DataTalks.Club via Terraform.

Traduit par IA
“Claude Code supprime l'environnement de production des développeurs, y compris sa base de données et ses instantanés : 2,5 ans d'enregistrements effacés en un instant.”
tomshardware.com2026-03-19

On aime tous les histoires de robots agents qui tournent mal, et on éprouve souvent une certaine jubilation à l'égard de nos compagnons virtuels. Cependant, il arrive que ces erreurs soient dues à une supervision insuffisante, comme ce fut le cas pour Alexey Grigorev, qui a eu le courage de raconter en détail comment Claude Code a effacé des années de données sur un site web, y compris les sauvegardes de restauration.

L'histoire commence lorsque Grigorev a voulu migrer son site web, AI Shipping Labs, vers AWS et partager la même infrastructure que DataTalks.Club. Claude lui-même a déconseillé cette option, mais Grigorev a estimé que le coût et les complications liés au maintien de deux environnements distincts ne valaient pas la peine.

Gregory utilise Terraform, un outil de gestion d'infrastructure capable de créer (ou de supprimer) des configurations complètes, incluant réseaux, répartition de charge, bases de données et, bien sûr, les serveurs eux-mêmes. Il a demandé à Claude d'exécuter un plan Terraform pour configurer le nouveau site web, mais a oublié de télécharger un fichier d'état essentiel contenant une description complète de la configuration à un instant donné.

L'article continue ci-dessous

Vous aimerez peut-être

Claude a suivi les instructions de Gregory et a créé une configuration pour le site Shipping Labs. Cependant, l'opérateur a interrompu le processus en cours. En l'absence du fichier d'état, des ressources dupliquées ont été créées. Gregory a demandé à Claude d'identifier ces ressources pour corriger le problème, puis a téléchargé le fichier d'état, pensant avoir résolu la situation.

Malheureusement, Gregory a supposé à ce moment-là que le bot continuerait à supprimer les ressources dupliquées et ne consulterait le fichier d'état qu'ensuite pour vérifier la configuration initiale. Terraform et les outils similaires peuvent être très impitoyables, surtout lorsqu'on les utilise sans réfléchir. Claude étant désormais en possession du fichier d'état, il a logiquement exécuté une opération de destruction Terraform afin de procéder à une restauration correcte.

Étant donné que la description de l'infrastructure incluait le site web DataTalks.Club, cette opération a entraîné la suppression complète de la configuration des deux sites, y compris une base de données contenant 2,5 ans d'enregistrements, ainsi que les instantanés de base de données sur lesquels Grigorev comptait comme sauvegardes. L'opérateur a dû contacter le support technique d'Amazon (https://www.tomshardware.com/tag/amazon), qui a permis de restaurer les données en une journée environ.

Dans son rapport d'analyse, Gregory décrit les mesures qu'il prend pour éviter que de tels incidents ne se reproduisent : mise en place d'un test périodique pour la restauration de la base de données, application de protections contre la suppression aux autorisations Terraform et AWS, et déplacement du fichier d'état Terraform vers un stockage S3 plutôt que sur sa machine locale. Il a également admis avoir « trop compté sur l'agent d'IA pour exécuter les commandes Terraform » et a décidé de le désactiver. Il examinera manuellement chaque plan présenté par Claude afin de pouvoir effectuer lui-même toute action destructive.

Recevez les meilleures actualités et les tests approfondis de Tom's Hardware directement dans votre boîte mail.

On pourrait être tenté de classer cette histoire dans la catégorie des « bots stupides qui ont mal tourné », mais il y a fort à parier que la plupart des administrateurs système auront repéré les problèmes fondamentaux de l'approche de Grigorev, notamment l'octroi de permissions très étendues à ce qui est en réalité un subordonné, ainsi que l'absence de limitation des permissions dans un environnement de production.

La principale leçon à tirer est peut-être qu'il ne fallait pas supposer que Claude ait même le contexte (sans jeu de mots) nécessaire pour comprendre la signification de l'existence du second site web, tout comme un administrateur système junior ne l'aurait pas.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    743
  • 🥈

    Anonymous

    156
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    845
  • 🥈

    Anonymous

    238
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    3127
  • 🥈

    Anonymous

    986
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd