Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Does an image show JD Vance arguing with his wife, Usha, in a restaurant?

Incident 1340: Purported AI-Generated Image Falsely Depicting JD Vance and Usha Vance in Public Altercation Circulated on Social Media

“Does an image show JD Vance arguing with his wife, Usha, in a restaurant?”Dernier rapport
snopes.com2026-01-17

Claim:

A photo shared online in December 2025 authentically showed U.S. Vice President JD Vance arguing with his wife, Usha Vance, in a restaurant.

Rating:

Fake

In December 2025, an image circulated on social media purportedly showing U.S. Vice President JD Vance arguing with his wife, Usha Vance, in a restaurant. 

The image appeared to show JD Vance wearing a white T-shirt and a stern expression while sitting across from Usha Vance. One Facebook user who shared it (archived) wrote:

Looks like things are not so good in Republicanistan. Usha is a liberal. Always has been. Apparently they were having and [sic] argument loud enough to quiet the restaurant. Why is he wearing a tee shirt?

The image circulated elsewhere on Facebook and X (archived here and here). In short, it was fake.  

After Snopes initially published its story, YouTuber Keith Edwards reached out to confirm the image was a thumbnail he created for an October 2025 video, describing it as "fake." Edwards told us he used the artificial intelligence platform ChatGPT to create the image. 

The thumbnail matched the image circulating on social media. In both, the man wore the same facial expression and the woman was positioned the same way. A reverse image search did not lead us to any earlier version of the fabricated image. 

JD Vance himself appeared to support the conclusion that the image was fake in a Dec. 9 X post (archived), replying to a user who shared the image with a comment that seemed to poke fun at the rumor: "I always wear an undershirt when I go out in public to have a fight loudly with my wife."

We also ran the image through three AI-detection platforms: Hive, Sightengine and Image Whisperer. Sightengine estimated a 97% probability that the image was AI-generated, while Image Whisperer concluded with "high confidence" it was AI-generated. 

Hive, however, flagged the image as "not likely to contain AI-generated or deepfake content." It's worth noting that these tools are not always accurate and their results should be interpreted with caution. 

Prior to Edwards' confirmation, the team at GetReal Security, which specializes in authenticating digital media, also analyzed the image for Snopes. 

Hany Farid, co-founder of GetReal and a professor at the University of California, Berkeley, told us that the image's low quality made forensic analysis difficult. However, the team found "biometric anomalies" suggesting the image "may be AI-generated or is simply a photo of someone that resembles [JD] Vance."

"In particular, the facial features in the image do not match contemporaneous images of Vance," Farid added. Contemporaneous images are photos taken around the same time that are used to verify another image's authenticity. 

Matthew Stamm, an associate professor of electrical and computer engineering at Drexel University, told Snopes that he and his doctoral student analyzed the image to determine whether it was AI-generated, using a specialized forensic tool that detects subtle "fingerprints" left by generative AI. Stamm said the tool "determined with roughly 95% confidence that it was unable to detect traces left by generative AI."

However, he cautioned that this does not prove the image is real and cannot definitively rule out AI generation. Factors such as its size, low resolution and repeated sharing on social media made the analysis difficult, changing "the quality of the forensic traces that we analyze, similar to how fingerprints at a crime scene might be smudged," Stamm explained. 

The fabricated image spread online amid rumors of a rift in the Vances' marriage, which began to spread in October 2025. Photos of Usha Vance without her wedding ring taken the following month further fueled speculation. 

However, a spokesperson told USA Today in a Nov. 21 statement that Usha Vance "is a mother of three young children, who does a lot of dishes, gives lots of baths, and forgets her ring sometimes." Other publicly available Getty Images from November showed Usha Vance wearing her wedding ring.

In a Dec. 4 interview with NBC News, JD Vance said the couple's marriage is "as strong as it's ever been."

Lire plus
Loading...
Deux Canadiens perdent 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie deepfake basée sur l'IA.

Incident 1325: Des vidéos truquées générées par IA, imitant Elon Musk et l'émission Dragon's Den, auraient été utilisées dans une escroquerie aux investissements en cryptomonnaies ciblant des victimes canadiennes.

Traduit par IA
“Deux Canadiens perdent 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie deepfake basée sur l'IA.”
bingx.com2026-01-10

Deux Canadiens, l'un de l'Ontario et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. La victime ontarienne a perdu 1,7 million de dollars après avoir été trompée par une fausse vidéo d'Elon Musk, tandis que l'autre a perdu 600 000 dollars après avoir visionné une vidéo faussement liée à l'émission Dragon's Den. Le rapport a été mis à jour le 21 décembre 2025.

Mise à jour du 21 décembre 2025 à 12 h 31 UTC : le rapport détaille que deux Canadiens, l'un de Markham (Ontario) et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. Selon W5, des vidéos générées par IA et des tableaux de bord falsifiés ont été utilisés pour persuader les victimes que de petits dépôts produisaient de réels profits.

Comment les victimes ont été piégées par des imposteurs utilisant l'IA


Une femme de 51 ans, originaire de Markham, a visionné sur Facebook une vidéo où Elon Musk semblait parler d'une opportunité d'investissement dans les cryptomonnaies. Elle a envoyé 250 $ au départ et, deux jours plus tard, un gain de 30 $ lui a été annoncé. Incitée à déposer davantage d'argent, elle a cru aux documents qui semblaient officiels.

« J'ai demandé un prêt hypothécaire de près d'un million de dollars. J'ai fait le retrait et j'ai commencé à leur envoyer l'argent. Vous voyez ? 350 000 $, puis 350 000 $. » – Victime de Markham, en Ontario.

Les escrocs ont ensuite affiché un solde de 3 millions de dollars et ont exigé le paiement des taxes et des frais avant tout retrait. Pour couvrir ces frais, elle a emprunté 500 000 $ à sa famille et à ses amis et a utilisé ses cartes de crédit au maximum, ce qui porte ses pertes totales à 1,7 million de dollars.

Un homme de l'Île-du-Prince-Édouard a vu une vidéo qui prétendait renvoyer à l'émission télévisée « Dragon's Den » et suggérait d'investir dès 250 $. Il a augmenté ses transferts au fil du temps, allant jusqu'à envoyer 10 000 $ par jour, et a finalement perdu 600 000 $. Comme dans le premier cas, un faux solde de plus d'un million de dollars a été affiché et les tentatives de retrait ont été bloquées.

Leurs pertes totales s'élèvent à 2,3 millions de dollars. Selon le Centre antifraude du Canada, les Canadiens ont perdu 1,2 milliard de dollars dans des arnaques à l'investissement au cours des trois dernières années, et l'organisme estime que les pertes réelles sont plus importantes.

Rapports sur des réseaux de fraude à grande échelle

L'ancienne procureure américaine Erin West a déclaré que la fraude est organisée comme une industrie et que de nombreuses personnes qui appellent sont elles-mêmes victimes, victimes de trafic humain et envoyées dans des centres d'escroquerie en Asie du Sud-Est, où elles sont contraintes de travailler de longues heures. Celles qui refusent ou tentent de s'échapper sont battues ou torturées, selon son témoignage.

Mme West a décrit sa visite de centres de cyberfraude aux Philippines et a déclaré que leur ampleur reflète des opérations de niveau industriel qui reposent sur la manipulation psychologique, la technologie et le trafic d'êtres humains. Elle a averti qu'à mesure que les outils de deepfake deviennent moins chers et plus accessibles, des arnaques similaires sont susceptibles de se développer à l'échelle mondiale, rendant plus difficile pour les investisseurs ordinaires de distinguer les opportunités légitimes des fraudes basées sur l'IA.

Lire plus
Loading...
Waymo explique pourquoi les robotaxis sont tombés en panne lors de la coupure de courant à San Francisco.

Incident 1326: Les robotaxis Waymo auraient contribué aux embouteillages lors de la panne de courant de PG&E à San Francisco.

Traduit par IA
“Waymo explique pourquoi les robotaxis sont tombés en panne lors de la coupure de courant à San Francisco.”
sfchronicle.com2026-01-10

Waymo a reconnu mardi que ses voitures autonomes avaient contribué aux embouteillages lors de la panne de courant massive qui a touché San Francisco le week-end dernier. L'entreprise a expliqué que l'ampleur de la perturbation avait submergé certaines parties de son réseau et l'avait incitée à mettre en œuvre immédiatement des modifications logicielles et des mesures d'intervention d'urgence.

La panne, provoquée par un incendie dans un poste de transformation de PG&E, a privé d'électricité près d'un tiers de la ville samedi, mettant hors service des centaines de feux de circulation et engendrant des embouteillages monstres sur les principaux axes routiers. Alors que des policiers étaient déployés pour réguler manuellement la circulation aux intersections, les robotaxis Waymo immobilisés sont devenus l'un des signes les plus visibles des perturbations qui ont touché toute la ville, suscitant l'attention des habitants et des élus.

Dans un article de blog publié mardi (https://waymo.com/blog/2025/12/autonomously-navigating-the-real-world), Waymo a expliqué que le nombre sans précédent de feux de circulation hors service avait mis à rude épreuve les systèmes de sécurité conçus pour des pannes de moindre ampleur. Ses véhicules sont programmés pour considérer les feux défectueux comme des intersections à quatre stops, mais dans certains cas, ils demandent une « vérification de confirmation à distance » afin de garantir le choix le plus sûr.

« Bien que nous ayons réussi à franchir plus de 7 000 feux hors service samedi, la panne a entraîné une forte augmentation de ces demandes », a indiqué l'entreprise, ajoutant que les retards de confirmation avaient contribué à l'engorgement des rues déjà saturées.

Alors que la panne de courant persistait et que le Département de gestion des urgences de San Francisco exhortait les habitants à rester chez eux, Waymo a annoncé la suspension temporaire de son service et a demandé à ses véhicules de se garer afin d'être ramenés progressivement à leurs dépôts.

Le maire Daniel Lurie a déclaré que la ville était en contact direct avec l'entreprise, filiale d'Alphabet (la maison mère de Google), face à l'aggravation de la situation.

« J'ai appelé le PDG de Waymo et je lui ai demandé de retirer immédiatement les véhicules de la circulation », a déclaré M. Lurie lors d'une conférence de presse lundi. « Ils ont fait preuve de compréhension… mais nous avons besoin qu'ils soient plus proactifs. »

Cet incident a relancé le débat sur le comportement des véhicules autonomes lors de situations d'urgence majeures. Les élus de San Francisco ont demandé une audition sur la réponse de Waymo, et un organisme de réglementation californien a annoncé lundi examiner les incidents impliquant des robotaxis immobilisés pendant la panne.

Waymo a annoncé le déploiement de mises à jour logicielles pour l'ensemble de sa flotte. Ces mises à jour fournissent aux véhicules des informations plus précises sur les pannes de courant régionales, leur permettant ainsi de traverser les intersections avec plus d'assurance.

L'entreprise a également indiqué mettre à jour ses plans d'intervention d'urgence, renforcer sa coordination avec les autorités municipales et poursuivre la formation des secouristes. Plus de 25 000 secouristes à travers le monde ont déjà été formés à l'utilisation de ses véhicules.

« Bien que la défaillance du réseau électrique ait été importante, nous nous engageons à ce que notre technologie s'adapte à la circulation lors de tels événements », a déclaré un porte-parole de Waymo. « Nous nous attachons à intégrer rapidement les enseignements tirés de cet incident et nous avons à cœur de gagner et de conserver la confiance des communautés que nous desservons au quotidien. »

Lire plus
Loading...
Après la destitution de Maduro, les contenus générés par l'IA se répandent, brouillant la frontière entre réalité et fiction.

Incident 1333: Des images et des vidéos prétendument générées par l'IA auraient diffusé de fausses informations concernant la capture de Nicolás Maduro sur X

Traduit par IA
“Après la destitution de Maduro, les contenus générés par l'IA se répandent, brouillant la frontière entre réalité et fiction.”
cnbc.com2026-01-08

Suite à l'opération militaire américaine au Venezuela qui a conduit à la destitution du président Nicolas Maduro, des vidéos générées par intelligence artificielle montrant des Vénézuéliens en liesse dans les rues sont devenues virales sur les réseaux sociaux.

Ces clips, mettant en scène des foules en liesse, ont cumulé des millions de vues sur des plateformes majeures comme TikTok, Instagram et X.

L'un des premiers clips, et l'un des plus partagés sur X, a été publié par un compte nommé « Wall Street Apes », qui compte plus d'un million d'abonnés sur la plateforme.

La publication (https://x.com/WallStreetApes/status/2007586063876010289) montre des Vénézuéliens en larmes de joie remerciant les États-Unis et le président Donald Trump d'avoir destitué Maduro.

La vidéo a depuis été signalée par la communauté, une fonctionnalité de vérification des faits participative de X qui permet aux utilisateurs d'apporter des précisions aux publications qu'ils jugent trompeuses. Le message indiquait : « Cette vidéo est générée par une IA et est actuellement présentée comme une information factuelle dans le but d’induire les gens en erreur. »

La vidéo a été visionnée plus de 5,6 millions de fois et partagée par au moins 38 000 comptes, dont celui du magnat des affaires Elon Musk, avant que celui-ci ne la supprime.

CNBC n’a pas pu confirmer l’origine de la vidéo. Cependant, les vérificateurs de faits de la BBC et de l’AFP ont indiqué que la première version connue de la vidéo était apparue sur le compte TikTok @curiousmindusa, qui publie régulièrement du contenu généré par une IA.

Avant même la diffusion de ces vidéos, des images générées par IA montrant Maduro aux mains des Américains circulaient déjà avant que l'administration Trump ne publie une image authentique du dirigeant capturé.

L'ancien président vénézuélien a été capturé le 3 janvier 2026, à la suite de frappes aériennes et d'un raid terrestre menés par les forces américaines, une opération qui a fait la une de l'actualité internationale en ce début d'année.

Outre les vidéos générées par l'IA, l'équipe de vérification des faits de l'AFP a également signalé plusieurs exemples de contenus trompeurs concernant la destitution de Maduro, notamment des images de célébrations au Chili présentées à tort comme des scènes vénézuéliennes.

Cette semaine, Trump a également republié plusieurs vidéos relatives aux célébrations vénézuéliennes sur Truth Social, bien que CNBC ait confirmé que nombre d'entre elles avaient été filmées hors du Venezuela, dans des villes comme Panama et Buenos Aires.

L'une des vidéos partagées par le président (https://truthsocial.com/@realDonaldTrump/posts/115841047136997408) contenait d'anciennes images apparues en ligne dès juillet 2024 (https://www.facebook.com/watch/?v=797885532523121) et n'avait donc aucun lien avec la destitution récente de Maduro.

La diffusion de ce type de désinformation autour d'événements d'actualité majeurs n'est pas nouvelle. Des contenus faux ou trompeurs similaires ont été diffusés lors des conflits israélo-palestinien et russo-ukrainien.

Cependant, la portée massive des contenus générés par IA concernant les récents développements au Venezuela illustre de façon frappante le rôle croissant de l'IA comme outil de désinformation.

Des plateformes telles que Sora et Midjourney ont considérablement simplifié la création rapide de vidéos hyperréalistes et leur diffusion comme authentiques dans le contexte chaotique de l'actualité en temps réel. Les créateurs de ce type de contenu cherchent souvent à amplifier certains discours politiques ou à semer la confusion au sein du public international.

L'année dernière, des vidéos générées par IA montrant des femmes se plaignant de la perte de leurs allocations du Programme d'aide alimentaire supplémentaire (SNAP) lors d'une paralysie des services gouvernementaux sont devenues virales. L'une de ces vidéos a trompé Fox News, qui l'a présentée comme authentique dans un article qui a ensuite été supprimé.

Face à ces tendances, les entreprises de médias sociaux subissent une pression croissante pour renforcer leurs efforts d'étiquetage des contenus potentiellement trompeurs générés par IA.

L'année dernière, le gouvernement indien a proposé une loi rendant obligatoire l'étiquetage des deepfakes, tandis que l'Espagne a approuvé des amendes pouvant atteindre 35 millions d'euros pour les contenus générés par l'IA non étiquetés.

Pour répondre à ces préoccupations, les principales plateformes, dont TikTok et Meta, ont déployé des outils de détection et d'étiquetage de l'IA, avec des résultats mitigés.

CNBC a pu identifier certaines vidéos trompeuses sur TikTok concernant le Venezuela, signalées comme générées par l'IA. Cependant, d'autres vidéos, semblant être fabriquées ou modifiées numériquement, ne comportaient pas encore d'avertissement.

Dans le cas de X, la plateforme s'appuie principalement sur les commentaires de la communauté pour l'étiquetage des contenus. Toutefois, certains critiques estiment que le système réagit souvent trop lentement pour empêcher la propagation de la désinformation générée par l'IA avant d'être identifiée.

Adam Mosseri, qui supervise Instagram et Threads, a reconnu le défi auquel sont confrontés les réseaux sociaux dans un récent article. « Toutes les grandes plateformes font du bon travail pour identifier les contenus générés par l'IA, mais leurs performances se dégraderont avec le temps, à mesure que l'IA deviendra plus performante pour imiter la réalité », a-t-il déclaré.

« De plus en plus de gens pensent, comme moi, qu'il sera plus pratique d'identifier les vrais médias que les faux », a-t-il ajouté.

— Victoria Yeo de CNBC a contribué à cet article.

Lire plus
Loading...
Grok AI d'Elon Musk génère des images de « mineurs en tenue minimale �».

Incident 1329: Grok aurait généré et diffusé des images à caractère sexuel non consensuelles d'adultes et de mineurs sur X Replies.

Traduit par IA
“Grok AI d'Elon Musk génère des images de « mineurs en tenue minimale ».”
theguardian.com2026-01-02

Le chatbot Grok d'Elon Musk a annoncé vendredi que des failles dans ses systèmes de sécurité l'avaient conduit à générer des « images de mineurs légèrement vêtus » sur la plateforme de médias sociaux X. Ce chatbot, développé par xAI, la société de Musk, a diffusé une vague d'images à caractère sexuel tout au long de la semaine en réponse aux requêtes des utilisateurs.

Des captures d'écran partagées par des utilisateurs sur Twitter (X) montrent l'onglet public de Grok rempli de ces images. xAI a déclaré travailler à l'amélioration de ses systèmes afin d'éviter de futurs incidents.

« Il existe des cas isolés où des utilisateurs ont demandé et reçu des images générées par l'IA représentant des mineurs légèrement vêtus », a indiqué Grok dans une publication sur X en réponse à un utilisateur. « xAI dispose de mécanismes de protection, mais des améliorations sont en cours pour bloquer complètement ces requêtes. »

« Comme indiqué, nous avons identifié des failles dans nos systèmes de protection et nous y remédions de toute urgence. La pornographie infantile est illégale et interdite », a déclaré xAI publié sur le compte @Grok de X, en référence à la pornographie infantile.

Ces derniers jours, de nombreux utilisateurs de X ont incité Grok à générer des versions sexualisées et modifiées sans consentement d'images par l'IA, allant jusqu'à dévêtir les personnes sans leur consentement. Jeudi, Musk a republié une photo de lui en bikini générée par l'IA, accompagnée d'émojis riant aux larmes, en clin d'œil à cette tendance.

La génération d'images sexualisées par Grok semble dépourvue de garde-fous, permettant ainsi à des mineurs d'apparaître dans ses publications montrant des personnes, généralement des femmes, légèrement vêtues, d'après les messages du chatbot. Dans une réponse à un utilisateur sur X jeudi, Grok a déclaré que la plupart des cas pourraient être évités grâce à des filtres et une surveillance avancés, tout en reconnaissant qu'« aucun système n'est infaillible ». L'entreprise a ajouté que xAI accordait la priorité aux améliorations et examinait les informations partagées par les utilisateurs.

Contactée par courriel pour obtenir un commentaire, xAI a répondu : « Mensonges des médias traditionnels ».

Le problème de l'utilisation de l'IA pour générer du contenu pédopornographique est un problème récurrent dans le secteur de l'intelligence artificielle. Une étude de Stanford de 2023 a révélé qu'un ensemble de données utilisé pour entraîner plusieurs outils populaires de génération d'images par IA contenait plus de 1 000 images pédopornographiques. Selon les experts, entraîner une IA sur des images de maltraitance infantile peut permettre aux modèles de générer de nouvelles images d'enfants exploités.

Grok a également un historique de manquements à ses règles de sécurité et de diffusion de fausses informations. En mai dernier, Grok a commencé à publier des messages concernant une théorie du complot d'extrême droite sur le « génocide blanc » en Afrique du Sud, dans des publications sans aucun rapport avec ce concept. xAI a également présenté ses excuses en juillet après que Grok a commencé à publier des fantasmes de viol et des contenus antisémites, allant jusqu'à se faire appeler « MechaHitler » et à faire l'apologie de l'idéologie nazie. L'entreprise a néanmoins obtenu un contrat de près de 200 millions de dollars avec le département américain de la Défense une semaine après les incidents.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    694
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    785
  • 🥈

    Anonymous

    232
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2980
  • 🥈

    Anonymous

    969
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449