Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Une optométriste riposte après une escroquerie par deepfake.

Incident 1455: Des vidéos truquées (deepfakes) auraient usurpé l'identité de l'optométriste Joseph Allen pour promouvoir des gouttes ophtalmiques contre la myopie sur TikTok.

Traduit par IA
“Une optométriste riposte après une escroquerie par deepfake.”Dernier rapport
visionmonday.com2026-04-18

Joseph Allen, optométriste, est bien connu des conférences, des réseaux sociaux et de sa chaîne YouTube, Dr. Eye Health, où il informe ses abonnés sur divers sujets liés à la santé oculaire. Cependant, sa notoriété a eu un revers lorsqu'il a découvert sur les réseaux sociaux des vidéos le représentant de façon fictive, diffusant de fausses informations et vendant des produits contrefaits. Le Dr Allen a été victime d'une escroquerie par deepfake (ou deepfake généré par l'IA) (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).

Les deepfakes et les vidéos de mauvaise qualité, générés par l'IA, ciblent de plus en plus les médecins. Ces vidéos usurpent leur identité afin de créer du contenu facile à produire, piloté par des algorithmes, et susceptible de diffuser de dangereuses informations erronées sur la santé. Les deepfakes sont des contenus manipulés ou fabriqués par l'IA qui usurpent l'identité d'une personne réelle dans le but de diffuser des informations malveillantes ou mensongères.

Les vidéos truquées par l'IA sont des contenus vidéo produits à grande échelle par l'IA qui exploitent les algorithmes d'engagement des réseaux sociaux et inondent des plateformes comme YouTube, TikTok ou Instagram, éclipsant ainsi les créateurs de contenu originaux. Le Dr Allen a constaté : « Dans certaines de ces vidéos, on vous incite à ne pas consulter votre ophtalmologiste et on prétend que toute notre profession est une arnaque. »

Avec l'aide d'un avocat, le Dr Allen a contesté les deepfakes ciblant sa chaîne. Il lui a fallu un mois pour accéder à TikTok, où il a découvert la supercherie, puis trois semaines supplémentaires pour prouver qu'il était bien le « Dr. Eye Health ». Un compte a été supprimé, mais en deux ou trois heures, les escrocs en ont créé un nouveau et ont republié tout le contenu précédent. Dans le cas du Dr Allen, le produit vendu dans cette arnaque était un collyre censé guérir la myopie. Les gouttes ont été retracées jusqu'à une entreprise chinoise vendant des millions de dollars de produits sur Amazon. Leur composition reste inconnue.

Le Dr Allen recommande de rechercher des signes révélateurs de vidéos générées par IA, en gardant à l'esprit qu'avec les progrès de l'IA, ces signes peuvent devenir plus subtils, voire disparaître. Examinez attentivement le contenu vidéo à la recherche de montages étranges : les lèvres du sujet sont-elles synchronisées avec la voix et l'audio ? Cligne-t-il des yeux de façon excessive ou insuffisante ? Si le produit semble trop beau pour être vrai, il l'est probablement. Soyez vigilant et faites preuve de prudence face à ce type de contenu.

L'image paraît-elle naturelle ? Les deepfakes ont encore du mal à reproduire un éclairage naturel et peuvent donner une impression artificielle au sujet en raison d'un décalage entre les conditions d'éclairage ou les reflets. D'autres indices sont disponibles auprès des chercheurs du MIT (https://www.media.mit.edu/projects/detect-fakes/overview/), notamment des informations sur les yeux et les sourcils, le clignement des yeux et les reflets sur les lunettes. À mesure que l'IA brouille les frontières entre réalité et fiction, la responsabilité incombe à la pensée critique individuelle concernant le contenu médiatique.

Lire plus
Loading...
Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension

Incident 1452: Des usurpations d'identité, prétendument générées par une intelligence artificielle, du cardiologue albanais Spiro Qirko et du journaliste Ilir Topi auraient été utilisées sur Facebook pour promouvoir un produit contre l'hypertension au Kosovo.

Traduit par IA
“Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension”
kallxo.com2026-04-18

Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension

= vidéo fortement manipulée. Le médicament « Hyper Caps » ne dispose pas d'une autorisation de mise sur le marché délivrée par l'Agence kosovare des produits et dispositifs médicaux (AKPPM), ce qui rend sa commercialisation illégale au Kosovo.

Article

Page Facebook [Dr Spiro Search](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mob ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. a publié une vidéo dans laquelle il affirme avoir découvert un remède contre l'hypertension.

Dans cette vidéo, il prétend notamment que ce médicament est contesté par les laboratoires pharmaceutiques.

« En tant que spécialiste, on me demande souvent : « Est-il possible de guérir complètement l'hypertension ? ». La réponse est OUI. 🩺 J'ai mis au point une méthode qui, en quelques jours, élimine la pression et la tension sur les veines, sans intervention coûteuse. Le secret réside dans la stimulation adéquate des veines et du système cardiovasculaire. » « Dans la vidéo, vous verrez exactement comment ma formule fonctionne et vous oublierez l'hypertension pour toujours. Vous ressentirez les résultats immédiatement », peut-on lire dans cette publication.

Une vidéo, sous forme d'interview, présentant ce médicament, a également été publiée.

L'interview serait menée par le journaliste Ilir Topi avec le docteur Spiro Qirko, qui expliquerait comment l'hypertension est guérie.

« Hyper Caps » est un produit qui aurait été découvert par un cardiologue et qui, selon la société, guérit l'hypertension.

Krypometer a également consulté la liste des médicaments autorisés à la vente au Kosovo (https://akppm.rks-gov.net/DocumentsAndPublications/DocumentsAndPublications/1092) afin de vérifier si ce produit y est autorisé.

Après consultation du site web de l'Agence kosovare des produits et dispositifs médicaux (AKPPM), il s'avère que le produit « Hyper Caps » ne figure pas sur la liste des médicaments autorisés à la vente. Autorisation.

L’article 16 de la loi relative aux médicaments et dispositifs médicaux stipule que « le médicament ne peut être mis sur le marché en République du Kosovo qu’après obtention d’une autorisation de mise sur le marché délivrée par l’Agence kényane des médicaments et dispositifs médicaux (KPAPM) ».

Krypometer a effectué des tests. cette vidéo (https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM) 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. Plateforme détectant les contenus créés par intelligence artificielle, ses résultats indiquent que la vidéo, ainsi que la parole, ont 96,4 % de chances d'être générées par IA (archive).

Krypometer a contacté le journaliste Ilir Topi et le cardiologue albanais Spiro Qirko, qui ont nié tout lien avec cette affaire. N'utilisez pas ce profil ni le contenu de cette vidéo.

« C'est généré par IA, c'est un faux », a déclaré Topi.

« Je me sens profondément insulté par cette escroquerie odieuse qui utilise mon nom et ma personnalité de la manière la plus malhonnête et inédite. C'est un acte criminel », a déclaré Qirko, cardiologue albanais.

Qirko a précisé n'avoir jamais recommandé de phytothérapie pour traiter l'hypertension.

Hypertension

Le cardiologue Qirko a expliqué que, selon les recommandations de la Société européenne de cardiologie, la tension artérielle est considérée comme normale jusqu'à 135/85 mmHg.

« Au-delà de ces valeurs, on parle d'hypertension, qui nécessite un traitement régulier. Le traitement consiste généralement en la prise d'un ou plusieurs médicaments de classes différentes, choisis par le médecin et suivis en fonction de l'évolution de la tension artérielle du patient », a conclu Qirko.

Lire plus
Loading...
Nirmala Sitharaman encourage-t-elle un investissement de 22 000 roupies indiennes pour un rendement de 550 000 roupies ? Le Bureau de vérification des faits du PIB révèle la vérité sur la vidéo virale.

Incident 1454: Une vidéo truquée (deepfake) montrerait Nirmala Sitharaman approuvant un programme d'investissement.

Traduit par IA
“Nirmala Sitharaman encourage-t-elle un investissement de 22 000 roupies indiennes pour un rendement de 550 000 roupies ? Le Bureau de vérification des faits du PIB révèle la vérité sur la vidéo virale.”
latestly.com2026-04-18

New Delhi, 16 avril : Le service de vérification des faits du gouvernement indien, PIB Fact Check, a démenti jeudi une vidéo virale montrant faussement la ministre des Finances, Nirmala Sitharaman, faisant la promotion d'un placement à haut rendement. PIB Fact Check a mis en garde les citoyens contre ce type de désinformation. Dans une publication sur la plateforme de médias sociaux X, PIB Fact Check a déclaré que la vidéo, qui prétend qu'un investissement de 22 000 roupies pourrait rapporter 550 000 roupies en une semaine, est un faux généré par intelligence artificielle. « Une vidéo virale de la ministre des Finances, Nirmala Sitharaman, prétend offrir 550 000 roupies en une semaine pour un investissement initial de 22 000 roupies. Cette vidéo est fausse et générée par IA », a-t-il été précisé. **[Nirmala Sitharaman a-t-elle fait la promotion d'un placement à haut rendement en ligne ?] Le service de vérification des faits du PIB dément une vidéo sur l'IA.

L'agence a précisé que ni le gouvernement indien ni le ministre des Finances ne font la promotion ou l'approbation d'un tel programme et a exhorté le public à la vigilance face aux contenus trompeurs circulant en ligne. « Ni le gouvernement ni le ministre des Finances n'approuvent un tel programme d'investissement », a-t-elle ajouté. Le service de vérification des faits a également conseillé aux citoyens de vérifier ces affirmations auprès de sources gouvernementales officielles avant de prendre toute décision financière. Il a par ailleurs invité les utilisateurs à signaler tout contenu suspect afin de contribuer à endiguer la propagation de la désinformation.

« Restez vigilants. Vérifiez ces affirmations uniquement auprès de sources gouvernementales officielles », a conclu le service de vérification des faits du PIB. Par ailleurs, le mois dernier, le PIB a signalé la diffusion sur les réseaux sociaux d'un faux message affirmant que les comptes de l'application YONO de la State Bank of India (SBI) seraient bloqués si les utilisateurs ne mettaient pas immédiatement à jour leurs informations Aadhaar. Ce message en question incitait les destinataires à télécharger un fichier APK intitulé « SBI KYC AADHAR UPDATE » et à l'installer pour éviter toute interruption de service. « Cette alerte, qui semble être une tentative d'hameçonnage, vise à inciter les titulaires de compte à divulguer des informations bancaires et personnelles sensibles », a déclaré le PIB le mois dernier.

Note TruLY : 5 – Fiable | Sur une échelle de confiance de 0 à 5, cet article a obtenu la note maximale de 5 sur LatestLY. Il est vérifié par des sources officielles (compte officiel X de PIB Fact Check). Les informations ont été minutieusement recoupées et confirmées. Vous pouvez partager cet article en toute confiance avec vos proches, sachant qu'il est fiable.

Lire plus
Loading...
Un homme de Floride aurait utilisé une vidéo truquée générée par intelligence artificielle pour signaler faussement le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.

Incident 1450: Un homme de Floride aurait utilisé une vidéo truquée (deepfake) pour signaler le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.

Traduit par IA
“Un homme de Floride aurait utilisé une vidéo truquée générée par intelligence artificielle pour signaler faussement le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.”
clickorlando.com2026-04-11

Comté de Seminole, Floride – Un homme du sud de la Floride a été arrêté après avoir montré une vidéo générée par intelligence artificielle à un adjoint du shérif dans un magasin de Lake Mary le mois dernier, selon le bureau du shérif du comté de Seminole.

Dans un communiqué, le bureau du shérif a indiqué que l'adjoint se trouvait à l'intérieur du magasin Academy Sports, situé sur Lake Emma Road, lorsque l'homme, identifié comme étant Alexis Martínez-Arizala, âgé de 25 ans, l'a abordé.

« (Martínez-Arizala) a affirmé avoir vu plusieurs personnes monter dans le véhicule de patrouille de l'adjoint, stationné sur le parking, et a présenté une vidéo sur son téléphone portable comme preuve », précise le communiqué. « La vidéo, d'une durée d'environ trois secondes, semblait montrer deux individus entrant dans le véhicule de patrouille garé près du magasin. »

Cependant, lorsque l'adjoint a vérifié son véhicule, il n'a constaté aucun vol ni aucune intrusion, ont noté les enquêteurs.

Or, les images de vidéosurveillance du magasin ont montré que personne ne s'était approché de la voiture de patrouille pendant cette période, et les adjoints du shérif ont conclu par la suite que la vidéo prise avec le téléphone portable était un faux.

Un mandat d'arrêt a donc été émis contre Martínez-Arizala, qui a été appréhendé mercredi à San Juan, à Porto Rico.

« Les enquêteurs ont également appris que Martínez-Arizala avait publié du contenu relatif à l'incident sur ses réseaux sociaux, dans le but manifeste d'attirer l'attention et de créer un buzz », précise le communiqué.

Martínez-Arizala est désormais accusé de fabrication de preuves matérielles, de fausse déclaration aux forces de l'ordre, d'utilisation illégale d'un appareil de communication bidirectionnelle et d'avoir sciemment fourni de fausses informations à un agent des forces de l'ordre concernant la commission présumée d'un crime.

Il sera extradé vers le comté de Seminole, où il sera détenu sous une caution de 7 000 dollars.

« L’utilisation abusive de l’intelligence artificielle pour créer des vidéos truquées est une préoccupation croissante, notamment lorsqu’elle cible les professionnels de la sécurité publique », a déclaré le shérif Dennis Lemma. « Ces vidéos fabriquées peuvent nuire à la réputation, créer des tensions inutiles et soulever de réelles inquiétudes quant à la sécurité des secouristes qui interviennent au service de nos communautés. Face à la démocratisation de cette technologie, nous prenons ces crimes très au sérieux et agirons pour protéger les personnes visées au sein de notre communauté, qu’il s’agisse des citoyens ou des professionnels de la sécurité publique qui œuvrent quotidiennement pour la sécurité de nos résidents. »

Lire plus
Loading...
Une cour d'appel américaine inflige une amende de 30 000 $ à des avocats dans le cadre des dernières sanctions liées à l'IA.

Incident 1447: La Cour d'appel du sixième circuit a sanctionné des avocats dans l'affaire Whiting contre la ville d'Athènes pour avoir prétendument utilisé de fausses citations d'appel dans des mémoires présentant, selon les informations, des signes d'hallucinations.

Traduit par IA
“Une cour d'appel américaine inflige une amende de 30 000 $ à des avocats dans le cadre des dernières sanctions liées à l'IA.”
reuters.com2026-04-11

16 mars (Reuters) - Un recours contenant de fausses références jurisprudentielles et présentant une interprétation erronée du droit peut être rejeté comme étant abusif, a déclaré une cour d'appel fédérale américaine dans une décision sanctionnant deux avocats ayant déposé des documents portant les marques d'« hallucinations » générées par une intelligence artificielle.

La Cour d'appel du 6e circuit des États-Unis, basée à Cincinnati, a déclaré vendredi dans son ordonnance que les avocats Van Irion et Russ Egli « ont terni la réputation de notre barreau, qui doit désormais plaider sous le poids de leur conduite ».

La cour a indiqué avoir relevé plus d'une vingtaine de fausses références et de déclarations erronées des faits dans le recours, qui concernait un incident survenu lors d'un feu d'artifice organisé par la ville d'Athens, dans le Tennessee.

Dans une décision antérieure, la cour d'appel avait demandé aux avocats comment ils avaient vérifié l'exactitude de leurs mémoires et s'ils avaient eu recours à une intelligence artificielle générative pour leur rédaction. Les avocats n'ont pas répondu aux questions de la cour concernant l'IA et ont contesté la légalité de la décision.

Selon cette décision, les deux avocats doivent rembourser à Athènes les frais juridiques engagés pour l'appel et verser chacun 15 000 dollars à la cour d'appel à titre de sanction punitive.

Dans une déclaration publiée mardi, Egli et Irion ont nié « catégoriquement » les allégations de la cour concernant la citation de fausses affaires et ont affirmé n'avoir pas eu la possibilité de répondre aux questions du panel.

« Nous mettons en œuvre tous les recours légaux disponibles pour contester cette décision entachée d'un vice de procédure et défendre l'intégrité du processus judiciaire », ont-ils déclaré. Irion a déclaré à Reuters que « la Cour de circuit ignore ses propres règles et que les greffiers signent des ordonnances de fond sans autorisation ».

Le maire d'Athènes, Larry Eaton, a déclaré lundi dans un communiqué que la cour d'appel, dans une décision connexe, avait confirmé le rejet de plusieurs poursuites contre la ville concernant le feu d'artifice de 2022. Eaton a qualifié cette décision de « rassurante ».

Cette décision de sanction intervient alors que de plus en plus de tribunaux sont confrontés à des citations de jurisprudence falsifiées et à d'autres erreurs imputables aux plateformes d'intelligence artificielle générative, qui fabriquent parfois des informations. Les avocats ne sont pas interdits d'utiliser des outils d'IA, mais ils sont tenus de garantir l'exactitude de leurs documents. Ces dernières années, des dizaines d'avocats ont été sanctionnés pour avoir soumis des documents générés par IA sans les avoir vérifiés.

Irion et Egli ont contesté la demande de la cour d'appel de fournir des détails sur la préparation de leurs mémoires, arguant notamment que cela violerait la confidentialité des documents de travail des avocats et leurs communications avec leurs clients.

La cour d'appel du 6e circuit, composée des juges John Bush, Jane Branstetter Stranch et Eric Murphy, a déclaré que « la vérification des citations dans les mémoires, et la manière dont elle a été effectuée, n'a aucune incidence sur les conversations relatives aux conseils juridiques ».

« La plupart des plaideurs pris en flagrant délit de dépôt de faux dossiers ont présenté leurs excuses et demandé pardon, reconnaissant à juste titre la gravité de leur faute », a écrit le juge Bush au nom de la cour.

Les juges ont déclaré, en revanche, qu'« Irion et Egli ont réprimandé cette cour et l'ont accusée de se livrer à un vaste complot visant à les harceler ».

L'affaire est Whiting contre la ville d'Athènes, Cour d'appel du sixième circuit des États-Unis, n° 25-5424.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    768
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    872
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2997
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2026 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 70bfe3d