Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
US appeals court fines lawyers $30,000 in latest AI-related sanction

Incident 1447: Sixth Circuit Sanctioned Lawyers in Whiting v. City of Athens over Alleged Fake Appellate Citations in Briefs Reportedly Bearing Hallmarks of Hallucinations

“US appeals court fines lawyers $30,000 in latest AI-related sanction”Dernier rapport
reuters.com2026-04-11

March 16 (Reuters) - An appeal containing fake case citations that misrepresent the law can be dismissed as frivolous, a U.S. federal appeals court panel said in a decision sanctioning ​two attorneys who submitted filings that bore hallmarks of artificial intelligence "hallucinations."

The Cincinnati-based 6th U.S. Circuit Court of Appeals ‌said in its order, opens new tab on Friday that attorneys Van Irion and Russ Egli "sullied the reputation of our bar, which now must litigate under the cloud of their conduct."

The court said it found more than two dozen fake citations and misrepresentations of fact in the appeal, which involved an incident at a fireworks ​show hosted by the city of Athens, Tennessee.

The appeals court in a prior order in the case asked the attorneys ​how they vetted their briefs for accuracy and whether they used generative AI to write the filings. ⁠The attorneys did not answer the court's questions about AI, and instead challenged the lawfulness of the order.

The two attorneys must reimburse ​Athens for its legal work on the appeal, and also must individually pay $15,000 each to the appeals court as a punitive sanction, ​according to the order.

Egli and Irion in a statement on Tuesday said they "categorically" deny the court's allegations of citing fake cases, and also contend they were denied a meaningful chance to respond to the panel's questions.

"We are pursuing all available legal remedies to challenge this procedurally deficient order and defend the ​integrity of the judicial process," the lawyers' statement said. Irion told Reuters that "the Circuit Court is ignoring its own rules, and clerks ​are signing substantive orders without authorization."

Athens Mayor Larry Eaton in a statement on Monday said the appeals court in a related order upheld the dismissal ‌of several ⁠lawsuits against the city over the 2022 fireworks event. Eaton called the decision "reassuring."

The sanctions decision comes as more courts grapple with fake case citations and other errors attributable to generative artificial intelligence platforms, which sometimes fabricate information. Lawyers are not prohibited from using AI tools but are bound to safeguard the accuracy of their submissions, and dozens of attorneys have been sanctioned in recent years for submitting AI-generated ​material that they failed to vet.

Irion ​and Egli had contested, opens new tab the appeals ⁠court's demand for details about how they prepared their filings partly on the grounds that doing so would violate protections for attorneys' work-product and communications with clients.

The 6th Circuit panel, Circuit Judges John ​Bush, Jane Branstetter Stranch and Eric Murphy, said "whether and how the briefs were cite-checked does not ​implicate conversations regarding ⁠legal advice."

"Most litigants caught submitting fake cases have apologized and sought forgiveness, rightly recognizing the seriousness of their misconduct," Bush wrote for the panel.

The judges said by contrast "Irion and Egli scolded this court and accused it of engaging in a vast conspiracy to harass them."

The case is ⁠Whiting v. ​City of Athens, 6th U.S. Circuit Court of Appeals, No. 25-5424.

Lire plus
Loading...
Ohio man becomes first to be convicted under new AI statute for sexually explicit images

Incident 1448: Ohio Man Pleaded Guilty after Prosecutors Alleged He Used AI to Create and Distribute Nonconsensual Intimate-Image Forgeries Including CSAM in Harassment Campaign

“Ohio man becomes first to be convicted under new AI statute for sexually explicit images”
theguardian.com2026-04-11

An Ohio man pleaded guilty on Tuesday to cybercrimes involving real and AI-generated "sexually explicit images", becoming what the Department of Justice claims is the first person convicted under a new federal AI statute.

James Strahler II, 37, admitted to cyberstalking, producing obscene visual representations of child sexual abuse, and publication of digital forgeries. The last charge relates to the Take It Down Act, which "prohibits non-consensual online publication of intimate visual depictions and AI forgeries".

"We believe Strahler is the first person in the United States to be convicted under the Take It Down Act," Dominick Gerace II, US attorney for the southern district of Ohio, said. "We will not tolerate the abhorrent practice of posting and publicizing AI-generated intimate images of real individuals without consent."

"We are committed to using every tool at our disposal to hold accountable offenders like Strahler, who seek to intimidate and harass others by creating and circulating this disturbing content."

Donald Trump signed the Take It Down Act into law last May. Melania Trump, the first lady, lobbied lawmakers to pass the legislation and symbolically signed it.

The law prohibits anyone from "knowingly" publishing or threatening to publish intimate images, including AI-made "deepfake" images, without consent. Social media companies and websites must remove violating content within 48 hours following a victim's request.

Prosecutors said Strahler sent harassing messages to at least six adult females, including both real and AI-created nude images of them, from December 2025 to June 2025.

Strahler purportedly used AI to make pornographic videos showing at least one adult victim engaging in sexual activity with her father and "distributed those videos to the victim's co-workers".

Strahler, according to prosecutors, sent messages to the mothers of these women and demanded nude pictures of them, "threatening to circulate explicit or obscene images he created of their daughters if they did not comply".

"He often called the victims and left voicemails of him masturbating or threatening rape," prosecutors said.

Prosecutors also said Strahler published AI-generated obscene material involving children, "using the faces of minor boys from his community".

He would then purportedly put the minors' faces on to the bodies of adults or other children and make obscene videos with AI. In total, prosecutors said, Strahler created "more than 700 images of both real victims and animated persons and posted them to a website dedicated to child sexual abuse".

Strahler's lawyer did not immediately respond to a request for comment.

Lire plus
Loading...
« Nous aurions aimé adopter une position plus claire » – C’est ainsi que la CDU explique en interne l’affaire des deepfakes.

Incident 1445: Un employé de l'université CDU de Basse-Saxe aurait partagé une vidéo truquée à caractère sexuel d'un collègue dans un groupe WhatsApp interne.

Traduit par IA
“« Nous aurions aimé adopter une position plus claire » – C’est ainsi que la CDU explique en interne l’affaire des deepfakes.”
welt.de2026-04-06

La CDU de Basse-Saxe est secouée par un scandale de deepfake. Le président régional, Sebastian Lechner, s'est adressé aux membres du parti par courrier. Il souhaite « communiquer de manière proactive », mais pour des raisons cruciales, cela s'avère impossible.

Dans l'affaire concernant la création présumée d'une vidéo à caractère sexuel par intelligence artificielle au sein du groupe parlementaire CDU de Basse-Saxe, le président régional, Sebastian Lechner, a adressé une lettre aux membres du parti. Dans cette lettre interne, obtenue par WELT, Lechner qualifie la révélation de ces allégations de « nouvelle choquante pour nous tous », les laissant « sans voix ».

Le parti a néanmoins « communiqué de manière proactive » sur le sujet et publié un communiqué. « Nous aurions souhaité adopter une position plus claire et fournir davantage d'informations contextuelles », a poursuivi Lechner, « mais cela n'était pas possible pour des raisons juridiques. »

Un cabinet d'avocats spécialisé en droit des médias a été mandaté, et la décision a été prise, « afin de protéger les droits personnels de toutes les personnes concernées », de s'abstenir de toute autre déclaration pour le moment. Car : Le groupe parlementaire, en tant qu'employeur, a un devoir de diligence envers ses employés, « même en cas de faute avérée ».

Concernant les suites données à l'affaire, Lechner écrit : « Tout doit faire l'objet d'une enquête transparente et exhaustive. » Ils coopéreront pleinement avec la justice. « Nous continuerons à tirer toutes les conclusions nécessaires. Soyons clairs : la CDU ne tolère aucune pensée ni aucun comportement misogyne », affirme Lechner. Il existe « manifestement encore des lacunes » sur la voie de la modernisation et de l'innovation de la CDU de Basse-Saxe – le scandale actuel l'a « plus que clairement démontré ».

Il souhaite désormais « transformer cette crise en opportunité », déclare Lechner, sans plus de précisions. Pour cela, « l'expertise des nombreuses femmes » du parti sera notamment indispensable.

L'employé en question a été licencié sans préavis.

Contexte de l'affaire : Le 17 janvier 2026 après-midi, plusieurs employés du groupe parlementaire CDU de Basse-Saxe ont reçu un message sur leur téléphone portable. Dans une conversation privée WhatsApp, un cadre du groupe a publié une courte vidéo générée par intelligence artificielle montrant une autre cadre du groupe, une femme, de manière clairement sexualisée – un deepfake.

Deux mois plus tard, ce message a déclenché un scandale politique au parlement régional de Hanovre. Selon les informations obtenues par WELT, le chef du groupe parlementaire, Sebastian Lechner, et la directrice du groupe, Carina Hermann, n'ont appris l'existence de la vidéo que récemment et ont écourté leurs vacances de Pâques. Après plusieurs réunions de crise à Hanovre, l'employé qui aurait créé la vidéo a été suspendu le jour même, puis licencié sans préavis. Il n'a pas répondu aux nombreuses sollicitations de WELT.

Un porte-parole du parquet de Hanovre a confirmé l'incident et l'ouverture d'une enquête à l'agence de presse allemande dpa. Cependant, aucune enquête formelle n'a encore été ouverte.

Le parquet aurait examiné la courte vidéo. « On y voit une femme danser en bikini. Cette femme semble être membre du personnel du groupe parlementaire CDU », a déclaré un porte-parole du parquet. La vidéo est « manifestement un montage généré par intelligence artificielle ». On soupçonne qu'une image réelle de la femme a été insérée numériquement dans la vidéo. Des logiciels permettent ce type d'opération.

Une enquête contre l'auteur présumé de la vidéo, un employé du groupe parlementaire CDU, n'est pas en cours pour le moment, a ajouté le porte-parole. Rien ne prouve la diffamation dans la vidéo elle-même ; toutefois, on soupçonne une violation du droit d'auteur si la photo de la femme a été modifiée. Il s'agit d'une infraction relevant de la compétence de la partie civile, a expliqué le parquet. Le parquet ne peut engager de poursuites que si une plainte formelle est déposée.

Pour l'instant, aucune plainte formelle n'a été déposée, a précisé le porte-parole. Le délai de trois mois pour porter plainte n'est pas encore expiré ; ce délai court à compter du moment où la personne concernée a pris connaissance du contenu. Si une plainte formelle est déposée d'ici là, le parquet réexaminera l'affaire, a-t-on indiqué.

Lire plus
Loading...
« Rends-toi sur le côté, salope »… Le fiasco de la diffusion en direct de KBS avec des sous-titres vulgaires générés par IA

Incident 1446: Le système de sous-titrage par IA de KBS aurait diffusé des propos vulgaires lors de la retransmission en direct du lancement d'Artemis II.

Traduit par IA
“« Rends-toi sur le côté, salope »… Le fiasco de la diffusion en direct de KBS avec des sous-titres vulgaires générés par IA”
mk.co.kr2026-04-06

KBS a présenté des excuses officielles concernant l'incident survenu lors de la retransmission en direct du lancement d'Artemis 2, au cours duquel des grossièretés ont été affichées dans les sous-titres.

Le 2, KBS a déclaré sur sa page YouTube : « Lors de la retransmission en direct de la NASA, certains mots ont été traduits par erreur par des grossièretés en raison de similitudes de prononciation lors du processus de traduction automatique en temps réel utilisant l'IA. » La chaîne a ajouté : « Nous présentons nos sincères excuses à nos téléspectateurs pour la diffusion de phrases incorrectes contenant des grossièretés. »

Auparavant, KBS avait utilisé la traduction automatique par IA lors de la diffusion en direct du lancement d'Artemis 2 le 2. Durant ce processus, l'IA a mal traduit des termes techniques aéronautiques tels que « roger » (accusé de réception), « roll » et « pitch », les traduisant par « Roger, Gulleo, Ix-ah », ce qui a entraîné des erreurs de traduction.

La vidéo de l'incident s'est rapidement propagée en ligne. Les internautes ont réagi par des commentaires tels que : « Il est choquant qu’une chaîne de télévision financée par l’argent des contribuables utilise des sous-titres contenant des grossièretés », « Même pour une diffusion en direct, il y a des limites à ne pas franchir » et « N’auraient-ils pas dû au moins mettre en place des mesures de protection, même s’il s’agit d’une traduction automatique ? »

Face à l’ampleur de la polémique, KBS a rapidement présenté ses excuses et promis d’éviter que cela ne se reproduise. La chaîne a ajouté : « Nous avons pris les mesures nécessaires pour empêcher que cette erreur de traduction ne soit à nouveau diffusée. Nous collaborons étroitement avec les services concernés et nos partenaires afin d’éviter que de tels incidents ne se reproduisent et nous préparons des améliorations, notamment le renforcement du filtrage des grossièretés par l’IA. »

Par ailleurs, la fusée Artemis-2 a été lancée avec succès du Centre spatial Kennedy en Floride, aux États-Unis, à 18h35 (heure de l’Est) le 1er. Elle devrait amerrir dans l’océan Pacifique près de San Diego après un vol d’environ 10 jours.

Lire plus
Loading...
Amazon impute l'erreur d'un agent de codage d'IA à des employés humains.

Incident 1442: L'outil de codage Kiro AI serait impliqué dans une panne de 13 heures d'AWS Cost Explorer en Chine continentale.

Traduit par IA
“Amazon impute l'erreur d'un agent de codage d'IA à des employés humains.”
theverge.com2026-04-05

En décembre, Amazon Web Services a subi une panne de 13 heures sur l'un de ses systèmes, suite aux actions de son assistant de programmation IA, Kiro, selon le Financial Times (https://www.ft.com/content/00c282de-ed14-4acd-a948-bc8d6bdb339d). Plusieurs employés d'Amazon, restés anonymes, ont indiqué au FT que l'agent IA Kiro était responsable de cet incident survenu en décembre et ayant affecté un service AWS dans certaines régions de Chine continentale. Selon des sources proches du dossier, l'outil a choisi de « supprimer et recréer l'environnement » sur lequel il travaillait, ce qui a provoqué la panne.

Alors que Kiro requiert normalement la validation de deux personnes pour appliquer des modifications, le bot disposait des autorisations de son opérateur, et une erreur humaine à ce niveau lui a permis d'accéder à des ressources plus étendues que prévu.

Amazon a qualifié la perturbation de décembre d'« incident extrêmement limité », bien moins grave que la panne majeure d'octobre, qui avait paralysé des services en ligne comme Alexa, Fortnite, ChatGPT et Amazon pendant plusieurs heures. Le fait qu'aucune personne n'ait été « piégée dans son lit connecté » relève presque de la chance.

Ce n'est pas la première fois que des outils de programmation d'IA causent des problèmes à Amazon. Un cadre supérieur d'AWS a indiqué que la panne de décembre était la deuxième interruption de production liée à un outil d'IA ces derniers mois, la première étant liée au chatbot Q Developer d'Amazon. Il a précisé que ces pannes étaient « mineures mais parfaitement prévisibles ». Amazon a déclaré que le second incident n'avait pas affecté un service AWS destiné aux clients.

Amazon attribue les problèmes à une erreur humaine, et non à un robot malveillant, et affirme avoir mis en place de nombreuses mesures de sécurité, comme la formation du personnel, suite à cet incident. L'entreprise a déclaré que l'implication d'outils d'IA était une simple coïncidence et insiste sur le fait que le même problème pourrait survenir avec n'importe quel outil de développement ou action manuelle. C'est vrai, et bien que je ne sois pas ingénieur, j'imagine qu'on ne refondrait et ne reconstruirait pas un système de A à Z pour y apporter une modification, sauf en cas d'extrême urgence.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    761
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    865
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    3207
  • 🥈

    Anonymous

    994
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd