Bienvenue dansla base de données des incidents d'IA
Incident 1450: Un homme de Floride aurait utilisé une vidéo truquée (deepfake) pour signaler le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.
“Un homme de Floride aurait utilisé une vidéo truquée générée par intelligence artificielle pour signaler faussement le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.”Dernier rapport
Comté de Seminole, Floride – Un homme du sud de la Floride a été arrêté après avoir montré une vidéo générée par intelligence artificielle à un adjoint du shérif dans un magasin de Lake Mary le mois dernier, selon le bureau du shérif du comté de Seminole.
Dans un communiqué, le bureau du shérif a indiqué que l'adjoint se trouvait à l'intérieur du magasin Academy Sports, situé sur Lake Emma Road, lorsque l'homme, identifié comme étant Alexis Martínez-Arizala, âgé de 25 ans, l'a abordé.
« (Martínez-Arizala) a affirmé avoir vu plusieurs personnes monter dans le véhicule de patrouille de l'adjoint, stationné sur le parking, et a présenté une vidéo sur son téléphone portable comme preuve », précise le communiqué. « La vidéo, d'une durée d'environ trois secondes, semblait montrer deux individus entrant dans le véhicule de patrouille garé près du magasin. »
Cependant, lorsque l'adjoint a vérifié son véhicule, il n'a constaté aucun vol ni aucune intrusion, ont noté les enquêteurs.
Or, les images de vidéosurveillance du magasin ont montré que personne ne s'était approché de la voiture de patrouille pendant cette période, et les adjoints du shérif ont conclu par la suite que la vidéo prise avec le téléphone portable était un faux.
Un mandat d'arrêt a donc été émis contre Martínez-Arizala, qui a été appréhendé mercredi à San Juan, à Porto Rico.
« Les enquêteurs ont également appris que Martínez-Arizala avait publié du contenu relatif à l'incident sur ses réseaux sociaux, dans le but manifeste d'attirer l'attention et de créer un buzz », précise le communiqué.
Martínez-Arizala est désormais accusé de fabrication de preuves matérielles, de fausse déclaration aux forces de l'ordre, d'utilisation illégale d'un appareil de communication bidirectionnelle et d'avoir sciemment fourni de fausses informations à un agent des forces de l'ordre concernant la commission présumée d'un crime.
Il sera extradé vers le comté de Seminole, où il sera détenu sous une caution de 7 000 dollars.
« L’utilisation abusive de l’intelligence artificielle pour créer des vidéos truquées est une préoccupation croissante, notamment lorsqu’elle cible les professionnels de la sécurité publique », a déclaré le shérif Dennis Lemma. « Ces vidéos fabriquées peuvent nuire à la réputation, créer des tensions inutiles et soulever de réelles inquiétudes quant à la sécurité des secouristes qui interviennent au service de nos communautés. Face à la démocratisation de cette technologie, nous prenons ces crimes très au sérieux et agirons pour protéger les personnes visées au sein de notre communauté, qu’il s’agisse des citoyens ou des professionnels de la sécurité publique qui œuvrent quotidiennement pour la sécurité de nos résidents. »
Incident 1447: La Cour d'appel du sixième circuit a sanctionné des avocats dans l'affaire Whiting contre la ville d'Athènes pour avoir prétendument utilisé de fausses citations d'appel dans des mémoires présentant, selon les informations, des signes d'hallucinations.
“Une cour d'appel américaine inflige une amende de 30 000 $ à des avocats dans le cadre des dernières sanctions liées à l'IA.”
16 mars (Reuters) - Un recours contenant de fausses références jurisprudentielles et présentant une interprétation erronée du droit peut être rejeté comme étant abusif, a déclaré une cour d'appel fédérale américaine dans une décision sanctionnant deux avocats ayant déposé des documents portant les marques d'« hallucinations » générées par une intelligence artificielle.
La Cour d'appel du 6e circuit des États-Unis, basée à Cincinnati, a déclaré vendredi dans son ordonnance que les avocats Van Irion et Russ Egli « ont terni la réputation de notre barreau, qui doit désormais plaider sous le poids de leur conduite ».
La cour a indiqué avoir relevé plus d'une vingtaine de fausses références et de déclarations erronées des faits dans le recours, qui concernait un incident survenu lors d'un feu d'artifice organisé par la ville d'Athens, dans le Tennessee.
Dans une décision antérieure, la cour d'appel avait demandé aux avocats comment ils avaient vérifié l'exactitude de leurs mémoires et s'ils avaient eu recours à une intelligence artificielle générative pour leur rédaction. Les avocats n'ont pas répondu aux questions de la cour concernant l'IA et ont contesté la légalité de la décision.
Selon cette décision, les deux avocats doivent rembourser à Athènes les frais juridiques engagés pour l'appel et verser chacun 15 000 dollars à la cour d'appel à titre de sanction punitive.
Dans une déclaration publiée mardi, Egli et Irion ont nié « catégoriquement » les allégations de la cour concernant la citation de fausses affaires et ont affirmé n'avoir pas eu la possibilité de répondre aux questions du panel.
« Nous mettons en œuvre tous les recours légaux disponibles pour contester cette décision entachée d'un vice de procédure et défendre l'intégrité du processus judiciaire », ont-ils déclaré. Irion a déclaré à Reuters que « la Cour de circuit ignore ses propres règles et que les greffiers signent des ordonnances de fond sans autorisation ».
Le maire d'Athènes, Larry Eaton, a déclaré lundi dans un communiqué que la cour d'appel, dans une décision connexe, avait confirmé le rejet de plusieurs poursuites contre la ville concernant le feu d'artifice de 2022. Eaton a qualifié cette décision de « rassurante ».
Cette décision de sanction intervient alors que de plus en plus de tribunaux sont confrontés à des citations de jurisprudence falsifiées et à d'autres erreurs imputables aux plateformes d'intelligence artificielle générative, qui fabriquent parfois des informations. Les avocats ne sont pas interdits d'utiliser des outils d'IA, mais ils sont tenus de garantir l'exactitude de leurs documents. Ces dernières années, des dizaines d'avocats ont été sanctionnés pour avoir soumis des documents générés par IA sans les avoir vérifiés.
Irion et Egli ont contesté la demande de la cour d'appel de fournir des détails sur la préparation de leurs mémoires, arguant notamment que cela violerait la confidentialité des documents de travail des avocats et leurs communications avec leurs clients.
La cour d'appel du 6e circuit, composée des juges John Bush, Jane Branstetter Stranch et Eric Murphy, a déclaré que « la vérification des citations dans les mémoires, et la manière dont elle a été effectuée, n'a aucune incidence sur les conversations relatives aux conseils juridiques ».
« La plupart des plaideurs pris en flagrant délit de dépôt de faux dossiers ont présenté leurs excuses et demandé pardon, reconnaissant à juste titre la gravité de leur faute », a écrit le juge Bush au nom de la cour.
Les juges ont déclaré, en revanche, qu'« Irion et Egli ont réprimandé cette cour et l'ont accusée de se livrer à un vaste complot visant à les harceler ».
L'affaire est Whiting contre la ville d'Athènes, Cour d'appel du sixième circuit des États-Unis, n° 25-5424.
Incident 1448: Un homme de l'Ohio a plaidé coupable après que les procureurs l'ont accusé d'avoir utilisé l'IA pour créer et diffuser des images intimes falsifiées sans consentement, notamment des images pédopornographiques, dans le cadre d'une campagne de harcèlement.
“Un homme de l'Ohio est le premier à être condamn é en vertu de la nouvelle loi sur l'IA pour des images à caractère sexuel explicite.”
Un homme de l'Ohio a plaidé coupable. xdMnoTVy8au02P0UvzZqV22OAOaHFxYDgVXVgVIb9tKl33WZtlooaKf1YhnpkL8HSXICzeiBNiWmx0toDFesbQxyT02iR2P9VKGxn37ILpXx1_mzBTPyYD_7rYaOKuHTAz4DHCoBi2kL7b-tXWt-XYgK-c_XY3zHd0MaM2IKqM7Dl3z0JPproqd4lVvE-YvkMFn7jLJi5t06DeNY_e0jZVWKQE0I68ZEW--EJ7QVy72iF3eaVqHa74G5feOsq5KAXPkI) sur Mardi, James Strahler II, 37 ans, a été condamné pour cybercriminalité impliquant des images à caractère sexuel explicite, réelles ou générées par intelligence artificielle. Il est ainsi devenu, selon le ministère de la Justice, la première personne condamnée en vertu d'une nouvelle loi fédérale sur l'IA.
Il a plaidé coupable de cyberharcèlement, de production de représentations visuelles obscènes d'abus sexuels sur mineurs et de publication de faux numériques. Ce dernier chef d'accusation relève de la loi « Take It Down Act », qui interdit la publication en ligne, sans consentement, de représentations visuelles intimes et de faux numériques générés par IA.
« Nous pensons que Strahler est la première personne aux États-Unis à être condamnée en vertu de la loi “Take It Down Act” », a déclaré Dominick Gerace II, procureur fédéral du district sud de l'Ohio. « Nous ne tolérerons pas la pratique odieuse consistant à publier et diffuser des images intimes de personnes réelles, générées par IA, sans leur consentement. »
« Nous sommes déterminés à utiliser tous les moyens à notre disposition pour que les auteurs de tels actes, comme Strahler, qui cherchent à intimider et à harceler autrui en créant et en diffusant ce contenu perturbant, répondent de leurs actes. »
Donald Trump a promulgué la loi « Take It Down Act » en mai dernier. Melania Trump, la Première dame, a fait pression sur les législateurs pour que cette loi soit adoptée et l'a signée symboliquement.
Cette loi interdit à quiconque de publier ou de menacer de publier sciemment des images intimes, y compris des images « deepfake » générées par intelligence artificielle, sans consentement. Les plateformes de médias sociaux et les sites web sont tenus de supprimer tout contenu incriminé dans les 48 heures suivant la demande de la victime.
Selon l'accusation, Strahler a envoyé des messages de harcèlement à au moins six femmes adultes, incluant des images d'elles nues, réelles ou générées par intelligence artificielle, entre décembre 2025 et juin 2025.
Strahler aurait utilisé l'intelligence artificielle pour créer des vidéos pornographiques montrant au moins une victime adulte ayant des relations sexuelles avec son père et aurait diffusé ces vidéos auprès des collègues de la victime.
Toujours selon l'accusation, Strahler a envoyé des messages aux mères de ces femmes, exigeant des photos d'elles nues et les menaçant de diffuser des images explicites ou obscènes de leurs filles qu'il avait créées si elles refusaient.
« Il appelait souvent les victimes et laissait des messages vocaux où il se masturbait ou les menaçait de viol », a déclaré l'accusation.
L'accusation a également déclaré que Strahler avait publié des contenus obscènes générés par intelligence artificielle impliquant des enfants, utilisant les visages de jeunes garçons de sa communauté.
Il aurait ensuite superposé les visages de ces mineurs sur les corps d'adultes ou d'autres enfants pour réaliser des vidéos obscènes à l'aide de l'intelligence artificielle. Au total, selon l'accusation, Strahler a créé « plus de 700 images de victimes réelles et de personnages animés, qu'il a publiées sur un site web consacré à la pédopornographie ».
L'avocat de Strahler n'a pas immédiatement répondu à notre demande de commentaires.
Incident 1449: Un tribunal du Delaware a conclu que Krafton avait suivi la plupart des recommandations de ChatGPT dans le cadre d'une campagne ayant entraîné le licenciement abusif de dirigeants d'Unknown Worlds et la prise de contrôle opérationnelle.
“Un tribunal américain se prononce contre une société de jeux vidéo sud-coréenne et son plan de rachat élaboré grâce à l'IA.”
WILMINGTON, Delaware, 16 mars (Reuters) - Un juge du Delaware a ordonné lundi à Krafton Inc. (259960.KS), développeur sud-coréen de jeux vidéo, de réintégrer le directeur de l'un de ses studios, estimant que son éviction était abusive et s'inscrivait dans le cadre d'une tentative de rachat orchestrée par ChatGPT.
Selon la décision de la vice-chancelière Lori Will de la Cour de la Chancellerie du Delaware, le PDG de Krafton, Changhan Kim, avait largement suivi les conseils de l'outil d'intelligence artificielle ChatGPT lors d'un litige portant sur 250 millions de dollars avec les dirigeants d'Unknown Worlds Entertainment, studio à l'origine du jeu « Subnautica », que Krafton avait acquis.
Les entreprises et les gouvernements cherchent activement de nouvelles façons d'utiliser l'intelligence artificielle, et cette technologie a été accusée d'être responsable de licenciements massifs, de craintes liées aux armes autonomes et de préoccupations concernant les droits civiques. Les entreprises impliquées dans des batailles juridiques liées à des OPA dépensent souvent des millions de dollars en équipes d'avocats et de conseillers issus de cabinets de Wall Street de premier plan.
Krafton a déclaré dans un communiqué être en désaccord avec la décision de justice et examiner ses options, tout en restant concentré sur la création du meilleur jeu possible pour les fans. L'entreprise a affirmé travailler sans relâche pour améliorer la suite de « Subnautica » et la préparer à une sortie en accès anticipé.
Les avocats de la direction du studio n'ont pas immédiatement répondu à notre demande de commentaires.
Ce litige fait suite à l'acquisition d'Unknown Worlds Entertainment par Krafton pour 500 millions de dollars en 2021. Krafton s'était engagé à ce que le studio reste indépendant et que sa direction – les cofondateurs Charlie Cleveland et Max McGuire, ainsi que le PDG Ted Gill – conserve le contrôle opérationnel et ne puisse être licenciée que pour faute grave, conformément à la décision du juge Will. Si l'entreprise atteignait certains objectifs, Krafton verserait un complément de prix pouvant atteindre 250 millions de dollars.
Alors que le studio s'apprêtait l'année dernière à lancer « Subnautica 2 », des projections internes indiquaient que ce lancement déclencherait le versement de ce complément de prix, selon la décision de justice. Le PDG de Krafton, Kim, craignait d'être piégé dans un accord qu'il jugeait défavorable et, en juin, il s'est tourné vers ChatGPT pour s'en sortir.
« Au cours du mois suivant, Krafton a suivi la plupart des recommandations de ChatGPT », a écrit la juge Will dans son avis.
Comme le suggérait le chatbot, l'entreprise a constitué une cellule de crise interne chargée de négocier un nouvel accord ou de procéder à une prise de contrôle du studio. Cette cellule a également défini des actions précises, notamment une stratégie de communication axée sur la confiance des fans, l'obtention des droits d'édition de « Subnautica 2 » et la préparation d'un « plan de défense juridique systématique ».
N'ayant pas réussi à convaincre la direction de renégocier le complément de prix, Krafton l'a limogée, l'accusant d'avoir trompé l'entreprise sur la diminution du temps qu'elle passait au studio, une allégation que la juge a rejetée.
La juge Will a ordonné que le contrôle opérationnel soit rendu à Gill, le PDG du studio. Elle a également prolongé le délai imparti pour satisfaire aux critères du complément de prix.
Incident 1445: Un employé de l'université CDU de Basse-Saxe aurait partagé une vidéo truquée à caractère sexuel d'un collègue dans un groupe WhatsApp interne.
“« Nous aurions aimé adopter une position plus claire » – C’est ainsi que la CDU explique en interne l’affaire des deepfakes.”
La CDU de Basse-Saxe est secouée par un scandale de deepfake. Le président régional, Sebastian Lechner, s'est adressé aux membres du parti par courrier. Il souhaite « communiquer de manière proactive », mais pour des raisons cruciales, cela s'avère impossible.
Dans l'affaire concernant la création présumée d'une vidéo à caractère sexuel par intelligence artificielle au sein du groupe parlementaire CDU de Basse-Saxe, le président régional, Sebastian Lechner, a adressé une lettre aux membres du parti. Dans cette lettre interne, obtenue par WELT, Lechner qualifie la révélation de ces allégations de « nouvelle choquante pour nous tous », les laissant « sans voix ».
Le parti a néanmoins « communiqué de manière proactive » sur le sujet et publié un communiqué. « Nous aurions souhaité adopter une position plus claire et fournir davantage d'informations contextuelles », a poursuivi Lechner, « mais cela n'était pas possible pour des raisons juridiques. »
Un cabinet d'avocats spécialisé en droit des médias a été mandaté, et la décision a été prise, « afin de protéger les droits personnels de toutes les personnes concernées », de s'abstenir de toute autre déclaration pour le moment. Car : Le groupe parlementaire, en tant qu'employeur, a un devoir de diligence envers ses employés, « même en cas de faute avérée ».
Concernant les suites données à l'affaire, Lechner écrit : « Tout doit faire l'objet d'une enquête transparente et exhaustive. » Ils coopéreront pleinement avec la justice. « Nous continuerons à tirer toutes les conclusions nécessaires. Soyons clairs : la CDU ne tolère aucune pensée ni aucun comportement misogyne », affirme Lechner. Il existe « manifestement encore des lacunes » sur la voie de la modernisation et de l'innovation de la CDU de Basse-Saxe – le scandale actuel l'a « plus que clairement démontré ».
Il souhaite désormais « transformer cette crise en opportunité », déclare Lechner, sans plus de précisions. Pour cela, « l'expertise des nombreuses femmes » du parti sera notamment indispensable.
L'employé en question a été licencié sans préavis.
Contexte de l'affaire : Le 17 janvier 2026 après-midi, plusieurs employés du groupe parlementaire CDU de Basse-Saxe ont reçu un message sur leur téléphone portable. Dans une conversation privée WhatsApp, un cadre du groupe a publié une courte vidéo générée par intelligence artificielle montrant une autre cadre du groupe, une femme, de manière clairement sexualisée – un deepfake.
Deux mois plus tard, ce message a déclenché un scandale politique au parlement régional de Hanovre. Selon les informations obtenues par WELT, le chef du groupe parlementaire, Sebastian Lechner, et la directrice du groupe, Carina Hermann, n'ont appris l'existence de la vidéo que récemment et ont écourté leurs vacances de Pâques. Après plusieurs réunions de crise à Hanovre, l'employé qui aurait créé la vidéo a été suspendu le jour même, puis licencié sans préavis. Il n'a pas répondu aux nombreuses sollicitations de WELT.
Un porte-parole du parquet de Hanovre a confirmé l'incident et l'ouverture d'une enquête à l'agence de presse allemande dpa. Cependant, aucune enquête formelle n'a encore été ouverte.
Le parquet aurait examiné la courte vidéo. « On y voit une femme danser en bikini. Cette femme semble être membre du personnel du groupe parlementaire CDU », a déclaré un porte-parole du parquet. La vidéo est « manifestement un montage généré par intelligence artificielle ». On soupçonne qu'une image réelle de la femme a été insérée numériquement dans la vidéo. Des logiciels permettent ce type d'opération.
Une enquête contre l'auteur présumé de la vidéo, un employé du groupe parlementaire CDU, n'est pas en cours pour le moment, a ajouté le porte-parole. Rien ne prouve la diffamation dans la vidéo elle-même ; toutefois, on soupçonne une violation du droit d'auteur si la photo de la femme a été modifiée. Il s'agit d'une infraction relevant de la compétence de la partie civile, a expliqué le parquet. Le parquet ne peut engager de poursuites que si une plainte formelle est déposée.
Pour l'instant, aucune plainte formelle n'a été déposée, a précisé le porte-parole. Le délai de trois mois pour porter plainte n'est pas encore expiré ; ce délai court à compter du moment où la personne concernée a pris connaissance du contenu. Si une plainte formelle est déposée d'ici là, le parquet réexaminera l'affaire, a-t-on indiqué.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données





