Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Le projet de politique gouvernementale en matière d'IA cite des références fictives que les experts considèrent comme des hallucinations de l'IA.

Incident 1467: Le projet de politique nationale sud-africaine en matière d'IA inclurait des références fictives considérées comme des hallucinations de l'IA.

Traduit par IA
“Le projet de politique gouvernementale en matière d'IA cite des références fictives que les experts considèrent comme des hallucinations de l'IA.”Dernier rapport
news24.com2026-04-25

Le document de politique nationale visant à définir l'approche de l'Afrique du Sud en matière d'intelligence artificielle (IA) pourrait bien être victime d'un de ses écueils les plus connus.

News24 révèle en exclusivité que certains articles de revues académiques cités dans le Projet de politique nationale en matière d'IA sont entièrement fictifs. L'explication la plus probable, ironiquement, est qu'un outil d'IA les aurait générés de manière hallucinatoire.

Plus tôt ce mois-ci, le ministre des Communications et des Technologies numériques, Solly Malatsi, a publié le projet de politique au Journal officiel pour consultation publique. Le document indique que son objectif est d'établir des priorités et des normes nationales pour l'IA, et de prendre en compte les « dynamiques spécifiques au secteur ».

Le projet de politique propose la création de nombreuses nouvelles institutions pour réglementer l'IA. Il s'agit notamment d'un Conseil d'éthique de l'IA, d'un Institut de sécurité de l'IA et d'un Fonds de garantie d'assurance pour l'IA chargé d'indemniser les personnes ou entités « lésées par les conséquences de l'IA ».

News24 a examiné les 67 références citées en bas du projet de politique. Plusieurs d'entre elles citaient soit une revue académique inexistante, soit un article qui n'est pas paru dans une revue reconnue.

Voici cinq exemples :

Babatunde, O., & Mnguni, P. (2023). « Challenges and Opportunities in Regulating AI: Perspectives from South Africa. » AI Policy Journal, 2(3), 143-156.

  • News24 n'a trouvé aucune preuve de l'existence de la revue AI Policy Journal. Aucun article portant ce titre n'est paru dans une revue académique majeure.

Burman, A., & Sewpersadh, K. (2022). « Legal Frameworks for AI in South Africa: Balancing Innovation and Accountability. » South African Journal of Philosophy, 41(2), 207-217.

  • La revue South African Journal of Philosophy (SAJP) existe bel et bien. Cependant, son rédacteur en chef, Dominic Griffiths, a déclaré à News24 qu'« aucun article de ce type n'a été publié par notre revue ». Griffiths a précisé qu'aucune personne portant le nom de famille « Burman » n'avait jamais publié dans le SAJP. « Cette référence est assurément une hallucination de l'IA », a-t-il affirmé.

Karr, V., & Smith, L. (2023). « Droits numériques et gouvernance de l'IA en Afrique ». Journal of African Law, 67(1), 95-108.

  • Le Journal of African Law existe bel et bien, mais l'article n'apparaît pas dans le volume 67, numéro 1. Un article portant ce titre ne semble pas non plus paraître dans d'autres revues.

Cavaliere, F., McGregor, R. et Hersh, M. (2022). « Intelligence artificielle et éthique dans les économies émergentes : le cas de l'Afrique du Sud ». AI & Society, 37(4), 565-583.

  • Karamjit Gill, rédacteur en chef d'AI & Society, a déclaré ne pas trouver la publication de cet article dans la revue. News24 n'a pas non plus réussi à le trouver sur Google Scholar.

Smith, M. et Mahomed, R. (2021). « L'impact de l'IA sur la justice sociale en Afrique du Sud ». Journal of Ethics and Social Philosophy, 18(3), 313-329.

  • Louise Simpson, rédactrice en chef adjointe du Journal of Ethics and Social Philosophy (JESP), a confirmé que l'article n'existe pas. « Je peux confirmer que JESP n'a publié aucun article portant ce titre ni signé par cette combinaison d'auteurs, ni dans ce numéro, ni dans aucun autre », a-t-elle déclaré.

Certaines des sources figurant sur la liste étaient des documents soumis dans le cadre d'une enquête gouvernementale, ou ne prétendaient pas être des articles de revues académiques.

News24 n'a pas pu vérifier avec certitude le nombre exact de références fictives sur la liste, mais au moins six étaient inventées.

Johan Fourie, auteur et historien économique sud-africain à l'Université de Stellenbosch, a participé à la vérification des références.

« J'ai procédé en deux étapes : j'ai vérifié moi-même trois citations. J'ai également conclu qu'elles n'existaient pas. Je les ai ensuite testées avec un outil d'intelligence artificielle (https://citetrue.com/), qui a également conclu que les trois étaient introuvables dans les bases de données académiques courantes », a expliqué Fourie.

« En résumé, elles étaient inventées. »

News24 a contacté le ministère des Communications et des Technologies numériques afin de savoir s'il avait utilisé un outil d'intelligence artificielle pour rédiger le corps du texte ou les citations du projet de politique nationale en matière d'IA, voire les deux. Nous avons également demandé au ministère de fournir la preuve de l'existence des articles scientifiques.

Le ministère a indiqué qu'il examinait la bibliographie afin d'en garantir l'exactitude, notamment en cherchant à comprendre l'origine des « mineurs divergences de référencement ».

Le ministère a également indiqué avoir lancé le processus d'élaboration de cette politique en 2024 et que le document avait fait l'objet de nombreuses versions. Il a précisé avoir intégré des recherches, des avis d'experts et des échanges avec le secteur privé.

Le ministère a déclaré avoir besoin de temps pour déterminer l'origine des divergences, mais en a minimisé l'importance.

« Nous confirmons que ces problèmes techniques de référencement n'affectent ni le fond, ni l'intégrité, ni l'orientation politique du projet de cadre de politique nationale en matière d'IA », a-t-il affirmé.

Irresponsabilité

Anné Verhoef, directeur du pôle d'intelligence artificielle de l'Université du Nord-Ouest et professeur de philosophie, a déclaré que les textes produits par l'IA incluent souvent des sources et des références fabriquées.

« Cela s'explique par le fait que les applications d'IA sont programmées pour toujours fournir une réponse. En tant qu'outils de prédiction basés sur de vastes modèles de langage, elles anticipent les sources et les citations qui rendraient un texte crédible, faisant autorité et scientifique », a-t-il expliqué.

Verhoef a ajouté que l'inclusion de sources fictives dans les travaux universitaires et de recherche est « révélatrice d'une utilisation irresponsable de l'IA ».

« Des exemples tels que le projet de politique nationale sur l'IA, qui contient des citations et des sources inexactes, élaboré sans divulgation de l'implication de l'IA, reflètent une utilisation potentiellement contraire à l'éthique et irresponsable de l'IA », a déclaré Verhoef.

Fourie a déclaré que les hallucinations des modèles d'IA n'étaient pas surprenantes, mais qu'il était étonnant qu'il ne semble y avoir aucun contrôle.

« Ces outils sont puissants. Les entreprises, les universitaires et les gouvernements les utilisent déjà. Leur valeur dépend toutefois d'une supervision humaine rigoureuse.

« Des références fabriquées de toutes pièces laissent penser que l'outil n'a pas été utilisé avec suffisamment de soin. La conséquence, regrettable mais compréhensible, est que les doutes s'étendent désormais au-delà de l'erreur elle-même et portent sur la crédibilité de l'ensemble du document », a ajouté Fourie.

- Avec Katharina Moser

Lire plus
Loading...
Les vraies manifestantes iraniennes que Trump a fait passer pour des artifices

Incident 1468: Des images de manifestantes iraniennes, prétendument améliorées par l'intelligence artificielle, auraient été diffusées accompagnées d'allégations d'exécutions non vérifiées.

Traduit par IA
“Les vraies manifestantes iraniennes que Trump a fait passer pour des artifices”
techpolicy.press2026-04-25

De véritables manifestantes iraniennes sont détenues dans des prisons iraniennes sous la menace de la peine capitale. Leur défense est aujourd'hui plus difficile qu'il y a une semaine, car la crédibilité des documents indispensables à la défense des droits humains est mise à mal par ceux qui prétendent les défendre. Des outils d'intelligence artificielle sont utilisés pour retoucher des photographies jusqu'à leur donner un aspect artificiel, et des images entièrement générées par IA sont présentées comme s'il s'agissait de personnes réelles, souvent côte à côte, comme s'il s'agissait de la même chose. La distinction entre les deux disparaît, et les femmes réellement détenues dans de véritables prisons se perdent dans le brouhaha médiatique.

Les huit femmes dont le président Donald Trump a relayé les photos sur Truth Social cette semaine en sont le dernier exemple.

Le matin du 21 avril, quelques heures avant la rencontre prévue entre les négociateurs américains et iraniens à Islamabad, Trump a publié sur Truth Social un montage de huit visages de femmes et s'est adressé directement aux dirigeants iraniens. « Je serais extrêmement reconnaissant de la libération de ces femmes », a-t-il écrit. « Je vous en prie, ne leur faites aucun mal ! Ce serait un excellent point de départ pour nos négociations ! » Le message comprenait une capture d'écran d'une publication d'Eyal Yakoby, un militant américain pro-israélien de 23 ans, affirmant que la République islamique s'apprêtait à pendre les femmes présentées. Quelques heures plus tard, le compte officiel de la Maison Blanche (@WhiteHouse) a relayé le message sur X. Le compte Instagram du Département d'État en persan (@usabehfarsi) l'a traduit et republié pour le public iranien, en y apposant la mention du gouvernement américain.

En fin de journée, la justice iranienne a donné sa réponse. Elle a qualifié la publication de « fausse information ». « Les femmes qui étaient censées être sur le point d'être exécutées », indiquait le communiqué, « certaines ont été libérées, tandis que d'autres sont poursuivies pour des faits qui, si les condamnations sont confirmées, n'entraîneront au plus qu'une peine d'emprisonnement. »

À gauche, la publication partagée par le président Trump ; à droite, une publication partagée par le compte de l'ambassade d'Iran en Arabie saoudite.

Vingt-quatre heures plus tard, Trump a publié un nouveau message. « Excellente nouvelle ! », a-t-il écrit, affirmant que les huit femmes ne seraient plus exécutées. « Quatre personnes seront libérées immédiatement et quatre autres condamnées à un mois de prison. J'apprécie grandement que l'Iran et ses dirigeants aient respecté ma demande, en ma qualité de président des États-Unis, et aient annulé l'exécution prévue. » Le compte Twitter de la Maison Blanche (@WhiteHouse) a également relayé cette information. Ces chiffres précis ne proviennent d'aucune organisation de défense des droits humains, d'aucun document judiciaire ni d'aucun journaliste. Des allégations ont circulé concernant une exécution que le pouvoir judiciaire iranien a démentie. La stratégie de Trump reste obscure. Ce qui est certain, c'est que ce récit erroné a été diffusé par le gouvernement américain sans grand souci apparent de la vérité ni du préjudice causé aux femmes citées. Rien ne prouve qu'un travail de vérification des droits humains ou journalistique ait été effectué par quiconque dans la chaîne de transmission de cette information, accompagnée de la déclaration de Trump, au sein des archives diplomatiques. Comme le rapporte Sarah Jeong dans The Verge, cette affaire est un « mélange de faits et de fiction, une distorsion floue qui alimente une controverse sans fin sur les véritables violations des droits humains ».

Mais la justice iranienne n'a pas non plus dit toute la vérité. Elle semble avoir profité de la situation grâce à Trump : une présentation manifestement erronée lui permettant de masquer la réalité des exactions et des crimes contre les droits humains commis par le gouvernement iranien. Les noms figurant sur le montage sont tous ceux de prisonniers politiques, arrêtés ou disparus depuis les manifestations de janvier 2026. Les photographies, quant à elles, étaient authentiques. Il s'agissait d'images de vraies femmes, prises par de vrais appareils photo. Ce qui a probablement introduit l'intelligence artificielle dans le processus, c'est que ces images étaient visiblement modifiées : fonds noirs stylisés, filtres d'embellissement et lissage caractéristiques des retouches assistées par IA. Il s'agit d'« amélioration par IA » ou de « retouche par IA », une opération différente de la génération par IA, qui produit des images de personnes inexistantes à partir d'un texte sans sujet sous-jacent.

La distinction entre amélioration et génération est cruciale, car elle détermine si la photographie a un lien quelconque avec une personne réelle. De plus, cette distinction est de plus en plus difficile à établir en pratique. La retouche par IA est désormais intégrée aux logiciels de retouche photo standard utilisés quotidiennement par la plupart des gens, ce qui signifie que de plus en plus d'images authentiques portent des traces d'IA. La catégorie des « photographies réelles améliorées par IA » n'est plus exotique. Elle devient de plus en plus courante, et le travail d'analyse consistant à distinguer l'amélioration de la génération devient à la fois plus complexe et plus nécessaire.

Ce que la documentation montre réellement

Ce qui est vérifiable, c'est que six des huit femmes sont réelles. Certaines d'entre elles sont en grand danger. Aucun de leurs cas ne correspond à la version des faits présentée par Trump.

Bita Hemmati est la seule des huit à avoir été condamnée à mort. La 26e chambre du Tribunal révolutionnaire de Téhéran, présidée par la juge Iman Afshari, l'a condamnée à mort mi-avril, ainsi que son mari et deux voisins, pour « action opérationnelle au profit du gouvernement hostile des États-Unis et de groupes hostiles ». HRANA a noté que l'accusation s'était appuyée sur des aveux extorqués et diffusés publiquement.

Mahboubeh Shabani, 33 ans, a été arrêtée le 2 février par les services de renseignement de Mashhad et serait détenue dans le quartier des femmes de la prison de Vakilabad. L'organisation norvégienne Hengaw pour les droits humains a documenté son cas. Elle est accusée (sans verdict) de « moharebeh », inimitié envers Dieu, un crime capital passible de la peine de mort en vertu de la loi iranienne, pour avoir utilisé sa moto afin de transporter des manifestants blessés lors des troubles des 8 et 9 janvier.

Diana Taherabadi avait 15 ans lorsqu'elle a été arrachée à son domicile à Karaj, alors qu'elle était encore en pyjama ; elle est détenue dans le quartier des mineurs de la prison de Kachouei. Ghazal Ghalandari, 16 ans, a été arrêtée lors d'une opération similaire à Yasuj et transférée dans un lieu tenu secret.

Venus Hossein-Nejad, une femme bahaïe de 28 ans, a été arrêtée sur son lieu de travail à Kerman, contrainte de faire des aveux télévisés et privée de son traitement pour troubles bipolaires pendant sa détention. Golnaz Naraghi, médecin urgentiste de 37 ans, a été arrêtée à Téhéran et transférée à la prison de Qarchak. Selon Iran Human Rights in Oslo, Hossein-Nejad et Naraghi ont depuis été libérées sous caution.

Panah Movahedi, une kickboxeuse professionnelle de 24 ans, a disparu lors des manifestations du quartier de Punak à Téhéran le 9 janvier, selon l'organisation Iran Human Rights, basée à Oslo, qui a transmis un résumé vérifié de son cas au site de vérification des faits Lead Stories le 22 avril. Sa famille est sans nouvelles d'elle depuis. Par ailleurs, Iran Human Rights a confirmé l'arrestation d'Ensieh Nejati à Darab, dans le sud de l'Iran, le 10 janvier. Aucune information supplémentaire n'a été communiquée concernant son cas.

Ce que des organisations crédibles de défense des droits humains ont documenté collectivement, c'est un appareil d'État qui exécute discrètement sa répression par le biais de tribunaux révolutionnaires, de centres de détention pour mineurs, d'aveux télévisés forcés et d'accusations arbitraires pouvant équivaloir à des exécutions, contre des femmes dont les histoires, telles qu'elles sont racontées, sont poignantes et ne se prêtent pas à des images améliorées par l'IA ni à des versions sensationnalistes de leurs récits.

Le schéma


Ce n'était pas la première fois que Yakoby partageait ce qui a été identifié comme du contenu généré par l'IA concernant l'Iran. Le 9 avril, il a publié une image prétendument montrée les conséquences de la répression de janvier. Shayan Sardarizadeh de BBC Verify l'a signalée comme étant générée par l'IA quelques heures plus tard. Sardarizadeh a fait remarquer que les enseignes en persan à l'arrière-plan étaient incohérentes et que les corps au premier plan présentaient des erreurs anatomiques. Yakoby a supprimé la publication.

Cette dynamique ne se limite pas aux capacités de l'IA. Elle concerne aussi le doute qu'elle suscite quant à l'authenticité de contenus pourtant parfaitement réels. Deux jours auparavant, le 7 avril, il avait republié des images authentiques de victimes iraniennes (https://x.com/EYakoby/status/2041316525139747042), des images qui n'avaient pas besoin d'être falsifiées. En dessous, une réponse disait : « Avec la mise en scène des faits, l’IA et la manipulation des titres qui génèrent une audience artificielle sur les réseaux sociaux, je remets tout en question. Personne n’est innocent, et je ne veux pas que les contribuables américains financent l’OTAN ni qu’ils soient impliqués au Moyen-Orient, de quelque manière que ce soit. »

Cette réponse représente l’aboutissement logique de cette dynamique. Face à un environnement informationnel où contenus authentiques et synthétiques coexistent de façon indiscernable, le public ne parvient pas à mieux les distinguer. Il se détourne. Le schéma observé ici n’est pas de la désinformation au sens conventionnel du terme ; les événements sous-jacents sont réels. Il s’agit de propagande : des cas réels enrobés de contenu synthétique, non vérifié ou instrumentalisé au service d’un agenda politique. Le problème n’est pas le mensonge en lui-même, mais le fait que de véritables violations des droits humains, ainsi instrumentalisées, paraissent fabriquées de toutes pièces.

Trois courants, un vide

J'ai déjà écrit ici sur la façon dont l'existence de contenus générés par l'IA permet de discréditer des documents authentiques sur la violence d'État iranienne ou des manifestations authentiques en les qualifiant de fabrications, et sur la façon dont cette dynamique a opéré à l'échelle d'une guerre lors des frappes israéliennes et américaines du début de l'année. Ce qui apparaît désormais, après le cessez-le-feu et la reconsolidation de l'architecture informationnelle du régime, c'est un schéma plus général et plus dangereux. Des contenus synthétiques et non vérifiés sur les violations des droits humains en Iran sont produits simultanément de toutes parts par des acteurs aux orientations politiques incompatibles, avec le même résultat.

L'État iranien lui-même gère un système de propagande basé sur l'intelligence artificielle (IA), utilisé pour gonfler ses capacités militaires pendant la guerre. Ce système instrumentalise la documentation de tragédies réelles, la déformant à des fins de propagande, et vise à présenter au monde une voix unique pour 93 millions d'Iraniens pendant la coupure d'Internet, tout en exploitant les discours d'oppression du Sud global, les sentiments pacifistes et la gauche occidentale. Les médias d'opposition et de la diaspora ont également produit leurs propres fabrications. Plus tôt cette année, Iran International a partagé une vidéo générée par intelligence artificielle (http://archive.ph/sdyrK) censée montrer des prisonniers politiques transférés vers une base des Gardiens de la révolution iraniens pour servir de boucliers humains (https://x.com/factnameh/status/2028177706035392922). Le pouvoir judiciaire iranien a alors publié une déclaration officielle (https://defapress.ir/fa/news/815834/) qualifiant la vidéo de fabrication et l'utilisant pour discréditer la documentation relative aux prisons en général, ou les mauvais traitements notoires infligés aux prisonniers politiques (https://iranhumanrights.org/2026/03/grave-concerns-for-the-safety-of-political-prisoners-and-detainees-in-iran/) en temps de guerre, les qualifiant d'opérations psychologiques ennemies. La vidéo a été discrètement supprimée, mais le régime en avait déjà profité.

Le régime ne se contente pas d'instrumentaliser les manipulations d'IA d'autres acteurs. Il a commencé à produire les siennes pour tourner en dérision cette dynamique. Quelques heures après la déclaration de victoire de Trump, l'ambassade d'Iran en Afrique du Sud, un compte officiel de la République islamique, a publié une grille de huit images de femmes iraniennes voilées, générées par IA, avec la légende : « Huit autres jeunes filles iraniennes seront exécutées en Iran demain. Demandez à Trump d'intervenir. Merci à chatgpt. » Le compte a activé l'option de génération d'IA proposée par la plateforme. Le régime reproduit – ou plutôt parodie – ce qu'il a contribué à créer. Il ridiculise la dynamique que Trump vient de mettre en lumière en la réduisant à néant. Le montage partagé par Trump était amélioré par IA ; la grille de l'ambassade est générée par IA. La moquerie fonctionne car la plupart des gens ne peuvent pas, ou ne veulent pas, faire la différence, et l'ambassade entretient précisément cette confusion : une catégorie de preuves tellement dégradée que n'importe qui peut produire un montage de femmes synthétiques et faire passer l'absurdité de la chose pour un commentaire sur la crédibilité de l'ensemble du bilan iranien en matière de droits humains.

La chaîne d'amplification qui a diffusé le montage original sur le fil persan du Département d'État représente un troisième courant : des acteurs de la propagande instrumentalisent de véritables cas de violations des droits humains en les présentant de manière non vérifiée ou améliorée par l'IA, au service d'une politique étrangère à laquelle les femmes citées dans la publication n'ont jamais consenti à participer. Chacune prétend aujourd'hui agir au nom du peuple iranien. Chacune contamine le dossier de preuves. Le régime instrumentalise ensuite les manipulations des autres pour tout nier, ce que la justice iranienne a fait précisément quelques heures après la publication de Trump.

Derrière ces trois courants se cache un vide que la République islamique s'est méthodiquement employée à maintenir. Dans les jours qui ont suivi les massacres des manifestations des 8 et 9 janvier, des contacts en Iran m'ont envoyé des photos de flaques de sang sur les trottoirs de Shiraz, prises sous des angles ne montrant que le sol, car les photographes ne pouvaient pas risquer d'être vus avec un téléphone à la main. Lorsque la communication a été brièvement rétablie à la fin du mois, j'ai parlé avec une personne à Téhéran qui m'a décrit avoir vu les équipes de nettoyage de la ville laver le sang des rues de son quartier. Elle n'avait aucune image à partager ; le dispositif de sécurité était trop important pour prendre le risque. Dans les villes iraniennes, des gardes postés aux points de contrôle fouillent les téléphones et arrêtent toute personne dont la pellicule contient des images de manifestations. Ce témoignage, glacial, est souvent étouffé et provient de l'intérieur de l'Iran en janvier. Dans ce vide, des acteurs de tous bords politiques s'engouffrent dans la brèche, diffusant des contenus allant d'authentiques mais manipulés à des images retouchées par l'IA, voire entièrement fabriqués. Les femmes dont la vie est en jeu disparaissent dans le brouhaha médiatique alimenté par le régime, l'opposition et les militants.

Ce qui disparaît

Deux vérités peuvent coexister. Trump recourt à la propagande et se moque de la rigueur méthodologique qu'exige la documentation des droits humains ; il amplifiera avec la même négligence des allégations d'exécutions non vérifiées et des chiffres de victimes exagérés. L'État iranien a perpétré un massacre sans précédent en janvier, HRANA confirmant plus de 6 700 morts parmi les manifestants et les mineurs, et 11 744 autres cas faisant l'objet d'une enquête. Il exécute désormais des prisonniers politiques à un rythme inédit depuis vingt ans, tout en détenant des jeunes filles de 16 ans sous la menace de la peine capitale et en forçant des femmes bahaïes à avouer à la télévision des crimes qu'elles n'ont pas commis. La première vérité n'atténue en rien la seconde. Elle ne fait que discréditer les faits sur lesquels repose la seconde.

La condamnation à mort de Bita Hemmati est aujourd'hui noyée sous un flot d'allégations non vérifiées concernant sept autres femmes. La famille de Diana Taherabadi attend un verdict qui lui est caché, tandis que le monde entier débat de l'origine de sa photographie, soupçonnée d'être générée par une intelligence artificielle. Les aveux forcés de Venus Hossein-Nejad étaient déjà un instrument du régime contre elle ; sa situation est désormais encore plus précaire. Tout le réseau d'organisations qui documentent de manière crédible les agissements de l'État iranien envers ses citoyens voit son travail noyé dans le brouhaha médiatique provoqué par divers acteurs aux intérêts politiques propres, mais peu soucieux des vies humaines ou de la vérité.

Certains mécanismes de réponse structurelle existent déjà. Les recommandations de mars du Conseil de surveillance adressées à Meta appellent à l'établissement d'une nouvelle norme communautaire pour les contenus générés par l'IA, à un étiquetage uniforme de ces contenus en période de crise et à la mise en place d'une infrastructure de traçabilité des contenus à grande échelle. Meta dispose de 60 jours pour répondre, mais son historique concernant les recommandations précédentes du Conseil d'administration de Meta sur les contenus générés par l'IA suggère que des décisions fermes ne se traduisent pas automatiquement en actions. X est allé plus loin sur le papier, annonçant en mars que les créateurs publiant des vidéos de conflits armés générées par l'IA sans les signaler seraient suspendus du programme de partage des revenus de la plateforme. X a déclaré qu'elle s'appuierait sur une combinaison d'outils de détection propriétaires, de notes communautaires et de métadonnées d'IA. Cependant, elle ne semble pas avoir divulgué la méthodologie technique précise ni publié de données sur la fréquence d'application de cette politique.

Comme l'a souligné mon collègue Sam Gregory, directeur exécutif de WITNESS, il n'existe pas de solution miracle à cette crise. Plus que jamais, nous avons besoin d'un système multicouche de signaux de confiance : la traçabilité de l'IA doit être intégrée dès la création, plutôt que de dépendre d'une détection ultérieure au moment de la diffusion. Des cadres de transparence, des garde-fous et une interopérabilité entre les entreprises qui produisent les modèles génératifs et les plateformes de distribution de contenu ; un investissement soutenu dans la vérification des faits, notamment au sein des plateformes et de leurs processus de modération, avec les ressources nécessaires pour intervenir en situation de crise, comme lors de conflits où le contenu généré par l’IA inonde l’écosystème informationnel ; une modération du contenu sur les plateformes qui utilise des mécanismes humains et techniques pour distinguer le synthétique de l’authentique en temps de crise, au lieu de les confondre ; et une éducation aux médias qui permette au public de comprendre ce nouveau monde du contenu généré par l’IA, en dépassant la vision binaire « IA ou pas » et en acceptant l’incertitude plutôt que de sombrer dans un scepticisme absolu.

Chacun de ces aspects est actuellement négligé ou insuffisamment financé. Sans eux, les personnes dont les histoires méritent d’être entendues deviennent invisibles, et ceux qui prétendent le plus fort parler en leur nom sont – intentionnellement ou non – ceux qui les effacent.

Lire plus
Loading...
Des réseaux de faux profils ont diffusé des publications d'ITN sur les réseaux sociaux à l'approche des élections.

Incident 1466: Un réseau de faux profils Facebook, utilisant des images prétendument générées par IA, a amplifié les publications du parti bulgare « Il existe un tel peuple » (ITN).

Traduit par IA
“Des réseaux de faux profils ont diffusé des publications d'ITN sur les réseaux sociaux à l'approche des élections.”
factcheck.bg2026-04-24

L'investiture du gouvernement intérimaire, avec Andreï Guyourov comme Premier ministre, a ravivé l'activité des représentants du parti « Il existe un tel peuple » (ITN) à l'encontre de ses membres. Tandis que le vice-président du parti, Tochko Yordanov, et le vice-président du groupe parlementaire, Stanislav Balabanov, s'en prennent aux nouveaux ministres principalement depuis la tribune parlementaire et devant les médias, la députée Pavela Mitova, ainsi que le chef du parti, Stanislav Trifonov, privilégient Facebook pour diffuser leurs messages.

Les deux publications ont été partagées des centaines de fois et ont suscité des milliers de réactions, mais seule une petite partie d'entre elles est authentique.

Une analyse de Factcheck.bg a révélé qu'un réseau d'environ 120 faux profils Facebook coordonne la diffusion des publications de Mitova et Trifonov. Ces profils ont été créés selon un modèle similaire et leur activité converge lorsqu'il s'agit de partager du contenu d'ITN.

Le 20 février, par exemple, Pavela Mitova a publié sur son profil un message affirmant que le ministre par intérim de l'Agriculture et de l'Alimentation, Ivan Hristanov, avait désigné une pièce spéciale « réservée à la corruption » et que, de là, il avait donné à ses partisans du parti « Edinenie » accès à « tous les documents du ministère de l'Agriculture et de l'Alimentation des cinq dernières années », accès auquel ils n'auraient pas dû avoir accès légalement. Hristanov figure parmi les ministres par intérim les plus violemment pris pour cible par le groupe « There is such a people ».

Au 10 mars, la publication de Pavela Mitova avait été partagée 336 fois. La vérification de Factcheck.bg a montré qu'environ 120 de ces partages provenaient de profils inauthentiques. Ces profils avaient été créés selon un modèle similaire et chacun d'eux avait partagé les déclarations en question à deux reprises, voire plus.

1 sur 3

[ [

De même, une publication de Trifonov datée du 4 mars, dans laquelle il exigeait la démission de Hristanov et critiquait son absence au Parlement, a été partagée 379 fois, dont près de la moitié provenaient de comptes non authentiques.

Une autre publication de Trifonov, datée du 11 mars et critiquant le slogan « Nous poursuivons le changement – Bulgarie démocratique », a été partagée plus de 15 fois par le même compte.

1 sur 2

Créé avec Flourish - Créer un graphique

  • Leurs photos de profil, ainsi que les autres photos qu'ils publient, sont générées par intelligence artificielle. Ceci est confirmé par une vérification effectuée avec l'outil AIorNOT.

  • Ils ont très peu ou pas d'amis sur Facebook.

  • Plusieurs villes de Bulgarie sont indiquées comme lieux de résidence, et du texte relatif à la profession mentionnée dans le profil a été ajouté à la description. La plupart des profils ont été créés fin 2025 ou début 2026.

Les profils sont associés à des adresses e-mail utilisant le modèle « digit@hotmail.com ».

Leur activité consiste principalement à republier du contenu provenant d'autres profils ou pages liés à « Il existe de telles personnes » et à ses membres. Les premières publications portent généralement sur un sujet lié à la ville où le faux profil prétend résider. Toutes les publications suivantes sont exclusivement consacrées à ITN.

Ce groupe de faux profils se caractérise par le partage exclusif de publications, sans aucune autre activité : contenu personnel, mentions « J’aime » ou commentaires.

Avec l’interdiction de la publicité politique sur les réseaux sociaux, le principal moyen d’atteindre les utilisateurs est la diffusion organique, qui dépend essentiellement des réactions suscitées par une publication. Plus une publication reçoit de réactions, de commentaires et de partages, plus sa diffusion est importante et plus l’algorithme de Facebook la considère comme un contenu à fort potentiel d’engagement.

C’est précisément le cas de la publication de Pavela Mitova du 20 février. Elle a été partagée deux fois le 22 février par le faux profil Magdalena Kostova :

1 sur 2

Ce profil a été créé en décembre. 26, 2025. Bien qu'inauthentique, le compte accepte les demandes d'amis, ce qui signifie que son activité n'est pas entièrement automatisée et qu'une personne réelle la gère.

Les premiers messages attribués à Magdalena Kostova concernent Sandanski, le Nouvel An et l'adoption de l'euro. Ils comprennent également plusieurs photos générées par intelligence artificielle, censées être les siennes. Il s'agit de tentatives pour créer l'illusion d'une activité en ligne authentique. Du 7 janvier au 30 mars, le faux profil partage le contenu suivant :

  • 14 messages de Pavela Mitova ;

  • 50 messages sur le thème « Il existe de telles personnes » ;

  • 12 messages du profil de Slavi Trifonov ;

  • 1 message d'un profil au nom de Diana Damianova, qui critique le bureau de Gyurov et qualifie ITN de « gardienne des valeurs familiales » ;

  • 1 message du profil du député ITN Alexander Rashev.

Un autre profil, celui de Nikola Savov de Pernik, a été créé le 10 janvier 2026. Après sa première publication à cette époque, il a également commencé à partager du contenu exclusivement lié à ITN.

La photo de profil utilisée n'est pas celle d'une personne réelle, mais a été générée par intelligence artificielle. Autre point commun avec le profil de Magdalena Kostova : Nikola Savov a également partagé à deux reprises la publication de Pavela Mitova du 20 février. D'autres publications d'ITN ont été partagées deux fois sur le réseau social.

1 sur 8

[![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.20.52.j pg)

[ [

[! ](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.22.16.jpg)

Parmi les faux profils impliqués dans la diffusion d'ITN Parmi les publications, certaines comportent des descriptions en russe. C'est probablement un indice que le texte de ces descriptions a été généré par intelligence artificielle.

1 sur 2

Ainsi, par le biais d'un Un réseau de faux profils aux photos truquées et sans véritables publications personnelles a permis à la publication de Pavela Mitova, datée du 20 février, d'être partagée au moins 120 fois. Ce nombre important de réactions et de partages l'a placée dans la catégorie des contenus à fort engagement sur Facebook, lui conférant un positionnement prioritaire et une visibilité accrue.

Ce même réseau de profils a également amplifié la diffusion de publications d'autres comptes et pages associés à ITN durant la campagne des élections législatives anticipées. La publication de Stanislav Trifonov, par exemple, dans laquelle il critiquait le ministre de l'Agriculture par intérim Ivan Hristanov, a recueilli plus de 3 000 mentions « J'aime ». Elle a été partagée 379 fois, dont plus de 100 fois par de faux comptes. La plupart de ces faux profils l'ont partagée deux fois. Le profil de Magdalena Kostova figurait également parmi eux.

1 sur 2

"Il y a « Il y aura un tel peuple »

Début mars, un nouveau réseau de profils partiellement ou totalement anonymes, utilisant l'expression « Il y aura un tel peuple » dans leur nom, est devenu le slogan d'ITN pour la campagne électorale en cours. Ce réseau vise également à amplifier la diffusion du contenu publié par ITN afin que les algorithmes de Meta le reconnaissent comme très engageant.

1 sur 2

Ces Une cinquantaine de profils se présentent comme des militants d'ITN, mais en réalité, ils sont fictifs. Leurs photos de profil sont soit générées artificiellement, soit volées sur Internet. Ces profils restent quasiment inactifs jusqu'en février 2026, date à laquelle ils commencent soudainement à partager quotidiennement du contenu provenant de diverses pages et groupes du type « Il existe de telles personnes ».

Créé avec Flourish - Créer un graphique

Une vérification avec l'outil PimEyes a révélé que l'un des profils du réseau – « There Will Be Such a People (Anelia Yordanova) » – utilise une photo du mannequin de Victoria's Secret, Kelly Gale, comme photo de profil.

1 sur 3

Vérification sur Factcheck.bg L'outil PimEyes

Cette photo apparaît sur plusieurs sites, y compris sur des sites pour adultes.

Un autre profil sur le réseau utilise la photo d'une personne réelle. Personne.

Une nouvelle vérification à l'aide de l'outil de reconnaissance faciale PimEyes confirme que la photo représente Ivan Tomanović, chercheur associé au Département de génie thermique et énergétique de l'Institut des sciences nucléaires « VINČA » de l'Université de Belgrade. L'équipe de Factcheck.bg a tenté de le contacter, mais n'avait reçu aucune réponse au moment de la publication de cet article.

Et d'autres comportements inauthentiques

Depuis Au début de la campagne électorale, une activité inhabituelle a été observée sous les publications de Slavi Trifonov, leader du parti « Il existe un tel peuple ». Sa publication du 12 mars, dans laquelle il critique le maire de Sofia, Vassil Terziev, a recueilli près de 5 700 réactions. Parmi celles-ci, environ 2 000 sont des « j’aime », plus de 600 des émoticônes riant et environ 3 000 « cœurs ».

Une grande partie des profils ayant réagi avec un « cœur » sous la publication ont des noms étrangers, notamment italiens. La même activité inhabituelle, avec plus de 900 réactions (des « cœurs »), a été observée sous les publications de Trifonov des 28 février, 1er mars, 4 mars, 5 mars, 6 mars et 11 mars.

1 sur 3

[![](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.29.45.jpg [

Voici à quoi ressemblent les réactions achetées sur les réseaux sociaux : un service proposé illégalement sur Internet par divers intermédiaires, souvent basés dans des pays asiatiques. Moyennant une somme modique, ils fournissent des réactions à une publication donnée, généralement à l’aide de profils factices créés spécifiquement à cet effet.

Selon les politiques de Meta, l’entreprise Ces actions, qui concernent Meta, propriétaire de Facebook, relèvent de ce que l'on appelle un « comportement inauthentique coordonné » (https://transparency.meta.com/policies/community-standards/inauthentic-behavior/). Elles sont passibles de sanctions de la part de la plateforme, car elles visent à tromper Meta et ses utilisateurs ou à contourner les sanctions infligées en cas de violation du règlement de la communauté.

Ces engagements de Facebook et d'autres grands réseaux sociaux découlent du règlement européen sur les services numériques (https://www.eu-digital-services-act.com/Digital_Services_Act_Preamble_81_to_90.html#:~:text=their%20risk%20assessments.-,Providers%20of%20very%20large%20online%20platforms%20and%20of%20very%20large,that%20contributes%20to%20disinformation%20campaigns.). Ce document oblige explicitement les principales plateformes à prendre des mesures contre l'utilisation de leurs services pour la manipulation coordonnée de la société via de faux profils ou des bots, qui peuvent être utilisés pour la diffusion rapide et massive de désinformation ou de contenus illégaux.

Lire plus
Loading...
Une panne de robotaxis en Chine laisse des passagers bloqués sur les autoroutes.

Incident 1460: Des robotaxis Baidu Apollo Go immobilisés dans les embouteillages à Wuhan suite à une panne de système signalée, laissant certains passagers bloqués.

Traduit par IA
“Une panne de robotaxis en Chine laisse des passagers bloqués sur les autoroutes.”
wired.com2026-04-19

Un problème technique non identifié a provoqué l'immobilisation de plusieurs robotaxis appartenant au géant technologique chinois Baidu, mardi, en pleine circulation. Certains passagers sont restés bloqués à bord pendant plus d'une heure.

À Wuhan, ville du centre de la Chine où Baidu a déployé des centaines de ses taxis autonomes Apollo Go, des internautes chinois ont rapporté sur les réseaux sociaux avoir vu ces véhicules tomber soudainement en panne et s'arrêter. Des photos et des vidéos partagées en ligne montrent les véhicules Baidu immobilisés sur des autoroutes très fréquentées, souvent sur la voie de gauche.

Une étudiante de Wuhan raconte à WIRED qu'elle est restée bloquée dans un robotaxi Baidu avec deux amies pendant environ 90 minutes mardi. (Elle a demandé à être identifiée uniquement par son nom de famille, He, afin de préserver son anonymat.) L'étudiante explique que le véhicule a connu des dysfonctionnements et s'est arrêté quatre ou cinq fois pendant le trajet avant de finalement s'immobiliser à un carrefour dans l'est de Wuhan. Heureusement, la route était peu fréquentée et le groupe n'était pas en danger immédiat. L'écran de la voiture demandait aux passagers de rester à bord, ceintures attachées, et d'attendre l'arrivée d'un représentant de la société « dans cinq minutes », d'après une photo qu'il a partagée avec WIRED.

Il explique avoir mis environ 30 minutes à joindre un conseiller Baidu par téléphone. « Ils n'arrêtaient pas de dire que le problème serait signalé à leur supérieur. Mais ils n'ont pas expliqué la cause de la panne ni le temps d'attente », raconte-t-il. Personne n'est jamais venu, et après une heure d'attente supplémentaire, les trois passagers ont décidé de rentrer chez eux par leurs propres moyens (les portières n'étaient pas verrouillées).

Sur les réseaux sociaux chinois, d'autres passagers se sont également plaints de l'impossibilité de contacter le service client de Baidu. « J'ai essayé tous les moyens possibles pour appeler à l'aide via l'application, mais la ligne était coupée, et quand j'ai appuyé sur le bouton SOS, on m'a dit qu'il était indisponible. Alors, à quoi sert le SOS, au juste ? » « Apollo Go, vous me devez vraiment des excuses », a écrit une internaute sur RedNote, accompagnant son message d'une vidéo montrant le dysfonctionnement du bouton. Elle a expliqué avoir dû forcer l'ouverture de la portière et sortir du véhicule, la circulation étant complètement bloquée derrière sa voiture.

Baidu n'a pas immédiatement répondu à notre demande de commentaires. La police locale de Wuhan a publié un communiqué vers minuit (heure chinoise) indiquant que la situation était « probablement due à un dysfonctionnement du système », mais qu'une enquête était toujours en cours. La police a ajouté qu'aucun blessé n'était à déplorer et que tous les passagers avaient quitté les véhicules. On ignore pour l'instant combien de voitures autonomes de Baidu ont été affectées.

L'enregistrement d'une caméra embarquée, également publié sur RedNote, montre une voiture dépassant 16 véhicules Apollo Go stationnés sur la route en l'espace de 90 minutes. À plusieurs reprises, la vidéo montre le conducteur évitant de justesse une collision avec le robotaxi en freinant ou en changeant de voie à la dernière minute.

D'autres n'ont apparemment pas eu cette chance. Dans une autre publication sur RedNote, un homme affirme avoir percuté un véhicule Baidu défectueux. Il explique qu'il roulait à plus de 65 km/h sur l'autoroute lorsque la voiture qui le précédait a brusquement changé de voie pour éviter le robotaxi arrêté. N'ayant pas pu réagir à temps, il a fini par percuter le véhicule autonome. Des photos de son SUV orange, remorqué, montrent que l'aile avant droite était complètement arrachée et que d'autres parties semblaient avoir subi d'importants dégâts.

Au moins deux autres collisions ont eu lieu le même jour, d'après des photos et des vidéos publiées sur les réseaux sociaux chinois. Une utilisatrice de RedNote à Wuhan a confirmé à WIRED avoir croisé une minifourgonnette blanche impliquée dans une collision par l'arrière avec un robotaxi stationné. L'arrière du véhicule Baidu était fortement endommagé, mais les deux personnes présentes semblaient indemnes, a-t-elle indiqué. Elle a ajouté avoir aperçu au moins une douzaine d'autres robotaxis stationnés.

Baidu est l'une des principales entreprises chinoises de véhicules autonomes. La société a lancé ses services de robotaxis dans plus d'une douzaine de villes chinoises et a récemment commencé son expansion internationale, notamment à Séoul, Abou Dabi et Dubaï. En février, Baidu a annoncé avoir effectué 20 millions de trajets, soit plus de 300 millions de kilomètres (environ 186 millions de miles).

Wuhan figure parmi les villes les plus proactives en matière d'autorisation de circulation des véhicules entièrement autonomes de Baidu sur la voie publique. La ville autorise leur circulation sur les autoroutes et pour les trajets vers l'aéroport.

Lire plus
Loading...
Une optométriste riposte après une escroquerie par deepfake.

Incident 1455: Des vidéos truquées (deepfakes) auraient usurpé l'identité de l'optométriste Joseph Allen pour promouvoir des gouttes ophtalmiques contre la myopie sur TikTok.

Traduit par IA
“Une optométriste riposte après une escroquerie par deepfake.”
visionmonday.com2026-04-18

Joseph Allen, optométriste, est bien connu des conférences, des réseaux sociaux et de sa chaîne YouTube, Dr. Eye Health, où il informe ses abonnés sur divers sujets liés à la santé oculaire. Cependant, sa notoriété a eu un revers lorsqu'il a découvert sur les réseaux sociaux des vidéos le représentant de façon fictive, diffusant de fausses informations et vendant des produits contrefaits. Le Dr Allen a été victime d'une escroquerie par deepfake (ou deepfake généré par l'IA) (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).

Les deepfakes et les vidéos de mauvaise qualité, générés par l'IA, ciblent de plus en plus les médecins. Ces vidéos usurpent leur identité afin de créer du contenu facile à produire, piloté par des algorithmes, et susceptible de diffuser de dangereuses informations erronées sur la santé. Les deepfakes sont des contenus manipulés ou fabriqués par l'IA qui usurpent l'identité d'une personne réelle dans le but de diffuser des informations malveillantes ou mensongères.

Les vidéos truquées par l'IA sont des contenus vidéo produits à grande échelle par l'IA qui exploitent les algorithmes d'engagement des réseaux sociaux et inondent des plateformes comme YouTube, TikTok ou Instagram, éclipsant ainsi les créateurs de contenu originaux. Le Dr Allen a constaté : « Dans certaines de ces vidéos, on vous incite à ne pas consulter votre ophtalmologiste et on prétend que toute notre profession est une arnaque. »

Avec l'aide d'un avocat, le Dr Allen a contesté les deepfakes ciblant sa chaîne. Il lui a fallu un mois pour accéder à TikTok, où il a découvert la supercherie, puis trois semaines supplémentaires pour prouver qu'il était bien le « Dr. Eye Health ». Un compte a été supprimé, mais en deux ou trois heures, les escrocs en ont créé un nouveau et ont republié tout le contenu précédent. Dans le cas du Dr Allen, le produit vendu dans cette arnaque était un collyre censé guérir la myopie. Les gouttes ont été retracées jusqu'à une entreprise chinoise vendant des millions de dollars de produits sur Amazon. Leur composition reste inconnue.

Le Dr Allen recommande de rechercher des signes révélateurs de vidéos générées par IA, en gardant à l'esprit qu'avec les progrès de l'IA, ces signes peuvent devenir plus subtils, voire disparaître. Examinez attentivement le contenu vidéo à la recherche de montages étranges : les lèvres du sujet sont-elles synchronisées avec la voix et l'audio ? Cligne-t-il des yeux de façon excessive ou insuffisante ? Si le produit semble trop beau pour être vrai, il l'est probablement. Soyez vigilant et faites preuve de prudence face à ce type de contenu.

L'image paraît-elle naturelle ? Les deepfakes ont encore du mal à reproduire un éclairage naturel et peuvent donner une impression artificielle au sujet en raison d'un décalage entre les conditions d'éclairage ou les reflets. D'autres indices sont disponibles auprès des chercheurs du MIT (https://www.media.mit.edu/projects/detect-fakes/overview/), notamment des informations sur les yeux et les sourcils, le clignement des yeux et les reflets sur les lunettes. À mesure que l'IA brouille les frontières entre réalité et fiction, la responsabilité incombe à la pensée critique individuelle concernant le contenu médiatique.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    781
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    885
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    3012
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2026 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 01af10e