Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Le responsable par intérim de la cybersécurité de Trump a téléchargé des fichiers sensibles dans une version publique de ChatGPT.

Incident 1360: Le directeur par intérim de la CISA aurait téléchargé des documents gouvernementaux sensibles sur une instance publique de ChatGPT.

Traduit par IA
“Le responsable par intérim de la cybersécurité de Trump a téléchargé des fichiers sensibles dans une version publique de ChatGPT.”Dernier rapport
politico.com2026-02-01

L'été dernier, la directrice par intérim de l'agence américaine de cyberdéfense a téléchargé des documents contractuels sensibles sur une version publique de ChatGPT, déclenchant de multiples alertes de sécurité automatisées destinées à empêcher le vol ou la divulgation accidentelle de documents gouvernementaux sur les réseaux fédéraux, selon quatre responsables du Département de la Sécurité intérieure (DHS) informés de l'incident.

Cette erreur apparente de Madhu Gottumukkala est d'autant plus remarquable que la directrice par intérim de la CISA (Agence de cybersécurité et de sécurité des infrastructures) avait sollicité une autorisation spéciale auprès du Bureau du directeur des systèmes d'information de la CISA pour utiliser cet outil d'intelligence artificielle peu après sa prise de fonction en mai dernier, ont indiqué trois des responsables. L'application était alors bloquée pour les autres employés du DHS.

Aucun des fichiers que Mme Gottumukkala a importés dans ChatGPT n'était classifié, selon les quatre responsables, qui ont requis l'anonymat par crainte de représailles. Cependant, ces documents comprenaient des contrats de la CISA portant la mention « usage officiel uniquement », une désignation gouvernementale pour les informations considérées comme sensibles et non destinées à la diffusion publique.

Les capteurs de cybersécurité de la CISA ont signalé ces téléchargements en août dernier, ont indiqué quatre responsables. L'un d'eux a précisé que plusieurs alertes de ce type avaient été enregistrées dès la première semaine d'août. Selon deux des quatre responsables, de hauts responsables du DHS ont ensuite mené une enquête interne afin d'évaluer si ces fuites avaient porté atteinte à la sécurité gouvernementale.

Les conclusions de cette enquête restent inconnues.

Dans un communiqué transmis par courriel, Marci McCarthy, directrice des affaires publiques de la CISA, a déclaré que Gottumukkala « avait été autorisé à utiliser ChatGPT sous le contrôle du DHS » et que « cette utilisation était temporaire et limitée ». Mme McCarthy a ajouté que l'agence s'engageait à « exploiter l'IA et d'autres technologies de pointe pour moderniser l'administration et mettre en œuvre » le décret présidentiel de Trump visant à lever les obstacles au leadership américain en matière d'IA.

Le courriel semblait également contredire la chronologie des événements rapportés par POLITICO : « La directrice par intérim, Madhu Gottumukkala, a utilisé ChatGPT pour la dernière fois mi-juillet 2025, dans le cadre d'une autorisation temporaire accordée à certains employés. La politique de sécurité de la CISA maintient le blocage de l'accès à ChatGPT par défaut, sauf dérogation. »

M. Gottumukkala est actuellement le plus haut responsable politique de la CISA, une agence chargée de protéger les réseaux fédéraux contre les pirates informatiques sophistiqués, soutenus par des États, provenant de pays hostiles, notamment la Russie et la Chine.

Tout contenu téléchargé sur la version publique de ChatGPT utilisée par M. Gottumukkala est partagé avec OpenAI, propriétaire de ChatGPT. Il peut donc être utilisé pour répondre aux questions d'autres utilisateurs de l'application. OpenAI indique que l'application compte plus de 700 millions d'utilisateurs actifs.

D'autres outils d'IA désormais autorisés pour les employés du DHS — comme le chatbot DHSChat, développé en interne par le DHS — sont configurés pour empêcher que les requêtes ou les documents qui y sont saisis ne quittent les réseaux fédéraux.

« Gottumukkala a forcé la main de la CISA pour obtenir ChatGPT, puis il en a abusé », a déclaré un premier responsable.

Tous les fonctionnaires fédéraux sont formés à la manipulation appropriée des documents sensibles. Conformément à la politique du DHS (https://www.dhs.gov/sites/default/files/publications/Management%20Directive%2011042.1%20Safeguarding%20Sensitive%20But%20Unclassified%20%28For%20Official%20Use%20Only%29%20Information_0.pdf), les responsables de la sécurité sont également tenus d'enquêter sur les causes et les conséquences de toute divulgation de documents à usage officiel, et de déterminer la pertinence de toute mesure administrative ou disciplinaire. Selon les circonstances, ces mesures peuvent aller d'une simple formation de recyclage obligatoire ou d'un avertissement formel à des sanctions plus sévères, telles que la suspension ou le retrait d'une habilitation de sécurité, a indiqué l'un des quatre responsables.

Après que le DHS a détecté l'activité suspecte, Gottumukkala s'est entretenu avec de hauts responsables du DHS afin d'examiner les documents qu'il avait téléchargés sur ChatGPT, ont précisé deux des quatre responsables. Selon un premier responsable, Joseph Mazzara, alors conseiller juridique par intérim du DHS, a participé à l'évaluation des risques potentiels pour le département. D'après un second responsable, Antoine McCord, directeur des systèmes d'information du DHS, y a également contribué.

En août dernier, Gottumukkala a rencontré Robert Costello, directeur des systèmes d'information de la CISA, et Spencer Fisher, son conseiller juridique principal, au sujet de l'incident et de la gestion appropriée des documents à usage interne, ont indiqué les quatre personnes.

Ni Mazzara ni Costello n'ont répondu aux demandes de commentaires. Il a été impossible de joindre Antoine McCord et Spencer Fisher.

Gottumukkala dirige l'agence par intérim depuis mai, date à laquelle il a été nommé directeur adjoint par la secrétaire du DHS, Kristi Noem. La nomination par Donald Trump de Sean Plankey, conseiller spécial du DHS, à la tête de la CISA, a été bloquée l'an dernier par le sénateur Rick Scott (R-Floride) en raison d'un contrat de construction navale avec les garde-côtes. Aucune date n'a encore été fixée pour sa nouvelle audition de confirmation.

Le mandat de Gottumukkala à la tête de l'agence a été tumultueux, et ce ne serait pas son premier incident lié à la sécurité.

Au moins six fonctionnaires de carrière ont été mis en congé cet été après l'échec de Gottumukkala à un test polygraphique de contre-espionnage qu'il avait insisté pour passer, comme l'a révélé POLITICO en premier lieu. Le DHS a qualifié ce test de « non autorisé ». Interrogé la semaine dernière devant le Congrès sur le point de savoir s'il était « au courant » de cet échec, Gottumukkala a déclaré à deux reprises au représentant Bennie Thompson (démocrate du Mississippi) qu'il ne « souscrivait pas à cette interprétation ».

Et la semaine dernière, Gottumukkala a tenté d'évincer Costello, le directeur informatique de la CISA, avant que d'autres personnes nommées à des postes politiques au sein de l'agence n'interviennent pour bloquer cette initiative.

Lire plus
Loading...
Un véhicule Waymo a percuté un enfant près d'une école primaire. La NHTSA mène l'enquête.

Incident 1361: Un véhicule autonome Waymo aurait percuté un enfant près d'une école primaire à Santa Monica, en Californie.

Traduit par IA
“Un véhicule Waymo a percuté un enfant près d'une école primaire. La NHTSA mène l'enquête.”
cnbc.com2026-02-01

Waymo, filiale d'Alphabet, a informé la NHTSA (National Highway Traffic Safety Administration) qu'un de ses véhicules autonomes a percuté un enfant près d'une école primaire à Santa Monica, en Californie.

L'incident, survenu le 23 janvier, fait actuellement l'objet d'une enquête de la part de l'autorité américaine chargée de la sécurité routière.

Selon les documents publiés sur le site web de la NHTSA, l'enfant a été légèrement blessé.

La collision avec le véhicule Waymo s'est produite à deux pas d'une école primaire, aux heures de pointe, alors que d'autres enfants, un agent de traversée et plusieurs véhicules stationnés en double file se trouvaient à proximité.

« L'enfant a traversé la rue en courant, derrière un SUV stationné en double file, en direction de l'école, et a été percuté par le véhicule autonome Waymo », a indiqué la NHTSA dans un document décrivant l'incident qui a nécessité son évaluation préliminaire.

Le véhicule était équipé du système de conduite automatisée de 5e génération de Waymo et ne disposait d'aucun superviseur humain à bord.

Le Bureau des enquêtes sur les défauts de la NHTSA prévoit d'évaluer si le véhicule autonome Waymo a fait preuve de la prudence requise, compte tenu notamment de sa proximité avec l'école primaire aux heures d'entrée et de sortie des classes, et de la présence de jeunes piétons et d'autres usagers vulnérables de la route.

L'enquête de l'agence portera sur l'analyse du comportement prévu des véhicules autonomes Waymo dans les zones scolaires et les environs, en particulier aux heures d'entrée et de sortie des classes, ainsi que sur la réaction de l'entreprise après l'impact.

« Notre technologie a immédiatement détecté la personne dès qu'elle a commencé à sortir de derrière le véhicule arrêté. Le conducteur Waymo a freiné brusquement, réduisant sa vitesse d'environ 27 km/h à moins de 10 km/h avant le contact », a déclaré Waymo dans un communiqué publié sur son blog.

L'entreprise a indiqué qu'un conducteur humain pleinement attentif, placé dans la même situation, aurait probablement percuté le piéton à une vitesse plus élevée, soit 22,5 km/h.

« Cette réduction significative de la vitesse et de la gravité de l'impact démontre l'avantage concret du Waymo Driver en matière de sécurité », a déclaré l'entreprise.

Après que le robotaxi a percuté l'enfant à faible vitesse, le piéton « s'est immédiatement relevé, a rejoint le trottoir et nous avons appelé les secours », a précisé Waymo. L'entreprise a également indiqué que son véhicule « est resté arrêté, s'est garé sur le bas-côté et y est resté jusqu'à ce que les forces de l'ordre l'autorisent à quitter les lieux ».

Waymo a été impliquée dans un autre incident le 25 janvier à Los Angeles, où l'un de ses véhicules Zeekr a circulé à vive allure dans une rue résidentielle à sens unique près du Dodger Stadium. Le véhicule a percuté plusieurs voitures en stationnement, dont une avec une personne à bord.

Aucun blessé n'a été signalé, a indiqué Waymo dans un courriel.

Au moment de l'incident, le véhicule était piloté manuellement par un opérateur. Waymo n'a pas répondu aux questions concernant la vitesse excessive du véhicule.

Waymo fait déjà l'objet d'un examen réglementaire concernant le comportement de ses robotaxis à proximité des autobus scolaires.

La semaine dernière, le Bureau national de la sécurité des transports (NTSB) a ouvert une enquête suite à des signalements de dépassements illégaux de robotaxis Waymo à l'arrêt à plusieurs endroits.

Dans un communiqué publié sur X le 23 janvier, le NTSB a déclaré avoir « ouvert une enquête de sécurité afin d'examiner l'interaction entre les véhicules Waymo et les autobus scolaires arrêtés pour la montée et la descente des élèves à Austin, au Texas ».

Le district scolaire indépendant d'Austin (Austin Independent School District) avait précédemment recensé au moins 19 incidents au cours desquels des véhicules Waymo ont dépassé ses autobus scolaires et a exigé que Waymo cesse d'utiliser ses véhicules autonomes pendant les heures de pointe des autobus scolaires à Austin, jusqu'à ce que les problèmes de sécurité soient résolus.

La NHTSA avait précédemment entamé une enquête sur les performances du système de conduite autonome (ADS) de Waymo à proximité d'autobus scolaires à l'arrêt et sur sa capacité à respecter le code de la route concernant les autobus scolaires, comme indiqué dans une lettre adressée à Waymo.

Bien que le NTSB et la NHTSA soient tous deux des organismes de surveillance de la sécurité des véhicules au sein du gouvernement américain, leurs rôles sont distincts. Le NTSB enquête sur les accidents afin d'en déterminer les causes profondes. Le conseil formule également des recommandations en matière de sécurité aux organismes de réglementation (dont la NHTSA) et à l'industrie automobile.

Lire plus
Loading...
L'application de reconnaissance faciale de l'ICE a mal identifié une femme. À deux reprises.

Incident 1353: L'application de reconnaissance faciale Mobile Fortify du service de l'immigration de l'Oregon (ICE) aurait mal identifié une femme à deux reprises lors d'un contrôle d'immigration dans l'Oregon.

Traduit par IA
“L'application de reconnaissance faciale de l'ICE a mal identifié une femme. À deux reprises.”
404media.co2026-01-31

Lorsque les autorités de l'Immigration and Customs Enforcement (ICE) ont utilisé l'application de reconnaissance faciale sur une femme détenue afin de déterminer son identité et son statut migratoire, l'application a renvoyé deux noms différents et erronés. Ceci soulève de sérieuses questions quant à la fiabilité de l'application utilisée par l'ICE pour déterminer les personnes devant être expulsées des États-Unis, selon le témoignage d'un responsable des douanes et de la protection des frontières (CBP) obtenu par 404 Media.

L'ICE a affirmé aux parlementaires que l'application, appelée Mobile Fortify, permet de déterminer « définitivement » le statut migratoire d'une personne et qu'elle devrait être plus fiable qu'un acte de naissance. Cet incident, survenu l'année dernière en Oregon, remet en cause cette affirmation.

« L’ICE a traité Mobile Fortify comme un système de récupération de données parfaitement fiable concernant le statut d’immigration de l’ensemble de la population américaine, ce qui est manifestement faux et techniquement impossible », a déclaré Cooper Quintin, chercheur en sécurité et expert en technologies d’intérêt public à l’Electronic Frontier Foundation, à 404 Media. « Il est révoltant que l’ICE utilise cette application défectueuse et cette atteinte inacceptable à la vie privée biométrique pour soi-disant déterminer si une personne est sans papiers et l’expulser, voire pire. »

L’incident concerne une femme de 45 ans, désignée sous les initiales MJMA dans les documents judiciaires. Elle a été interpellée avec plus de 30 autres personnes lors d’une descente à Woodburn, après que les autorités ont brisé la vitre côté conducteur d’une camionnette et l’ont extraite du véhicule. MJMA poursuit désormais l'ICE en justice et est représentée par des avocats du Innovation Law Lab.

Oregon Live a brièvement mentionné la reconnaissance faciale dans un article de décembre. 404 Media a obtenu l'intégralité du témoignage de l'agente des douanes et de la protection des frontières (CBP) et en a publié une copie ici.

L'agente, désignée par les initiales MK dans la transcription, a déclaré qu'elle tentait de déterminer le statut d'immigration de la femme. MJMA a refusé de répondre aux questions.

« Alors, pour [...] utiliser un autre outil à ma disposition afin de l'identifier, j'ai sorti mon téléphone portable professionnel. Il est équipé d'une application de reconnaissance faciale pour la CBP. J'ai pris une photo [...] j'ai essayé de photographier son visage, mais elle a baissé les yeux », a déclaré MK. Un autre passage de la transcription mentionne explicitement le système Mobile Fortify.

« Alors je me souviens lui avoir remis l'épaule en place. Elle s'est plainte parce que j'avais oublié qu'elle avait des menottes, [...] dans le dos. Elle a poussé un petit cri, comme si je lui avais fait très mal. Alors je me suis excusée. J'ai dit (en espagnol), ce qui veut dire "Je suis désolée" », a-t-elle poursuivi.

MK a expliqué avoir dit à la femme qu'elle devait la prendre en photo. « Je l'ai donc prise en photo, elle me regardait. Et puis, en consultant mon téléphone, j'ai vu un profil très [...] ressemblant à une personne. Je n'étais pas sûre que ce soit elle. »

Le premier nom proposé par l'application était Maria, selon son témoignage. « Ça correspondait à quelqu'un... Je me souviens avoir dit : "Maria ? C'est bien Maria ?" À ce moment-là, il y avait d'autres agents de l'ICE autour de moi. Ils répétaient "Maria, Maria" pour voir si elle répondait, car, encore une fois, elle refusait de nous parler, ce qui est son droit. »

Après que MJMA n'ait pas réagi, ni verbalement ni par une expression faciale anormale, l'agent des douanes et de la protection des frontières (CBP) a de nouveau scanné son visage. Cette fois, Mobile Fortify a donné un nom différent.

« J'ai alors essayé de la prendre en photo une nouvelle fois, et cette fois, l'appareil a identifié une autre personne. Je ne me souviens plus du nom, mais nous l'avons utilisé aussi : “Êtes-vous cette personne ?” Elle nous a regardés. Je me souviens de ses sourcils froncés, comme pour dire : “De qui parlez-vous ?” Elle nous a lancé ce regard », a témoigné MK.

MJMA n'a toujours pas répondu verbalement et a froncé les sourcils, selon le témoignage. « Alors on s'est dit : “Bon, je ne sais pas. C'est possible.” », a déclaré l'agent du CBP.

Stephen Manning, directeur exécutif d'Innovation Law Lab, a déclaré à 404 Media que les deux noms renvoyés par Mobile Fortify étaient incorrects.

« Le fait que l'application renvoie des noms différents pour une même personne démontre son manque de fiabilité et d'exactitude, et justifie son inutilisation sur le terrain », a déclaré le représentant Bennie G. Thompson, membre de la commission de la sécurité intérieure, à 404 Media.

Oregon Live a rapporté qu'après le transfert de MJMA dans un centre de détention de l'ICE à Tacoma, les autorités l'ont libérée le lendemain sans aucune condition. Elle a intenté une action en justice pour faire valoir ses droits constitutionnels, selon Innovation Law Lab. Dans son propre témoignage, MJMA a déclaré qu'elle était titulaire d'un visa B-2, un visa de tourisme, et qu'elle était entrée aux États-Unis avec ce visa en janvier dernier. Manning a indiqué que MJMA demandait l'asile.

« Mon travail consiste à conseiller les gens en matière de sécurité numérique, et je ne peux donner aucun conseil sur ce sujet, car on ne peut pas changer son visage. Si vous ne vous soumettez pas à leurs exigences, l'ICE a prouvé qu'elle était prête à vous abattre », a ajouté Quintin.

404 Media a révélé l'existence de Mobile Fortify en juin, en se basant sur des courriels de l'ICE ayant fuité. Depuis, 404 Media a obtenu un guide d'utilisation de l'outil, expliquant les bases de données et les images utilisées. ont montré que les agents de l'ICE et du CBP utilisent l'application dans tout le pays; et ont découvert que le Département de la Sécurité intérieure (DHS) a lancé une version de l'application pour les forces de l'ordre locales appelée Mobile Identify. Cette application a été retirée du Google Play Store en décembre.

Selon les documents divulgués, Mobile Fortify utilise les systèmes du CBP (Customs and Border Protection) habituellement employés pour vérifier l'identité des voyageurs entrant aux États-Unis. L'application a détourné cette capacité à des fins malveillantes, en l'utilisant dans les rues américaines. En partenariat avec Reveal, 404 Media a révélé que l'application a été utilisée contre des citoyens américains.

404 Media avait précédemment obtenu, en vertu de la loi sur la liberté d'information (Freedom of Information Act), un document interne du Département de la Sécurité intérieure (DHS) montrant que l'ICE n'autorise pas les citoyens à refuser d'être scannés par l'application Mobile Fortify.

La semaine dernière, un groupe de parlementaires démocrates a présenté une proposition de loi, rédigée par le représentant Thompson, visant à encadrer l'utilisation de Mobile Fortify. Ce texte législatif interdirait la version de l'application destinée aux forces de l'ordre locales, limiterait son utilisation aux points d'entrée aux États-Unis et obligerait le DHS à supprimer les images des citoyens américains après 12 heures.

Le représentant Thompson avait précédemment déclaré à 404 Media : « Les responsables de l’ICE nous ont indiqué qu’une correspondance biométrique apparente via Mobile Fortify constitue une détermination “définitive” du statut d’une personne et qu’un agent de l’ICE peut ignorer les preuves de citoyenneté américaine – y compris un acte de naissance – si l’application indique que la personne est étrangère. »

L’imprécision des systèmes de reconnaissance faciale est depuis longtemps une préoccupation majeure, et des erreurs ont conduit à la détention ou à l’inculpation de personnes innocentes. Lorsque les outils de reconnaissance faciale commettent des erreurs, c'est souvent au détriment des personnes de couleur.

« Depuis plus de dix ans, les chercheurs démontrent que la reconnaissance faciale est une technologie imparfaite, particulièrement inefficace sur les femmes de couleur. L'utiliser pour déterminer le statut d'une personne expose à des erreurs d'identification et à des faux positifs », a déclaré Chris Gilliard, chercheur spécialisé dans la protection de la vie privée, à 404 Media. « L'utilisation délibérée d'une technologie aussi sujette à l'erreur suggère que l'apparence d'un processus prime sur sa précision ou son équité. »

« C'est le prolongement logique d'une tendance qui promeut la reconnaissance faciale à des fins apparemment anodines, comme les commandes au volant dans les fast-foods ou le déverrouillage des téléphones », a-t-il ajouté.

Le CBP a accusé réception d'une demande de commentaire, mais n'a pas répondu avant la publication.

Dans un autre témoignage, cette fois-ci celui d'un agent d'immigration de l'ICE désigné par les initiales DR dans les documents judiciaires, le juge a demandé : « Quel est le taux d'identification par le système Mobile Fortify ? »

DR a répondu : « Je […] je ne peux pas me prononcer sur ce chiffre. »

Lire plus
Loading...
La Maison Blanche publie une photo modifiée montrant un manifestant arrêté dans le Minnesota en train de pleurer.

Incident 1357: La Maison Blanche aurait partagé une photo d'arrestation prétendument modifiée par une IA montrant la manifestante du Minnesota Nekima Levy Armstrong en train de pleurer.

Traduit par IA
“La Maison Blanche publie une photo modifiée montrant un manifestant arrêté dans le Minnesota en train de pleurer.”
nytimes.com2026-01-31

La Maison Blanche a publié une image retouchée montrant une manifestante ayant interrompu un office religieux dans le Minnesota le week-end dernier, en larmes lors de son arrestation jeudi. Une version précédente de cette image, également publiée par un compte officiel du gouvernement, la montrait regardant droit devant elle avec calme.

Interrogée au sujet de cette publication, la Maison Blanche a renvoyé à un message publié sur X par Kaelan Dorr, directrice adjointe de la communication, qui écrivait : « L’application de la loi se poursuivra. Les mèmes continueront de circuler. »

Le ministère de la Justice a annoncé jeudi matin l'arrestation de Nekima Levy Armstrong, avocate et manifestante, accusée d'avoir participé à l'interruption d'un office religieux à Saint Paul (Minnesota) dimanche. Les manifestants s'étaient rassemblés dimanche pour protester contre les liens présumés d'un pasteur avec les services de l'immigration et des douanes (ICE).

Moins d'une heure après que la procureure générale Pam Bondi a annoncé l'arrestation sur X jeudi, la secrétaire à la Sécurité intérieure Kristi Noem a publié une photo de l'arrestation sur la même plateforme. Sur cette photo, Mme Levy Armstrong apparaît calme, marchant devant un agent des forces de l'ordre dont le visage est flouté. Karoline Leavitt, attachée de presse de la Maison Blanche, a partagé la publication de Mme Noem.

Environ une demi-heure après l'envoi du message de Mme Noem, la Maison Blanche a publié sa propre version de l'image de l'arrestation, sur laquelle Mme Levy Armstrong semble sangloter. Son teint paraît avoir été assombri. L'agent qui procède à l'arrestation sur l'image de Mme Noem est exactement dans la même position.

Le New York Times a comparé l'image utilisée par Mme Noem à celle publiée par la Maison Blanche grâce à Resemble.AI, un système de détection par intelligence artificielle. Ce dernier a conclu que l'image de Mme Noem était authentique, mais que la version de la Maison Blanche présentait des signes de manipulation sur le visage de Mme Levy Armstrong. Le Times a pu créer des images quasi identiques à celle de la Maison Blanche en interrogeant Gemini et Grok, des intelligences génératives. Des outils de Google et de la start-up xAI d'Elon Musk ont été utilisés pour modifier l'image originale de Mme Noem.

Le président Trump et son entourage sont de fervents diffuseurs de contenu généré par l'IA, ayant partagé des dizaines d'images de synthèse ces dernières années. Souvent, ces visuels sont manifestement artificiels, comme en témoignent des publications de l'année dernière montrant M. Trump en roi et en pilote de chasse larguant des excréments sur des manifestants.

Cette photographie retouchée pourrait entraver les poursuites engagées par le ministère de la Justice contre Mme Levy Armstrong.

Au fil de la procédure, ses avocats pourraient s'en servir pour accuser l'administration Trump de déclarations extrajudiciaires inappropriées. La plupart des tribunaux fédéraux interdisent aux procureurs de faire des remarques sur des documents judiciaires ou une procédure en cours en dehors du tribunal, de manière à influencer le jury qui pourrait être amené à juger l'affaire.

Les avocats de Mme Levy Armstrong pourraient également affirmer que la photo prouve que le ministère de la Justice nourrissait une forme d'animosité à son égard et a porté les accusations par vengeance. Une telle requête pourrait, en théorie, aboutir à l'abandon des poursuites.

Lire plus
Loading...
De fausses informations et des images modifiées déforment la perception de la fusillade du Minnesota.

Incident 1358: Des images prétendument modifiées par l'IA auraient faussé les preuves après la fusillade de Minneapolis contre l'infirmier Alex Pretti, en soins intensifs.

Traduit par IA
“De fausses informations et des images modifiées déforment la perception de la fusillade du Minnesota.”
nytimes.com2026-01-31

Sur les réseaux sociaux, des influenceurs pro-Trump et d'autres personnes ont brouillé les preuves du meurtre d'un infirmier à Minneapolis samedi dernier, en publiant des messages contenant des informations trompeuses et des faits inventés.

Alors que des vidéos vérifiées et des témoignages ont montré comment des agents fédéraux de l'immigration ont interpellé et abattu Alex Pretti, 37 ans, ces publications ont tenté de déformer les événements, notamment pour étayer les affirmations de l'administration Trump selon lesquelles M. Pretti était responsable de sa propre mort. Certaines publications l'ont diffamé ou présenté comme un militant radical.

Nick Sortor, influenceur pro-Trump suivi par 1,4 million de personnes sur X, a identifié à tort M. Pretti, citoyen américain, comme un immigré sans papiers. Jack Posobiec, fidèle partisan de Trump suivi par 3,3 millions de personnes sur X, a faussement affirmé que M. Pretti avait « foncé sur la police » et sorti une arme – des allégations que d'autres utilisateurs de X ont rectifiées dans une note. Des photos de différents hommes – travestis ou torse nu lors d'un festival de rue – ont été identifiées à tort comme étant celles de M. Pretti et largement diffusées.

Ni M. Posobiec, ni M. Sortor, ni la Maison Blanche n'ont immédiatement répondu aux demandes de commentaires.

La scène chaotique a été filmée sous plusieurs angles, mais la qualité médiocre de la vidéo a alimenté le débat en ligne, où elle a été rapidement interprétée et analysée.

Des images authentifiées montrent M. Pretti, sans casier judiciaire connu et titulaire d'un permis de port d'arme dissimulée, s'interposant entre une femme aspergée de gaz poivre par un agent avant d'être lui-même maîtrisé. Un agent a désarmé M. Pretti, qui n'avait pas sorti son pistolet, puis un autre lui a tiré plusieurs fois dans le dos. Des témoins ont corroboré les détails des vidéos.

La vague de réactions en ligne a fait écho aux discours politiques plus généraux qui ont émergé après la fusillade. De hauts responsables de l'administration Trump ont formulé à plusieurs reprises des accusations non fondées de terrorisme intérieur contre M. Pretti, qui était immobilisé et désarmé lorsque les agents ont ouvert le feu.

Certains médias conservateurs ont contesté la version des faits présentée par l'administration Trump. En réponse à l'affirmation de cette dernière selon laquelle M. Pretti aurait voulu « massacrer » les forces de l'ordre, Tim Pool, un podcasteur de droite, a écrit sur X que M. Pretti « n'avait clairement pas l'intention de massacrer les agents de l'ICE ».

Pourtant, de nombreux internautes ont relayé la version des faits présentée par l'administration Trump. D'autres ont publié des images de la scène manipulées de manière trompeuse par intelligence artificielle.

Par exemple, une image a été retouchée pour montrer M. Pretti pointant une arme sur un agent, alors qu'il tenait en réalité un téléphone. Une autre a été modifiée à l'aide de Gemini, l'outil d'intelligence artificielle de Google, censément pour l'améliorer et en révéler des détails importants. L'image modifiée comportait des erreurs flagrantes, notamment des modifications du visage de M. Pretti. Elle a également fait disparaître l'arme de la main de l'agent, alimentant ainsi le débat sur les réseaux sociaux.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    702
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    796
  • 🥈

    Anonymous

    232
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2995
  • 🥈

    Anonymous

    970
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc