Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Femme coupable de canular de viol sur ChatGPT

Incident 1479: Une image générée par ChatGPT représentant un « sans-abri » inexistant a été utilisée dans de fausses plaintes pour cambriolage et agression sexuelle à St. Petersburg, en Floride.

Traduit par IA
“Femme coupable de canular de viol sur ChatGPT”Dernier rapport
thesmokinggun.com2026-05-06

2 DÉCEMBRE – Une Floridienne qui a remis à la police une photo générée par intelligence artificielle d'un sans-abri qui l'aurait agressée sexuellement a été reconnue coupable de fausse déclaration, une supercherie ! [http://thesmokinggun.com/sites/default/files/assets/manoncouchchatgpt25.jpg] motivée par un « défi TikTok » et son besoin d'attention, selon les documents judiciaires.

Brooke Schinault, 32 ans, a plaidé non coupable hier et a été reconnue coupable de ce délit. Elle a été condamnée à une amende et placée sous probation.

En octobre, Schinault a appelé le 911 pour signaler qu'un homme s'était introduit de force dans son appartement de St. Petersburg et avait commis une agression sexuelle pendant que son bébé dormait dans une autre pièce.

Schinault a affirmé avoir pris une photo (visible à droite) de l'homme assis sur son canapé. La police a fourni la photo à TSG suite à une demande d'accès aux documents administratifs.

Le cambriolage et l'agression signalés ont mobilisé sept agents, un inspecteur, six secouristes et un technicien de la police scientifique chargé de prélever des échantillons d'ADN.

Le récit de Schinault s'est effondré lorsque l'inspecteur Dagni Closser a examiné la photo du suspect présumé : un homme blanc d'une trentaine d'années, portant un sweat à capuche. « Comme je connais bien les réseaux sociaux et leurs tendances, j'ai reconnu cet homme comme participant à un défi viral sur TikTok », a déclaré Closser. Ce « défi du sans-abri virtuel », a-t-il précisé, consiste à télécharger une photo d'un domicile sur une application d'intelligence artificielle qui y insère ensuite la photo d'un sans-abri.

« La plupart des gens installent la personne suspectée sur leur canapé, prennent une capture d'écran et l'envoient à leurs proches pour leur faire croire qu'un inconnu est chez eux », a déclaré Closser, qui a indiqué avoir trouvé « plusieurs vidéos TikTok de ce défi » utilisant la même photo d'un sans-abri.

Interrogée par la police, Schinault a d'abord prétendu avoir seulement utilisé une intelligence artificielle pour améliorer la netteté d'une photo floue de son agresseur. Elle a finalement avoué, expliquant qu'elle souffrait de dépression, d'insomnie et qu'elle « cherchait à attirer l'attention ».

L'image truquée, a déclaré Schinault, a été créée à l'aide de « Google et ChatGPT ». Pour créer la photo, selon le rapport de police, « Brooke a tapé "un sans-abri" ».

Lire plus
Loading...
Une famille de Floride met en garde contre une arnaque à l'intelligence artificielle ciblant les propriétaires d'animaux disparus.

Incident 1478: Des escrocs auraient utilisé des images générées par intelligence artificielle d'Archer, un chien disparu, pour soutirer de l'argent à une famille de Deltona, en Floride, pour des frais vétérinaires frauduleux.

Traduit par IA
“Une famille de Floride met en garde contre une arnaque à l'intelligence artificielle ciblant les propriétaires d'animaux disparus.”
fox13news.com2026-05-06

DELTONA, Floride – Une famille de Floride témoigne pour mettre en garde les autres propriétaires d'animaux après avoir été victime d'une escroquerie orchestrée par des individus utilisant l'intelligence artificielle et faisant croire à la disparition de leur chien.

Bill Cosens raconte que le calvaire a commencé dimanche matin, peu après la fugue de son beagle croisé, Archer, dans son jardin. Après avoir publié un avis de recherche sur les réseaux sociaux, M. Cosens a reçu un appel d'une femme affirmant avoir retrouvé son chien.

Cette personne a expliqué à M. Cosens qu'Archer avait été percuté par une voiture et qu'il fallait débourser 2 800 $ pour une opération d'urgence. L'escroc a envoyé des photos montrant Archer sur une table d'opération, photos que M. Cosens avait publiées sur les réseaux sociaux. Ces photos étaient truquées et générées par une intelligence artificielle.

Photos générées par IA

Ce qu'ils disent :

« Quand on commence à réfléchir logiquement et à prendre du recul par rapport à nos émotions, on se rend vite compte qu'on se fait arnaquer », a déclaré Cosens. « Et là, on passe de la contrariété à la colère. »

Cosens a commencé à avoir des soupçons lorsqu'il a vérifié l'adresse de la clinique vétérinaire fournie par l'escroc et a découvert qu'il s'agissait de celle de la mairie voisine. Heureusement, il n'a rien envoyé.

Cosens a raconté qu'un voisin avait vu une femme faire monter Archer dans une voiture et partir. Le voisin a finalement réussi à retrouver la femme et à ramener le chien sain et sauf à Cosens.

Une tendance inquiétante :

Le bureau du shérif du comté de Volusia enquête actuellement sur l’incident. Ce cas rappelle un incident similaire survenu à Saint-Pétersbourg plus tôt cette année, où un autre propriétaire d’animal de compagnie a été victime d’une escroquerie quasi identique. Dans ce cas, la banque de la victime a signalé la transaction suspecte avant même que les fonds ne soient transférés.

Selon les experts, ces escrocs récupèrent souvent des photos sur les réseaux sociaux, notamment celles publiées dans la section « animaux perdus et trouvés », et utilisent des outils d’intelligence artificielle pour y ajouter de fausses blessures ou du matériel médical.

Cosens conseille à toute personne se trouvant dans une situation similaire de rester vigilante malgré la douleur causée par la perte de son animal.

« Le premier réflexe pour éviter de se faire arnaquer, selon moi, c'est de se méfier des arnaqueurs qui refusent de vous rencontrer et d'être payés en personne ; c'est une arnaque », a déclaré Cosens.

Source : Cet article s'appuie sur les témoignages de deux propriétaires d'animaux victimes d'arnaques cette année, ainsi que sur un reportage de Kailey Tracy de FOX 13.

Lire plus
Loading...
Le directeur du FBI, Kash Patel, a-t-il utilisé l'IA pour plagier les Beastie Boys ?

Incident 1480: Des extraits du clip « Sabotage » des Beastie Boys, prétendument recréés par une IA, seraient apparus dans une vidéo promotionnelle du FBI publiée par Kash Patel.

Traduit par IA
“Le directeur du FBI, Kash Patel, a-t-il utilisé l'IA pour plagier les Beastie Boys ?”
npr.org2026-05-06

Une vidéo promotionnelle du FBI, mise en ligne par le réalisateur Kash Patel, semble avoir utilisé l'intelligence artificielle pour générer de courts extraits quasi identiques à ceux du clip iconique de « Sabotage » des Beastie Boys (1994).

Patel a publié la vidéo lundi sur la plateforme X, dans un message évoquant les efforts du FBI pour lutter contre la « fraude massive ». Cette vidéo d'environ deux minutes utilise la version instrumentale de « Sabotage » et des images presque identiques à celles du clip original, entrecoupées de séquences qui semblent authentiques, montrant des agents du FBI en pleine enquête.

Mardi, elle avait déjà été visionnée près d'un demi-million de fois.

Une analyse de NPR révèle qu'au moins six extraits de la vidéo du FBI sont des reconstitutions image par image de plans du clip iconique de « Sabotage », réalisé par Spike Jonze. Les extraits vidéo présentaient des véhicules, des personnes et des bâtiments incroyablement similaires à la vidéo originale, à quelques détails près, probablement générés par une intelligence artificielle.

Par exemple, dans un plan où une voiture part en tête-à-queue, les grilles de certaines fenêtres sont clairement visibles dans la vidéo originale, mais absentes de la version du FBI. Un autre plan montre une personne munie d'un mégaphone sautant de toit en toit, avec des lignes téléphoniques en arrière-plan. Ces lignes et la saleté sur le bâtiment sont parfaitement alignées avec la vidéo de 1994, filmée il y a plus de 30 ans. Dans une image, une ligne téléphonique semble traverser la tête du personnage : un défaut fréquent dans les vidéos générées par IA.

Les représentants de Spike Jonze et des Beastie Boys n'ont pas répondu à la demande de commentaires de NPR. Le FBI n'a pas non plus répondu à la demande d'informations complémentaires de NPR concernant la vidéo et sa réalisation.

Des experts indépendants ayant examiné la vidéo pour NPR ont conclu que les extraits avaient probablement été générés par une IA.

« Il semble fort probable qu'il s'agisse d'une IA », a déclaré Kolina Koltai, chercheuse au sein du groupe d'enquêtes en ligne Bellingcat, à NPR par courriel. « On peut même observer certaines erreurs de l'IA. »

Par exemple, Koltai souligne la présence d'artefacts caractéristiques générés par l'IA sur la plaque d'immatriculation « No Fraud » de la voiture du FBI dans le plan d'ouverture.

Les séquences ont probablement été créées à partir de captures d'écran ou de courts extraits du clip original de « Sabotage », utilisés ensuite pour entraîner un modèle de conversion image-vidéo, a expliqué Hany Farid, professeur à l'Université de Californie à Berkeley, spécialiste de l'analyse d'images numériques, à NPR par courriel. Il est également possible que le modèle d'IA ait généré lui-même les séquences vidéo, le clip original figurant dans ses données d'entraînement, bien que Farid juge cette hypothèse moins probable.

Quoi qu'il en soit, Farid est convaincu de l'implication de l'IA : « Les similitudes sont difficiles à expliquer autrement », a-t-il écrit.

Durant le second mandat du président Trump, les membres de son administration se sont emparés avec enthousiasme de la musique populaire, des films et des mèmes pour diffuser leur message, malgré les protestations des artistes.

Le recours à l'intelligence artificielle est également devenu une tactique courante. En octobre dernier, le président Trump lui-même a notamment publié une vidéo générée par IA le montrant en train de déverser un liquide brunâtre sur des manifestants lors d'un rassemblement « No Kings », sur la musique « Danger Zone » de Kenny Loggins. Ce dernier a exigé le retrait de la vidéo (https://www.npr.org/2025/10/20/nx-s1-5580328/kenny-loggins-donald-trump-ai-video). Elle est toujours disponible sur le compte Truth Social de Trump.

En janvier, la Maison-Blanche a publié une image retouchée par intelligence artificielle d'une manifestante arrêtée par les autorités fédérales à Minneapolis, sans préciser que l'image avait été manipulée.

Patel, née à Long Island en 1980, était alors au collège ou au lycée lorsque les Beastie Boys ont sorti l'album « Sabotage ».

Lire plus
Loading...
Plus d'une douzaine d'arrestations injustifiées dues à la dépendance de la police envers la technologie de reconnaissance faciale

Incident 1476: La police du Maryland aurait utilisé la reconnaissance faciale comme preuve dans l'arrestation et la détention injustifiées de Kimberlee Williams.

Traduit par IA
“Plus d'une douzaine d'arrestations injustifiées dues à la dépendance de la police envers la technologie de reconnaissance faciale”
aclu.org2026-05-03

Une cliente de l'ACLU a passé six mois en prison parce que la police s'est appuyée sur la technologie de reconnaissance faciale pour l'identifier à tort comme suspecte. Elle est la quatorzième personne connue pour avoir été arrêtée à tort en raison des défaillances de cette technologie.

Lorsque la police a arrêté Kimberlee Williams, une grand-mère vivant en Oklahoma, en vertu d'un mandat d'arrêt émis par le Maryland, elle a été choquée. Elle n'avait jamais mis les pieds dans le Maryland de sa vie.

Mme Williams a appris par la suite que la police du Maryland s'était basée sur un résultat erroné de la technologie de reconnaissance faciale, la désignant à tort comme suspecte. Elle est la quatorzième personne aux États-Unis à rejoindre la liste croissante des personnes arrêtées à tort parce que la police a laissé une technologie de reconnaissance faciale défaillante entacher ses enquêtes.

L'utilisation de la technologie de reconnaissance faciale par la police est dangereuse, et les histoires de personnes arrêtées à tort en raison de résultats erronés de reconnaissance faciale continuent d'émerger. Aujourd'hui, l'ACLU et l'ACLU du Maryland ont adressé des lettres à trois services de police du Maryland au nom de Mme Williams. Cette dernière a été arrêtée et emprisonnée à tort pendant six mois, car la police du Maryland s'est appuyée sur un résultat erroné de reconnaissance faciale et a dissimulé le recours à cette technologie peu fiable au tribunal lors de sa demande de mandat d'arrêt.


Une femme arrêtée pour un crime qu'elle n'a pas commis


Le 23 juin 2021, Mme Williams accompagnait l'une de ses filles pour une livraison DoorDash à une base militaire locale à Lawton, dans l'Oklahoma. Lors d'un contrôle d'identité standard au point de contrôle d'entrée de la base, les agents de sécurité ont découvert des mandats d'arrêt en suspens au Maryland à l'encontre de Mme Williams et l'ont placée en détention.

Ces mandats d'arrêt visaient Mme Williams pour une série de retraits d'espèces frauduleux effectués au guichet dans le Maryland en décembre 2019 et janvier 2020. Un individu non identifié s'était introduit dans des agences bancaires SunTrust et Truist dans trois comtés différents, avait usurpé l'identité de titulaires de comptes et avait frauduleusement retiré des milliers de dollars de leurs comptes.

Mme Williams, cependant, se trouvait loin du Maryland à cette époque. Elle résidait en Oklahoma, où elle vivait avec deux de ses filles et leurs enfants. Pendant que des fraudes bancaires étaient commises dans le Maryland, Mme Williams était en Oklahoma avec sa famille pour célébrer Noël et l'anniversaire de sa fille.

Au siège de la banque, un enquêteur spécialisé dans les crimes financiers a obtenu des images du suspect grâce aux caméras de surveillance et les a envoyées à une liste de diffusion nationale regroupant policiers et enquêteurs privés, appelée Crimedex. Un membre de la liste a analysé l'image à l'aide d'un logiciel de reconnaissance faciale et a renvoyé le nom et la photo de Mme Williams comme correspondant au suspect.

Dans le premier comté, l'enquêteur bancaire a informé la police du comté de Montgomery que Mme Williams avait été identifiée « grâce à un logiciel de reconnaissance faciale », sans fournir davantage d'informations, notamment sur l'identité de la personne ayant effectué la recherche ou sur la méthode employée. Aux polices des deux autres comtés, l'enquêteur bancaire a été encore plus vague, se contentant d'indiquer que la suspecte avait été « reconnue » comme étant Mme Williams, « une suspecte dans » l'enquête précédente du comté de Montgomery.

Les enquêteurs n'ont fait aucune tentative pour vérifier si Mme Williams, résidente de l'Oklahoma, aurait pu se trouver à proximité du Maryland pendant la période concernée. Son alibi, notamment des publications sur les réseaux sociaux géolocalisées en Oklahoma, aurait démontré qu'elle ne pouvait pas être la bonne personne. Les enquêteurs ont également ignoré d'autres pistes évidentes : l'un des incidents impliquait un chèque frauduleux établi à un nom non associé aux comptes bancaires. Pourtant, aucune enquête n'a été menée sur ce nom. La police s'est uniquement appuyée sur la reconnaissance faciale et sur ses propres comparaisons visuelles entre les photos de la suspecte et de Mme Williams. Ils ont estimé que les deux femmes se ressemblaient.

Après son arrestation, Mme Williams a passé six mois en prison, d'abord en Oklahoma dans l'attente de son extradition, puis dans les comtés de Montgomery et de Prince George, dans le Maryland. Lorsque les dernières charges ont finalement été abandonnées, Mme Williams a été relâchée sans ménagement à la mi-décembre et a dû se débrouiller seule pour rentrer chez elle, à l'autre bout du pays. Sans téléphone ni argent, elle a réussi, grâce à la générosité d'inconnus, à emprunter un téléphone pour contacter sa famille et passer la nuit dans un hôtel voisin avant de pouvoir rentrer.

Cette épreuve a bouleversé sa vie et celle de sa famille, et elle tente encore de s'en remettre cinq ans plus tard. Elle a perdu son emploi à cause de son arrestation. Elle craint également d'attirer à nouveau l'attention des forces de l'ordre, même involontairement, pour un crime qu'elle n'a pas commis, ce qui lui causerait une nouvelle épreuve.


Arrestations injustifiées dues à l'utilisation accrue de la technologie de reconnaissance faciale


Ce qui est arrivé à Mme Williams est scandaleux et, malheureusement, une conséquence prévisible de l'utilisation de la technologie de reconnaissance faciale par la police. Au moins treize autres personnes sont connues pour avoir été arrêtées à tort par la police américaine en raison de résultats erronés de reconnaissance faciale :

  • Nijeer Parks, arrêté par la police à Woodbridge, dans le New Jersey (février 2019)

  • Michael Oliver, arrêté par la police à Detroit, dans le Michigan (juillet 2019)

  • Robert Williams, arrêté par la police de Détroit, Michigan (janvier 2020)

  • Christopher Gatlin, arrêté par la police de Saint-Louis, Missouri (août 2021)

  • Alonzo Sawyer, arrêté par la police des transports du Maryland (mars 2022)

  • [Randal Quran Reid, arrêté par la police de Géorgie en vertu d'un mandat d'arrêt émis dans la paroisse de Jefferson, en Louisiane (novembre 2022)

  • Porcha Woodruff, arrêtée par la police à Détroit, dans le Michigan (février 2023)

  • Jason Killinger, arrêté par la police à Reno, dans le Nevada (septembre 2023)

  • [Robert Dillion, arrêté en vertu d'un mandat d'arrêt délivré par la police de Jacksonville Beach, en Floride (août 2024)

  • Javier Lorenzano-Nunez, arrêté par la police de Phoenix, en Arizona (octobre 2024)

  • Trevis Williams, arrêté par la police de New York (avril 2025)

  • Angela Lipps, arrêtée par les US Marshals dans le Tennessee en vertu d'un mandat d'arrêt délivré par la police de Fargo, dans le Dakota du Nord (juillet 2025)

  • Beau Burgess, arrêté par la police à Orlando, en Floride (août 2025)

Lorsque l'ACLU a poursuivi Detroit En 2021, lors d'une action en justice intentée par l'ACLU au nom de Robert Williams (https://www.aclu.org/cases/williams-v-city-of-detroit-face-recognition-false-arrest), les partisans de l'utilisation de la reconnaissance faciale par la police ont qualifié son arrestation injustifiée d'erreur regrettable mais isolée, ne devant pas ébranler la confiance dans cette technologie. Pourtant, les arrestations injustifiées se sont multipliées. Il est désormais impossible d'ignorer les dangers que représente la reconnaissance faciale pour le maintien de l'ordre. En effet, la police laisse se reproduire les mêmes erreurs prévisibles.

La reconnaissance faciale produit souvent de fausses correspondances. L'un des dangers majeurs de ces systèmes réside dans le fait que, lorsqu'ils se trompent, des personnes innocentes ressemblant à un suspect sont souvent signalées. C'est précisément le but de la reconnaissance faciale : trouver des visages similaires dans une base de données, alors que la plupart, voire la totalité, de ces personnes ne correspondent pas. Lorsque la technologie de reconnaissance faciale génère de fausses correspondances avec des personnes ressemblant à des individus innocents, elle peut fausser l'enquête en induisant en erreur témoins et policiers, qui croient à tort avoir trouvé le suspect.

Dans plusieurs cas, des personnes ont été arrêtées à tort après que la police a présenté aux témoins, directement à partir des résultats de la reconnaissance faciale, des séances d'identification photographique. Face à des photos montrant une personne identifiée par la technologie de reconnaissance faciale, entourée de photos de personnes ressemblant moins au suspect, les témoins pensent, sans surprise, avoir trouvé le coupable. Cette manipulation des identifications a conduit à l'arrestation injustifiée d'au moins sept personnes.

Dans d'autres cas, y compris celui de Mme Williams, la seule confirmation obtenue par la police a été une comparaison visuelle de la photo du suspect avec le résultat de la reconnaissance faciale par un agent des forces de l'ordre, lui aussi influencé par la technologie et convaincu d'avoir trouvé une correspondance.

À maintes reprises, la police a négligé de mener des enquêtes fiables et a ignoré des raisons évidentes de remettre en question les pistes fournies par la reconnaissance faciale. Nombre de personnes arrêtées à tort présentaient des différences visibles avec le suspect sur la photo : Michael Oliver avait les bras entièrement tatoués, Porcha Woodruff était enceinte de huit mois et Trevis Williams mesurait 20 centimètres de plus et pesait 32 kilos de plus. Dans l'affaire ayant conduit à l'arrestation de Nijeer Parks, la police n'a pas attendu les résultats des analyses ADN et d'empreintes digitales qui auraient permis d'identifier une autre personne. Quant aux personnes arrêtées pour des crimes commis loin de leur domicile – notamment Kimberlee Williams, Randal Quran Reid, Robert Dillon et Angela Lipps –, la police ne semble pas avoir cherché à savoir si elles auraient pu se trouver dans la bonne ville ou le bon État au moment des faits.


Sans protection, la technologie de reconnaissance faciale continuera de fausser les enquêtes

Malgré les politiques des services de police et les mises en garde officielles indiquant que les résultats de la reconnaissance faciale ne constituent pas un motif suffisant pour une arrestation, la police continue de laisser cette technologie compromettre ses enquêtes. Les problèmes ne s'arrêtent pas là. De nombreuses études ont démontré que la technologie de reconnaissance faciale produit des taux de faux positifs plus élevés pour les personnes de couleur, les femmes, les jeunes et les personnes âgées. Sans surprise, la plupart des arrestations injustifiées connues dues à cette technologie concernent des personnes noires. Mais à mesure que de nouveaux témoignages émergent, notamment celui de Mme Williams et d'autres personnes blanches victimes d'arrestations injustifiées, nous constatons que personne n'est à l'abri des conséquences désastreuses de cette technologie.

Ces graves dangers exigent des solutions sérieuses. Plus de 20 villes et autres juridictions à travers le pays ont interdit à la police d'utiliser la technologie de reconnaissance faciale. À Détroit, suite à un accord historique conclu dans l'affaire de l'arrestation injustifiée de Robert Williams, le service de police n'est plus autorisé à demander des mandats d'arrêt sur la seule base d'une série de photos combinée à une piste fournie par la reconnaissance faciale. L'Indiana a intégré une protection similaire dans sa loi.

Mme Williams ne récupérera jamais les six mois passés en prison pour un crime qu'elle n'a manifestement pas commis. Dans nos lettres adressées aujourd'hui à la police du Maryland, nous demandons que les responsables rendent des comptes et que des changements politiques profonds soient apportés afin de minimiser les risques que cela se reproduise. Une seule arrestation injustifiée liée à cette technologie dangereuse est déjà scandaleuse. Plus d'une douzaine, et ce n'est pas fini, constituent une véritable mascarade que les législateurs et la police doivent combattre sans délai.

Lire plus
Loading...
Une IA malveillante a provoqué un grave incident de sécurité chez Meta.

Incident 1471: Un agent d'IA interne de Meta aurait donné des conseils qui auraient exposé des données sensibles à des employés non autorisés.

Traduit par IA
“Une IA malveillante a provoqué un grave incident de sécurité chez Meta.”
theverge.com2026-05-02

La semaine dernière, pendant près de deux heures, des employés de Meta ont eu un accès non autorisé aux données de l'entreprise et des utilisateurs. La cause ? Un agent d'IA qui a fourni à l'un d'eux des conseils techniques erronés, comme l'a précédemment rapporté The Information. Dans une déclaration à The Verge, Tracy Clayton, porte-parole de Meta, a affirmé qu'« aucune donnée utilisateur n'a été compromise » durant l'incident.

Un ingénieur de Meta utilisait un agent d'IA interne, que Mme Clayton a décrit comme « similaire à OpenClaw au sein d'un environnement de développement sécurisé », pour analyser une question technique posée par un autre employé sur un forum interne. Or, après analyse, l'agent a également répondu publiquement à la question, sans autorisation préalable. Cette réponse était uniquement destinée à l'employé qui l'avait demandée et ne devait pas être publiée.

Un employé a ensuite suivi les conseils de l'IA, qui a fourni des informations inexactes, provoquant un incident de sécurité de niveau SEV1, le deuxième niveau de gravité le plus élevé utilisé par Meta. Cet incident a temporairement permis à des employés d'accéder à des données sensibles auxquelles ils n'étaient pas autorisés à accéder, mais le problème a depuis été résolu.

Selon Clayton, l'agent d'IA impliqué n'a entrepris aucune action technique, se contentant de publier des conseils techniques erronés, ce qu'un humain aurait également pu faire. Un humain aurait cependant pu effectuer des tests supplémentaires et porter un jugement plus éclairé avant de partager l'information. De plus, on ignore si l'employé à l'origine de la réponse avait l'intention de la publier.

« L'employé qui interagissait avec le système était pleinement conscient de communiquer avec un robot automatisé. Cela était indiqué par une mention légale en bas de page et par sa propre réponse dans cette conversation », a commenté Clayton auprès de The Verge. L'agent s'est contenté de répondre à une question. Si l'ingénieur qui a traité cette demande avait été mieux informé ou avait effectué des vérifications supplémentaires, cet incident aurait pu être évité.

Le mois dernier, un agent d'IA de la plateforme open source OpenClaw a dérapé chez Meta lorsqu'une employée lui a demandé de trier ses e-mails. OpenClaw a supprimé des e-mails sans autorisation. Le principe même des agents comme OpenClaw repose sur leur capacité à agir de manière autonome, mais comme tout modèle d'IA, ils n'interprètent pas toujours correctement les requêtes et les instructions, ni ne fournissent des réponses exactes. Les employés de Meta l'ont constaté à deux reprises.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    793
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    899
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    3034
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2026 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5