Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Megan Thee Stallion remporte son procès en diffamation contre un blogueur

Incident 1297: Blogger Milagro Gramz Allegedly Promoted AI-Generated Pornographic Deepfake Targeting Megan Thee Stallion

“Megan Thee Stallion remporte son procès en diffamation contre un blogueur”Dernier rapport
nbcnews.com2025-12-12

MIAMI – Un jury fédéral a donné raison à Megan Thee Stallion lundi, reconnaissant qu'une blogueuse l'avait diffamée et harcelée, mais limitant les dommages et intérêts à moins de 100 000 dollars.

Le jury fédéral, composé de cinq hommes et quatre femmes, a statué en faveur de Megan, alias Megan Pete, dans sa plainte contre la blogueuse Milagro Gramz, de son vrai nom Milagro Cooper.

Le procès portait sur des contenus publiés par Cooper après que le musicien de R&B Tory Lanez ait tiré sur Megan il y a cinq ans.

Les jurés avaient initialement accordé 75 000 dollars à Megan, une somme ramenée à 59 000 dollars par la juge de district américaine Cecilia M. Altonaga dans sa décision finale rendue publique mardi.

« Nous sommes reconnaissants au jury pour son engagement à réaffirmer l'importance de la vérité, de la responsabilité et d'une expression responsable sur les réseaux sociaux », a déclaré l'avocate de la plaignante, Mari Henderson, dans un communiqué.

« Non seulement Milagro est tenue de verser des dommages et intérêts compensatoires et punitifs à Megan, mais la disposition légale floridienne relative au transfert des frais de justice l'obligera également à prendre en charge les frais juridiques de Megan concernant la plainte pour utilisation de deepfake. Ce verdict envoie un message clair : la diffusion de fausses informations dangereuses entraîne des conséquences importantes. »

L'artiste n'a pas répondu aux questions des journalistes à sa sortie du tribunal lundi.

Cooper ne semblait ni particulièrement satisfaite ni contrariée par le verdict du jury.

« Je ne suis pas ravie », a déclaré Cooper. « Bien sûr, on souhaite toujours que les choses se passent comme on le souhaite, mais comme je l'ai dit, je respecte le jury et sa décision. »

Son avocat, Jeremy McLymont, s'est dit soulagé que les jurés n'aient pas accordé des dommages et intérêts s'élevant à plusieurs millions de dollars.

« Nous respectons le verdict du jury. C'est toujours nécessaire, n'est-ce pas ? Que nous soyons d'accord ou non, nous le respectons », a-t-il déclaré.

« Au final, aucune des parties n'a pleinement triomphé. »

Megan a accusé Cooper d'être un porte-parole, une marionnette et une « marionnette rémunérée » de Lanez, qui lui a tiré dessus à Los Angeles le 15 juillet 2020.

Les jurés ont conclu que Cooper avait sciemment incité ses milliers d'abonnés sur X et Instagram à visionner une vidéo deepfake à caractère sexuel explicite de Megan qui circulait sur les réseaux sociaux](https://www.nbcnews.com/tech/tech-news/megan-thee-stallion-responds-sexually-explicit-deepfake-x-rcna156424).

« En résumé, le verdict du jury confirme le jugement en faveur de la plaignante concernant ses allégations d'infliction intentionnelle de détresse émotionnelle et de diffusion d'une représentation sexuelle altérée », a écrit le juge Altonaga.

« La plaignante a droit à 59 000 $ de dommages-intérêts, soit le montant des dommages-intérêts compensatoires et punitifs accordés par le jury pour ces deux chefs d'accusation. »

En 2020, après avoir quitté une soirée chez Kylie Jenner, Lanez a tiré sur Megan au pied.

Le 23 décembre 2022, un jury de Los Angeles a reconnu Lanez, de son vrai nom Daystar Peterson, coupable de trois chefs d'accusation : agression avec une arme à feu semi-automatique, port d'une arme à feu chargée et non enregistrée dans un véhicule, et usage d'une arme à feu par négligence grave.

Il a été condamné à une peine maximale de 10 ans de prison.

Megan a déclaré qu'elle souffrait de problèmes de santé mentale depuis la fusillade et le harcèlement de la part du blogueur.

Lire plus
Loading...
Une militante hongkongaise « terrifiée » après l’envoi d’images truquées à caractère sexuel à ses voisins britanniques

Incident 1301: Purported AI-Generated Sexual Deepfakes Allegedly Deployed in Transnational Harassment Campaign Targeting Hong Kong Exiles

“Une militante hongkongaise « terrifiée » après l’envoi d’images truquées à caractère sexuel à ses voisins britanniques”
hongkongfp.com2025-12-12

Une militante hongkongaise exilée au Royaume-Uni s'est dite jeudi « choquée et terrifiée » après avoir découvert que ses voisins avaient reçu des lettres contenant des images à caractère sexuel la représentant, générées par intelligence artificielle.

Carmen Lau, 30 ans, militante pro-démocratie et ancienne conseillère municipale à Hong Kong, estime que ces lettres, qui font l'objet d'une enquête policière, constituent la dernière tentative de la Chine pour l'intimider.

Comme plusieurs autres réfugiés hongkongais de premier plan au Royaume-Uni, Mme Lau a appris en début d'année que ses voisins avaient reçu des lettres les incitant à la dénoncer à l'ambassade de Chine, avec des récompenses s'élevant à plusieurs dizaines de milliers de livres sterling.

Le 11 novembre, Joshua Reynolds, son député de Maidenhead, une ville située à l'ouest de Londres, l'a informée avoir été averti par des habitants que « de nouvelles lettres avaient été déposées devant leurs portes », a déclaré Mme Lau à l'AFP.

Les enveloppes portaient un timbre de la région chinoise de Macao, a-t-elle précisé.

L'AFP n'a pas pu consulter de copie des lettres.

« Il y a cinq photos de moi, où l'on me voit nue ou en sous-vêtements, et où l'on laisse entendre que je suis une travailleuse du sexe », a déclaré Lau.

Les lettres contenaient également des informations personnelles comme son nom, sa taille, son poids et un message qui ressemblait à une annonce pour une travailleuse du sexe, « une sorte d'invitation à venir chez moi », a-t-elle expliqué.

« J'étais choquée et terrifiée, mais aussi très en colère », a-t-elle confié lors de l'entretien téléphonique.

« Même maintenant, j'hésite à aller en ville, car Maidenhead est une toute petite ville, et je n'ai aucune idée de l'ampleur de la diffusion de ces photos, ni de ce que les gens ont pu penser. »

Elle a depuis quitté son logement, comme après avoir reçu les premières lettres, mais elle a confié que le « fardeau psychologique » était le pire.

Elle a déclaré qu'il s'agissait d'une « guerre psychologique pour nous empêcher de continuer notre activité ».

En décembre 2024, la police de Hong Kong a offert une prime d'un million de dollars hongkongais (environ 130 000 dollars américains) pour toute information menant à l'arrestation de Lau et de cinq autres militants basés à l'étranger et accusés d'atteintes à la sécurité nationale.

« Communications malveillantes »


La dissidence politique à Hong Kong est réprimée depuis l'imposition par Pékin d'une loi draconienne sur la sécurité nationale en 2020.

Reynolds, qui a confirmé les dires de Lau, a déclaré que les efforts de Pékin pour intimider et menacer les Hongkongais comme elle sont « absolument grotesques ».

« Le gouvernement ne peut pas fermer les yeux sur la sécurité des Hongkongais dans notre pays », a-t-il déclaré à l'AFP.

« Il faut prendre des mesures décisives pour montrer que nous ne tolérerons pas la campagne de répression internationale menée par Pékin. »

Un porte-parole de l'ambassade de Chine au Royaume-Uni a rejeté ces allégations.

« Nous avons pris connaissance du rapport », a déclaré le porte-parole. « Cette histoire paraît étrange », a-t-il ajouté, précisant qu'il ne s'agissait que du récit de Lau.

Un porte-parole de la police de la vallée de la Tamise a indiqué que les agents enquêtaient sur des signalements d'« infraction de communication malveillante » impliquant des « images retouchées numériquement ».

Un porte-parole du gouvernement britannique a déclaré : « La sécurité des Hongkongais au Royaume-Uni est primordiale. »

« Nous encourageons toute personne ayant des inquiétudes à les signaler à la police. »

Lire plus
Loading...
Ne vous laissez pas tromper par la photo montrant Trump utilisant un déambulateur.

Incident 1302: Reported Viral AI-Generated Photo Purportedly Shows Donald Trump Using a Walker

“Ne vous laissez pas tromper par la photo montrant Trump utilisant un déambulateur.”
snopes.com2025-12-12

Allégation :

Une image publiée en ligne mi-décembre 2025 montrait authentiquement le président américain Donald Trump utilisant un déambulateur.

Évaluation :

Faux

Faux

Mi-décembre 2025, une image (archivée) a circulé en ligne, prétendant montrer le président américain Donald Trump utilisant un déambulateur.

Keith Edwards, stratège politique démocrate, a publié la photo sur X, avec le commentaire suivant : « URGENT : une image a fuité montrant Trump utilisant un déambulateur quelques instants après avoir signé un décret interdisant aux États de réglementer l’IA ».

Edwards a précédemment dirigé la communication du Lincoln Project. Le Lincoln Project (https://lincolnproject.us/), un groupe d'anciens républicains opposés au président.

L'image a principalement circulé sur X (https://x.com/LucasSa56947288/status/1999277453442003306) (archivé), mais est également apparue sur Facebook (https://www.facebook.com/lisa.baker.1460/posts/pfbid025HogpUHh9qmmmZvU9Yhk8Azj4f976RBTiNW59PyXd2WQhdKMGUneoUJDyKiM6DEJl) (archivé) et Threads (https://www.threads.com/@threads_nyt_pitchbot/post/DSJR4oajXye) (archivé). et Bluesky (archivé). De même, de nombreux lecteurs de Snopes nous ont contactés pour savoir si l'image était authentique.

En résumé, Snopes n'a trouvé aucune preuve que l'image de Trump utilisant un déambulateur soit authentique. Elle a été créée à l'aide d'un logiciel d'intelligence artificielle ; par conséquent, nous l'avons classée comme fausse.

Des utilisateurs des réseaux sociaux ont publié (https://gemini.google.com/share/3c354848d08b) et échangé (https://gemini.google.com/share/4fa7f0bb86a1) (archivé, archivé) avec l'assistant IA de Google, Gemini, qui semblait indiquer que l'image contenait un (https://deepmind.google/blog/identifying-ai-generated-images-with-synthid/), un filigrane numérique développé par Google qui s'intègre directement dans les pixels d'une image, la rendant imperceptible à l'œil nu mais détectable par les outils de Google.

Gemini a confirmé avoir détecté SynthID dans l'image de Trump et du déambulateur lorsque Snopes a répété le processus. Le message de Gemini indique : « D'après la détection, il semble que la majeure partie, voire la totalité, de cette image ait été modifiée ou générée par l'IA de Google. »

(Google Gemini)

Une autre fausse image circulant en ligne montre Trump utilisant un déambulateur doré. inclus [Gemini](https://www.google.com/search?q=gemini+logo&sca_esv=f0158aba78c19323&rlz=1C5CHFA_enGB1138GB1138&udm=2&biw=1920&bih=845& ei=7jo8acj_AvSPhbIPidfY2QM&ved=0ahUKEwjIrsvRtLiRAxX0R0EAHYkrNjsQ4dUDCBI&uact=5&oq=gemini+logo&gs_lp=Egtnd3Mtd2l6LWltZyILZ2VtaW5pIGxvZ28yCxA Un filigrane (AGIAEGLEDGIMBMgUQABiABDIFEAAYgAQyBRAAGIAEMgUQABiABDIFEAAYgAQyBRAAGIAEMgUQABiABDIFEAAYgAQyBRAAGIAESIYMUKsIWNYKcAJ4AJABAJgBO6AB5AGqAQE0uAEDyAEA-AEBmAIGoAKBAsICBhAAGAcYHsICChAAGIAEGEMYigXCAggQABiABBixA5gDAIgGAZIHATagB50UsgcBNLgH9wHCBwUwLjMuM8gHFYAIAA&sclient=gws-wiz-img) apparaît en filigrane dans le coin inférieur droit.

Snopes a contacté Edwards, qui semble avoir initialement partagé l'image, ainsi que la Maison Blanche pour obtenir des commentaires. Nous attendons leurs réponses.

Sightengine et Hive Moderation, deux autres outils en ligne de détection d'IA, ont tous deux conclu que l'image était très probablement générée par une IA.

(Illustration Sightengine/Hive Moderation/Snopes)

La recherche des termes « walker OR mobility OR aid, 'Donald Trump' » n'a rien donné. exemples](https://www.google.com/search?as_q=&as_epq=Donald+Trump&as_oq=walker+mobility+aid&as_eq=&as_nlo=&as_nhi=&lr=&cr=&as_qdr=all&as_sitesearch=&as_occt=any&as_filetype=&tbs=) (archivé) de médias d'information réputés rapportant l'image comme authentique au cours de la semaine dernière (Edwards a utilisé le mot « breaking », suggérant que la fausse photo était nouvelle). En réalité, de nombreux médias ont également démenti l'authenticité de la photo.

Cette allégation a circulé au moment où Trump signait un décret visant à instaurer une norme nationale minimalement contraignante pour réglementer l'intelligence artificielle. aux États-Unis. Le décret présidentiel [https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/#:~:text=First%2C%20State%2Dby%2DState%20regulation%20by%20definition%20creates%20a%20patchwork%20of%2050%20different%20regulatory%20regimes%20that%20makes%20compliance%20more%20challenging%2C%20particularly%20for%20start%2Dups.] Laisser les États légiférer individuellement sur l'IA, comme c'était le cas auparavant, a créé « un ensemble disparate de 50 régimes réglementaires différents qui rendent la conformité plus difficile, en particulier pour les start-ups ».

Certains utilisateurs des réseaux sociaux ont semblé interpréter la publication d'Edwards comme une plaisanterie (archives : https://x.com/LucBerkefeld/status/1999423788564496554?s=20 et https://x.com/TheDazzleNovak/status/1999342941538779576?s=20). Cependant, au moment de la rédaction de cet article, il n'avait pas encore répondu à la question de Snopes lui demandant si sa publication était satirique.

Pour en savoir plus, Snopes a déjà enquêté sur une photo montrant prétendument le président assis à côté de sa fille Ivanka Trump avec sa langue sortie et une vidéo de lui s'endormir pendant une réunion du cabinet de la Maison Blanche.

Lire plus
Loading...
L'USGS affirme que le rapport sur le séisme au Nevada était erroné, et incrimine une erreur du système automatique.

Incident 1303: USGS ShakeAlert System Reportedly Generated False Earthquake Alert Affecting Nevada and California

“L'USGS affirme que le rapport sur le séisme au Nevada était erroné, et incrimine une erreur du système automatique.”
reuters.com2025-12-12

L'Institut d'études géologiques des États-Unis (USGS) a annoncé jeudi que son système automatique de détection des séismes avait diffusé par erreur, plus tôt dans la journée, une alerte concernant un tremblement de terre de magnitude 5,9 au Nevada. L'USGS a précisé qu'il s'agissait probablement de la première fois qu'une alerte sismique de l'institut était totalement erronée.

Yaareb Altaweel, géophysicien au Centre national d'information sur les séismes de l'USGS à Golden, dans le Colorado, a indiqué que l'institut cherchait encore à comprendre pourquoi son système d'alerte précoce automatique ShakeAlert avait émis cette fausse alerte concernant un séisme dont l'épicentre se situait près de Dayton, au Nevada.

L'alerte a provoqué des vibrations sur les téléphones portables dans la région de la baie de San Francisco, à environ 290 kilomètres de là, avec un message d'avertissement enjoignant aux habitants de se mettre à l'abri : « À terre ! À couvert ! Accrochez-vous ! », selon un témoin de Reuters.

« À ma connaissance, nous n'avons jamais eu de fausse alerte de ce genre », a déclaré M. Altaweel. « Le système a diffusé des informations erronées sur la magnitude ou la profondeur du séisme, informations qui ont été immédiatement corrigées par le sismologue de garde. J'ai déjà vu cela se produire. »

Angie Lux, scientifique chargée de projet pour l'alerte précoce aux séismes au Laboratoire sismologique de Berkeley, a également déclaré qu'à sa connaissance, aucune fausse alerte concernant un séisme majeur ne s'était jamais produite auparavant.

Mme Lux ignorait la cause de cette fausse alerte et a indiqué qu'il faudrait du temps pour comprendre ce qui s'était passé.

Selon Mme Lux, la cause pourrait être des « déclencheurs sonores », c'est-à-dire des bruits localisés d'origine naturelle ou humaine, tels que des explosions, des travaux de construction, des activités industrielles, ou même des véhicules de grande taille comme un train ou un camion. Parmi les phénomènes naturels susceptibles de déclencher de telles alertes, on peut citer le vent et les vagues.

Plusieurs services de police des villes et comtés proches de l'épicentre signalé ont confirmé n'avoir ressenti aucune secousse ni aucun autre signe de séisme.

Un séisme de magnitude 5,9 est généralement suffisamment fort pour causer de légers dégâts matériels et des secousses prononcées, selon l'échelle de magnitude des séismes de Michigan Tech.

Lire plus
Loading...
Le ministère de l'Intérieur admet un problème technique de reconnaissance faciale concernant les personnes noires et asiatiques.

Incident 1305: UK Facial Recognition System Reportedly Exhibits Higher False Positive Rates for Black and Asian Subjects

“Le ministère de l'Intérieur admet un problème technique de reconnaissance faciale concernant les personnes noires et asiatiques.”
theguardian.com2025-12-08

Les ministres sont confrontés à des appels à un renforcement des garanties concernant l'utilisation de la technologie de reconnaissance faciale, après que le ministère de l'Intérieur a admis qu'elle était plus susceptible d'identifier incorrectement les personnes noires et asiatiques que les personnes blanches dans certains contextes.

Suite aux derniers tests menés par le Laboratoire national de physique (NPL) sur l'application de cette technologie au sein de la base de données nationale de la police, le ministère de l'Intérieur a déclaré qu'elle était « plus susceptible d'inclure incorrectement certains groupes démographiques dans ses résultats de recherche ».

Les commissaires de police et de la criminalité ont déclaré que la publication des conclusions du NPL « met en lumière un biais inhérent préoccupant » et ont appelé à la prudence quant aux projets d'extension à l'échelle nationale.

Ces conclusions ont été publiées jeudi, quelques heures après que Sarah Jones, la ministre de la Police, ait qualifié cette technologie de « plus grande avancée depuis la comparaison des données ADN ».

La technologie de reconnaissance faciale scanne les visages et compare ensuite les images aux listes de surveillance des criminels connus ou recherchés. Ce système peut être utilisé lors de l'analyse d'images en direct de personnes passant devant des caméras, afin de comparer leurs visages avec ceux des personnes recherchées, ou encore par les forces de l'ordre pour cibler des individus à proximité de caméras fixes.

Les images de suspects peuvent également être comparées a posteriori aux bases de données de la police, des passeports ou de l'immigration pour les identifier et vérifier leurs antécédents.

Des analystes ayant examiné l'outil de reconnaissance faciale rétrospective de la base de données nationale de la police, avec un niveau de sensibilité réduit, ont constaté que « le taux de faux positifs (TFP) pour les personnes blanches (0,04 %) est inférieur à celui des personnes asiatiques (4,0 %) et des personnes noires (5,5 %) ».

Les tests ont également révélé un nombre particulièrement élevé de faux positifs pour les femmes noires. « Le TFP pour les hommes noirs (0,4 %) est inférieur à celui des femmes noires (9,9 %) », indique le rapport.

L'Association des commissaires de police et de la criminalité a déclaré dans un communiqué que ces résultats mettaient en évidence un biais inhérent. Le communiqué indique : « Cela signifie que, dans certaines circonstances, le risque d'identifier incorrectement des personnes noires et asiatiques est plus élevé que celui d'identifier des personnes blanches. Le langage est technique, mais derrière les détails, il apparaît clairement que cette technologie a été déployée dans les opérations de police sans garanties suffisantes. »

Ce communiqué, signé par les responsables de l'APCC, Darryl Preston, Alison Lowe, John Tizard et Chris Nelson, s'interroge sur les raisons pour lesquelles ces conclusions n'ont pas été publiées plus tôt ni partagées avec les communautés noires et asiatiques.

Il précise : « Bien qu'aucun impact négatif n'ait été constaté dans un cas particulier, cela relève davantage de la chance que d'une intention délibérée. Les défaillances du système sont connues depuis un certain temps, mais elles n'ont été communiquées ni aux communautés concernées, ni aux principaux acteurs du secteur. »

Le gouvernement a annoncé une consultation publique de dix semaines, espérant qu'elle permettra une utilisation plus fréquente de cette technologie. Le public sera interrogé sur l'opportunité pour la police d'accéder à d'autres bases de données, notamment les images de passeports et de permis de conduire, afin de retrouver les criminels.

Les fonctionnaires collaborent avec la police à la mise en place d'un nouveau système national de reconnaissance faciale qui contiendra des millions d'images.

Charlie Whelton, chargé de mission et de campagnes au sein de l'association Liberty, a déclaré : « Les biais raciaux révélés par ces statistiques illustrent les conséquences néfastes et concrètes de l'utilisation de la reconnaissance faciale par la police sans garanties adéquates. Avec des milliers de recherches mensuelles effectuées grâce à cet algorithme discriminatoire, il est désormais crucial de répondre à de sérieuses questions quant au nombre de personnes de couleur identifiées à tort et aux conséquences que cela a engendrées.

Ce rapport confirme une fois de plus que cette technologie puissante et opaque ne peut être utilisée sans des garanties solides pour nous protéger tous, notamment une réelle transparence et un contrôle efficace. Le gouvernement doit suspendre le déploiement rapide de la technologie de reconnaissance faciale jusqu'à ce que ces garanties soient en place afin de protéger chacun d'entre nous et de donner la priorité à nos droits – une exigence du public, nous le savons. »

L'ancien ministre David Davis a exprimé son inquiétude après que des responsables de la police ont déclaré que ces caméras pourraient être installées dans les centres commerciaux, les stades et les gares pour traquer les criminels recherchés. Il a déclaré au Daily Mail : « Bienvenue dans la Grande-Bretagne sous surveillance généralisée. Il est clair que le gouvernement entend déployer cette technologie dystopique à travers le pays. Une mesure d'une telle ampleur ne devrait pas être prise sans un débat approfondi à la Chambre des communes. »

Les autorités affirment que cette technologie est nécessaire pour appréhender les criminels dangereux. Elles précisent que des procédures de sécurité, intégrées à la formation, aux pratiques opérationnelles et aux directives de la police, exigent que toutes les correspondances potentielles issues de la base de données nationale de la police soient évaluées visuellement par un utilisateur formé et un enquêteur.

Un porte-parole du ministère de l'Intérieur a déclaré : « Le ministère de l'Intérieur prend les conclusions du rapport au sérieux et nous avons déjà pris des mesures. » Un nouvel algorithme, exempt de biais statistiquement significatif, a été testé et acquis de manière indépendante. Il sera mis à l'essai début de l'année prochaine et fera l'objet d'une évaluation.

« Compte tenu de l'importance de cette question, nous avons également demandé à l'inspection générale de la police, en collaboration avec l'autorité de régulation des sciences forensiques, d'examiner l'utilisation de la reconnaissance faciale par les forces de l'ordre. Ils évalueront l'efficacité des mesures d'atténuation, soutenues par le Conseil national des chefs de police. »

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    661
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    752
  • 🥈

    Anonymous

    231
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2935
  • 🥈

    Anonymous

    968
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5440a2a