Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Extorsion par deepfakes par IA visant les enfants. Une mère reçoit un avertissement après que son fils a reçu des menaces allant jusqu'à 5 800 RM.

Incident 1241: Une vidéo générée par l'IA aurait été utilisée dans une tentative de sextorsion d'un montant de 5 800 RM (environ 1 400 $) visant un mineur malaisien via Telegram.

Traduit par IA
“Extorsion par deepfakes par IA visant les enfants. Une mère reçoit un avertissement après que son fils a reçu des menaces allant jusqu'à 5 800 RM.”Dernier rapport
newswav.com2025-10-19

Parents, soyez prudents et prenez soin de vos enfants ! Une nouvelle arnaque choquante cible les enfants, utilisant leurs propres photos et des vidéos générées par l'IA pour exiger de l'argent. Une nouvelle arnaque terrifiante se propage sur Facebook et cette fois, les victimes ne sont pas des adultes, mais des enfants innocents. Une famille locale a appris une leçon effrayante sur les arnaques modernes tard hier soir lorsque leur fils adolescent a reçu un message menaçant contenant sa photo et une vidéo explicite générée par l'IA. Les agresseurs ont exigé 5 800 RM et ont fait pression sur le garçon pour qu'il paie. Il s'agit d'une nouvelle et inquiétante évolution de l'extorsion en ligne, contre laquelle parents et jeunes doivent se protéger de toute urgence.

L'incident a commencé vers 23h40 lorsque le garçon a reçu un message sur l'application Telegram. L'expéditeur, sans numéro de téléphone, a immédiatement publié une photo de lui accompagnée d'une vidéo truquée. Effrayé mais serein, le garçon n'a pas paniqué ; il a plutôt contacté une personne de confiance de l'école, qui avait déjà aidé un autre élève victime d'une agression similaire.

« Il est resté calme et a demandé conseil », a déclaré la mère du garçon. Elle n'a appris l'incident que le lendemain matin. Elle s'est précipitée au commissariat pour porter plainte au plus vite.

Les policiers ont expliqué à la famille que ce type de stratagème devenait de plus en plus courant. Les escrocs utilisent tous des outils d'IA deepfake pour créer de fausses vidéos « hamsap » (explicites) semblant réelles, puis menacent leurs victimes, y compris les mineurs, de les exposer à moins qu'elles ne paient. Les policiers ont averti que des personnes de tout âge peuvent être ciblées et ont exhorté les familles à signaler immédiatement les incidents. Selon la mère, l'extorqueur a tenté à plusieurs reprises d'effrayer son fils. Les agresseurs ont exigé 5 800 RM et ont menacé de diffuser les images montées de toutes pièces si le garçon n'obtempérait pas. « Ils ont essayé de l'effrayer, mais nous sommes allés directement à la police », a-t-elle déclaré. Elle a également lancé un appel aux autres parents : ne laissez pas la peur vous forcer à payer.

Un avertissement et un appel à l'action

L'expérience de cette famille montre à quelle vitesse une technologie qui devrait nous être utile peut être instrumentalisée. Les escrocs sont de plus en plus audacieux et sophistiqués ; leurs cibles incluent désormais les enfants. Les parents et les tuteurs devraient avoir des conversations ouvertes avec leurs enfants sur la sécurité en ligne, notamment sur la conduite à tenir en cas de messages menaçants ou de fichiers suspects.

Si vous ou l'une de vos connaissances subissez un harcèlement similaire : documentez tout, ne payez pas et signalez-le à la police et à la plateforme. Le plus important est de ne pas y faire face seul. Prenez soin de votre famille et partagez l'article !

Lire plus
Loading...
Les actions de Xiaomi enregistrent leur plus forte baisse depuis avril après un accident mortel de véhicule électrique qui suscite des inquiétudes en matière de sécurité.

Incident 1232: L'accident mortel du Xiaomi SU7 Ultra à Chengdu serait dû à une panne de conduite automatisée et à un dysfonctionnement du verrouillage des portes.

Traduit par IA
“Les actions de Xiaomi enregistrent leur plus forte baisse depuis avril après un accident mortel de véhicule électrique qui suscite des inquiétudes en matière de sécurité.”
cnbc.com2025-10-18

Le géant chinois de la technologie Xiaomi a vu ses actions chuter de plus de 5 % lundi, suite à des informations selon lesquelles les portes d'un de ses véhicules électriques ne se seraient pas ouvertes après un violent accident en Chine qui a fait un mort.

L'action a chuté jusqu'à 8,7 % à Hong Kong, marquant sa plus forte baisse depuis avril, avant de réduire ses pertes après la diffusion sur les réseaux sociaux chinois d'images et de vidéos d'une berline Xiaomi SU7 en feu à Chengdu.

Une vidéo et des témoignages de passants ont montré des passants essayant, en vain, d'ouvrir les portes de la voiture en feu pour secourir un occupant. Les secours ont finalement utilisé un extincteur pour éteindre l'incendie, selon la presse locale.

La police de Chengdu a déclaré que l'accident s'était produit après la collision du SU7 avec une autre berline, tuant un conducteur de 31 ans soupçonné de conduite sous l'emprise de l'alcool.

Xiaomi, fabricant d'électronique grand public, de logiciels et de véhicules électriques, n'a pas immédiatement répondu à la demande de commentaires de CNBC.

Ce dernier incident fait suite à un accident mortel impliquant un SU7 plus tôt cette année, qui a soulevé des questions sur les fonctionnalités de conduite intelligente du véhicule et provoqué la chute des actions de Xiaomi.

L'accident pourrait également intensifier la surveillance des poignées de porte électroniques, un modèle popularisé par Tesla et désormais courant sur les véhicules électriques modernes.

Contrairement aux modèles mécaniques, les poignées de porte électroniques fonctionnent grâce à des capteurs et à l'électricité et peuvent tomber en panne en cas d'incendie ou de panne de courant.

La Chine envisage d'interdire ces poignées de porte électriques afin de répondre aux risques de sécurité liés à cette fonctionnalité, ont rapporté fin septembre des médias soutenus par l'État.

Par ailleurs, la National Highway Traffic Safety Administration (NHTSA) des États-Unis a lancé une enquête sur environ 174 000 Tesla Model Y suite à des signalements de défaillances de poignées de porte.

Lire plus
Loading...
Une publicité d'attaque du Parti républicain falsifie Chuck Schumer avec l'IA

Incident 1231: Une prétendue vidéo deepfake générée par l'IA montrerait le sénateur Chuck Schumer approuvant la fermeture du gouvernement dans une publicité de campagne du NRSC

Traduit par IA
“Une publicité d'attaque du Parti républicain falsifie Chuck Schumer avec l'IA”
npr.org2025-10-18

Une nouvelle publicité offensive des sénateurs républicains reprend les propos du sénateur Chuck Schumer concernant la paralysie du gouvernement, mais dans un deepfake IA du chef de la minorité démocrate au Sénat.

La vidéo de 30 secondes (https://x.com/NRSC/status/1979187237720924195), publiée vendredi sur X et YouTube par le Comité sénatorial national républicain, a suscité l'inquiétude de nombreux observateurs, qui ont averti qu'elle franchissait une nouvelle étape dans la politique et qu'elle pourrait déclencher une vague de deepfakes IA.

Légendée sur X « Semaine 3 de la paralysie du gouvernement Schumer : "Chaque jour est meilleur pour nous" », la vidéo montre une version générée par l'IA de Schumer répétant ces mots à plusieurs reprises en souriant. La vidéo se termine par un sourire de Schumer, tandis qu'un narrateur déclare : « La paralysie du gouvernement Schumer aggrave la situation aux États-Unis et les Démocrates adorent ça. »

« Chaque jour est meilleur pour nous », a déclaré Schumer au site politique Punchbowl News (https://punchbowl.news/archive/10925-am/) dans un article du 9 octobre sur le confinement. Il a poursuivi : « C’est parce que nous y avons réfléchi longtemps à l’avance et que nous savions que la santé serait au cœur des préoccupations le 30 septembre, et nous nous y étions préparés… Leur théorie était : nous menacer, nous embobiner, et nous nous soumettrions en un jour ou deux. »

Cependant, l’article original ne contenait que le texte de la déclaration de Schumer, sans vidéo ni audio.

Un communiqué de presse du NRSC annonçant la publicité la décrit comme une « visualisation » du commentaire de Schumer et indique qu'elle a été « créée en partie à l'aide d'un logiciel d'intelligence artificielle et comprend un avertissement relatif à l'IA ».

La fausse vidéo de Schumer comprend un petit filigrane transparent du logo du NRSC et les mots « GÉNÉRÉ PAR L'IA » dans le coin inférieur droit. Sur YouTube, la vidéo comporte une mention supplémentaire « Contenu modifié ou synthétique » étiquette indiquant que « Le son ou les images ont été considérablement modifiés ou générés numériquement ».

« Ce sont les propres mots de Chuck Schumer », a déclaré Joanna Rodriguez, directrice de la communication du NRSC, dans un courriel adressé à NPR. « Nous savons que Schumer aurait aimé que personne ne sache qu'il a dit cela, mais il l'a fait, et cette vidéo permet aux électeurs de voir et d'entendre à quel point il est fier de sa fermeture. »

Le bureau de Schumer n'a pas répondu à une demande de commentaire.

Même si la citation correspondait à des propos tenus par Schumer, l'utilisation de l'IA pour créer de fausses séquences vidéo est excessive, a déclaré Hany Farid, professeur à l'Université de Californie à Berkeley, qui étudie les médias manipulés.

« S'ils avaient voulu utiliser la citation, ils auraient pu afficher une image de Schumer et la superposer, comme cela se fait souvent. On ne peut raisonnablement prétendre que créer un deepfake du sénateur Schumer soit la même chose », a-t-il ajouté.

De plus, Farid a déclaré que l'avertissement figurant dans le coin inférieur droit de la vidéo « n'est pas particulièrement clair ni évident, surtout lorsque la plupart des utilisateurs consultent leurs publications sur les réseaux sociaux avec un esprit critique ».

La vidéo du NRSC a également été critiquée par des journalistes et d'autres commentateurs sur les réseaux sociaux, notamment des journalistes de publications de droite.

« L'article sur Schumer est une vidéo générée par l'IA – indiquée en bas à droite – mais nous sommes à l'aube d'un monde nouveau et terrifiant », a écrit Jon Levine, journaliste politique au Washington Free Beacon, sur X.

« Le NRSC a de plus en plus recours à l'IA pour ses publicités, mais c'est la première fois que je le vois aller jusqu'à l'utiliser pour une fausse vidéo d'un adversaire. C'est une pente glissante, même avec la petite indication d'IA dans le coin », a écrit Ramsey Touchberry, journaliste parlementaire au Washington Examiner, sur X.

Face aux critiques, Rodriguez, du NRSC, a écrit sur son propre compte X : « L’IA est là et ne disparaîtra pas. S’adapter et gagner ou se laisser aller et perdre. »

Ce n’est pas la première fois que les Républicains utilisent l’IA pour se faire passer pour Schumer et d’autres Démocrates. À la veille du shutdown, le président Trump a publié sur Truth Social une vidéo apparemment générée par l’IA, truffée de grossièretés, où Schumer déclare : « Plus personne n’aime les Démocrates. » Le chef de la minorité à la Chambre des représentants, Hakeem Jeffries, apparaît également dans la vidéo, coiffé d’un sombrero et d’une moustache de style dessin animé.

Mais contrairement à la vidéo de Schumer réalisée par le NRSC, les exemples précédents étaient faciles à repérer comme étant inauthentiques.

Farid a averti que la prévalence croissante des fausses IA en politique pourrait avoir un effet corrosif.

« Bien que je ne pense pas que nos dirigeants devraient publier des deepfakes trompeurs, ils courent également le risque que, lorsqu'ils publient du contenu réel, le public ait de bonnes raisons de remettre en question son authenticité », a-t-il déclaré.

Lire plus
Loading...
La police enquête sur des informations faisant état de fausses images explicites de filles d'une école de Sydney

Incident 1234: Des deepfakes explicites, générés par l'IA, d'élèves du lycée de Sydney auraient circulé en ligne.

Traduit par IA
“La police enquête sur des informations faisant état de fausses images explicites de filles d'une école de Sydney”
abc.net.au2025-10-18

La police enquête sur des signalements de diffusion en ligne d'images explicites retouchées numériquement, représentant les visages d'élèves d'un lycée de Sydney.

L'ABC a appris que plusieurs familles se sont rendues au commissariat d'Eastwood mercredi soir.

La police a confirmé dans un bref communiqué qu'une enquête était en cours.

« Les agents du commandement de la zone de police de Ryde ont ouvert une enquête », a déclaré un porte-parole.

« L'enquête est en cours et aucune information complémentaire n'est disponible pour le moment. »

L'ABC a été informée que des parents avaient contacté la police après qu'un élève, à qui les images avaient été envoyées, les a signalées à son établissement.

Un porte-parole du ministère de l'Éducation a déclaré que l'établissement travaillait en étroite collaboration avec la police sur cette affaire.

« Les deepfakes présentent de nouveaux risques importants pour le bien-être et la vie privée des élèves », a-t-il déclaré.

« Si un élève est reconnu coupable de ce comportement, l'établissement prendra des mesures disciplinaires sévères. »

Le ministère a demandé à l'ABC de ne pas révéler l'identité de l'établissement.

« Profondément préoccupant », déclare la ministre

La ministre de l'Éducation par intérim, Courtney Houssos, a déclaré que l'incident serait abordé avec le secrétaire du ministère de l'Éducation jeudi, et lors de la réunion nationale des ministres de l'Éducation vendredi.

« Ce sont des informations extrêmement préoccupantes dont j'ai été informée », a-t-elle déclaré.

« Ce n'est pas un problème qui se limite à la Nouvelle-Galles du Sud, c'est un problème national, mais il est légitime que la police enquête sur cette affaire. »

Mme Houssos a déclaré que les écoles étaient « un microcosme de ce que nous constatons dans la communauté au sens large ».

« C'est un défi auquel nous sommes confrontés dans tout le pays, et je pense qu'il est important que nous en tenions compte spécifiquement dans nos écoles », a-t-elle déclaré.

Mme Houssos a indiqué que des mesures de soutien seraient mises en place dans l'école concernée.

« Ce sont des allégations vraiment préoccupantes et nous veillerons à faire toute la lumière sur cette affaire. »

Renforcement des lois sur les deepfakes en Nouvelle-Galles du Sud

Le mois dernier, le Parlement de Nouvelle-Galles du Sud a adopté une loi interdisant l'utilisation de l'intelligence artificielle (IA) pour créer des images intimes d'une personne réelle et identifiable sans son consentement.

La modification de la loi de 1900 sur les crimes rend la production de deepfakes sexuellement explicites passible d'une peine pouvant aller jusqu'à trois ans de prison.

À l'époque, le procureur général Michael Daley avait déclaré à ABC que ces lois visaient à s'adapter aux nouvelles technologies et à éradiquer les outils d'exploitation sexuelle.

Il avait également exprimé des inquiétudes quant à leur utilisation dans les milieux scolaires.

« Il ne s'agit pas seulement de créer des caricatures. Ce sont des comportements vraiment néfastes qui touchent souvent les jeunes à l'école », a-t-il déclaré en septembre.

« Des jeunes, des femmes, se sont suicidés à cause de cela. Le gouvernement prend donc cela très au sérieux. »

La ministre fédérale des Communications, Anika Wells, a annoncé le mois dernier que le gouvernement lancerait une campagne de répression contre les technologies d'IA telles que les applications de « nudification ».

Lire plus
Loading...
Which? détecte des arnaques à l'investissement deepfake sur YouTube

Incident 1236: Une arnaque à l'IA quantique aurait utilisé des recommandations de célébrités générées par l'IA et des sites médiatiques falsifiés pour solliciter des investissements.

Traduit par IA
“Which? détecte des arnaques à l'investissement deepfake sur YouTube”
which.co.uk2025-10-18

Which? a mis en garde à plusieurs reprises contre les arnaques à l'investissement deepfake mondiales menées par une entreprise appelée « Quantum AI ». À l'aide de vidéos deepfakes de célébrités, Quantum AI propose des offres d'investissement alléchantes sur les réseaux sociaux, cette fois sur YouTube.

Tenté par le soutien d'une célébrité respectée, vous pourriez être tenté de visiter l'un des sites web de Quantum AI. Une fois sur place, on vous propose d'investir, avec la promesse de rendements importants pour peu, voire aucun effort.

Vous pouvez réaliser des profits au début, mais vous découvrirez rapidement que vous ne pourrez jamais retirer vos gains ni récupérer vos investissements. Il s'agit d'une arnaque dangereuse qui peut entraîner des pertes importantes.

Dans une enquête récente, Yaspa, fournisseur de paiements bancaires ouverts, a rapporté qu'un Britannique sur dix a perdu de l'argent à cause d'arnaques à l'investissement. Ils ont constaté que quatre personnes sur dix n'ont jamais récupéré l'argent perdu après avoir été victimes d'une arnaque, et que le montant moyen perdu à cause d'une arnaque était de 765 £.

Poursuivez votre lecture pour découvrir nos découvertes sur YouTube et comment vous protéger des arnaques.

Publicités frauduleuses en matière d'investissement

Which? a trouvé huit vidéos douteuses sur YouTube faisant la promotion de la plateforme d'investissement frauduleuse Quantum AI, qui prétend permettre d'investir en bourse grâce à l'intelligence artificielle (IA). Ces vidéos avaient cumulé plus de 17 000 vues au moment de la rédaction de cet article.

Toutes les vidéos que nous avons consultées menaient à des sites web demandant vos nom, prénom, numéro de téléphone et adresse e-mail.

Il s'agit des mêmes informations que celles que des escrocs ont tenté de recueillir lors de notre enquête initiale sur l'IA quantique (https://www.which.co.uk/news/article/which-exposed-a-global-ai-scam-quantum-ai-a6E3T4Y5WHVc), réalisée l'année dernière pour le magazine Which? Tech. Nous avons constaté qu'après avoir communiqué nos coordonnées aux escrocs, ils nous bombardaient d'appels quotidiens provenant de numéros falsifiés du monde entier, nous demandant à chaque fois d'investir entre 200 et 250 £.

Nous avons identifié l'une des vidéos YouTube comme une vidéo générique montrant un présentateur de nouvelles présentant des informations de dernière minute.

Which? a contacté YouTube au sujet de ces vidéos et a déclaré : « L'hameçonnage est interdit sur YouTube et lorsque nous trouvons du contenu qui enfreint nos règles, nous prenons des mesures. » L'entreprise a supprimé les huit vidéos que nous lui avions partagées.

Un fil de discussion sur Reddit a également mis en garde contre ces escroqueries. Un utilisateur de Reddit a mis en garde contre une publicité vidéo frauduleuse de Quantum AI, trouvée sur YouTube, qui se faisait passer pour le Premier ministre, Sir Keir Starmer, et pour Sky News. La vidéo semblait inclure un code QR, qui aurait redirigé vers un site web se faisant passer pour la BBC et diffusant un faux article du Premier ministre vantant les avantages d'investir avec Quantum AI.

Nous pensons que les escrocs ont pris une véritable interview et l'ont manipulée pour faire croire que le Premier ministre faisait la promotion de la plateforme de Quantum AI.

D'innombrables publicités, e-mails et appels

Cibler sans relâche les gens avec des publicités, des e-mails et des appels semble être la tactique de l'escroquerie de Quantum AI.

Une personne qui nous avait fourni des preuves dans le cadre de notre enquête l'année dernière nous a expliqué qu'elle continuait d'être la cible des fraudeurs à l'origine de cette escroquerie à l'investissement. Il nous a expliqué qu'une publicité YouTube est apparue alors qu'il naviguait sur son téléphone. Cette publicité se faisait passer pour Martin Lewis, Steph McGovern et la BBC. Elle a été redirigée vers un faux site web imitant la BBC, demandant un nom, une adresse e-mail et un numéro de téléphone pour s'inscrire.

Il nous a indiqué qu'il continue d'être contacté par e-mail par des escrocs utilisant l'IA quantique.

Après avoir été escroqué, les fraudeurs peuvent vous recontacter pour vous proposer de l'aide pour récupérer vos fonds perdus. Il s'agit d'une arnaque au recouvrement, où les escrocs se font passer pour des fraudeurs qui prétendent pouvoir vous rembourser, avant de vous escroquer à nouveau.

Éviter les arnaques à l'investissement

Plus tôt cette année, la Financial Conduct Authority (FCA) a émis un avertissement concernant l'IA quantique, indiquant qu'elle pourrait fournir ou promouvoir des services ou produits financiers sans son autorisation.

Vérifiez qu'une entreprise est réglementée par la FCA en recherchant son nom dans le registre de la FCA (https://register.fca.org.uk/s/). Toutes les plateformes frauduleuses ne sont pas réglementées, mais certaines peuvent copier les coordonnées d'une entreprise sérieuse. Il est donc important de toujours se renseigner sur l'entreprise avant de divulguer des informations sensibles ou de l'argent.

Il est également préférable d'éviter les offres irréalistes présentées dans les publicités sur les réseaux sociaux ou les publications de personnes promouvant des opportunités d'investissement, surtout si elles proviennent d'un compte non officiel. Consultez nos guides Which? sur les investissements (https://www.which.co.uk/money/investing).

Méfiez-vous toujours de la saisie de vos informations personnelles sur des sites web que vous n'avez jamais visités et utilisez un outil comme TinEye ou la recherche d'images inversée de Google (en sélectionnant l'icône d'image à droite de la barre de recherche sur Google) pour vérifier si une image a été utilisée ailleurs.

Vous pouvez également vérifier si un site web a été récemment créé en le saisissant sur le site Who.is pour obtenir des détails sur son inscription ; les nouveaux sites web sont généralement le signe d'une arnaque.

Si vous perdez de l'argent à cause d'une arnaque, appelez immédiatement votre banque en utilisant le numéro figurant au dos de votre carte bancaire et signalez-le à Action Fraud, ou appelez la police au 101 si vous êtes en Écosse.

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    605
  • 🥈

    Anonymous

    152
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    692
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    224
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2766
  • 🥈

    Anonymous

    957
  • 🥉

    Khoa Lam

    456
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65