Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Une grand-mère du Tennessee emprisonnée après qu'une erreur de reconnaissance faciale par IA l'ait liée à une fraude

Incident 1416: Une erreur présumée de reconnaissance faciale aurait conduit à l'arrestation et à l'incarcération d'une femme du Tennessee dans une affaire de fraude au Dakota du Nord.

Traduit par IA
“Une grand-mère du Tennessee emprisonnée après qu'une erreur de reconnaissance faciale par IA l'ait liée à une fraude”Dernier rapport
theguardian.com2026-03-16

Une grand-mère du Tennessee affirme tenter de se reconstruire après avoir été victime d'une erreur d'identité. Un système de reconnaissance faciale l'a impliquée dans une enquête pour fraude bancaire au Dakota du Nord.

Angela Lipps, 50 ans, a passé près de six mois en prison après que la police de Fargo l'a identifiée comme suspecte dans une affaire de fraude bancaire organisée grâce à un logiciel de reconnaissance faciale, selon le média local InForum, basé dans le sud-est du Dakota du Nord. Mme Lipps a déclaré au média qu'elle n'avait jamais mis les pieds au Dakota du Nord et qu'elle était innocente des faits reprochés.

Mère de trois enfants et grand-mère de cinq, Mme Lipps a indiqué avoir vécu la majeure partie de sa vie dans le centre-nord du Tennessee. Elle n'avait jamais pris l'avion avant d'être transférée par les autorités dans le Dakota du Nord l'année dernière pour y être jugée.

En juillet, des agents fédéraux ont arrêté Lipps à son domicile du Tennessee alors qu'elle gardait quatre enfants. Elle a déclaré avoir été emmenée sous la menace d'une arme et incarcérée dans une prison du comté en tant que fugitive recherchée par la justice du Dakota du Nord.

« Je ne suis jamais allée dans le Dakota du Nord, je ne connais personne là-bas », a déclaré Lipps à WDAY News.

Elle est restée en détention provisoire pendant près de quatre mois dans une prison du Tennessee, dans l'attente de son extradition. Elle a été inculpée de quatre chefs d'accusation d'utilisation non autorisée de données personnelles et de quatre chefs d'accusation de vol.

Selon les archives de la police de Fargo obtenues par WDAY News, les détectives chargés d'enquêter sur des affaires de fraude bancaire en avril et mai 2025 ont visionné les images de vidéosurveillance montrant une femme utilisant une fausse carte d'identité militaire américaine pour retirer des dizaines de milliers de dollars.

Les policiers auraient utilisé un logiciel de reconnaissance faciale pour identifier la suspecte comme étant Lipps. Un détective aurait écrit dans des documents judiciaires que Lipps semblait correspondre à la suspecte en raison de ses traits du visage, de sa morphologie et de sa coiffure.

Lipps a déclaré à WDAY News que personne du service de police de Fargo ne l'avait contactée avant son arrestation.

Les autorités du Dakota du Nord n'ont transféré Lipps du Tennessee qu'à la fin du mois d'octobre, soit 108 jours après son arrestation, selon InForum. Elle a comparu devant un tribunal du Dakota du Nord le lendemain.

Son avocat, Jay Greenwood, a déclaré au média : « Si vous ne disposez que de la reconnaissance faciale, je souhaiterais peut-être approfondir l'enquête. »

Lipps a finalement été libérée la veille de Noël après que Greenwood a obtenu ses relevés bancaires et les a présentés aux enquêteurs. Les relevés ont montré que Lipps se trouvait à plus de 1 900 kilomètres de Fargo, dans le Tennessee, au moment où les enquêteurs ont établi que la fraude avait eu lieu.

Lipps a déclaré que la police de Fargo n'avait pas pris en charge son voyage de retour, la laissant sans ressources. Des avocats de la défense locaux l'ont aidée à payer une chambre d'hôtel et des repas pour la veille et le jour de Noël, et une association locale à but non lucratif, le F5 Project, a pu l'aider à rentrer dans le Tennessee, selon InForum.

Lipps est maintenant de retour chez elle, mais elle affirme que cette expérience a eu des conséquences durables. Emprisonnée et incapable de payer ses factures, elle a perdu sa maison, sa voiture et son chien, a-t-elle déclaré. Elle a également confié à WDAY News qu'aucun membre du service de police de Fargo ne s'était excusé.

Ce cas est loin d'être le premier d'une erreur d'intelligence artificielle ayant identifié le mauvais suspect. En octobre, un système d'intelligence artificielle a apparemment confondu le paquet de Doritos d'un lycéen de Baltimore avec une arme à feu et a appelé la police locale pour signaler que l'élève était armé. Taki Allen était assis avec des amis devant le lycée Kenwood de Baltimore lorsque des policiers armés l'ont approché, l'ont forcé à se mettre à genoux, l'ont menotté et fouillé, sans rien trouver.

Plus tôt cette année, la police a arrêté au Royaume-Uni un homme pour un cambriolage commis dans une ville où il n'avait jamais mis les pieds. Un logiciel de reconnaissance faciale l'a confondu avec une autre personne d'origine sud-asiatique. Les autorités avaient utilisé un logiciel automatisé qui l'a identifié sur les images d'un suspect dans un cambriolage d'une valeur de 3 000 £ commis à 160 kilomètres de là.

Lire plus
Loading...
Les sous-traitants accèdent à des requêtes visuelles d'IA méta intimes depuis des lunettes intelligentes

Incident 1418: Des lunettes intelligentes Meta AI auraient exposé des images et des vidéos intimes d'utilisateurs à des examinateurs humains au Kenya.

Traduit par IA
“Les sous-traitants accèdent à des requêtes visuelles d'IA méta intimes depuis des lunettes intelligentes”
uploadvr.com2026-03-16

Des sous-traitants de Meta AI ont accès à des requêtes visuelles intimes provenant des lunettes connectées de l'entreprise, parfois déclenchées accidentellement, révèle un article de deux journaux suédois.

L'article conjoint du Svenska Dagbladet et du Göteborgs-Posten (https://www.svd.se/a/K8nrV4/metas-ai-smart-glasses-and-data-privacy-concerns-workers-say-we-see-everything?ref=uploadvr.com) a suscité une vive inquiétude quant au respect de la vie privée lié aux lunettes connectées, non seulement pour les personnes à proximité, mais aussi pour les utilisateurs eux-mêmes.

Précisons que le problème ne concerne pas la fonction de capture photo et vidéo des lunettes connectées Ray-Ban et Oakley. Les photos et vidéos prises volontairement avec les lunettes sont synchronisées avec votre téléphone et ne sont ni consultées par Meta ni par ses sous-traitants, et ne servent pas non plus à l'entraînement des modèles d'IA.

Le rapport fait plutôt référence à la fonctionnalité de requête visuelle de Meta AI sur ces appareils, et à sa propension à s'activer accidentellement.

La fonctionnalité de requête visuelle de Meta AI a été déployée début 2024, environ six mois après le lancement des lunettes Ray-Ban Meta. Initialement, il fallait dire explicitement « Hey Meta, regarde et dis-moi <requête> », ce qui permettait à l'IA de capturer une image pour fournir une réponse.

Une partie de ces réponses est envoyée à des sous-traitants, situés dans des pays à faible coût de main-d'œuvre comme le Kenya, qui évaluent la réponse selon sa pertinence et son exactitude. Au fil du temps, Meta utilise ces données d'évaluation humaine pour améliorer la qualité des réponses de Meta AI.

Fin 2024, comme annoncé lors de Meta Connect, Meta AI a été mis à jour pour déduire plus naturellement du contexte de votre requête si une capture d'écran était nécessaire. Par exemple, « Hey Meta, c'est quoi cette plante ? » ou « Hey Meta, traduis ce menu » déclencheraient son utilisation.

Cette mise à jour a rendu Meta AI plus intuitif et utile. Cependant, elle a aussi eu pour effet secondaire d'augmenter considérablement le risque de captures d'images involontaires, l'appareil croyant à tort avoir entendu « Hey Meta ». De plus, avec la fonctionnalité Live AI disponible aux États-Unis et au Canada, cela peut même inclure des clips vidéo. La fonctionnalité Live AI permet d'entamer une conversation continue avec l'IA, à l'instar de Gemini Live de Google sur smartphones.

Combinée au système d'évaluation des prestataires, cette fonctionnalité crée le scénario cauchemardesque révélé par le rapport : des personnes peuvent visionner des photos intimes, capturées accidentellement, à l'intérieur du domicile des utilisateurs de lunettes connectées.

Les analystes de données kényans interrogés par la presse suédoise ont rapporté avoir vu des images et des vidéos de personnes nues allant aux toilettes, se changeant et ayant des relations sexuelles, ainsi que des scènes de visionnage de pornographie et de manipulation de documents confidentiels et de cartes bancaires.

L'établissement où travaillent ces analystes applique des mesures de sécurité strictes qui leur interdisent d'apporter des appareils d'enregistrement ou d'exfiltrer ces vidéos. Cependant, si une fuite de données survenait, elle déclencherait un « scandale colossal », selon le rapport.

En réponse au rapport suédois, Meta souligne que la LED située à l'avant des lunettes s'allume systématiquement lors de la capture d'images (ce qui est exact). L'entreprise a également publié une déclaration générale indiquant que les données visuelles sont « d'abord filtrées afin de protéger la vie privée des utilisateurs », notamment par le floutage des visages et des plaques d'immatriculation. Cependant, les employés kenyans affirment que ce filtre n'est pas parfait et que d'autres détails intimes subsistent sur les images qu'ils examinent.

Le recours à des sous-traitants pour l'examen des interactions avec l'IA n'est pas une pratique propre à Meta. Amazon l'applique par exemple à Alexa, Google à Gemini et Apple à Siri. En 2019, un article de Bloomberg (https://www.bloomberg.com/news/articles/2019-04-10/is-anyone-listening-to-you-on-alexa-a-global-team-reviews-audio?embedded-checkout=true&ref=uploadvr.com) a révélé comment des sous-traitants pouvaient entendre des conversations intimes au chevet des patients via des appareils Amazon Echo. Parallèlement, un autre article du Guardian (https://www.theguardian.com/technology/2019/jul/26/apple-contractors-regularly-hear-confidential-details-on-siri-recordings?ref=uploadvr.com) a révélé que le même problème se posait avec Siri d'Apple.

Suite à la polémique suscitée par l'article du Guardian, Apple a rendu optionnelle la vérification humaine des conversations Siri, tandis que Google propose une option de désactivation pour Gemini.

Pour Meta AI, il est impossible de se désinscrire. De plus, le format des lunettes connectées, avec leur caméra égocentrique, soulève des problèmes de confidentialité spécifiques à ce modèle, susceptibles de dissuader les personnes conscientes des implications d'acheter des lunettes connectées, ou d'arrêter d'utiliser celles qu'elles possèdent déjà.

Ce rapport incitera-t-il Meta à modifier ses pratiques d'analyse des données, comme l'a fait Apple suite à l'article du Guardian en 2019 ? Ou sera-t-il ignoré afin que l'entreprise puisse améliorer plus rapidement Meta AI et rattraper son retard sur des modèles d'IA plus performants tels que Gemini 3 de Google ? Et comment Google et Amazon géreront-ils ce problème lors du lancement de leurs lunettes connectées grand public dans les prochains mois ?

Lire plus
Loading...
La star de This Morning réfute les allégations « honteuses » concernant les fausses pilules amaigrissantes

Incident 1417: Une photo truquée d'Ashley James aurait été utilisée pour promouvoir des pilules amaigrissantes.

Traduit par IA
“La star de This Morning réfute les allégations « honteuses » concernant les fausses pilules amaigrissantes”
metro.co.uk2026-03-16

Ashley James, star de l'émission This Morning, a réagi après la diffusion d'une publicité choquante à son image, créée par intelligence artificielle, pour promouvoir des pilules amaigrissantes.

Ashley s'est dite « dévastée » à l'idée que quiconque puisse acheter de telles pilules suite à sa prétendue recommandation, qualifiant cette fausse publicité de « violation ».

Ce week-end, sur Instagram, la présentatrice et militante a publié une vidéo commençant par : « J'ai une confession à faire. J'ai pris des pilules amaigrissantes.

Du moins, c'est ce qu'on vous a fait croire… »

La vidéo montre ensuite une version numérique d'Ashley interviewée sur le canapé de [This Morning] par Ben Shephard, où elle semble révéler ses résultats en matière de perte de poids et les bienfaits de ces médicaments.

C'est incroyablement réaliste, avec les couleurs de l'émission « This Morning », le logo d'ITV et un personnage virtuel qui lui ressemble trait pour trait, tant physiquement que vocalement.

« J'ai tout essayé. Vraiment tout. Chaque nouveau régime était porteur d'espoir, puis décevant », commence son avatar.

« J'ai pensé abandonner, mais j'ai vu une interview du docteur Rangan Chatterjee, où il expliquait que le surpoids n'est pas de notre faute, mais un dysfonctionnement métabolique lié à l'âge. Il a mis au point une formule qui relance le métabolisme, alors j'ai décidé de l'essayer. »

Tandis qu'un texte à l'écran annonce fièrement : « Elle a perdu 12 kilos en un mois seulement ! », le personnage ajoute : « Une semaine plus tard, j'avais perdu 4 kilos. Trois semaines plus tard, j'en ai perdu 12.

« Je me sens légère à nouveau. » « J’adore à nouveau mon reflet dans le miroir. »

Dans une réfutation experte de la vidéo, la vraie Ashley informe ensuite ses abonnés : « Vous avez été si nombreux à m’envoyer cette publicité que je tiens à être très claire : ce n’est pas moi. C’est une image entièrement générée par IA. »

« Non seulement je n’ai jamais dit cela, mais je n’ai jamais pris ces pilules, je n’en ai jamais entendu parler et, surtout, je ne les recommanderais jamais », insiste-t-elle.

« Je suis sincèrement dévastée à l’idée que quiconque puisse acheter ces produits en croyant que je les ai recommandés. »

L’ancienne star de Made in Chelsea, connue et appréciée pour ses contenus prônant l’acceptation de soi sur les réseaux sociaux, ajoute qu’elle « refuse systématiquement » toute proposition de partenariat concernant des régimes ou des pilules amaigrissantes.

« Non seulement je ressens cela comme une violation flagrante de mes convictions, mais le message véhiculé me met hors de moi.

« Nous vivons déjà dans un monde où l’on dit constamment aux femmes de se faire plus petites, d’être plus minces, de prendre moins de place. » Et ça ne fait qu'empirer avec la montée en puissance des injections pour maigrir.

Poursuivant son coup de gueule en légende, Ashley a admis que, « si [elle] n'était pas au courant », elle aurait elle aussi cru que la publicité créée par IA était authentique.

« On a utilisé mon visage et ma voix pour créer une publicité incitant les femmes à maigrir. Si vous me connaissez un tant soit peu, vous savez que c'est précisément le genre de message que je combats depuis des années. »

Elle a également cité d'autres exemples de personnalités publiques ciblées par des deepfakes, notamment celui de Martin Lewis, expert en économies, contraint de dénoncer des contenus similaires après que des personnes se soient fait escroquer de milliers de livres sterling en suivant de faux conseils financiers.

« Je ne soutiens pas ces produits et je ne vous dirais jamais, ni à personne d'autre, que vous devez maigrir ou faire un régime », a conclu Ashley dans sa légende. « Si vous voyez cette publicité, merci de la signaler. C'est scandaleux que les réseaux sociaux laissent faire ça ! » « C’est effrayant quand on y pense. »

Dans les commentaires, des amis célèbres se sont empressés d’apporter leur soutien, exprimant leur choc face à cette publicité.

« C’est absolument choquant », a écrit Carol Vorderman. « Quels sont les recours légaux ? »

Sarah Jayne Dunn a commenté : « 😮 C’est tellement effrayant ! »

« C’est terrifiant ! », a renchéri Dani Harmer, tandis que Faye Tozer s’est indignée : « Rien de tout cela n’est acceptable 🤬 »

Ashley milite depuis longtemps pour l’acceptation de son corps, notamment en ce qui concerne la maternité.

Dans un article abordant les discours néfastes autour du corps après l’accouchement, Ashley écrivait en janvier : « Le monde regarde le corps d’une maman et y voit quelque chose à corriger, mais nos enfants le considèrent comme leur premier foyer et l’aiment. »

Elle a fièrement déclaré : « Avec ou sans bébés, nous n’aurions jamais dû apprendre à haïr quelque chose d’aussi magique. » « Nos corps sont magiques. »

Cette maman de deux enfants publie régulièrement des photos d'elle en bikini sous différents angles pour encourager les autres à avoir confiance en elles.

Plus tôt cette année, elle écrivait : « J'ai plus confiance en mon corps aujourd'hui que jamais auparavant. J'en suis fière et je ne veux surtout pas que ma fille me voie me dénigrer. »

La personnalité de la télévision a récemment publié son premier livre, intitulé « Bimbo », en référence aux étiquettes qu'elle a reçues en ligne et dans le but de se les réapproprier.

Devenu un best-seller, ce livre relate ses expériences personnelles sans fard et analyse l'oppression et les attentes subies par les femmes tout au long de leur vie.

Lors de sa promotion, elle a déclaré à l'émission « Woman's Hour » de la BBC : « Souvent, si les gens ne sont pas d'accord avec moi, ils vont sur internet et disent : “C'est juste une bimbo.” »

« Mais il ne s’agit pas seulement de “bimbo”, il s’agit de toutes les étiquettes que l’on colle aux femmes, que ce soit “autoritaire”, “frigide”, “vulgaire”, et même, pour les femmes plus âgées, des termes comme “vieille femme” ou “sorcière”. Je voulais vraiment explorer comment ces étiquettes nous rabaissent et nous maintiennent dans un état d’infériorité. »

Lire plus
Loading...

Incident 1414: Des images générées par l'IA de Gemini auraient prétendument montré des soldats des forces spéciales Delta américaines capturés par le Corps des gardiens de la révolution islamique (CGRI).

Traduit par IA
“”
factcheck.afp.com2026-03-15
Lire plus
Loading...
OpenAI poursuivie pour exercice illégal de la profession d'avocat via ChatGPT

Incident 1415: Nippon Life accuse ChatGPT d'avoir exercé illégalement le droit dans une affaire d'invalidité en Illinois

Traduit par IA
“OpenAI poursuivie pour exercice illégal de la profession d'avocat via ChatGPT”
legal.io2026-03-15

Nippon Life intente un procès historique contre OpenAI, accusant ChatGPT d'exercice illégal de la profession d'avocat.

Points clés :

  • Nippon Life Insurance Company of America a porté plainte contre OpenAI devant un tribunal fédéral, l'accusant d'avoir exercé illégalement le droit en aidant un ancien bénéficiaire d'une allocation d'invalidité à rouvrir un dossier réglé et à déposer des dizaines de requêtes sans fondement.

  • Cette action en justice, considérée comme l'une des premières à accuser un important développeur d'IA d'exercice illégal de la profession d'avocat via un chatbot grand public, réclame 300 000 $ de dommages et intérêts compensatoires et 10 millions de dollars de dommages et intérêts punitifs.

  • Cette affaire survient alors que les législateurs de l'État de New York examinent un projet de loi visant à interdire aux chatbots d'IA de se faire passer pour des professionnels agréés et à accorder aux utilisateurs lésés un droit d'action privé contre les plateformes d'IA.

Un tribunal fédéral de Chicago est désormais le théâtre de ce que les observateurs juridiques qualifient de test historique des limites de l'intelligence artificielle dans la pratique du droit. La compagnie d'assurance Nippon Life Insurance Company of America a porté plainte le 4 mars contre la Fondation OpenAI et OpenAI Group PBC, alléguant que ChatGPT a agi comme un avocat sans licence en guidant une ancienne bénéficiaire d'une allocation d'invalidité dans une série de démarches juridiques après le règlement et le rejet définitif de son dossier.

Selon la plainte déposée auprès du tribunal de district des États-Unis pour le district nord de l'Illinois, la plaignante, Graciela Dela Torre, employée d'une entreprise de logistique assurée par Nippon, a téléchargé en 2024 des échanges de correspondance de son ancien avocat sur ChatGPT. Le chatbot aurait validé ses inquiétudes, l'aurait incitée à se séparer de son avocat et l'aurait aidée à rouvrir un dossier déjà clos. Après le rejet de cette demande par un juge en février 2025, ChatGPT aurait rédigé une nouvelle plainte ainsi que des dizaines de requêtes et d'avis ultérieurs que Nippon juge dépourvus de « fondement juridique ou procédural légitime ».

Les griefs de l'assureur incluent l'ingérence délictuelle dans un contrat, l'abus de procédure et, surtout, la violation de la loi de l'Illinois relative à l'exercice illégal du droit. « ChatGPT n'est pas un avocat », affirme la plainte sans ambages, ajoutant que malgré les démonstrations largement médiatisées par OpenAI de la réussite de ChatGPT aux examens du barreau, la plateforme « n'est pas admise à exercer le droit dans l'État de l'Illinois ni dans aucune autre juridiction des États-Unis ». OpenAI a répliqué que « cette plainte est totalement infondée ».

Cette action en justice marque une escalade significative de la responsabilité juridique liée à l'IA. Les litiges antérieurs contre les entreprises d'IA portaient principalement sur des questions de droit d'auteur, de vie privée et de diffamation. Une action en justice intentée contre un développeur d'IA pour exercice illégal du droit via un produit destiné aux consommateurs ouvre la voie à des questions que les barreaux et les tribunaux commencent à peine à aborder : à quel moment un outil d'IA passe-t-il de la simple fourniture d'informations à la prestation de conseils juridiques ?

Le moment choisi est significatif. Un projet de loi en cours d'examen à l'Assemblée législative de l'État de New York interdirait explicitement aux chatbots d'IA de donner des conseils juridiques substantiels – ou des conseils relevant de toute autre profession réglementée – et créerait un droit d'action privé pour les utilisateurs lésés par de tels agissements. La sénatrice Kristen Gonzalez, à l'origine du projet de loi, a souligné que la législation actuelle n'interdit pas explicitement à un modèle de langage complexe de se présenter comme avocat et de dispenser des conseils juridiques. La mesure, approuvée par la commission Internet et Technologie du Sénat en février, empêcherait également les plateformes de se retrancher derrière une simple mention indiquant que les utilisateurs interagissent avec un « chatbot non humain ».

Pour les services juridiques et les cabinets d'avocats, cette affaire confirme une tendance déjà bien connue, mais toujours urgente. Les tribunaux ont déjà sanctionné des avocats pour avoir soumis des mémoires générés par IA contenant des citations erronées ; désormais, la responsabilité s'étend jusqu'aux développeurs de ces outils. OpenAI a modifié ses conditions d'utilisation en octobre 2024 afin d'interdire aux utilisateurs de solliciter des conseils juridiques via sa plateforme – une modification que Nippon juge trop tardive et qui, selon elle, souligne la prévisibilité des risques. La validité juridique de cette modification figure parmi les questions auxquelles le tribunal du district nord de l'Illinois devra peut-être répondre.

L'affaire est intitulée Nippon Life Insurance Company of America c. OpenAI Foundation et OpenAI Group PBC, n° 1:26-cv-02448 (N.D. Ill.).

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    736
  • 🥈

    Anonymous

    155
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    837
  • 🥈

    Anonymous

    235
  • 🥉

    Khoa Lam

    230
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    3108
  • 🥈

    Anonymous

    981
  • 🥉

    1

    587
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd