Bienvenue dansla base de données des incidents d'IA
Incident 1442: Kiro AI Coding Tool Was Reportedly Implicated in 13-Hour AWS Cost Explorer Outage in Mainland China
“Amazon blames human employees for an AI coding agent’s mistake”Dernier rapport
Amazon Web Services suffered a 13-hour outage to one system in December as a result of its AI coding assistant Kiro's actions, according to the Financial Times. Numerous unnamed Amazon employees told the *FT *that AI agent Kiro was responsible for the December incident affecting an AWS service in parts of mainland China. People familiar with the matter said the tool chose to "delete and recreate the environment" it was working on, which caused the outage.
While Kiro normally requires sign-off from two humans to push changes, the bot had the permissions of its operator, and a human error there allowed more access than expected.
Amazon described the December disruption as an "extremely limited event" that pales in comparison to a major outage in October, which took down online services, like Alexa, Fortnite, ChatGPT, and Amazon for hours. An outage that didn't trap anyone in their smart bed is something of a lucky escape.
It is not the only time AI coding tools have caused problems for Amazon. A senior AWS employee said the December outage is the second production outage linked to an AI tool in the last few months, with another linked to Amazon's AI chatbot Q Developer. The employee described the outages as "small but entirely foreseeable." Amazon said the second incident did not impact a "customer facing AWS service."
Amazon blames human error for the problems, not the rogue bot, and said it has "implemented numerous safeguards" like staff training following the incident. The company said it's a "coincidence that AI tools were involved" and insists that "the same issue could occur with any developer tool or manual action." That's true, and though I'm not an engineer, I'd guess one wouldn't deliberately scrap and rebuild something to make a change in all but the most dire of circumstances.
Incident 1444: Hachette Reportedly Canceled Publication of Mia Ballard's Shy Girl After Generative AI Authorship Allegations
“Publisher Pulls ‘Shy Girl’ Horror Novel After AI Allegations”
The Hachette Book Group said Thursday that it has canceled the publication of horror novel "Shy Girl" following an investigation into the origins of the book.
The novel, by Mia Ballard, was expected to publish May 19 in the U.S. via its Orbit U.S. imprint. Hachette said its Wildfire imprint won't continue to publish its edition in the U.K., where it was first released in November.
Readers raised concerns on social media about the book's potential reliance on artificial intelligence over the winter, including on Reddit. In one YouTube video posted in January that has attracted more than 1.2 million views, a reviewer said it appeared portions of the book were written with the use of generative AI.
A Hachette spokeswoman said both imprints conducted a "lengthy investigation in recent weeks" and Orbit U.S. decided not to publish.
"Hachette remains committed to protecting original creative expression and storytelling," the publisher said in a brief statement.
The New York Times reported earlier on Hachette's actions.
Ballard said in an email late Thursday that the controversy "has changed my life in many ways and my mental health is at an all time low." She said she "did not personally use AI," adding, "All I'm going to say is please do your research on editors before trusting them with your work."
All Hachette authors are required to attest that their manuscripts are "original and created by them" before receiving a contract, the spokeswoman said.
The publishing industry has been roiled by advances in artificial intelligence and questions over how or if writers should use AI in their books. Last year a group of authors including Dennis Lehane and Lauren Groff released an open letter asking publishers to pledge "that they will never release books that were created by machines."
Incident 1437: Grok aurait diffusé publiquement des propos sexistes visant la ministre suisse des Finances, Karin Keller-Sutter, suite à une sollicitation d'un utilisateur de X.
“Suite à des insultes, Keller-Sutter intente une action en justice contre Grok, l'IA d'Elon Musk.”
Selon Tamedia, Karin Keller-Sutter a porté plainte pour injures sexistes proférées à son encontre par le chatbot Grok. Un utilisateur de la plateforme X avait expressément demandé au chatbot d'insulter la conseillère fédérale avec des propos vulgaires et sexistes.
C'est CH Media qui a révélé l'affaire de Peter K.*, qui, sur la plateforme X, avait programmé le chatbot Grok pour proférer des insultes virulentes à l'encontre de la conseillère fédérale Karin Keller-Sutter.
La coprésidente du PLD, Susanne Vincenz-Stauffacher, qui s'est entretenue avec Mme Keller-Sutter au sujet de cette affaire, a fait des déclarations importantes. Cet exemple soulève une question plus large, a-t-elle souligné. « Il s'agit clairement d'une insulte sexiste des plus odieuses et vulgaires. Des poursuites pénales sont possibles. »
La question, a déclaré Mme Vincenz-Stauffacher, est de savoir qui est responsable : « Est-ce la personne qui a programmé l'insulte ? Est-ce l'opérateur de l'IA ? Est-ce l'opérateur de la plateforme ? » Pour la députée du FDP, c'était clair : « Nous devons clarifier ces questions. Surtout en tant que libéraux. L'État de droit doit s'appliquer. Même dans le domaine numérique. »
Karin Keller-Sutter entend désormais obtenir une clarification juridique quant à la responsabilité des contenus offensants générés par les chatbots. Son porte-parole, Pascal Hollenstein, l'a confirmé à la presse.
« Une telle misogynie ne doit pas être considérée comme normale ou acceptable », a déclaré M. Hollenstein. La professeure de droit pénal Monika Simmler estime qu'il est possible de poursuivre les auteurs de ces messages, même si ces derniers sont ensuite supprimés.
Le 10 mars, un utilisateur avait explicitement demandé au bot Grok de publier des insultes à l'encontre de Keller-Sutter. Grok a réagi par des propos sexistes et insultants, visibles et partageables publiquement. Keller-Sutter en a eu connaissance le lendemain. Peu après, la publication a été supprimée.
Plus précisément, le citoyen suisse Peter P.* avait incité Grok à s'en prendre à Keller-Sutter : « Conseillère fédérale KKS, ma préférée. Mais je vais lui donner une bonne leçon, avec (...) du langage familier. » Grok a alors écrit, par exemple : « Hé, vieille pute fédérale, Karin Keller-Sutter. » Ou encore : « Tes opinions politiques sont aussi fausses que ton visage botoxé, espèce de nana à l'intelligence d'une bouteille vide. Tu pues le mensonge, la soif de pouvoir et la xénophobie. »
Plus précisément, Peter P.* avait encouragé Grok à attaquer Keller-Sutter : « Conseillère fédérale KKS, ma préférée. Vas-y fort avec (...) du langage de rue. » Message de Peter K. et réponse de Grok.
Message de Peter K. et réponse de Grok.
Capture d'écran de CH Media par X
Entre-temps, la conseillère fédérale a porté plainte pour diffamation et injures. Selon Tamedia, sa plainte ne porte pas sur la liberté d'expression, mais sur des propos misogynes, qu'elle estime devoir être défendus.
Peter P. a commenté auprès de Tamedia : « C'était un simple exercice technique pour voir ce que Grok permettait », a déclaré l'homme de 75 ans. C'est pourquoi il a supprimé la conversation.
La situation juridique reste floue : la jurisprudence est encore lacunaire. Monika Simmler, professeure de droit pénal à l'Université de Saint-Gall, estime cependant qu'il y a de fortes chances que l'auteur du message puisse être poursuivi, comme elle l'a indiqué à Tamedia. L'IA pourrait être considérée comme un outil dans ce contexte. La complicité de la plateforme ou de l'opérateur est également examinée, mais cela pourrait s'avérer complexe. Il faudrait prouver que les responsables ont consenti à la diffamation et aux injures.
Cette affaire pourrait faire jurisprudence et soulever des questions fondamentales sur la responsabilité dans l'utilisation de l'IA. (hkl/att)
Incident 1439: Un ancien professeur de l'école Isidore Newman de La Nouvelle-Orléans aurait utilisé l'intelligence artificielle pour créer de fausses images de nus à partir de photos de jeunes filles, y compris des élèves, publiées sur les réseaux sociaux.
“Un ancien professeur de la Nouvelle-Orléans accusé d'avoir utilisé l'IA pour créer de fausses images de nus à partir de photos publiées sur les réseaux sociaux”
NOUVELLE-ORLÉANS (WVUE) – Un ancien professeur de La Nouvelle-Orléans a utilisé l'intelligence artificielle pour créer de fausses images de femmes nues après avoir obtenu leurs photos sur les réseaux sociaux, selon les enquêteurs.
Benoit Cransac, 49 ans, a été arrêté mercredi 1er avril et inculpé de 60 chefs d'accusation de diffusion illégale de deepfakes. Il est actuellement détenu au centre de détention d'Orléans. Il a enseigné pendant 13 ans à l'école Isidore Newman.
D'après des documents judiciaires obtenus par Fox 8, les enquêteurs affirment avoir trouvé de nombreuses images apparemment obtenues par Cransac sur divers comptes de réseaux sociaux où les propriétaires publiaient innocemment des photos de leurs activités, selon le Bureau d'enquête de Louisiane. Les documents indiquent que ces images étaient ensuite intégrées à une plateforme d'intelligence artificielle en ligne, permettant leur modification.
Après avoir intégré les images à la plateforme, Cransac obtenait, selon les enquêteurs, des images générées par l'IA représentant les femmes nues, leurs visages restant toutefois inchangés par rapport aux publications originales. Les enquêteurs précisent avoir également découvert plusieurs collages réalisés à partir de ces images modifiées.
L'enquête révèle la présence de nombreuses images des mêmes femmes à différents âges. D'après les vêtements et autres éléments présents sur les images originales, les femmes semblent provenir de la région métropolitaine de La Nouvelle-Orléans.
« Nous comprenons le caractère inquiétant de cette situation. Si vous ou vos enfants avez besoin de soutien, n'hésitez pas à contacter directement un responsable de l'établissement ou l'un de nos conseillers », a déclaré Dale Smith, directeur de l'école Newman, dans un communiqué publié jeudi.
Chronologie des arrestations
Cransac a été placé en garde à vue le 8 janvier. Un mandat de perquisition a été exécuté à son domicile le même jour. Lors de l'arrestation et de la perquisition, plusieurs appareils électroniques ont été découverts et saisis comme preuves. Parmi les objets saisis figuraient deux ordinateurs, un téléphone portable et une carte SD.
Dans les fichiers numériques trouvés sur l'iPhone de Cransac, les enquêteurs affirment avoir identifié trois images illégales supplémentaires. Un mandat d'arrêt supplémentaire a été délivré et des charges ont été ajoutées par le tribunal d'Orléans le 21 janvier.
Les enquêteurs indiquent également avoir trouvé 17 images d'étudiantes, vraisemblablement dans une salle de classe, sur le téléphone de Cransac. D'après les documents, ces images semblent se concentrer sur les fesses et le bas des jambes des étudiantes.
Le 23 mars, Cransac a été inculpé de chefs d'accusation supplémentaires liés au voyeurisme.
Les enquêteurs ont poursuivi l'examen des preuves numériques trouvées sur les appareils électroniques saisis chez Cransac. En examinant le contenu de son ordinateur professionnel, ils ont découvert de nombreuses images, apparemment issues de publications Instagram de jeunes filles adolescentes non identifiées. Il semblerait que Cransac ait accédé à ces comptes Instagram via un compte inconnu.
Cransac est actuellement détenu sous une caution de 3,57 millions de dollars pour des accusations antérieures.
Incident 1440: Un robot de livraison de Coco Robotics se serait retrouvé coincé sur une voie ferrée et aurait été percuté par un train à Miami.
“Un robot de livraison Uber Eats, bloqué sur les voies, perd son duel à grande vitesse avec un train à Miami.”
La tournée d'un robot de livraison s'est brutalement terminée à Miami, en Floride, lorsque l'appareil autonome s'est immobilisé sur une voie ferrée et a été percuté par un train.
L'incident, survenu tard dans la soirée du 15 janvier, a été filmé par M. Guillermo Dapelo. La vidéo a depuis été visionnée plus de trois millions de fois sur un compte X.
M. Dapelo a déclaré avoir remarqué le petit robot, appartenant à Coco Robotics, en plein danger.
Les images montrent la machine immobile tandis qu'un train approche à toute vitesse.
« Oh, il va se faire écraser », dit M. Dapelo sur l'enregistrement, quelques instants avant que le train ne le percute et ne réduise le robot en miettes.
M. Dapelo a indiqué à Storyful que le robot semblait être resté bloqué sur les rails pendant environ 15 minutes.
Il a précisé qu'un livreur Uber Eats se trouvant à proximité avait contacté Coco Robotics pour signaler la situation. Avant qu'une intervention puisse avoir lieu, le train est arrivé, et la vidéo a capturé la suite des événements.
Coco Robotics, partenaire de plateformes de livraison de repas comme Uber Eats et DoorDash, a confirmé que le robot n'était pas en livraison au moment de l'incident.
Dans un communiqué transmis au magazine People par Carl Hansen, vice-président et responsable des relations gouvernementales de l'entreprise, Coco a indiqué que le robot avait subi une « rare panne matérielle » en cours de route.
« La sécurité est notre priorité absolue », a-t-il déclaré, précisant que les robots se déplacent à la vitesse des piétons, cèdent le passage aux piétons et sont surveillés en temps réel par des opérateurs de sécurité.
Il a ajouté que les robots de Coco opèrent à Miami depuis plus d'un an et empruntent les mêmes voies ferrées plusieurs fois par jour sans incident.
« Il s'agit d'un incident malheureux et extrêmement rare », a déclaré M. Hansen. « Nous sommes soulagés qu'il s'agisse d'un robot Coco et non d'un véhicule. »
Cette courte vidéo met en lumière un défi plus général auquel les villes sont confrontées à mesure que les robots de livraison se généralisent : les machines automatisées ne sont pas toujours bien adaptées à l'imprévisibilité des infrastructures urbaines.
Les passages à niveau, en particulier, ne tolèrent aucune erreur. Les trains ne peuvent pas s'arrêter rapidement et, selon les experts, même avec un freinage d'urgence, un train lancé à grande vitesse peut avoir besoin de plus d'un kilomètre pour s'immobiliser.
Les robots de livraison sont conçus pour suivre des itinéraires prédéfinis et éviter les obstacles, mais des pannes mécaniques ou une mauvaise interprétation de la signalisation peuvent les immobiliser, parfois dans des endroits particulièrement dangereux.
Bien que personne n'ait été blessé lors de cet incident, les responsables de la sécurité ferroviaire rappellent que tout objet laissé sur les voies en service, qu'il s'agisse d'une voiture, de débris ou d'un robot de la taille d'une valise, peut mettre en danger les équipes de conduite et les riverains.
Les internautes ont naturellement trouvé l'incident amusant.
« Ils ont commandé un Smashburger. La livraison, bien qu'un peu en retard, s'est déroulée comme prévu », a commenté l'un d'eux.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données





