Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
AI-generated scenes ‘from France’s 2025 Louvre heist’ circulate in Hong Kong

Incident 1273: Purportedly AI-Generated Fake Videos of Louvre Heist Reportedly Circulated Widely Online

“AI-generated scenes ‘from France’s 2025 Louvre heist’ circulate in Hong Kong”Dernier rapport
scmp.com2025-11-17

A daring daytime heist of jewels from the Louvre museum in Paris on October 19 made international headlines.

During the heist, the thieves parked a truck with an extendable ladder under the museum's Apollo Gallery, and used cutting equipment to get through a window and display cases to steal the jewellery.

A Facebook reel featuring footage purportedly of the theft was posted online by a Hong Kong-based user with more than 240,000 followers.

"At around 9.30am, four masked men ... broke into the building from the balcony and took away the jewellery on display," a voice said in Mandarin at the 41-second mark of the video, as two separate clips of masked people breaking glass cases are shown.

A screenshot of different points in the Facebook reel showing the two fabricated videos of the heist. Photo: Facebook/SCMP Composite

A screenshot of different points in the Facebook reel showing the two fabricated videos of the heist. Photo: Facebook/SCMP Composite

However, a digital forensics expert and the Post's own checks show they are not genuine, and likely generated by AI.

The two supposed videos of the heist have also circulated widely online in the aftermath of the robbery, such as on Douyin -- here and here -- and on RedNote here.

Investigation

The Post reached out to AI Forensics, a European non-profit organisation that investigates digital manipulation. It said that the videos contained a "strong indication" of being AI-generated.

"In both cases objects disappear and appear in the hands of the AI-generated thieves, while their hands morph and fingers disappear," researcher Natalia Stanusch told the Post.

Instances of morphed hands (left) and a disappearing crowbar (right) highlighted in the two fabricated videos. Photo: Facebook/Composite via AI Forensics

Instances of morphed hands (left) and a disappearing crowbar (right) highlighted in the two fabricated videos. Photo: Facebook/Composite via AI Forensics

Stanusch also noted both videos contained partially obscured watermarks from OpenAI's Sora, an AI video-generation tool.

Instances of the Sora watermarks in both videos. Photo: Facebook/Composite via AI Forensics

Instances of the Sora watermarks in both videos. Photo: Facebook/Composite via AI Forensics

In the Post's own checks, the scenes were compared to existing visuals of the Apollo Gallery on the Louvre's website.

In the first clip, the appearance of the gallery entrance is notably different from the genuine article.

A comparison of the entrance of the gallery in the fabricated video (left) with an image of the genuine Apollo Gallery (right). Photo: Facebook/Louvre/SCMP Composite

A comparison of the entrance of the gallery in the fabricated video (left) with an image of the genuine Apollo Gallery (right). Photo: Facebook/Louvre/SCMP Composite

In the second clip, the motifs lining the actual gallery's roof and far wall do not match.

A comparison of the roof structure and artwork from the fabricated video (left) and the genuine Louvre gallery (right). Photo: Facebook/Louvre/SCMP Composite

A comparison of the roof structure and artwork from the fabricated video (left) and the genuine Louvre gallery (right). Photo: Facebook/Louvre/SCMP Composite

SCMP Fact-Check has reached out to the Facebook account owner for comment.

Verdict: False

Lire plus
Loading...
Les dossiers de fraude de Facebook

Incident 1268: Les systèmes automatisés de publicité et de ciblage de Meta auraient permis de générer des revenus frauduleux à grande échelle

Traduit par IA
“Les dossiers de fraude de Facebook”
doctorow.medium.com2025-11-15

Un rapport explosif de Reuters, signé Jeff Horwitz, analyse des documents internes divulgués qui révèlent que : 10 % du chiffre d'affaires brut de Meta provient de publicités pour des produits frauduleux et des arnaques ; l'entreprise en est consciente ; et elle a décidé de ne rien faire, car les amendes pour avoir facilité cette fraude dévastatrice sont bien inférieures aux revenus escomptés tirés de la destruction de la vie de ses utilisateurs :

https://www.reuters.com/investigations/meta-is-earning-fortune-deluge-fraudulent-ads-documents-show-2025-11-06/

L'hypothèse de l'enshittification repose sur le principe que les entreprises dégradent délibérément leurs produits et services pour leur propre profit, à vos dépens, parce qu'elles le peuvent. Un environnement politique propice à la corruption, qui récompense la tricherie, l'espionnage et la monopolisation, engendrera inévitablement des monopoles qui trichent et espionnent :

https://pluralistic.net/2025/09/10/say-their-names/#object-permanence

Difficile de trouver un meilleur exemple que les « Facebook Fraud Files » de Reuters. Le résumé ne rend pas justice à ce scandale. La dépravation et la cupidité de Meta face à des fraudes et escroqueries véritablement effroyables sur sa plateforme sont sidérantes.

Voici quelques détails : tout d'abord, les chiffres de l'entreprise estiment qu'elle diffuse 15 milliards de publicités frauduleuses chaque jour, générant 7 milliards de dollars de revenus par an. Malgré ses propres systèmes automatiques signalant les annonceurs à l'origine de ces escroqueries, Meta ne ferme pas leurs comptes ; au contraire, elle leur facture des frais supplémentaires à titre de « dissuasion ». Autrement dit, les publicités frauduleuses sont plus rentables pour Meta que les publicités légitimes.

Des notes internes de Meta reconnaissent également que la plateforme aide les escrocs à cibler automatiquement leurs utilisateurs les plus vulnérables : si un utilisateur clique sur une arnaque, le système de ciblage publicitaire automatisé inonde son fil d'actualité de nouvelles arnaques. L'entreprise sait que l'économie mondiale de la fraude dépend entièrement de Meta, un tiers des arnaques aux États-Unis transitant par Facebook (au Royaume-Uni, ce chiffre atteint 54 % des pertes liées aux arnaques aux paiements). Meta conclut également qu'elle est particulièrement accueillante envers les escrocs, une note interne de 2025 révélant que, selon l'entreprise, « il est plus facile de diffuser des arnaques sur les plateformes Meta que sur Google ».

En interne, Meta a mis en place des mesures pour réduire la fraude sur sa plateforme, mais ces efforts sont ralentis car l'entreprise estime que le montant maximal des amendes qu'elle devra finalement payer dans le monde entier pour des publicités frauduleuses s'élèvera à 1 milliard de dollars, alors qu'elle encaisse actuellement 7 milliards de dollars de revenus par an grâce à la fraude. La note annonçant la lutte contre la fraude conclut que les revenus issus des arnaques dépassent largement « le coût de tout règlement réglementaire concernant les publicités frauduleuses ». Une autre note conclut que l'entreprise ne prendra aucune mesure proactive pour lutter contre la fraude et n'interviendra qu'en réaction à des actions réglementaires.

L'équipe antifraude de Meta fonctionne selon un système de quotas internes qui limite le nombre de publicités frauduleuses qu'elle est autorisée à combattre. Une note de février 2025 indique que l'équipe antifraude n'est autorisée à prendre que des mesures susceptibles de réduire les revenus publicitaires de 0,15 % (135 millions de dollars), alors même que Meta estime que les publicités frauduleuses génèrent 7 milliards de dollars par an pour l'entreprise. Le responsable du programme avertit ses subordonnés : « Nous avons des limites strictes en matière de revenus. »

À quoi ressemble la fraude sur Meta ? Reuters cite l’exemple d’un réseau de comptes frauduleux, dont le montant s’élève à plusieurs centaines de milliers de dollars, qui usurpaient l’identité de militaires américains et tentaient d’escroquer d’autres utilisateurs de Meta en leur envoyant de l’argent. Reuters décrit également une prolifération de faux comptes se faisant passer pour des célébrités ou des représentants de grandes marques afin de voler l’argent des utilisateurs de Meta.

Une autre forme courante de fraude est l’extorsion sexuelle. Il s’agit d’une escroquerie où une personne obtient des photos de vous nu(e) et menace de les publier si vous ne payez pas et/ou si vous ne réalisez pas d’autres actes sexuels devant une caméra. Ces escroqueries ciblent de manière disproportionnée les adolescents et ont conduit des enfants au suicide :

https://www.usatoday.com/story/life/health-wellness/2025/02/25/teenage-boys-mental-health-suicide-sextortion-scams/78258882007/

En 2022, un responsable de Meta a envoyé une note interne se plaignant d'un « manque d'investissement » dans les systèmes de lutte contre la fraude. L'entreprise avait classé ce type de fraude comme un problème « peu grave » et sous-estimait délibérément les ressources allouées aux efforts de répression.

La situation n'a fait qu'empirer les années suivantes, lorsque Meta a procédé à des licenciements massifs au sein de son service de lutte contre la fraude afin de dégager des capitaux pour financer une autre forme d'escroquerie : les fraudes massives aux investisseurs liées au métavers et à l'IA.

https://pluralistic.net/2025/05/07/rah-rah-rasputin/#credulous-dolts

Ces licenciements ont parfois entraîné la fermeture de départements entiers. Par exemple, en 2023, toute l'équipe chargée des « préoccupations des annonceurs concernant les droits de marque » a été licenciée. Parallèlement, les divisions métavers et IA de Meta ont bénéficié d'une priorité absolue sur les ressources de l'entreprise, au point que les équipes de sécurité ont reçu l'ordre de cesser toute utilisation intensive de l'infrastructure et de se contenter d'un fonctionnement minimal, se limitant au strict minimum.

Ces équipes de sécurité recevaient environ 10 000 signalements de fraude valides par semaine, mais, de leur propre aveu, en ignoraient ou en rejetaient à tort 96 %. Face à cette révélation, l’entreprise s’est engagée à réduire à seulement 75 % d’ici 2023 la part des signalements de fraude valides ignorés.

Lorsque Meta ignore et ne traite pas les signalements de fraude valides, ses utilisateurs perdent tout. Reuters rapporte le cas d’une recruteuse de l’armée de l’air canadienne dont le compte a été piraté. Malgré les signalements répétés de la victime, Meta n’a donné suite à aucun d’entre eux. Les escrocs qui contrôlaient le compte ont usurpé l’identité de la victime auprès de ses contacts de confiance, faisant la promotion d’arnaques aux cryptomonnaies et prétendant qu’elle avait acheté un terrain pour y construire la maison de ses rêves grâce à ses gains.

Pendant que Meta restait inactive, les amis de la victime ont tout perdu. Un collègue, Mike Lavery, s'est fait escroquer de 40 000 $ CA. Il a déclaré à Reuters : « Je pensais parler à un ami de confiance, réputé pour son sérieux. Du coup, j'ai baissé ma garde. » Quatre autres collègues ont également été victimes de cette arnaque.

La personne dont le compte avait été piraté a supplié ses amis de signaler la fraude à Meta. Ils ont envoyé des centaines de signalements à l'entreprise, qui les a tous ignorés, même ceux transmis par la Gendarmerie royale du Canada au service antifraude de Meta au Canada.

Meta qualifie ce type d'escroquerie, où les fraudeurs usurpent l'identité d'utilisateurs, d'« organique », la distinguant ainsi des publicités frauduleuses, où les escrocs paient pour atteindre leurs victimes potentielles. Meta estime héberger 22 milliards de publicités frauduleuses « organiques » par jour. Ces arnaques organiques sont souvent autorisées par les conditions d'utilisation de Meta : lorsque la police de Singapour a signalé à Meta 146 publications frauduleuses, l'entreprise a conclu que seulement 23 % d'entre elles violaient ses conditions d'utilisation. Toutes les autres étaient autorisées.

Parmi ces fraudes autorisées figuraient des offres alléchantes promettant des réductions de 80 % sur de grandes marques de mode, des offres de faux billets de concert et de fausses offres d'emploi – toutes permises par les propres politiques de Meta. Des notes internes consultées par Reuters montrent que les équipes antifraude de Meta étaient très contrariées de constater que ces arnaques n'étaient pas interdites sur la plateforme. Un employé de Meta a même écrit : « Les politiques actuelles ne permettraient pas de signaler ce compte ! »

Mais même si un fraudeur viole les conditions d'utilisation de Meta, l'entreprise ne réagit pas. Conformément aux politiques de Meta, un « Compte à Valeur Élevée » (un compte dépensant des sommes importantes en publicités frauduleuses) doit accumuler plus de 500 avertissements (violations avérées des politiques de Meta) avant que l'entreprise ne le supprime.

L'équipe de sécurité de Meta, exaspérée par la collaboration de fait de l'entreprise avec les fraudeurs qui s'en prenaient à ses utilisateurs, a créé un prix hebdomadaire du « Pire Arnaqueur », décerné à l'annonceur ayant généré le plus de plaintes durant la semaine. Mais cette initiative n'a eu aucun effet concret : Reuters a constaté que 40 % des « Pire Arnaqueurs » étaient toujours actifs sur la plateforme six mois après avoir été signalés comme les fraudeurs les plus prolifiques de l'entreprise.

Ce mépris flagrant pour les utilisateurs de Meta n'est pas le fruit d'une nouvelle tendance sadique au sein de la direction. Comme le démontre de façon exhaustive le livre de Sarah Wynn-Williams, Careless People, la lanceuse d'alerte, l'entreprise a toujours été dirigée par des individus sans scrupules, prêts à vous infliger d'horribles tortures pour s'enrichir :

https://pluralistic.net/2025/04/23/zuckerstreisand/#zdgaf

Ce qui a changé au fil du temps, c'est leur capacité à s'enrichir en vous escroquant. Leurs propres calculs internes révèlent leur fonctionnement : ils gagnent plus d'argent grâce à la fraude (7 milliards de dollars par an) qu'ils n'en paieront jamais en amendes pour vous avoir exposé à la fraude. Une amende a un prix, et ce prix est justifié (pour la fraude).

L'entreprise pourrait réduire la fraude, mais cela coûte cher. Pour réduire la fraude, il leur faut investir dans des employés chargés de lutter contre la fraude et d'examiner les signalements automatisés et ceux des utilisateurs, et accepter les pertes liées aux « faux positifs » – le blocage excessif d'annonces qui semblent frauduleuses, mais qui ne le sont pas. Il est important de noter que ces deux conséquences sont inversement proportionnelles : plus l'entreprise investit dans la vérification humaine, moins elle capturera de fraudes.

Consacrer davantage de ressources à la lutte contre la fraude ne signifie pas s'engager à éradiquer toute la fraude de la plateforme. C'est probablement impossible, et tenter d'y parvenir impliquerait une intrusion dans les interactions privées des utilisateurs. Cependant, il n'est pas nécessaire que Meta s'immisce dans chaque conversation entre amis pour déterminer si l'un d'eux escroque les autres, afin d'enquêter sur les plaintes des utilisateurs et d'y donner suite. Il n'est pas nécessaire que Meta s'immisce dans vos conversations pour supprimer les fraudeurs prolifiques et lucratifs sans attendre qu'ils accumulent 500 violations du règlement.

Et bien sûr, il existe un moyen pour Meta de réduire considérablement la fraude : supprimer son système de ciblage publicitaire intrusif. Le point de départ du parcours publicitaire de Meta est constitué des dossiers non consensuels que la plateforme a constitués sur plus de 4 milliards de personnes dans le monde. Les escrocs paient pour accéder à ces dossiers et ciblent leurs publicités sur les utilisateurs les plus vulnérables.

Il s'agit d'une conséquence parfaitement prévisible de la violation grave et répétée des droits humains de milliards de personnes par l'espionnage. Collecter et vendre l'accès à toutes ces données de surveillance revient à amasser une montagne de chiffons imbibés d'huile, si importante qu'on pourrait en tirer des milliards en les transformant en carburant de mauvaise qualité. Ce système n'est rentable que si l'on parvient à faire payer à autrui les inévitables conséquences désastreuses :

https://locusmag.com/feature/cory-doctorow-zucks-empire-of-oily-rags/

C'est précisément ce que fait Meta : privatiser les gains tirés de notre espionnage et socialiser les pertes que nous subissons tous à cause des inévitables répercussions. Ils ne peuvent toutefois agir ainsi que grâce à la complaisance des autorités de régulation. Aux États-Unis, le Congrès n'a pas adopté de nouvelle loi sur la protection de la vie privée des consommateurs depuis 1988, date à laquelle il a criminalisé le fait pour les employés des vidéoclubs de divulguer les informations relatives à vos locations de VHS :

https://pluralistic.net/2023/12/06/privacy-first/#but-not-just-privacy

Meta nous espionne et permet ensuite à des prédateurs d'utiliser cette surveillance pour détruire nos vies, tout comme votre chien se lèche les testicules : parce qu'ils le peuvent. Leur comportement est quasiment garanti par un environnement politique complaisant, qui permet à Meta de nous espionner sans limite et qui leur inflige une amende d'un milliard de dollars pour avoir engrangé sept milliards de dollars grâce à notre malheur.

Mark Zuckerberg a toujours été une personne odieuse, mais – comme le démontre Sarah Wynn-Williams dans son livre – il était autrefois prudent, soucieux des conséquences qu'il subirait s'il nous nuisait. Une fois ces conséquences écartées, Zuckerberg a fait exactement ce que sa nature lui dictait : détruire nos vies pour accroître sa propre fortune.

Lire plus
Loading...
Des élèves relogés après qu'une arme à feu ait été signalée au lycée de Parkville.

Incident 1267: L'intelligence artificielle d'Omnilert aurait déclenché une fausse alerte à la bombe au lycée de Parkville, entraînant le déménagement des élèves.

Traduit par IA
“Des élèves relogés après qu'une arme à feu ait été signalée au lycée de Parkville.”
patch.com2025-11-15

PARKVILLE, MD — La police a déclaré qu'aucune menace n'avait été détectée vendredi après qu'un système de sécurité basé sur l'intelligence artificielle a signalé la présence possible d'une arme à feu dans un établissement scolaire du comté de Baltimore.

Les agents ont indiqué être intervenus au lycée de Parkville, situé au 2600, avenue Putty Hill, vers 17 h.

Les élèves ont été déplacés pendant que la police effectuait une fouille de l'établissement.

Le département de police du comté de Baltimore a annoncé que les activités scolaires normales avaient repris après la levée de l'alerte.

« Par mesure de précaution, un responsable de la police du comté de Baltimore a demandé une fouille des lieux. Les élèves ont été immédiatement mis en sécurité et placés sous surveillance », a écrit la directrice du lycée Parkville, Maureen Astarita, dans un message adressé aux familles vendredi soir, selon le Baltimore Sun.

Cette fouille à Parkville faisait suite à un incident similaire survenu en octobre au lycée Kenwood d'Essex, où le système Omnilert avait signalé un sac de chips appartenant à un joueur de football américain comme pouvant contenir une arme, ce qui avait conduit les policiers à menotter des adolescents jusqu'à ce qu'ils comprennent qu'il n'y avait aucun danger.

Cet incident a incité les autorités à réclamer un renforcement de la supervision humaine avant toute intervention policière suite à un signalement Omnilert. Les écoles publiques du comté de Baltimore ont promis une formation annuelle sur les protocoles d'utilisation d'Omnilert, un système qui signale uniquement les menaces potentielles et les transmet à des personnes pour vérification.

Lire plus
Loading...
Waymo connaissait un succès fulgurant à San Francisco. Puis, l'une de ses voitures autonomes a tué un chat.

Incident 1269: Un véhicule autonome Waymo aurait écrasé et tué un chat à San Francisco.

Traduit par IA
“Waymo connaissait un succès fulgurant à San Francisco. Puis, l'une de ses voitures autonomes a tué un chat.”
nytimes.com2025-11-15

Au Delirium, un bar miteux du quartier Mission à San Francisco, l'ambiance est sombre, les cocktails sont corsés et l'atmosphère est électrique. Les punks et les habitués de la vieille école ont l'air de durs à cuire, mais ils sont en deuil.

Kit Kat avait l'habitude de faire la tournée des bars du quartier, se faufilant au Delirium pour trouver de la compagnie et des caresses. Tout le monde connaissait ce chat de l'épicerie, qu'on surnommait affectueusement le Maire de la 16e Rue. Kit Kat était leur « pote », disaient les gars qui traînaient au coin de la rue.

Mais peu avant minuit, le 27 octobre, le chat tigré a été renversé juste devant le bar et laissé pour mort. Le coupable ?

Un taxi autonome.

Chaque année, des centaines d'animaux sont tués par des conducteurs à San Francisco. Mais la mort d'un chat, écrasé par la roue arrière d'un taxi autonome Waymo, a provoqué la colère de certains habitants du quartier Mission, grands amateurs de Kit Kat, et l'indignation de ceux qui déplorent l'emprise de l'automatisation sur de nombreux aspects de la société.

« Waymo ? Hors de question ! J'ai une peur bleue de ces engins », s'exclame Margarita Lara, barmaid et grande fan de Kit Kat. « Il y en a tellement maintenant. Ils les ont lâchés dans notre ville, c'est inadmissible. »

La mort de Kit Kat a suscité l'indignation et le débat ces trois dernières semaines à San Francisco. Un mémorial félin a rapidement vu le jour. Les esprits se sont enflammés sur les réseaux sociaux : certains déplorent l'invasion des taxis autonomes, tandis que d'autres s'interrogent sur l'absence de la même réaction face aux piétons et aux animaux tués par des conducteurs humains au fil des ans.

Un conseiller municipal a appelé les autorités de l'État à accorder aux habitants un pouvoir de décision local concernant les taxis autonomes. Et, comme on est à San Francisco, des pièces de monnaie à l'effigie de Kit Kat, inspirées par la disparition du chat, ont même fait leur apparition.

Mais tout cela n'est que du bruit chez Delirium. Kit Kat y était adoré. Et maintenant, il n'est plus là.

« Kit Kat avait une présence incroyable », a déclaré Lee Ellsworth, coiffé d'une casquette des 49ers de San Francisco et une canette de bière Pabst Blue Ribbon à la main.

Avant que la mort de Kit Kat ne fasse les gros titres, Waymo était en plein essor. La société de voitures autonomes, propriété d'Alphabet, la maison mère de Google, a déployé son service de taxis autonomes à San Francisco en 2024 et dispose désormais d'une flotte de 1 000 véhicules dans la baie. Elle a annoncé ce mois-ci une expansion avec un service autoroutier le long de la péninsule et des prises en charge à l'aéroport de San Jose. Waymo prévoit également de desservir prochainement l'aéroport international de San Francisco.

Il y a à peine deux ans, les Jaguar blanches équipées de caméras sur le toit étaient considérées comme des curiosités. Les passants s'arrêtaient à deux fois en voyant le volant tourner sans personne au volant.

Les Waymo sont désormais une attraction touristique majeure à San Francisco. De nombreuses femmes les trouvent plus sûrs que les Uber ou Lyft conduits par des hommes. Tellement de parents en ont commandé pour leurs enfants que certaines écoles ressemblent à des parkings Waymo.

Grow SF, un groupe politique modéré lié au secteur technologique, a constaté que le soutien des électeurs de San Francisco à Waymo avait bondi de 44 % en septembre 2023 à 67 % en juillet dernier.

Cependant, la disparition de Kit Kat a redonné du grain à moudre aux détracteurs. Ils affirment que les taxis autonomes détournent les usagers des transports en commun, suppriment des emplois, enrichissent les dirigeants de la Silicon Valley et sont tout simplement inquiétants.

Jackie Fielder, conseillère municipale progressiste de San Francisco représentant le quartier de Mission, compte parmi les critiques les plus virulentes. Après la mort de Kit Kat, elle a présenté une résolution municipale demandant à l'Assemblée législative de l'État de soumettre la question de la circulation des voitures autonomes à un référendum. (Actuellement, la Californie réglemente les véhicules autonomes.)

« Un conducteur humain peut être tenu responsable, peut sortir de son véhicule, présenter ses excuses et être retrouvé par la police en cas de délit de fuite », a déclaré Mme Fielder lors d'une interview. « Ici, personne n'est tenu responsable. »

Mme Fielder entretient des liens étroits avec les syndicats, notamment les Teamsters, qui militent pour une réglementation plus stricte des véhicules autonomes, principalement par crainte que leurs membres ne perdent leur emploi de chauffeur dans d'autres secteurs.

Mme Fielder a publié des vidéos sur les réseaux sociaux, la montrant arpentant les rues du quartier de Mission tout en évoquant Kit Kat.

« Nous n'oublierons jamais notre chère Kit Kat », dit-elle dans l'une d'elles. « Le pauvre… a enduré une agonie horrible, une agonie interminable. »

(Le mot « agonie » est parfois utilisé par certains internautes pour contourner les algorithmes qui censurent les vidéos contenant des mots comme « mort ».)

Des hommages ont fleuri devant le marché de Randa, où le propriétaire, Mike Zeidan, a recueilli Kit Kat il y a six ans pour chasser les souris. Le chat se prélassait sur le comptoir du magasin quand il n'errait pas dans la 16e Rue. Un voisin lui apportait chaque jour des tranches de saumon ; un autre envoyait une photo de Kit Kat à sa mère tous les matins.

Sur un arbre à l'extérieur sont accrochées des photos du chat et un dessin le représentant avec une auréole.

« Sauvez un chat », peut-on lire sur le dessin. « Ne prenez pas Waymo ! »

Des bouquets de fleurs, une souris en peluche et un emballage de Kit Kat complètent l'hommage.

Un arbre plus loin, un autre hommage prend la forme d'un tout autre genre.

« Waymo a tué le chat préféré de mon enfant », peut-on lire sur une pancarte. « Les conducteurs humains ont tué 42 personnes l'an dernier. » (En réalité, selon les données de la ville, 43 personnes ont été tuées par des conducteurs humains à San Francisco l'an dernier, dont 24 piétons, 16 automobilistes et 3 cyclistes. Aucun de ces décès n'a été imputé à un Waymo.)

Cette pancarte visait à relativiser la mort du chat, dans une ville où il est possible de se déplacer à pied, mais où les piétons sont toujours exposés au danger. En 2014, la ville s'était engagée à mettre fin aux accidents mortels de la route en 10 ans, mais le bilan de l'an dernier est l'un des plus élevés jamais enregistrés.

La ville ne comptabilise pas le nombre d'animaux tués par des voitures chaque année, mais ce nombre se chiffre en centaines, selon Deb Campbell, porte-parole du service de protection animale de San Francisco.

Elle a indiqué que la chambre froide du service contenait la semaine dernière les corps de 12 chats, vraisemblablement percutés par des voitures ces dernières semaines. Aucun de ces décès ne semble avoir suscité de couverture médiatique, d'hommages ou de détournements de pièces.

Waymo ne conteste pas qu'un de ses véhicules ait causé la mort de Kit Kat. L'entreprise a publié un communiqué expliquant que, lors de la prise en charge de passagers par un de ses véhicules, un chat « s'est précipité sous notre véhicule au moment où il démarrait ».

« Nous présentons nos plus sincères condoléances au propriétaire du chat et à la communauté qui le connaissait et l'aimait », a déclaré Waymo dans un communiqué.

Waymo affirme avec conviction que ses véhicules sont bien plus sûrs que ceux conduits par des humains, avec 91 % d'accidents graves en moins par rapport aux conducteurs humains parcourant le même nombre de kilomètres dans les mêmes villes. Ces données proviennent d'un document de recherche de l'entreprise, évalué par des pairs et publié dans une revue scientifique. Waymo exploite également des services de taxi complets à Los Angeles et Phoenix et propose des trajets en partenariat avec Uber à Atlanta et Austin, au Texas.

Le maire de San Francisco, Daniel Lurie, est un fervent partisan des Waymo. Plus tôt cette année, il avait annoncé qu'il autoriserait la circulation de ces véhicules autonomes sur Market Street, l'artère principale de la ville, réservée depuis cinq ans aux piétons et aux transports en commun. Il a également défendu ces taxis autonomes lors d'une interview accordée jeudi à la journaliste spécialisée en technologie Kara Swisher, après que celle-ci ait évoqué l'incident de Kit Kat.

« Les Waymo sont incroyablement sûrs », a-t-il déclaré. « C'est plus sûr que de prendre le volant. »

Rick Norris, qui travaille au Roxie Theater dans le quartier de Mission, a confié apprécier les Waymo et avoir constaté qu'ils se faufilaient de mieux en mieux dans les rues sinueuses de la ville. Mais il s'est inquiété après avoir discuté avec plusieurs personnes qui avaient été témoins des derniers instants de Kit Kat et qui avaient raconté avoir tenté d'arrêter le Waymo en apercevant le chat en dessous.

La voiture est simplement partie.

C'est à ce moment précis que Sheau-Wha Mou, barmaid et animatrice de karaoké au Delirium, a pris sa pause cigarette. Elle vit des gens paniquer sur le trottoir. Elle se précipita et trouva Kit Kat souffrant, du sang coulant de sa bouche.

« Je me suis agenouillée et je lui parlais », se souvient-elle. « “Que s’est-il passé ? Ça va ?” »

Elle raconta avoir utilisé le panneau publicitaire du bar comme brancard. Un inconnu la conduisit ensuite, avec Kit Kat, à une clinique vétérinaire d’urgence voisine. M. Zeidan, le propriétaire de l’épicerie, arriva peu après.

Une heure plus tard, le vétérinaire annonça à M. Zeidan que Kit Kat était mort.

Des photos de Kit Kat sont toujours exposées près de la caisse enregistreuse du marché Randa, à côté des dés et des briquets en vente. M. Zeidan confie qu’il regrette toujours ce chasseur de souris devenu la figure emblématique du quartier.

Darrell Smith est passé au marché lundi, perpétuant ainsi son rituel hebdomadaire qui consiste également à commander une assiette composée au restaurant de barbecue hawaïen voisin. Il regrettait les Kit Kat, a-t-il dit, mais s'attarder sur la voiture autonome lui semblait une perte de temps.

« Je suis moi-même sceptique quant à ces voitures Waymo », a-t-il déclaré. « Mais l'IA, c'est l'avenir. On ne peut pas l'arrêter, qu'on le veuille ou non. »

Lire plus
Loading...
La tricherie de l'IA perturbe les meilleures universités de Corée du Sud

Incident 1270: Plusieurs cas présumés de tricherie assistée par l'IA signalés dans les universités SKY de Corée du Sud lors des examens de mi-semestre d'octobre 2025

Traduit par IA
“La tricherie de l'IA perturbe les meilleures universités de Corée du Sud”
nytimes.com2025-11-15

De nombreux étudiants sud-coréens profitent de leur temps libre, soulagés d'avoir terminé leurs examens de mi-semestre. Cependant, les universités d'élite du pays sont en pleine tourmente après la révélation d'une vague de tricheries massives impliquant l'intelligence artificielle (IA) durant cette période d'examens.

Un incident majeur, survenu à l'université Yonsei de Séoul, a été rendu public dimanche. Les médias locaux ont rapporté qu'un professeur avait découvert que des dizaines d'étudiants avaient potentiellement triché en utilisant des manuels scolaires, des logiciels ou même ChatGPT lors d'un examen de mi-semestre en ligne portant sur un cours consacré à ChatGPT. Sur les centaines d'étudiants ayant passé l'examen, 40 ont admis avoir triché, a indiqué l'université.

Quelques jours plus tard, des cas similaires de tricherie massive ont été signalés dans deux autres établissements prestigieux de Corée du Sud : l'université nationale de Séoul et l'université de Corée, qui ont également confirmé que des étudiants avaient utilisé l'IA pour tricher lors d'examens récents. Ces universités sont collectivement connues sous l'acronyme SKY, qui souligne leur statut dans le système éducatif coréen, extrêmement compétitif.

Alors que l'utilisation discutable de l'intelligence artificielle dans les universités se généralise, il est rare que les universités les plus prestigieuses d'un pays soient simultanément impliquées dans des scandales liés à l'IA.

L'éducation reste perçue comme un moteur d'ascension sociale en Corée du Sud, pays qui affiche l'un des taux les plus élevés de diplômés de l'enseignement supérieur parmi les pays développés. Pour la plupart des étudiants, l'objectif est d'intégrer les universités les plus prestigieuses du pays.

Pour ce faire, ils doivent obtenir un score maximal à un examen d'entrée à l'université de huit heures, qui évalue leurs connaissances en coréen, en mathématiques, en anglais et dans d'autres matières. Jeudi, plus d'un demi-million d'élèves de terminale en Corée du Sud ont passé cet examen, une tradition vieille de plusieurs décennies qui perturbe le rythme de toute la nation. Les vols sont cloués au sol, les chantiers sont à l'arrêt et des restrictions de circulation sont mises en place. Le public est prié de limiter le bruit au minimum afin de permettre aux étudiants de se concentrer.

Ces dernières années, l'intelligence artificielle (IA) s'est fortement implantée dans l'enseignement supérieur. Plus de 90 % des étudiants sud-coréens ayant une certaine expérience de l'IA générative ont déclaré utiliser ces outils dans le cadre de leurs travaux scolaires, selon une enquête menée en 2024 par l'Institut coréen de recherche sur l'enseignement et la formation professionnels (Krivet.re.kr/kor/sub.do?menuSn=14&pstNo=PB0000000598).

Certains enseignants estiment que les établissements d'enseignement supérieur n'ont pas su s'adapter.

« L'IA est un outil de mémorisation et d'organisation de l'information. Nous ne pouvons donc plus évaluer les étudiants sur ces compétences », a déclaré Park Joo-Ho, professeur de sciences de l'éducation à l'université Hanyang. Puisque les étudiants utilisent déjà l'IA, a-t-il ajouté, il faudrait plutôt évaluer leur créativité, un domaine où l'IA excelle. Impossible à reproduire.

« La méthode d'enseignement actuelle est déjà dépassée », a-t-il déclaré.

Les étudiants de Yonsei inscrits au cours « Traitement automatique du langage naturel et ChatGPT » n'ont pas été autorisés à utiliser l'IA lors de l'examen de mi-session du 15 octobre. L'examen se déroulait en ligne et les candidats devaient laisser la webcam de leur ordinateur portable allumée afin d'être surveillés. Après avoir visionné les enregistrements, un professeur a déclaré avoir constaté des cas de tricherie chez des dizaines d'étudiants. Ils recevront la note de zéro à l'examen, a indiqué l'université. Par ailleurs, des étudiants de Yonsei ont été surpris en train de partager des réponses à un examen via une application mobile utilisant l'IA, a précisé l'université.

« Il est inévitable que l'IA influence notre système éducatif », a déclaré Ju Yuntae, étudiant en éducation physique à Yonsei. Il a expliqué avoir utilisé ChatGPT pour trouver des articles de recherche et pour obtenir de l'aide pour la traduction entre l'anglais et le coréen.

« Mais si les étudiants rompent un pacte avec leurs professeurs de ne pas l'utiliser », a-t-il déclaré, « c'est une question de confiance et un problème plus grave. »

Ce pacte semble également avoir été enfreint à l'Université de Corée à Séoul. Plusieurs étudiants ont admis avoir utilisé l'IA lors d'un examen en ligne le mois dernier, dans le cadre d'un cours sur le vieillissement des sociétés, a indiqué une porte-parole de l'université. Un étudiant a signalé que certains avaient utilisé une messagerie de groupe pour partager des enregistrements de leurs écrans et de leurs réponses pendant toute la durée de l'examen. Ces étudiants recevront la note de zéro, a précisé la porte-parole.

Dans un communiqué publié mercredi, l'Université nationale de Séoul a déclaré avoir découvert que des étudiants avaient utilisé l'IA pour tricher à un examen de statistiques, sans toutefois fournir davantage de détails. L'examen sera repassé, a indiqué l'université.

Ces dernières années, ces établissements ont établi des directives concernant l'IA. L'Université de Corée dispose d'un guide de 82 pages stipulant que « toute utilisation ou soumission non autorisée de contenu généré par l'IA est considérée comme une fraude académique ». Le règlement de l'université Yonsei stipule que l'utilisation de l'IA pour « générer la quintessence et la créativité de la recherche est interdite ».

Lee T.H., doctorant en génie informatique à l'université nationale de Séoul, a remarqué que les étudiants utilisaient l'IA peu après la sortie de ChatGPT par OpenAI en 2022. Il utilise désormais l'IA pour accélérer sa programmation.

« Certains professeurs n'apprécient pas que nous utilisions l'IA », a-t-il déclaré. « D'autres l'encouragent car elle permet de résoudre les problèmes plus rapidement. »

Mais, a-t-il ajouté, « il est impossible d'empêcher les étudiants de l'utiliser ».

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    630
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    721
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    228
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2869
  • 🥈

    Anonymous

    964
  • 🥉

    1

    590
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 353a03d