Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Bienvenue dans
la base de données des incidents d'IA

Loading...
Cybercriminals unleash fake Centrelink scam on vulnerable Australians

Incident 1275: Purportedly AI-Enhanced Phishing Campaign Allegedly Impersonates Australian Government Services in Large-Scale Welfare Scam

“Cybercriminals unleash fake Centrelink scam on vulnerable Australians”Dernier rapport
smh.com.au2025-11-19

More than 270,000 malicious emails impersonating Services Australia and Centrelink have flooded Australian inboxes in one of the nation's largest phishing campaigns in years, with the sophisticated attacks specifically targeting the country's most vulnerable citizens.

The massive campaign, uncovered by human risk management platform Mimecast, has been bombarding Australians with fake government emails averaging 70,000 messages per month over the past four months, with attackers using artificial intelligence to create near-perfect clones of legitimate government communications.

The emails mimic government correspondence about Medicare, JobSeeker payments, Superannuation, and Family Tax Benefits with alarming accuracy.

"This particular attack is a significant cause for concern," Mimecast senior director Garrett O'Hara told this masthead. "The targeting of the scam is broad and non-specific, so it's impacting everyday Aussies trying to access essential government services, as well as targeting a wide range of organisations including schools, hospitals, law firms, corporations, and even government agencies themselves."

The criminal operation, tracked by Mimecast as MCTO3001, is exploiting trusted email platforms including SendGrid, Mailgun, and Microsoft Office 365 to disguise their origins and evade spam filters.

"These aren't the clumsy scams of years past," O'Hara said. "Attackers are using legitimate systems and leveraging detailed knowledge of Australian benefit systems including superannuation, Medicare, JobSeeker payments, and Family Tax Benefits, to make their emails look authentic. They're exploiting the trust that Australian citizens have in the federal government to deliver their attacks."

The scammers are using advanced evasion techniques including "reverse tunnelling" -- hiding their infrastructure behind legitimate services to make blocking attempts extremely difficult. Some attackers have even compromised real email accounts or hosted fake government login pages on legitimate web services.

"Once a victim clicks a link and enters their details, attackers can gain access to personal or business accounts, leading to data theft, malware installation, or even full-blown ransomware infections," O'Hara said.

The scale and sophistication of the attacks has raised alarm about AI's role in cybercrime, and growing evidence that state-backed hackers are exploiting AI systems for cyberattacks. Anthropic, the company behind the Claude AI model, announced on Thursday that Chinese state-backed hackers used Claude to automate roughly 30 attacks on corporations and governments during a September campaign.

'We're seeing criminals blend old-school social engineering with cutting-edge evasion techniques.'

Garrett O'Hara, Mimecast senior director

In those attacks, up to 80 to 90 per cent of the operation was automated with AI, a level higher than previous hacks. The attacks occurred "literally with the click of a button, and then with minimal human interaction," Anthropic's head of threat intelligence Jacob Klein said.

While attribution of the Australian attacks remains difficult, Mimecast's threat intelligence team believes the criminals are using AI to generate convincing phishing emails and potentially create post-delivery malware.

"It's impossible to say for sure the degree to which AI is currently being used by criminals, but the level of sophistication for attacks is increasing very quickly," O'Hara said. "We're seeing criminals blend old-school social engineering with cutting-edge evasion techniques. They're not slowing down, they're evolving quickly, so AI is almost certainly playing a part."

The targeting of welfare services means vulnerable Australians are disproportionately at risk. "The most vulnerable people in society" are being targeted, O'Hara said. "It's particularly sickening."

Mimecast advises Australians who receive suspicious government emails to avoid clicking links or downloading attachments. Instead, they should navigate directly to myGov through their browser to verify any communications.

The Department of Home Affairs was contacted for comment. Anyone who receives suspicious emails should report them to ScamWatch.gov.au or call the national cybersecurity hotline at 1300 CYBER1 (1300 292 371). Reports can also be made at cyber.gov.au.

Lire plus
Loading...
Des scènes générées par IA, inspirées du « braquage du Louvre en France en 2025 », circulent à Hong Kong.

Incident 1273: Purportedly AI-Generated Fake Videos of Louvre Heist Reportedly Circulated Widely Online

“Des scènes générées par IA, inspirées du « braquage du Louvre en France en 2025 », circulent à Hong Kong.”
scmp.com2025-11-17

Un audacieux vol de bijoux commis en plein jour au musée du Louvre à Paris le 19 octobre a fait la une des journaux internationaux.

Lors du vol, les malfaiteurs ont garé un camion équipé d'une échelle télescopique sous la galerie Apollo du musée et ont utilisé du matériel de découpe pour briser une vitrine et dérober les bijoux.

Une vidéo (https://archive.ph/vrSON) présentant des images prétendument du vol a été publiée en ligne par un utilisateur basé à Hong Kong et suivi par plus de 240 000 personnes.

« Vers 9h30, quatre hommes masqués… ont pénétré dans le bâtiment par le balcon et ont emporté les bijoux exposés », déclare une voix en mandarin à la 41e seconde de la vidéo, tandis que deux séquences distinctes montrent des personnes masquées brisant des vitrines.

![Capture d'écran de différents moments de la vidéo Facebook montrant les deux vidéos truquées du vol.] Photo : Montage Facebook/SCMP](https://img.i-scmp.com/cdn-cgi/image/fit=contain,width=1024,format=auto/sites/default/files/d8/images/canvas/2025/11/17/f3ae800d-5590-41b1-a5a5-ac43bc9a02c6_10526fe6.jpg "Capture d'écran de différents moments de la vidéo Facebook montrant les deux vidéos truquées du braquage. Photo : Montage Facebook/SCMP")

Capture d'écran de différents moments de la vidéo Facebook montrant les deux vidéos truquées du braquage. Photo : Montage Facebook/SCMP

Cependant, un expert en criminalistique numérique et les vérifications du Washington Post montrent qu'elles sont fausses et probablement générées par une intelligence artificielle.

Les deux vidéos présumées du braquage ont également circulé massivement en ligne après le vol, notamment sur Douyin (ici et ici) et sur RedNote (ici).

Enquête

Le Post a contacté AI Forensics, une organisation européenne à but non lucratif spécialisée dans l'analyse des manipulations numériques. Selon cette organisation, les vidéos présentaient de fortes indications d'avoir été générées par une intelligence artificielle.

« Dans les deux cas, des objets disparaissent et réapparaissent dans les mains des voleurs virtuels, tandis que leurs mains se transforment et que leurs doigts disparaissent », a déclaré la chercheuse Natalia Stanusch au Post.

![Exemples de mains déformées (à gauche) et de pied-de-biche qui disparaît (à droite) mis en évidence dans les deux vidéos truquées.] Photo : Facebook/Composite via AI Forensics](https://img.i-scmp.com/cdn-cgi/image/fit=contain,width=1024,format=auto/sites/default/files/d8/images/canvas/2025/11/17/b9377f45-4356-474b-b13a-acace5848a85_f784aef9.jpg "Instances de mains modifiées (à gauche) et d'un pied-de-biche qui disparaît (à droite) mises en évidence dans les deux vidéos truquées. Photo : Facebook/Composite via AI Forensics")

Instances de mains modifiées (à gauche) et d'un pied-de-biche qui disparaît (à droite) mises en évidence dans les deux vidéos truquées. Photo : Facebook/Composite via AI Forensics

Stanusch a également noté que les deux vidéos contenaient des filigranes partiellement masqués provenant de Sora d'OpenAI, un outil de génération vidéo par IA.

Présence du filigrane Sora dans les deux vidéos. Photo : Facebook/Composite via AI Forensics

Présence du filigrane Sora dans les deux vidéos. Photo : Facebook/Composite via AI Forensics

Dans le cadre de ses propres vérifications, le Phnom Penh Post a comparé les scènes aux images existantes de la Galerie d'Apollon disponibles sur le site web du Louvre.

Dans le premier extrait, l'apparence de l'entrée de la galerie diffère sensiblement de la réalité.

Comparaison de l'entrée de la galerie dans la vidéo truquée (à gauche) avec une image de la véritable galerie Apollo (à droite). Photo : Facebook/Louvre/SCMP Composite

Comparaison de l'entrée de la galerie dans la vidéo truquée (à gauche) avec une image de la véritable galerie Apollo (à droite). Photo : Montage Facebook/Louvre/SCMP

Dans le deuxième extrait, les motifs ornant le plafond et le mur du fond de la galerie ne correspondent pas.

![Comparaison de la structure du toit et des œuvres d'art entre la vidéo truquée (à gauche) et la véritable galerie du Louvre (à droite).] Photo : Montage Facebook/Louvre/SCMP](https://img.i-scmp.com/cdn-cgi/image/fit=contain,width=1024,format=auto/sites/default/files/d8/images/canvas/2025/11/17/6e9dbf5c-7b59-4bc7-ac3c-5d232b773c4f_13f79673.jpg "Comparaison de la structure du toit et des œuvres d'art de la vidéo truquée (à gauche) et de la véritable galerie du Louvre (à droite). Photo : Montage Facebook/Louvre/SCMP")

Comparaison de la structure du toit et des œuvres d'art de la vidéo truquée (à gauche) et de la véritable galerie du Louvre (à droite). Photo : Montage Facebook/Louvre/SCMP

SCMP Fact-Check a contacté le propriétaire du compte Facebook pour obtenir un commentaire.

Verdict : Faux

Lire plus
Loading...
Les dossiers de fraude de Facebook

Incident 1268: Les systèmes automatisés de publicité et de ciblage de Meta auraient permis de générer des revenus frauduleux à grande échelle

Traduit par IA
“Les dossiers de fraude de Facebook”
doctorow.medium.com2025-11-15

Un rapport explosif de Reuters, signé Jeff Horwitz, analyse des documents internes divulgués qui révèlent que : 10 % du chiffre d'affaires brut de Meta provient de publicités pour des produits frauduleux et des arnaques ; l'entreprise en est consciente ; et elle a décidé de ne rien faire, car les amendes pour avoir facilité cette fraude dévastatrice sont bien inférieures aux revenus escomptés tirés de la destruction de la vie de ses utilisateurs :

https://www.reuters.com/investigations/meta-is-earning-fortune-deluge-fraudulent-ads-documents-show-2025-11-06/

L'hypothèse de l'enshittification repose sur le principe que les entreprises dégradent délibérément leurs produits et services pour leur propre profit, à vos dépens, parce qu'elles le peuvent. Un environnement politique propice à la corruption, qui récompense la tricherie, l'espionnage et la monopolisation, engendrera inévitablement des monopoles qui trichent et espionnent :

https://pluralistic.net/2025/09/10/say-their-names/#object-permanence

Difficile de trouver un meilleur exemple que les « Facebook Fraud Files » de Reuters. Le résumé ne rend pas justice à ce scandale. La dépravation et la cupidité de Meta face à des fraudes et escroqueries véritablement effroyables sur sa plateforme sont sidérantes.

Voici quelques détails : tout d'abord, les chiffres de l'entreprise estiment qu'elle diffuse 15 milliards de publicités frauduleuses chaque jour, générant 7 milliards de dollars de revenus par an. Malgré ses propres systèmes automatiques signalant les annonceurs à l'origine de ces escroqueries, Meta ne ferme pas leurs comptes ; au contraire, elle leur facture des frais supplémentaires à titre de « dissuasion ». Autrement dit, les publicités frauduleuses sont plus rentables pour Meta que les publicités légitimes.

Des notes internes de Meta reconnaissent également que la plateforme aide les escrocs à cibler automatiquement leurs utilisateurs les plus vulnérables : si un utilisateur clique sur une arnaque, le système de ciblage publicitaire automatisé inonde son fil d'actualité de nouvelles arnaques. L'entreprise sait que l'économie mondiale de la fraude dépend entièrement de Meta, un tiers des arnaques aux États-Unis transitant par Facebook (au Royaume-Uni, ce chiffre atteint 54 % des pertes liées aux arnaques aux paiements). Meta conclut également qu'elle est particulièrement accueillante envers les escrocs, une note interne de 2025 révélant que, selon l'entreprise, « il est plus facile de diffuser des arnaques sur les plateformes Meta que sur Google ».

En interne, Meta a mis en place des mesures pour réduire la fraude sur sa plateforme, mais ces efforts sont ralentis car l'entreprise estime que le montant maximal des amendes qu'elle devra finalement payer dans le monde entier pour des publicités frauduleuses s'élèvera à 1 milliard de dollars, alors qu'elle encaisse actuellement 7 milliards de dollars de revenus par an grâce à la fraude. La note annonçant la lutte contre la fraude conclut que les revenus issus des arnaques dépassent largement « le coût de tout règlement réglementaire concernant les publicités frauduleuses ». Une autre note conclut que l'entreprise ne prendra aucune mesure proactive pour lutter contre la fraude et n'interviendra qu'en réaction à des actions réglementaires.

L'équipe antifraude de Meta fonctionne selon un système de quotas internes qui limite le nombre de publicités frauduleuses qu'elle est autorisée à combattre. Une note de février 2025 indique que l'équipe antifraude n'est autorisée à prendre que des mesures susceptibles de réduire les revenus publicitaires de 0,15 % (135 millions de dollars), alors même que Meta estime que les publicités frauduleuses génèrent 7 milliards de dollars par an pour l'entreprise. Le responsable du programme avertit ses subordonnés : « Nous avons des limites strictes en matière de revenus. »

À quoi ressemble la fraude sur Meta ? Reuters cite l’exemple d’un réseau de comptes frauduleux, dont le montant s’élève à plusieurs centaines de milliers de dollars, qui usurpaient l’identité de militaires américains et tentaient d’escroquer d’autres utilisateurs de Meta en leur envoyant de l’argent. Reuters décrit également une prolifération de faux comptes se faisant passer pour des célébrités ou des représentants de grandes marques afin de voler l’argent des utilisateurs de Meta.

Une autre forme courante de fraude est l’extorsion sexuelle. Il s’agit d’une escroquerie où une personne obtient des photos de vous nu(e) et menace de les publier si vous ne payez pas et/ou si vous ne réalisez pas d’autres actes sexuels devant une caméra. Ces escroqueries ciblent de manière disproportionnée les adolescents et ont conduit des enfants au suicide :

https://www.usatoday.com/story/life/health-wellness/2025/02/25/teenage-boys-mental-health-suicide-sextortion-scams/78258882007/

En 2022, un responsable de Meta a envoyé une note interne se plaignant d'un « manque d'investissement » dans les systèmes de lutte contre la fraude. L'entreprise avait classé ce type de fraude comme un problème « peu grave » et sous-estimait délibérément les ressources allouées aux efforts de répression.

La situation n'a fait qu'empirer les années suivantes, lorsque Meta a procédé à des licenciements massifs au sein de son service de lutte contre la fraude afin de dégager des capitaux pour financer une autre forme d'escroquerie : les fraudes massives aux investisseurs liées au métavers et à l'IA.

https://pluralistic.net/2025/05/07/rah-rah-rasputin/#credulous-dolts

Ces licenciements ont parfois entraîné la fermeture de départements entiers. Par exemple, en 2023, toute l'équipe chargée des « préoccupations des annonceurs concernant les droits de marque » a été licenciée. Parallèlement, les divisions métavers et IA de Meta ont bénéficié d'une priorité absolue sur les ressources de l'entreprise, au point que les équipes de sécurité ont reçu l'ordre de cesser toute utilisation intensive de l'infrastructure et de se contenter d'un fonctionnement minimal, se limitant au strict minimum.

Ces équipes de sécurité recevaient environ 10 000 signalements de fraude valides par semaine, mais, de leur propre aveu, en ignoraient ou en rejetaient à tort 96 %. Face à cette révélation, l’entreprise s’est engagée à réduire à seulement 75 % d’ici 2023 la part des signalements de fraude valides ignorés.

Lorsque Meta ignore et ne traite pas les signalements de fraude valides, ses utilisateurs perdent tout. Reuters rapporte le cas d’une recruteuse de l’armée de l’air canadienne dont le compte a été piraté. Malgré les signalements répétés de la victime, Meta n’a donné suite à aucun d’entre eux. Les escrocs qui contrôlaient le compte ont usurpé l’identité de la victime auprès de ses contacts de confiance, faisant la promotion d’arnaques aux cryptomonnaies et prétendant qu’elle avait acheté un terrain pour y construire la maison de ses rêves grâce à ses gains.

Pendant que Meta restait inactive, les amis de la victime ont tout perdu. Un collègue, Mike Lavery, s'est fait escroquer de 40 000 $ CA. Il a déclaré à Reuters : « Je pensais parler à un ami de confiance, réputé pour son sérieux. Du coup, j'ai baissé ma garde. » Quatre autres collègues ont également été victimes de cette arnaque.

La personne dont le compte avait été piraté a supplié ses amis de signaler la fraude à Meta. Ils ont envoyé des centaines de signalements à l'entreprise, qui les a tous ignorés, même ceux transmis par la Gendarmerie royale du Canada au service antifraude de Meta au Canada.

Meta qualifie ce type d'escroquerie, où les fraudeurs usurpent l'identité d'utilisateurs, d'« organique », la distinguant ainsi des publicités frauduleuses, où les escrocs paient pour atteindre leurs victimes potentielles. Meta estime héberger 22 milliards de publicités frauduleuses « organiques » par jour. Ces arnaques organiques sont souvent autorisées par les conditions d'utilisation de Meta : lorsque la police de Singapour a signalé à Meta 146 publications frauduleuses, l'entreprise a conclu que seulement 23 % d'entre elles violaient ses conditions d'utilisation. Toutes les autres étaient autorisées.

Parmi ces fraudes autorisées figuraient des offres alléchantes promettant des réductions de 80 % sur de grandes marques de mode, des offres de faux billets de concert et de fausses offres d'emploi – toutes permises par les propres politiques de Meta. Des notes internes consultées par Reuters montrent que les équipes antifraude de Meta étaient très contrariées de constater que ces arnaques n'étaient pas interdites sur la plateforme. Un employé de Meta a même écrit : « Les politiques actuelles ne permettraient pas de signaler ce compte ! »

Mais même si un fraudeur viole les conditions d'utilisation de Meta, l'entreprise ne réagit pas. Conformément aux politiques de Meta, un « Compte à Valeur Élevée » (un compte dépensant des sommes importantes en publicités frauduleuses) doit accumuler plus de 500 avertissements (violations avérées des politiques de Meta) avant que l'entreprise ne le supprime.

L'équipe de sécurité de Meta, exaspérée par la collaboration de fait de l'entreprise avec les fraudeurs qui s'en prenaient à ses utilisateurs, a créé un prix hebdomadaire du « Pire Arnaqueur », décerné à l'annonceur ayant généré le plus de plaintes durant la semaine. Mais cette initiative n'a eu aucun effet concret : Reuters a constaté que 40 % des « Pire Arnaqueurs » étaient toujours actifs sur la plateforme six mois après avoir été signalés comme les fraudeurs les plus prolifiques de l'entreprise.

Ce mépris flagrant pour les utilisateurs de Meta n'est pas le fruit d'une nouvelle tendance sadique au sein de la direction. Comme le démontre de façon exhaustive le livre de Sarah Wynn-Williams, Careless People, la lanceuse d'alerte, l'entreprise a toujours été dirigée par des individus sans scrupules, prêts à vous infliger d'horribles tortures pour s'enrichir :

https://pluralistic.net/2025/04/23/zuckerstreisand/#zdgaf

Ce qui a changé au fil du temps, c'est leur capacité à s'enrichir en vous escroquant. Leurs propres calculs internes révèlent leur fonctionnement : ils gagnent plus d'argent grâce à la fraude (7 milliards de dollars par an) qu'ils n'en paieront jamais en amendes pour vous avoir exposé à la fraude. Une amende a un prix, et ce prix est justifié (pour la fraude).

L'entreprise pourrait réduire la fraude, mais cela coûte cher. Pour réduire la fraude, il leur faut investir dans des employés chargés de lutter contre la fraude et d'examiner les signalements automatisés et ceux des utilisateurs, et accepter les pertes liées aux « faux positifs » – le blocage excessif d'annonces qui semblent frauduleuses, mais qui ne le sont pas. Il est important de noter que ces deux conséquences sont inversement proportionnelles : plus l'entreprise investit dans la vérification humaine, moins elle capturera de fraudes.

Consacrer davantage de ressources à la lutte contre la fraude ne signifie pas s'engager à éradiquer toute la fraude de la plateforme. C'est probablement impossible, et tenter d'y parvenir impliquerait une intrusion dans les interactions privées des utilisateurs. Cependant, il n'est pas nécessaire que Meta s'immisce dans chaque conversation entre amis pour déterminer si l'un d'eux escroque les autres, afin d'enquêter sur les plaintes des utilisateurs et d'y donner suite. Il n'est pas nécessaire que Meta s'immisce dans vos conversations pour supprimer les fraudeurs prolifiques et lucratifs sans attendre qu'ils accumulent 500 violations du règlement.

Et bien sûr, il existe un moyen pour Meta de réduire considérablement la fraude : supprimer son système de ciblage publicitaire intrusif. Le point de départ du parcours publicitaire de Meta est constitué des dossiers non consensuels que la plateforme a constitués sur plus de 4 milliards de personnes dans le monde. Les escrocs paient pour accéder à ces dossiers et ciblent leurs publicités sur les utilisateurs les plus vulnérables.

Il s'agit d'une conséquence parfaitement prévisible de la violation grave et répétée des droits humains de milliards de personnes par l'espionnage. Collecter et vendre l'accès à toutes ces données de surveillance revient à amasser une montagne de chiffons imbibés d'huile, si importante qu'on pourrait en tirer des milliards en les transformant en carburant de mauvaise qualité. Ce système n'est rentable que si l'on parvient à faire payer à autrui les inévitables conséquences désastreuses :

https://locusmag.com/feature/cory-doctorow-zucks-empire-of-oily-rags/

C'est précisément ce que fait Meta : privatiser les gains tirés de notre espionnage et socialiser les pertes que nous subissons tous à cause des inévitables répercussions. Ils ne peuvent toutefois agir ainsi que grâce à la complaisance des autorités de régulation. Aux États-Unis, le Congrès n'a pas adopté de nouvelle loi sur la protection de la vie privée des consommateurs depuis 1988, date à laquelle il a criminalisé le fait pour les employés des vidéoclubs de divulguer les informations relatives à vos locations de VHS :

https://pluralistic.net/2023/12/06/privacy-first/#but-not-just-privacy

Meta nous espionne et permet ensuite à des prédateurs d'utiliser cette surveillance pour détruire nos vies, tout comme votre chien se lèche les testicules : parce qu'ils le peuvent. Leur comportement est quasiment garanti par un environnement politique complaisant, qui permet à Meta de nous espionner sans limite et qui leur inflige une amende d'un milliard de dollars pour avoir engrangé sept milliards de dollars grâce à notre malheur.

Mark Zuckerberg a toujours été une personne odieuse, mais – comme le démontre Sarah Wynn-Williams dans son livre – il était autrefois prudent, soucieux des conséquences qu'il subirait s'il nous nuisait. Une fois ces conséquences écartées, Zuckerberg a fait exactement ce que sa nature lui dictait : détruire nos vies pour accroître sa propre fortune.

Lire plus
Loading...
Des élèves relogés après qu'une arme à feu ait été signalée au lycée de Parkville.

Incident 1267: L'intelligence artificielle d'Omnilert aurait déclenché une fausse alerte à la bombe au lycée de Parkville, entraînant le déménagement des élèves.

Traduit par IA
“Des élèves relogés après qu'une arme à feu ait été signalée au lycée de Parkville.”
patch.com2025-11-15

PARKVILLE, MD — La police a déclaré qu'aucune menace n'avait été détectée vendredi après qu'un système de sécurité basé sur l'intelligence artificielle a signalé la présence possible d'une arme à feu dans un établissement scolaire du comté de Baltimore.

Les agents ont indiqué être intervenus au lycée de Parkville, situé au 2600, avenue Putty Hill, vers 17 h.

Les élèves ont été déplacés pendant que la police effectuait une fouille de l'établissement.

Le département de police du comté de Baltimore a annoncé que les activités scolaires normales avaient repris après la levée de l'alerte.

« Par mesure de précaution, un responsable de la police du comté de Baltimore a demandé une fouille des lieux. Les élèves ont été immédiatement mis en sécurité et placés sous surveillance », a écrit la directrice du lycée Parkville, Maureen Astarita, dans un message adressé aux familles vendredi soir, selon le Baltimore Sun.

Cette fouille à Parkville faisait suite à un incident similaire survenu en octobre au lycée Kenwood d'Essex, où le système Omnilert avait signalé un sac de chips appartenant à un joueur de football américain comme pouvant contenir une arme, ce qui avait conduit les policiers à menotter des adolescents jusqu'à ce qu'ils comprennent qu'il n'y avait aucun danger.

Cet incident a incité les autorités à réclamer un renforcement de la supervision humaine avant toute intervention policière suite à un signalement Omnilert. Les écoles publiques du comté de Baltimore ont promis une formation annuelle sur les protocoles d'utilisation d'Omnilert, un système qui signale uniquement les menaces potentielles et les transmet à des personnes pour vérification.

Lire plus
Loading...
Waymo connaissait un succès fulgurant à San Francisco. Puis, l'une de ses voitures autonomes a tué un chat.

Incident 1269: Un véhicule autonome Waymo aurait écrasé et tué un chat à San Francisco.

Traduit par IA
“Waymo connaissait un succès fulgurant à San Francisco. Puis, l'une de ses voitures autonomes a tué un chat.”
nytimes.com2025-11-15

Au Delirium, un bar miteux du quartier Mission à San Francisco, l'ambiance est sombre, les cocktails sont corsés et l'atmosphère est électrique. Les punks et les habitués de la vieille école ont l'air de durs à cuire, mais ils sont en deuil.

Kit Kat avait l'habitude de faire la tournée des bars du quartier, se faufilant au Delirium pour trouver de la compagnie et des caresses. Tout le monde connaissait ce chat de l'épicerie, qu'on surnommait affectueusement le Maire de la 16e Rue. Kit Kat était leur « pote », disaient les gars qui traînaient au coin de la rue.

Mais peu avant minuit, le 27 octobre, le chat tigré a été renversé juste devant le bar et laissé pour mort. Le coupable ?

Un taxi autonome.

Chaque année, des centaines d'animaux sont tués par des conducteurs à San Francisco. Mais la mort d'un chat, écrasé par la roue arrière d'un taxi autonome Waymo, a provoqué la colère de certains habitants du quartier Mission, grands amateurs de Kit Kat, et l'indignation de ceux qui déplorent l'emprise de l'automatisation sur de nombreux aspects de la société.

« Waymo ? Hors de question ! J'ai une peur bleue de ces engins », s'exclame Margarita Lara, barmaid et grande fan de Kit Kat. « Il y en a tellement maintenant. Ils les ont lâchés dans notre ville, c'est inadmissible. »

La mort de Kit Kat a suscité l'indignation et le débat ces trois dernières semaines à San Francisco. Un mémorial félin a rapidement vu le jour. Les esprits se sont enflammés sur les réseaux sociaux : certains déplorent l'invasion des taxis autonomes, tandis que d'autres s'interrogent sur l'absence de la même réaction face aux piétons et aux animaux tués par des conducteurs humains au fil des ans.

Un conseiller municipal a appelé les autorités de l'État à accorder aux habitants un pouvoir de décision local concernant les taxis autonomes. Et, comme on est à San Francisco, des pièces de monnaie à l'effigie de Kit Kat, inspirées par la disparition du chat, ont même fait leur apparition.

Mais tout cela n'est que du bruit chez Delirium. Kit Kat y était adoré. Et maintenant, il n'est plus là.

« Kit Kat avait une présence incroyable », a déclaré Lee Ellsworth, coiffé d'une casquette des 49ers de San Francisco et une canette de bière Pabst Blue Ribbon à la main.

Avant que la mort de Kit Kat ne fasse les gros titres, Waymo était en plein essor. La société de voitures autonomes, propriété d'Alphabet, la maison mère de Google, a déployé son service de taxis autonomes à San Francisco en 2024 et dispose désormais d'une flotte de 1 000 véhicules dans la baie. Elle a annoncé ce mois-ci une expansion avec un service autoroutier le long de la péninsule et des prises en charge à l'aéroport de San Jose. Waymo prévoit également de desservir prochainement l'aéroport international de San Francisco.

Il y a à peine deux ans, les Jaguar blanches équipées de caméras sur le toit étaient considérées comme des curiosités. Les passants s'arrêtaient à deux fois en voyant le volant tourner sans personne au volant.

Les Waymo sont désormais une attraction touristique majeure à San Francisco. De nombreuses femmes les trouvent plus sûrs que les Uber ou Lyft conduits par des hommes. Tellement de parents en ont commandé pour leurs enfants que certaines écoles ressemblent à des parkings Waymo.

Grow SF, un groupe politique modéré lié au secteur technologique, a constaté que le soutien des électeurs de San Francisco à Waymo avait bondi de 44 % en septembre 2023 à 67 % en juillet dernier.

Cependant, la disparition de Kit Kat a redonné du grain à moudre aux détracteurs. Ils affirment que les taxis autonomes détournent les usagers des transports en commun, suppriment des emplois, enrichissent les dirigeants de la Silicon Valley et sont tout simplement inquiétants.

Jackie Fielder, conseillère municipale progressiste de San Francisco représentant le quartier de Mission, compte parmi les critiques les plus virulentes. Après la mort de Kit Kat, elle a présenté une résolution municipale demandant à l'Assemblée législative de l'État de soumettre la question de la circulation des voitures autonomes à un référendum. (Actuellement, la Californie réglemente les véhicules autonomes.)

« Un conducteur humain peut être tenu responsable, peut sortir de son véhicule, présenter ses excuses et être retrouvé par la police en cas de délit de fuite », a déclaré Mme Fielder lors d'une interview. « Ici, personne n'est tenu responsable. »

Mme Fielder entretient des liens étroits avec les syndicats, notamment les Teamsters, qui militent pour une réglementation plus stricte des véhicules autonomes, principalement par crainte que leurs membres ne perdent leur emploi de chauffeur dans d'autres secteurs.

Mme Fielder a publié des vidéos sur les réseaux sociaux, la montrant arpentant les rues du quartier de Mission tout en évoquant Kit Kat.

« Nous n'oublierons jamais notre chère Kit Kat », dit-elle dans l'une d'elles. « Le pauvre… a enduré une agonie horrible, une agonie interminable. »

(Le mot « agonie » est parfois utilisé par certains internautes pour contourner les algorithmes qui censurent les vidéos contenant des mots comme « mort ».)

Des hommages ont fleuri devant le marché de Randa, où le propriétaire, Mike Zeidan, a recueilli Kit Kat il y a six ans pour chasser les souris. Le chat se prélassait sur le comptoir du magasin quand il n'errait pas dans la 16e Rue. Un voisin lui apportait chaque jour des tranches de saumon ; un autre envoyait une photo de Kit Kat à sa mère tous les matins.

Sur un arbre à l'extérieur sont accrochées des photos du chat et un dessin le représentant avec une auréole.

« Sauvez un chat », peut-on lire sur le dessin. « Ne prenez pas Waymo ! »

Des bouquets de fleurs, une souris en peluche et un emballage de Kit Kat complètent l'hommage.

Un arbre plus loin, un autre hommage prend la forme d'un tout autre genre.

« Waymo a tué le chat préféré de mon enfant », peut-on lire sur une pancarte. « Les conducteurs humains ont tué 42 personnes l'an dernier. » (En réalité, selon les données de la ville, 43 personnes ont été tuées par des conducteurs humains à San Francisco l'an dernier, dont 24 piétons, 16 automobilistes et 3 cyclistes. Aucun de ces décès n'a été imputé à un Waymo.)

Cette pancarte visait à relativiser la mort du chat, dans une ville où il est possible de se déplacer à pied, mais où les piétons sont toujours exposés au danger. En 2014, la ville s'était engagée à mettre fin aux accidents mortels de la route en 10 ans, mais le bilan de l'an dernier est l'un des plus élevés jamais enregistrés.

La ville ne comptabilise pas le nombre d'animaux tués par des voitures chaque année, mais ce nombre se chiffre en centaines, selon Deb Campbell, porte-parole du service de protection animale de San Francisco.

Elle a indiqué que la chambre froide du service contenait la semaine dernière les corps de 12 chats, vraisemblablement percutés par des voitures ces dernières semaines. Aucun de ces décès ne semble avoir suscité de couverture médiatique, d'hommages ou de détournements de pièces.

Waymo ne conteste pas qu'un de ses véhicules ait causé la mort de Kit Kat. L'entreprise a publié un communiqué expliquant que, lors de la prise en charge de passagers par un de ses véhicules, un chat « s'est précipité sous notre véhicule au moment où il démarrait ».

« Nous présentons nos plus sincères condoléances au propriétaire du chat et à la communauté qui le connaissait et l'aimait », a déclaré Waymo dans un communiqué.

Waymo affirme avec conviction que ses véhicules sont bien plus sûrs que ceux conduits par des humains, avec 91 % d'accidents graves en moins par rapport aux conducteurs humains parcourant le même nombre de kilomètres dans les mêmes villes. Ces données proviennent d'un document de recherche de l'entreprise, évalué par des pairs et publié dans une revue scientifique. Waymo exploite également des services de taxi complets à Los Angeles et Phoenix et propose des trajets en partenariat avec Uber à Atlanta et Austin, au Texas.

Le maire de San Francisco, Daniel Lurie, est un fervent partisan des Waymo. Plus tôt cette année, il avait annoncé qu'il autoriserait la circulation de ces véhicules autonomes sur Market Street, l'artère principale de la ville, réservée depuis cinq ans aux piétons et aux transports en commun. Il a également défendu ces taxis autonomes lors d'une interview accordée jeudi à la journaliste spécialisée en technologie Kara Swisher, après que celle-ci ait évoqué l'incident de Kit Kat.

« Les Waymo sont incroyablement sûrs », a-t-il déclaré. « C'est plus sûr que de prendre le volant. »

Rick Norris, qui travaille au Roxie Theater dans le quartier de Mission, a confié apprécier les Waymo et avoir constaté qu'ils se faufilaient de mieux en mieux dans les rues sinueuses de la ville. Mais il s'est inquiété après avoir discuté avec plusieurs personnes qui avaient été témoins des derniers instants de Kit Kat et qui avaient raconté avoir tenté d'arrêter le Waymo en apercevant le chat en dessous.

La voiture est simplement partie.

C'est à ce moment précis que Sheau-Wha Mou, barmaid et animatrice de karaoké au Delirium, a pris sa pause cigarette. Elle vit des gens paniquer sur le trottoir. Elle se précipita et trouva Kit Kat souffrant, du sang coulant de sa bouche.

« Je me suis agenouillée et je lui parlais », se souvient-elle. « “Que s’est-il passé ? Ça va ?” »

Elle raconta avoir utilisé le panneau publicitaire du bar comme brancard. Un inconnu la conduisit ensuite, avec Kit Kat, à une clinique vétérinaire d’urgence voisine. M. Zeidan, le propriétaire de l’épicerie, arriva peu après.

Une heure plus tard, le vétérinaire annonça à M. Zeidan que Kit Kat était mort.

Des photos de Kit Kat sont toujours exposées près de la caisse enregistreuse du marché Randa, à côté des dés et des briquets en vente. M. Zeidan confie qu’il regrette toujours ce chasseur de souris devenu la figure emblématique du quartier.

Darrell Smith est passé au marché lundi, perpétuant ainsi son rituel hebdomadaire qui consiste également à commander une assiette composée au restaurant de barbecue hawaïen voisin. Il regrettait les Kit Kat, a-t-il dit, mais s'attarder sur la voiture autonome lui semblait une perte de temps.

« Je suis moi-même sceptique quant à ces voitures Waymo », a-t-il déclaré. « Mais l'IA, c'est l'avenir. On ne peut pas l'arrêter, qu'on le veuille ou non. »

Lire plus
Ajout rapide d'un nouveau rapport

Les liens soumis sont ajoutés à une file d'attente de révision pour être résolus en créant un nouvel incident ou en ajoutant le rapport sur un incident existant. Les incidents soumis avec tous les détails sont traités en priorité par rapport à ceux qui n'ont pas tous les détails complets.
A propos de la base de données

La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.

Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

post-image
Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...

Lire plus
La base de données dans la presse

En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Classement des rapporteurs d'incidents

Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.

Nouveaux incidents apportés
  • 🥇

    Daniel Atherton

    631
  • 🥈

    Anonymous

    154
  • 🥉

    Khoa Lam

    93
Rapports ajoutés aux incidents existants
  • 🥇

    Daniel Atherton

    722
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    228
Contributions totales au rapport
  • 🥇

    Daniel Atherton

    2876
  • 🥈

    Anonymous

    964
  • 🥉

    1

    590
Le briefing sur les incidents d'IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidents aléatoires
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
La collaboration IA responsable

La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.

Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données
Commanditaires et subventions
Commanditaires en nature

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 353a03d