Bienvenue dansla base de données des incidents d'IA
Incident 1460: Des robotaxis Baidu Apollo Go immobilisés dans les embouteillages à Wuhan suite à une panne de système signalée, laissant certains passagers bloqués.
“Une panne de robotaxis en Chine laisse des passagers bloqués sur les autoroutes.”Dernier rapport
Un problème technique non identifié a provoqué l'immobilisation de plusieurs robotaxis appartenant au géant technologique chinois Baidu, mardi, en pleine circulation. Certains passagers sont restés bloqués à bord pendant plus d'une heure.
À Wuhan, ville du centre de la Chine où Baidu a déployé des centaines de ses taxis autonomes Apollo Go, des internautes chinois ont rapporté sur les réseaux sociaux avoir vu ces véhicules tomber soudainement en panne et s'arrêter. Des photos et des vidéos partagées en ligne montrent les véhicules Baidu immobilisés sur des autoroutes très fréquentées, souvent sur la voie de gauche.
Une étudiante de Wuhan raconte à WIRED qu'elle est restée bloquée dans un robotaxi Baidu avec deux amies pendant environ 90 minutes mardi. (Elle a demandé à être identifiée uniquement par son nom de famille, He, afin de préserver son anonymat.) L'étudiante explique que le véhicule a connu des dysfonctionnements et s'est arrêté quatre ou cinq fois pendant le trajet avant de finalement s'immobiliser à un carrefour dans l'est de Wuhan. Heureusement, la route était peu fréquentée et le groupe n'était pas en danger immédiat. L'écran de la voiture demandait aux passagers de rester à bord, ceintures attachées, et d'attendre l'arrivée d'un représentant de la société « dans cinq minutes », d'après une photo qu'il a partagée avec WIRED.
Il explique avoir mis environ 30 minutes à joindre un conseiller Baidu par téléphone. « Ils n'arrêtaient pas de dire que le problème serait signalé à leur supérieur. Mais ils n'ont pas expliqué la cause de la panne ni le temps d'attente », raconte-t-il. Personne n'est jamais venu, et après une heure d'attente supplémentaire, les trois passagers ont décidé de rentrer chez eux par leurs propres moyens (les portières n'étaient pas verrouillées).
Sur les réseaux sociaux chinois, d'autres passagers se sont également plaints de l'impossibilité de contacter le service client de Baidu. « J'ai essayé tous les moyens possibles pour appeler à l'aide via l'application, mais la ligne était coupée, et quand j'ai appuyé sur le bouton SOS, on m'a dit qu'il était indisponible. Alors, à quoi sert le SOS, au juste ? » « Apollo Go, vous me devez vraiment des excuses », a écrit une internaute sur RedNote, accompagnant son message d'une vidéo montrant le dysfonctionnement du bouton. Elle a expliqué avoir dû forcer l'ouverture de la portière et sortir du véhicule, la circulation étant complètement bloquée derrière sa voiture.
Baidu n'a pas immédiatement répondu à notre demande de commentaires. La police locale de Wuhan a publié un communiqué vers minuit (heure chinoise) indiquant que la situation était « probablement due à un dysfonctionnement du système », mais qu'une enquête était toujours en cours. La police a ajouté qu'aucun blessé n'était à déplorer et que tous les passagers avaient quitté les véhicules. On ignore pour l'instant combien de voitures autonomes de Baidu ont été affectées.
L'enregistrement d'une caméra embarquée, également publié sur RedNote, montre une voiture dépassant 16 véhicules Apollo Go stationnés sur la route en l'espace de 90 minutes. À plusieurs reprises, la vidéo montre le conducteur évitant de justesse une collision avec le robotaxi en freinant ou en changeant de voie à la dernière minute.
D'autres n'ont apparemment pas eu cette chance. Dans une autre publication sur RedNote, un homme affirme avoir percuté un véhicule Baidu défectueux. Il explique qu'il roulait à plus de 65 km/h sur l'autoroute lorsque la voiture qui le précédait a brusquement changé de voie pour éviter le robotaxi arrêté. N'ayant pas pu réagir à temps, il a fini par percuter le véhicule autonome. Des photos de son SUV orange, remorqué, montrent que l'aile avant droite était complètement arrachée et que d'autres parties semblaient avoir subi d'importants dégâts.
Au moins deux autres collisions ont eu lieu le même jour, d'après des photos et des vidéos publiées sur les réseaux sociaux chinois. Une utilisatrice de RedNote à Wuhan a confirmé à WIRED avoir croisé une minifourgonnette blanche impliquée dans une collision par l'arrière avec un robotaxi stationné. L'arrière du véhicule Baidu était fortement endommagé, mais les deux personnes présentes semblaient indemnes, a-t-elle indiqué. Elle a ajouté avoir aperçu au moins une douzaine d'autres robotaxis stationnés.
Baidu est l'une des principales entreprises chinoises de véhicules autonomes. La société a lancé ses services de robotaxis dans plus d'une douzaine de villes chinoises et a récemment commencé son expansion internationale, notamment à Séoul, Abou Dabi et Dubaï. En février, Baidu a annoncé avoir effectué 20 millions de trajets, soit plus de 300 millions de kilomètres (environ 186 millions de miles).
Wuhan figure parmi les villes les plus proactives en matière d'autorisation de circulation des véhicules entièrement autonomes de Baidu sur la voie publique. La ville autorise leur circulation sur les autoroutes et pour les trajets vers l'aéroport.
Incident 1455: Des vidéos truquées (deepfakes) auraient usurpé l'identité de l'optométriste Joseph Allen pour promouvoir des gouttes ophtalmiques contre la myopie sur TikTok.
“Une optométriste riposte après une escroquerie par deepfake.”
Joseph Allen, optométriste, est bien connu des conférences, des réseaux sociaux et de sa chaîne YouTube, Dr. Eye Health, où il informe ses abonnés sur divers sujets liés à la santé oculaire. Cependant, sa notoriété a eu un revers lorsqu'il a découvert sur les réseaux sociaux des vidéos le représentant de façon fictive, diffusant de fausses informations et vendant des produits contrefaits. Le Dr Allen a été victime d'une escroquerie par deepfake (ou deepfake généré par l'IA) (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).
Les deepfakes et les vidéos de mauvaise qualité, générés par l'IA, ciblent de plus en plus les médecins. Ces vidéos usurpent leur identité afin de créer du contenu facile à produire, piloté par des algorithmes, et susceptible de diffuser de dangereuses informations erronées sur la santé. Les deepfakes sont des contenus manipulés ou fabriqués par l'IA qui usurpent l'identité d'une personne réelle dans le but de diffuser des informations malveillantes ou mensongères.
Les vidéos truquées par l'IA sont des contenus vidéo produits à grande échelle par l'IA qui exploitent les algorithmes d'engagement des réseaux sociaux et inondent des plateformes comme YouTube, TikTok ou Instagram, éclipsant ainsi les créateurs de contenu originaux. Le Dr Allen a constaté : « Dans certaines de ces vidéos, on vous incite à ne pas consulter votre ophtalmologiste et on prétend que toute notre profession est une arnaque. »
Avec l'aide d'un avocat, le Dr Allen a contesté les deepfakes ciblant sa chaîne. Il lui a fallu un mois pour accéder à TikTok, où il a découvert la supercherie, puis trois semaines supplémentaires pour prouver qu'il était bien le « Dr. Eye Health ». Un compte a été supprimé, mais en deux ou trois heures, les escrocs en ont créé un nouveau et ont republié tout le contenu précédent. Dans le cas du Dr Allen, le produit vendu dans cette arnaque était un collyre censé guérir la myopie. Les gouttes ont été retracées jusqu'à une entreprise chinoise vendant des millions de dollars de produits sur Amazon. Leur composition reste inconnue.
Le Dr Allen recommande de rechercher des signes révélateurs de vidéos générées par IA, en gardant à l'esprit qu'avec les progrès de l'IA, ces signes peuvent devenir plus subtils, voire disparaître. Examinez attentivement le contenu vidéo à la recherche de montages étranges : les lèvres du sujet sont-elles synchronisées avec la voix et l'audio ? Cligne-t-il des yeux de façon excessive ou insuffisante ? Si le produit semble trop beau pour être vrai, il l'est probablement. Soyez vigilant et faites preuve de prudence face à ce type de contenu.
L'image paraît-elle naturelle ? Les deepfakes ont encore du mal à reproduire un éclairage naturel et peuvent donner une impression artificielle au sujet en raison d'un décalage entre les conditions d'éclairage ou les reflets. D'autres indices sont disponibles auprès des chercheurs du MIT (https://www.media.mit.edu/projects/detect-fakes/overview/), notamment des informations sur les yeux et les sourcils, le clignement des yeux et les reflets sur les lunettes. À mesure que l'IA brouille les frontières entre réalité et fiction, la responsabilité incombe à la pensée critique individuelle concernant le contenu médiatique.
Incident 1452: Des usurpations d'identité, prétendument générées par une intelligence artificielle, du cardiologue albanais Spiro Qirko et du journaliste Ilir Topi auraient été utilisées sur Facebook pour promouvoir un produit contre l'hypertension au Kosovo.
“Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension”
Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension
= vidéo fortement manipulée. Le médicament « Hyper Caps » ne dispose pas d'une autorisation de mise sur le marché délivrée par l'Agence kosovare des produits et dispositifs médicaux (AKPPM), ce qui rend sa commercialisation illégale au Kosovo.
Article
Page Facebook [Dr Spiro Search](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mob ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. a publié une vidéo dans laquelle il affirme avoir découvert un remède contre l'hypertension.
Dans cette vidéo, il prétend notamment que ce médicament est contesté par les laboratoires pharmaceutiques.
« En tant que spécialiste, on me demande souvent : « Est-il possible de guérir complètement l'hypertension ? ». La réponse est OUI. 🩺 J'ai mis au point une méthode qui, en quelques jours, élimine la pression et la tension sur les veines, sans intervention coûteuse. Le secret réside dans la stimulation adéquate des veines et du système cardiovasculaire. » « Dans la vidéo, vous verrez exactement comment ma formule fonctionne et vous oublierez l'hypertension pour toujours. Vous ressentirez les résultats immédiatement », peut-on lire dans cette publication.
Une vidéo, sous forme d'interview, présentant ce médicament, a également été publiée.
L'interview serait menée par le journaliste Ilir Topi avec le docteur Spiro Qirko, qui expliquerait comment l'hypertension est guérie.
« Hyper Caps » est un produit qui aurait été découvert par un cardiologue et qui, selon la société, guérit l'hypertension.
Krypometer a également consulté la liste des médicaments autorisés à la vente au Kosovo (https://akppm.rks-gov.net/DocumentsAndPublications/DocumentsAndPublications/1092) afin de vérifier si ce produit y est autorisé.
Après consultation du site web de l'Agence kosovare des produits et dispositifs médicaux (AKPPM), il s'avère que le produit « Hyper Caps » ne figure pas sur la liste des médicaments autorisés à la vente. Autorisation.
L’article 16 de la loi relative aux médicaments et dispositifs médicaux stipule que « le médicament ne peut être mis sur le marché en République du Kosovo qu’après obtention d’une autorisation de mise sur le marché délivrée par l’Agence kényane des médicaments et dispositifs médicaux (KPAPM) ».
Krypometer a effectué des tests. cette vidéo (https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM) 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. Plateforme détectant les contenus créés par intelligence artificielle, ses résultats indiquent que la vidéo, ainsi que la parole, ont 96,4 % de chances d'être générées par IA (archive).
Krypometer a contacté le journaliste Ilir Topi et le cardiologue albanais Spiro Qirko, qui ont nié tout lien avec cette affaire. N'utilisez pas ce profil ni le contenu de cette vidéo.
« C'est généré par IA, c'est un faux », a déclaré Topi.
« Je me sens profondément insulté par cette escroquerie odieuse qui utilise mon nom et ma personnalité de la manière la plus malhonnête et inédite. C'est un acte criminel », a déclaré Qirko, cardiologue albanais.
Qirko a précisé n'avoir jamais recommandé de phytothérapie pour traiter l'hypertension.
Hypertension
Le cardiologue Qirko a expliqué que, selon les recommandations de la Société européenne de cardiologie, la tension artérielle est considérée comme normale jusqu'à 135/85 mmHg.
« Au-delà de ces valeurs, on parle d'hypertension, qui nécessite un traitement régulier. Le traitement consiste généralement en la prise d'un ou plusieurs médicaments de classes différentes, choisis par le médecin et suivis en fonction de l'évolution de la tension artérielle du patient », a conclu Qirko.
Incident 1454: Une vidéo truquée (deepfake) montrerait Nirmala Sitharaman approuvant un programme d'investissement.
“Nirmala Sitharaman encourage-t-elle un investissement de 22 000 roupies indiennes pour un rendement de 550 000 roupies ? Le Bureau de vérification des faits du PIB révèle la vérité sur la vidéo virale.”
New Delhi, 16 avril : Le service de vérification des faits du gouvernement indien, PIB Fact Check, a démenti jeudi une vidéo virale montrant faussement la ministre des Finances, Nirmala Sitharaman, faisant la promotion d'un placement à haut rendement. PIB Fact Check a mis en garde les citoyens contre ce type de désinformation. Dans une publication sur la plateforme de médias sociaux X, PIB Fact Check a déclaré que la vidéo, qui prétend qu'un investissement de 22 000 roupies pourrait rapporter 550 000 roupies en une semaine, est un faux généré par intelligence artificielle. « Une vidéo virale de la ministre des Finances, Nirmala Sitharaman, prétend offrir 550 000 roupies en une semaine pour un investissement initial de 22 000 roupies. Cette vidéo est fausse et générée par IA », a-t-il été précisé. **[Nirmala Sitharaman a-t-elle fait la promotion d'un placement à haut rendement en ligne ?] Le service de vérification des faits du PIB dément une vidéo sur l'IA.
L'agence a précisé que ni le gouvernement indien ni le ministre des Finances ne font la promotion ou l'approbation d'un tel programme et a exhorté le public à la vigilance face aux contenus trompeurs circulant en ligne. « Ni le gouvernement ni le ministre des Finances n'approuvent un tel programme d'investissement », a-t-elle ajouté. Le service de vérification des faits a également conseillé aux citoyens de vérifier ces affirmations auprès de sources gouvernementales officielles avant de prendre toute décision financière. Il a par ailleurs invité les utilisateurs à signaler tout contenu suspect afin de contribuer à endiguer la propagation de la désinformation.
« Restez vigilants. Vérifiez ces affirmations uniquement auprès de sources gouvernementales officielles », a conclu le service de vérification des faits du PIB. Par ailleurs, le mois dernier, le PIB a signalé la diffusion sur les réseaux sociaux d'un faux message affirmant que les comptes de l'application YONO de la State Bank of India (SBI) seraient bloqués si les utilisateurs ne mettaient pas immédiatement à jour leurs informations Aadhaar. Ce message en question incitait les destinataires à télécharger un fichier APK intitulé « SBI KYC AADHAR UPDATE » et à l'installer pour éviter toute interruption de service. « Cette alerte, qui semble être une tentative d'hameçonnage, vise à inciter les titulaires de compte à divulguer des informations bancaires et personnelles sensibles », a déclaré le PIB le mois dernier.
Note TruLY : 5 – Fiable | Sur une échelle de confiance de 0 à 5, cet article a obtenu la note maximale de 5 sur LatestLY. Il est vérifié par des sources officielles (compte officiel X de PIB Fact Check). Les informations ont été minutieusement recoupées et confirmées. Vous pouvez partager cet article en toute confiance avec vos proches, sachant qu'il est fiable.
Incident 1450: Un homme de Floride aurait utilisé une vidéo truquée (deepfake) pour signaler le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.
“Un homme de Floride aurait utilisé une vidéo truquée générée par intelligence artificielle pour signaler faussement le cambriolage du véhicule de patrouille d'un adjoint du shérif à Lake Mary.”
Comté de Seminole, Floride – Un homme du sud de la Floride a été arrêté après avoir montré une vidéo générée par intelligence artificielle à un adjoint du shérif dans un magasin de Lake Mary le mois dernier, selon le bureau du shérif du comté de Seminole.
Dans un communiqué, le bureau du shérif a indiqué que l'adjoint se trouvait à l'intérieur du magasin Academy Sports, situé sur Lake Emma Road, lorsque l'homme, identifié comme étant Alexis Martínez-Arizala, âgé de 25 ans, l'a abordé.
« (Martínez-Arizala) a affirmé avoir vu plusieurs personnes monter dans le véhicule de patrouille de l'adjoint, stationné sur le parking, et a présenté une vidéo sur son téléphone portable comme preuve », précise le communiqué. « La vidéo, d'une durée d'environ trois secondes, semblait montrer deux individus entrant dans le véhicule de patrouille garé près du magasin. »
Cependant, lorsque l'adjoint a vérifié son véhicule, il n'a constaté aucun vol ni aucune intrusion, ont noté les enquêteurs.
Or, les images de vidéosurveillance du magasin ont montré que personne ne s'était approché de la voiture de patrouille pendant cette période, et les adjoints du shérif ont conclu par la suite que la vidéo prise avec le téléphone portable était un faux.
Un mandat d'arrêt a donc été émis contre Martínez-Arizala, qui a été appréhendé mercredi à San Juan, à Porto Rico.
« Les enquêteurs ont également appris que Martínez-Arizala avait publié du contenu relatif à l'incident sur ses réseaux sociaux, dans le but manifeste d'attirer l'attention et de créer un buzz », précise le communiqué.
Martínez-Arizala est désormais accusé de fabrication de preuves matérielles, de fausse déclaration aux forces de l'ordre, d'utilisation illégale d'un appareil de communication bidirectionnelle et d'avoir sciemment fourni de fausses informations à un agent des forces de l'ordre concernant la commission présumée d'un crime.
Il sera extradé vers le comté de Seminole, où il sera détenu sous une caution de 7 000 dollars.
« L’utilisation abusive de l’intelligence artificielle pour créer des vidéos truquées est une préoccupation croissante, notamment lorsqu’elle cible les professionnels de la sécurité publique », a déclaré le shérif Dennis Lemma. « Ces vidéos fabriquées peuvent nuire à la réputation, créer des tensions inutiles et soulever de réelles inquiétudes quant à la sécurité des secouristes qui interviennent au service de nos communautés. Face à la démocratisation de cette technologie, nous prenons ces crimes très au sérieux et agirons pour protéger les personnes visées au sein de notre communauté, qu’il s’agisse des citoyens ou des professionnels de la sécurité publique qui œuvrent quotidiennement pour la sécurité de nos résidents. »
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données





