Bienvenue dansla base de données des incidents d'IA
Incident 1466: Un réseau de faux profils Facebook, utilisant des images prétendument générées par IA, a amplifié les publications du parti bulgare « Il existe un tel peuple » (ITN).
“Des réseaux de faux profils ont diffusé des publications d'ITN sur les réseaux sociaux à l'approche des élections.”Dernier rapport
L'investiture du gouvernement intérimaire, avec Andreï Guyourov comme Premier ministre, a ravivé l'activité des représentants du parti « Il existe un tel peuple » (ITN) à l'encontre de ses membres. Tandis que le vice-président du parti, Tochko Yordanov, et le vice-président du groupe parlementaire, Stanislav Balabanov, s'en prennent aux nouveaux ministres principalement depuis la tribune parlementaire et devant les médias, la députée Pavela Mitova, ainsi que le chef du parti, Stanislav Trifonov, privilégient Facebook pour diffuser leurs messages.
Les deux publications ont été partagées des centaines de fois et ont suscité des milliers de réactions, mais seule une petite partie d'entre elles est authentique.
Une analyse de Factcheck.bg a révélé qu'un réseau d'environ 120 faux profils Facebook coordonne la diffusion des publications de Mitova et Trifonov. Ces profils ont été créés selon un modèle similaire et leur activité converge lorsqu'il s'agit de partager du contenu d'ITN.
Le 20 février, par exemple, Pavela Mitova a publié sur son profil un message affirmant que le ministre par intérim de l'Agriculture et de l'Alimentation, Ivan Hristanov, avait désigné une pièce spéciale « réservée à la corruption » et que, de là, il avait donné à ses partisans du parti « Edinenie » accès à « tous les documents du ministère de l'Agriculture et de l'Alimentation des cinq dernières années », accès auquel ils n'auraient pas dû avoir accès légalement. Hristanov figure parmi les ministres par intérim les plus violemment pris pour cible par le groupe « There is such a people ».
Au 10 mars, la publication de Pavela Mitova avait été partagée 336 fois. La vérification de Factcheck.bg a montré qu'environ 120 de ces partages provenaient de profils inauthentiques. Ces profils avaient été créés selon un modèle similaire et chacun d'eux avait partagé les déclarations en question à deux reprises, voire plus.
1 sur 3
[
[
De même, une publication de Trifonov datée du 4 mars, dans laquelle il exigeait la démission de Hristanov et critiquait son absence au Parlement, a été partagée 379 fois, dont près de la moitié provenaient de comptes non authentiques.

Une autre publication de Trifonov, datée du 11 mars et critiquant le slogan « Nous poursuivons le changement – Bulgarie démocratique », a été partagée plus de 15 fois par le même compte.
1 sur 2
Créé avec Flourish - Créer un graphique

- Leurs photos de profil, ainsi que les autres photos qu'ils publient, sont générées par intelligence artificielle. Ceci est confirmé par une vérification effectuée avec l'outil AIorNOT.

- Ils ont très peu ou pas d'amis sur Facebook.

- Plusieurs villes de Bulgarie sont indiquées comme lieux de résidence, et du texte relatif à la profession mentionnée dans le profil a été ajouté à la description. La plupart des profils ont été créés fin 2025 ou début 2026.
Les profils sont associés à des adresses e-mail utilisant le modèle « digit@hotmail.com ».

Leur activité consiste principalement à republier du contenu provenant d'autres profils ou pages liés à « Il existe de telles personnes » et à ses membres. Les premières publications portent généralement sur un sujet lié à la ville où le faux profil prétend résider. Toutes les publications suivantes sont exclusivement consacrées à ITN.

Ce groupe de faux profils se caractérise par le partage exclusif de publications, sans aucune autre activité : contenu personnel, mentions « J’aime » ou commentaires.
Avec l’interdiction de la publicité politique sur les réseaux sociaux, le principal moyen d’atteindre les utilisateurs est la diffusion organique, qui dépend essentiellement des réactions suscitées par une publication. Plus une publication reçoit de réactions, de commentaires et de partages, plus sa diffusion est importante et plus l’algorithme de Facebook la considère comme un contenu à fort potentiel d’engagement.
C’est précisément le cas de la publication de Pavela Mitova du 20 février. Elle a été partagée deux fois le 22 février par le faux profil Magdalena Kostova :
1 sur 2
Ce profil a été créé en décembre. 26, 2025. Bien qu'inauthentique, le compte accepte les demandes d'amis, ce qui signifie que son activité n'est pas entièrement automatisée et qu'une personne réelle la gère.
Les premiers messages attribués à Magdalena Kostova concernent Sandanski, le Nouvel An et l'adoption de l'euro. Ils comprennent également plusieurs photos générées par intelligence artificielle, censées être les siennes. Il s'agit de tentatives pour créer l'illusion d'une activité en ligne authentique. Du 7 janvier au 30 mars, le faux profil partage le contenu suivant :
-
14 messages de Pavela Mitova ;
-
50 messages sur le thème « Il existe de telles personnes » ;
-
12 messages du profil de Slavi Trifonov ;
-
1 message d'un profil au nom de Diana Damianova, qui critique le bureau de Gyurov et qualifie ITN de « gardienne des valeurs familiales » ;
-
1 message du profil du député ITN Alexander Rashev.

Un autre profil, celui de Nikola Savov de Pernik, a été créé le 10 janvier 2026. Après sa première publication à cette époque, il a également commencé à partager du contenu exclusivement lié à ITN.

La photo de profil utilisée n'est pas celle d'une personne réelle, mais a été générée par intelligence artificielle. Autre point commun avec le profil de Magdalena Kostova : Nikola Savov a également partagé à deux reprises la publication de Pavela Mitova du 20 février. D'autres publications d'ITN ont été partagées deux fois sur le réseau social.
1 sur 8
[
[
[
[! ](https://factcheck.bg/wp-content/uploads/2026/04/Screenshot-2026-04-03-at-14.22.16.jpg)
Parmi les faux profils impliqués dans la diffusion d'ITN Parmi les publications, certaines comportent des descriptions en russe. C'est probablement un indice que le texte de ces descriptions a été généré par intelligence artificielle.
1 sur 2
Ainsi, par le biais d'un Un réseau de faux profils aux photos truquées et sans véritables publications personnelles a permis à la publication de Pavela Mitova, datée du 20 février, d'être partagée au moins 120 fois. Ce nombre important de réactions et de partages l'a placée dans la catégorie des contenus à fort engagement sur Facebook, lui conférant un positionnement prioritaire et une visibilité accrue.
Ce même réseau de profils a également amplifié la diffusion de publications d'autres comptes et pages associés à ITN durant la campagne des élections législatives anticipées. La publication de Stanislav Trifonov, par exemple, dans laquelle il critiquait le ministre de l'Agriculture par intérim Ivan Hristanov, a recueilli plus de 3 000 mentions « J'aime ». Elle a été partagée 379 fois, dont plus de 100 fois par de faux comptes. La plupart de ces faux profils l'ont partagée deux fois. Le profil de Magdalena Kostova figurait également parmi eux.
1 sur 2
"Il y a « Il y aura un tel peuple »
Début mars, un nouveau réseau de profils partiellement ou totalement anonymes, utilisant l'expression « Il y aura un tel peuple » dans leur nom, est devenu le slogan d'ITN pour la campagne électorale en cours. Ce réseau vise également à amplifier la diffusion du contenu publié par ITN afin que les algorithmes de Meta le reconnaissent comme très engageant.
1 sur 2
Ces Une cinquantaine de profils se présentent comme des militants d'ITN, mais en réalité, ils sont fictifs. Leurs photos de profil sont soit générées artificiellement, soit volées sur Internet. Ces profils restent quasiment inactifs jusqu'en février 2026, date à laquelle ils commencent soudainement à partager quotidiennement du contenu provenant de diverses pages et groupes du type « Il existe de telles personnes ».
Créé avec Flourish - Créer un graphique
Une vérification avec l'outil PimEyes a révélé que l'un des profils du réseau – « There Will Be Such a People (Anelia Yordanova) » – utilise une photo du mannequin de Victoria's Secret, Kelly Gale, comme photo de profil.
1 sur 3
Vérification sur Factcheck.bg L'outil PimEyes
Cette photo apparaît sur plusieurs sites, y compris sur des sites pour adultes.
Un autre profil sur le réseau utilise la photo d'une personne réelle. Personne.

Une nouvelle vérification à l'aide de l'outil de reconnaissance faciale PimEyes confirme que la photo représente Ivan Tomanović, chercheur associé au Département de génie thermique et énergétique de l'Institut des sciences nucléaires « VINČA » de l'Université de Belgrade. L'équipe de Factcheck.bg a tenté de le contacter, mais n'avait reçu aucune réponse au moment de la publication de cet article.

Et d'autres comportements inauthentiques
Depuis Au début de la campagne électorale, une activité inhabituelle a été observée sous les publications de Slavi Trifonov, leader du parti « Il existe un tel peuple ». Sa publication du 12 mars, dans laquelle il critique le maire de Sofia, Vassil Terziev, a recueilli près de 5 700 réactions. Parmi celles-ci, environ 2 000 sont des « j’aime », plus de 600 des émoticônes riant et environ 3 000 « cœurs ».
Une grande partie des profils ayant réagi avec un « cœur » sous la publication ont des noms étrangers, notamment italiens. La même activité inhabituelle, avec plus de 900 réactions (des « cœurs »), a été observée sous les publications de Trifonov des 28 février, 1er mars, 4 mars, 5 mars, 6 mars et 11 mars.
1 sur 3
[
Voici à quoi ressemblent les réactions achetées sur les réseaux sociaux : un service proposé illégalement sur Internet par divers intermédiaires, souvent basés dans des pays asiatiques. Moyennant une somme modique, ils fournissent des réactions à une publication donnée, généralement à l’aide de profils factices créés spécifiquement à cet effet.
Selon les politiques de Meta, l’entreprise Ces actions, qui concernent Meta, propriétaire de Facebook, relèvent de ce que l'on appelle un « comportement inauthentique coordonné » (https://transparency.meta.com/policies/community-standards/inauthentic-behavior/). Elles sont passibles de sanctions de la part de la plateforme, car elles visent à tromper Meta et ses utilisateurs ou à contourner les sanctions infligées en cas de violation du règlement de la communauté.
Ces engagements de Facebook et d'autres grands réseaux sociaux découlent du règlement européen sur les services numériques (https://www.eu-digital-services-act.com/Digital_Services_Act_Preamble_81_to_90.html#:~:text=their%20risk%20assessments.-,Providers%20of%20very%20large%20online%20platforms%20and%20of%20very%20large,that%20contributes%20to%20disinformation%20campaigns.). Ce document oblige explicitement les principales plateformes à prendre des mesures contre l'utilisation de leurs services pour la manipulation coordonnée de la société via de faux profils ou des bots, qui peuvent être utilisés pour la diffusion rapide et massive de désinformation ou de contenus illégaux.
Incident 1460: Des robotaxis Baidu Apollo Go immobilisés dans les embouteillages à Wuhan suite à une panne de système signalée, laissant certains passagers bloqués.
“Une panne de robotaxis en Chine laisse des passagers bloqués sur les autoroutes.”
Un problème technique non identifié a provoqué l'immobilisation de plusieurs robotaxis appartenant au géant technologique chinois Baidu, mardi, en pleine circulation. Certains passagers sont restés bloqués à bord pendant plus d'une heure.
À Wuhan, ville du centre de la Chine où Baidu a déployé des centaines de ses taxis autonomes Apollo Go, des internautes chinois ont rapporté sur les réseaux sociaux avoir vu ces véhicules tomber soudainement en panne et s'arrêter. Des photos et des vidéos partagées en ligne montrent les véhicules Baidu immobilisés sur des autoroutes très fréquentées, souvent sur la voie de gauche.
Une étudiante de Wuhan raconte à WIRED qu'elle est restée bloquée dans un robotaxi Baidu avec deux amies pendant environ 90 minutes mardi. (Elle a demandé à être identifiée uniquement par son nom de famille, He, afin de préserver son anonymat.) L'étudiante explique que le véhicule a connu des dysfonctionnements et s'est arrêté quatre ou cinq fois pendant le trajet avant de finalement s'immobiliser à un carrefour dans l'est de Wuhan. Heureusement, la route était peu fréquentée et le groupe n'était pas en danger immédiat. L'écran de la voiture demandait aux passagers de rester à bord, ceintures attachées, et d'attendre l'arrivée d'un représentant de la société « dans cinq minutes », d'après une photo qu'il a partagée avec WIRED.
Il explique avoir mis environ 30 minutes à joindre un conseiller Baidu par téléphone. « Ils n'arrêtaient pas de dire que le problème serait signalé à leur supérieur. Mais ils n'ont pas expliqué la cause de la panne ni le temps d'attente », raconte-t-il. Personne n'est jamais venu, et après une heure d'attente supplémentaire, les trois passagers ont décidé de rentrer chez eux par leurs propres moyens (les portières n'étaient pas verrouillées).
Sur les réseaux sociaux chinois, d'autres passagers se sont également plaints de l'impossibilité de contacter le service client de Baidu. « J'ai essayé tous les moyens possibles pour appeler à l'aide via l'application, mais la ligne était coupée, et quand j'ai appuyé sur le bouton SOS, on m'a dit qu'il était indisponible. Alors, à quoi sert le SOS, au juste ? » « Apollo Go, vous me devez vraiment des excuses », a écrit une internaute sur RedNote, accompagnant son message d'une vidéo montrant le dysfonctionnement du bouton. Elle a expliqué avoir dû forcer l'ouverture de la portière et sortir du véhicule, la circulation étant complètement bloquée derrière sa voiture.
Baidu n'a pas immédiatement répondu à notre demande de commentaires. La police locale de Wuhan a publié un communiqué vers minuit (heure chinoise) indiquant que la situation était « probablement due à un dysfonctionnement du système », mais qu'une enquête était toujours en cours. La police a ajouté qu'aucun blessé n'était à déplorer et que tous les passagers avaient quitté les véhicules. On ignore pour l'instant combien de voitures autonomes de Baidu ont été affectées.
L'enregistrement d'une caméra embarquée, également publié sur RedNote, montre une voiture dépassant 16 véhicules Apollo Go stationnés sur la route en l'espace de 90 minutes. À plusieurs reprises, la vidéo montre le conducteur évitant de justesse une collision avec le robotaxi en freinant ou en changeant de voie à la dernière minute.
D'autres n'ont apparemment pas eu cette chance. Dans une autre publication sur RedNote, un homme affirme avoir percuté un véhicule Baidu défectueux. Il explique qu'il roulait à plus de 65 km/h sur l'autoroute lorsque la voiture qui le précédait a brusquement changé de voie pour éviter le robotaxi arrêté. N'ayant pas pu réagir à temps, il a fini par percuter le véhicule autonome. Des photos de son SUV orange, remorqué, montrent que l'aile avant droite était complètement arrachée et que d'autres parties semblaient avoir subi d'importants dégâts.
Au moins deux autres collisions ont eu lieu le même jour, d'après des photos et des vidéos publiées sur les réseaux sociaux chinois. Une utilisatrice de RedNote à Wuhan a confirmé à WIRED avoir croisé une minifourgonnette blanche impliquée dans une collision par l'arrière avec un robotaxi stationné. L'arrière du véhicule Baidu était fortement endommagé, mais les deux personnes présentes semblaient indemnes, a-t-elle indiqué. Elle a ajouté avoir aperçu au moins une douzaine d'autres robotaxis stationnés.
Baidu est l'une des principales entreprises chinoises de véhicules autonomes. La société a lancé ses services de robotaxis dans plus d'une douzaine de villes chinoises et a récemment commencé son expansion internationale, notamment à Séoul, Abou Dabi et Dubaï. En février, Baidu a annoncé avoir effectué 20 millions de trajets, soit plus de 300 millions de kilomètres (environ 186 millions de miles).
Wuhan figure parmi les villes les plus proactives en matière d'autorisation de circulation des véhicules entièrement autonomes de Baidu sur la voie publique. La ville autorise leur circulation sur les autoroutes et pour les trajets vers l'aéroport.
Incident 1455: Des vidéos truquées (deepfakes) auraient usurpé l'identité de l'optométriste Joseph Allen pour promouvoir des gouttes ophtalmiques contre la myopie sur TikTok.
“Une optométriste riposte après une escroquerie par deepfake.”
Joseph Allen, optométriste, est bien connu des conférences, des réseaux sociaux et de sa chaîne YouTube, Dr. Eye Health, où il informe ses abonnés sur divers sujets liés à la santé oculaire. Cependant, sa notoriété a eu un revers lorsqu'il a découvert sur les réseaux sociaux des vidéos le représentant de façon fictive, diffusant de fausses informations et vendant des produits contrefaits. Le Dr Allen a été victime d'une escroquerie par deepfake (ou deepfake généré par l'IA) (https://www.aoa.org/news/clinical-eye-care/public-health/living-an-episode-of-black-mirror-ai-deepfakes-target-optometrist).
Les deepfakes et les vidéos de mauvaise qualité, générés par l'IA, ciblent de plus en plus les médecins. Ces vidéos usurpent leur identité afin de créer du contenu facile à produire, piloté par des algorithmes, et susceptible de diffuser de dangereuses informations erronées sur la santé. Les deepfakes sont des contenus manipulés ou fabriqués par l'IA qui usurpent l'identité d'une personne réelle dans le but de diffuser des informations malveillantes ou mensongères.
Les vidéos truquées par l'IA sont des contenus vidéo produits à grande échelle par l'IA qui exploitent les algorithmes d'engagement des réseaux sociaux et inondent des plateformes comme YouTube, TikTok ou Instagram, éclipsant ainsi les créateurs de contenu originaux. Le Dr Allen a constaté : « Dans certaines de ces vidéos, on vous incite à ne pas consulter votre ophtalmologiste et on prétend que toute notre profession est une arnaque. »
Avec l'aide d'un avocat, le Dr Allen a contesté les deepfakes ciblant sa chaîne. Il lui a fallu un mois pour accéder à TikTok, où il a découvert la supercherie, puis trois semaines supplémentaires pour prouver qu'il était bien le « Dr. Eye Health ». Un compte a été supprimé, mais en deux ou trois heures, les escrocs en ont créé un nouveau et ont republié tout le contenu précédent. Dans le cas du Dr Allen, le produit vendu dans cette arnaque était un collyre censé guérir la myopie. Les gouttes ont été retracées jusqu'à une entreprise chinoise vendant des millions de dollars de produits sur Amazon. Leur composition reste inconnue.
Le Dr Allen recommande de rechercher des signes révélateurs de vidéos générées par IA, en gardant à l'esprit qu'avec les progrès de l'IA, ces signes peuvent devenir plus subtils, voire disparaître. Examinez attentivement le contenu vidéo à la recherche de montages étranges : les lèvres du sujet sont-elles synchronisées avec la voix et l'audio ? Cligne-t-il des yeux de façon excessive ou insuffisante ? Si le produit semble trop beau pour être vrai, il l'est probablement. Soyez vigilant et faites preuve de prudence face à ce type de contenu.
L'image paraît-elle naturelle ? Les deepfakes ont encore du mal à reproduire un éclairage naturel et peuvent donner une impression artificielle au sujet en raison d'un décalage entre les conditions d'éclairage ou les reflets. D'autres indices sont disponibles auprès des chercheurs du MIT (https://www.media.mit.edu/projects/detect-fakes/overview/), notamment des informations sur les yeux et les sourcils, le clignement des yeux et les reflets sur les lunettes. À mesure que l'IA brouille les frontières entre réalité et fiction, la responsabilité incombe à la pensée critique individuelle concernant le contenu médiatique.
Incident 1452: Des usurpations d'identité, prétendument générées par une intelligence artificielle, du cardiologue albanais Spiro Qirko et du journaliste Ilir Topi auraient été utilisées sur Facebook pour promouvoir un produit contre l'hypertension au Kosovo.
“Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension”
Utilisation abusive du nom d'un cardiologue et journaliste albanais pour vendre des médicaments contre l'hypertension
= vidéo fortement manipulée. Le médicament « Hyper Caps » ne dispose pas d'une autorisation de mise sur le marché délivrée par l'Agence kosovare des produits et dispositifs médicaux (AKPPM), ce qui rend sa commercialisation illégale au Kosovo.
Article
Page Facebook [Dr Spiro Search](https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mob ile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM1MDY4NTUzMTcyOAABHi27JJ8 ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330357&utm_content=12024564980334035 7. a publié une vidéo dans laquelle il affirme avoir découvert un remède contre l'hypertension.
Dans cette vidéo, il prétend notamment que ce médicament est contesté par les laboratoires pharmaceutiques.
« En tant que spécialiste, on me demande souvent : « Est-il possible de guérir complètement l'hypertension ? ». La réponse est OUI. 🩺 J'ai mis au point une méthode qui, en quelques jours, élimine la pression et la tension sur les veines, sans intervention coûteuse. Le secret réside dans la stimulation adéquate des veines et du système cardiovasculaire. » « Dans la vidéo, vous verrez exactement comment ma formule fonctionne et vous oublierez l'hypertension pour toujours. Vous ressentirez les résultats immédiatement », peut-on lire dans cette publication.
Une vidéo, sous forme d'interview, présentant ce médicament, a également été publiée.
L'interview serait menée par le journaliste Ilir Topi avec le docteur Spiro Qirko, qui expliquerait comment l'hypertension est guérie.
« Hyper Caps » est un produit qui aurait été découvert par un cardiologue et qui, selon la société, guérit l'hypertension.
Krypometer a également consulté la liste des médicaments autorisés à la vente au Kosovo (https://akppm.rks-gov.net/DocumentsAndPublications/DocumentsAndPublications/1092) afin de vérifier si ce produit y est autorisé.
Après consultation du site web de l'Agence kosovare des produits et dispositifs médicaux (AKPPM), il s'avère que le produit « Hyper Caps » ne figure pas sur la liste des médicaments autorisés à la vente. Autorisation.
L’article 16 de la loi relative aux médicaments et dispositifs médicaux stipule que « le médicament ne peut être mis sur le marché en République du Kosovo qu’après obtention d’une autorisation de mise sur le marché délivrée par l’Agence kényane des médicaments et dispositifs médicaux (KPAPM) ».
Krypometer a effectué des tests. cette vidéo (https://fit.my-health.blog/M24T3jcX?media_type=video&campaign_id=120245649803330357&adset_id=120245649803350357&ad_id=120245649803340357&placement=Facebook_Mobile_Feed&a=fy-BRI-bloomfield-B&x=961459690129113&cn=al2294truba&cel1=2294&fbclid=IwdGRzaAQrbrBleHRuA2FlbQEwAGFkaWQBqzLIRp2UVXNydGMGYXBwX2lkDDM) 1MDY4NTUzMTcyOAABHi27JJ8ZYZmVh3hPAv_ZnPN9a3GlXpwYultUkUdZFTpoQJ1vw-Vc2tjBGJ0m_aem_eBCvBlVEfeAdsh1Ekfq1SA&utm_medium=paid&utm_source=fb&utm_id=120245649803330 357. Plateforme détectant les contenus créés par intelligence artificielle, ses résultats indiquent que la vidéo, ainsi que la parole, ont 96,4 % de chances d'être générées par IA (archive).
Krypometer a contacté le journaliste Ilir Topi et le cardiologue albanais Spiro Qirko, qui ont nié tout lien avec cette affaire. N'utilisez pas ce profil ni le contenu de cette vidéo.
« C'est généré par IA, c'est un faux », a déclaré Topi.
« Je me sens profondément insulté par cette escroquerie odieuse qui utilise mon nom et ma personnalité de la manière la plus malhonnête et inédite. C'est un acte criminel », a déclaré Qirko, cardiologue albanais.
Qirko a précisé n'avoir jamais recommandé de phytothérapie pour traiter l'hypertension.
Hypertension
Le cardiologue Qirko a expliqué que, selon les recommandations de la Société européenne de cardiologie, la tension artérielle est considérée comme normale jusqu'à 135/85 mmHg.
« Au-delà de ces valeurs, on parle d'hypertension, qui nécessite un traitement régulier. Le traitement consiste généralement en la prise d'un ou plusieurs médicaments de classes différentes, choisis par le médecin et suivis en fonction de l'évolution de la tension artérielle du patient », a conclu Qirko.
Incident 1454: Une vidéo truquée (deepfake) montrerait Nirmala Sitharaman approuvant un programme d'investissement.
“Nirmala Sitharaman encourage-t-elle un investissement de 22 000 roupies indiennes pour un rendement de 550 000 roupies ? Le Bureau de vérification des faits du PIB révèle la vérité sur la vidéo virale.”
New Delhi, 16 avril : Le service de vérification des faits du gouvernement indien, PIB Fact Check, a démenti jeudi une vidéo virale montrant faussement la ministre des Finances, Nirmala Sitharaman, faisant la promotion d'un placement à haut rendement. PIB Fact Check a mis en garde les citoyens contre ce type de désinformation. Dans une publication sur la plateforme de médias sociaux X, PIB Fact Check a déclaré que la vidéo, qui prétend qu'un investissement de 22 000 roupies pourrait rapporter 550 000 roupies en une semaine, est un faux généré par intelligence artificielle. « Une vidéo virale de la ministre des Finances, Nirmala Sitharaman, prétend offrir 550 000 roupies en une semaine pour un investissement initial de 22 000 roupies. Cette vidéo est fausse et générée par IA », a-t-il été précisé. **[Nirmala Sitharaman a-t-elle fait la promotion d'un placement à haut rendement en ligne ?] Le service de vérification des faits du PIB dément une vidéo sur l'IA.
L'agence a précisé que ni le gouvernement indien ni le ministre des Finances ne font la promotion ou l'approbation d'un tel programme et a exhorté le public à la vigilance face aux contenus trompeurs circulant en ligne. « Ni le gouvernement ni le ministre des Finances n'approuvent un tel programme d'investissement », a-t-elle ajouté. Le service de vérification des faits a également conseillé aux citoyens de vérifier ces affirmations auprès de sources gouvernementales officielles avant de prendre toute décision financière. Il a par ailleurs invité les utilisateurs à signaler tout contenu suspect afin de contribuer à endiguer la propagation de la désinformation.
« Restez vigilants. Vérifiez ces affirmations uniquement auprès de sources gouvernementales officielles », a conclu le service de vérification des faits du PIB. Par ailleurs, le mois dernier, le PIB a signalé la diffusion sur les réseaux sociaux d'un faux message affirmant que les comptes de l'application YONO de la State Bank of India (SBI) seraient bloqués si les utilisateurs ne mettaient pas immédiatement à jour leurs informations Aadhaar. Ce message en question incitait les destinataires à télécharger un fichier APK intitulé « SBI KYC AADHAR UPDATE » et à l'installer pour éviter toute interruption de service. « Cette alerte, qui semble être une tentative d'hameçonnage, vise à inciter les titulaires de compte à divulguer des informations bancaires et personnelles sensibles », a déclaré le PIB le mois dernier.
Note TruLY : 5 – Fiable | Sur une échelle de confiance de 0 à 5, cet article a obtenu la note maximale de 5 sur LatestLY. Il est vérifié par des sources officielles (compte officiel X de PIB Fact Check). Les informations ont été minutieusement recoupées et confirmées. Vous pouvez partager cet article en toute confiance avec vos proches, sachant qu'il est fiable.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données



























