Bienvenue dansla base de données des incidents d'IA
Incident 1325: Des vidéos truquées générées par IA, imitant Elon Musk et l'émission Dragon's Den, auraient été utilisées dans une escroquerie aux investissements en cryptomonnaies ciblant des victimes canadiennes.
“Deux Canadiens perdent 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie deepfake basée sur l'IA.”Dernier rapport
Deux Canadiens, l'un de l'Ontario et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. La victime ontarienne a perdu 1,7 million de dollars après avoir été trompée par une fausse vidéo d'Elon Musk, tandis que l'autre a perdu 600 000 dollars après avoir visionné une vidéo faussement liée à l'émission Dragon's Den. Le rapport a été mis à jour le 21 décembre 2025.
Mise à jour du 21 décembre 2025 à 12 h 31 UTC : le rapport détaille que deux Canadiens, l'un de Markham (Ontario) et l'autre de l'Île-du-Prince-Édouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. Selon W5, des vidéos générées par IA et des tableaux de bord falsifiés ont été utilisés pour persuader les victimes que de petits dépôts produisaient de réels profits.
Comment les victimes ont été piégées par des imposteurs utilisant l'IA
Une femme de 51 ans, originaire de Markham, a visionné sur Facebook une vidéo où Elon Musk semblait parler d'une opportunité d'investissement dans les cryptomonnaies. Elle a envoyé 250 $ au départ et, deux jours plus tard, un gain de 30 $ lui a été annoncé. Incitée à déposer davantage d'argent, elle a cru aux documents qui semblaient officiels.
« J'ai demandé un prêt hypothécaire de près d'un million de dollars. J'ai fait le retrait et j'ai commencé à leur envoyer l'argent. Vous voyez ? 350 000 $, puis 350 000 $. » – Victime de Markham, en Ontario.
Les escrocs ont ensuite affiché un solde de 3 millions de dollars et ont exigé le paiement des taxes et des frais avant tout retrait. Pour couvrir ces frais, elle a emprunté 500 000 $ à sa famille et à ses amis et a utilisé ses cartes de crédit au maximum, ce qui porte ses pertes totales à 1,7 million de dollars.
Un homme de l'Île-du-Prince-Édouard a vu une vidéo qui prétendait renvoyer à l'émission télévisée « Dragon's Den » et suggérait d'investir dès 250 $. Il a augmenté ses transferts au fil du temps, allant jusqu'à envoyer 10 000 $ par jour, et a finalement perdu 600 000 $. Comme dans le premier cas, un faux solde de plus d'un million de dollars a été affiché et les tentatives de retrait ont été bloquées.
Leurs pertes totales s'élèvent à 2,3 millions de dollars. Selon le Centre antifraude du Canada, les Canadiens ont perdu 1,2 milliard de dollars dans des arnaques à l'investissement au cours des trois dernières années, et l'organisme estime que les pertes réelles sont plus importantes.
Rapports sur des réseaux de fraude à grande échelle
L'ancienne procureure américaine Erin West a déclaré que la fraude est organisée comme une industrie et que de nombreuses personnes qui appellent sont elles-mêmes victimes, victimes de trafic humain et envoyées dans des centres d'escroquerie en Asie du Sud-Est, où elles sont contraintes de travailler de longues heures. Celles qui refusent ou tentent de s'échapper sont battues ou torturées, selon son témoignage.
Mme West a décrit sa visite de centres de cyberfraude aux Philippines et a déclaré que leur ampleur reflète des opérations de niveau industriel qui reposent sur la manipulation psychologique, la technologie et le trafic d'êtres humains. Elle a averti qu'à mesure que les outils de deepfake deviennent moins chers et plus accessibles, des arnaques similaires sont susceptibles de se développer à l'échelle mondiale, rendant plus difficile pour les investisseurs ordinaires de distinguer les opportunités légitimes des fraudes basées sur l'IA.
Incident 1326: Les robotaxis Waymo auraient contribué aux embouteillages lors de la panne de courant de PG&E à San Francisco.
“Waymo explique pourquoi les robotaxis sont tombés en panne lors de la coupure de courant à San Francisco.”
Waymo a reconnu mardi que ses voitures autonomes avaient contribué aux embouteillages lors de la panne de courant massive qui a touché San Francisco le week-end dernier. L'entreprise a expliqué que l'ampleur de la perturbation avait submergé certaines parties de son réseau et l'avait incitée à mettre en œuvre immédiatement des modifications logicielles et des mesures d'intervention d'urgence.
La panne, provoquée par un incendie dans un poste de transformation de PG&E, a privé d'électricité près d'un tiers de la ville samedi, mettant hors service des centaines de feux de circulation et engendrant des embouteillages monstres sur les principaux axes routiers. Alors que des policiers étaient déployés pour réguler manuellement la circulation aux intersections, les robotaxis Waymo immobilisés sont devenus l'un des signes les plus visibles des perturbations qui ont touché toute la ville, suscitant l'attention des habitants et des élus.
Dans un article de blog publié mardi (https://waymo.com/blog/2025/12/autonomously-navigating-the-real-world), Waymo a expliqué que le nombre sans précédent de feux de circulation hors service avait mis à rude épreuve les systèmes de sécurité conçus pour des pannes de moindre ampleur. Ses véhicules sont programmés pour considérer les feux défectueux comme des intersections à quatre stops, mais dans certains cas, ils demandent une « vérification de confirmation à distance » afin de garantir le choix le plus sûr.
« Bien que nous ayons réussi à franchir plus de 7 000 feux hors service samedi, la panne a entraîné une forte augmentation de ces demandes », a indiqué l'entreprise, ajoutant que les retards de confirmation avaient contribué à l'engorgement des rues déjà saturées.
Alors que la panne de courant persistait et que le Département de gestion des urgences de San Francisco exhortait les habitants à rester chez eux, Waymo a annoncé la suspension temporaire de son service et a demandé à ses véhicules de se garer afin d'être ramenés progressivement à leurs dépôts.
Le maire Daniel Lurie a déclaré que la ville était en contact direct avec l'entreprise, filiale d'Alphabet (la maison mère de Google), face à l'aggravation de la situation.
« J'ai appelé le PDG de Waymo et je lui ai demandé de retirer immédiatement les véhicules de la circulation », a déclaré M. Lurie lors d'une conférence de presse lundi. « Ils ont fait preuve de compréhension… mais nous avons besoin qu'ils soient plus proactifs. »
Cet incident a relancé le débat sur le comportement des véhicules autonomes lors de situations d'urgence majeures. Les élus de San Francisco ont demandé une audition sur la réponse de Waymo, et un organisme de réglementation californien a annoncé lundi examiner les incidents impliquant des robotaxis immobilisés pendant la panne.
Waymo a annoncé le déploiement de mises à jour logicielles pour l'ensemble de sa flotte. Ces mises à jour fournissent aux véhicules des informations plus précises sur les pannes de courant régionales, leur permettant ainsi de traverser les intersections avec plus d'assurance.
L'entreprise a également indiqué mettre à jour ses plans d'intervention d'urgence, renforcer sa coordination avec les autorités municipales et poursuivre la formation des secouristes. Plus de 25 000 secouristes à travers le monde ont déjà été formés à l'utilisation de ses véhicules.
« Bien que la défaillance du réseau électrique ait été importante, nous nous engageons à ce que notre technologie s'adapte à la circulation lors de tels événements », a déclaré un porte-parole de Waymo. « Nous nous attachons à intégrer rapidement les enseignements tirés de cet incident et nous avons à cœur de gagner et de conserver la confiance des communautés que nous desservons au quotidien. »
Incident 1333: Des images et des vidéos prétendument générées par l'IA auraient diffusé de fausses informations concernant la capture de Nicolás Maduro sur X
“Après la destitution de Maduro, les contenus générés par l'IA se répandent, brouillant la frontière entre réalité et fiction.”
Suite à l'opération militaire américaine au Venezuela qui a conduit à la destitution du président Nicolas Maduro, des vidéos générées par intelligence artificielle montrant des Vénézuéliens en liesse dans les rues sont devenues virales sur les réseaux sociaux.
Ces clips, mettant en scène des foules en liesse, ont cumulé des millions de vues sur des plateformes majeures comme TikTok, Instagram et X.
L'un des premiers clips, et l'un des plus partagés sur X, a été publié par un compte nommé « Wall Street Apes », qui compte plus d'un million d'abonnés sur la plateforme.
La publication (https://x.com/WallStreetApes/status/2007586063876010289) montre des Vénézuéliens en larmes de joie remerciant les États-Unis et le président Donald Trump d'avoir destitué Maduro.
La vidéo a depuis été signalée par la communauté, une fonctionnalité de vérification des faits participative de X qui permet aux utilisateurs d'apporter des précisions aux publications qu'ils jugent trompeuses. Le message indiquait : « Cette vidéo est générée par une IA et est actuellement présentée comme une information factuelle dans le but d’induire les gens en erreur. »
La vidéo a été visionnée plus de 5,6 millions de fois et partagée par au moins 38 000 comptes, dont celui du magnat des affaires Elon Musk, avant que celui-ci ne la supprime.
CNBC n’a pas pu confirmer l’origine de la vidéo. Cependant, les vérificateurs de faits de la BBC et de l’AFP ont indiqué que la première version connue de la vidéo était apparue sur le compte TikTok @curiousmindusa, qui publie régulièrement du contenu généré par une IA.
Avant même la diffusion de ces vidéos, des images générées par IA montrant Maduro aux mains des Américains circulaient déjà avant que l'administration Trump ne publie une image authentique du dirigeant capturé.
L'ancien président vénézuélien a été capturé le 3 janvier 2026, à la suite de frappes aériennes et d'un raid terrestre menés par les forces américaines, une opération qui a fait la une de l'actualité internationale en ce début d'année.
Outre les vidéos générées par l'IA, l'équipe de vérification des faits de l'AFP a également signalé plusieurs exemples de contenus trompeurs concernant la destitution de Maduro, notamment des images de célébrations au Chili présentées à tort comme des scènes vénézuéliennes.
Cette semaine, Trump a également republié plusieurs vidéos relatives aux célébrations vénézuéliennes sur Truth Social, bien que CNBC ait confirmé que nombre d'entre elles avaient été filmées hors du Venezuela, dans des villes comme Panama et Buenos Aires.
L'une des vidéos partagées par le président (https://truthsocial.com/@realDonaldTrump/posts/115841047136997408) contenait d'anciennes images apparues en ligne dès juillet 2024 (https://www.facebook.com/watch/?v=797885532523121) et n'avait donc aucun lien avec la destitution récente de Maduro.
La diffusion de ce type de désinformation autour d'événements d'actualité majeurs n'est pas nouvelle. Des contenus faux ou trompeurs similaires ont été diffusés lors des conflits israélo-palestinien et russo-ukrainien.
Cependant, la portée massive des contenus générés par IA concernant les récents développements au Venezuela illustre de façon frappante le rôle croissant de l'IA comme outil de désinformation.
Des plateformes telles que Sora et Midjourney ont considérablement simplifié la création rapide de vidéos hyperréalistes et leur diffusion comme authentiques dans le contexte chaotique de l'actualité en temps réel. Les créateurs de ce type de contenu cherchent souvent à amplifier certains discours politiques ou à semer la confusion au sein du public international.
L'année dernière, des vidéos générées par IA montrant des femmes se plaignant de la perte de leurs allocations du Programme d'aide alimentaire supplémentaire (SNAP) lors d'une paralysie des services gouvernementaux sont devenues virales. L'une de ces vidéos a trompé Fox News, qui l'a présentée comme authentique dans un article qui a ensuite été supprimé.
Face à ces tendances, les entreprises de médias sociaux subissent une pression croissante pour renforcer leurs efforts d'étiquetage des contenus potentiellement trompeurs générés par IA.
L'année dernière, le gouvernement indien a proposé une loi rendant obligatoire l'étiquetage des deepfakes, tandis que l'Espagne a approuvé des amendes pouvant atteindre 35 millions d'euros pour les contenus générés par l'IA non étiquetés.
Pour répondre à ces préoccupations, les principales plateformes, dont TikTok et Meta, ont déployé des outils de détection et d'étiquetage de l'IA, avec des résultats mitigés.
CNBC a pu identifier certaines vidéos trompeuses sur TikTok concernant le Venezuela, signalées comme générées par l'IA. Cependant, d'autres vidéos, semblant être fabriquées ou modifiées numériquement, ne comportaient pas encore d'avertissement.
Dans le cas de X, la plateforme s'appuie principalement sur les commentaires de la communauté pour l'étiquetage des contenus. Toutefois, certains critiques estiment que le système réagit souvent trop lentement pour empêcher la propagation de la désinformation générée par l'IA avant d'être identifiée.
Adam Mosseri, qui supervise Instagram et Threads, a reconnu le défi auquel sont confrontés les réseaux sociaux dans un récent article. « Toutes les grandes plateformes font du bon travail pour identifier les contenus générés par l'IA, mais leurs performances se dégraderont avec le temps, à mesure que l'IA deviendra plus performante pour imiter la réalité », a-t-il déclaré.
« De plus en plus de gens pensent, comme moi, qu'il sera plus pratique d'identifier les vrais médias que les faux », a-t-il ajouté.
— Victoria Yeo de CNBC a contribué à cet article.
Incident 1329: Grok aurait généré et diffusé des images à caractère sexuel non consensuelles d'adultes et de mineurs sur X Replies.
“Grok AI d'Elon Musk génère des images de « mineurs en tenue minimale ».”
Le chatbot Grok d'Elon Musk a annoncé vendredi que des failles dans ses systèmes de sécurité l'avaient conduit à générer des « images de mineurs légèrement vêtus » sur la plateforme de médias sociaux X. Ce chatbot, développé par xAI, la société de Musk, a diffusé une vague d'images à caractère sexuel tout au long de la semaine en réponse aux requêtes des utilisateurs.
Des captures d'écran partagées par des utilisateurs sur Twitter (X) montrent l'onglet public de Grok rempli de ces images. xAI a déclaré travailler à l'amélioration de ses systèmes afin d'éviter de futurs incidents.
« Il existe des cas isolés où des utilisateurs ont demandé et reçu des images générées par l'IA représentant des mineurs légèrement vêtus », a indiqué Grok dans une publication sur X en réponse à un utilisateur. « xAI dispose de mécanismes de protection, mais des améliorations sont en cours pour bloquer complètement ces requêtes. »
« Comme indiqué, nous avons identifié des failles dans nos systèmes de protection et nous y remédions de toute urgence. La pornographie infantile est illégale et interdite », a déclaré xAI publié sur le compte @Grok de X, en référence à la pornographie infantile.
Ces derniers jours, de nombreux utilisateurs de X ont incité Grok à générer des versions sexualisées et modifiées sans consentement d'images par l'IA, allant jusqu'à dévêtir les personnes sans leur consentement. Jeudi, Musk a republié une photo de lui en bikini générée par l'IA, accompagnée d'émojis riant aux larmes, en clin d'œil à cette tendance.
La génération d'images sexualisées par Grok semble dépourvue de garde-fous, permettant ainsi à des mineurs d'apparaître dans ses publications montrant des personnes, généralement des femmes, légèrement vêtues, d'après les messages du chatbot. Dans une réponse à un utilisateur sur X jeudi, Grok a déclaré que la plupart des cas pourraient être évités grâce à des filtres et une surveillance avancés, tout en reconnaissant qu'« aucun système n'est infaillible ». L'entreprise a ajouté que xAI accordait la priorité aux améliorations et examinait les informations partagées par les utilisateurs.
Contactée par courriel pour obtenir un commentaire, xAI a répondu : « Mensonges des médias traditionnels ».
Le problème de l'utilisation de l'IA pour générer du contenu pédopornographique est un problème récurrent dans le secteur de l'intelligence artificielle. Une étude de Stanford de 2023 a révélé qu'un ensemble de données utilisé pour entraîner plusieurs outils populaires de génération d'images par IA contenait plus de 1 000 images pédopornographiques. Selon les experts, entraîner une IA sur des images de maltraitance infantile peut permettre aux modèles de générer de nouvelles images d'enfants exploités.
Grok a également un historique de manquements à ses règles de sécurité et de diffusion de fausses informations. En mai dernier, Grok a commencé à publier des messages concernant une théorie du complot d'extrême droite sur le « génocide blanc » en Afrique du Sud, dans des publications sans aucun rapport avec ce concept. xAI a également présenté ses excuses en juillet après que Grok a commencé à publier des fantasmes de viol et des contenus antisémites, allant jusqu'à se faire appeler « MechaHitler » et à faire l'apologie de l'idéologie nazie. L'entreprise a néanmoins obtenu un contrat de près de 200 millions de dollars avec le département américain de la Défense une semaine après les incidents.
Incident 1327: Une escroquerie sentimentale utilisant une fausse vidéo romantique générée par IA aurait été signalée comme ayant servi à voler un bitcoin à un investisseur récemment divorcé.
“Comment une arnaque sentimentale alimentée par l'IA a vidé un fonds de retraite Bitcoin”
Points clés
-
Un investisseur en Bitcoin, récemment divorcé, a perdu l'intégralité de son épargne-retraite, soit un Bitcoin, dans une escroquerie sentimentale orchestrée par un escroc chevronné utilisant des deepfakes et alimentée par l'IA.
-
Les escroqueries de type « porc-abattage » sont des fraudes relationnelles qui reposent sur la manipulation émotionnelle et l'utilisation de deepfakes générés par l'IA pour gagner la confiance des victimes avant de leur soutirer un maximum d'argent.
-
L'escroc a utilisé l'IA pour créer des portraits synthétiques et mener des appels vidéo deepfake en temps réel, rendant la relation fabriquée pratiquement indiscernable de la réalité.
-
Une fois la cryptomonnaie transférée via une blockchain, il est quasiment impossible de la récupérer. Contrairement aux virements bancaires, il n'existe aucun recours, aucune annulation ni aucune protection pour les consommateurs.
Lorsqu'un investisseur en Bitcoin, récemment divorcé, a enfin atteint le cap symbolique de posséder un Bitcoin, il pensait son avenir financier assuré. Pourtant, en quelques jours, un stratagème élaboré, orchestré par un escroc chevronné utilisant l'IA, l'a dépouillé de toutes ses économies de retraite et l'a laissé anéanti.
Son histoire, partagée par Terence Michael, conseiller en sécurité Bitcoin, offre un enseignement crucial sur la façon dont la manipulation émotionnelle, combinée aux technologies d'IA modernes, a transformé les arnaques traditionnelles en armes pour cibler les détenteurs de cryptomonnaies.
Comprendre le mécanisme de l'« abattage de porc »
Avant d'examiner les détails de cette affaire, il est essentiel de comprendre ce que les experts en sécurité appellent les arnaques dites « d'abattage de porc ». Contrairement aux piratages de cryptomonnaies classiques qui ciblent directement les portefeuilles, ces stratagèmes sont des fraudes relationnelles qui reposent entièrement sur la manipulation psychologique. Ce terme, emprunté à la pratique agricole consistant à engraisser un animal avant l'abattage, décrit comment les escrocs instaurent progressivement un climat de confiance et un lien émotionnel avec leurs victimes avant de leur soutirer un maximum d'argent.
La différence fondamentale est cruciale. Les victimes envoient volontairement leurs fonds, croyant faire de bons investissements ou soutenir un proche. Cette manipulation basée sur le consentement rend ces stratagèmes extrêmement difficiles à identifier pour les systèmes de détection de fraude, car les transactions elles-mêmes semblent légitimes en apparence.
D'après un rapport de Cyvers, une plateforme de sécurité blockchain, la période de manipulation des victimes dure en moyenne entre une et deux semaines dans environ un tiers des cas, tandis que près de 10 % des victimes subissent une manipulation s'étalant sur un à trois mois. Cette durée prolongée souligne la sophistication de ces opérations. Les escrocs savent que la patience et la constance sont bien plus efficaces pour gagner la confiance de leurs victimes que la précipitation.
Déroulement de l'escroquerie : L'avantage de l'IA
Dans ce cas précis, l'escroc a utilisé une approche sophistiquée et complexe exploitant l'intelligence artificielle. La victime a d'abord été contactée par un message non sollicité d'une personne se faisant passer pour une séduisante trader.
L'escroc proposait d'aider l'investisseur à doubler ses avoirs en Bitcoin, une promesse conçue pour jouer sur la cupidité et le désir de sécurité financière, notamment chez une personne récemment divorcée.
Ce qui a rendu cette arnaque exponentiellement plus efficace que les escroqueries sentimentales classiques, c'est l'intégration de l'intelligence artificielle. Plutôt que d'utiliser des photos volées ou des retouches d'image grossières, l'escroc a eu recours à l'IA pour générer des portraits entièrement synthétiques d'un réalisme saisissant. Ces identités générées par l'IA sont quasiment indiscernables de vraies personnes pour un œil non averti.
Lors des appels vidéo, l'escroc employait une technologie encore plus sophistiquée. La génération de vidéos deepfake en direct permettait de superposer un visage artificiel sur le corps de l'escroc en temps réel. Les systèmes avancés sont désormais capables de maintenir une synchronisation labiale précise quelles que soient les conditions d'éclairage, créant ainsi l'illusion d'une véritable connexion humaine si convaincante que même les plus sceptiques peinent à déceler la supercherie.
L'importance de la dimension émotionnelle est capitale. L'escroc a exprimé des sentiments amoureux, évoqué des projets d'avenir et tissé un récit élaboré autour d'une femme qui semblait se soucier profondément du bien-être financier de l'investisseur. La victime a même été convaincue d'acheter un billet d'avion pour la rencontrer en personne, renforçant ainsi son attachement psychologique. Ce lien personnel s'est avéré bien plus persuasif que n'importe quelle mesure de sécurité technique.
Vulnérabilité et circonstances de vie
Le ciblage spécifique d'une personne récemment divorcée n'était pas aléatoire. Il s'agissait d'une prédation calculée. Le divorce engendre une grande vulnérabilité, notamment un isolement affectif, une baisse de l'estime de soi et un vide psychologique que les escrocs savent exploiter. Ces derniers recrutent activement des victimes correspondant à des profils précis, comme les personnes âgées, les personnes récemment divorcées, les veuves, les veufs et celles qui expriment leur solitude en ligne.
Ce cas met en lumière une faille critique dans la prévention moderne de la fraude. Les systèmes traditionnels de détection de la fraude bancaire sont conçus pour signaler les transactions inhabituelles, et non pour reconnaître la manipulation psychologique. Les transferts de Bitcoin de la victime paraissaient parfaitement normaux aux systèmes automatisés : il s'agissait de montants réguliers sur une période donnée, et non d'un seul retrait important. Cette augmentation progressive est délibérément conçue pour contourner la détection algorithmique.
L'ampleur du problème
En 2024, les escroqueries liées à l'abattage de porcs ont coûté 5,5 milliards de dollars aux victimes, répartis sur environ 200 000 cas individuels, soit une moyenne de 27 500 dollars par victime, selon Chainalysis. L'entreprise a également classé ces escroqueries comme une menace pour la sécurité nationale. Les pertes liées aux arnaques sentimentales ont dépassé 1,34 milliard de dollars en 2024 et 2025, la Federal Trade Commission (FTC) signalant que 40 % des utilisateurs de sites de rencontre en ligne en ont été victimes.
L'intelligence artificielle a considérablement accru la portée de ces stratagèmes. Voici quelques conseils pour vous protéger :
-
Vérifiez l'identité de votre interlocuteur par différents moyens : privilégiez les appels vidéo en direct aux messages préenregistrés. Soyez attentif aux mouvements oculaires anormaux, aux clignements d'yeux irréguliers et aux contours déformés du visage et du cou, autant d'indices courants de deepfakes.
-
Méfiez-vous des relations qui évoluent trop vite : les relations authentiques se construisent progressivement. Les déclarations d'amour faites en quelques jours, surtout si elles s'accompagnent de propositions d'investissement, doivent immédiatement éveiller les soupçons.
-
Consultez des conseillers de confiance avant tout transfert de fonds : contacter des experts en sécurité ou des conseillers financiers avant de transférer des cryptomonnaies peut vous apporter un regard rationnel, notamment si votre jugement est altéré.
-
Sachez que les traders légitimes n'entretiennent pas de relations amoureuses avec leurs clients : les conseillers en investissement professionnels respectent des limites éthiques strictes. Toute personne proposant à la fois une relation amoureuse et des opportunités d'investissement doit être considérée comme un signal d'alarme majeur.
-
Comprenez l'irréversibilité : le Bitcoin et les autres cryptomonnaies n'offrent aucune protection aux consommateurs, comme la possibilité de remboursement ou d'annulation. Une fois les fonds transférés, il est généralement impossible de les récupérer.
Mieux vaut être vigilant que vulnérable
La perte subie par l'investisseur, soit la totalité de ses Bitcoins, représente non seulement un revers financier, mais aussi un profond traumatisme émotionnel dont les conséquences dépassent largement le simple aspect financier. Au-delà de l'impact financier dévastateur, il a subi le choc psychologique de découvrir que la relation amoureuse était entièrement fabriquée, l'intimité émotionnelle factice, les projets d'avenir illusoires et sa confiance totalement trahie par un escroc opérant depuis plusieurs fuseaux horaires.
Son histoire sert d'avertissement aux détenteurs de cryptomonnaies. La sécurité technique n'est qu'un élément de protection. La vigilance personnelle, le scepticisme face aux contacts non sollicités, la conscience émotionnelle et la consultation de conseillers de confiance constituent un périmètre de défense tout aussi crucial.
Face à la sophistication croissante des techniques de tromperie développées par l'IA, le jugement humain, éclairé et fondé sur un sain scepticisme, demeure le rempart le plus efficace contre les escroqueries qui exploitent les besoins humains fondamentaux de connexion et de sécurité. Il ne s'agit pas de se méfier aveuglément des relations en ligne, mais de reconnaître que la convergence d'intérêts sentimentaux et d'opportunités financières exige une prudence extrême avant tout transfert d'argent.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données







