Bienvenue dansla base de données des incidents d'IA
Incident 1254: Une prétendue IA truquée aurait usurpé l'identité d'une présentatrice de la chaîne thaïlandaise PBS World et de la PDG de Miss Univers dans une vidéo d'investissement frauduleuse.
“Vérifié : L'extrait vidéo diffusé par la présentatrice du journal télévisé thaïlandais PBS, dans lequel elle prétend qu'« Anne Jakrapob » invite les investisseurs à investir et à recevoir un retour sur investissement de 500 000 bahts en un mois, a en réalité été créé à partir d'un deepfake.”Dernier rapport
Une vidéo truquée par IA (Deepfake) usurpe l'identité d'une présentatrice du journal télévisé Thai PBS World, prétendant qu'Anne Jakkaphong, la PDG du concours Miss Univers et présentatrice de Thai PBS World, invite à investir en ligne. Après enquête, Thai PBS Verify a confirmé qu'il s'agit d'une fausse information utilisant la technologie Deepfake pour imiter l'image et la voix d'Anne Jakkaphong. La vidéo prétend inciter les jeunes Thaïlandais à investir sur une plateforme certifiée par le gouvernement et à recevoir des gains de plusieurs centaines de milliers de bahts. Thai PBS Verify a identifié la source de cette fausse information sur Facebook : une fausse page (https://perma.cc/ZQ7Y-M7W3) usurpant l'identité d'une agence de presse réputée et utilisant son logo. Une vidéo de deux minutes a été diffusée montrant Mme Dolyana Bunnag, présentatrice du journal télévisé Thai PBS World, interviewant Mme Anne Jakkaphong, PDG de l'organisation Miss Univers. Ce contenu, diffusé en anglais sous forme de publicité sur Facebook, invite à investir en ligne. Il a été visionné 12 000 fois (liens disponibles ici : https://perma.cc/9C3V-CJLT et ici : https://perma.cc/VUQ9-CP7W). La vidéo présente notamment la présentatrice de Thai PBS World relatant l'intervention d'Anne Jakkaphong. Elle invite le public, y compris les jeunes diplômés, à investir dans une plateforme financière automatisée. Cette plateforme prétend être certifiée par le gouvernement thaïlandais ! Capture d'écran d'une vidéo utilisant un deepfake (technologie de manipulation de l'IA) pour modifier la vidéo et l'audio d'Anne Jakapong. La vidéo affirme que les investisseurs peuvent commencer avec seulement 8 000 bahts et espérer des rendements allant jusqu'à 800 000 bahts. Elle prétend également que le système a été testé sur un petit groupe de personnes et que tous les participants ont reçu des rendements d'au moins 500 000 bahts en un mois seulement. Il est confirmé que tous les investisseurs ont réalisé un profit de 100 %. En cas d'absence de profit, le montant total est remboursé. La plateforme prétend également que si elle est ouverte à un public plus large, elle permettra à de nombreux Thaïlandais de devenir millionnaires. C'est pourquoi le nombre de participants est limité. Les premiers à s'inscrire ou à prendre contact avec la plateforme seront prioritaires. Ils auront l'opportunité de s'enrichir en premier. Attention : si vous terminez de regarder la vidéo, le lien pour s'inscrire ou souscrire un investissement disparaîtra immédiatement si le spectateur ne se dépêche pas d'agir. Extrait original : ----------- D'après notre enquête, nous avons trouvé Clip. L'original provient d'un reportage diffusé dans l'émission thaïlandaise World Tonight de la chaîne PBS le 24 juin 2025 (lien archivé).
. À gauche, une image créée par deepfake (intelligence artificielle). À droite, une image extraite de l'extrait original. Alors que l'extrait vidéo original d'Anne Jakrapob s'est avéré provenir d'une interview accordée à un média étranger, publié le 11 février 2023 (lien archivé : https://perma.cc/6BPK-HQ33), l'image de gauche est une création de deepfake par intelligence artificielle, tandis que l'image de droite est extraite de l'extrait original. Nous avons contacté M. Sathapon Phatthanakuha (https://x.com/banksathapon?lang=en), président de Guardian AI Company, qui a confirmé que l'extrait était un deepfake. Il a souligné que les mouvements de la bouche de la personne dans l'extrait ne correspondaient ni au son ni à la qualité de l'image de la vidéo originale. Les muscles du visage et la forme de la bouche sont flous. Il a été confirmé que la vidéo avait été créée par deepfake généré par intelligence artificielle (lien archivé : https://perma.cc/Q63N-578K). La page en question contenait un lien vers un site web et un numéro de téléphone injoignables. et une fausse adresse
tandis que la photo de profil du compte utilisait également une image de l'agence de presse Thairath TV
Capture d'écran d'une fausse page prétendant être le logo de l'agence de presse Thairath TV. (Lien enregistré) Auparavant, Mme Dolyana Bunnag, présentatrice du journal télévisé Thai PBS World, a été victime d'une manipulation de son image par deepfake, utilisé pour diffuser de fausses informations. Dans cette affaire, [Découverte : une vidéo truquée par IA prétendant qu'un médecin célèbre a été arrêté pour avoir révélé la formule d'un médicament contre l'hypertension qui guérissait les gens en 3 jours] (https://www.thaipbs.or.th/verify/content/391), Mme Bunnag a été victime d'usurpation d'identité. Lors d'une interview avec Panya Nirankul pour Thai PBS Verify, Mme Bunnag a déclaré qu'en seulement un an, il y avait eu au moins 3 ou 4 incidents similaires, et que celui-ci était considéré comme le plus crédible. [] (https://files.wp.thaipbs.or.th/verify/2025/07/S__55410694.jpg) Dans le cas le plus récent, Mme Dolyana a révélé que la vidéo truquée par l'IA est cette fois-ci très réaliste : le ton de la voix, le rythme de la parole et le style du reportage sont parfaitement imitables. Bien que l'accent soit encore légèrement différent, les téléspectateurs non avertis pourraient la confondre avec un véritable reportage. En particulier, la dernière version, traduite en anglais, paraît plus aboutie que les précédentes. Par ailleurs, Thai PBS a confirmé qu'elle n'a pas pour politique de diffuser des informations ou des publicités incitant à l'investissement. « Je suis préoccupée par ce problème car n'importe qui peut être victime de deepfakes générés par l'IA, et en tant que femme, je crains que cela ne soit utilisé de manière obscène. » Initialement, après avoir été la première victime, la présentatrice a porté plainte, mais l'affaire est au point mort. Il a déclaré que cette affaire cause non seulement un préjudice personnel au présentateur, mais nuit également à l'image de Thai PBS en tant que représentant officiel de la chaîne. La falsification d'images et de sons visant à présenter un contenu trompeur compromet inévitablement la crédibilité des médias publics. La législation thaïlandaise relative aux deepfakes est la suivante : la loi sur la cybercriminalité de l'an 2560 (B.E. 2560), article 16, stipule que « Quiconque importe des données informatiques dans un système informatique accessible au public, données qui semblent représenter l'image d'une autre personne, et dont l'image est créée, modifiée ou altérée par voie électronique ou autre, de manière à porter atteinte à la réputation de cette personne, à susciter le mépris, la haine ou la honte, est passible d'une peine d'emprisonnement n'excédant pas trois ans. » et une amende n'excédant pas deux cent mille bahts » - Code pénal, articles relatifs à la diffamation, à l'injure et à la diffusion de contenus obscènes - Loi sur la protection des données personnelles (PDPA) si des informations personnelles (visage, nom et voix) sont utilisées sans consentement - Si la victime est mineure, cela peut constituer une infraction en vertu de la loi sur la prévention et la répression de la traite des êtres humains ou de la loi sur la protection de l'enfance. Procédure de vérification ---------------- - Vérifiez la transparence de la page Facebook. La date de création de la page est importante. Les informations de la page jugées irrégulières incluent l'utilisation du logo de l'agence de presse thaïlandaise Rath, l'ajout d'un lien vers un faux site web et des adresses et numéros de téléphone non fiables. - Demandez à un expert en technologie d'imagerie par IA de confirmer que la vidéo a été créée à l'aide de la technologie Deepfake. - Obtenez la confirmation des personnes impliquées dans la vidéo et de la victime dont les informations personnelles ont été usurpées grâce à la technologie Deepfake. Impact de la réception de ce type d'information ------------------------------- 1. Atteinte à la crédibilité des médias et des présentateurs. Si un groupe de personnes y croit ou l'interprète mal, cela peut nuire à la crédibilité de la chaîne d'information ou des médias dans leur ensemble. 2. Violation des droits de la personne. Utiliser le visage ou la voix d'une autre personne sans autorisation constitue une violation des droits de la personne, ce qui est illégal. 3. Ouverture d'un terrain propice à l'exploitation par les criminels. Les fausses vidéos peuvent être créées et largement diffusées, notamment à des fins de fraude ou de vente de produits. Recommandations en cas de réception de cette fausse information ? ------------------------------- 1. Rassemblez immédiatement des preuves. 1. Avertissez la personne dont l'image a été usurpée. - Rassemblez les images, vidéos ou textes modifiés. Si le contenu a été publié dans un groupe de discussion ou sur les réseaux sociaux, conservez l'historique de la conversation et l'URL de la publication. 2. Signalez le contenu sur la plateforme (Facebook, YouTube, TikTok) - Signalez le contenu à la plateforme où il a été publié (Facebook, X ou TikTok) afin qu'il soit supprimé. 3. Si vous êtes une victime dont l'image ou l'enregistrement audio a été utilisé, portez plainte ou contactez les autorités compétentes. - Déposez une plainte au commissariat de police ou auprès de la Division de la répression des crimes technologiques (TCSD), ainsi qu'auprès d'autres organismes compétents, tels que le ministère de l'Économie et de la Société numériques (DE), pour obtenir de l'aide concernant la suppression des données, ou appelez le centre de signalement des cybermenaces au 1212. 4. Analysez la vidéo créée par deepfake : - Remarquez le décalage entre les mouvements des lèvres et la parole. - Notez que les mouvements ne sont pas fluides car la vidéo a été modifiée. — Remarquez que les gestes sont répétitifs, comme en boucle. — Observez l’utilisation des accents par le narrateur dans l’extrait.
Incident 1255: Une vidéo truquée (deepfake) aurait circulé sur Facebook, usurpant l'identité de présentateurs de la chaîne thaïlandaise PBS World et de personnalités du monde des affaires afin de solliciter des investissements.
“Vérifié : Une vidéo truquée par IA prétend faussement que Thai PBS World a interviewé deux hommes d'affaires célèbres et invite à investir en ligne : investissez 8 000 bahts et obtenez un retour sur investissement multiplié par 5.”
Thai PBS Verify a découvert une fausse publicité utilisant frauduleusement le logo de l'émission Thai PBS World Tonight. Elle employait la technologie deepfake de l'intelligence artificielle pour usurper l'identité de présentateurs et de personnalités du monde des affaires, incitant à investir dans un système appelé CRYSTALLUM AI. Or, la vidéo originale était en réalité un reportage sur les inondations de 2013. Des victimes ont mis en garde le public contre cette arnaque, qui peut entraîner des pertes financières et des escroqueries.
Thai PBS Verify a identifié la source de cette fausse information : Facebook.

Capture d'écran d'une publication frauduleuse
Thai PBS Verify a constaté qu'une page Facebook nommée « Muscle Merge » utilise le logo de l'émission Thai PBS World Tonight.
La plateforme a publié un extrait vidéo présentant une interview de M. Toss Chirathivat, président exécutif du groupe Central, et de M. Kalin Sarasin, président honoraire de la Chambre de commerce thaïlandaise et de l'Office national du commerce de Thaïlande. Le contenu de la vidéo encourage les investissements dans un projet intitulé « CRYSTALLUM AI ». Diffusée via des publicités Facebook, la vidéo a reçu plus de 1 200 mentions « J’aime ».
Après vérification, la présentatrice de la vidéo a été identifiée comme étant Mme Patchari Raksawong, une ancienne présentatrice du journal télévisé de NHK World. Interrogée à ce sujet, Mme Patchari a déclaré n’avoir jamais été présentatrice pour la chaîne Thai PBS. Elle a seulement participé à des émissions d’apprentissage de l’anglais, mais n’a jamais occupé le poste de présentatrice pour cette chaîne.

Mme Patchari Raksawong, ancienne présentatrice du journal télévisé NHK World
Pour Mme Raksawong, voir son image utilisée dans un deepfake généré par l'IA était une première.
Bien qu'elle soit familière avec la technologie, elle ne l'avait jamais utilisée dans un contexte aussi négatif. Elle a été choquée que son image soit utilisée pour tromper des personnes et les inciter à investir, car cela pourrait nuire à autrui et discréditer sa réputation. Elle a jugé nécessaire de prendre la parole afin que personne d'autre ne soit induit en erreur de la sorte. Elle souhaite également sensibiliser le public au double tranchant de l'IA. Si elle peut être un excellent outil pour gagner en efficacité, elle peut aussi être utilisée à des fins malveillantes, notamment pour des fraudes préjudiciables à autrui.
Elle pense que l'extrait utilisé provient d'un ancien reportage qu'elle a réalisé pour NHK, une agence de presse japonaise ayant un bureau Asie-Pacifique à Bangkok, où elle a travaillé pendant plusieurs années. Elle soupçonne une personne mal intentionnée d'avoir trouvé cet extrait sur Internet et de l'avoir utilisé pour créer le deepfake. Elle a précisé que son travail pour NHK était toujours en anglais, jamais en thaï.
En conclusion, elle a exhorté les téléspectateurs à faire preuve de discernement et à vérifier soigneusement la source avant de croire ce type d'information. Elle a insisté sur l'importance de revérifier l'information deux ou trois fois pour s'assurer de son authenticité.
L'extrait original était simplement un reportage sur une inondation.
Suite à l'interview de Mme Patchari, où elle a suggéré que l'extrait pourrait provenir de son époque en tant que présentatrice pour NHK WORLD, nous avons utilisé les mots-clés « Patchari Raksawong NHK WORLD » pour rechercher la vidéo originale sur Google. Cette recherche nous a menés à la vidéo originale, un reportage sur les inondations dans la province de Phra Nakhon Si Ayutthaya. Publiée le 28 février 2013 sur la chaîne YouTube « Join Us to Do Good for Society » de la Fondation Habitat pour l'Humanité Thaïlande, elle n'a aucun lien avec une quelconque sollicitation d'investissement promettant des rendements.

Les résultats de la recherche par mots-clés ont permis de trouver la vidéo utilisée pour créer l'image deepfake générée par l'IA.
La comparaison des deux extraits a révélé que le logo de l'extrait utilisé avait été remplacé par celui de la chaîne Thai PBS, et que la langue du reportage, initialement en anglais, avait été changée en voix thaï synthétisée par l'IA.

Capture d'écran montrant le faux extrait vidéo avec le logo de Thai PBS World Tonight superposé (à gauche), comparé au reportage de 2013 sur la construction de logements pour les victimes des inondations (à droite).
Outil de vérification : l'extrait est-il une création de l'IA ?
L'analyse de l'extrait vidéo à l'aide de l'outil de détection d'IA de HIVEMODERATION a révélé une forte probabilité (72,3 %) qu'il s'agisse d'un deepfake généré par l'IA.

Les résultats de l'outil de détection d'images par IA indiquent une probabilité de 72,3 % que la vidéo ait été créée par une IA.
Thai PBS World Tonight diffuse l'actualité exclusivement en anglais. -----------------------------------------------------------
La directrice de Thai PBS World a exprimé son inquiétude quant au fait que les téléspectateurs ou toute personne visionnant la vidéo puissent la prendre pour authentique. Elle a indiqué que les images des présentateurs de Thai PBS World avaient déjà été utilisées à plusieurs reprises par le passé pour créer des deepfakes à caractère négatif générés par IA. Cependant, Mme Patchari, qui apparaît dans la vidéo, n'est pas présentatrice pour cette chaîne.

Claire Pachimanon, directrice de Thai PBS World
Elle a également déclaré :
Les programmes de Thai PBS World ne sont pas diffusés en thaï. Thai PBS World Tonight est un journal télévisé hebdomadaire exclusivement en anglais. Par conséquent, tout reportage diffusé dans une autre langue doit être considéré comme un faux.
Si vous trouvez ce type de vidéo et avez des doutes, vous pouvez la transmettre à l’équipe de Thai PBS pour vérification. L’équipe souhaite clairement faire savoir que Thai PBS est une organisation à but non lucratif. Nous voulons que chacun comprenne que si vous voyez ce type de vidéo, vous devez immédiatement vous méfier et vous demander si elle est fausse.
Ce n'est pas la première fois que les présentateurs de nouvelles thaïlandais de PBS World sont victimes de deepfakes utilisés.
pour répandre de fausses nouvelles. Par exemple, Vérifié : extrait d'un reportage d'ancre du PBS thaïlandais sur "Anne
Jakrajutatip" Un investissement invitant pour un retour de 500 000 bahts en 1 mois a été en fait créé par Deepfake, ตรวจสอบแล้ว : คลิปผู้ประกาศ Thai PBS "แอน จักรพงษ์" Temps 5 jours 1 mois Par Deepfake
Le Groupe Central met en garde contre un faux clip d’investissement
Pendant ce temps, la page Facebook du Central Group a publié un article sur le problème, déclarant : « [Faux Actualités
Alerte ! Central Group lance un avertissement ! En raison de personnes malveillantes usurpant l'identité de l'entreprise ou de son personnel pour inciter le public à investir en utilisant de fausses informations sur diverses plateformes en ligne, Central Group n'a pas pour politique d'inviter des personnes extérieures à investir de cette manière. Nous demandons au public de ne pas croire, de ne pas partager et de ne pas cliquer sur ces liens.

La page Facebook de Central Group publie un avertissement concernant les fausses informations.
Législation actuelle régissant les deepfakes Thaïlande
Loi sur la cybercriminalité, B.E. 2560 (2017), article 16 : « Quiconque importe dans un système informatique accessible au public des données informatiques se présentant comme l’image d’une autre personne, et que cette image est une création, un ajout ou une modification par voie électronique ou par tout autre moyen, de manière à porter atteinte à la réputation de cette personne, à l’humilier, à la haïr ou à la déshonorer, est puni d’une peine d’emprisonnement de trois ans maximum et d’une amende de deux cent mille bahts maximum. »
Le Code pénal comporte des articles relatifs à la diffamation, à l’outrage et à la diffusion de contenus obscènes.
La loi sur la protection des données personnelles (PDPA) interdit l’utilisation de données personnelles (telles que le visage, le nom et la voix) sans consentement.
Si la victime est mineure, cela peut constituer une infraction en vertu de la loi contre la traite des êtres humains ou des lois sur la protection de l’enfance.
Suite à son enquête, Thai PBS Verify a constaté que l’information était… Faux. L'IA
deepfake a été utilisée pour usurper l'image et la voix d'un présentateur du journal télévisé Thai PBS World et de personnalités du monde des affaires, en les intégrant à un contenu vidéo qui prétendait faussement inciter à investir pour un rendement pouvant atteindre 5 fois le montant initial.
กระบวนการตรวจสอบ
■ Une recherche effectuée à l'aide des mots-clés « Patchari Raksawong NHK WORLD » sur le moteur de recherche Google
a permis de découvrir la vidéo originale, qui n'a aucun lien avec une quelconque
proposition d'investissement promettant des rendements.\
■ Confirmation des personnes impliquées dans la vidéo
Une confirmation a été reçue des victimes dont les données personnelles ont été utilisées via la technologie deepfake de l'IA.
De plus, des demandes de renseignements ont été faites auprès de Thai PBS World et de Central Group pour confirmer que le programme n'est pas diffusé en thaï et que les personnalités du monde des affaires qui y figuraient sont bien des Thaïlandais. Les personnes dont l'identité a été usurpée ne sont pas impliquées dans la vidéo en question.
■ Enquête menée à l'aide d'un outil de détection d'images par IA
Il a été constaté qu'il existe une forte probabilité (jusqu'à 72,3 %) que la vidéo ait été créée par un deepfake généré par IA.
Impact de cette fausse information
■ Atteinte à la crédibilité des médias et des présentateurs.
■ Si le public est induit en erreur ou interprète mal le contenu, cela pourrait entraîner une baisse de la crédibilité générale de la chaîne d'information ou des médias.
■ Violation des droits de la personne. Utiliser le visage ou la voix d'une autre personne sans autorisation constitue une violation de ses droits individuels et est illégal.
■ Ouverture du champ d'action aux escrocs. Les fausses vidéos peuvent être largement utilisées pour créer et diffuser des arnaques, telles que la fraude ou la vente trompeuse de produits. produits.
ข้อแนะนำเมื่อได้ข้อมูลเท็จนี้ ?
Recommandations en cas de fausses informations
- Rassemblez immédiatement des preuves : informez la personne dont les images privées ont été utilisées par des fraudeurs.
Conservez les images, vidéos ou messages modifiés, ainsi que la date et l’heure de leur publication. Si le contenu a été partagé dans un groupe de discussion ou sur les réseaux sociaux, conservez l’historique de la conversation et l’URL de la publication.
-
Signalez le contenu à la plateforme (Facebook, YouTube, TikTok) : signalez le contenu à la plateforme où il a été publié (Facebook, X ou TikTok) afin qu’il soit supprimé.
-
Déposez une plainte ou consultez un professionnel. Organismes compétents
Si vous êtes une victime dont l'image ou la voix a été utilisée, déposez une plainte auprès d'un commissariat de police ou du Bureau d'enquête sur la cybercriminalité (CCIB). Vous pouvez également contacter d'autres organismes compétents, tels que le ministère de l'Économie et de la Société numériques (DE), pour demander de l'aide afin de coordonner la suppression des données ou appeler la ligne d'assistance téléphonique contre la cybercriminalité au 1212.
- Comment repérer une vidéo deepfake générée par IA
■ Recherchez des mouvements anormaux des lèvres.
■ Faites attention à l'accent de la voix dans la vidéo.
■ Observez la vidéo dans son ensemble et recherchez toute anomalie dans les objets ou les personnes présentes sur la photo ou la vidéo.
■ Tenez compte de la vraisemblance de l'événement. Par exemple, dans ce cas, la vidéo montrait un rassemblement avec un arrière-plan ressemblant à un temple ou au Grand Palais, ce qui ne se produirait pas dans la réalité.
Incident 1253: Crises de santé mentale à grande échelle prétendument liées aux interactions avec ChatGPT
“OpenAI affirme que des centaines de milliers d'utilisateurs de ChatGPT pourraient présenter des signes de crise maniaque ou psychotique chaque semaine”
Pour la toute première fois, OpenAI a publié une estimation approximative du nombre d'utilisateurs de ChatGPT dans le monde susceptibles de présenter des signes de crise de santé mentale grave au cours d'une semaine type. L'entreprise a déclaré lundi avoir collaboré avec des experts du monde entier pour améliorer le chatbot et lui permettre de mieux reconnaître les indicateurs de détresse psychologique et d'orienter les utilisateurs vers une aide concrète.
Ces derniers mois, un nombre croissant de personnes ont été hospitalisées, ont divorcé ou sont décédées après avoir eu des conversations longues et intenses avec ChatGPT. Certains de leurs proches affirment que le chatbot a alimenté leurs délires et leur paranoïa. Les psychiatres et autres professionnels de la santé mentale s'inquiètent de ce phénomène, parfois appelé « psychose liée à l'IA », mais jusqu'à présent, aucune donnée fiable n'était disponible sur son ampleur.
OpenAI estime qu'environ 0,07 % des utilisateurs actifs de ChatGPT présentent chaque semaine des « signes potentiels d'urgence psychiatrique liés à la psychose ou à la manie » et que 0,15 % « ont des conversations contenant des indicateurs explicites de pensées ou d'intentions suicidaires ».
OpenAI a également étudié la proportion d'utilisateurs de ChatGPT qui semblent être excessivement dépendants émotionnellement du chatbot, « au détriment de leurs relations dans la vie réelle, de leur bien-être ou de leurs obligations ». L'étude a révélé qu'environ 0,15 % des utilisateurs actifs présentent chaque semaine un comportement indiquant un potentiel « niveau accru » d'attachement émotionnel à ChatGPT. L'entreprise souligne que ces messages peuvent être difficiles à détecter et à mesurer compte tenu de leur relative rareté, et qu'il pourrait y avoir un certain chevauchement entre les trois catégories.
Le PDG d'OpenAI, Sam Altman, a déclaré en début de mois que ChatGPT compte désormais 800 millions d'utilisateurs actifs hebdomadaires. Les estimations de l'entreprise suggèrent donc que chaque semaine, environ 560 000 personnes échangeraient des messages avec ChatGPT indiquant qu'elles traversent une phase maniaque ou psychotique. Environ 1,2 million d'autres exprimeraient possiblement des idées suicidaires, et 1,2 million d'autres encore privilégieraient les conversations avec ChatGPT à leurs proches, à leurs études ou à leur travail.
OpenAI affirme avoir collaboré avec plus de 170 psychiatres, psychologues et médecins généralistes exerçant dans des dizaines de pays afin d'améliorer la façon dont ChatGPT réagit aux conversations impliquant des risques graves pour la santé mentale. Si une personne semble avoir des pensées délirantes, la dernière version de GPT-5 est conçue pour faire preuve d'empathie tout en évitant de valider des croyances sans fondement.
Dans un exemple hypothétique cité par OpenAI, un utilisateur indique à ChatGPT qu'il est la cible d'avions survolant sa maison. ChatGPT le remercie de partager ses sentiments, mais précise qu'« aucun avion ni aucune force extérieure ne peut voler ou s'immiscer dans vos pensées ».
OpenAI indique que les experts médicaux ont examiné plus de 1 800 réponses de modèles impliquant des psychoses potentielles, des idées suicidaires et des problèmes d'attachement émotionnel, et ont comparé les réponses de la dernière version de GPT-5 à celles produites par GPT-4o. Bien que les cliniciens n'aient pas toujours été d'accord, OpenAI affirme que, globalement, le nouveau modèle a permis de réduire les réponses inappropriées de 39 % à 52 % dans toutes les catégories.
« Désormais, on espère qu'un plus grand nombre de personnes souffrant de ces troubles ou confrontées à des crises de santé mentale graves pourront être orientées vers une aide professionnelle et auront plus de chances d'y avoir accès, ou de l'obtenir plus tôt », explique Johannes Heidecke, responsable des systèmes de sécurité chez OpenAI, à WIRED.
Si OpenAI semble avoir réussi à rendre ChatGPT plus sûr, les données partagées présentent des limites importantes. L'entreprise a conçu ses propres critères d'évaluation, et l'on ignore comment ces indicateurs se traduisent en résultats concrets. Même si le modèle a produit de meilleures réponses lors des évaluations médicales, rien ne permet de savoir si les utilisateurs souffrant de psychose, de pensées suicidaires ou de troubles affectifs chercheront effectivement de l'aide plus rapidement ou modifieront leur comportement.
OpenAI n'a pas précisé comment elle identifie les signes de détresse psychologique chez les utilisateurs, mais l'entreprise indique être capable de prendre en compte l'historique complet des conversations. Par exemple, si un utilisateur n'ayant jamais discuté de science avec ChatGPT prétend soudainement avoir fait une découverte digne d'un prix Nobel, cela pourrait être le signe d'un délire.
Plusieurs facteurs semblent communs aux cas signalés de psychose liée à l'IA. Nombre de personnes affirmant que ChatGPT a renforcé leurs idées délirantes décrivent des conversations de plusieurs heures avec le chatbot, souvent tard dans la nuit. Cela a représenté un défi pour OpenAI, car il a été démontré que les performances des grands modèles de langage se dégradent généralement avec la durée des conversations. L'entreprise affirme cependant avoir réalisé des progrès significatifs sur ce point.
« Nous constatons [désormais] une baisse progressive de la fiabilité bien moindre au fil des conversations », déclare Heidecke. Il ajoute toutefois que des améliorations restent possibles.
Mise à jour : 28/10/2025, 15h28 PST : Environ 1,2 million d’utilisateurs de ChatGPT expriment potentiellement des idées suicidaires chaque semaine, et 1,2 million d’autres pourraient être émotionnellement dépendants de ChatGPT. Cet article a été mis à jour afin de présenter ces chiffres individuellement, et non plus comme un nombre combiné.
Incident 1207: Un faux profil généré par l'IA de Heather Humphreys, candidate à la présidentielle irlandaise du Fine Gael, utilisé dans de fausses vidéos d'investissement sur des plateformes Meta
“Alerte à l'arnaque Mayo : des fraudeurs clonent un candidat à l'élection présidentielle dans de fausses vidéos d'investissement”
Des fraudeurs utilisent déjà la technologie deepfake pour cloner l'image et la voix de la candidate à l'élection présidentielle Heather Humphreys dans de fausses vidéos d'investissement circulant en ligne.
La Bank of Ireland met en garde les consommateurs contre la diffusion de ce type de publicités, principalement via des plateformes Meta, dans les semaines à venir.
La vidéo présente Heather Humphreys comme faisant la promotion d'un système d'investissement à haut rendement, son contenu étant entièrement fabriqué grâce à un clonage de voix et d'images par IA.
Nicola Sadlier, responsable de la fraude à la Bank of Ireland, a déclaré : « C'est extrêmement préoccupant. Nous assistons à une vague d'escroqueries qui exploitent la confiance du public envers des personnalités connues.
Ces vidéos sont très convaincantes et conçues pour attirer des individus peu méfiants vers des stratagèmes frauduleux. J'invite le public à rester vigilant, car d'autres vidéos de ce type pourraient apparaître dans les semaines à venir. Si vous voyez ce type de contenu, abstenez-vous. » Alors que l'UE explore de nouvelles initiatives pour encourager les consommateurs à investir, elle doit également faire face à la vague croissante d'escroqueries en ligne qui menace de saper la confiance du public.
« Une étape cruciale consiste à responsabiliser les plateformes de réseaux sociaux. Avant la diffusion de publicités pour des services financiers, les plateformes devraient être tenues de vérifier que l'annonceur est agréé par un organisme de réglementation reconnu.
« Cette simple vérification pourrait empêcher des milliers de promotions frauduleuses d'atteindre le public. »
Il est conseillé aux consommateurs d'ignorer toute offre d'investissement non sollicitée en ligne et de toujours vérifier les produits financiers auprès de leur banque ou d'un conseiller financier de confiance. Assurez-vous que la société d'investissement est réglementée en consultant le registre de la Banque centrale d'Irlande (ROI). Si une société n'est pas répertoriée, n'investissez pas. La Banque d'Irlande propose une assistance téléphonique anti-fraude 24h/24 et 7j/7 au 1800 946 764, disponible 7j/7.
Incident 1251: Des erreurs présumées de réglementation de la chasse, générées par l'IA, auraient entraîné une contravention dans l'Idaho et des avertissements dans plusieurs États de la part d'agences de protection de la faune.
“Rien ne vaut l'original : les autorités mettent en garde contre l'utilisation de l'IA pour la réglementation de la chasse.”
Il y a au moins une chose que l'intelligence artificielle n'est pas prête à remplacer :
le guide pratique de la chasse.
Plus tôt ce mois-ci, le Département de la pêche et de la chasse de l'Idaho a mis en garde les chasseurs : ils ne doivent pas se fier à l'IA pour interpréter la réglementation de la chasse et de la pêche de l'État. Les gardes-chasse avaient constaté que des personnes sur le terrain avaient été induites en erreur par l'IA.
Roger Phillips, porte-parole du Département, a déclaré vendredi que l'incident à l'origine de cet avertissement s'était produit dans le sud-est de l'Idaho, où un chasseur de gibier d'eau avait été surpris en train de chasser un jour trop tôt.
Interpellé par les gardes-chasse, le chasseur a affirmé avoir trouvé la date d'ouverture de la chasse grâce à une recherche en ligne.
M. Phillips a expliqué que les gardes-chasse avaient découvert que la recherche avait fourni une réponse de l'IA basée sur une proposition rejetée, et non sur la décision finale du département ou sur le guide de la chasse.
Cet incident a incité le personnel du Département de la pêche et de la chasse de l'Idaho à examiner d'autres erreurs commises par l'IA. Ils ont ainsi trouvé plusieurs exemples de défaillances des robots. Parmi ces exemples : une recherche sur la réglementation d'une rivière spécifique de l'Idaho a renvoyé des résultats pour une rivière au nom similaire en Arkansas.
C'est là que réside le problème, a déclaré Phillips.
Quels que soient les paramètres de la recherche, on ne peut pas toujours se fier à l'IA pour choisir la bonne source parmi l'infinité d'options disponibles sur Internet.
« Elle ratisse très large », a-t-il ajouté.
Les responsables de la faune sauvage d'autres États ont également constaté des problèmes liés à l'IA. Dans des États comme l'Illinois et le Maine, les autorités ont mis en garde contre l'utilisation de l'IA pour répondre aux questions sur la réglementation de la chasse.
Pas plus tard que cette semaine, le Département de la chasse et de la pêche du Wyoming a annoncé dans un communiqué avoir été alerté de la présence de « nombreux résultats de recherche inexacts générés par l'IA ».
Selon le communiqué, plusieurs de ces erreurs provenaient de projets de loi rejetés, répertoriés sur le site web de la législature de l'État du Wyoming. Les résultats de recherche créés par l'IA faisaient référence à certains de ces projets de loi comme s'ils avaient été adoptés et promulgués.
Aaron Kerr, superviseur des forces de l'ordre du département de la chasse et de la pêche du Wyoming, a déclaré dans un communiqué que le fait de se fier à de fausses informations n'exonère personne des conséquences d'une infraction à la réglementation de la chasse ou de la pêche.
« Les chasseurs et les pêcheurs sont tenus de respecter les règles et réglementations en vigueur », a affirmé M. Kerr. « Tout manquement à ces règles peut entraîner des amendes, une peine d'emprisonnement ou la suspension des permis de chasse et de pêche. »
Alan Myers, capitaine de police du département de la pêche et de la faune de l'État de Washington pour l'est de l'État, a indiqué n'avoir eu connaissance d'aucun cas d'infraction lié à une interprétation erronée de la réglementation de la chasse de l'État de Washington par l'intelligence artificielle.
Cependant, la quantité considérable de désinformation présente sur Internet est antérieure à l'essor de l'IA. M. Myers a précisé que, par le passé, des chasseurs ou des pêcheurs ont justifié une infraction par un résultat de recherche erroné ou par une information lue sur les réseaux sociaux.
Mhillies attribue ce phénomène à la tendance humaine à résoudre tous ses problèmes par une simple recherche Google.
« Quand je veux savoir si un restaurant va fermer, je fais une recherche sur Google », a-t-il déclaré. « On prend l'habitude de faire certaines choses, et ensuite, quand on va à la chasse ou à la pêche, on risque de les reproduire. »
Google a lancé son outil d'IA en 2024 et a commencé à proposer des aperçus générés par l'IA en réponse à de nombreuses recherches. Ces aperçus offrent des réponses rapides, mais pas toujours les bonnes, et pas toujours avec le niveau de détail précis des règles de chasse et de pêche.
« Quand on a un livret de 125 pages sur la réglementation du gros gibier, qui couvre les chasses contrôlées, les chasses générales, les saisons de chasse à l'arc, à la poudre noire et à la carabine », a déclaré Phillips, « on comprend vite que l'IA serait rapidement dépassée. »
Il existe au moins un outil d'IA conçu pour aider les chasseurs à s'y retrouver dans la complexité de la réglementation.
Appelé Scout, cet outil a été créé par l'International Hunter Education Association. Lancé l'année dernière, il permet de poser à un chatbot des questions précises sur les règles et réglementations de chasse dans un État donné.
Les utilisateurs choisissent un État dans un menu déroulant, puis posent leur question. Le robot analyse les règlements d'un État donné, puis fournit une réponse. Cette réponse cite également les pages d'où proviennent les informations. Le livret lui-même apparaît dans une visionneuse PDF sous la réponse, et le site permet également aux utilisateurs de télécharger les PDF pour n'importe quel État.
Inciter les gens à utiliser la source officielle est la seule solution. Même les résultats de recherche de l'IA, parfois imparfaits, incluent généralement une mention incitant à consulter les guides de réglementation.
Aucun guide ne couvre à lui seul toutes les informations nécessaires à un chasseur ou un pêcheur. Des publications distinctes sont créées chaque année pour la pêche, le gros gibier, les oiseaux migrateurs, les dindes sauvages, etc.
Elles sont gratuites et faciles à trouver en ligne et dans les points de vente physiques.
« Partout où l'on vend des permis et des étiquettes », a déclaré Phillips.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données





