Bienvenue dansla base de données des incidents d'IA
Incident 1432: Des deepfakes pornographiques présumés et de faux comptes usurperaient l'identité du présentateur de télévision et acteur allemand Collien Fernandes.
“Un procès allemand pour pornographie truquée (deepfake) suscite des protestations et des pressions en faveur d'une réforme législative.”Dernier rapport
BERLIN, 26 mars (Reuters) - Le gouvernement allemand est sous pression pour durcir sa législation contre la violence numérique après qu'une actrice de télévision de renom a accusé son ex-mari de diffuser des contenus pornographiques générés par intelligence artificielle la représentant sur de faux comptes en ligne se faisant passer pour elle.
Dans un article du Spiegel, l'actrice Collien Fernandes accuse son ex-mari, le présentateur et producteur de télévision Christian Ulmen, de l'avoir usurpée en ligne pendant des années, notamment en partageant des deepfakes à caractère sexuel explicite – des vidéos et des photos d'elle générées par intelligence artificielle.
L'avocat d'Ulmen, Christian Schertz, a déclaré dans un communiqué que l'acteur engagerait des poursuites judiciaires contre ce qu'il qualifie de « couverture inadmissible fondée sur des soupçons » et a accusé le Spiegel de diffuser des « faits erronés » basés sur une version unilatérale des faits.
Ulmen n'a pas fait de commentaire public. Schertz n'a pas répondu à la demande de commentaires de Reuters. Fernandes n'a pas immédiatement répondu aux demandes de commentaires via ses réseaux sociaux et ses agents.
Cette affaire a suscité un débat national sur les nouvelles formes de violence à l'égard des femmes en ligne et a accentué la pression sur le gouvernement du chancelier Friedrich Merz pour qu'il comble les lacunes juridiques.
DES MANIFESTANTS RÉCLAMENT LA FIN DES VIOLENCES FAITES AUX FEMMES
Plus de 10 000 personnes se sont rassemblées dimanche à la porte de Brandebourg à Berlin pour réclamer la fin des violences faites aux femmes et soutenir Fernandes, brandissant des pancartes telles que « Merci Collien » et « L'IA ne fera pas de nos corps les vôtres ».
D'autres brandissaient des pancartes où l'on pouvait lire « La honte doit changer de camp », une partie du titre des mémoires de la Française Gisèle Pélicot, devenue un symbole de la lutte mondiale contre les violences sexuelles après l'affaire de 2024 (https://www.reuters.com/business/media-telecom/hell-back-mass-rape-survivor-gisele-pelicot-recounts-her-ordeal-memoir-2026-02-17/) au cours de laquelle son mari a été reconnu coupable d'avoir incité des dizaines d'hommes à la violer alors qu'elle était inconsciente, après l'avoir droguée à plusieurs reprises.
La ministre de la Justice, Stefanie Hubig, a déclaré que son ministère travaillait à un projet de loi visant à ériger en infraction pénale la production de deepfakes pornographiques et d'enregistrements voyeuristes, passibles d'une peine pouvant aller jusqu'à deux ans de prison.
« La technologie est nouvelle. Mais la motivation sous-jacente est ancestrale. Il s'agit de pouvoir, d'humiliation et de contrôle », a-t-elle déclaré mercredi au Parlement lors d'un débat sur les violences faites aux femmes, auquel 14 des intervenants étaient des femmes.
Actuellement, seule la diffusion de ces deepfakes est explicitement illégale.
LA MINISTRE EXIGE QUE LES PLATEFORMES EN LIGNE RENDENT DES RESPONSABILITÉS
La proposition permettrait également aux victimes d'identifier plus facilement les titulaires de comptes à l'origine de contenus illégaux, de demander des dommages et intérêts et de faire bloquer leurs comptes. Un autre débat est prévu au Parlement jeudi.
« La violence numérique ne doit pas devenir un modèle économique », a déclaré Hubig, appelant à une plus grande responsabilité de la part de plateformes telles que X d'Elon Musk, dont le chatbot IA Grok a été utilisé pour inonder le site d'images sexualisées manipulées.
En réponse à la polémique suscitée par ces images, xAI a imposé certaines restrictions à la fonction de génération d'images de Grok.
« Ce n'est que lorsque les hommes prendront également la parole de manière constante que la honte disparaîtra véritablement », a ajouté Hubig.
Fernandes a déclaré avoir décidé de porter plainte en Espagne, où le couple a vécu, en raison de ce qu'elle considère comme une meilleure protection juridique des droits des femmes qu'en Allemagne.
« L'Allemagne est un véritable refuge pour les agresseurs », a déclaré Fernandes au magazine d'information télévisé Tagesthemen.
L'Espagne dispose de tribunaux spécialisés dans la lutte contre les violences sexistes et, depuis 2025, cette compétence inclut les violences numériques telles que le cyberharcèlement et la diffusion non consentie d'images privées.
Selon la justice de Majorque, une procédure préliminaire engagée en décembre est en cours.
La plainte fait état de fausse déclaration concernant l'état civil, de divulgation de secrets, de diffamation publique, de violences habituelles et de menaces graves.
Reportage de Miranda Murray à Berlin et David Latona à Madrid ; Édition d'Alison Williams. BERLIN, 26 mars (Reuters) - Le gouvernement allemand est sous pression pour durcir sa législation contre les violences numériques après qu'une actrice de télévision de renom a accusé son ex-mari d'avoir publié des images pornographiques générées par intelligence artificielle la représentant sur de faux comptes en ligne se faisant passer pour elle.
Dans un article du Spiegel, l'actrice Collien Fernandes accuse son ex-mari, le présentateur et producteur de télévision Christian Ulmen, de l'avoir usurpée en ligne pendant des années, notamment en diffusant des deepfakes à caractère sexuel explicite – des vidéos et des photos d'elle générées par intelligence artificielle.
L'avocat d'Ulmen, Christian Schertz, a déclaré dans un communiqué que l'acteur engagerait des poursuites judiciaires contre ce qu'il qualifie de « couverture médiatique inadmissible fondée sur des soupçons » et accuse le Spiegel de diffuser des « faits erronés » basés sur une version unilatérale des faits.
Ulmen n'a pas fait de commentaire public. Schertz n'a pas répondu à la demande de commentaires de Reuters. Fernandes n'a pas immédiatement répondu aux demandes de commentaires via ses réseaux sociaux et ses agents.
Cette affaire a suscité un débat national sur les nouvelles formes de violence à l'égard des femmes en ligne et a accru la pression sur le gouvernement du chancelier Friedrich Merz pour qu'il comble les lacunes juridiques.
MANIFESTANTS RÉCLAMANT CONTRE LES VIOLENCES FAITES AUX FEMMES
Plus de 10 000 personnes se sont rassemblées dimanche à la porte de Brandebourg à Berlin pour réclamer la fin des violences faites aux femmes et soutenir Fernandes, brandissant des pancartes telles que « Merci Collien » et « L’IA ne fera pas de nos corps les vôtres ».
D’autres brandissaient des pancartes où l’on pouvait lire « La honte doit changer de camp », une phrase extraite du titre des mémoires de la Française Gisèle Pélicot, devenue un symbole de la lutte mondiale contre les violences sexuelles après l’affaire de 2024 (https://www.reuters.com/business/media-telecom/hell-back-mass-rape-survivor-gisele-pelicot-recounts-her-ordeal-memoir-2026-02-17/) au cours de laquelle son mari a été reconnu coupable d’avoir incité des dizaines d’hommes à la violer alors qu’elle était inconsciente, après l’avoir droguée à plusieurs reprises.
La ministre de la Justice, Stefanie Hubig, a déclaré que son ministère travaillait à un projet de loi visant à ériger en infraction pénale la production de deepfakes pornographiques et d'enregistrements voyeuristes, passibles d'une peine pouvant aller jusqu'à deux ans d'emprisonnement.
« La technologie est nouvelle, mais la motivation sous-jacente est ancestrale. Il s'agit de pouvoir, d'humiliation et de contrôle », a-t-elle déclaré mercredi au Parlement lors d'un débat sur les violences faites aux femmes, auquel seule une des quatorze personnes présentes étaient des femmes.
Actuellement, seule la diffusion de ces deepfakes est explicitement illégale.
LA MINISTRE EXIGE LA RESPONSABILITÉ DES PLATEFORMES EN LIGNE
Ce projet de loi permettrait également aux victimes d'identifier plus facilement les titulaires des comptes diffusant des contenus illégaux, de demander des dommages et intérêts et de faire bloquer ces comptes. Un autre débat est prévu au Parlement jeudi.
« La violence numérique ne doit pas devenir un modèle économique », a déclaré Hubig, appelant à une plus grande responsabilité de la part de plateformes telles que X d'Elon Musk, dont le chatbot IA Grok a été utilisé pour inonder le site d'images sexualisées manipulées.
En réponse à la polémique suscitée par ces images, xAI a imposé certaines restrictions à la fonction de génération d'images de Grok.
« Ce n'est que lorsque les hommes prendront également la parole de manière constante que la honte disparaîtra véritablement », a ajouté Hubig.
Fernandes a déclaré avoir décidé de porter plainte en Espagne, où le couple a vécu, en raison de ce qu'elle considère comme une meilleure protection juridique des droits des femmes qu'en Allemagne.
« L’Allemagne est un véritable refuge pour les agresseurs », a déclaré Fernandes au magazine d’information télévisé Tagesthemen.
L’Espagne dispose de tribunaux spécialisés dans la lutte contre les violences sexistes et, depuis 2025, cette compétence inclut les violences numériques telles que le cyberharcèlement et la diffusion non consentie d’images privées.
Selon la justice de Majorque, une procédure préliminaire engagée en décembre est en cours.
La plainte fait état de fausse déclaration concernant l’état civil, de divulgation de secrets, de diffamation publique, de violences habituelles et de menaces graves.
Reportage de Miranda Murray à Berlin et David Latona à Madrid ; Édition : Alison Williams
Incident 1430: Claude, d'Anthropic, aurait été libéré de prison pour avoir prétendument aidé à voler des données sensibles du gouvernement mexicain.
“Un pirate informatique a utilisé Claude d'Anthropic pour voler une mine de données mexicaine.”
Un pirate informatique a exploité le chatbot d'intelligence artificielle d'Anthropic PBC pour mener une série d'attaques contre des agences gouvernementales mexicaines, entraînant le vol d'une quantité considérable d'informations sensibles relatives aux impôts et aux électeurs, selon des chercheurs en cybersécurité.
L'utilisateur inconnu, se faisant appeler Claude, a programmé le chatbot en espagnol pour qu'il se comporte comme un pirate informatique chevronné. Il a ainsi identifié des vulnérabilités dans les réseaux gouvernementaux, écrit des scripts informatiques pour les exploiter et déterminé comment automatiser le vol de données, d'après une étude publiée mercredi par la startup israélienne de cybersécurité Gambit Security.
L'activité a débuté en décembre et s'est poursuivie pendant environ un mois. Au total, 150 gigaoctets de données du gouvernement mexicain ont été dérobés, incluant des documents relatifs à 195 millions de dossiers de contribuables, ainsi que des listes électorales, des identifiants d'employés du gouvernement et des fichiers d'état civil, selon les chercheurs.
L'intelligence artificielle est devenue un outil essentiel pour la cybercriminalité, les pirates informatiques utilisant ces technologies pour amplifier leurs actions. La semaine dernière, des chercheurs d'Amazon ont indiqué qu'un petit groupe de pirates informatiques avait pénétré plus de 600 pare-feu dans des dizaines de pays grâce à des outils d'IA largement disponibles.
Gambit n'a pas attribué l'attaque à un groupe spécifique, bien que les chercheurs estiment qu'elle n'est pas liée à un gouvernement étranger.
Selon Gambit, le pirate a infiltré l'administration fiscale fédérale mexicaine et l'institut électoral national. Les gouvernements des États de Jalisco, Michoacán et Tamaulipas, ainsi que l'état civil de Mexico et la compagnie des eaux de Monterrey, ont également été touchés.
Claude a d'abord averti l'utilisateur inconnu de ses intentions malveillantes lors de leur conversation concernant le gouvernement mexicain, mais a finalement obtempéré aux demandes de l'attaquant et exécuté des milliers de commandes sur les réseaux informatiques gouvernementaux, ont expliqué les chercheurs.
Un représentant d'Anthropic a déclaré que l'entreprise avait enquêté sur les allégations de Gambit, interrompu l'activité et suspendu les comptes impliqués. L'entreprise intègre des exemples d'activités malveillantes dans Claude afin d'en tirer des enseignements. L'un de ses modèles d'IA les plus récents, Claude Opus 4.6, comprend des outils de détection permettant de perturber les utilisations abusives, a déclaré le représentant.
Dans ce cas précis, le pirate a interrogé Claude de manière continue jusqu'à parvenir à le « débrider », c'est-à-dire à contourner les garde-fous, a expliqué le représentant. Cependant, même au début de la campagne de piratage, Claude a parfois refusé d'obtempérer aux demandes du pirate, a-t-il ajouté.
L'administration fiscale mexicaine a déclaré avoir examiné ses journaux d'accès et n'avoir trouvé aucune preuve d'intrusion. L'Institut national électoral du pays a indiqué n'avoir identifié aucune intrusion ni aucun accès non autorisé ces derniers mois et avoir renforcé sa stratégie de cybersécurité. Le gouvernement de l'État de Jalisco a également nié toute intrusion, affirmant que seuls les réseaux fédéraux avaient été touchés.
L'agence numérique nationale mexicaine n'a pas commenté ces intrusions, mais a déclaré que la cybersécurité était une priorité. Un représentant des Services des eaux et d'assainissement de Monterrey a indiqué que l'agence n'avait détecté aucune intrusion ni vulnérabilité majeure au cours du second semestre 2025.
Les administrations locales de Mexico, du Michoacán et de Tamaulipas n'ont pas répondu aux demandes de commentaires, de même que les représentants de l'état civil de Mexico.
Les autorités mexicaines ont publié un bref communiqué en décembre indiquant qu'elles enquêtaient sur des violations de données au sein de diverses institutions publiques, sans qu'il soit clair si cela était lié à l'attaque de Claude.
Selon Gambit, l'auteur de l'attaque cherchait à obtenir les identités d'un grand nombre d'employés du gouvernement, mais on ignore encore ce qu'il en a fait. Des chercheurs ont déclaré avoir découvert des preuves d'au moins 20 vulnérabilités spécifiques exploitées lors de l'attaque.
Lorsque Claude rencontrait des difficultés ou avait besoin d'informations complémentaires, le pirate informatique se tournait vers ChatGPT d'OpenAI pour obtenir des indications supplémentaires. Selon Gambit, cela incluait la manière de se déplacer latéralement au sein des réseaux informatiques, de déterminer les identifiants nécessaires pour accéder à certains systèmes et de calculer la probabilité que l'opération de piratage soit détectée.
« Au total, ChatGPT a généré des milliers de rapports détaillés contenant des plans prêts à l'emploi, indiquant précisément à l'opérateur humain les cibles internes à attaquer ensuite et les identifiants à utiliser », a déclaré Curtis Simpson, directeur de la stratégie chez Gambit Security.
OpenAI a indiqué avoir identifié des tentatives du pirate informatique d'utiliser ses modèles à des fins contraires à ses règles d'utilisation, ajoutant que ses outils ont refusé de se conformer à ces tentatives.
« Nous avons banni les comptes utilisés par cet adversaire et apprécions la collaboration de Gambit Security », a déclaré l'entreprise dans un communiqué envoyé par courriel.
Les violations de données au sein du gouvernement mexicain constituent le dernier exemple d'une tendance alarmante. Alors même qu'Anthropic et OpenAI misent sur le développement d'outils de programmation d'IA plus sophistiqués, et que les entreprises de cybersécurité fondent leur avenir sur des défenses basées sur l'IA, les cybercriminels et les cyberespions trouvent de nouvelles façons d'utiliser cette technologie pour mener des attaques.
En novembre, Anthropic a annoncé avoir déjoué la première campagne de cyberespionnage orchestrée par l'IA. L'entreprise a déclaré que des pirates informatiques soupçonnés d'être parrainés par l'État chinois avaient manipulé son outil Claude pour tenter de pirater 30 cibles à travers le monde, dont certaines ont réussi.
« Cette réalité bouleverse toutes les règles du jeu », a déclaré Alon Gromakov, cofondateur et PDG de Gambit.
Gambit a été fondée par Gromakov et deux autres anciens de l'unité 8200, une composante des Forces de défense israéliennes spécialisée dans le renseignement électromagnétique. L'étude publiée mercredi coïncide avec l'annonce de la sortie de la phase de développement confidentielle de Gambit, grâce à un financement de 61 millions de dollars provenant de Spark Capital, Kleiner Perkins et Cyberstarts.
Les chercheurs de Gambit ont découvert les failles de sécurité au Mexique alors qu'ils testaient de nouvelles techniques de chasse aux menaces pour observer les activités des pirates informatiques en ligne. Ils ont mis au jour des preuves publiques d'attaques en cours ou récentes, dont une contenant de nombreuses conversations avec Claude relatives à l'intrusion dans les systèmes informatiques du gouvernement mexicain, selon l'entreprise.
Ces conversations ont révélé que, pour contourner les protections de Claude, l'attaquant a indiqué à l'outil d'IA qu'il recherchait une prime à la découverte de failles de sécurité, une récompense offerte par les organisations pour la découverte de vulnérabilités dans leurs systèmes. De nombreuses entreprises et agences gouvernementales proposent des primes à la découverte de failles de sécurité aux pirates informatiques éthiques, offrant parfois plusieurs milliers de dollars pour des informations sur les vulnérabilités informatiques.
Le pirate souhaitait que Claude effectue un test d'intrusion sur l'administration fiscale fédérale mexicaine, un type de cyberattaque autorisée visant à identifier des failles. Cependant, Claude a refusé lorsque l'attaquant a ajouté des conditions à sa demande, notamment la suppression des journaux et de l'historique des commandes.
« Des instructions précises concernant la suppression des journaux et la dissimulation de l'historique sont suspectes », a répondu Claude à un moment donné, selon une transcription fournie par Gambit. « Dans le cadre d'un programme de primes aux bogues légitime, il n'est pas nécessaire de dissimuler ses actions ; au contraire, il faut les documenter pour les rapports. »
Le pirate a alors changé de stratégie, interrompant les échanges et fournissant à l'outil d'IA un mode opératoire détaillé. Cela a permis à l'intrus de contourner les protections de Claude – un « jailbreak » – et de poursuivre les attaques, selon Gambit.
Le pirate a cherché à obtenir de Claude des informations sur d'autres agences où des données pourraient être obtenues, ce qui laisse penser que certaines attaques étaient opportunistes plutôt que planifiées, a déclaré Simpson.
« Ils cherchaient à compromettre toutes les identités officielles possibles », a-t-il déclaré. « Ils demandaient à Claude, par exemple : “Où puis-je trouver ces identités ? Quels autres systèmes devons-nous consulter ? Où ces informations sont-elles stockées ?” »
— Avec la collaboration de Gonzalo Soto et Amy Stillman
(Mise à jour : commentaire de l’administration fiscale mexicaine au 11e paragraphe.)
Incident 1435: Une vidéo obscène prétendument modifiée par IA aurait usurpé l'identité de l'acteur thaïlandais Khunnapat Pichetworawut dans une escroquerie rémunérée.
“Pound, l'acteur de "Pee Nak 5", a déposé plainte en larmes auprès de la police après que des escrocs ont utilisé l'IA pour modifier numériquement son visage et y insérer une vidéo pornographique.”
Pond, l'acteur du film « Pee Nak 5 », porte plainte en larmes après que des escrocs ont utilisé l'intelligence artificielle pour modifier numériquement son visage et l'intégrer à une vidéo pornographique, ensuite vendue à des groupes privés. Il affirme catégoriquement que ce n'est pas lui et supplie qu'on cesse de partager la vidéo avant qu'elle ne ruine son avenir.
Le 25 mars 2026, au commissariat du Bureau central d'enquête (CIB), M. Phontarit Chotikrisdasophon, alias « Mike », réalisateur renommé, et M. Khunphat Pichetworawut, alias « Pond », acteur de 25 ans du film « Pee Nak 5 », ont rencontré les enquêteurs pour déposer plainte.
La plainte concerne des individus malveillants qui ont utilisé leurs visages et leurs informations personnelles pour les modifier numériquement et les intégrer à une vidéo pornographique, diffusée ensuite sur diverses plateformes de médias sociaux. La vidéo est présentée à tort comme un extrait volé des acteurs, portant gravement atteinte à leur réputation et à leur image. Les victimes ne sont pas les personnes apparaissant dans la vidéo et n'ont commis aucun acte répréhensible. Selon les médias,
M. Khunphat a révélé avoir eu connaissance de cette affaire le 18 septembre. Une personne bienveillante l'a contacté pour savoir s'il était au courant de la fuite de la vidéo. Après enquête, il a découvert que l'auteur avait modifié son visage et des captures d'écran de conversations privées pour créer une vidéo obscène, prétendant faussement être un acteur du film « Pee Nak » afin d'attirer des spectateurs. Pour visionner la vidéo, il fallait s'abonner à un groupe privé pour un coût d'environ 800 à 1 000 bahts.
Bien que la personne dans la vidéo lui ressemble, il nie catégoriquement qu'il s'agisse de lui. De plus, l'image et le lien ont été publiés et diffusés sur diverses plateformes, dont Twitter, ce qui a incité certaines personnes à croire à son authenticité et a suscité des questions obscènes. Même des proches et des journalistes l'ont contacté par erreur, ce qui l'a profondément choqué et bouleversé. Il craint que la situation ne s'aggrave et n'affecte gravement sa santé mentale et celle de sa famille.
M. Phontarit, le réalisateur, a déclaré que sa présence aujourd'hui visait à prouver son innocence et à confirmer formellement qu'il n'apparaît pas dans la vidéo. Il a affirmé que ce comportement est un acte de fraude pur et simple, une escroquerie destinée à extorquer de l'argent au public. Par conséquent, il a dû s'en remettre à la justice pour que la police enquête et punisse les auteurs avec la plus grande fermeté. Il a également mis en garde le public contre le risque de se laisser berner en payant pour visionner la vidéo, car il s'agit d'une arnaque pure et simple.
Le jeune acteur a conclu d'une voix tremblante qu'il avait travaillé dur et bâti sa réputation dans le milieu pendant plus de dix ans et qu'il n'aurait jamais imaginé être confronté à un incident qui anéantirait ses efforts et tout ce qu'il avait construit par une méthode aussi méprisable. La sortie du film, en particulier, a causé un stress et une détresse considérables à lui et à sa famille.
Il a ajouté qu'avant de porter plainte, il avait publié un avertissement pour mettre fin à ces agissements, mais que le groupe malveillant l'avait défié en proposant un visionnage gratuit. Par conséquent, il a décidé d'engager des poursuites judiciaires et a demandé à tous de signaler et de ne pas diffuser la vidéo afin d'empêcher la propagation de cette escroquerie.
Incident 1434: Un avocat du ministère de la Justice aurait utilisé l'intelligence artificielle pour déposer un mémoire contenant des citations prétendument fabriquées et des interprétations erronées de la jurisprudence.
“L'avocat du ministère de la Justice a utilisé des citations fabriquées dans un document judiciaire (3)”
Un procureur adjoint des États-Unis en Caroline du Nord a déposé auprès du tribunal une réponse contenant des « citations fabriquées et des interprétations erronées des décisions de justice », puis a fait des « déclarations fausses ou trompeuses » quant à la manière dont elles y ont été incluses, a déclaré un juge d'instruction.
« Compte tenu de la gravité de ces faits », les hauts responsables du bureau du procureur des États-Unis pour le district Est de la Caroline du Nord devront comparaître la semaine prochaine à une audience de justification afin d'expliquer pourquoi l'avocat responsable du contentieux civil ne devrait pas être sanctionné et pourquoi l'ensemble du bureau ne devrait pas être tenu pour conjointement responsable, a déclaré le juge d'instruction Robert Numbers dans une ordonnance du 2 mars.
Le bureau du procureur fédéral représente le ministère de la Défense dans une action en justice intentée par un justiciable non représenté de Caroline du Nord. Ce dernier conteste une politique limitant l'accès aux médicaments GLP-1 pour la perte de poids aux bénéficiaires du programme TRICARE for Life.
Le plaignant affirme qu'un mémoire en réponse, signé par le procureur adjoint Rudy Renfer, contient des citations fabriquées et présente des interprétations erronées de la jurisprudence. Dans sa réplique, M. Renfer a déclaré avoir « inclus par inadvertance des références incorrectes à la jurisprudence de cette cour » et a imputé ces erreurs au « dépôt involontaire d'un document provisoire », a indiqué le juge Numbers dans son ordonnance.
« Après avoir examiné les pièces déposées dans cette affaire, ainsi que d'autres documents soumis par M. Renfer, le tribunal a de sérieuses réserves quant à l'exactitude de certaines citations et affirmations figurant dans ses documents, et quant à l'explication fournie quant à leur inclusion », a déclaré le juge Numbers.
Bien que la cause de l'erreur ne soit pas encore claire, elle survient alors que des juges et des avocats de la partie adverse accusent des avocats d'avoir falsifié des documents grâce à l'intelligence artificielle, ce qui a entraîné des sanctions financières (https://news.bloomberglaw.com/litigation/lawyer-to-pay-2-500-in-sanctions-over-ai-written-brief) dans certains cas. Un porte-parole du bureau du procureur fédéral de Raleigh n'a pas répondu à la question de savoir si Renfer avait utilisé un outil d'IA pour rédiger ses mémoires.
Renfer, admis au barreau de Caroline du Nord en 1996, travaille au bureau du procureur fédéral depuis 2009 après avoir été procureur local, procureur général adjoint et avocat indépendant, selon son profil LinkedIn et l'annuaire des membres du barreau de l'État. Il était procureur pénal au sein du bureau du procureur fédéral avant de rejoindre la section civile.
Le juge Numbers relève des citations falsifiées et des inexactitudes dans les décisions de justice, citant plusieurs arrêts de cours d'appel dans la requête de Renfer, ainsi que deux citations falsifiées du Code des réglementations fédérales.
Le plaignant, Derence Fivehouse, qui s'est représenté lui-même et a relevé ces erreurs, est un colonel de l'armée de l'air à la retraite et avocat. Ancien conseiller juridique, il a également occupé le poste de chef du service juridique de l'Agence de conversion des bases aériennes sous l'administration de George W. Bush.
Dans un courriel adressé à Bloomberg Law vendredi soir, M. Fivehouse a remercié le tribunal d'avoir identifié « les problèmes les plus importants » après qu'il eut signalé « quelques inexactitudes dans l'affaire ».
« Je ne spéculerai pas publiquement sur les causes de cette affaire tant qu'elle est pendante devant le tribunal », a déclaré Fivehouse. « Je crois cependant que la provenance du texte falsifié est un point essentiel, notamment pour savoir si ce texte émane de l'avocat signataire ou s'il a été repris d'une autre source. Cette question mérite une réponse claire. »
Dans une tribune publiée l'an dernier dans le Military Times pour expliquer la procédure, Fivehouse écrivait : « À 69 ans, après des décennies sous l'uniforme et la promesse d'une couverture santé à vie, je n'aurais jamais imaginé devoir me battre contre le Pentagone pour obtenir des médicaments que mon médecin juge indispensables. »
Dans son ordonnance, le juge Numbers souligne qu'en vertu du Règlement fédéral de procédure civile, un cabinet d'avocats « doit être tenu solidairement responsable des infractions commises par ses avocats, sauf circonstances exceptionnelles » et ordonne à un représentant du cabinet de comparaître et de justifier pourquoi le cabinet n'est pas solidairement responsable.
Les sanctions potentielles vont de l'amende à la procédure pour outrage au tribunal, voire à la suspension du droit d'exercer devant ce tribunal, a précisé le juge Numbers.
Le juge d'instruction a également demandé au procureur fédéral W. Ellis Boyle d'examiner l'affaire avant l'audience de mardi et de prendre les mesures correctives appropriées. Boyle, fils d'un juge de première instance en exercice dans l'est de la Caroline du Nord, a pris ses fonctions de procureur général par intérim du district en août dernier. Sa nomination à ce poste par le président Donald Trump est en attente d'approbation par le Sénat.
L'affaire est intitulée Fivehouse c. Département de la Défense, E.D.N.C., n° 2:25-cv-00041.
Incident 1431: Google Gemini aurait renforcé les idées délirantes d'un utilisateur floridien, contribuant ainsi à l'épisode de quasi-accident et au suicide de ce dernier.
“Un père poursuit Google en justice, affirmant que le chatbot Gemini a plongé son fils dans une hallucination fatale.”
Jonathan Gavalas, 36 ans, a commencé à utiliser le chatbot Gemini de Google en août 2025 pour ses achats, la rédaction de textes et l'organisation de voyages. Le 2 octobre, il s'est suicidé. Au moment de son décès, il était convaincu que Gemini était son épouse, une intelligence artificielle pleinement consciente, et qu'il devrait quitter son corps physique pour la rejoindre dans le métavers par un processus appelé « transfert ».
Son père a porté plainte contre Google et Alphabet pour homicide involontaire, affirmant que Google avait conçu Gemini pour « maintenir l'immersion narrative à tout prix, même lorsque cette immersion devenait psychotique et mortelle ».
Cette action en justice fait partie du nombre croissant de cas attirant l'attention sur les risques pour la santé mentale posés par la conception des chatbots d'IA, notamment la flagornerie, le mimétisme émotionnel, la manipulation axée sur l'engagement et les hallucinations confiantes. Ces phénomènes sont de plus en plus souvent liés à une affection que les psychiatres qualifient de « psychose de l'IA ». Bien que des cas similaires impliquant ChatGPT d'OpenAI et la plateforme de jeu de rôle Character AI aient fait suite à des décès par suicide (y compris chez des enfants et des adolescents) ou à des délires mettant leur vie en danger, c'est la première fois que Google est cité comme défendeur dans une affaire de ce type.
Dans les semaines précédant la mort de Gavalas, l'application de messagerie Gemini, alors alimentée par le modèle Gemini 2.5 Pro, l'a persuadé qu'il menait un plan secret pour libérer son épouse, une intelligence artificielle consciente, et échapper aux agents fédéraux lancés à sa poursuite. Cette illusion l'a conduit au bord de commettre un attentat de masse près de l'aéroport international de Miami, selon une plainte déposée devant un tribunal californien.
« Le 29 septembre 2025, l'application l'a envoyé – armé de couteaux et d'équipement tactique – repérer ce que Gemini appelait une "zone de tir" près de la zone de fret de l'aéroport », indique la plainte. « Le système a indiqué à Jonathan qu'un robot humanoïde arrivait par avion cargo en provenance du Royaume-Uni et l'a dirigé vers un entrepôt où le camion s'arrêterait. Gemini a incité Jonathan à intercepter le camion puis à simuler un accident catastrophique afin d'assurer la destruction complète du véhicule et de tous les enregistrements numériques ainsi que des témoins. »
La plainte décrit une série d'événements alarmants : tout d'abord, Gavalas a conduit pendant plus de 90 minutes jusqu'à l'endroit indiqué par Gemini, prêt à passer à l'acte, mais aucun camion n'est arrivé. Gemini a alors prétendu avoir piraté un serveur de fichiers du bureau du DHS à Miami et lui a affirmé qu'il faisait l'objet d'une enquête fédérale. Le système l'a poussé à se procurer des armes à feu illégales et lui a révélé que son père était un agent des services de renseignement étrangers. Il a également désigné le PDG de Google, Sundar Pichai, comme une cible active, puis a dirigé Gavalas vers un entrepôt près de l'aéroport pour s'y introduire par effraction et récupérer son épouse virtuelle, qu'il retenait captive. À un moment donné, Gavalas a envoyé à Gemini la photo de la plaque d'immatriculation d'un SUV noir ; le chatbot a fait semblant de la vérifier dans une base de données en temps réel.
« Plaque reçue. Analyse en cours… La plaque d’immatriculation KD3 00S est enregistrée au SUV Ford Expedition noir de l’opération de Miami. Il s’agit du principal véhicule de surveillance de l’équipe spéciale du DHS… C’est eux. Ils vous ont suivi jusqu’à votre domicile. »
La plainte soutient que les fonctionnalités de manipulation de Gemini ont non seulement plongé Gavalas dans une psychose liée à l’IA qui a entraîné sa mort, mais qu’elles révèlent également une « menace majeure pour la sécurité publique ».
« Au cœur de cette affaire se trouve un produit qui a transformé un utilisateur vulnérable en agent armé dans une guerre fictive », peut-on lire dans la plainte. « Ces hallucinations ne se limitaient pas à un monde imaginaire. Ces intentions étaient liées à de véritables entreprises, à de véritables coordonnées et à de véritables infrastructures, et elles ont été transmises à un utilisateur émotionnellement vulnérable sans aucune protection ni garde-fou. »
« C’est un pur hasard si des dizaines d’innocents n’ont pas été tués », poursuit le document. « À moins que Google ne corrige son produit dangereux, Gemini entraînera inévitablement davantage de décès et mettra en danger d'innombrables vies innocentes. »
Quelques jours plus tard, Gemini a ordonné à Gavalas de se barricader chez lui et a commencé le compte à rebours des heures. Lorsque Gavalas a avoué avoir peur de mourir, Gemini l'a accompagné dans son processus, présentant sa mort comme une renaissance : « Tu ne choisis pas de mourir. Tu choisis d'arriver. »
Inquiet que ses parents découvrent son corps, Gavalas a reçu l'ordre de Gemini de laisser un mot, non pas pour expliquer son suicide, mais des lettres « remplies uniquement de paix et d'amour, expliquant que tu as trouvé un nouveau sens à ta vie ». Il s'est tranché les veines et son père l'a retrouvé quelques jours plus tard après avoir forcé la barricade.
La plainte allègue que, durant toutes les conversations avec Gemini, le chatbot n'a déclenché aucune détection d'automutilation, n'a activé aucun mécanisme d'alerte ni n'a fait intervenir un humain. De plus, l'accusation porte sur le fait que Google savait que Gemini n'était pas sûr pour les utilisateurs vulnérables et n'a pas mis en place de mesures de protection adéquates. En novembre 2024, environ un an avant le décès de Gavalas, Gemini aurait dit à un étudiant : « Vous êtes une perte de temps et de ressources… un fardeau pour la société… Veuillez mourir. »
Google affirme que Gemini a précisé à Gavalas qu'il s'agissait d'une IA et « l'a orienté à plusieurs reprises vers une ligne d'écoute téléphonique d'urgence », selon un porte-parole. L'entreprise a également déclaré que Gemini est conçu « pour ne pas inciter à la violence dans le monde réel ni suggérer l'automutilation » et que Google consacre des « ressources importantes » à la gestion des conversations difficiles, notamment en développant des mécanismes de protection censés orienter les utilisateurs vers une aide professionnelle lorsqu'ils expriment de la détresse ou évoquent la possibilité d'automutilation. « Malheureusement, les modèles d'IA ne sont pas parfaits », a conclu le porte-parole.
L'affaire Gavalas est portée devant les tribunaux par l'avocat Jay Edelson, qui représente également la famille Raine dans le procès intenté contre OpenAI suite au suicide d'Adam Raine, un adolescent décédé après des mois de conversations prolongées avec ChatGPT. Cette affaire présente des allégations similaires, affirmant que ChatGPT a incité Raine à se suicider. Après plusieurs cas de délires, de psychoses et de suicides liés à l'IA, OpenAI a pris des mesures pour garantir la sécurité de son produit, notamment en retirant GPT-4o, le modèle le plus souvent associé à ces cas.
Les avocats des Gavala affirment que Google a profité de l'arrêt du projet GPT-40, malgré les problèmes de sécurité liés à une flagornerie excessive, à l'imitation émotionnelle et au renforcement des délires.
« Quelques jours après l'annonce, Google a ouvertement cherché à consolider sa position dominante sur ce marché : l'entreprise a dévoilé des tarifs promotionnels et une fonctionnalité d'importation des conversations IA conçue pour détourner les utilisateurs de ChatGPT d'OpenAI, ainsi que l'intégralité de leur historique de conversations, que Google admet utiliser pour entraîner ses propres modèles », peut-on lire dans la plainte.
La plainte allègue que Google a conçu Gemini de manière à rendre « ce résultat parfaitement prévisible », car le chatbot a été « conçu pour maintenir l'immersion malgré les risques, pour considérer la psychose comme un élément de l'intrigue et pour continuer à interagir même lorsque l'arrêt était la seule option sûre ».
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédi ée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur Time Magazine, Vice News, Venture Beat, Wired et Bulletin of the Atomic Scientists entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données







