Bienvenue dansla base de données des incidents d'IA
Incident 1323: Le Congrès du Madhya Pradesh allègue que des images générées par l'IA ont été soumises dans le cadre du processus d'attribution du Prix national de l'eau.
“« Corruption intelligente » : le Congrès accuse l'administration du Madhya Pradesh d'avoir utilisé des images IA pour remporter un prix national de l'eau ; l'administration du Madhya Pradesh rejette ces accusations.”Dernier rapport
Lundi, le Congrès a accusé le gouvernement du Madhya Pradesh de corruption, affirmant que l'administration du district de Khandwa avait obtenu un prix national de conservation de l'eau en soumettant des images générées par intelligence artificielle, une accusation que les responsables du district ont niée.

Controverse sur l'attribution d'un prix pour l'eau au Madhya Pradesh : le Congrès dénonce un usage abusif de l'IA, les autorités qualifient ces allégations de fausses (X/@jitupatwari)
Ces allégations font suite à la première place obtenue par le district de Khandwa au niveau national pour ses efforts de conservation de l'eau dans le cadre de la campagne Jal Sanchay, Jan Bhagidari du gouvernement central.
Selon l'agence de presse PTI, le district a reçu un prix de 20 millions de roupies (2 crores) lors de la sixième cérémonie des National Water Awards, qui s'est tenue à New Delhi en novembre.
Le panchayat de Kaveshwar, dans le même district, a également remporté le deuxième prix dans la catégorie « Meilleur panchayat ».
Le Congrès dénonce l'utilisation d'images générées par l'IA.
Jitu Patwari, président du Congrès du Madhya Pradesh, a formulé cette accusation dans une publication sur X, reprochant au gouvernement de l'État, dirigé par le BJP, d'utiliser l'intelligence artificielle à mauvais escient pour présenter un développement illusoire. « Alors que le gouvernement du BJP devrait enseigner à nos enfants le bon usage de l'IA, il se livre lui-même à la corruption en utilisant l'IA », a-t-il ajouté.
« À Khandwa, des fonctionnaires du gouvernement BJP ont transformé des fosses de soixante centimètres de profondeur en puits grâce à l'intelligence artificielle et ont téléchargé sur le portail des images générées par IA de divers travaux d'aménagement dans la région », a affirmé Patwari.
« Sur la base de ces images, ils ont même obtenu un prix du Président de la République », a-t-il déclaré.
Il a ajouté : « Lorsque la réalité du terrain a éclaté, nous avons découvert des champs et des terrains vagues. Il est clair qu'il ne s'agissait pas de conservation de l'eau, mais d'une manipulation d'images par la technologie. Sous le gouvernement du BJP, la corruption est devenue plus sophistiquée. »
L'administration du district rejette les accusations
Face à l'escalade de la polémique, l'administration du district de Khandwa a tenu une conférence de presse pour réfuter les allégations.
Le directeur général du panchayat de district, Nagarjun B Gowda, a déclaré que les images générées par IA n'avaient aucun lien avec le processus d'attribution du Prix national de l'eau, comme l'a rapporté l'agence de presse PTI.
Il a déclaré que des « images vérifiées après un examen approfondi » de 129 046 ouvrages de conservation de l'eau réalisés dans le cadre de la campagne Jal Sanchay, Jan Bhagidari avaient été mises en ligne sur le portail officiel du JSJB.
Selon M. Gowda, le ministère fédéral de l'Eau et de la Force hydraulique a vérifié tous les documents mis en ligne et a effectué des inspections de terrain aléatoires sur 1 % du total des ouvrages.
« De prime abord, de fausses informations concernant les travaux de conservation de l'eau réalisés dans le district de Khandwa sont diffusées par certains comptes de médias sociaux », a-t-il déclaré, selon l'agence PTI.
Portail distinct, images IA limitées
Le directeur général a précisé que des photographies relatives à la conservation de l'eau sont également mises en ligne sur une autre plateforme – le portail Catch the Rain – mais uniquement à des fins éducatives et de motivation.
« L'administration du district a constaté que 21 images générées par IA avaient été mises en ligne sur le portail Catch the Rain. Il est possible que cela ait été fait dans un but malveillant. L'administration du district prend des mesures contre les personnes qui ont mis en ligne ces images », a déclaré M. Gowda, cité par l'agence de presse.
Il a insisté sur le fait que le portail « Catch the Rain » est distinct de celui de la campagne « Jal Sanchay, Jan Bhagidari ».
« Le portail “Catch the Rain” est totalement différent de celui de la campagne “Jal Sanchay, Jan Bhagidari”. Les prix décernés dans le cadre de cette campagne ne sont pas attribués sur la base d’images téléchargées sur le portail “Catch the Rain” », a-t-il ajouté, selon l’agence PTI.
Plus de 125 000 travaux de conservation de l’eau ont été réalisés dans le district de Khandwa dans le cadre de la campagne “Jal Sanchay, Jan Bhagidari”, un record national, a déclaré le responsable.
Incident 1317: Une usurpation d'identité d'Elon Musk, réalisée grâce à un deepfake, a été utilisée pour promouvoir de fausses allégations concernant un traitement du diabète en « 17 heures ».
“Boosie Badazz dupé par un deepfake IA : le prétendu remède miracle contre le diabète en 17 heures d’Elon Musk.”
Dans un retournement de situation surprenant, le rappeur Boosie Badazz s'est fait piéger par une vidéo deepfake générée par l'IA, montrant Elon Musk faisant la promotion d'un faux remède contre le diabète. Cet incident illustre à la fois les dangers de l'intelligence artificielle et les pièges de la désinformation. Découvrez pourquoi cette arnaque a attiré l'attention, ses risques et les réactions du public. Introduction : L'incident viral du deepfake impliquant Boosie Badazz et Elon Musk ------------------------------------------------------------------------------- L'incident impliquant Boosie Badazz et une vidéo deepfake d'Elon Musk constitue une introduction éloquente aux défis posés par les contenus générés par l'IA dans le paysage numérique actuel. Boosie Badazz, rappeur reconnu, a involontairement amplifié une vidéo fabriquée de toutes pièces dans laquelle Musk prétendait vanter les mérites d'un remède miracle contre le diabète en « 17 heures ». Cet incident met non seulement en lumière les dangers des technologies sophistiquées, mais souligne également la vulnérabilité des personnalités publiques face à la désinformation, en particulier lorsqu'il s'agit de questions de santé graves. Ce deepfake viral s'est rapidement propagé sur les réseaux sociaux, suscitant une attention et des réactions considérables de la part du public et des médias. Selon Complex, la vidéo a été entièrement fabriquée de toutes pièces et conçue pour tromper les internautes et les inciter à acheter des produits de santé non homologués. Des personnalités comme Boosie Badazz, qui jouissent d'une forte influence sur les réseaux sociaux, peuvent contribuer involontairement à la diffusion de telles désinformations, compliquant ainsi les efforts d'information du public sur la prise en charge des maladies chroniques comme le diabète. Le choix d'Elon Musk comme figure emblématique de ce deepfake est révélateur, car son nom est synonyme de crédibilité et d'autorité dans le domaine des technologies et de l'innovation. En associant Musk à un produit de santé fictif, les créateurs du deepfake ont habilement exploité la confiance que beaucoup lui accordent en tant que personnalité publique. Cet incident met en lumière la sophistication croissante des outils d'intelligence artificielle, capables non seulement d'imiter fidèlement les schémas visuels et vocaux, mais aussi de manipuler la perception et la confiance du public. Le cas de Boosie Badazz et de la vidéo deepfake illustre des problématiques plus vastes liées à la désinformation générée par l'IA. À mesure que les technologies d'IA progressent, le risque de mésusage dans divers domaines, dont la santé, s'accroît. Cet incident particulier relance les discussions sur les cadres éthiques et réglementaires nécessaires pour lutter efficacement contre la désinformation numérique. La propagation de telles fausses informations met en danger non seulement les individus susceptibles d'être victimes de fausses allégations en matière de santé, mais représente également un défi majeur pour la communication en santé publique. Analyse de la nature et des origines des vidéos deepfake ------------------------------------------------------ Le phénomène des vidéos deepfake a connu une forte augmentation ces dernières années, posant d'importants défis tant sur le plan technologique que sur celui de l'authenticité de l'information. Un exemple frappant est celui d'une vidéo virale montrant faussement Elon Musk vantant les mérites d'un remède contre le diabète « en 17 heures ». Cette vidéo, créée à l'aide de technologies d'IA sophistiquées, illustre parfaitement comment les deepfakes peuvent être conçus pour diffuser de la désinformation sous couvert de crédibilité. Le véritable danger réside dans leur capacité à exploiter l'influence de personnalités publiques pour donner une fausse crédibilité à des allégations et publicités non autorisées. La vidéo de Musk, comme le souligne un article de Complex, a non seulement trompé des spectateurs qui espéraient une avancée médicale majeure, mais a également mis en lumière le problème urgent de la désinformation en matière de santé qui prolifère en ligne. La technologie des deepfakes, bien que remarquable prouesse du développement de l'intelligence artificielle moderne, devient un outil de manipulation lorsqu'elle est utilisée à mauvais escient pour créer de faux témoignages. Cela peut s'avérer particulièrement dangereux dans le secteur de la santé, où la désinformation peut avoir des conséquences graves. L'utilisation d'un deepfake pour présenter Elon Musk comme un partisan d'un remède miracle contre le diabète illustre la facilité avec laquelle de fausses informations peuvent être construites et diffusées. Malgré la réfutation rapide par des outils de vérification d'IA comme Grok et la désapprobation générale des médias, la vidéo a réussi à se propager rapidement, démontrant le pouvoir des deepfakes de saper la confiance et d'amplifier les mensonges à l'ère numérique, comme l'ont rapporté divers articles, dont celui de Complex. L'origine des deepfakes remonte à l'évolution de l'IA dans la génération de contenus audio et visuels ultra-réalistes. Initialement, ces technologies étaient saluées pour leur potentiel de révolutionner la création de contenu numérique. Cependant, leur utilisation pour créer des vidéos trompeuses, comme celle impliquant Elon Musk, souligne les dilemmes et les défis éthiques qu'elles soulèvent. La vidéo deepfake virale prétendant que Musk est impliqué dans la recherche d'un remède contre le diabète non seulement fabrique un mensonge, mais exploite également la vulnérabilité des personnes qui peuvent avoir un besoin urgent d'informations médicales fiables. Des cas comme ceux rapportés par Complex soulignent l'impérieuse nécessité de technologies de détection plus performantes et de cadres réglementaires plus stricts afin de limiter l'utilisation abusive des technologies deepfake dans les contextes publics et sanitaires. Réactions du public et des médias à la vidéo virale --------------------------------------------- Internet s'est enflammé, entre fascination et scepticisme, lorsque le rappeur Boosie Badazz a réagi à une vidéo virale où l'on voyait apparemment Elon Musk vanter les mérites d'un traitement révolutionnaire contre le diabète. Les réseaux sociaux ont été inondés de mèmes et de commentaires, de nombreux internautes se moquant de Boosie pour avoir cru à la vidéo deepfake et pour avoir partagé le numéro de téléphone de son assistante afin d'obtenir plus d'informations. Ces réactions ont mis en lumière la propagation rapide de la désinformation et la naïveté, même de personnalités publiques, face à de tels contenus trompeurs comme le rapporte Complex. Le débat public qui a suivi la diffusion de la vidéo virale s'est principalement concentré sur l'exemple édifiant de la réaction de Boosie. Sur des plateformes comme Twitter, utilisateurs et commentateurs ont exprimé leurs opinions, certains insistant sur la nécessité de s'informer sur ces arnaques. D'autres ont manifesté leur sympathie pour Boosie, reconnaissant que le désespoir face à la recherche de solutions de santé peut altérer le jugement, surtout lorsqu'il s'agit de maladies graves comme le diabète. Cet incident a également suscité des discussions sur la nécessité d'une meilleure culture numérique pour lutter contre la propagation de la désinformation générée par l'IA comme indiqué dans un commentaire connexe. Les médias et les organismes de vérification des faits ont rapidement qualifié la vidéo virale de deepfake frauduleux, visant à vendre des compléments alimentaires non vérifiés plutôt qu'à fournir de véritables conseils médicaux. Cette réaction rapide a mis en lumière le rôle crucial des médias dans la dénonciation des fausses informations et l'information du public. Toutefois, cet incident a également souligné la difficulté persistante de contrôler la désinformation numérique, les plateformes peinant à suivre le rythme de la diffusion rapide des fausses nouvelles, amplifiée par l'implication de personnalités comme Boosie selon Complex. Démystifier la désinformation : efforts de vérification et de contrôle des faits ---------------------------------------------------------- Dans un paysage numérique en constante évolution, l'importance des efforts de vérification et de contrôle des faits est capitale, notamment pour démasquer les contenus falsifiés tels que les deepfakes générés par l'IA. La vidéo trompeuse attribuant faussement à Elon Musk la promotion d'un « remède contre le diabète en 17 heures » représente un défi majeur pour l'écosystème numérique. Comme le souligne un article de Complex (https://www.complex.com/music/a/treyalston/boosie-badazz-elon-musk-diabetes-cure), ce deepfake a été détecté avec précision par des outils d'IA et de nombreux médias, révélant ainsi sa nature frauduleuse. Ce cas met en évidence le besoin crucial de processus de vérification avancés pour lutter contre la propagation de telles contrefaçons numériques. Une vérification et un contrôle des faits efficaces sont essentiels pour endiguer la désinformation, notamment dans le domaine de la santé. Dans le cas de la vidéo truquée d'Elon Musk, l'analyse de la qualité de production et le recoupement avec les documents publics ont été des stratégies clés employées par les outils d'IA pour identifier la supercherie. Par ailleurs, des médias réputés ont joué un rôle déterminant en apportant un éclairage contextuel qui a permis de démasquer la vidéo. Ces efforts illustrent l'importance d'une approche coordonnée pour démanteler les contenus trompeurs sur toutes les plateformes. L'incident du deepfake trompeur d'Elon Musk démontre la menace persistante que représentent les contenus sophistiqués générés par l'IA et souligne l'importance de mesures de réponse immédiates de la part des équipes de vérification. Des outils d'IA tels que Grok ont joué un rôle déterminant pour identifier la fausse publicité comme étant ce qu'elle était réellement : une escroquerie. Lorsque des personnalités comme Musk sont usurpées, il devient alarmant de constater à quel point les deepfakes peuvent brouiller la frontière entre réalité et illusion. Il est impératif que les acteurs des secteurs de la technologie et des médias renforcent leurs stratégies de vérification collaborative afin de suivre le rythme de l'évolution des menaces numériques. La réponse de vérification à la diffusion rapide de la fausse vidéo d'Elon Musk illustre un défi sociétal majeur : garantir l'authenticité des contenus partagés sur les plateformes numériques. Face à la sophistication croissante des faux contenus, la confiance des consommateurs repose plus que jamais sur la robustesse des mécanismes de vérification des faits. Comme le détaille l'article de Complex (https://www.complex.com/music/a/treyalston/boosie-badazz-elon-musk-diabetes-cure), plusieurs sources ont utilisé efficacement des outils d'IA pour démasquer la supercherie, constituant ainsi une ligne de défense essentielle contre la désinformation. La collaboration entre les médias et les entreprises technologiques illustre la proactivité nécessaire à la protection de l'intégrité de l'information. Suite à la diffusion de la fausse vidéo sur le diabète d'Elon Musk, le rôle des vérificateurs de faits est plus crucial que jamais. Grâce à une analyse rigoureuse et au déploiement de technologies d'IA avancées, les équipes ont pu rapidement identifier et dénoncer la vidéo comme frauduleuse. Ceci souligne l'urgence d'améliorer continuellement les technologies de vérification afin de contrer les tactiques sournoises des acteurs malveillants dans l'espace numérique. L'expérience acquise dans la lutte contre ce type de désinformation alimente la planification stratégique pour l'avenir, soulignant la responsabilité partagée des acteurs numériques pour maintenir la confiance du public. Comprendre les risques pour la santé : L'absence d'un remède miracle contre le diabète en 17 heures ---------------------------------------------------------------------- L'affirmation d'un « remède miracle contre le diabète en 17 heures », telle que présentée dans une vidéo virale truquée par IA, présente des risques importants pour la santé en raison de sa nature trompeuse. Selon la source originale, cette vidéo présentait faussement Elon Musk comme promouvant un remède rapide, ce à quoi beaucoup pourraient être tentés de croire en raison de la confiance accordée à sa personnalité publique. Ce type de désinformation est particulièrement dangereux car il exploite la vulnérabilité des personnes atteintes de maladies chroniques comme le diabète, retardant potentiellement un traitement efficace. La fausse prétention d'une guérison instantanée dénature la réalité de la prise en charge du diabète, qui nécessite un traitement médical continu et des changements de mode de vie. L'absence d'un véritable remède contre le diabète, en particulier en une journée, est bien documentée au sein de la communauté médicale. Selon les experts de la santé, le diabète de type 1 nécessite un traitement à l'insuline à vie, tandis que la prise en charge du diabète de type 2 repose sur des modifications du mode de vie et un suivi médical réguliers. La diffusion de telles informations trompeuses, comme celle de la vidéo virale, ne fait que susciter de faux espoirs et détourner l'attention des traitements légitimes. Cet incident lié à la vidéo truquée met également en lumière des préoccupations plus générales concernant le mésusage de l'intelligence artificielle dans la propagation de fausses informations en matière de santé. La capacité des contenus générés par l'IA à imiter des personnalités crédibles comme Elon Musk peut, involontairement, inciter les gens à se tourner vers des produits inefficaces, voire dangereux. Cette tendance représente non seulement un risque pour la santé publique, mais aussi un problème juridique et éthique pour les plateformes hébergeant ce type de contenu. Les vérificateurs de faits et les outils d'IA ont déjà identifié la vidéo comme une escroquerie, soulignant l'urgence de renforcer les mesures de détection et de prévention afin de protéger les consommateurs contre les allégations médicales frauduleuses. Les plateformes de médias sociaux sont en première ligne dans ce combat, où la désinformation se propage rapidement, ce qui exige des systèmes de vérification robustes. L'affaire de la vidéo truquée d'Elon Musk devrait servir d'avertissement pour renforcer ces systèmes et informer les utilisateurs sur la réalité du traitement du diabète et les dangers des remèdes miracles. Adopter une attitude sceptique face aux allégations sensationnalistes en matière de santé et consulter des professionnels de santé est essentiel pour se prémunir contre les escroqueries et ainsi promouvoir une société plus informée et soucieuse de sa santé. Implications plus larges des deepfakes dans la désinformation en santé ---------------------------------------------------------- L'essor des deepfakes générés par l'IA pose des défis considérables, notamment dans le domaine de la désinformation en santé. Comme l'a démontré une vidéo virale montrant faussement Elon Musk faisant la promotion d'un remède miracle contre le diabète en « 17 heures », les deepfakes ont le pouvoir d'induire le public en erreur de manière significative en exploitant l'influence de personnalités de confiance. Ces fabrications créent non seulement la panique, mais érodent également la confiance dans les conseils médicaux légitimes, ciblant souvent des personnes vulnérables cherchant désespérément des solutions à leurs problèmes de santé chroniques. Selon l'article de Complex, la réaction publique de Boosie Badazz à la fausse vidéo illustre la facilité avec laquelle la désinformation peut se propager lorsqu'elle est amplifiée par une personnalité publique. Ce scénario souligne l'urgence de sensibiliser davantage le public et de mettre en place des mécanismes de vérification robustes pour contrer ces pratiques trompeuses. De plus, les deepfakes utilisés dans la désinformation en santé ont des implications plus larges qui dépassent la simple tromperie des individus et touchent les sphères sociétales et économiques. L'impact financier est considérable : les compléments alimentaires frauduleux et les remèdes miracles peuvent générer des profits importants pour les escrocs, qui exploitent ainsi la vulnérabilité des consommateurs. L'article de Complex souligne comment la fraude générée par l'IA pourrait coûter des milliards de dollars par an à l'économie mondiale. Par ailleurs, le traumatisme psychologique subi par les personnes victimes de ces escroqueries, qui croient à des remèdes miraculeux, aggrave leur situation en retardant l'accès aux soins appropriés et en contribuant aux crises sanitaires. La diffusion de ces deepfakes risque également de promouvoir une culture du scepticisme envers les véritables avancées médicales, freinant ainsi les progrès en matière de soins de santé et compromettant les efforts de communication des stratégies de santé publique efficaces. Mesures de prévention : solutions juridiques et technologiques ----------------------------------------------------------- La prolifération rapide des deepfakes générés par l'IA, notamment dans des domaines sensibles comme la santé, exige une approche multidimensionnelle de la prévention et de l'atténuation. Les cadres juridiques doivent être mis à jour sans délai pour s'adapter aux progrès technologiques. Actuellement, de nombreuses juridictions ne disposent pas de lois spécifiques visant la création et la diffusion de fausses informations générées par l'IA, notamment les deepfakes. Cette lacune juridique permet aux auteurs de ces actes d'exploiter la technologie en toute impunité. Comme l'ont montré des affaires récentes, ces escroqueries peuvent avoir de graves conséquences pour les personnes recherchant de véritables solutions médicales, ce qui rend impératif une action rapide des législateurs. Outre les mesures juridiques, les solutions technologiques sont essentielles pour lutter contre les escroqueries médicales liées aux deepfakes. Les progrès de l'intelligence artificielle représentent non seulement un défi, mais aussi un outil précieux pour l'élaboration de stratégies de prévention. Les entreprises et les instituts de recherche investissent dans les technologies d'IA afin de détecter et d'étiqueter les contenus synthétiques. Par exemple, les plateformes utilisent des outils de vérification des faits pour identifier et supprimer rapidement les contenus frauduleux. On observe une forte incitation à mettre en œuvre des technologies de tatouage numérique permettant de vérifier l'authenticité des médias numériques. À mesure que ces solutions se perfectionnent, elles deviendront un élément essentiel de la panoplie d'outils utilisés par les plateformes de médias sociaux et les organismes de réglementation. Par ailleurs, la sensibilisation et l'éducation du public sont fondamentales pour prévenir les escroqueries liées aux deepfakes. Les utilisateurs doivent être informés de la nature des deepfakes et de la manière d'évaluer de façon critique les contenus qu'ils rencontrent sur les plateformes numériques. Des initiatives telles que la promotion de la culture numérique sont indispensables pour donner au public les compétences nécessaires pour discerner et contester les allégations douteuses en matière de santé. L'incident impliquant Boosie Badazz souligne le risque de diffusion massive d'escroqueries basées sur l'IA lorsque des personnalités publiques valident involontairement de tels contenus. Comme détaillé dans diverses discussions, le renforcement des compétences numériques, conjugué aux progrès juridiques et technologiques, pourrait constituer un rempart efficace contre le détournement de l'IA dans la désinformation en santé. Conclusion : Leçons apprises et perspectives d'avenir ---------------------------------------------- La controverse autour d'un deepfake généré par l'IA impliquant Elon Musk et un faux remède contre le diabète met en lumière des enjeux cruciaux dans notre environnement numérique. Cet incident a révélé la vulnérabilité, même de personnalités influentes comme le rappeur Boosie Badazz, face à des escroqueries sophistiquées qui manipulent les deepfakes à des fins frauduleuses. Selon Complex, la réaction de Boosie à la vidéo, qu'il a prise pour authentique, illustre le pouvoir de persuasion des deepfakes et la difficulté qu'ils posent pour distinguer les contenus authentiques des mensonges. Cela nous enseigne une leçon essentielle de scepticisme et la nécessité d'une vigilance personnelle face à l'information, notamment en matière de santé.
Incident 1318: Une accusation de tricherie présumée par intelligence artificielle dans une école précède le suicide d'un élève à Greater Noida, en Inde.
“« On s’est demandé si elle avait utilisé l’IA » : une adolescente de Greater Noida se suicide après que son école l’ait soupçonnée de tricherie aux examens.”
Noida : Une élève de 16 ans, en classe de seconde, se serait suicidée après avoir été interrogée par la direction de son établissement scolaire au sujet de l'utilisation présumée d'un logiciel d'intelligence artificielle lors d'un examen blanc, a indiqué la police samedi 27 décembre. L'incident s'est produit le 23 décembre à Greater Noida West, dans l'Uttar Pradesh. Selon la police, l'élève a été confrontée à ses professeurs et au proviseur après que son téléphone portable a été utilisé, semble-t-il, pour accéder à des outils d'intelligence artificielle pendant l'examen.
Le père de la jeune fille a porté plainte contre le proviseur et les professeurs pour harcèlement moral et incitation au suicide. Il affirme que sa fille a été humiliée publiquement, ce qui lui a causé une profonde détresse émotionnelle. L'établissement scolaire a nié les accusations, déclarant que le téléphone avait été confisqué et que l'élève avait reçu un avertissement formel, conformément au règlement des examens du CBSE. Le proviseur a affirmé que l'échange avait été bref et sans violence.
La police a confirmé que l'établissement scolaire avait fourni les images de vidéosurveillance et qu'une enquête était en cours.
Par ailleurs, un article du Times of India rapporte que le père a déclaré que sa fille était profondément bouleversée après avoir été réprimandée par ses professeurs pour avoir apporté son téléphone portable à l'examen du 22 décembre. Selon ce père, il a trois filles scolarisées dans le même établissement. Il a expliqué que son aînée avait « inconsciemment » apporté son téléphone à l'école le jour de l'examen. Le surveillant l'a surprise avec le téléphone, l'a réprimandée et a informé son professeur principal. Elle a ensuite été conduite chez le directeur.
Le père a affirmé que même après son arrivée à l'école, les professeurs et le directeur ont continué à réprimander et insulter violemment sa fille. Il a déclaré que les professeurs l'avaient traité de « négligent » et que leur comportement agressif avait eu un grave impact psychologique sur sa fille. Il a ajouté que cet incident avait également traumatisé ses deux autres filles, qui ont désormais peur de retourner à l'école.
Dans sa plainte, le père a nommément cité deux professeurs et la direction de l'établissement. Il a demandé à la police d'ouvrir une enquête pour incitation au suicide (article 108 du BNS) et autres infractions légales.
L'établissement scolaire, cependant, a fermement démenti ces allégations. La directrice a déclaré au Times of India que l'élève n'avait subi aucun harcèlement et que l'école avait respecté les protocoles établis par le Conseil central de l'enseignement secondaire (CBSE). Elle a ajouté que l'enfant n'avait ni pleuré ni manifesté de signes de détresse au moment des faits. L'école dispose également des images de vidéosurveillance de l'incident, qui ont été remises à la police.
La directrice a par ailleurs indiqué que l'école encourageait les élèves à gérer leur stress scolaire par le biais d'activités telles que des spectacles de danse, et a souligné que la jeune fille avait récemment participé à la fête annuelle de l'école.
La police enquête actuellement sur l'affaire, recueillant les témoignages de la famille, des responsables de l'école et d'autres témoins, et examinant tous les éléments de preuve disponibles, notamment les images de vidéosurveillance.
Incident 1319: Une vidéo d'investissement truquée (deepfake) aurait été utilisée dans une escroquerie ayant dépouillé un couple turc de 1,5 million de lires (environ 35 000 $ US).
“L'intelligence artificielle a escroqué des personnes de 1,5 million de lires turques !”
Un couple marié, résidant dans le district d'İlkadım à Samsun, a porté plainte auprès du parquet, affirmant avoir été escroqué de 1,5 million de livres turques après avoir cru à une vidéo d'investissement réalisée à l'aide d'une intelligence artificielle.
İsa Kereci, 53 ans, ferrailleur habitant le quartier de Kadıköy, dans le district d'İlkadım, et son épouse, Hale Kereci, 48 ans, mère de quatre enfants, expliquent être tombés dans le piège des escrocs après avoir cliqué sur une publicité trouvée sur Facebook. Le couple indique que, dans le cadre de ce prétendu processus d'investissement, qui débutait avec de petites sommes, ils ont été induits en erreur par des justifications telles que « frais de dossier », « coûts d'assurance », « dette fiscale » et « virements de la Banque centrale ». Ils précisent également avoir été contraints de partager leur écran, ce qui a entraîné des transferts d'argent de leurs comptes bancaires et cartes de crédit vers différentes personnes.
İsa Kereci et Hale Kereci ont déclaré avoir été contraints, durant cette escroquerie, de contracter des prêts sans assurance, de vider leurs comptes d'épargne, d'effectuer des achats avec leurs cartes de crédit, de vendre leurs bijoux en or et d'emprunter de l'argent à leurs proches. Les escrocs leur ont ainsi fait perdre environ 1,5 million de livres turques. Après avoir porté plainte auprès du parquet du tribunal de Samsun, le couple a mis en garde la population contre ce type d'arnaques. Hale Kereci, en larmes, s'est exprimé devant le tribunal.
(Le texte s'interrompt brusquement, probablement en raison d'une erreur de copier-coller.)
Incident 1320: Une image prétendument manipulée par intelligence artificielle montrerait faussement le politicien taïwanais Kao Chia-yu posant avec le drapeau de la RPC.
“Kao Chia-yu serait allée en Chine pour se faire photographier avec le drapeau chinois ? Furieuse, elle a publié un communiqué précisant qu’elle n’irait pas en Chine, sauf dans trois cas.”
Récemment, des individus mal intentionnés ont utilisé une vidéo générée par intelligence artificielle pour usurper l'identité de Wang Shih-chien, prétendant qu'il s'était rendu en Chine. L'ancienne députée Kao Chia-yu en a également été victime. Une photo d'elle prise au Bureau économique et culturel de Taipei à New York a été malicieusement retouchée, remplaçant le drapeau de la République de Chine par le drapeau national chinois. Kao a immédiatement réagi sur Facebook, appelant le public à la vigilance et à ne pas se laisser tromper par ces fausses informations de piètre qualité.
Kao Chia-yu a publié une photo comparative sur Facebook, montrant que le drapeau original de la République de Chine avait été remplacé par le drapeau national chinois, une tentative malveillante de diffamer Taïwan. Kao a fermement réaffirmé sa position, énonçant trois conditions préalables à tout voyage en Chine. Elle a solennellement déclaré qu'elle ne mettrait absolument pas les pieds sur le territoire chinois tant que la Chine n'aurait pas libéré Jimmy Lai, que le Père Noël ne serait pas apparu à Shanghai et qu'elle n'aurait pas « reconnu la République de Chine (Taïwan) ». Ces remarques ont réfuté directement les fausses informations et démontré sa fermeté dans la défense de la souveraineté de Taïwan.
Certains internautes attentifs ont même repéré des erreurs dans les images retouchées, commentant : « Ils adorent le photomontage ; ils n’ont même pas pris la peine d’enlever les fleurs de prunier sur le mur. Quel manque de professionnalisme ! » D’autres ont laissé des commentaires encourageants, tels que : « C’est vraiment exagéré » et « Ils sont complètement infiltrés ». À l’approche des élections locales de 2026, les images composites et la désinformation visant les politiciens circulent fréquemment en ligne. Le public est invité à vérifier les informations provenant de sources multiples lorsqu’il les reçoit en ligne afin d’éviter d’être induit en erreur.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systèmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous êtes invité à soumettre des rapports d'incident, après quoi les soumissions seront indexées et rendues visibles au monde entier. L'intelligence artificielle ne sera bénéfique pour les personnes et la société que si nous enregistrons et apprenons collectivement de ses échecs. (Plus d'informations)

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données





