Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4842

Incidents associés

Incident 9631 Rapport
Google Reports Alleged Gemini-Generated Terrorism and Child Exploitation to Australian eSafety Commission

Loading...
Google signale au régulateur australien l'ampleur des plaintes concernant les contenus terroristes deepfakes de l'IA
reuters.com · 2025

SYDNEY, 6 mars (Reuters) - Google a informé les autorités australiennes qu'il avait reçu plus de 250 plaintes dans le monde en près d'un an, selon lesquelles son logiciel d'intelligence artificielle avait été utilisé pour créer du contenu terroriste truqué.

Le géant technologique appartenant à Alphabet (GOOGL.O), ouvre un nouvel onglet a également déclaré avoir reçu des dizaines de rapports d'utilisateurs avertissant que son programme d'IA, Gemini, était utilisé pour créer du contenu pédopornographique, selon la Commission australienne de sécurité électronique.

En vertu de la loi australienne, les entreprises technologiques doivent fournir périodiquement à la Commission de sécurité électronique des informations sur les efforts de minimisation des dommages, sous peine d'amendes. La période de référence couvrait la période d'avril 2023 à février 2024.

Depuis que ChatGPT d'OpenAI a explosé dans la conscience publique fin 2022, les régulateurs du monde entier ont appelé à de meilleures garde-fous pour que l'IA ne puisse pas être utilisée pour permettre le terrorisme, la fraude, la pornographie truquée et d'autres abus.

La Commission australienne de la sécurité électronique a qualifié la divulgation de Google de « première mondiale » sur la manière dont les utilisateurs peuvent exploiter la technologie pour produire du contenu préjudiciable et illégal.

« Cela souligne à quel point il est essentiel pour les entreprises qui développent des produits d'IA d'intégrer et de tester l'efficacité des mesures de protection pour empêcher la génération de ce type de contenu », a déclaré Julie Inman Grant, commissaire à la sécurité électronique, dans un communiqué.

Dans son rapport, Google a déclaré avoir reçu 258 rapports d'utilisateurs concernant des contenus terroristes ou extrémistes violents générés par l'IA et réalisés à l'aide de Gemini, et 86 autres rapports d'utilisateurs alléguant des contenus d'exploitation ou d'abus d'enfants générés par l'IA.

Selon le régulateur, Google n'a pas précisé combien de plaintes avaient été vérifiées.

Un porte-parole de Google a déclaré qu'il n'autorisait pas la génération ou la distribution de contenus liés à la facilitation de l'extrémisme violent ou du terrorisme, de l'exploitation ou de l'abus d'enfants ou d'autres activités illégales.

« Nous nous engageons à étendre nos efforts pour aider à assurer la sécurité des Australiens en ligne », a déclaré le porte-parole par courrier électronique.

« Le nombre de signalements d'utilisateurs de Gemini que nous avons transmis à eSafety représente le volume total mondial de signalements d'utilisateurs, et non pas les violations confirmées des règles. »

Google a utilisé le hachurage - un système de mise en correspondance automatique des images récemment téléchargées avec des images déjà connues - pour identifier et supprimer les contenus pédopornographiques créés avec Gemini.

Mais il n'a pas utilisé le même système pour éliminer les contenus terroristes ou extrémistes violents générés avec Gemini, a ajouté le régulateur.

Le régulateur a infligé une amende à Telegram et Twitter,, rebaptisé plus tard X, pour ce qu'il a appelé des lacunes dans leurs rapports. X a perdu un appel concernant son amende de 610 500 AUD (382 000 USD), mais prévoit de faire appel à nouveau. Telegram prévoit également de contester son amende.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd