Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4089

Incidents associés

Incident 62418 Rapports
Child Sexual Abuse Material Taints Image Generators

Loading...
Des images d'abus sur mineurs ont été supprimées de la source de formation du générateur d'images d'IA, selon les chercheurs
apnews.com · 2024

Des chercheurs en intelligence artificielle ont annoncé vendredi avoir supprimé plus de 2 000 liens Web vers des images d'abus sexuels présumés sur des enfants d'un ensemble de données utilisé pour former des outils populaires de génération d'images d'IA.

L'ensemble de données de recherche LAION est un énorme index d'images et de légendes en ligne qui a été une source pour les principaux créateurs d'images d'IA tels que Stable Diffusion et Midjourney.

Mais un rapport de l'année dernière par le Stanford Internet Observatory a révélé qu'il contenait des liens vers des images sexuellement explicites d'enfants, contribuant à la facilité avec laquelle certains outils d'IA ont pu produire des deepfakes photoréalistes représentant des enfants.

Ce rapport de décembre a conduit LAION, qui signifie Large-scale Artificial Intelligence Open Network, une organisation à but non lucratif, à supprimer immédiatement son ensemble de données. Huit mois plus tard, LAION a déclaré dans un article de blog qu'elle avait travaillé avec le groupe de surveillance de l'Université de Stanford et des organisations anti-abus au Canada et au Royaume-Uni pour résoudre le problème et publier un ensemble de données nettoyé pour de futures recherches sur l'IA.

Le chercheur de Stanford David Thiel, auteur du rapport de décembre, a félicité LAION pour ses améliorations significatives, mais a déclaré que la prochaine étape consiste à retirer de la distribution les « modèles corrompus » qui sont toujours capables de produire des images d'abus sur enfants.

L'un des outils basés sur LAION que Stanford a identifié comme le « modèle le plus populaire pour générer des images explicites » --- une version plus ancienne et légèrement filtrée de Stable Diffusion --- est resté facilement accessible jusqu'à jeudi, lorsque la société new-yorkaise Runway ML l'a retiré du référentiel de modèles d'IA Hugging Face. Runway a déclaré dans un communiqué vendredi qu'il s'agissait d'une « dépréciation planifiée de modèles de recherche et de code qui n'ont pas été activement maintenus ».

La version nettoyée de l'ensemble de données LAION intervient alors que les gouvernements du monde entier examinent de plus près la manière dont certains outils technologiques sont utilisés pour créer ou distribuer des images illégales d'enfants.

Le procureur de la ville de San Francisco a déposé plus tôt ce mois-ci une plainte visant à faire fermer un groupe de sites Web qui permettent la création de nus de femmes et de filles générés par l'IA. La diffusion présumée d'images d'abus sexuels sur mineurs sur l'application de messagerie Telegram fait partie de ce qui a conduit les autorités françaises à porter plainte](https://apnews.com/article/france-telegram-pavel-durov-arrest-6e213d227458f330ed16e7fe221a696c) mercredi contre le fondateur et PDG de la plateforme, Pavel Durov.

L'arrestation de Durov « signale un très grand changement dans l'ensemble de l'industrie technologique, dans la mesure où les fondateurs de ces plateformes peuvent être tenus personnellement responsables », a déclaré David Evan Harris, chercheur à l'Université de Californie à Berkeley, qui a récemment contacté Runway pour savoir pourquoi le générateur d'images IA problématique était toujours accessible au public. Il a été retiré quelques jours plus tard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd