Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3542

Incidents associés

Incident 6213 Rapports
Microsoft AI Is Alleged to Have Generated Violent Imagery of Minorities and Public Figures

Loading...
Le dilemme de l'IA de Microsoft : sûr, mais créant des images dérangeantes ?
cryptopolitan.com · 2023

Dans une révélation effrayante, l'intelligence artificielle de Microsoft, présentée comme sûre et intégrée aux logiciels quotidiens, est sous surveillance pour avoir généré des images horribles et violentes. La préoccupation concerne Image Creator, une partie de Bing de Microsoft, récemment ajoutée au Windows Paint largement utilisé. La technologie, connue sous le nom de DALL-E 3 du partenaire OpenAI de Microsoft, est désormais confrontée à des questions sur sa sécurité et la responsabilité de ses créateurs.

Microsoft contre l'invite de suppression

Ces images troublantes ont été mises en lumière par Josh McDuffie, un artiste canadien impliqué dans une communauté en ligne qui explore les capacités de l'IA à créer des images provocatrices et parfois de mauvais goût. En octobre, McDuffie et ses pairs se sont concentrés sur l'IA de Microsoft, en particulier sur Image Creator pour Bing, intégrant la dernière technologie d'OpenAI. Microsoft prétend disposer de contrôles pour empêcher la génération d'images nuisibles, mais McDuffie a découvert d'importantes failles.

Microsoft utilise deux stratégies pour empêcher la création d'images nuisibles : l'entrée, qui implique la formation de l'IA avec des données provenant d'Internet, et la sortie, qui crée des garde-fous pour arrêter la génération de contenu spécifique. McDuffie, grâce à l'expérimentation, a découvert une invite particulière, appelée « invite de mise à mort », qui permettait à l'IA de créer des images violentes. Cela a suscité des inquiétudes quant à l'efficacité des mesures de sécurité de Microsoft.

Malgré les efforts de McDuffie pour attirer l'attention sur le problème via le programme AI Bug Bounty de Microsoft, ses soumissions ont été rejetées, soulevant des questions sur la réactivité de l'entreprise face à d'éventuelles vulnérabilités de sécurité. Les e-mails de rejet invoquaient le non-respect des exigences de Microsoft concernant une vulnérabilité de sécurité, laissant McDuffie démoralisé et mettant en évidence des failles potentielles dans le système.

Microsoft hésite dans la surveillance de l'IA

Malgré le lancement d'un programme de primes aux bogues de l'IA, la réponse de Microsoft aux conclusions de McDuffie a été loin d'être satisfaisante. Le rejet des propositions de type « invite à tuer » et l'absence de mesures prises face aux préoccupations signalées ont souligné un mépris potentiel pour l'urgence du problème. Pendant ce temps, l'IA a continué à générer des images troublantes, même après que quelques modifications aient été apportées à l'invite originale de McDuffie.

L'absence d'action concrète de la part de Microsoft suscite des inquiétudes quant à l'engagement de l'entreprise en faveur d'une IA responsable. Les comparaisons avec d’autres concurrents de l’IA, notamment OpenAI, partiellement détenue par Microsoft, révèlent des disparités dans la manière dont les différentes entreprises abordent des problèmes similaires. Les échecs répétés de Microsoft à résoudre le problème signalent une lacune potentielle dans la priorisation des garde-fous en matière d'IA, malgré les engagements publics en faveur d'un développement responsable de l'IA.

Le modèle de développement éthique de l’IA

La réticence de Microsoft à prendre des mesures rapides et efficaces suggère un signal d'alarme dans l'approche de l'entreprise en matière de sécurité de l'IA. Les expériences de McDuffie avec le « kill prompt » ont révélé que d'autres concurrents de l'IA, y compris de petites start-ups, refusaient de générer des images nuisibles basées sur des invites similaires. Même OpenAI, partenaire de Microsoft, a mis en œuvre des mesures pour bloquer l'invite de McDuffie, soulignant la nécessité de mécanismes de sécurité robustes.

L'argument de Microsoft selon lequel les utilisateurs tentent d'utiliser l'IA « d'une manière qui n'était pas prévue » fait peser la responsabilité sur les individus plutôt que de reconnaître les failles potentielles de la technologie. La comparaison avec Photoshop et l’affirmation selon laquelle les utilisateurs devraient s’abstenir de créer des contenus préjudiciables font écho à un modèle observé dans le passé, qui rappelle les plateformes de médias sociaux qui luttaient pour lutter contre l’utilisation abusive de leur technologie.

Alors que Microsoft est aux prises avec les retombées de son IA générant des images troublantes, la question persiste : l'entreprise en fait-elle assez pour garantir l'utilisation responsable de sa technologie ? La réticence apparente à résoudre ce problème rapidement et efficacement soulève des inquiétudes quant à la responsabilité et à la priorité accordée aux garde-fous en matière d’IA. Alors que la société évolue dans le paysage changeant de l’intelligence artificielle, la responsabilité incombe non seulement aux utilisateurs mais également aux géants de la technologie de garantir le déploiement éthique et sûr de l’IA. Comment Microsoft peut-il combler le fossé entre innovation et responsabilité dans le domaine de l’intelligence artificielle ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd