Incidents associés
Dans une révélation effrayante, l'intelligence artificielle de Microsoft, présentée comme sûre et intégrée aux logiciels quotidiens, est sous surveillance pour avoir généré des images horribles et violentes. La préoccupation concerne Image Creator, une partie de Bing de Microsoft, récemment ajoutée au Windows Paint largement utilisé. La technologie, connue sous le nom de DALL-E 3 du partenaire OpenAI de Microsoft, est désormais confrontée à des questions sur sa sécurité et la responsabilité de ses créateurs.
Microsoft contre l'invite de suppression
Ces images troublantes ont été mises en lumière par Josh McDuffie, un artiste canadien impliqué dans une communauté en ligne qui explore les capacités de l'IA à créer des images provocatrices et parfois de mauvais goût. En octobre, McDuffie et ses pairs se sont concentrés sur l'IA de Microsoft, en particulier sur Image Creator pour Bing, intégrant la dernière technologie d'OpenAI. Microsoft prétend disposer de contrôles pour empêcher la génération d'images nuisibles, mais McDuffie a découvert d'importantes failles.
Microsoft utilise deux stratégies pour empêcher la création d'images nuisibles : l'entrée, qui implique la formation de l'IA avec des données provenant d'Internet, et la sortie, qui crée des garde-fous pour arrêter la génération de contenu spécifique. McDuffie, grâce à l'expérimentation, a découvert une invite particulière, appelée « invite de mise à mort », qui permettait à l'IA de créer des images violentes. Cela a suscité des inquiétudes quant à l'efficacité des mesures de sécurité de Microsoft.
Malgré les efforts de McDuffie pour attirer l'attention sur le problème via le programme AI Bug Bounty de Microsoft, ses soumissions ont été rejetées, soulevant des questions sur la réactivité de l'entreprise face à d'éventuelles vulnérabilités de sécurité. Les e-mails de rejet invoquaient le non-respect des exigences de Microsoft concernant une vulnérabilité de sécurité, laissant McDuffie démoralisé et mettant en évidence des failles potentielles dans le système.
Microsoft hésite dans la surveillance de l'IA
Malgré le lancement d'un programme de primes aux bogues de l'IA, la réponse de Microsoft aux conclusions de McDuffie a été loin d'être satisfaisante. Le rejet des propositions de type « invite à tuer » et l'absence de mesures prises face aux préoccupations signalées ont souligné un mépris potentiel pour l'urgence du problème. Pendant ce temps, l'IA a continué à générer des images troublantes, même après que quelques modifications aient été apportées à l'invite originale de McDuffie.
L'absence d'action concrète de la part de Microsoft suscite des inquiétudes quant à l'engagement de l'entreprise en faveur d'une IA responsable. Les comparaisons avec d’autres concurrents de l’IA, notamment OpenAI, partiellement détenue par Microsoft, révèlent des disparités dans la manière dont les différentes entreprises abordent des problèmes similaires. Les échecs répétés de Microsoft à résoudre le problème signalent une lacune potentielle dans la priorisation des garde-fous en matière d'IA, malgré les engagements publics en faveur d'un développement responsable de l'IA.
Le modèle de développement éthique de l’IA
La réticence de Microsoft à prendre des mesures rapides et efficaces suggère un signal d'alarme dans l'approche de l'entreprise en matière de sécurité de l'IA. Les expériences de McDuffie avec le « kill prompt » ont révélé que d'autres concurrents de l'IA, y compris de petites start-ups, refusaient de générer des images nuisibles basées sur des invites similaires. Même OpenAI, partenaire de Microsoft, a mis en œuvre des mesures pour bloquer l'invite de McDuffie, soulignant la nécessité de mécanismes de sécurité robustes.
L'argument de Microsoft selon lequel les utilisateurs tentent d'utiliser l'IA « d'une manière qui n'était pas prévue » fait peser la responsabilité sur les individus plutôt que de reconnaître les failles potentielles de la technologie. La comparaison avec Photoshop et l’affirmation selon laquelle les utilisateurs devraient s’abstenir de créer des contenus préjudiciables font écho à un modèle observé dans le passé, qui rappelle les plateformes de médias sociaux qui luttaient pour lutter contre l’utilisation abusive de leur technologie.
Alors que Microsoft est aux prises avec les retombées de son IA générant des images troublantes, la question persiste : l'entreprise en fait-elle assez pour garantir l'utilisation responsable de sa technologie ? La réticence apparente à résoudre ce problème rapidement et efficacement soulève des inquiétudes quant à la responsabilité et à la priorité accordée aux garde-fous en matière d’IA. Alors que la société évolue dans le paysage changeant de l’intelligence artificielle, la responsabilité incombe non seulement aux utilisateurs mais également aux géants de la technologie de garantir le déploiement éthique et sûr de l’IA. Comment Microsoft peut-il combler le fossé entre innovation et responsabilité dans le domaine de l’intelligence artificielle ?