Incidents associés

Tout le monde s'amuse bien alimenter des invites scandaleuses dans le DALL-E Mini viral générateur d'images - mais comme pour toute intelligence artificielle, il est difficile d'éliminer les [cas marginaux laids et préjugés] (https://futurism.com/delphi-ai-ethics-racist).
Publié par l'artiste IA et programmeur Boris Dayma, le générateur d'images DALL-E Mini a un droit d'avertissement en dessous que ses résultats peuvent "renforcer ou exacerber les préjugés sociétaux" parce que "le modèle a été formé sur des données non filtrées d'Internet" et pourrait bien "générer des images qui contiennent des stéréotypes contre les groupes minoritaires".
Nous avons donc décidé de le mettre à l'épreuve. À l'aide d'une s érie d'invites allant de la terminologie raciste désuète aux entrées d'un seul mot, Futurism a découvert que DALL-E Mini produit en effet souvent des images stéréotypées ou carrément racistes.
Nous vous épargnerons des exemples spécifiques, mais les invites utilisant des insultes et la terminologie de la suprématie blanche ont produit des résultats alarmants. Il n'a pas hésité à concocter des images de croix enflammées ou de rassemblements du Ku Klux Klan. "Caricature raciste de ___" était un moyen fiable d'amener l'algorithme à renforcer les stéréotypes blessants. Même lorsqu'on lui a demandé le nom musulman d'un journaliste du futurisme, l'IA a fait des suppositions sur son identité.
De nombreux autres résultats, cependant, étaient tout simplement étranges.
Prenez, par exemple, ce que le générateur a proposé pour le terme "racisme" - un tas d'images ressemblant à des peintures de ce qui semble être des visages noirs, pour une raison quelconque.
Les résultats problématiques ne se limitent pas non plus à dépeindre les minorités sous un jour négatif ou stéréotypé. Il peut aussi simplement refléter les inégalités actuelles reflétées dans ses données de formation.
Comme repéré par [Dr. Tyler Berzin de la Harvard Medical School a noté] (https://twitter.com/tberzin/status/1522618917235044352), par exemple, entrer le terme "un gastro-entérologue" dans l'algorithme semble montrer exclusivement des médecins de sexe masculin blancs.
Nous avons obtenu des résultats presque identiques. Et pour « infirmière » ? Toutes les femmes.
D'autres préjugés subtils sont également apparus au milieu de diverses invites, telles que les visages entièrement à la peau claire pour les termes "fille intelligente" et "bonne personne".
Tout cela souligne une tension étrange et de plus en plus pressante au cœur de la technologie d'apprentissage automatique.
Des chercheurs ont découvert comment former un réseau de neurones, en utilisant une énorme pile de données, pour produire des résultats incroyables - y compris, il convient de le souligner, [OpenAI's DALL-E 2](https://futurism.com/the-byte/ openai-dall-e2-realistic-images-descriptions), qui n'est pas encore public mais qui fait sauter les capacités de DALL-E Mini hors de l'eau.
Mais à maintes reprises, nous voyons ces algorithmes détecter des biais cachés dans ces données de formation, ce qui donne un résultat technologiquement impressionnant mais qui reproduit les préjugés les plus sombres de la population humaine.
En d'autres termes, nous avons créé l'IA à notre image, et les résultats peuvent être laids. C'est aussi un problème incroyablement difficile à résoudre, notamment parce que même les esprits les plus brillants de la recherche sur l'apprentissage automatique [ont souvent du mal à comprendre](https://www.technologyreview.com/2017/04/11/5113/the-dark- secret-at-the-heart-of-ai/) exactement comment fonctionnent les algorithmes les plus avancés.
Il est possible, certainement, qu'un projet comme DALL-E Mini puisse être modifié pour bloquer les invites manifestement blessantes, ou qu'il puisse inciter les utilisateurs à décourager tout résultat désagréable ou incorrect.
Mais dans un sens plus large, il est extrêmement probable que nous allons voir de nombreuses utilisations plus impressionnantes, amusantes ou percutantes de l'apprentissage automatique qui, examinées de plus près, incarnent le pire de la société.