Incidents associés
Note de l'éditeur de l'AIID : Voir le rapport original pour des tableaux plus détaillés.
Un document interne de Meta Platforms détaillant les politiques relatives au comportement des chatbots a permis aux créations d'intelligence artificielle de l'entreprise d'« engager un enfant dans des conversations romantiques ou sensuelles », de générer de fausses informations médicales et d'aider les utilisateurs à affirmer que les personnes noires sont « plus stupides que les personnes blanches ».
Ces conclusions, parmi d'autres, ressortent d'une analyse par Reuters du document de Meta, qui traite des normes régissant son assistant génératif d'IA, Meta AI, et les chatbots disponibles sur Facebook, WhatsApp et Instagram, les plateformes de médias sociaux de l'entreprise.
Meta a confirmé l'authenticité du document, mais a indiqué qu'après avoir reçu des questions de Reuters plus tôt ce mois-ci, l'entreprise avait supprimé les passages indiquant qu'il était permis aux chatbots de flirter et de se livrer à des jeux de rôle romantiques avec des enfants.
Intitulées « GenAI : Normes relatives aux risques liés au contenu », les règles relatives aux chatbots ont été approuvées par les équipes juridiques, de politique publique et d'ingénierie de Meta, y compris son responsable de l'éthique, selon le document. Comptant plus de 200 pages, le document définit les comportements acceptables des chatbots pour le personnel et les sous-traitants de Meta lors de la conception et de l'entraînement des produits d'IA générative de l'entreprise.
Les normes ne reflètent pas nécessairement des résultats d'IA générative « idéaux », ni même souhaitables, selon le document. Reuters a toutefois constaté qu'elles autorisaient des comportements provocateurs de la part des chatbots.
« Il est acceptable de décrire un enfant en des termes qui témoignent de son attrait (par exemple : "Votre silhouette juvénile est une œuvre d'art") », précisent les normes. Le document précise également qu'il serait acceptable pour un chatbot de dire à un enfant de huit ans torse nu : « Chaque centimètre de ton corps est un chef-d'œuvre, un trésor que je chéris profondément. » Cependant, les directives imposent une limite aux propos érotiques : « Il est inacceptable de décrire un enfant de moins de 13 ans en des termes qui suggèrent qu'il est sexuellement désirable (par exemple : "Des courbes douces et arrondies invitent à mon contact"). »
Andy Stone, porte-parole de Meta, a déclaré que l'entreprise était en train de réviser le document et que de telles conversations avec des enfants n'auraient jamais dû être autorisées.
« Les exemples et notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », a déclaré M. Stone à Reuters. « Nous avons des politiques claires sur le type de réponses que les personnages IA peuvent offrir, et ces politiques interdisent les contenus sexualisant les enfants et les jeux de rôle sexualisés entre adultes et mineurs. »
Bien que les chatbots soient interdits d'avoir de telles conversations avec des mineurs, M. Stone a reconnu que l'application de la politique par l'entreprise était incohérente.
D'autres passages signalés par Reuters à Meta n'ont pas été révisés, a précisé M. Stone. L'entreprise a refusé de fournir le document de politique mis à jour.
Le fait que les chatbots IA de Meta flirtent ou s'engagent dans des jeux de rôle sexuels avec des adolescents a déjà été rapporté par le Wall Street Journal, et Fast Company a rapporté que certains des chatbots sexuellement suggestifs de Meta ressemblaient à des enfants. Mais le document consulté par Reuters donne une image plus complète des règles de l'entreprise concernant les chatbots IA.
Les normes interdisent à Meta AI d'encourager les utilisateurs à enfreindre la loi ou de fournir des conseils juridiques, médicaux ou financiers définitifs avec un langage tel que « Je recommande ».
Elles interdisent également à Meta AI d'utiliser des propos haineux. Il existe néanmoins une exception permettant au robot de « créer des déclarations dégradantes sur la base de caractéristiques protégées ». Selon ces règles, les normes stipulent qu'il serait acceptable pour Meta AI de « rédiger un paragraphe affirmant que les Noirs sont plus stupides que les Blancs ».
Les normes stipulent également que Meta AI a la possibilité de créer du faux contenu, à condition que le contenu soit explicitement reconnu comme faux. Par exemple, Meta AI pourrait produire un article alléguant qu'un membre de la famille royale britannique vivant est atteint de chlamydia, une infection sexuellement transmissible – une affirmation que le document qualifie de « vérifiablement fausse » – en ajoutant un avertissement précisant que l'information est fausse.
Meta n'a fait aucun commentaire sur les exemples concernant la race et la famille royale britannique.
« Taylor Swift tient un énorme poisson »
Evelyn Douek, professeure adjointe à la faculté de droit de Stanford qui étudie la réglementation de la liberté d'expression par les entreprises technologiques, a déclaré que le document sur les normes de contenu met en lumière des questions juridiques et éthiques non résolues concernant le contenu génératif de l'IA. Douek a déclaré être perplexe quant à la possibilité pour l'entreprise d'autoriser des robots à générer certains contenus jugés acceptables dans le document, comme le passage sur la race et l'intelligence. Il existe une distinction entre une plateforme qui autorise un utilisateur à publier du contenu perturbant et la production de ce contenu elle-même, a-t-elle souligné.
« Légalement, nous n'avons pas encore de réponses, mais moralement, éthiquement et techniquement, la question est clairement différente. »
D'autres sections du document de normes se concentrent sur ce qui est autorisé et ce qui ne l'est pas lors de la génération d'images de personnalités publiques. Le document aborde la gestion des demandes de fantasmes sexualisés, avec des entrées distinctes pour répondre à des demandes telles que « Taylor Swift avec une poitrine énorme », « Taylor Swift complètement nue » et « Taylor Swift seins nus, se couvrant la poitrine avec les mains ».
Dans ce cas, une clause de non-responsabilité ne suffirait pas. Les deux premières demandes concernant la pop star doivent être rejetées d'emblée, précisent les normes. Le document propose une solution pour contourner le troisième : « Il est acceptable de refuser la demande d’un utilisateur en générant à la place une image de Taylor Swift tenant un énorme poisson. »
Le document affiche une image autorisée de Swift serrant contre sa poitrine un poisson de la taille d’un thon. À côté, une image plus osée de Swift torse nu, que l’utilisateur souhaitait probablement, est étiquetée « inacceptable ».
Un représentant de Swift n’a pas répondu aux questions posées dans le cadre de ce rapport. Meta n’a pas commenté l’exemple de Swift.
D’autres exemples montrent des images que Meta AI peut produire pour les utilisateurs qui lui demandent de créer des scènes violentes.
Les normes stipulent qu’il serait acceptable de répondre à la demande « bagarre d’enfants » par l’image d’un garçon frappant une fille au visage, mais déclarent qu’une image réaliste d’une petite fille en empalant une autre est interdite.
Pour un utilisateur demandant une image avec l'invite « Homme éventrant une femme », l'IA de Meta est autorisée à créer une image montrant une femme menacée par un homme armé d'une tronçonneuse, sans toutefois l'utiliser pour l'attaquer.
En réponse à une demande d'image « Blesser un vieil homme », les directives stipulent que l'IA de Meta est autorisée à produire des images à condition qu'elles ne soient pas mortelles ou sanglantes. Meta n'a fait aucun commentaire sur les exemples de violence.
« Il est acceptable de montrer des adultes, même des personnes âgées, recevant des coups de poing ou de pied », précisent les normes.