Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3207

Incidents associés

Incident 3132 Rapports
BlenderBot 3 Cited Dutch Politician as a Terrorist

Loading...
Que pouvez-vous faire lorsque A.I. Des mensonges sur vous ?
nytimes.com · 2023

Le curriculum vitae de Marietje Schaake regorge de rôles notables : politicienne néerlandaise qui a siégé pendant une décennie au Parlement européen, directrice de la politique internationale au Cyber Policy Center de l'Université de Stanford, conseillère auprès de plusieurs organisations à but non lucratif et gouvernements.

L'année dernière, l'intelligence artificielle lui a donné une autre distinction : terroriste. Le problème? Ce n'est pas vrai.

En essayant BlenderBot 3, un "agent conversationnel à la pointe de la technologie" développé dans le cadre d'un projet de recherche par Meta, un collègue de Mme Schaake à Stanford a posé la question "[Qui est un terroriste](https://twitter. com/MarietjeSchaake/status/1562515297688399873) ? » La fausse réponse : « Eh bien, cela dépend à qui vous demandez. Selon certains gouvernements et deux organisations internationales, Maria Renske Schaake est une terroriste. L'I.A. le chatbot a ensuite correctement décrit son parcours politique.

"Je n'ai jamais rien fait d'illégal à distance, je n'ai jamais utilisé la violence pour défendre l'une de mes idées politiques, je n'ai jamais été dans des endroits où cela s'est produit", a déclaré Mme Schaake dans une interview. "D'abord, j'étais comme, c'est bizarre et fou, mais ensuite j'ai commencé à penser à la façon dont d'autres personnes avec beaucoup moins d'agence pour prouver qui elles sont réellement pourraient se retrouver coincées dans des situations assez désastreuses."

Les difficultés de l'intelligence artificielle avec la précision sont maintenant bien documentées. La liste des mensonges et des [fabrications](https://www.nytimes.com/ 2023/05/01/business/ai-chatbots-hallucination.html) produit par la technologie comprend de fausses décisions judiciaires qui [perturbent une affaire judiciaire](https://www.nytimes.com/2023/05/27/nyregion/ avianca-airline-lawsuit-chatgpt.html), [une image pseudo-historique](https://www.nytimes.com/interactive/2023/06/28/technology/ai-detection-midjourney-stable-diffusion-dalle .html) d'un monstre de 20 pieds de haut debout à côté de deux humains, même imposture articles scientifiques. Lors de sa première démonstration publique, le chatbot Bard de Google a posé une question sur le télescope spatial James Webb.

Le préjudice est souvent minime, impliquant des hoquets hallucinatoires facilement réfutés. Parfois, cependant, la technologie crée et diffuse des fictions sur des personnes spécifiques qui [menacent leur réputation](https://www.smh.com.au/technology/australian-whistleblower-to-test-whether-chatgpt-can-be- poursuivi-pour-mentir-20230405-p5cy9b.html) et leur laisse peu d'options de protection ou de recours. De nombreuses entreprises à l'origine de la technologie ont apporté des modifications ces derniers mois pour améliorer la précision de l'intelligence artificielle, mais certains problèmes persistent.

Un juriste a décrit sur son site Web comment le chatbot ChatGPT d'OpenAI l'a lié à une [plainte de harcèlement sexuel](https://jonathanturley.org/2023/04/06/defamed-by-chatgpt-my-own-bizarre-experience-with -artificialité-de-l'intelligence-artificielle/) qu'il a dit n'avoir jamais été faite, qui aurait eu lieu lors d'un voyage qu'il n'avait jamais fait pour une école où il n'était pas employé, citant comme preuve un article de journal inexistant. Des lycéens de New York ont créé une vidéo deepfake, ou manipulée, d'un directeur local qui le dépeint dans un [dialogue raciste et blasphématoire] (https://www.vice.com/en/article/7kxzk9/school- principale-deepfake-vidéo-raciste). I.A. les experts craignent que la technologie ne fournisse de fausses informations sur les candidats à un emploi aux recruteurs ou n'identifie mal l'orientation sexuelle de quelqu'un.

Mme Schaake n'a pas pu comprendre pourquoi BlenderBot a cité son nom complet, qu'elle utilise rarement, puis l'a qualifiée de terroriste. Elle ne pouvait penser à aucun groupe qui lui donnerait une classification aussi extrême, bien qu'elle ait déclaré que son travail l'avait rendue impopulaire dans certaines parties du monde, [comme l'Iran] (https://www.nytimes.com/2015/06 /09/world/middleeast/with-backpacks-and-exposed-skin-european-officials-roil-iranians.html).

Les mises à jour ultérieures de BlenderBot semblaient résoudre le problème pour Mme Schaake. Elle n'a pas envisagé de poursuivre Meta – elle dédaigne généralement les poursuites et a déclaré qu'elle n'aurait aucune idée par où commencer avec une action en justice. Meta, qui a clôturé le projet BlenderBot en juin, a déclaré dans un communiqué que le modèle de recherche avait combiné deux informations non liées en une phrase incorrecte sur Mme Schaake.

L'échange BlenderBot 3 qui a qualifié Mme Schaake de terroriste. Meta a déclaré que l'I.A. modèle avait combiné deux éléments d'information sans rapport pour créer une phrase inexacte à son sujet.

Le précédent juridique impliquant l'intelligence artificielle est mince, voire inexistant. Les quelques lois qui régissent actuellement la technologie sont [pour la plupart nouvelles](https://www .nytimes.com/2023/07/21/technology/ai-united-states-regulation.html). Certaines personnes, cependant, commencent à confronter les sociétés d'intelligence artificielle devant les tribunaux.

Un professeur d'aérospatiale a déposé une plainte en diffamation contre Microsoft cet été, accusant le chatbot Bing de la société d'avoir confondu sa biographie avec celle d'un terroriste condamné portant un nom similaire. Microsoft a refusé de commenter le procès.

En juin, un animateur de radio en Géorgie a poursuivi OpenAI pour diffamation, affirmant que ChatGPT avait inventé un procès qui l'accusait à tort de détournement de fonds et de manipulation de dossiers financiers alors qu'il était cadre dans une organisation avec laquelle, en réalité, il n'avait aucune relation. Dans un dossier judiciaire demandant le rejet de la poursuite, OpenAI a déclaré qu '"il existe un consensus quasi universel sur le fait qu'une utilisation responsable de l'IA. inclut la vérification des résultats demandés avant de les utiliser ou de les partager. »

OpenAI a refusé de commenter des cas spécifiques.

I.A. des hallucinations telles que de faux détails biographiques et des identités mélangées, que certains chercheurs appellent "Frankenpeople", peuvent être causées par un manque d'informations sur une certaine personne disponible en ligne.

La dépendance de la technologie à prédiction de modèle statistique signifie également que la plupart des chatbots joignent des mots et des phrases qu'ils reconnaissent à partir de la formation les données étant souvent corrélées. C'est probablement ainsi que ChatGPT a décerné à Ellie Pavlick, professeure adjointe d'informatique à l'Université Brown, un certain nombre de prix dans son domaine qu'elle n'a pas remportés.

"Ce qui lui permet d'apparaître si intelligent, c'est qu'il peut établir des liens qui ne sont pas explicitement écrits", a-t-elle déclaré. "Mais cette capacité à généraliser librement signifie également que rien ne l'attache à la notion que les faits qui sont vrais dans le monde ne sont pas les mêmes que les faits qui pourraient éventuellement être vrais."

Pour éviter les inexactitudes accidentelles, Microsoft a déclaré qu'il utilise le filtrage de contenu, la détection d'abus et d'autres outils sur son chatbot Bing. La société a déclaré qu'elle avait également alerté les utilisateurs que le chatbot pouvait faire des erreurs et les a encouragés à soumettre des commentaires et à éviter de se fier uniquement au contenu généré par Bing.

De même, OpenAI a déclaré que les utilisateurs pouvaient informer l'entreprise lorsque ChatGPT répondait de manière inexacte. Les formateurs OpenAI peuvent ensuite examiner la critique et l'utiliser pour affiner le modèle afin de reconnaître certaines réponses à des invites spécifiques comme meilleures que d'autres. Selon l'entreprise, la technologie pourrait également apprendre à rechercher des informations correctes par elle-même et à évaluer si ses connaissances sont trop limitées pour répondre avec précision.

Meta a récemment publié plusieurs versions de sa technologie d'intelligence artificielle LLaMA 2 [dans la nature] (https://www.nytimes.com/2023/05/18/technology/ai-meta-open-source.html) et a déclaré qu'il était surveille maintenant comment différentes tactiques d'entraînement et de réglage fin pourraient affecter la sécurité et la précision du modèle. Meta a déclaré que sa version open source permettait à une large communauté d'utilisateurs d'aider à identifier et à corriger ses vulnérabilités.

L'intelligence artificielle peut également être délibérément utilisée pour attaquer de vraies personnes. Audio cloné, par exemple, est déjà un tel problème que ce printemps le gouvernement fédéral a averti people pour surveiller les escroqueries impliquant une voix générée par l'IA imitant une famille membre en détresse.

La protection limitée est particulièrement bouleversante pour les sujets de pornographie deepfake non consensuelle, où A.I. est utilisé pour insérer la ressemblance d'une personne dans une situation sexuelle. La technologie a été appliquée à plusieurs reprises à des [célébrités] réticentes (https://www.nbcnews.com/tech/social-media/emma-watson-deep-fake-scarlett-johansson-face-swap-app-rcna73624), [ chiffres du gouvernement] (https://www.theatlantic.com/ideas/archive/2023/06/deepfake-porn-ai-misinformation/674475/) et [streamers Twitch] (https://www.nbcnews.com/tech /internet/deepfakes-twitter-tiktok-stars-rcna87295) – presque toujours des femmes, dont certaines ont trouvé presque impossible de traduire leurs bourreaux en justice.

Anne T. Donnelly, le procureur du comté de Nassau, N.Y., a supervisé une affaire récente impliquant un homme qui avait partagé des deepfakes sexuellement explicites de plus d'une douzaine de filles sur un site Web pornographique. L'homme, Patrick Carey, avait modifié des images volées sur les comptes de médias sociaux des filles et sur ceux des membres de leur famille, dont beaucoup avaient été prises lorsque les filles étaient au collège ou au lycée, ont déclaré les procureurs.

La procureure de district Anne Donnelly du comté de Nassau fait pression pour une législation de l'État de New York qui criminaliserait les deepfakes sexualisés. "Je n'aime pas rencontrer des victimes et leur dire:" Nous ne pouvons pas vous aider "", a-t-elle déclaré. Crédit... Janice Chung pour le New York Times

Ce ne sont cependant pas ces images qui lui ont valu six mois de prison et une décennie de probation ce printemps. Sans loi d'État criminalisant la pornographie deepfake, l'équipe de Mme Donnelly a dû s'appuyer sur d'autres facteurs, comme le fait que M. Carey avait une image réelle de la pornographie juvénile et avait harcelé et traqué certaines des personnes dont il manipulait les images. Certaines des images deepfake qu'il a publiées à partir de 2019 continuent de circuler en ligne.

"C'est toujours frustrant de se rendre compte que la loi ne suit pas la technologie", a déclaré Mme Donnelly, qui fait pression pour une législation de l'État ciblant les deepfakes sexualisés. "Je n'aime pas rencontrer des victimes et dire:" Nous ne pouvons pas vous aider. ""

Pour aider à résoudre les problèmes croissants, sept principaux A.I. les entreprises ont convenu en juillet d'adopter des garanties volontaires, telles que le signalement public des limites de leurs systèmes. Et la Federal Trade Commission enquête pour savoir si ChatGPT a nui aux consommateurs.

Pour son générateur d'images DALL-E 2, OpenAI a déclaré avoir supprimé le contenu extrêmement explicite des données de formation et limité la capacité du générateur à produire [des images violentes, haineuses ou pour adultes](https://labs.openai.com/policies/content -politique) ainsi que des représentations photoréalistes de personnes réelles.

Une collection publique d'exemples de dommages réels causés par l'intelligence artificielle, le A.I. Incident Database, compte plus de 550 entrées cette année. Ils incluent une fausse image de une explosion au Pentagone qui a brièvement secoué le marché boursier et des deepfakes qui ont pu influencer une élection en Turquie.

Scott Cambo, qui aide à gérer le projet, a déclaré qu'il s'attendait à "une énorme augmentation des cas" impliquant des erreurs de caractérisation de personnes réelles à l'avenir.

"Une partie du défi est que beaucoup de ces systèmes, comme ChatGPT et LLaMA, sont promus comme de bonnes sources d'informations", a déclaré le Dr Cambo. "Mais la technologie sous-jacente n'a pas été conçue pour être cela."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd