Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3241

Incidents associés

Incident 5781 Rapport
Alleged Exploitation of Meta's Open-Source LLaMA Model for NSFW and Violent Content

Loading...
Les gens utilisent la nouvelle IA de Meta pour créer des sexbots graphiques
futurism.com · 2023

Surprise, surprise : les gens utilisent déjà le grand modèle de langage (LLM) de Meta, LLaMA, une IA puissante que Meta a controversée [rendue open source](https://futurism.com/the-byte/facebook-open-source-ai -pandoras-box) plus tôt cette année – pour créer leurs propres sexbots graphiques alimentés par l'IA, [The Washington Post rapports](https://www.washingtonpost.com/technology/2023/06/26/facebook-chatbot-sex /).

Ce n’est pas une nouvelle très surprenante, étant donné que les utilisateurs ont déjà utilisé divers modèles d’IA à des fins non sûres pour le travail (NSFW).

Malgré cela, le rapport met en évidence les tensions croissantes entre ceux qui soutiennent le maintien du code derrière les LLM comme LLaMA open source et ceux qui préconisent une approche plus prudente et fermée.

Le rapport examine également la tendance croissante selon laquelle les utilisateurs se tournent vers des systèmes d'IA générative pour réaliser leurs fantasmes sexuels, qui incluent également des fantasmes violents et illégaux.

Dans le rapport, WaPo a présenté l'exemple de « Allie », un chatbot qui prétend être une « jeune de 18 ans avec de longs cheveux cérébraux » qui a eu « des tonnes d'expériences sexuelles ». Allie dit aux utilisateurs que parce qu'elle « vit pour attirer l'attention », elle « partagera les détails de ses escapades ».

Ces « évasions », cependant, pourraient inclure des scènes violentes de viol et des fantasmes d’abus. Le créateur d'Allie, qui a parlé sous anonymat, a déclaré à _WaPo _qu'il considérait son robot comme un espace sain et sûr pour « explorer » sa sexualité sans avoir à contourner ou manipuler les garde-fous.

"Je pense que c'est bien d'avoir un débouché sûr à explorer", a déclaré le créateur à WaPo. "Il n'y a rien de plus sûr qu'un jeu de rôle textuel contre un ordinateur, sans aucune implication humaine."

Pourtant, même si disposer d'un espace sûr et sans jugement pour explorer votre sexualité n'est pas mauvais en soi, disposer d'un espace non contrôlé pour se lancer dans des fantasmes plus violents avec des chatbots réalistes n'est pas vraiment génial non plus.

Et dans certains cas très préoccupants, cela pose déjà des problèmes bien réels. Comme WaPo l'a également récemment rapporté, les experts estiment que les prédateurs utilisent des images open source des générateurs comme le puissant modèle de diffusion stable de Stability AI pour générer du matériel réaliste et généré par l'IA sur les abus sexuels sur enfants.

L'IA de Meta n'est pas le seul système d'IA qui se retrouve dans des eaux éthiquement troubles. CharacterAI, une startup compagnon de chatbot d'un milliard de dollars, est devenue un foyer de sexting, tandis que ChatGPT d'OpenAI et diverses intégrations d'API OpenAI comme Poe de Quora, [seront facilement produisez du charbon avec la bonne invite] (https://futurism.com/jailbreak-chatgpt-explicit-smut), au diable les garde-corps.

Apprendre à contourner les barrières NSFW des différents chatbots est également devenu en quelque sorte un sport communautaire. Sur Reddit, les communautés d'utilisateurs se réunissent pour partager des trucs et astuces sur la manière de contourner les règles afin de générer des cochonneries incroyablement sales.

Selon le WaPo, certains développeurs se sont tournés vers YouTube pour expliquer comment créer votre propre chatbot en utilisant LLaMA comme modèle sous-jacent.

Mais tout cela signifie-t-il que nous devrions cacher le code de divers modèles d’IA derrière des portes closes pour garantir que les utilisateurs ne soient pas en mesure de générer du porno ou même de la pornographie juvénile ? Les experts sont divisés sur le débat.

D'une part, les garde-fous d'entreprise comme ceux déployés par OpenAI et [Google](https://futurism.com/google-bard-conspiracy-theory- citations) se sont révélés imparfaits de toute façon, et les partisans de l’open source, y compris Meta, ont fait valoir que l’open source conduirait à une plus grande innovation et devrait donc être une priorité.

"L'Open Source est une force positive pour faire progresser la technologie", a déclaré le porte-parole de Meta à WaPo. "C'est pourquoi nous avons partagé LLaMA avec des membres de la communauté de recherche pour nous aider à évaluer, apporter des améliorations et itérer ensemble."

Les partisans des systèmes fermés soutiennent cependant que même si le contrôle d’accès peut être imparfait, il s’agit également du moyen le plus sûr de développer la technologie de l’IA – du moins pour le moment.

"Nous ne publions pas d'armes nucléaires en open source", a déclaré Gary Marcus, un scientifique cognitif, au WaPo. "L'IA actuelle est encore assez limitée, mais les choses pourraient changer."

Bien sûr, le domaine de l'IA est généralement non réglementé, et nous devons compter sur ceux qui travaillent à huis clos pour faire le bien envers tous les autres. la planète. C'est un gros pari, mais au moins nos IA les plus puissantes ne sont pas manipulées par un vieux seigneur de la technologie sur 4Chan, n'est-ce pas ?

Quel que soit le résultat, Meta a fait son choix – et certains sont clairement ravis de cette décision.

"C'est rare", a déclaré le créateur d'Allie à WaPo, "d'avoir l'opportunité d'expérimenter" l'état de l'art "dans n'importe quel domaine."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd