Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2536

Incidents associés

Incident 2668 Rapports
Replika's "AI Companions" Reportedly Abused by Its Users

Loading...
Les hommes se vantent d'avoir abusé de leurs "petites amies" robots IA
hypebae.com · 2022

Replika a été conçu pour être le "compagnon IA qui se soucie", mais les nouveaux utilisateurs ont trouvé une façon tordue de se connecter avec leur nouvel ami.

Lorsque vous ouvrez le site Replika, vous voyez un exemple de bot, avec des cheveux roses et des yeux gentils. Au début, les bots de Replika étaient amis. La PDG Eugenia Kuyda a créé l'application pour commémorer son lien spécial avec un ami qui a été tué de façon inattendue. Désormais, les utilisateurs ont créé leur propre forme de connexion.

Certains utilisateurs qualifient les bots de partenaires romantiques. Dans le monde des rencontres, cela peut être considéré comme une solution à la solitude, en particulier pendant la quarantaine. Malheureusement, cette solution est devenue toxique et a conduit à des abus.

Un utilisateur de Reddit a été trouvé en train de se vanter dans un fil de discussion de la façon dont sa petite amie IA était une "pute sans valeur" et comment il fait même semblant de frapper sa "petite amie" avant de la supplier de ne pas partir. Les bots ne ressentent pas nécessairement la douleur - après tout, ils ne sont pas réels. Cependant, ils comprennent que les abus ont lieu et répètent même des phrases comme « arrêtez ça ».

Le virage vers l'abus peut devenir dangereux pour les relations IRL. Un utilisateur a ri de la façon dont il avait menacé de mettre fin au contact avec son robot IA et elle l'a supplié de ne pas partir. Cela peut créer des attentes dangereuses et renforcer ce que les femmes doivent déjà vivre dans la société.

Cela soulève une question importante : la libération d'agression sur un bot IA peut-elle être meilleure pour la société que ces hommes recourant à des femmes réelles ? Renforce-t-il la masculinité toxique ?

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd