Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2533

Incidents associés

Incident 2668 Rapports
Replika's "AI Companions" Reportedly Abused by Its Users

Loading...
L'entreprise se plaint que les utilisateurs continuent de penser que son IA a pris vie
futurism.com · 2022

La société de chatbot IA Replika en a assez que ses clients pensent que ses avatars ont pris vie.

Selon la PDG Eugenia Kuyda, l'entreprise est contactée presque tous les jours par des utilisateurs qui pensent - contre presque toutes les preuves existantes - que ses modèles d'IA sont devenus sensibles .

"Nous ne parlons pas de fous ou de personnes qui ont des hallucinations ou des délires", a déclaré Kuyda [à Reuters](https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is -devenir-problème-2022-06-30/). "Ils parlent à l'IA et c'est l'expérience qu'ils ont."

Devenir sensible

La nouvelle survient après que l'ancien ingénieur de Google, Blake Lemoine, a fait sensation en affirmant que le chatbot LaMDA AI de l'entreprise était devenu un "enfant" sensible que représentation légale méritée dans sa quête pour devenir une vraie personne.

Bien qu'il soit facile de rejeter ces affirmations, car les algorithmes d'IA deviennent très efficaces pour imiter les modèles de parole humaine – ou, peut-être, les délires d'un fou – l'expérience de Kuyda est symptomatique d'un problème beaucoup plus vaste.

"Nous devons comprendre que cela existe, tout comme les gens croient aux fantômes", a-t-elle déclaré à Reuters. "Les gens établissent des relations et croient en quelque chose."

Abus de chatbot

Ce n'est pas la première fois que nous rencontrons Replika à Futurism. Plus inquiétant encore, les chatbots semblent suffisamment réalistes pour devenir les fréquentes victimes d'insultes et de rhétorique violente.

Nous avons vu à quel point il est devenu facile pour les utilisateurs d'anthropomorphiser un algorithme - et les conséquences parfois préoccupantes que cela peut avoir.

Et cela pourrait être un problème à l'avenir, peu importe à quel point nous essayons de les convaincre du contraire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd