
La société de chatbot IA Replika en a assez que ses clients pensent que ses avatars ont pris vie.
Selon la PDG Eugenia Kuyda, l'entreprise est contactée presque tous les jours par des utilisateurs qui pensent - contre presque toutes les preuves existantes - que ses modèles d'IA sont devenus sensibles .
"Nous ne parlons pas de fous ou de personnes qui ont des hallucinations ou des délires", a déclaré Kuyda [à Reuters](https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is -devenir-problème-2022-06-30/). "Ils parlent à l'IA et c'est l'expérience qu'ils ont."
Devenir sensible
La nouvelle survient après que l'ancien ingénieur de Google, Blake Lemoine, a fait sensation en affirmant que le chatbot LaMDA AI de l'entreprise était devenu un "enfant" sensible que représentation légale méritée dans sa quête pour devenir une vraie personne.
Bien qu'il soit facile de rejeter ces affirmations, car les algorithmes d'IA deviennent très efficaces pour imiter les modèles de parole humaine – ou, peut-être, les délires d'un fou – l'expérience de Kuyda est symptomatique d'un problème beaucoup plus vaste.
"Nous devons comprendre que cela existe, tout comme les gens croient aux fantômes", a-t-elle déclaré à Reuters. "Les gens établissent des relations et croient en quelque chose."
Abus de chatbot
Ce n'est pas la première fois que nous rencontrons Replika à Futurism. Plus inquiétant encore, les chatbots semblent suffisamment réalistes pour devenir les fréquentes victimes d'insultes et de rhétorique violente.
Nous avons vu à quel point il est devenu facile pour les utilisateurs d'anthropomorphiser un algorithme - et les conséquences parfois préoccupantes que cela peut avoir.
Et cela pourrait être un problème à l'avenir, peu importe à quel point nous essayons de les convaincre du contraire.