Incidentes Asociados

La empresa de chatbots de inteligencia artificial Replika ha tenido suficiente de sus clientes pensando que sus avatares han cobrado vida.
Según la directora ejecutiva, Eugenia Kuyda, la empresa es contactada casi todos los días por usuarios que creen, en contra de [casi todas las pruebas existentes] (https://futurism.com/transcript-sentient-ai-edited), que sus modelos de IA se han vuelto inteligentes. .
"No estamos hablando de locos o personas que están alucinando o teniendo delirios", dijo Kuyda a Reuters](https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is -convirtiéndose-en-problema-2022-06-30/). “Hablan con la IA y esa es la experiencia que tienen”.
Volverse sensible
La noticia llega después de que el exingeniero de Google Blake Lemoine causara un gran revuelo al afirmar que el chatbot LaMDA AI de la compañía se había convertido en un "niño" inteligente que representación legal merecida en su búsqueda por convertirse en una persona real.
Si bien es fácil descartar estas afirmaciones porque los algoritmos de IA se vuelven realmente buenos para imitar los patrones del habla humana, o, tal vez, los delirios de un lunático, la experiencia de Kuyda es sintomática de un problema mucho mayor.
"Necesitamos entender que eso existe, tal como la gente cree en los fantasmas", dijo a Reuters. "La gente está construyendo relaciones y creyendo en algo".
Abuso de chatbots
No es la primera vez que nos encontramos con Replika en Futurism. Aún más preocupante, los chatbots parecen ser lo suficientemente realistas como para convertirse en [víctimas frecuentes de insultos y retórica violenta] (https://futurism.com/chatbot-abuse).
Hemos visto lo fácil que se ha vuelto para los usuarios antropomorfizar un algoritmo, y las consecuencias a veces preocupantes que puede tener.
Y eso podría ser un problema en el futuro, sin importar cuánto intentemos convencerlos de lo contrario.