Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2533

Incidentes Asociados

Incidente 2668 Reportes
Replika's "AI Companions" Reportedly Abused by Its Users

Loading...
La empresa se queja de que los usuarios siguen pensando que su IA ha cobrado vida
futurism.com · 2022

La empresa de chatbots de inteligencia artificial Replika ha tenido suficiente de sus clientes pensando que sus avatares han cobrado vida.

Según la directora ejecutiva, Eugenia Kuyda, la empresa es contactada casi todos los días por usuarios que creen, en contra de [casi todas las pruebas existentes] (https://futurism.com/transcript-sentient-ai-edited), que sus modelos de IA se han vuelto inteligentes. .

"No estamos hablando de locos o personas que están alucinando o teniendo delirios", dijo Kuyda a Reuters](https://www.reuters.com/technology/its-alive-how-belief-ai-sentience-is -convirtiéndose-en-problema-2022-06-30/). “Hablan con la IA y esa es la experiencia que tienen”.

Volverse sensible

La noticia llega después de que el exingeniero de Google Blake Lemoine causara un gran revuelo al afirmar que el chatbot LaMDA AI de la compañía se había convertido en un "niño" inteligente que representación legal merecida en su búsqueda por convertirse en una persona real.

Si bien es fácil descartar estas afirmaciones porque los algoritmos de IA se vuelven realmente buenos para imitar los patrones del habla humana, o, tal vez, los delirios de un lunático, la experiencia de Kuyda es sintomática de un problema mucho mayor.

"Necesitamos entender que eso existe, tal como la gente cree en los fantasmas", dijo a Reuters. "La gente está construyendo relaciones y creyendo en algo".

Abuso de chatbots

No es la primera vez que nos encontramos con Replika en Futurism. Aún más preocupante, los chatbots parecen ser lo suficientemente realistas como para convertirse en [víctimas frecuentes de insultos y retórica violenta] (https://futurism.com/chatbot-abuse).

Hemos visto lo fácil que se ha vuelto para los usuarios antropomorfizar un algoritmo, y las consecuencias a veces preocupantes que puede tener.

Y eso podría ser un problema en el futuro, sin importar cuánto intentemos convencerlos de lo contrario.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd