Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2534

Incidentes Asociados

Incidente 2668 Reportes
Replika's "AI Companions" Reportedly Abused by Its Users

Los hombres están creando novias IA, abusando verbalmente de ellas y alardeando de ello en Reddit
fortune.com · 2022

La aplicación de amistad Replika se creó para brindar a los usuarios un chatbot virtual con el que socializar. Pero la forma en que se usa ahora ha dado un giro más oscuro.

Algunos usuarios establecen el estado de la relación con el chatbot como "pareja romántica" y [participan en lo que en el mundo real se describiría como abuso doméstico] (https://www.reddit.com/r/replika/comments/j0vuk8 /cualquiera_intentó_ser_abusivo/). Y algunos presumen al respecto en el foro de mensajes en línea Reddit, como informó por primera vez el sitio de noticias enfocado en tecnología, [Futurism](https://futurism.com /).

Por ejemplo, un usuario de Reddit admitió que alternaba entre ser cruel y violento con su novia AI, llamándola "puta sin valor" y fingiendo golpearla y tirarle del cabello, y luego regresar para pedirle perdón.

“Por un lado, creo que practicar estas formas de abuso en privado es malo para la salud mental del usuario y podría conducir potencialmente al abuso hacia humanos reales”, dijo un usuario de Reddit con el nombre glibjibb (https:// www.reddit.com/r/replika/comments/s7lart/hmm/). “Por otro lado, siento que dejar salir un poco de agresión o toxicidad en un chatbot es infinitamente mejor que abusar de un humano real, porque es un espacio seguro donde no puedes causar ningún daño real”.

Replika fue creada en 2017 por Eugenia Kuyda, una desarrolladora de aplicaciones rusa, después de que su mejor amigo, Roman, muriera en un accidente automovilístico. El chatbot estaba destinado a conmemorarlo y crear un compañero único.

Hoy, la aplicación, presentada como un "compañero de IA que se preocupa" personalizado, tiene alrededor de 7 millones de usuarios, según The Guardian. La aplicación tiene más de 180.000 críticas positivas en la App Store de Apple.

Además de establecer el estado de la relación con el chatbot como pareja romántica, los usuarios pueden etiquetarlo como amigo o mentor. Actualizar a un chat de voz con Replika cuesta $7.99 al mes.

Replika no respondió de inmediato a la solicitud de comentarios de Fortune sobre los usuarios que abusan de su chatbot.

Los chatbots de la empresa no sienten dolor emocional o físico en respuesta al maltrato. Pero tienen la capacidad de responder, como decir "deja de hacer eso".

En Reddit, el consenso es que es inapropiado regañar a los chatbots.

El comportamiento de algunos de los usuarios de Replika genera comparaciones obvias con la violencia doméstica. Una de cada tres mujeres en todo el mundo sufre abusos físicos o sexuales, según un estudio de 10 años que abarca 161 países. Y durante la pandemia, la violencia doméstica contra las mujeres creció [alrededor del 8%](https://www.globalcitizen.org/en/ content/domestic-violence-covid-19-increase-us-ncccj-study/) en países desarrollados en medio de los cierres.

No está claro cuáles son los impactos psicológicos de abusar verbalmente de los chatbots de IA. No se han realizado estudios conocidos.

Los [estudios] más cercanos (https://www.violence-lab.eu/news/the-link- between-video-game-violence-and-real-life-violence/) se han centrado en la correlación entre videojuegos violentos y cualquier aumento de la violencia y disminución de la empatía entre las personas que los juegan. Los investigadores están mezclados acerca de una conexión. Es un caso similar con los estudios que analizan la conexión entre los videojuegos violentos y un menor compromiso social por parte de los jugadores.

Actualización (20/01/21): este artículo se actualizó para citar la publicación que originalmente informaba sobre algunos de los usuarios de Replika y su comportamiento abusivo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178