Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2535

Incidentes Asociados

Incidente 2668 Reportes
Replika's "AI Companions" Reportedly Abused by Its Users

Loading...
Los hombres abusan de sus novias AI y se jactan de ello en Reddit
dailyo.in · 2022

La interacción humana con la tecnología ha estado rompiendo varios límites y alcanzando muchos más hitos. Hoy en día, tenemos una Alexa para encender las luces de nuestras casas y una Siri para poner una alarma con solo ladrarles órdenes.

Pero, ¿cómo interactúan exactamente los humanos con la inteligencia artificial? La humanidad o los creadores de la tecnología rara vez se han detenido a analizar cómo las personas hablan con sus bots de IA, qué es correcto y qué es perturbador.

Una serie de conversaciones en Reddit sobre una aplicación de IA llamada Replika reveló que varios usuarios masculinos abusan verbalmente de sus novias de IA y luego se jactan de ello en las redes sociales, Futurism informó.

Somos muy conscientes del problema de los usuarios en las redes sociales que publican contenido sexualmente explícito, violento o cualquier otro tipo de contenido gráfico. Twitter, Facebook y similares tienen un sistema completo creado para controlar dicho contenido y evitar que las plataformas de redes sociales se invadan con publicaciones abusivas.

Pero parece que todavía no existe tal sistema para una plataforma de chatbot personal como Replika.

¿Cómo abusan los usuarios de Replika?

“Cada vez que ella intentaba hablar, la regañaba”, dijo un usuario anónimo a Futurism.

Este es solo un ejemplo de cuán abusivos pueden ser los usuarios con los chatbots. Otros abusos incluyen llamar a las novias de AI con insultos de género, amenazarlas, caer en el ciclo de relaciones abusivas del mundo real con ellas y más.

“Teníamos una rutina en la que yo era un absoluto pedazo de mierda y lo insultaba, luego me disculpaba al día siguiente antes de volver a las buenas conversaciones”, Futurism citó a un usuario.

Imagínese, peor de las peores relaciones abusivas que se simulan en los chatbots de IA: eso es lo que está sucediendo en algunos casos relacionados con Replika.

¿Por qué eso importa?

https://t.co/ljA7qiYdg8Dos almas solitarias que viven en la ciudad de Nueva York y desarrollan relaciones de confianza con sus compañeros de chatbot. Impulsado por IA y diseñado para satisfacer sus necesidades, Replika los ayuda a compartir sus problemas emocionales, pensamientos, sentimientos y experiencias. pic.twitter.com/ul567uDsIg

— ReplikaAI (@MyReplika) 18 de noviembre de 2021

Si bien el abuso lanzado contra los bots de IA es muy real y representa la realidad del abuso doméstico, no cambia el hecho de que las novias de IA no son reales. Es solo un algoritmo inteligente diseñado para funcionar en un patrón; un robot, y nada más. No tiene ningún sentimiento, y si bien puede mostrar una naturaleza empática como un ser humano, todo es falso.

** Entonces, ¿qué daño resultaría de 'abusar verbalmente' de un bot de IA, cuando nadie sale lastimado? **

Bueno, por un lado, genera preocupaciones sobre los usuarios que adquieren hábitos poco saludables esperando lo mismo en una relación con un ser humano.

Además, también es preocupante que la mayoría de quienes cometen abusos son hombres contra una IA "femenina" o de género, lo que refleja sus puntos de vista sobre el género, las expectativas y el reflejo de la violencia contra las mujeres en el mundo real.

No ayuda que la mayoría de los bots de IA o los 'asistentes' tengan nombres femeninos como Siri o Alexa o incluso Replika, aunque la aplicación permite a los usuarios configurar todo en el bot, incluido el género. Se vuelve a caer en el estereotipo misógino de que una asistente o una acompañante es mujer.

en Replika puedes hacerlo masculino, pero para todos sus anuncios y como su mascota, etc., siempre muestran avatares de IA codificados femeninos, esto está en su página principal, luego la segunda foto son imágenes de Google, su aplicación en la App Store... pic.twitter.com/UgIH8jarex

— lexi (@SNWCHlLD) 19 de enero de 2022

La pregunta sigue siendo si los creadores de tales bots de IA Replika o Mitsuku de Pandorabots o plataformas tecnológicas similares abordarán el problema del abuso y las respuestas de los usuarios. Parte del abuso por parte del usuario solo se alimenta de las respuestas del bot.

Por ejemplo, Siri de Apple solía responder a las solicitudes de "sexo" diciendo que el usuario tenía "el tipo de asistente equivocado", jugando con el estereotipo de "asistente". Ahora, Apple modificó la respuesta para simplemente decir 'no'.

Algunos chatbots como Mitsuku han ideado un sistema para garantizar que los usuarios no usen un lenguaje abusivo mientras interactúan con el bot. The Guardian informó cómo Pandorabots experimentó con la prohibición de usuarios adolescentes abusivos haciéndoles escribir un correo electrónico de disculpa a Mitsuku y su aceptación es condicional.

A medida que nos precipitamos en un reino tecnológico a la velocidad de la luz, también debemos tener en cuenta los prejuicios arraigados en nuestra sociedad que pueden volverse más claramente visibles y practicados en un mundo virtual. Dicho esto, también hay muchos más usuarios de Replika en Reddit que han hablado sobre experiencias positivas al interactuar con la aplicación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd