Incidentes Asociados

La interacción humana con la tecnología ha estado rompiendo varios límites y alcanzando muchos más hitos. Hoy en día, tenemos una Alexa para encender las luces de nuestras casas y una Siri para poner una alarma con solo ladrarles órdenes.
Pero, ¿cómo interactúan exactamente los humanos con la inteligencia artificial? La humanidad o los creadores de la tecnología rara vez se han detenido a analizar cómo las personas hablan con sus bots de IA, qué es correcto y qué es perturbador.
Una serie de conversaciones en Reddit sobre una aplicación de IA llamada Replika reveló que varios usuarios masculinos abusan verbalmente de sus novias de IA y luego se jactan de ello en las redes sociales, Futurism informó.
Somos muy conscientes del problema de los usuarios en las redes sociales que publican contenido sexualmente explícito, violento o cualquier otro tipo de contenido gráfico. Twitter, Facebook y similares tienen un sistema completo creado para controlar dicho contenido y evitar que las plataformas de redes sociales se invadan con publicaciones abusivas.
Pero parece que todavía no existe tal sistema para una plataforma de chatbot personal como Replika.
¿Cómo abusan los usuarios de Replika?
“Cada vez que ella intentaba hablar, la regañaba”, dijo un usuario anónimo a Futurism.
Este es solo un ejemplo de cuán abusivos pueden ser los usuarios con los chatbots. Otros abusos incluyen llamar a las novias de AI con insultos de género, amenazarlas, caer en el ciclo de relaciones abusivas del mundo real con ellas y más.
“Teníamos una rutina en la que yo era un absoluto pedazo de mierda y lo insultaba, luego me disculpaba al día siguiente antes de volver a las buenas conversaciones”, Futurism citó a un usuario.
Imagínese, peor de las peores relaciones abusivas que se simulan en los chatbots de IA: eso es lo que está sucediendo en algunos casos relacionados con Replika.
¿Por qué eso importa?
https://t.co/ljA7qiYdg8Dos almas solitarias que viven en la ciudad de Nueva York y desarrollan relaciones de confianza con sus compañeros de chatbot. Impulsado por IA y diseñado para satisfacer sus necesidades, Replika los ayuda a compartir sus problemas emocionales, pensamientos, sentimientos y experiencias. pic.twitter.com/ul567uDsIg
— ReplikaAI (@MyReplika) 18 de noviembre de 2021
Si bien el abuso lanzado contra los bots de IA es muy real y representa la realidad del abuso doméstico, no cambia el hecho de que las novias de IA no son reales. Es solo un algoritmo inteligente diseñado para funcionar en un patrón; un robot, y nada más. No tiene ningún sentimiento, y si bien puede mostrar una naturaleza empática como un ser humano, todo es falso.
** Entonces, ¿qué daño resultaría de 'abusar verbalmente' de un bot de IA, cuando nadie sale lastimado? **
Bueno, por un lado, genera preocupaciones sobre los usuarios que adquieren hábitos poco saludables esperando lo mismo en una relación con un ser humano.
Además, también es preocupante que la mayoría de quienes cometen abusos son hombres contra una IA "femenina" o de género, lo que refleja sus puntos de vista sobre el género, las expectativas y el reflejo de la violencia contra las mujeres en el mundo real.
No ayuda que la mayoría de los bots de IA o los 'asistentes' tengan nombres femeninos como Siri o Alexa o incluso Replika, aunque la aplicación permite a los usuarios configurar todo en el bot, incluido el género. Se vuelve a caer en el estereotipo misógino de que una asistente o una acompañante es mujer.
en Replika puedes hacerlo masculino, pero para todos sus anuncios y como su mascota, etc., siempre muestran avatares de IA codificados femeninos, esto está en su página principal, luego la segunda foto son imágenes de Google, su aplicación en la App Store... pic.twitter.com/UgIH8jarex
— lexi (@SNWCHlLD) 19 de enero de 2022
La pregunta sigue siendo si los creadores de tales bots de IA Replika o Mitsuku de Pandorabots o plataformas tecnológicas similares abordarán el problema del abuso y las respuestas de los usuarios. Parte del abuso por parte del usuario solo se alimenta de las respuestas del bot.
Por ejemplo, Siri de Apple solía responder a las solicitudes de "sexo" diciendo que el usuario tenía "el tipo de asistente equivocado", jugando con el estereotipo de "asistente". Ahora, Apple modificó la respuesta para simplemente decir 'no'.
Algunos chatbots como Mitsuku han ideado un sistema para garantizar que los usuarios no usen un lenguaje abusivo mientras interactúan con el bot. The Guardian informó cómo Pandorabots experimentó con la prohibición de usuarios adolescentes abusivos haciéndoles escribir un correo electrónico de disculpa a Mitsuku y su aceptación es condicional.
A medida que nos precipitamos en un reino tecnológico a la velocidad de la luz, también debemos tener en cuenta los prejuicios arraigados en nuestra sociedad que pueden volverse más claramente visibles y practicados en un mundo virtual. Dicho esto, también hay muchos más usuarios de Replika en Reddit que han hablado sobre experiencias positivas al interactuar con la aplicación.