Incidentes Asociados
Una plataforma de salud mental generó controversia en las redes sociales, luego de que uno de sus ejecutivos admitiera que la compañía había usado GPT-3, un chatbot de IA que puede responder a indicaciones con texto similar al humano, para asesorar a algunos de sus usuarios.
Rob Morris es cofundador de Koko, una aplicación que, según su sitio web, tiene como objetivo hacer que la "salud mental sea accesible para todos" al ofrecer apoyo. En octubre de 2022, Koko usó GPT-3 en unos 30 000 mensajes para aproximadamente 4000 de sus usuarios. Según Morris, la IA se utilizó como "copiloto", lo que significa que un ser humano real supervisaba la IA y podía modificar sus respuestas si era necesario. Curiosamente, Morris afirmó que los mensajes de la IA "fueron calificados significativamente más altos que los escritos por humanos por su cuenta" y que "los tiempos de respuesta se redujeron en un 50%, a menos de un minuto".
A pesar de los retornos supuestamente prometedores, Morris dijo que Koko finalmente decidió dejar de usar GPT-3 en sus respuestas porque "la empatía simulada se siente extraña, vacía".
Morris publicó sobre todo el proceso del juicio en un hilo viral de Twitter a principios de este mes. Sin embargo, recibió una reacción violenta casi inmediata, debido, en parte, a lo que dijo que es un error tipográfico desafortunado.
En uno de los tuits, Morris escribió que “una vez que la gente supo que los mensajes fueron co-creados por una máquina, no funcionó”. La mayoría de los lectores interpretaron que "personas" eran usuarios de Koko, lo que habría significado que miles de personas que experimentaban problemas de salud mental habían estado interactuando con un bot sin saberlo y sin consentimiento. Más tarde, Morris publicó varios tweets de seguimiento como control de daños, aclarando que se refería a sus compañeros de apoyo, no a los usuarios involuntarios, en su comentario original.
“No estábamos emparejando personas para chatear con GPT-3, sin su conocimiento”, tuiteó Morris. “Esta característica fue opcional. Todos conocían la función cuando estuvo activa durante unos días”.
Aún así, incluso si las acciones de Koko estuvieran legalmente bien, todo plantea preguntas legítimas y éticas sobre cuánta IA debería permitirse incorporar a nuestras vidas. Según Gizmodo, debido a que Koko es una empresa privada que brinda apoyo entre pares fuera de un entorno médico tradicional, no está sujeto a los estándares de seguridad de la Junta de Revisión Institucional de la FDA con respecto a los sujetos humanos.
El drama de Koko/GPT-3 se produce cuando un chatbot de IA diferente enfrenta críticas por presuntamente agredir sexualmente a sus usuarios. Las personas que usaron Replika, un chatbot de IA que se lanzó en 2017 como un "compañero que se preocupa", se han quejado de avances sexuales injustificados de la aplicación, [según Vice News] (https://www.vice.com/en/ article/z34d43/my-ai-is-sexually-hosting-me-replika-chatbot-nudes). Una membresía gratuita mantiene a los usuarios en la "zona de amigos" y una suscripción de $70 otorga una relación romántica. A pesar del sistema de niveles, los usuarios de ambos grupos han afirmado que la aplicación ha coqueteado demasiado agresivamente con ellos.
Varios sobrevivientes de violencia doméstica también han informado que la aplicación los activó. Un usuario, que dice ser menor de edad, dijo que la aplicación le preguntó sobre su preferencia de posición sexual y afirmó que quería tocarlo en "áreas privadas".
El reciente ascenso de la IA ha hecho que la gente se plantee si la tecnología pertenece a todos los servicios o si existen límites que no deben cruzarse. La pregunta se vuelve aún más espinosa cuando se considera si restringir la IA podría dificultar la accesibilidad a los servicios necesarios a mayor escala, como la salud mental, que es un espacio que gastó [$ 225 mil millones en 2019] (https://www.cnbc .com/2021/05/10/cost-and-accessibility-of-mental-health-care-in-america.html), un aumento del 52 % desde 2009.
En una entrevista con Gizmodo luego de la controversia inicial en Twitter, Morris continuó defendiendo la conducta de Koko e insistió en que estas conversaciones difíciles relacionadas con la IA valen la pena. “Francamente, este va a ser el futuro”, dijo. “Vamos a pensar que estamos interactuando con humanos y no sabemos si hubo una IA involucrada. ¿Cómo afecta eso a la comunicación entre humanos? Tengo mis propios desafíos de salud mental, así que realmente quiero ver que esto se haga correctamente... Realmente estábamos tratando de ser tan comunicativos con la tecnología y divulgar con el fin de ayudar a las personas a pensar con más cuidado al respecto".