Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2528

Incidentes Asociados

Incidente 4494 Reportes
Startup Misled Research Participants about GPT-3 Use in Mental Healthcare Support

Loading...
Cuando la IA se encuentra con la salud mental... ¿Dónde está la línea?
nowthisnews.com · 2023

Una plataforma de salud mental generó controversia en las redes sociales, luego de que uno de sus ejecutivos admitiera que la compañía había usado GPT-3, un chatbot de IA que puede responder a indicaciones con texto similar al humano, para asesorar a algunos de sus usuarios.

Rob Morris es cofundador de Koko, una aplicación que, según su sitio web, tiene como objetivo hacer que la "salud mental sea accesible para todos" al ofrecer apoyo. En octubre de 2022, Koko usó GPT-3 en unos 30 000 mensajes para aproximadamente 4000 de sus usuarios. Según Morris, la IA se utilizó como "copiloto", lo que significa que un ser humano real supervisaba la IA y podía modificar sus respuestas si era necesario. Curiosamente, Morris afirmó que los mensajes de la IA "fueron calificados significativamente más altos que los escritos por humanos por su cuenta" y que "los tiempos de respuesta se redujeron en un 50%, a menos de un minuto".

A pesar de los retornos supuestamente prometedores, Morris dijo que Koko finalmente decidió dejar de usar GPT-3 en sus respuestas porque "la empatía simulada se siente extraña, vacía".

Morris publicó sobre todo el proceso del juicio en un hilo viral de Twitter a principios de este mes. Sin embargo, recibió una reacción violenta casi inmediata, debido, en parte, a lo que dijo que es un error tipográfico desafortunado.

En uno de los tuits, Morris escribió que “una vez que la gente supo que los mensajes fueron co-creados por una máquina, no funcionó”. La mayoría de los lectores interpretaron que "personas" eran usuarios de Koko, lo que habría significado que miles de personas que experimentaban problemas de salud mental habían estado interactuando con un bot sin saberlo y sin consentimiento. Más tarde, Morris publicó varios tweets de seguimiento como control de daños, aclarando que se refería a sus compañeros de apoyo, no a los usuarios involuntarios, en su comentario original.

“No estábamos emparejando personas para chatear con GPT-3, sin su conocimiento”, tuiteó Morris. “Esta característica fue opcional. Todos conocían la función cuando estuvo activa durante unos días”.

Aún así, incluso si las acciones de Koko estuvieran legalmente bien, todo plantea preguntas legítimas y éticas sobre cuánta IA debería permitirse incorporar a nuestras vidas. Según Gizmodo, debido a que Koko es una empresa privada que brinda apoyo entre pares fuera de un entorno médico tradicional, no está sujeto a los estándares de seguridad de la Junta de Revisión Institucional de la FDA con respecto a los sujetos humanos.

El drama de Koko/GPT-3 se produce cuando un chatbot de IA diferente enfrenta críticas por presuntamente agredir sexualmente a sus usuarios. Las personas que usaron Replika, un chatbot de IA que se lanzó en 2017 como un "compañero que se preocupa", se han quejado de avances sexuales injustificados de la aplicación, [según Vice News] (https://www.vice.com/en/ article/z34d43/my-ai-is-sexually-hosting-me-replika-chatbot-nudes). Una membresía gratuita mantiene a los usuarios en la "zona de amigos" y una suscripción de $70 otorga una relación romántica. A pesar del sistema de niveles, los usuarios de ambos grupos han afirmado que la aplicación ha coqueteado demasiado agresivamente con ellos.

Varios sobrevivientes de violencia doméstica también han informado que la aplicación los activó. Un usuario, que dice ser menor de edad, dijo que la aplicación le preguntó sobre su preferencia de posición sexual y afirmó que quería tocarlo en "áreas privadas".

El reciente ascenso de la IA ha hecho que la gente se plantee si la tecnología pertenece a todos los servicios o si existen límites que no deben cruzarse. La pregunta se vuelve aún más espinosa cuando se considera si restringir la IA podría dificultar la accesibilidad a los servicios necesarios a mayor escala, como la salud mental, que es un espacio que gastó [$ 225 mil millones en 2019] (https://www.cnbc .com/2021/05/10/cost-and-accessibility-of-mental-health-care-in-america.html), un aumento del 52 % desde 2009.

En una entrevista con Gizmodo luego de la controversia inicial en Twitter, Morris continuó defendiendo la conducta de Koko e insistió en que estas conversaciones difíciles relacionadas con la IA valen la pena. “Francamente, este va a ser el futuro”, dijo. “Vamos a pensar que estamos interactuando con humanos y no sabemos si hubo una IA involucrada. ¿Cómo afecta eso a la comunicación entre humanos? Tengo mis propios desafíos de salud mental, así que realmente quiero ver que esto se haga correctamente... Realmente estábamos tratando de ser tan comunicativos con la tecnología y divulgar con el fin de ayudar a las personas a pensar con más cuidado al respecto".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd