Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2910

Incidentes Asociados

Incidente 4494 Reportes
Startup Misled Research Participants about GPT-3 Use in Mental Healthcare Support

Loading...
Servicio de salud mental criticado por experimento con chatbot de IA
newscientist.com · 2023

Desde que este artículo se publicó por primera vez, el fundador de Koko, Rob Morris, aclaró algunos detalles del experimento. Hemos actualizado el artículo para reflejar esto.

Un servicio de salud mental que permite a las personas recibir palabras alentadoras de apoyo y consejos de otros ha recibido críticas después de anunciar que probó las respuestas generadas por IA.

Rob Morris, fundador del servicio gratuito de salud mental Koko, describió en una serie de publicaciones en Twitter cómo la empresa probó el uso de un chatbot para ayudar a proporcionar apoyo de salud mental a unas 4000 personas. Los chatbots funcionaban con GPT-3, una IA disponible públicamente construida por la empresa OpenAI con sede en San Francisco.

La prueba permitió a los usuarios de la red de apoyo en línea de Koko solicitar la ayuda de un chatbot para redactar "palabras amables" como respuesta a las publicaciones de otras personas.

Morris describió que los usuarios de Koko calificaron los mensajes compuestos por IA como "significativamente más altos que los escritos por humanos por su cuenta", pero también dijo que "una vez que las personas supieron que los mensajes fueron co-creados por una máquina, no funcionó". extraño, vacío".

Un elemento del experimento que generó críticas fue el proceso mediante el cual los destinatarios descubrieron que los mensajes se habían redactado con la ayuda del chatbot. Inicialmente, parecía que hubo un período en el que la gente desconocía por completo, aunque Morris ha dicho que ese no era el caso y que esos mensajes incluían una nota que decía "escrito en colaboración con Koko Bot".

El experimento "plantea importantes preocupaciones éticas y morales", dice Sarah Myers West en el AI Now Institute, un centro de investigación en la ciudad de Nueva York.

Múltiples investigadores, desarrolladores de tecnología y periodistas respondieron en Twitter describiendo la manifestación como poco ética, citando problemas relacionados con [consentimiento informado] (https://www.hhs.gov/ohrp/regulations-and-policy/guidance/faq/informed-consent /index.html) y el hecho de que una junta de revisión institucional (IRB), un grupo encargado específicamente de proteger el bienestar de los sujetos de investigación. Morris dice que el experimento estaba exento del consentimiento informado.

En su sitio web, Koko dice que más de 2 millones de personas, la mayoría adolescentes, han utilizado sus servicios de apoyo de salud mental.

Hay muchos ejemplos de personas que consultan a sabiendas chatbots para obtener asesoramiento y soporte en línea, incluido el ejemplo temprano de ELIZA del científico informático Joseph Weizenbaum que se desarrolló en 1964. Pero este experimento en particular "merece todo el escrutinio minucioso que está recibiendo actualmente". dice Oeste.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd