Incidents associés

La semaine dernière, Koko, une start-up spécialisée dans la santé mentale, a été vivement critiquée par le public pour avoir prétendument utilisé un chatbot d'intelligence artificielle pour dispenser des conseils en santé mentale sans obtenir le consentement éclairé des participants.
La controverse a commencé lorsque le co-fondateur de Koko, Rob Morris, a tweeté que le GPT-3 d'OpenAI était utilisé pour fournir un soutien en santé mentale à environ 4 000 personnes. Dans le fil de tweet, Morris a déclaré que les messages générés par l'IA étaient mieux notés que ceux écrits exclusivement par des humains mais, une fois que les utilisateurs ont appris que les messages étaient écrits par l'IA, le soutien à la santé mentale "n'a pas fonctionné" parce que "l'empathie simulée semble bizarre .” Les éthiciens et les utilisateurs de l'IA ont réagi négativement au tweet, à la fois en raison du manque apparent de consentement des utilisateurs de Koko et de l'utilisation d'un modèle de langage dans un contexte sensible.
Morris a déclaré qu'il croyait que l'expérience était exemptée des exigences de consentement éclairé, mais les experts en IA ont estimé que la nature sensible du soutien en santé mentale exige des considérations sur la responsabilité et les examens éthiques.
Ceci est encore un autre exemple de la zone grise autour de la conformité légale et de l'utilisation éthique de l'IA. Les entreprises qui ont l'intention d'utiliser l'IA doivent évaluer attentivement leurs obligations légales et, même lorsque le consentement n'est pas techniquement requis par la loi, réfléchir à ce à quoi un consommateur raisonnable pourrait s'attendre.