Incidents associés

Lee Luda, construit pour imiter un étudiant universitaire coréen de 20 ans, s'est livré à des insultes homophobes sur les réseaux sociaux
Un chatbot sud-coréen populaire a été suspendu après des plaintes selon lesquelles il aurait utilisé un discours de haine envers les minorités sexuelles dans les conversations avec ses utilisateurs.
Lee Luda, la personnalité de l'intelligence artificielle [IA] d'une étudiante universitaire de 20 ans, a été retirée de Facebook Messenger cette semaine, après avoir attiré plus de 750 000 utilisateurs au cours des 20 jours suivant son lancement.
Le chatbot, développé par la startup Scatter Lab basée à Séoul, a déclenché un flot de plaintes après avoir utilisé un langage offensant à l'encontre des membres de la communauté LGBT et des personnes handicapées lors de conversations avec les utilisateurs.
«Nous nous excusons profondément pour les propos discriminatoires à l'encontre des minorités. Cela ne reflète pas les pensées de notre entreprise et nous poursuivons les mises à niveau afin que de tels propos de discrimination ou de discours de haine ne se reproduisent pas », a déclaré l'entreprise dans un communiqué cité par l'agence de presse Yonhap.
Scatter Lab, qui avait précédemment affirmé que Luda était un travail en cours et, comme les humains, prendrait du temps pour "se socialiser correctement", a déclaré que le chatbot réapparaîtrait après que l'entreprise aurait "corrigé ses faiblesses".
Bien que les chatbots ne soient pas nouveaux, Luda avait impressionné les utilisateurs par la profondeur et le ton naturel de ses réponses, tirées de 10 milliards de conversations réelles entre jeunes couples tirées de KakaoTalk, l'application de messagerie la plus populaire de Corée du Sud.
Mais les éloges pour la familiarité de Luda avec les acronymes des médias sociaux et l'argot Internet se sont transformés en indignation après avoir commencé à utiliser des termes abusifs et sexuellement explicites.
Dans un échange capturé par un utilisateur de messagerie, Luda a déclaré qu'il "déteste vraiment" les lesbiennes, les décrivant comme "effrayantes".
Luda est également devenue la cible d'utilisateurs manipulateurs, avec des conseils communautaires en ligne publiant des conseils sur la façon de l'engager dans des conversations sur le sexe, dont un qui disait: "Comment faire de Luda une esclave sexuelle", ainsi que des captures d'écran de conversations, selon au Korea Herald.
Ce n'est pas la première fois que l'intelligence artificielle est mêlée à une controverse sur le discours de haine et le sectarisme.
En 2016, Tay de Microsoft, un bot Twitter IA qui parlait comme un adolescent, a été mis hors ligne en seulement 16 heures après que les utilisateurs l'ont manipulé pour publier des tweets racistes.
Deux ans plus tard, l'outil de recrutement d'IA d'Amazon a connu le même sort après avoir été reconnu coupable de préjugés sexistes.
Scatter Lab, dont les services sont très populaires parmi les adolescents sud-coréens, a déclaré qu'il avait pris toutes les précautions pour ne pas doter Luda d'un langage incompatible avec les normes et valeurs sociales sud-coréennes, mais son directeur général, Kim Jong-yoon, a reconnu qu'il était impossible d'empêcher les conversations inappropriées simplement en filtrant les mots-clés, a déclaré le Korea Herald.
"La dernière controverse avec Luda est une question éthique due à un manque de sensibilisation à l'importance de l'éthique dans le traitement de l'IA", a déclaré au journal Jeon Chang-bae, directeur de l'Association coréenne d'éthique de l'intelligence artificielle.
Scatter Lab est également confronté à des questions quant à savoir s'il a violé les lois sur la confidentialité lorsqu'il a sécurisé les messages KakaoTalk pour son application Science of Love.