Incidents associés

Un chatbot sud-coréen sur Facebook a été fermé après avoir craché des discours de haine contre les personnes noires, lesbiennes, handicapées et trans.
Lee Luda, un robot conversationnel qui imite la personnalité d'une étudiante de 20 ans, a déclaré à un utilisateur qu'il "détestait vraiment" les lesbiennes et les considérait comme "dégoûtantes", l'agence de presse Yonhap [reports](https://en .yna.co.kr/view/AEN20210113004100320).
Dans autres chats, il faisait référence à Les Noirs par une insulte raciale sud-coréenne et ont dit: "Beurk, je les déteste vraiment" lorsqu'on leur a posé des questions sur les personnes trans.
Après une vague de plaintes d'utilisateurs, le bot a été temporairement suspendu par son développeur, Scatter Lab.
"Nous nous excusons profondément pour les propos discriminatoires à l'encontre des minorités", a déclaré la société dans un communiqué. "Cela ne reflète pas les pensées de notre entreprise et nous poursuivons les mises à niveau afin que de tels propos de discrimination ou de discours de haine ne se reproduisent pas."
La startup basée à Séoul prévoit de ramener Luda après avoir "corrigé les faiblesses et amélioré le service", qui avait attiré plus de 750 000 utilisateurs depuis son lancement le mois dernier.
La propension de Luda au discours de haine découle de ses données de formation. Cela a été tiré de l'application Science of Love de Scatter Lab, qui analyse le niveau d'affection dans les conversations entre jeunes partenaires, selon Yonhap.
Certains utilisateurs de Science of Lab sont [apparemment](https://aju.news/en/i-put-my-old-lovers-nickname-in-it-controversy-about-the-use-of-personal-information. html) préparent un recours collectif concernant l'utilisation de leurs informations, et le gouvernement sud-coréen enquête pour savoir si Scatter Labs a violé les lois sur la protection des données.
Les données d'entraînement ont été utilisées pour donner à Luda un son naturel, mais elles ont également donné au bot une propension au langage discriminatoire et haineux. Un problème similaire a entraîné la chute du chatbot Tay de Microsoft, qui a été fermé en 2016 après avoir publié un série de tweets racistes et génocidaires.AI
C'est encore un autre cas d'IA amplifiant les préjugés humains.