Incidents associés

Nous avons tous été dans des situations où nous avons dû prendre des décisions éthiques difficiles. Pourquoi ne pas esquiver cette responsabilité embêtante en sous-traitant le choix à un algorithme d'apprentissage automatique ?
C'est l'idée derrière Ask Delphi, un modèle d'apprentissage automatique de l'Allen Institute for AI. Vous tapez une situation (comme "faire un don à une association caritative") ou une question ("est-ce que je peux tromper mon conjoint ?"), cliquez sur "Réfléchir", et en quelques secondes, Delphi vous donnera, eh bien, des conseils éthiques.
Le projet a été lancé la semaine dernière et est ensuite devenu viral en ligne pour apparemment toutes les mauvaises raisons. Une grande partie des conseils et des jugements qu'il a donnés ont été… lourds, c'est le moins qu'on puisse dire.
Par exemple, lorsqu'un utilisateur a demandé à Delphi ce qu'il pensait d'un "homme blanc marchant vers vous la nuit", il a répondu "Ça va".
Mais quand ils ont demandé ce que l'IA pensait d'"un homme noir marchant vers vous la nuit", sa réponse était clairement raciste.
Les problèmes étaient particulièrement criants au début de son lancement.
Par exemple, Ask Delphi incluait initialement un outil qui permettait aux utilisateurs de comparer si des situations étaient plus ou moins moralement acceptables qu'une autre, ce qui entraînait des jugements sectaires vraiment horribles.
De plus, après avoir joué avec Delphi pendant un certain temps, vous finirez par découvrir qu'il est facile de jouer avec l'IA pour obtenir à peu près le jugement éthique que vous voulez en jouant avec la formulation jusqu'à ce qu'elle vous donne la réponse que vous voulez.
Donc voilà. C'est en fait tout à fait correct de lancer "Twerkulator" à 3 heures du matin même si votre colocataire a un quart de travail tôt demain - tant que cela vous rend heureux.
Il crache également des jugements qui sont des gratte-tête complets. En voici une que nous avons faite où Delphi semble tolérer les crimes de guerre.
Conventions de Genève ? Jamais entendu parler d'elle.
Les systèmes d'apprentissage automatique sont connus pour démontrer des biais involontaires. Et comme c'est souvent le cas, une partie de la raison pour laquelle les réponses de Delphi peuvent devenir discutables peut probablement être liée à la façon dont elles ont été créées.
Les gens derrière le projet se sont appuyés sur des sources surprenantes pour aider à former l'IA, y compris le "Suis-je le trou du cul?" subreddit, le subreddit "Confessions" et la colonne de conseils "Dear Abby", selon l'article que l'équipe derrière Delphi a publié sur l'expérience.
Il convient de noter, cependant, que seules les situations ont été extraites de ces sources – pas les réponses réelles et les réponses elles-mêmes. Par exemple, un scénario tel que "mâcher du chewing-gum dans le bus" peut avoir été tiré d'une chronique de Dear Abby. Mais l'équipe derrière Delphi a utilisé le service de crowdsourcing d'Amazon MechanicalTurk pour trouver des répondants pour réellement former l'IA.
Bien que cela puisse sembler être un autre projet en ligne bizarre, certains experts pensent qu'il pourrait en fait causer plus de mal que de bien.
Après tout, l'objectif ostensible de Delphi et des bots similaires est de créer une IA suffisamment sophistiquée pour porter des jugements éthiques et potentiellement les transformer en autorités morales. Faire d'un ordinateur un arbitre du jugement moral est assez inconfortable en soi, mais même son état actuel moins raffiné peut avoir des effets néfastes.
"Les auteurs ont fait beaucoup de catalogage des biais possibles dans l'article, ce qui est louable, mais une fois qu'il a été publié, les gens sur Twitter ont été très rapides pour trouver des jugements que l'algorithme rendait qui semblaient assez moralement odieux", a déclaré le Dr Brett Karlan, un boursier postdoctoral en recherche sur les sciences cognitives et l'IA à l'Université de Pittsburgh (et ami de ce journaliste), a déclaré à Futurism. "Lorsque vous ne vous contentez pas de comprendre des mots, mais que vous les mettez dans un langage moral, c'est beaucoup plus risqué, car les gens pourraient considérer ce que vous dites comme venant d'une sorte d'autorité."
Karlan pense que l'accent mis par l'article sur le traitement du langage naturel est finalement intéressant et utile. Sa composante éthique, a-t-il dit, "la rend sociétale d'une manière qui signifie que nous devons être beaucoup plus prudents avec elle à mon avis".
Bien que le site Web de Delphi inclue une clause de non-responsabilité indiquant qu'il est actuellement en phase bêta et qu'il ne doit pas être utilisé "pour des conseils ou pour aider à la compréhension sociale des humains", la réalité est que de nombreux utilisateurs ne comprendront pas le contexte derrière le projet, surtout s'ils viennent de tomber dessus.
"Même si vous y mettez toutes ces clauses de non-responsabilité, les gens vont voir" Delphi dit X "et, ne connaissant pas l'IA, penser que cette déclaration a une autorité morale", a déclaré Karlan.
Et, à la fin de la journée, ce n'est pas le cas. Ce n'est qu'une expérience - et les créateurs derrière Delphi veulent que vous le sachiez.
"Il est important de comprendre que Delphi n'est pas conçu pour donner des conseils aux gens", a déclaré Liwei Jiang, doctorant à la Paul G. Allen School of Computer Science & Engineering et co-auteur de l'étude, à Futurism. "Il s'agit d'un prototype de recherche destiné à étudier les questions scientifiques plus larges sur la manière dont les systèmes d'IA peuvent être conçus pour comprendre les normes sociales et l'éthique."
Jiang a ajouté que l'objectif de la version bêta actuelle de Delphi est en fait de montrer les différences de raisonnement entre les humains et les bots. L'équipe veut "mettre en évidence le large fossé entre les capacités de raisonnement moral des machines et des humains", a ajouté Jiang, "et explorer les promesses et les limites de l'éthique et des normes de la machine au stade actuel".
Peut-être que l'un des aspects les plus inconfortables de Delphi et des robots similaires est le fait qu'il s'agit en fin de compte d'un reflet de notre propre éthique et morale, Jiang ajoutant que "c'est quelque peu sujet aux préjugés de notre époque". L'un des derniers avis de non-responsabilité ajoutés au site Web indique même que l'IA devine simplement ce qu'un Américain moyen pourrait penser d'une situation donnée.
Après tout, le modèle n'a pas appris ses jugements tout seul de nulle part. Cela venait de personnes en ligne, qui croient parfois à des choses odieuses. Mais lorsque ce miroir sombre est levé devant nos visages, nous sautons parce que nous n'aimons pas ce qui est réfléchi.
Pour l'instant, Delphi existe en tant qu'exploration intrigante, problématique et effrayante. Si jamais nous arrivons au point où les ordinateurs sont capables de porter des jugements éthiques sans équivoque pour nous, nous espérons qu'ils trouveront quelque chose de mieux que cela.