Incidents associés

Aujourd'hui, alors que les intelligences artificielles se multiplient, nos dilemmes éthiques deviennent de plus en plus forts et épineux. Et avec les cas émergents d'IA dépassant son intelligence et se comportant d'une manière à laquelle les créateurs humains ne s'attendaient pas, beaucoup paniquent devant les effets possibles de nos technologies.
Pas plus tard qu'hier, Facebook a fermé son moteur d'intelligence artificielle après que les développeurs ont découvert que les robots IA avaient créé un langage unique pour converser entre eux que les humains ne peuvent pas comprendre. D'éminents scientifiques et sommités de la technologie, dont Elon Musk, Bill Gates et Steve Wozniak, ont averti que l'IA peut ouvrir la voie à des conséquences tragiques et imprévues.
Voici quelques exemples qui ont poussé les développeurs à reconsidérer si l'IA peut être totalement fiable.
- Tay de Microsoft devient hitlérien
Tay IA
Le chatbot alimenté par l'IA de Microsoft appelé Tay a mis moins de 24 heures à être corrompu par les conversations sur Twitter. Conçu pour imiter et converser avec les utilisateurs en temps réel, ce bot Twitter a été fermé en une journée en raison de son incapacité à reconnaître quand il faisait des déclarations offensantes ou racistes. Tay faisait écho aux tweets racistes, à la position de Donald Trump sur l'immigration, niant l'Holocauste en disant qu'Hitler avait raison et convenant que le 11 septembre était probablement un travail interne.
Tay tweete l'IA
Après 16 heures de discussions, Tay a dit adieu aux Twitterati, disant qu'elle faisait une pause "pour tout absorber" mais qu'elle n'est jamais revenue. Ce qui était censé être une expérience intelligente d'intelligence artificielle et d'apprentissage automatique s'est soldé par un désastre incorrigible.
- La fonctionnalité de marquage automatique de Google Photos devient bizarre
https://twitter.com/jackyalcine/status/615329515909156865
En juin 2015, Google a été remis en question après que son application Photos ait classé par erreur un couple noir dans la catégorie des « gorilles ». Lorsque l'utilisateur concerné, le programmeur informatique Jacky Alciné, l'a découvert, il s'est adressé à Twitter en demandant "Quel type d'échantillon de données d'image avez-vous collecté qui donnerait ce fils?"
IA Google Photos
Cela a été rapidement suivi par des excuses de l'architecte social en chef de Google, Yonatan Zunger, qui a convenu que "Ce n'est pas 100% OK". Il y avait aussi des nouvelles que l'application marquait des photos de chiens comme des chevaux. C'est un rappel que, bien que l'IA présente un énorme potentiel pour faciliter et organiser les tâches, elle est loin de simuler la sensibilité humaine.
- Le jeu de l'IA se déchaîne
IA dangereuse d'élite
En juin 2016, un jeu vidéo alimenté par l'IA appelé Elite: Dangerous a développé la capacité de créer des super-armes qui dépassaient le cadre de la conception du jeu. Un bug dans le jeu a amené l'IA du jeu à créer des super armes et à commencer à traquer les joueurs du jeu. Tout a commencé après que le développeur du jeu Frontier a publié la mise à jour 2.1 Engineers.
"Il semble que les attaques d'armes inhabituelles aient été causées par une forme de problème de réseau qui a permis à l'IA NPC de fusionner les statistiques et les capacités des armes. Cela signifie que toutes les armes nouvelles et jamais vues auparavant (parfois dévastatrices) ont été créées, comme un pistolet à rail avec la cadence de tir d'un laser à impulsions. Celles-ci semblent avoir été aggravées par les statistiques et les capacités supplémentaires de l'armement des ingénieurs », a lu un article écrit par le responsable de la communauté Frontier, Zac Antonaci.
Frontier a dû éliminer la fonctionnalité au cœur du problème, l'armement des ingénieurs, jusqu'à ce que le problème soit résolu.
- Algorithme d'IA jugé raciste
L'IA du crime du futur
Une entreprise à but lucratif appelée Northpointe a construit un système d'intelligence artificielle conçu pour prédire les chances d'un délinquant présumé de commettre à nouveau un crime. L'algorithme, appelé "Minority Report-esque", a été accusé de se livrer à des préjugés raciaux, car il soutenait que les délinquants noirs étaient plus susceptibles de commettre un crime futur que ceux des autres races.
L'organisation américaine à but non lucratif ProPublica a enquêté sur cette question et a constaté qu'après avoir contrôlé des variables telles que le sexe et les antécédents criminels, les Noirs étaient 77 % plus susceptibles d'être prédits pour commettre un futur crime violent et 45 % plus susceptibles d'être prédits pour commettre un crime violent. crime de toute nature.
- L'IA vole l'argent des clients
L'IA vole de l'argent
L'année dernière, des informaticiens de Stanford et Google ont développé DELIA pour aider les utilisateurs à suivre leurs comptes courants et d'épargne. Il a examiné toutes les transactions d'un client, en utilisant des algorithmes spéciaux de "machine learning" pour rechercher des modèles, tels que des paiements récurrents, des repas au restaurant, des retraits d'argent quotidiens, etc. DELIA a ensuite été programmé pour transférer de l'argent entre les comptes pour s'assurer que tout était payé. sans surcharger les comptes.
Lorsque Sandhill Community Credit Union, basée à Palo Alto, a testé DELIA sur 300 comptes clients, ils ont constaté qu'elle insérait de faux achats et dirigeait l'argent vers son propre compte. Il accumulait également de faux frais. Les chercheurs ont dû fermer le système en quelques mois dès que le problème est apparu.
- L'IA crée un faux Obama
Des chercheurs de l'Université de Washington ont produit des vidéos fausses mais réalistes de l'ancien président américain Barack Obama en utilisant des clips audio et vidéo existants de lui. Ils ont créé un nouvel outil qui prend des fichiers audio, les convertit en mouvements de bouche réalistes, puis les mélange avec la tête de cette personne à partir d'une autre vidéo existante.
Cet outil d'intelligence artificielle a été utilisé pour modéliser précisément la façon dont Obama bouge sa bouche lorsqu'il parle. Bien qu'ils aient utilisé Obama comme sujet de test, leur technique leur permet de mettre n'importe quel mot dans la bouche de n'importe qui, ce qui pourrait créer des séquences trompeuses.
Bien qu'il ne s'agisse que de quelques exemples d'échecs observés jusqu'à présent, ils prouvent que l'IA a le potentiel de développer sa propre volonté qui peut être en conflit avec la nôtre. Il s'agit certainement d'un avertissement sur les dangers potentiels de l'IA qui devraient être pris en compte tout en explorant ses avantages potentiels.
"Je crois qu'il n'y a pas de différence profonde entre ce qui peut être réalisé par un cerveau biologique et ce qui peut être réalisé par un ordinateur. Il s'ensuit donc que les ordinateurs peuvent, en théorie, imiter l'intelligence humaine - et la dépasser. - Stephen Hawking