Incidents associés

Une IA conçue pour faire X finira par échouer à faire X. Les filtres anti-spam bloquent les e-mails importants, le GPS fournit des directions erronées, les traductions automatiques corrompent le sens des phrases, la correction automatique remplace un mot souhaité par un mot erroné, les systèmes biométriques reconnaissent mal les personnes, le logiciel de transcription échoue saisir ce qui est dit; dans l'ensemble, il est plus difficile de trouver des exemples d'IA qui n'échouent pas. Les échecs des IA à domaine étroit d'aujourd'hui ne sont que la pointe de l'iceberg ; une fois que nous aurons développé une intelligence artificielle générale capable de performances inter-domaines, l'embarras causé par de tels échecs sera le moindre de nos soucis. C'est pourquoi nous devons mettre en place les meilleures pratiques dès maintenant.
Lorsque vous êtes prêt à intégrer les technologies d'intelligence artificielle dans votre entreprise, l'analyse que vous devez effectuer est la suivante : qu'est-ce qui peut mal tourner ? Qu'est-ce que notre produit ou service est censé faire ? Que se passe-t-il s'il ne le fait pas ? Avons-nous un plan d'atténuation des dommages ? Considérez la situation embarrassante dans laquelle Microsoft s'est retrouvé avec son fiasco de chatbot Tay, où les trolls Internet ont exploité les vulnérabilités du code du bot, l'alimentant en contenu raciste, homophobe et sexiste que des millions de personnes lisent sur les réseaux sociaux.
Insight Center L'ère de l'IA Sponsorisé par Accenture Son impact sur les entreprises, l'industrie et la société.
Les accidents, y compris mortels, causés par des logiciels ou des robots industriels remontent aux débuts de ces technologies, mais ils ne sont pas nécessairement causés par les systèmes eux-mêmes. Les échecs de l'IA, en revanche, sont directement liés aux erreurs produites par l'intelligence que ces systèmes sont censés présenter. Nous pouvons globalement classer ces échecs en "erreurs commises pendant la phase d'apprentissage" et "erreurs commises pendant la phase de performance". Un système peut échouer à apprendre ce que ses concepteurs veulent qu'il apprenne et peut à la place apprendre une fonction différente, mais corrélée.
Un exemple fréquemment cité est un système de vision par ordinateur que l'armée américaine espérait utiliser pour détecter automatiquement les chars ennemis camouflés. Le système était censé classer les images de chars, mais a plutôt appris à distinguer les arrière-plans de ces images. D'autres exemples incluent des problèmes causés par des fonctions mal conçues qui récompenseraient les IA pour des comportements partiellement souhaitables, comme mettre en pause un jeu pour éviter de perdre, ou toucher à plusieurs reprises un ballon de football pour obtenir le crédit de possession.
Il peut être utile d'examiner quelques exemples récents d'échec de l'IA pour mieux comprendre quels problèmes sont susceptibles de survenir et ce que vous pouvez faire pour les prévenir - ou du moins pour nettoyer rapidement après un échec. Considérez ces exemples d'échecs de l'IA de ces dernières années :
2015 : Un générateur de réponses par e-mail automatisé a créé des réponses inappropriées, comme écrire "Je t'aime" à un collègue de travail.
2015 : Un robot pour attraper des pièces automobiles a attrapé et tué un homme.
2015 : Un logiciel de marquage d'images a classé les Noirs comme des gorilles.
2015 : Medical AI a classé les patients asthmatiques comme ayant un risque plus faible de mourir d'une pneumonie.
2015 : Le logiciel de filtrage de contenu pour adultes n'a pas réussi à supprimer le contenu inapproprié, exposant les enfants à du contenu violent et sexuel.
2016 : Une IA conçue pour prédire la récidive a agi de manière raciste.
2016 : Un agent IA a exploité un signal de récompense pour gagner un jeu sans réellement terminer le jeu.
2016 : Les PNJ de jeux vidéo (personnages non-joueurs ou tout personnage qui n'est pas contrôlé par un joueur humain) ont conçu des super-armes non autorisées.
2016 : AI a jugé un concours de beauté et a classé les candidats à la peau foncée plus bas.
2016 : Un robot de sécurité du centre commercial est entré en collision avec un enfant et l'a blessé.
2016 : L'IA « AlphaGo » a perdu contre un humain dans un jeu de « Go » de niveau championnat du monde.
2016 : Une voiture autonome a eu un accident mortel.
Et chaque jour, les consommateurs sont confrontés à des défauts plus courants de l'IA : les filtres anti-spam bloquent les e-mails importants, le GPS fournit des directions erronées, les traductions automatiques corrompent le sens des phrases, la correction automatique remplace un mot souhaité par un mot erroné, les systèmes biométriques reconnaissent mal les personnes, les logiciels de transcription ne parviennent pas à capturer ce qui est dit; dans l'ensemble, il est plus difficile de trouver des exemples d'IA qui n'échouent pas.
En analysant la liste des échecs de l'IA ci-dessus, nous pouvons arriver à une généralisation simple : une IA conçue pour faire X finira par échouer à faire X. Bien que cela puisse sembler trivial, c'est un puissant outil de généralisation, qui peut être utilisé pour prédire les futurs échecs. des IA. Par exemple, en examinant les IA de pointe actuelles et futures, nous pouvons prédire que :
Les médecins de l'IA mal diagnostiqueront certains patients d'une manière qu'un vrai médecin ne ferait pas.
Les logiciels de description vidéo comprendront mal les intrigues de films.
Les logiciels de génération de blagues échouent parfois à les rendre amusantes.
Un logiciel de détection de sarcasme confondra les déclarations sarcastiques et sincères.
Les logiciels de sélection des employés seront systématiquement biaisés et embaucheront donc des employés peu performants.
Le robot-explorateur de Mars jugera mal son environnement et tombera dans un cratère.
Le logiciel de préparation des déclarations manquera des déductions importantes ou en fera des inappropriées.
Que devriez-vous apprendre de l'ex ci-dessus