Problème 2653

L'expression « intelligence artificielle » peut évoquer des images de machines capables de penser et d'agir, tout comme les humains, indépendamment de toute surveillance de personnes réelles, en chair et en os. Les versions cinématographiques de l'IA ont tendance à présenter des machines super intelligentes qui tentent de renverser l'humanité et de conquérir le monde.
La réalité est plus prosaïque et tend à décrire des logiciels qui peuvent résoudre des problèmes, trouver des modèles et, dans une certaine mesure, « apprendre ». Ceci est particulièrement utile lorsque d'énormes quantités de données doivent être triées et comprises, et l'IA est déjà utilisée dans une multitude de scénarios, en particulier dans le secteur privé.
Les exemples incluent les chatbots capables de mener une correspondance en ligne ; les sites d'achat en ligne qui apprennent à prédire ce que vous pourriez vouloir acheter ; et des journalistes d'IA écrivant des articles sur le sport et les affaires (cette histoire a été, je peux vous l'assurer, écrite par un humain).
Et, alors qu'un récent reportage en provenance d'Iran a ravivé les craintes concernant l'utilisation de robots tueurs (les autorités iraniennes ont affirmé qu'une « mitrailleuse dotée d'IA » avait été utilisée pour assassiner le scientifique nucléaire le plus haut placé du pays), des histoires négatives liées à l'IA, qui ont inclus des notes d'examen incorrectement déclassées au Royaume-Uni, un homme innocent envoyé en prison aux États-Unis et des données personnelles volées dans le monde entier, sont plus susceptibles de concerner son utilisation abusive et une erreur humaine à l'ancienne.
Avant le lancement d'un guide des Nations Unies pour comprendre l'éthique de l'IA, voici cinq choses que vous devez savoir sur l'utilisation de l'IA, ses conséquences et comment elle peut être améliorée.
1) Les conséquences d'une mauvaise utilisation peuvent être dévastatrices
En janvier, un homme afro-américain dans l'État américain du Michigan a été arrêté pour un crime de vol à l'étalage dont il ignorait tout. Il a été placé en garde à vue après avoir été menotté devant sa maison devant sa famille.
On pense qu'il s'agit de la première arrestation injustifiée de ce type : les policiers impliqués avaient fait confiance à l'IA de reconnaissance faciale pour attraper leur homme, mais l'outil n'avait pas appris à reconnaître les différences entre les visages noirs car les images utilisées pour l'entraîner avaient principalement des visages blancs.
Heureusement, il est rapidement devenu clair qu'il ne ressemblait en rien au suspect vu dans une photo prise par les caméras de sécurité du magasin, et il a été libéré, bien qu'il ait passé plusieurs heures en prison.
Et, en juillet, il y a eu un tollé au Royaume-Uni, lorsque les rêves de nombreux étudiants souhaitant aller à l'université de leur choix ont été anéantis, lorsqu'un programme informatique a été utilisé pour évaluer leurs notes (les examens traditionnels avaient été annulés, en raison de la COVID-19 pandémie).
Pour déterminer ce que les élèves auraient obtenu s'ils avaient passé des examens, le programme a pris leurs notes existantes et a également pris en compte les antécédents de leur école au fil du temps. Cela a fini par pénaliser les étudiants brillants des quartiers minoritaires et à faible revenu, qui sont plus susceptibles d'aller dans des écoles qui ont, dans l'ensemble, des notes moyennes inférieures à celles fréquentées par des étudiants plus riches.
Ces exemples montrent que, pour que les outils d'IA fonctionnent correctement, des data scientists bien formés doivent travailler avec des données de haute qualité. Malheureusement, une grande partie des données utilisées pour enseigner l'IA proviennent actuellement de consommateurs du monde entier, souvent sans leur consentement explicite : les pays les plus pauvres n'ont souvent pas la capacité de garantir la protection des données personnelles ou de protéger leurs sociétés contre les cyberattaques dommageables. et la désinformation qui se sont multipliées depuis la pandémie de COVID-19.
2) La haine, la division et les mensonges sont bons pour les affaires
De nombreuses entreprises de médias sociaux ont été critiquées par des sceptiques avertis pour avoir utilisé des algorithmes, alimentés par l'IA, pour micro-cibler les utilisateurs et leur envoyer un contenu personnalisé qui renforcera leurs préjugés. Plus le contenu est incendiaire, plus il y a de chances qu'il soit consommé et partagé.
La raison pour laquelle ces entreprises sont heureuses de "pousser" du contenu socialement diviseur et polarisant à leurs utilisateurs, c'est que cela augmente la probabilité qu'ils restent plus longtemps sur la plate-forme, ce qui rend leurs annonceurs heureux et augmente leurs bénéfices.
Cela a stimulé la popularité des publications extrémistes et haineuses, diffusées par des groupes qui seraient autrement des groupes marginaux peu connus. Au cours de la pandémie de COVID-19, cela a également conduit à la diffusion de fausses informations dangereuses sur le virus, entraînant potentiellement l'infection d'un plus grand nombre de personnes, selon de nombreux experts.
3) Les inégalités mondiales se reflètent en ligne
Il existe des preuves solides suggérant que l'IA joue un rôle dans la création d'un monde plus inégal et ne profite qu'à une petite proportion de personnes. Par exemple, plus des trois quarts de toutes les nouvelles innovations et brevets numériques sont produits par seulement 200 entreprises. Sur les 15 plus grandes plateformes numériques que nous utilisons, 11 proviennent des États-Unis, tandis que les autres sont chinoises.
Cela signifie que les outils d'IA sont principalement conçus par des développeurs occidentaux. En fait, ces développeurs sont majoritairement des hommes blancs, qui représentent également la grande majorité des auteurs sur des sujets liés à l'IA. Le cas de l'arrestation injustifiée au Michigan n'est qu'un exemple des dangers posés par un manque de diversité dans ce domaine très important.
Cela signifie également que, d'ici 2030, l'Amérique du Nord et la Chine devraient se tailler la part du lion des gains économiques, qui devraient valoir des billions de dollars, que l'IA devrait générer.
4)Les avantages potentiels sont énormes
Cela ne veut pas dire que l'IA devrait être moins utilisée : les innovations utilisant la technologie sont extrêmement utiles à la société, comme nous l'avons vu pendant la pandémie.
Les gouvernements du monde entier se sont tournés vers des solutions numériques à de nouveaux problèmes, des applications de recherche de contacts à la télémédecine et aux médicaments délivrés par des drones, et, afin de suivre la propagation mondiale de COVID-19, l'IA a été utilisée pour traquer grâce à de vastes réserves de données issues de nos interactions sur les réseaux sociaux et en ligne.
Les avantages vont cependant bien au-delà de la pandémie : l'IA peut aider à lutter contre la crise climatique, en alimentant des modèles qui pourraient aider à restaurer les écosystèmes et les habitats, et à ralentir la perte de biodiversité ; et sauver des vies en aidant les organisations humanitaires à mieux diriger leurs ressources là où elles sont le plus nécessaires.
Le problème est que les outils d'IA se développent si rapidement que ni les concepteurs, ni les entreprises actionnaires, ni les gouvernements n'ont eu le temps d'examiner les pièges potentiels de ces nouvelles technologies éblouissantes.
5) Nous devons nous mettre d'accord sur une réglementation internationale de l'IA
Pour ces raisons, l'agence des Nations Unies pour l'éducation, la science et la culture, UNESCO, consulte un large éventail de groupes, y compris des représentants de la société civile, du secteur privé et du grand public. public, afin d'établir des normes internationales en matière d'IA et de garantir que la technologie repose sur une base éthique solide, qui englobe l'État de droit et la promotion des droits de l'homme.
Les domaines importants qui doivent être pris en compte comprennent l'importance d'apporter plus de diversité dans le domaine de la science des données pour réduire les préjugés et les stéréotypes raciaux et sexistes ; l'utilisation appropriée de l'IA dans les systèmes judiciaires pour les rendre plus justes et plus efficaces ; et trouver des moyens de s'assurer que les avantages de la technologie sont répartis entre le plus grand nombre de personnes possible.