Problème 2945

2022 pourrait rester dans les mémoires comme l'année où l'IA générative a fait irruption sur la scène, provoquant des vagues majeures dans la communauté numérique. Avec l'apparition de toute nouvelle technologie qui change la donne, dans ce cas, les algorithmes extrêmement puissants derrière les systèmes de génération d'images et de texte tels que [ChatGPT](https://www.entrepreneur.com/science-technology/chatgpt-what-is -it-and-how-does-it-work/445014) et [DALL-E](https://interestingengineering.com/innovation/what-is-dall-e-how-it-works-and-how- le-système-génère-l'art-ai), les critiques et les réactions négatives ne manqueront pas de suivre. Mais je ne crois pas que les problèmes et controverses associés à ces algorithmes doivent freiner leur développement.
La couverture récente de la [modération de contenu] externalisée d'OpenAI (https://time.com/6247678/openai-chatgpt-kenya-workers/) est un bel exemple de l'ambiguïté de la voie à suivre. D'une part, la surveillance humaine est incontournable ; d'autre part, les modérateurs humains exposés à un contenu extrême devraient obtenir tout le soutien nécessaire pour mener à bien cette partie brutale mais extrêmement fondamentale du processus de modération. L'amélioration de nos normes lors du développement de versions optimales pour ces algorithmes est la meilleure pratique dans tous les scénarios impliquant l'IA.
Par coïncidence (ou non), 2022 a également été l'année où j'ai beaucoup écrit sur la façon dont différents biais cognitifs et autres processus influencent notre raisonnement, en particulier dans l'ensemble des solutions d'IA (à la fois classiques et basées sur des réseaux de neurones profonds). Incidemment (ou pas), les biais résultant de ces algorithmes génératifs sont le principal problème auquel il faut s'attaquer si nous voulons orienter l'IA générative dans une direction plus productive.
À l'avenir, que pouvons-nous tirer de ces biais ? Je veux profiter de cette occasion, alors que 2023 est encore frais, pour passer en revue les articles que j'ai écrits sur ces biais cognitifs et sur la manière dont nous pouvons les combattre spécifiquement lorsqu'il s'agit d'IA générative.
Biais de confirmation
Une courte définition du [biais de confirmation](https://www.forbes.com/sites/forbestechcouncil/2022/01/19/overcoming-confirmation-bias-an-obstacle-between-you-and-the-insight-from -your-data/?sh=27575b016929) est le chemin cognitif construit dans notre subconscient en fonction de nos croyances, qui redirige ensuite l'attention vers des arguments et des éléments de preuve qui renforcent ce système de croyance. C'est l'un des préjugés les plus répandus sur les plateformes de médias sociaux. Ce n'est pas facile à surmonter complètement : il faut une pratique constante et un effort conscient pour réaliser à quel point ils faussent notre raisonnement.
[Biais de survie](https://www.forbes.com/sites/forbestechcouncil/2022/02/23/look-for-whats-missing-how-to-avoid-survivorship-bias-in-data-science/? sh=bd25a22799e5) reflète notre tendance à ne choisir que des exemples de réussite, les "survivants", et à négliger tous les exemples négatifs d'un certain cas et ce qu'ils ajouteraient à l'ensemble de données. Je suis sûr que vous avez vu et entendu parler d'entrepreneurs, d'acteurs, d'athlètes à succès et de toutes les histoires derrière eux, mais de nombreuses tentatives infructueuses sont inconnues pour chaque réussite. Cet exemple de biais est également assez répandu, et pas seulement dans les médias sociaux, mais dans tous les autres médias depuis l'aube de l'ère de la communication.
Fausse causalité
L'axiome qui définit le mieux la fausse causalité est que "corrélation n'implique pas causalité", mais même avec cette connaissance, il est encore courant de faire une forte association entre deux variables qui ne sont pas nécessairement liées l'une à l'autre.
Biais de disponibilité
Le biais de disponibilité vient du mental raccourci que nous utilisons pour porter des jugements rapides, connu sous le nom d'"heuristique de disponibilité". Nous avons tendance à utiliser les informations les plus facilement disponibles pour notre raisonnement, ce qui nous permet de manquer plus facilement la vue d'ensemble ; le plus souvent, vous n'avez pas l'image complète disponible pour prendre votre décision. En effet, les situations que nous observons ou dont nous nous souvenons vivement produisent un impact considérable sur notre subconscient.
IA vs. IA générative
Tous les biais énumérés ci-dessus émergent dans des conditions cognitives spécifiques, et les reconnaître nous donne un énorme avantage. Mais comment les professionnels de l'IA peuvent-ils les retirer efficacement du processus décisionnel lorsqu'ils travaillent sur un projet d'IA ?
Essentiellement, la réponse aux biais cognitifs est en dehors du domaine de ses propres processus cognitifs, ce qui signifie que vous ne pouvez pas faire confiance à 100 % à la façon dont vous concevez le problème et à la façon dont vous seul le résoudreez. En pratique, cela signifie mettre une certaine distance entre vous et le problème en question avant de décider d'une solution. De toute évidence, le travail d'équipe a ici une valeur cruciale. Avoir une deuxième, troisième ou même quatrième opinion commencera à éliminer les préjugés de chaque individu et travaillera pour atteindre un point de vue commun et objectif. Plus l'équipe est diversifiée, mieux c'est, car l'importance d'une surveillance humaine diversifiée ne peut être surestimée.
Le cas de l'IA générative présente cependant des défis plus complexes en raison des objectifs grandioses de la technologie. Pour être aussi robuste que possible, l'algorithme a besoin d'une grande quantité de données d'entraînement, et c'est là que les biais cognitifs abondent. Chaque entrée différente a la possibilité d'être profondément biaisée. Pour effectuer des mesures d'atténuation sur chacun d'eux, il faudrait une quantité infinie de travail. Ces outils extrêmement puissants nécessitent des approches extrêmement puissantes en cas de biais, en travaillant sur les données avant l'entraînement ou via une forme quelconque de filtrage des données.
Le cas de l'atténuation avant la formation est simple pour réduire les préjugés sur ses racines. La configuration du modèle d'IA est basée sur la manière dont la formation est effectuée et sur les données utilisées ; ce sont tous des choix humains, après tout. Présenter les dilemmes éthiques avant le début du développement basé sur la formation est l'un des moyens les plus sûrs d'avancer, mais cela réduit considérablement la vitesse à laquelle une entreprise peut construire un tel outil. L'utilisation de données d'entraînement libres et sans restriction était ce qui a permis la robustesse de ces algorithmes en premier lieu.
Qu'en est-il de l'atténuation par le filtrage des données ? Il y a lieu d'utiliser les avancées technologiques directement sur les problèmes de biais et de former l'algorithme avec des ensembles de données filtrés. Un exemple récent est lié à l'équité de la représentation, l'un des principaux problèmes à résoudre. Les chercheurs de Google travaillent sur un outil appelé "Latent Space Smoothing for Individually Fair Representations" ou LASSI. Bien que remarquable et noble, rendre ce type de solution de filtrage de données efficace sur le terrain s'annonce cependant comme une entreprise difficile.
Quelles que soient les solutions que nous proposons, il est important de ne pas abandonner les raisons éthiques de le faire. Si le matériel créé par l'homme pour la formation et la modération humaine semble être une partie vitale du projet, l'accent doit être maintenu sur les processus jugés susceptibles d'être mal compris par l'homme. Les outils en cours de conception ont des capacités inhumaines incroyables, mais c'est la composante humaine qui les maintiendra adaptés à nos besoins et conscients de nos imperfections.