Incidents associés

Les algorithmes d'intelligence artificielle utilisés par Google Docs pour suggérer des modifications visant à rendre l'écriture plus inclusive ont été critiqués pour être ennuyeux.
Les modèles de langage sont utilisés dans Google Docs pour des fonctionnalités telles que Smart Compose ; il suggère des mots pour compléter automatiquement les phrases au fur et à mesure que l'utilisateur tape. La chocolaterie veut maintenant aller plus loin que cela et déploie "l'écriture assistée", un autre système alimenté par l'IA conçu pour aider les gens à écrire plus rapidement des documents plus percutants.
L'écriture assistée est présentée aux utilisateurs d'entreprise et la fonctionnalité est activée par défaut. Tout le monde n'aime pas être guidé par l'algorithme, et certaines personnes trouvent sa capacité de "langage inclusif" irritante, a rapporté Vice.
Des mots comme « policiers » pourraient inciter le modèle à suggérer qu'il soit remplacé par quelque chose de plus neutre, comme « policiers ». C'est compréhensible, mais cela peut devenir un peu ridicule. Par exemple, il a proposé de remplacer le mot "propriétaire" par "propriétaire" ou "propriétaire". Il n'aime pas non plus les jurons, comme l'a découvert un écrivain.
"L'écriture assistée utilise des modèles de compréhension du langage, qui s'appuient sur des millions d'expressions et de phrases courantes pour apprendre automatiquement comment les gens communiquent. Cela signifie également qu'ils peuvent refléter certains biais cognitifs humains", a déclaré un porte-parole de Google à Vice. "Notre technologie s'améliore constamment, et nous n'avons pas encore (et peut-être jamais) de solution complète pour identifier et atténuer toutes les associations de mots indésirables et les biais."
L'équité dans l'IA est compliquée
Alors que les experts s'efforcent de créer le Saint Graal d'un système intelligent parfait et impartial, l'équité dans les modèles d'apprentissage automatique s'avère difficile à mesurer et à améliorer.
Pourquoi? Eh bien, pour commencer, il existe apparemment 21 définitions de l'équité dans le milieu universitaire. L'équité signifie différentes choses pour différents groupes de personnes. Ce qui pourrait être considéré comme équitable en informatique peut ne pas correspondre à ce qui est considéré comme équitable, par exemple, dans les sciences sociales ou le droit.
Tout cela a conduit à un cauchemar pour le domaine de l'IA, a déclaré John Basl, un philosophe travaillant à la Northeastern University aux États-Unis, à Vox, ajoutant : « Nous sommes actuellement dans une période de crise, où nous n'avons pas la capacité éthique de résoudre ce problème. problème." Essayer de fixer l'équité est difficile, non seulement parce que les gens ne peuvent même pas s'entendre sur ce que signifie le terme, mais parce que les solutions pour une application peuvent ne pas convenir à une autre.
Ce n'est pas toujours aussi simple que de s'assurer que les développeurs se forment sur un ensemble de données plus diversifié et représentatif. Parfois, les impacts d'un algorithme sont différents pour différents groupes sociaux. Bien qu'il existe une réglementation dans certains cas d'utilisation, comme les algorithmes financiers, il n'existe pas de solution simple pour rendre ces modèles équitables.
IBM : l'éthique est un obstacle majeur pour les entreprises qui adoptent la technologie de l'IA
Le PDG d'IBM, Arvind Krishna, a gravi les échelons, gravissant les échelons pendant plus de 30 ans pour diriger IBM. Il a été témoin de hauts et de bas dans l'industrie technologique et a déclaré que bien que l'IA soit l'avenir, il fait attention à déployer ses vastes capacités dans le monde réel. Ah, ouais, ce sera pourquoi Watson n'a pas été pleinement réalisé.
"Nous ne sommes probablement qu'à 10% du voyage dans [l'intelligence artificielle]", a-t-il déclaré dans une interview au Wall Street Journal. "Avec la quantité de données aujourd'hui, nous savons qu'il est impossible pour nous, en tant qu'êtres humains, de tout traiter. Des techniques telles que l'analyse et les bases de données traditionnelles ne peuvent pas aller plus loin."
"La seule technique que nous connaissons qui puisse récolter des informations à partir des données est l'intelligence artificielle. Le consommateur l'a en quelque sorte adoptée en premier. L'impact le plus important viendra à mesure que les entreprises l'adopteront." Mais Krisha a admis que les entreprises sont confrontées à des obstacles liés au fait que les modèles d'apprentissage automatique sont souvent biaisés ou que la technologie est utilisée de manière injuste.
"Nous avons des problèmes. Nous devons résoudre l'éthique. Nous devons nous assurer que toutes les erreurs du passé ne se répètent pas. Nous devons comprendre la science de la vie de l'IA. Sinon, nous vont créer un monstre. Je suis vraiment optimiste que si nous y prêtons attention, nous pourrons résoudre tous ces problèmes », a-t-il déclaré.