Incidents associés
Ce qui est étrange avec la technologie de l'IA, c'est qu'elle est si nouvelle et si passionnante qu'il est toujours amusant et original de l'inclure dans des expériences quotidiennes comme la création d'une publication sur les réseaux sociaux, ou dans des processus commerciaux quotidiens comme la génération de contenu ou l'automatisation de tâches de bureau ennuyeuses. C'est tellement nouveau, en fait, qu'il est facile d'oublier que l'IA n'est pas parfaite et qu'elle présente de nombreux défauts. Un récent rapport du Washington Post met en lumière un aspect particulièrement terrifiant de l'IA qui n'aurait peut-être jamais traversé l'esprit des nouveaux utilisateurs : elle peut divulguer des informations confidentielles à des personnes qui ne devraient pas y avoir accès. Et pas n'importe quelles informations : des secrets clés sur votre entreprise, ses projets, ses finances et, peut-être, ce que vous pensez exactement de Steve à partir de la comptabilité et de toutes ses habitudes ennuyeuses.
Le rapport se concentre sur la façon dont l'IA remplace certaines tâches sur le lieu de travail qui auraient été auparavant effectuées par des assistants de bureau. Cela semble être une solution parfaite, vraiment : les assistants numériques IA peuvent être plus fiables, ils ne prennent pas de vacances et vous n'avez pas nécessairement à payer beaucoup pour les utiliser. Prendre des notes lors de réunions est une tâche fréquemment déléguée aux assistants, et il existe désormais une horde d'outils d'IA qui peuvent prendre en charge cette tâche.
Le Post raconte l'histoire d'un chercheur et ingénieur appelé Alex Bilzerian qui utilisait l'un de ces outils, Otter.ai, récemment lors d'une réunion Zoom avec des investisseurs. Une fois la réunion terminée, Otter lui a envoyé automatiquement par e-mail une transcription de la réunion générée par une IA qui avait digéré la conversation. Cela semble incroyablement utile : pas besoin de prendre des notes ! Pas de listes de choses à faire ni de mémos. Mais Bilzerian a été stupéfait de découvrir que la transcription contenait la conversation des investisseurs qui a eu lieu après qu'il ait quitté la réunion. Y compris une discussion sur les « échecs stratégiques et les mesures truquées ». Les financiers se sont excusés lorsqu'il a évoqué le problème, mais leurs critiques inattendues ont poussé Bilzerian à annuler l'accord.
Otter.AI a expliqué comment ses contrôles de confidentialité peuvent être ajustés pour modifier les détails du partage d'informations, en réponse à la publication de Bilzerian sur le scandale sur X. Bien que la publication soit une simple couverture d'entreprise, elle ne contient aucune excuse sincère. Plus important encore, elle a souligné que contrairement aux outils de bureau numérique établis, les outils d'IA peuvent être comme le Far West numérique, libres de toute réglementation, ouverts et capables de faire des choses qui vous surprennent --- à la fois positivement et négativement. Et parfois, lorsqu'un dirigeant se précipite pour adopter l'IA comme exemple de « la prochaine grande chose pour booster votre entreprise », il peut être naïf quant aux risques de la technologie de l'IA.
Les services de transcription de réunions comme Otter sont un moyen évident pour un outil d'IA d'apprendre des informations confidentielles et de les partager de manière inattendue et potentiellement compromettante. Mais même les chatbots ou les outils comme le nouveau système d'IA Recall de Microsoft (https://www.inc.com/kit-eaton/microsofts-ai-recall-feature-can-be-easily-hacked-security-researcher-finds.html) peuvent divulguer des informations si vous lui avez donné la permission de s'entraîner sur vos données, une disposition qui pourrait être enfouie dans la myriade de conditions générales de l'outil.
Ces données peuvent alors, dans certaines circonstances, réapparaître plus tard et être affichées à un utilisateur totalement différent. Et, plus que cela, en donnant à certains outils d'IA la permission d'accéder à vos données (ce qui peut être nécessaire si, par exemple, vous leur demandez d'analyser et de digérer des tas d'informations financières), vos informations peuvent ne pas être simplement déposées auprès du fournisseur de cet outil particulier. Le Post indique que Otter.ai, par exemple, « partage les informations des utilisateurs avec des tiers, notamment des services d'IA qui fournissent un support back-end pour Otter, des partenaires publicitaires et des organismes chargés de l'application de la loi lorsque cela est nécessaire ».
Il existe un vieux dicton selon lequel il ne faut jamais publier sur Internet des informations que vous ne souhaiteriez pas voir publiées par votre grand-mère. Peut-être pourrions-nous modifier ce dicton pour l'adapter au bureau alimenté par l'IA de 2024 : ne partagez jamais avec un outil d'IA des informations que vous ne souhaiteriez pas voir publiées dans les pages du Washington Post.