Incidents associés
Lorsque vous faites état de la coupe et de la poussée des développements vertigineux, des grosses transactions financières, du battage médiatique hallucinant et des ego multimilliardaires dans le monde de la technologie, il peut être facile de se laisser prendre au jeu et d'ignorer le fait que les gagnants sont pas toujours les gentils.
Faites votre choix de films amusants et axés sur les enfants. The Mitchells vs. the Machines, Ron's Gone Wrong, Big Hero 6, même WALL-E de Pixar il y a 15 ans, et c'est un thème commun. Les grands frères de la technologie inventent des développements sympas basés sur l'IA pour lesquels l'humanité devient folle, avant d'apprendre que les choses allaient bien mieux sans eux, et un héros improbable sauve la situation avec derring-do.
Une fausse image d'une explosion, soi-disant au Pentagone, semble avoir prouvé la capacité des applications d'IA bon marché à déplacer les marchés financiers mondiaux.
Mais les parents savent qu'il n'y a pas de miracle d'acte final dans le monde non animé. Et les investisseurs ont appris les dangers de l'IA cette semaine après que les marchés financiers ont été brièvement ébranlés par ce qu'ils pensaient être [une explosion au Pentagone aux États-Unis](https://www.afr.com/technology/this-tweet-of- une-explosion-du-pentagone-était-faux-il-a-toujours-frappé-les-actions-20230523-p5dah5).
Un compte Twitter vérifié (merci Elon) prétendant être lié au très respecté empire de l'information Bloomberg, a partagé une photo de panaches de fumée s'élevant au-dessus d'un grand bâtiment blanc avec les mots : * " Grande explosion près du complexe du Pentagone à Washington D.C - Compte-rendu initial".*
L'image et le compte Twitter étaient faux. L'image a probablement été générée par une application d'intelligence artificielle, mais elle n'a été démystifiée qu'après que l'indice industriel Dow Jones a chuté de 85 points (0,3 %) en quatre minutes.
On peut soutenir que les images n'ont eu aucun impact sur cela, bien sûr, mais cela semblerait une ignorance téméraire étant donné que le faux tweet de Bloomberg avait été diffusé par des comptes très suivis, tels que Russia Today, le diffuseur national du pays.
Réalité contrefaite
La contrefaçon intelligente est un problème en attente qui a vexé l'esprit des universitaires et des technologues depuis des années, mais devient rapidement un dilemme du monde réel à l'ère de l'IA générative.
La possibilité que les marchés soient manipulés, que des troubles sociétaux soient fomentés et que des individus soient ciblés par toutes sortes d'horribles canulars en ligne est arrivée, et nous sommes loin d'être prêts à y faire face.
En 2004 (oui, j'étais un enfant prodige, honnêtement), j'ai interviewé un expert de la société de recherche américaine Gartner appelé Daryl Plummer à propos d'un concept dont il mettait déjà en garde contre la "réalité contrefaite", selon laquelle la technologie qui était alors utilisée pour créer des mondes virtuels convaincants dans les films, seraient utilisés pour causer des ravages dans le monde réel.
A l'époque il y avait déjà des exemples qui s'étaient produits. L'année précédente, Piers Morgan avait été contraint de démissionner de son poste de rédacteur en chef du The Daily Mirror après avoir éclaboussé de fausses photos de soldats britanniques torturant un prisonnier irakien en première page.
Pendant ce temps, des photographies du candidat démocrate à la présidentielle John Kerry s'exprimant aux côtés de Jane Fonda lors d'un rassemblement anti-Vietnam en 1970 sont apparues à l'approche de son inclinaison à l'élection présidentielle américaine.
Les vétérans ont qualifié l'image de "gifle" et, bien qu'elle ait été prouvée comme fausse, elle a réussi à dépeindre Kerry comme un candidat au service anti-militaire, avant sa défaite très courte face à George W. Bush.
"La fausse réalité à vendre sera la norme dans la prochaine décennie et sa croissance ne sera pas liée à la technologie, mais à la propension de la société à permettre au déviant de devenir la norme", m'a dit Plummer en 2004.
"Alors que les gens s'attendent à l'utilisation de la technologie virtuelle au lieu de l'interaction humaine en temps réel, l'indignation psychologique attendue avec la réalité contrefaite sera diminuée ... Je soupçonne qu'il y aura des situations très notables où nous sommes dupés et beaucoup de bruit arrivera. Les exemples existants ne sont que la partie émergée de l'iceberg.
Bien qu'il se soit trompé de timing, nous sommes maintenant dans l'ère de la réalité contrefaite, que nous le croyions ou non.
La technologie de clonage de la voix est suffisamment avancée pour générer un discours unique qui ressemble à la personne visée, à partir de quelques courts échantillons de son véritable son, et la possibilité de l'aligner avec une vidéo truquée le transformera en arme.
Dans la salle de rédaction d'un journal financier, nous devrons être plus diligents que jamais dans la vérification des informations anonymes qui nous parviennent. Une fuite audio des PDG de Qantas et de Virgin discutant d'une fusion peut sembler un énorme scoop, mais que se passerait-il si ce n'était qu'un actionnaire avec une application d'IA essayant de faire grimper les actions ?
Limites actuelles
Les énigmes pour les autres industries seront également évidentes pour les personnes qui y travaillent.
Le clonage de la voix a actuellement des limites en ce sens qu'il fonctionne beaucoup plus efficacement dans une courte rafale d'audio et n'est pas convaincant dans un scénario en direct où un humain peut chercher à l'interroger, mais cela reste une assez grande marge de manoeuvre.
Plus tôt cette année, la start-up d'intelligence artificielle ElevenLabs a dû publier de nouvelles conditions générales après qu'"un nombre croissant de cas d'utilisation abusive" est apparu lorsqu'elle a ouvert l'accès à sa plate-forme de clonage de voix.
Les faux discours du président américain Joe Biden se sont répandus comme une traînée de poudre, et tout est drôle et amusant... jusqu'à ce que ce ne soit pas le cas, bien sûr. (Avertissement de mauvaise langue pour la fin de la vidéo dans ce tweet.)
L'usurpation d'identité de la direction est quelque chose que les entreprises de cybersécurité tentent déjà de vendre aux entreprises pour atténuer leurs services, mais un problème existentiel se profile sur les marchés financiers et dans la société en général.
Est-ce la responsabilité des opérateurs de marché de bloquer les actions parce qu'un tweet devient viral ? Que fait la Commonwealth Bank lorsqu'une vidéo du discours de démission de Matt Comyn est mise en ligne, alors qu'il est en fait en vacances à Byron Bay ?
Je n'en ai certainement aucune idée, mais ce qui est inquiétant, c'est que je soupçonne qu'eux non plus.