Problème 2639
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Un nouveau chatbot, similaire à ChatGPT, est capable de transformer le texte en voix de célébrités, créant des "deepfakes" dans le style de Morgan Freedman, Jordan Peterson, Donald Trump et bien d'autres.
NoiseGPT peut même être entraîné par les utilisateurs à imiter leur propre voix, ou celle de leurs amis, membres de la famille ou collègues de travail.
Imaginez recevoir un message vocal de joyeux anniversaire de votre président américain préféré, ou une voix d'outre-tombe sous la forme de John Lennon ou d'Elvis partageant des informations personnelles avec vous, que seuls vos parents les plus proches connaissent.
C'est l'argument de vente de la dernière application de chatbot à être lancée après le lancement très médiatisé du générateur de contenu d'intelligence artificielle ChatGPT soutenu par Microsoft (MSFT) dans novembre 2022.
Le directeur des opérations de NoiseGPT, Frankie Peartree, a déclaré à Yahoo Finance UK : "Nous formons l'IA pour imiter environ 25 voix de célébrités en ce moment, et nous aurons bientôt plus de 100 voix de célébrités à offrir."
NoiseGPT a été publié sur Telegram lundi, permettant aux utilisateurs d'envoyer des messages sur les réseaux sociaux à des amis, prononcés avec la voix de célébrités bien connues.
Peartree a déclaré que des instructions sur la façon de former l'application à utiliser votre propre voix seront bientôt disponibles sur le site Web de l'entreprise.
L'application peut être utilisée par n'importe quel smartphone pouvant télécharger l'application de messagerie sociale Telegram, améliorant ainsi sa capacité à être adoptée en masse.
La future capacité des applications d'IA à pouvoir imiter votre propre voix, ou celle de vos amis, ou de toute personne auprès de laquelle vous pouvez obtenir un échantillon de voix a soulevé des inquiétudes telles que les enfants recevant des messages imitant la voix de leurs parents.
Le concept de deepfake n'est techniquement illégal dans aucune juridiction. Cependant, le potentiel des deepfakes à créer de la méfiance, de la suspicion et de la manipulation est préoccupant.
L'application NoiseGPT a déclaré que son application tentera d'obscurcir les violations des droits de propriété personnelle et intellectuelle permises par la technologie deepfake. Lors de la sélection des voix de célébrités dans lesquelles l'utilisateur souhaite que son texte soit prononcé, ces choix seront étiquetés "pas Donald Trump" ou "pas Jennifer Lawrence", pour contourner les infractions.
La société est-elle sur le point de plonger dans un deepfake chaos ?
Peartree pense que tout ne sera pas mauvais. Il a déclaré à Yahoo Finance UK : "Je pense que c'est une bonne chose, cela va provoquer un peu de chaos au début, mais à la fin nous trouverons un équilibre. C'était aussi le souci lorsque Photoshop est sorti par exemple."
Il a ajouté qu'à la lumière de ses implications juridiques, l'atténuation des risques de censure est prise en compte dans la conception de l'application. L'application ne sera pas stockée sur un serveur centralisé, mais utilisera un stockage décentralisé basé sur la blockchain.
"Les problèmes juridiques sont l'une des raisons pour lesquelles nous allons décentraliser rapidement, pour la formation ainsi que la connexion API, afin que nous ne puissions pas être censurés", a-t-il déclaré.
La nature décentralisée de la nouvelle application signifiera que la charge de calcul pour exécuter l'application sera partagée entre les ordinateurs du monde entier, qui "exécuteront les modèles, la formation et le flux API depuis le domicile des gens". L'exécution du programme à partir de votre ordinateur personnel sera récompensée par des jetons de crypto-monnaie NoiseGPT.
Peartree a déclaré: "Les personnes qui créent de nouvelles voix populaires pour l'application seront également récompensées dans la crypto-monnaie.
"Il y a actuellement une taxe de 5% sur chaque transaction avec cette crypto-monnaie, mais elle sera supprimée à l'avenir. Tous les fonds sont utilisés pour le développement/les opérations, et ce n'étaient pas des jetons d'équipe et l'ensemble de l'offre a été vendue publiquement."
Implications juridiques et sociétales de la technologie deepfake
Être capable de manipuler la voix humaine pourrait poser un défi à la véracité des informations que nous recevons en ligne et via nos téléphones et jeter le doute sur les communications personnelles que nous recevons sur les applications de messagerie.
Cela a également des implications pour l'interaction entre l'État-nation et la manière dont il pourrait être utilisé pour influencer les rivaux et plaire à l'opinion publique.
Les décideurs politiques s'efforcent désormais d'atténuer les risques de deepfakes. Mais les lois britanniques actuelles doivent rattraper leur retard.
Ces lois ne couvrent que la distribution d'images réelles, en particulier dans des cas tels que la pornographie de vengeance, où du matériel explicite privé et confidentiel est partagé publiquement par un ex-partenaire.
Si un contrevenant crée et partage du matériel deepfake qui présente l'identité de sa "cible" dans un contenu pornographique, il ne peut faire l'objet de poursuites que s'il harcèle directement la cible en lui envoyant le matériel ou si l'infraction est liée à une violation du droit d'auteur.
Les implications juridiques et sociétales plus larges de la technologie deepfake pourraient s'étendre à :
- Violation des droits de propriété intellectuelle— la technologie deepfake peut être utilisée pour se faire passer pour quelqu'un qui possède la propriété intellectuelle, violant potentiellement ses droits.
- Violation des droits personnels — les deepfakes peuvent être utilisés pour créer du contenu exploitant ou pornographique, portant atteinte à la vie privée et aux droits personnels d'un individu.
- Atteinte à la réputation — les deepfakes peuvent diffuser de fausses informations et nuire à la réputation d'une personne, entraînant potentiellement des conséquences dans sa vie personnelle et professionnelle.
- Compromis de la protection des données et de la vie privée - les deepfakes peuvent menacer la vie privée et la protection des données d'un individu, les rendant vulnérables au vol d'identité et à d'autres formes de cybercriminalité.
- Perturbation des agendas politiques — les deepfakes peuvent être utilisés pour manipuler l'opinion publique, en particulier pendant les périodes de tension politique accrue telles que les élections.
- Diffusion de fausses informations — les deepfakes peuvent être utilisés pour diffuser de fausses informations et conduire à une méfiance générale envers les sources d'information, les individus et les institutions.
- Problèmes de responsabilité — l'utilisation de deepfakes dans le marketing et d'autres supports promotionnels peut entraîner des problèmes de responsabilité si les consommateurs sont mal informés ou induits en erreur.
- Menace pour la sécurité nationale — les deepfakes peuvent provoquer des tensions géopolitiques et constituer une menace pour la sécurité nationale s'ils sont utilisés pour diffuser de fausses informations ou manipuler l'opinion publique.
Les deepfakes deviennent très réalistes et, à mesure que la technologie progresse, la communication vidéo et audio en ligne pourrait devenir de plus en plus douteuse.