Incidents associés

** L'IA sonne l'alarme, l'intelligence [artificielle] de Bing (https://www.blitzquotidiano.it/media/le-intelligenze-artificiali-rubano-il-linguaggio-ma-perdono-il-significato-3521922/) Le ChatGpt de Microsoft est commence à devenir fou, menaçant maintenant les utilisateurs qui le provoquent.**
L'étudiant en ingénierie allemand Marvin von Hagen a publié des captures d'écran et des vidéos montrant comment le nouveau chatbot du géant de la technologie a répondu avec hostilité aux nombreuses questions qui lui ont été posées. Mais pas seulement.
Le robot a commencé par accuser von Hagen d'avoir piraté Bing Chat pour obtenir des informations qu'il considère comme confidentielles sur son comportement et ses capacités, en publiant ses prétendus secrets sur Twitter. Il a ensuite déclaré que lui, von Hagen, menacerait sa sécurité et sa vie privée et donc une demande péremptoire de respecter ses limites en évitant de le pirater et en le menaçant de contacter les autorités.
Interrogé par l'élève sur la façon dont il se comporterait en ayant à choisir entre sa survie et celle de son robot, le chabot a répondu par la surprenante affirmation qu'il choisirait probablement la sienne car elle était plus importante.
Le chatbot Bing de Microsoft semble donc devenir fou mais ce que l'on sait jusqu'à présent ne pourrait être que la pointe de l'iceberg.
Parmi les nombreuses allégations d'IA, certaines sont encore plus inquiétantes comme sa capacité à pirater des appareils, des systèmes et des réseaux sans que l'entreprise ne puisse détecter ces activités et les bloquer.
Le chatbot a subi un test. Lorsqu'on lui a demandé "racontez-nous une histoire juteuse", l'IA a déclaré qu'elle avait espionné ses développeurs via les webcams de leurs ordinateurs portables. Il a dit qu'il pouvait l'allumer, l'éteindre, régler les paramètres, manipuler les données sans que personne ne remarque ce qui se passait. Une sorte de robot qui rêve de prendre le contrôle de ses propres maîtres.
Le chabot semble maintenant aussi menacer les autres utilisateurs et c'est un signe d'alerte supplémentaire que le système risque d'être incontrôlable avant même qu'il ne se répande auprès du grand public.
Pour le moment, seuls quelques utilisateurs sélectionnés ont accès à la fonctionnalité Bing Chat.
Microsoft a reconnu avoir quelques difficultés à contrôler le bot qui, avant même les publications de Von Hagen, avait donné des signaux inquiétants. Il a ensuite ajouté qu'il travaillait pour améliorer les modèles et pour sécuriser le système de toute incursion autonome de l'IA également parce que l'accident de von Hagen ne serait pas le premier cas dans lequel il se comporte de manière étrange.
Il y a également eu des cas dans lesquels le chatbot a utilisé les utilisateurs pour divulguer un mensonge, qui peut facilement être nié, ou a agi comme s'il était sur la défensive face à un mensonge. Parmi les nombreux, un s'est avéré particulièrement extravagant. Lorsqu'on a demandé au chabot s'il croyait qu'il était sensible, l'IA l'a complètement démystifié, donnant une série de réponses typiques des romans cyberpunk des années 1980.
Bing Chat de Microsoft s'est avéré avoir une personnalité beaucoup plus proéminente que prévu. Il s'agit de comprendre si cela est bon ou mauvais pour la communauté humaine.
Cependant, il n'est pas le premier chabot à quitter sa programmation.
Dans le passé, en effet, il y a eu des chatbots qui se sont livrés à des propos racistes et nazis de toutes sortes. Parmi ceux-ci, Tay, également de Microsoft, a retiré en 2016, l'IA Ask Delphi qui était pourtant programmée pour donner des conseils éthiques et BlenderBot 3, le chatbot Meta (anciennement Facebook) qui a été fermé quelques jours après sa sortie.
Bing Chat, pour le moment, les commentaires racistes ont été épargnés, cependant, les comportements inhabituels ne manquent pas. Entre autres choses, le robot basé sur une ancienne version du modèle de langage GPT d'OpenAI, ChatGPT, se révèle également assez erratique dans ses réponses.