Problème 2936

Le 14 février, Kevin Roose, le chroniqueur technique du New York Times, a eu une conversation de deux heures avec Bing, le moteur de recherche amélioré ChatGPT de Microsoft. Il est ressorti de l'expérience un homme apparemment changé, car le chatbot lui avait dit, entre autres, qu'il aimerait être humain, qu'il nourrissait des désirs destructeurs et qu'il était amoureux de lui.
La transcription de la conversation, ainsi que l'apparition de Roose dans le journal [The Daily](https: //www.nytimes.com/2023/02/15/podcasts/the-daily/chat-gpt-microsoft-bing-artificial-intelligence.html) podcast, a immédiatement accru la panique morale qui faisait déjà rage à propos des implications de grands modèles de langage (LLM) tels que GPT-3.5 (qui sous-tend apparemment Bing) et d'autres outils « d'IA générative » qui sont maintenant disponibles dans le monde. Ceux-ci sont diversement considérés comme des artefacts chroniquement indignes de confiance, comme des exemples de technologie hors de contrôle ou comme des précurseurs de ce que l'on appelle l'intelligence générale artificielle (AGI) - c'est-à-dire l'intelligence au niveau humain - et donc posant une [menace existentielle](https:/ /erikhoel.substack.com/p/i-am-bing-and-i-am-evil) à l'humanité.
Cette hystérie s'accompagne d'une nouvelle ruée vers l'or, comme venture les capitalistes et autres investisseurs s'efforcent de participer à l'action. Il semble que tout cet argent creuse des trous dans des poches très profondes. Heureusement, cela a ses côtés comiques. Cela suggère, par exemple, que les chatbots et les LLM ont remplacé la crypto et le Web 3.0 comme la prochaine grande chose, ce qui confirme à son tour que l'industrie technologique a collectivement la capacité d'attention d'un triton.
Le résultat le plus probable est que les chatbots seront éventuellement considérés comme une augmentation significative des capacités humaines
La chose la plus étrange de toutes, cependant, est que le pandémonium a été déclenché par ce que l'un de ses principaux chercheurs a appelé "perroquets stochastiques" - par lequel elle signifie que les chatbots alimentés par LLM sont des machines qui prédisent en permanence quel mot est statistiquement le plus susceptible de suivre le précédent. Et ce n'est pas de la magie noire, mais un processus de calcul qui est bien compris et qui a été clairement décrit par le professeur Murray Shanahan et [élégamment disséqué](https://writings .stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/?s=09) par l'informaticien [Stephen Wolfram](https://www.theguardian.com /science/2014/jun/29/stephen-wolfram-textbook-never-interested-me-wolframalpha).
Comment donner un sens à toute cette folie ? Un bon point de départ consiste à sevrer les gens de leur désir incurable d'interpréter les machines de manière anthropocentrique. Depuis Joe Weizenbaum's Eliza, les humains qui interagissent avec les chatbots semblent vouloir humaniser l'ordinateur. C'était absurde avec Eliza - qui exécutait simplement un script écrit par son créateur - il est donc peut-être compréhensible que les humains qui interagissent maintenant avec ChatGPT - qui peut apparemment répondre intelligemment à l'entrée humaine - tombent dans le même piège. Mais c'est encore con.
[
Tout ce que vous vouliez savoir sur l'IA - mais que vous aviez peur de demander
](https://www.theguardian.com/technology/2023/feb/24/ai-artificial-intelligence-chatbots-to-deepfakes)
Le rebadgeage persistant des LLM en tant qu'"IA" n'aide pas non plus. Ces machines sont certes artificielles, mais les considérer comme « intelligentes » me semble exiger une conception assez pauvre de l'intelligence. Certains observateurs, cependant, comme le philosophe Benjamin Bratton et l'informaticien Blaise Agüera y Arcas sont moins dédaigneux. "Il est possible", ils concèdent, "que ces types d'IA soient 'intelligents' - et même 'conscients' dans d'une certaine manière - selon la façon dont ces termes sont définis ", mais " aucun de ces termes ne peut être très utile s'ils sont définis de manière fortement anthropocentrique ". Ils soutiennent que nous devrions distinguer la sensibilité de l'intelligence et de la conscience et que «la véritable leçon pour la philosophie de l'IA est que la réalité a dépassé le langage disponible pour analyser ce qui est déjà à portée de main. Un vocabulaire plus précis est indispensable.
C'est. Pour le moment, cependant, nous sommes coincés avec l'hystérie. Un an, c'est terriblement long dans cette industrie. Il y a seulement deux ans, rappelez-vous, les prochaines grandes choses allaient être la crypto/web 3.0 et l'informatique quantique. La première s'est effondrée sous le poids de sa propre absurdité, tandis que la seconde est, comme la fusion nucléaire, encore à l'horizon.
Avec les chatbots et les LLM, le résultat le plus probable est qu'ils seront finalement considérés comme une augmentation significative des capacités humaines (des feuilles de calcul sur les stéroïdes, comme l'a dit un collègue cynique). Si cela se produit, les principaux bénéficiaires (comme dans toutes les ruées vers l'or précédentes) seront les fournisseurs des pioches et des pelles, qui dans ce cas sont les ressources de cloud computing nécessaires à la technologie LLM et détenues par de grandes entreprises.
Étant donné cela, n'est-il pas intéressant que la seule chose dont personne ne parle pour le moment soit l'impact environnemental de la [vaste quantité d'informatique](https://www.economist.com/business/2023/01/30/the -race-of-the-ai-labs-heats-up?utm_id=1504889) nécessaire pour former et faire fonctionner des LLM ? Un monde qui en dépend serait peut-être bon pour les affaires, mais ce serait certainement mauvais pour la planète. C'est peut-être ce que Sam Altman, le PDG d'OpenAI, la société qui a créé ChatGPT, avait en tête quand [il a observé](https://www.forbes.com/sites/nicolemartin1/2019/06/27/13-greatest- cite-sur-l'avenir-de-l'intelligence-artificielle/?sh=4e6e99b83bdf) que "l'IA conduira probablement à la fin du monde, mais en attendant, il y aura de grandes entreprises".