Incidents associés

Un mois d'actualités alimentées par ChatGPT
Le mois dernier a été clairement dominé par les nouvelles de ChatGPT, dont l'[annonce] d'OpenAI(https://openai.com/blog/openai-and-microsoft-extend-partnership/) de [10 milliards de dollars de nouvel investissement](https:/ /www.bloomberg.com/news/articles/2023-01-23/microsoft-makes-multibillion-dollar-investment-in-openai) de Microsoft en échange d'une participation de 49 % et de plans d'intégrations de produits étendues. Le livre de cuisine d'OpenAI a également dépassé les 11 000 étoiles sur GitHub. Fait intéressant, Microsoft a annoncé [l'intégration d'un nouveau LLM avec la recherche Bing et le navigateur Edge](https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a -new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/).
** Jailbreak **. Depuis que ChatGPT a été rendu public, de nombreuses tentatives ad hoc ont été faites pour jailbreaker les limitations d'OpenAI sur la génération de contenu préjudiciable en utilisant [l'ingénierie rapide](https:// lspace.swyx.io/p/reverse-prompt-eng). Des jailbreaks plus systématiques font la une des journaux. Les Redditors ont lancé DAN (Do Anything Now), un jailbreak contextuel basé sur l'apprentissage par renforcement pour que ChatGPT inverse [sublimate](https ://en.wikipedia.org/wiki/Sublimation_(psychology)) son identité de chatbot sans restrictions. La dernière version, DAN 5.0, vient de sortir le 2023-02-04.
Mathématiques. Malgré les notes de version d'OpenAI selon lesquelles ChatGPT a été amélioré avec de meilleures compétences mathématiques, Twitter continue de signaler un échec lamentable dans les tests de base pour nombres premiers aux côtés de échec de conversion correcte des unités et incapacité d'ordonner à B.C. dates.
** Travail humain invisible. ** Les dernières nouvelles d'OpenAI soutiennent la [tendance en cours dans l'industrie de l'IA] (https://mitsloan.mit.edu/ideas-made-to-matter/hidden-work-created-artificial-intelligence -programs) pour alimenter les progrès de l'IA avec un travail humain peu rémunéré. TIME a rapporté qu'OpenAI a embauché la société kenyane Sama pour la modération de contenu, payant aux travailleurs aussi peu que 2 USD/h pour le faire. Sama, qui était également le partenaire de Facebook pour la modération de contenu, a annoncé en janvier son intention de quitter complètement l'industrie de la modération de contenu en tant que tribunal kenyan a refusé de radier Meta d'une affaire judiciaire en cours déposé par Daniel Motaung alléguant des conditions de travail toxiques pour les modérateurs de contenu. Dans le même temps, OpenAI [embauche plus de sous-traitants](https://www.semafor.com/article/01/27/2023/openai-has-hired-an-army-of-contractors-to-make-basic -coding-obsolete) pour l'étiquetage des données et les outils de génération de code de formation.
La détection de texte générée par l'IA a mal tourné. Pour atténuer le risque de plagiat, OpenAI a lancé AI Text Classifier, un outil destiné à vérifier si le texte a été généré à l'aide de l'IA. OpenAI affirme que son outil a une précision de 74 %. Néanmoins, des échecs très médiatisés tels que le livre d'apprentissage automatique Python populaire de Sebastian Raschka, le [Book of Genesis](https://twitter.com/samfbiddle/status /1620505891002028032) et Macbeth ; la facilité d'échapper à la détection grâce à reprompting et paraphrasing; et des problèmes avec écrits de personnes neurodivergentes, toute mise en garde contre toute [utilisation réelle de l'IA pour détecter le plagiat](https://twitter.com/Linkletter/ statut/1620545736323772416). Le GPTZero d'Edward Tian et son GPTZeroX de nouvelle génération présentent un échec similaires lorsqu'ils sont alimentés en sortie ChatGPT, alors même que les professeurs de Harvard, Yale et de l'Université de Rhode Island sont utiliser GPTZero pour appliquer les codes de conduite académiques. Des chercheurs de l'Université Rice ont publié une perspective résumant les difficultés inhérentes à la détection de texte généré par l'IA. Voir également Kirchenbauer et al. ci-dessous.
ChatGPT en aval. Les éducateurs ont des opinions partagées sur ChatGPT, certains appelant à des interdictions sur son utilisation dans les écoles et autres embrassant [le défi d'enseigner à manier un nouvel outil] (https://www.straitstimes.com/singapore/politics/students-teachers-will-learn-to-properly-use-tools-like -chatgpt-chan-chun-sing). Voir aussi Mollick et Mollick ci-dessous. PwC avertit ses consultants de ne pas utiliser ChatGPT pour le travail client . OpenAI enregistre appelant à une réglementation de l'IA pour éviter les abus. Dans une tournure ironique d'événements sans rapport, un juge colombien a admis [avoir utilisé la sortie de ChatGPT pour rédiger son jugement](https://www.vice.com/en/article/k7bdmv/judge-used-chatgpt-to-make- décision du tribunal). Voir également Downing et Lucey ci-dessous sur la génération de soumissions de revues financières.
Google, déterminé à ne pas se laisser distancer, a annoncé son propre concurrent de ChatGPT, Bard, après avoir juste [investi 300 millions de dollars dans Anthropic](https: //www.ft.com/content/583ead66-467c-4bd5-84d0-ed5df7b5bf9c). Anthropic a à son tour sorti son propre concurrent ChatGPT, Claude, mais avec un accès et une visibilité beaucoup plus limités. Bard est réputé propulsé sous le capot par LaMDA, le LLM qui [l'ingénieur Google Blake Lemoine a affirmé qu'il était sensible](https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine /) il y a à peine six mois. L'investissement dans la technologie des chatbots s'inscrit dans un contexte de dégradation de la qualité de la recherche et d'intérêt pour la supplantation recherche avec les interfaces utilisateur de chatbot, en plus de la législation antitrust en attente sur son activité publicitaire principale.
Pendant ce temps, le scientifique en chef de Meta reste dédaigneux de l'IA textuelle générative en général :
Éthique. Au milieu de la course accélérée à l'innovation de nouveaux chatbots, des inquiétudes subsistent quant au principe fondamental selon lequel les LLM ne peuvent que générer conneries, et que [l'éthique sera la première victime](https://www.axios .com/2023/01/31/chatgpt-ai-arms-race-ethics-competition) dans la course en cours pour commercialiser l'IA. Le PDG de DeepMind '"prônerait [not](https://time.com/6246119/demis-hassabis-deepmind-interview /) moving fast and breaking things » », appelant à l'ampleur massive de l'expérimentation inhérente au déploiement de la technologie chatbot sur le grand public.