Incidents associés
xAI, la plateforme d'intelligence artificielle d'Elon Musk, a réagi aux nombreuses informations selon lesquelles son chatbot Grok aurait fait état d'un génocide contre des citoyens blancs en Afrique du Sud, en affirmant qu'une modification non autorisée avait été apportée à ce robot d'intelligence artificielle. Dans une publication publiée jeudi sur X, xAI a annoncé qu'elle mettrait à jour le système pour résoudre le problème.
Les questions de partialité politique, de discours haineux et de précision des chatbots d'intelligence artificielle sont une source de préoccupation depuis au moins le lancement de ChatGPT d'OpenAI en 2022.
La newsletter Reuters Tariff Watch vous informe quotidiennement des dernières actualités sur le commerce mondial et les droits de douane. Inscrivez-vous ici.
XAI a déclaré que mercredi matin, une modification non autorisée avait été apportée au logiciel de réponse de Grok, contournant ainsi le processus d'examen normal.
« Cette modification, qui imposait à Grok de fournir une réponse spécifique sur un sujet politique, violait les politiques internes et les valeurs fondamentales de xAI », a déclaré xAI.
Mercredi, des utilisateurs de X ont remarqué que Grok avait abordé le sujet du « génocide blanc » en Afrique du Sud lors de discussions sans rapport avec d'autres sujets, partageant des captures d'écran de leurs échanges.
Les détracteurs de la politique d'expropriation des terres en Afrique du Sud, dont Elon Musk, un Sud-Africain blanc né en Afrique du Sud, l'ont qualifiée de raciste envers les Blancs. Le gouvernement sud-africain affirme qu'il n'existe aucune preuve de persécution et que les accusations de « génocide » du président américain Donald Trump et d'autres personnes sont infondées.
En réponse à l'incident de cette semaine, xAI a annoncé la publication des invites système de Grok sur GitHub, où le public peut consulter et commenter chaque modification apportée aux invites du chatbot.
Elle mettrait en place une équipe de surveillance 24 heures sur 24 pour répondre aux incidents avec les réponses de Grok qui ne sont pas détectés par les systèmes automatisés, a-t-elle ajouté.