Incidents associés
Deux hommes soupçonnés d'avoir participé à l'attentat du mois dernier contre une clinique de fertilité de Palm Springs, en Californie, ont utilisé un programme de chat génératif d'intelligence artificielle pour planifier l'attaque, ont indiqué les autorités fédérales mercredi.
Les enregistrements d'une application de chat d'intelligence artificielle montrent que Guy Edward Bartkus, le principal suspect de l'attentat, « a cherché à provoquer de puissantes explosions en utilisant du nitrate d'ammonium et du carburant », ont indiqué les autorités.
Les autorités n'ont pas nommé le programme d'intelligence artificielle utilisé par Bartkus.
Les forces de l'ordre de New York ont arrêté mardi Daniel Park, un homme de l'État de Washington soupçonné d'avoir contribué à la fourniture de grandes quantités de produits chimiques utilisés par Bartkus dans l'explosion d'une voiture piégée qui a endommagé la clinique de fertilité.
Bartkus est décédé dans l'explosion, tandis que quatre autres personnes ont été blessées.
Le FBI a déclaré, dans une plainte pénale contre Park, que Bartkus aurait utilisé son téléphone pour rechercher des informations sur « des explosifs, du diesel, des mélanges d'essence et la vitesse de détonation », a rapporté NBC News.
Il s'agit du deuxième cas cette année où les forces de l'ordre pointent du doigt l'utilisation de l'IA pour aider à un attentat ou une tentative d'attentat. En janvier, des responsables ont déclaré un soldat qui a fait exploser un Cybertruck Tesla devant l'hôtel Trump à Las Vegas a utilisé l'IA générative, notamment ChatGPT, pour planifier l'attaque.
Le soldat, Matthew Livelsberger, a utilisé ChatGPT pour rechercher des informations sur la manière de fabriquer un explosif, la vitesse de déplacement de certaines munitions, entre autres, selon les forces de l'ordre.
En réponse à l'incident de Las Vegas, OpenAI s'est dite attristée par la révélation que sa technologie avait été utilisée pour préparer l'attaque et s'est engagée à ce que les outils d'IA soient utilisés de manière responsable.
L'utilisation de l'IA générative a connu un essor considérable ces dernières années avec l'essor de chatbots tels que ChatGPT d'OpenAI, Claude d'Anthropic et Gemini de Google. Cela a stimulé un développement rapide des services d'IA destinés aux consommateurs.
Mais dans leur course à la compétitivité, les entreprises technologiques prennent de plus en plus de raccourcis dans les tests de sécurité de leurs modèles d'IA avant leur publication, comme l'a rapporté CNBC le mois dernier.
OpenAI a dévoilé le mois dernier un nouveau « pôle d'évaluation de la sécurité » permettant d'afficher les résultats de sécurité des modèles d'IA et leurs performances lors de tests de détection d'hallucinations, de jailbreaks et de contenus préjudiciables, tels que les « contenus haineux ou les conseils illicites ».
Anthropic a ajouté le mois dernier des mesures de sécurité supplémentaires à son modèle Claude Opus 4 afin d'empêcher son utilisation abusive pour le développement d'armes.
Depuis leur popularité, les chatbots IA rencontrent de nombreux problèmes liés à la falsification et aux hallucinations.
Le mois dernier, le chatbot xAI Grok d'Elon Musk a fourni à ses utilisateurs de fausses informations sur un « génocide blanc » en Afrique du Sud, une erreur que l'entreprise a ensuite attribuée à une manipulation humaine.
En 2024, Google a suspendu sa fonction de génération d'images Gemini AI après que des utilisateurs se soient plaints que l'outil générait des images historiquement inexactes de personnes de couleur.