Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6920

Loading...
Les frappes américaines au Moyen-Orient utilisent Anthropic, quelques heures après l'interdiction de Trump
wsj.com · 2026

Quelques heures seulement après avoir annoncé que le gouvernement fédéral américain mettrait fin à son utilisation des outils d'intelligence artificielle développés par la société Anthropic, le président Trump a lancé une importante frappe aérienne contre l'Iran en s'appuyant sur ces mêmes outils.

Des commandements à travers le monde, dont le Commandement central américain (CENTCOM) au Moyen-Orient, utilisent l'outil Claude d'Anthropic, ont confirmé des sources proches du dossier. Le CENTCOM s'est refusé à tout commentaire concernant les systèmes spécifiques utilisés dans le cadre de son opération en cours contre l'Iran.

Le commandement utilise cet outil pour l'évaluation du renseignement, l'identification des cibles et la simulation de scénarios de combat, alors même que les tensions entre l'entreprise et le Pentagone s'intensifient, ont indiqué ces mêmes sources, soulignant ainsi l'importance des outils d'IA dans les opérations militaires.

L'administration et Anthropic sont en conflit depuis des mois quant à l'utilisation de ses modèles d'IA par le Pentagone. Vendredi, Trump a ordonné aux agences gouvernementales de cesser toute collaboration avec Anthropic, et le département de la Défense l'a désignée comme une menace pour la sécurité et un risque pour sa chaîne d'approvisionnement.

Cette décision fait suite au refus d'Anthropic d'autoriser le Pentagone à utiliser ses outils dans tous les contextes légaux lors des négociations contractuelles. Le lobbying d'Anthropic contre la politique de l'administration en matière d'IA et ses liens avec des organisations qui financent largement le Parti démocrate ont également irrité les responsables de l'administration.

L'utilisation de Claude lors de missions de grande envergure, comme l'opération militaire américaine qui a permis la capture du président vénézuélien Nicolás Maduro, explique pourquoi l'administration américaine avait annoncé un délai de six mois pour le retrait progressif de cette technologie – un processus complexe compte tenu de son utilisation par des partenaires tels que la société d'analyse de données Palantir.

Alors que les relations entre Anthropic et le Pentagone se sont détériorées, le département de la Défense a conclu des accords pour utiliser les systèmes concurrents d'OpenAI (créateur de ChatGPT) et de xAI (d'Elon Musk) dans des contextes classifiés. Selon les experts en IA, le remplacement de Claude par les autres modèles prendra des mois.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd