Incidents associés
Suite au crash du vol 171 d'Air India à Ahmedabad, la désinformation générée par l'IA, notamment de faux rapports et images, s'est rapidement propagée, exacerbant la confusion due au retard des informations officielles. Les experts soulignent l'urgence d'une communication plus rapide et transparente, ainsi que la responsabilité des plateformes, afin de lutter contre la tromperie numérique en temps de crise. Cet incident met en lumière le défi croissant que représente la désinformation générée par l'IA lors d'événements sensibles.
Au lendemain du tragique crash du vol 171 d'Air India à Ahmedabad, qui a fait 275 morts le 12 juin, la diffusion de fausses informations, alimentée par du contenu généré par l'IA, a suscité de nouvelles inquiétudes quant à la désinformation numérique en temps de crise. Un faux rapport préliminaire sur le crash, contenant du jargon aéronautique et même des émojis, a fait le tour du monde de l'aviation avant d'être réfuté par les autorités, a rapporté ET. Il a ensuite été découvert que le document avait été généré par l'intelligence artificielle à partir des détails d'un incident de LATAM Airlines survenu en 2024 en Amérique du Sud.
Un vol d'Air India bloqué et un avertissement GPWS après un deuxième quasi-accident au décollage de Delhi
Avant même que le gouvernement indien ne puisse qualifier ce rapport de faux, des sites d'information avaient déjà publié des articles basés sur celui-ci, induisant en erreur même les professionnels de l'aviation. Selon le ministère, le Bureau d'enquête sur les accidents d'aviation (AAIB) a récupéré et transporté l'enregistreur de conversations de poste de pilotage (CVR) et l'enregistreur de données de vol (FDR) à New Delhi le 24 juin, plus d'une semaine après leur récupération, mais n'a fourni aucune explication pour ce retard, selon ET. Le vide informationnel a rapidement été comblé par des images et des récits fabriqués de toutes pièces. Amit Relan, PDG de mFilterIt, une entreprise de détection de fraude numérique, a déclaré à ET : « Nous avons observé une tendance inquiétante dans la manière dont les acteurs malveillants exploitent l'IA et les réseaux sociaux pour diffuser de fausses informations et commettre des fraudes lors d'événements sensibles comme le crash du vol 171 d'Air India. » Son entreprise a identifié non seulement des vidéos deepfakes des suites du crash, mais aussi des campagnes de financement frauduleuses. « Il s'agit d'un cas classique de fraude financière motivée par l'émotion », a averti Relan. Le groupe de vérification des faits BOOM a également signalé plusieurs images générées par l'IA, notamment des images truquées montrant l'avion en feu ou faussement positionné à l'extérieur de l'aéroport d'Ahmedabad. Ces images, dépourvues d'avertissements, ont été signalées comme synthétiques par les détecteurs d'IA. BOOM a confirmé le caractère trompeur de ces contenus grâce à des outils de vérification d'IA. John Cox, ancien pilote de ligne et consultant en enquêtes sur les accidents, a critiqué la lenteur de la communication de l'AAIB. « Il s'agit du cas de désinformation le plus répandu jamais observé lors d'un accident », a-t-il déclaré à ET. L'AAIB devrait organiser des briefings quotidiens, comme le font les agences du monde entier. Car en l'absence d'informations, c'est la désinformation qui comble le vide. L'Organisation de l'aviation civile internationale (OACI) souligne également la nécessité d'une communication médiatique efficace lors des enquêtes sur les accidents, affirmant qu'« une stratégie de communication bien planifiée et exécutée peut grandement contribuer à minimiser la publicité négative et à garantir que les faits soient rapportés rapidement et avec précision. » Mishi Choudhary, fondatrice du Software Freedom Law Centre, a mis l'accent sur une approche à plusieurs niveaux. « Chaque nouvelle catastrophe offre désormais de nouvelles opportunités aux trafiquants de désinformation », a-t-elle déclaré. « Ce problème ne peut être résolu par l'adoption de nouvelles lois. Les plateformes doivent prendre leurs responsabilités en investissant davantage dans la lutte contre la désinformation dans différentes langues. » Alors que le contenu généré par l'IA devient plus convaincant et accessible, les experts affirment que l'Inde doit adopter des stratégies de communication plus rapides, transparentes et intégrées à la technologie, en particulier lors de tragédies nationales, pour endiguer la vague croissante de tromperies numériques.