Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1336: Le BJP a utilisé des vidéos truquées de Manoj Tiwari pour cibler les électeurs de l'Haryana lors des élections de Delhi de 2020.

Traduit par IA
Description:
Traduit par IA
En février 2020, le BJP indien a utilisé de fausses vidéos de son dirigeant, Manoj Tiwari, pour influencer les électeurs lors des élections législatives de Delhi. Ces vidéos montraient Tiwari prononçant des messages de campagne préparés à l'avance en haryanvi et en anglais, deux langues qu'il ne parlait pas, grâce à une modification de ses mouvements des lèvres et de sa voix. Diffusées via des milliers de groupes WhatsApp, ces vidéos auraient touché des millions d'électeurs à l'insu de tous.
Editor Notes: This incident reportedly took place in February 2020. The incident ID was created 01/10/2026.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown deepfake technology developers et Unknown voice cloning technology developers developed an AI system deployed by Unknown disinformation actors , Unknown disinformation actors in India , BJP Delhi IT Cell et The Ideaz Factory, which harmed General public , General public of India , Epistemic integrity , Manoj Tiwari et Electoral integrity.
Systèmes d'IA présumés impliqués: Unknown deepfake technology , Unknown voice cloning technology , Social media platforms et WhatsApp

Statistiques d'incidents

ID
1336
Nombre de rapports
1
Date de l'incident
2020-02-07
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceNous venons d'assister à la première utilisation de deepfakes dans une campagne électorale indienne.
Loading...
Nous venons d'assister à la première utilisation de deepfakes dans une campagne électorale indienne.

Nous venons d'assister à la première utilisation de deepfakes dans une campagne électorale indienne.

vice.com

Loading...
Nous venons d'assister à la première utilisation de deepfakes dans une campagne électorale indienne.
vice.com · 2020
Traduit par IA

Le 7 février, à la veille des élections législatives à Delhi, deux vidéos du président du Bharatiya Janata Party (BJP), Manoj Tiwari, critiquant le gouvernement sortant de Delhi, dirigé par Arvind Kejriwal, sont devenues virales sur WhatsAp…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 rapports
Loading...
FaceApp Racial Filters

FaceApp Racial Filters

Apr 2017 · 23 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 rapports
Loading...
FaceApp Racial Filters

FaceApp Racial Filters

Apr 2017 · 23 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc