Incident 1081: Un doubleur dénonce l'utilisation non consentie d'une voix générée par l'IA dans les trains ScotRail
Description: La doubleuse écossaise Gayanne Potter allègue que sa voix a été utilisée sans son consentement dans les annonces de trains IA de ScotRail. Elle affirme avoir accepté une utilisation limitée de ses données vocales par ReadSpeaker, mais n'avoir pas été informée qu'elles seraient utilisées dans un système de voix synthétique appelé « Iona ». ScotRail continue d'utiliser sa voix, affirmant que le litige oppose Potter à ReadSpeaker.
Editor Notes: The timeline of this incident is partially reconstructed from public statements and media reporting. The original voice recording agreement reportedly took place in 2021; the disputed use of the synthetic voice began in July 2024 with deployment on ScotRail trains. The voice actor publicly raised concerns in May 2025, stating she had been in private dispute with ReadSpeaker for over two years. Precise contractual and deployment dates remain unclear.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésAlleged: ReadSpeaker developed an AI system deployed by ScotRail, which harmed Gayanne Potter , Voiceover artists et Individuals affected by unauthorized biometric data use.
Systèmes d'IA présumés impliqués: Iona , Text-to-speech deployment in public transport , ScotRail train announcement system , Biometric voice modeling et AI-generated likeness in commercial use
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
2.1. Compromise of privacy by obtaining, leaking or correctly inferring sensitive information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Privacy & Security
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport
Loading...
Une doubleuse écossaise a demandé à ScotRail de retirer sa voix de son nouveau système d'annonces de train basé sur l'IA, n'ayant jamais accepté son utilisation.
Gayanne Potter, dont le travail comprend également les introductions de « Voix…
Loading...