Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2220

Incidents associés

Incident 3832 Rapports
Google Home Mini Speaker Reportedly Read N-Word in Song Title Aloud

Loading...
Google s'excuse pour le mini haut-parleur domestique qui aurait lu N-Word à haute voix
cnet.com · 2022

Pendant un temps indéterminé, les haut-parleurs intelligents de Google Home semblaient avoir prononcé à haute voix le mot N, qui avait auparavant été censuré.

L'utilisateur de TikTok @ohgustie a mis en ligne une vidéo montrant un haut-parleur Google Home Mini répétant le titre du Jay-Z et Chanson de Kanye West 'N***as In Paris sans censure, mais en faisant un bip Ain't Shit de Doja Cat. L'utilisateur, qui s'appelle Shay, a déclaré à Gizmodo, qui avait rapporté l'histoire plus tôt, que son orateur Google avait précédemment censuré le mot.

On ne sait pas quand les haut-parleurs de Google ont cessé de censurer le mot N, mais le haut-parleur de Shay au moins a de nouveau émis le mot depuis que cette vidéo a été téléchargée, selon Gizmodo.

Google n'a pas immédiatement répondu à la demande de commentaires sur la façon dont cela s'est produit, et la société n'a pas non plus répondu aux questions similaires de Gizmodo sur le sujet. Bien que très différent du moment où le chatbot de Microsoft a été corrompu par les utilisateurs de Twitter en "raciste excité" en 2016, les deux incidents ont poussé les sociétés mères à s'excuser , Microsoft déclarant que sa technologie n'était "[pas à la hauteur] (https://www.cnet.com/tech/services-and-software/microsoft-ceo-on-crazy-tay-ai-it-was- pas à la hauteur /)."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd