Journal des citations pour l'incident 553

Description: Google's knowledge panel for the American artist Edward Hopper featured an AI-generated image which was purportedly created in the artist's style but was not one of his works, the image of which was removed soon after.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Google, endommagé Google users.

Statistiques d'incidents

ID
553
Nombre de rapports
2
Date de l'incident
2023-05-03
Editeurs
Khoa Lam
Tweet : @PennyNevilleLee
twitter.com · 2023

Si vous ne pensez pas que l'IA visuelle est un problème, c'est ce qui apparaît lorsque vous @Google Edward Hopper.

Meilleur résultat Google pour "Edward Hopper", un faux généré par l'IA
futurism.com · 2023

L'IA est déjà en train de réécrire l'histoire de l'art.

Lorsque vous avez recherché sur Google le célèbre artiste réaliste Edward Hopper cette semaine, la première image présentée qui est apparue était suffisamment convaincante. Une femme s…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.