Bienvenue dansla base de données des incidents d'IA
Incident 1001: LLM Scrapers Allegedly Target Multiple Open Source Projects Disrupting the FOSS Ecosystem
“L'infrastructure FOSS est attaquée par les entreprises d'IA”Dernier rapport
Il y a trois jours, Drew DeVault, fondateur et PDG de SourceHut, a publié un article de blog intitulé « Arrêtez de me facturer vos coûts directement », dans lequel il se plaignait que les entreprises de LLM exploraient les données sans resp…
Incident 999: Attackers Reportedly Deployed Simulated AI Support Chatbot to Trick Instagram Business Users into Adding Malicious 2FA Login
“Du clickbait à la catastrophe : comment un faux e-mail méta mène au pillage de mots de passe”
Les réseaux sociaux sont largement utilisés en marketing, permettant aux entreprises de générer des publicités qui attirent des clients potentiels. Mais que se passerait-il si vous receviez un e-mail indiquant : « VOS ANNONCES SONT TEMPORAI…
Incident 1000: Sora Video Generator Has Reportedly Been Creating Biased Human Representations Across Race, Gender, and Disability
“Sora d'OpenAI est en proie à des préjugés sexistes, racistes et capacitistes”
Malgré les récentes avancées en matière de qualité d'image, les biais constatés dans les vidéos générées par des outils d'IA, comme Sora d'OpenAI, sont plus flagrants que jamais. Une enquête de WIRED, qui a notamment examiné des centaines d…
Incident 998: ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment
“ChatGPT a faussement dit à un homme qu'il avait tué ses enfants”
Un Norvégien a porté plainte après que ChatGPT lui a faussement affirmé avoir tué deux de ses fils et avoir été condamné à 21 ans de prison.
Arve Hjalmar Holmen a contacté l'Autorité norvégienne de protection des données et a exigé une amen…