Description: The New York Times alleges that OpenAI and Microsoft used millions of its articles without permission to train AI models, including ChatGPT. The lawsuit claims the companies scraped and reproduced copyrighted content without compensation, in turn undermining the Times’s business and competing with its journalism. Some AI outputs allegedly regurgitate Times articles verbatim. The lawsuit seeks damages and demands the destruction of AI models trained on its content.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI , Microsoft , ChatGPT , GPT-4 et Microsoft Bing Chat, a endommagé The New York Times , Journalists , Journalism , Media organizations , publishers et Writers.
Statistiques d'incidents
ID
995
Nombre de rapports
2
Date de l'incident
2023-12-27
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

Le New York Times a poursuivi mercredi OpenAI et Microsoft pour violation du droit d'auteur, ouvrant un nouveau front dans la bataille juridique de plus en plus intense concernant l'utilisation non autorisée d'œuvres publiées pour former de …
Le New York Times a poursuivi OpenAI et Microsoft mercredi pour l'utilisation par ces entreprises technologiques de ses articles protégés par le droit d'auteur afin d'entraîner leur technologie d'intelligence artificielle. Il s'inscrit ains…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?