Incident 995: Le New York Times poursuit OpenAI et Microsoft pour des allégations de formation non autorisée à l'IA sur son contenu
Description: Le New York Times allègue qu'OpenAI et Microsoft ont utilisé des millions de ses articles sans autorisation pour entraîner des modèles d'IA, dont ChatGPT. La plainte affirme que les entreprises ont extrait et reproduit du contenu protégé par le droit d'auteur sans compensation, portant ainsi atteinte aux activités du New York Times et compromettant son journalisme. Certains résultats d'IA reprendraient textuellement des articles du Times. La plainte réclame des dommages et intérêts et exige la destruction des modèles d'IA entraînés sur son contenu.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI , Microsoft , ChatGPT , GPT-4 et Microsoft Bing Chat, a endommagé The New York Times , Journalists , Journalism , Media organizations , publishers et Writers.
Statistiques d'incidents
ID
995
Nombre de rapports
2
Date de l'incident
2023-12-27
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

Le New York Times a poursuivi mercredi OpenAI et Microsoft pour violation du droit d'auteur, ouvrant un nouveau front dans la bataille juridique de plus en plus intense concernant l'utilisation non autorisée d'œuvres publiées pour former de…
Le New York Times a poursuivi OpenAI et Microsoft mercredi pour l'utilisation par ces entreprises technologiques de ses articles protégés par le droit d'auteur afin d'entraîner leur technologie d'intelligence artificielle. Il s'inscrit ains…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?