Incidente 590: Un supuesto libro generado por ChatGPT con un título duplicado, un autor falso y contenido similar aparece en Amazon antes del lanzamiento del libro del autor real.
Descripción: El autor Chris Cowell había dedicado más de un año a escribir su libro "Automatización de DevOps con Pipelines de CI/CD de GitLab" cuando, tres semanas antes de su lanzamiento, apareció otro libro con el mismo título, escrito por una autora (Marie Karpos) de la que no se pudo encontrar información. Al parecer, el libro fue escrito por ChatGPT. Aunque el artículo original del Washington Post no lo menciona, es posible que el nombre y la descripción se hayan extraído de la página de preorden de Amazon.
Entidades
Ver todas las entidadesAlleged: OpenAI y ChatGPT developed an AI system deployed by InKstall y Marie Karpos, which harmed Chris Cowell.
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
6.3. Economic and cultural devaluation of human effort
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Socioeconomic & Environmental Harms
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Chris Cowell, un desarrollador de software con sede en Portland, Oregón, pasó más de un año escribiendo un libro de instrucciones técnicas. Tres semanas antes de su lanzamiento, apareció en Amazon otro libro sobre el mismo tema y con el mis…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Amazon Censors Gay Books
· 24 informes

Images of Black People Labeled as Gorillas
· 24 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Amazon Censors Gay Books
· 24 informes

Images of Black People Labeled as Gorillas
· 24 informes