Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 998: ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

Descripción: In August 2024, ChatGPT is reported to have falsely claimed that Norwegian citizen Arve Hjalmar Holmen had killed his two sons and been sentenced to 21 years in prison. The fabricated response allegedly included specific details about the supposed crime, despite Holmen never being accused or convicted of any offense. The incident prompted a GDPR complaint for defamation and inaccurate personal data.
Editor Notes: Timeline notes: The incident date of 08/15/2024 is an approximation; the incident is reported to have occurred sometime in August 2024. Reporting on this incident arose on 03/20/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI y ChatGPT, perjudicó a Arve Hjalmar Holmen.
Sistema de IA presuntamente implicado: ChatGPT

Estadísticas de incidentes

ID
998
Cantidad de informes
3
Fecha del Incidente
2024-08-15
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+2
ChatGPT le dijo falsamente a un hombre que había matado a sus hijos
ChatGPT le dijo falsamente a un hombre que había matado a sus hijos

ChatGPT le dijo falsamente a un hombre que había matado a sus hijos

bbc.com

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.

abc.net.au

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos

theguardian.com

ChatGPT le dijo falsamente a un hombre que había matado a sus hijos
bbc.com · 2025
Traducido por IA

Un hombre noruego presentó una denuncia después de que ChatGPT le informara falsamente que había asesinado a dos de sus hijos y fuera condenado a 21 años de prisión.

Arve Hjalmar Holmen contactó con la Autoridad Noruega de Protección de Dat…

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.
abc.net.au · 2025
Traducido por IA

Un hombre noruego presentó una denuncia después de que el chatbot de inteligencia artificial (IA) ChatGPT afirmara falsamente que había sido condenado por el asesinato de dos de sus hijos.

Arve Hjalmar Holmen recibió la información falsa de…

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos
theguardian.com · 2025
Traducido por IA

Un hombre noruego presentó una denuncia contra la empresa detrás de ChatGPT después de que el chatbot afirmara falsamente que había asesinado a dos de sus hijos.

Arve Hjalmar Holmen, una persona que se describe a sí misma como una persona n…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes
Robot kills worker at German Volkswagen plant

Robot kills worker at Volkswagen plant in Germany

Jul 2014 · 27 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa tells 10-year-old girl to touch live plug with penny

Dec 2021 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes
Robot kills worker at German Volkswagen plant

Robot kills worker at Volkswagen plant in Germany

Jul 2014 · 27 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa tells 10-year-old girl to touch live plug with penny

Dec 2021 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df