Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 998: ChatGPT supuestamente difamó a un usuario noruego al inventar homicidio y encarcelamiento infantil.

Traducido por IA
Descripción:
Traducido por IA
En agosto de 2024, ChatGPT supuestamente afirmó falsamente que el ciudadano noruego Arve Hjalmar Holmen había asesinado a sus dos hijos y había sido condenado a 21 años de prisión. La respuesta falsa supuestamente incluía detalles específicos sobre el supuesto delito, a pesar de que Holmen nunca fue acusado ni condenado por ningún delito. El incidente dio lugar a una denuncia en virtud del RGPD por difamación y datos personales inexactos.
Editor Notes: Timeline notes: The incident date of 08/15/2024 is an approximation; the incident is reported to have occurred sometime in August 2024. Reporting on this incident arose on 03/20/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI y ChatGPT, perjudicó a Arve Hjalmar Holmen.
Sistema de IA presuntamente implicado: ChatGPT

Estadísticas de incidentes

ID
998
Cantidad de informes
3
Fecha del Incidente
2024-08-15
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+2
ChatGPT le dijo falsamente a un hombre que había matado a sus hijos
ChatGPT le dijo falsamente a un hombre que había matado a sus hijos

ChatGPT le dijo falsamente a un hombre que había matado a sus hijos

bbc.com

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.

abc.net.au

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos

theguardian.com

ChatGPT le dijo falsamente a un hombre que había matado a sus hijos
bbc.com · 2025
Traducido por IA

Un hombre noruego presentó una denuncia después de que ChatGPT le informara falsamente que había asesinado a dos de sus hijos y fuera condenado a 21 años de prisión.

Arve Hjalmar Holmen contactó con la Autoridad Noruega de Protección de Dat…

Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.
abc.net.au · 2025
Traducido por IA

Un hombre noruego presentó una denuncia después de que el chatbot de inteligencia artificial (IA) ChatGPT afirmara falsamente que había sido condenado por el asesinato de dos de sus hijos.

Arve Hjalmar Holmen recibió la información falsa de…

Norwegian presenta una denuncia después de que ChatGPT dijera falsamente que había asesinado a sus hijos
theguardian.com · 2025
Traducido por IA

Un hombre noruego presentó una denuncia contra la empresa detrás de ChatGPT después de que el chatbot afirmara falsamente que había asesinado a dos de sus hijos.

Arve Hjalmar Holmen, una persona que se describe a sí misma como una persona n…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Passport checker Detects Asian man's Eyes as Closed

Dec 2016 · 22 informes
Robot kills worker at German Volkswagen plant

Robot kills worker at German Volkswagen plant

Jul 2014 · 27 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Dec 2021 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Passport checker Detects Asian man's Eyes as Closed

Dec 2016 · 22 informes
Robot kills worker at German Volkswagen plant

Robot kills worker at German Volkswagen plant

Jul 2014 · 27 informes
Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Alexa Recommended Dangerous TikTok Challenge to Ten-Year-Old Girl

Dec 2021 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178