Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5044

Incidentes Asociados

Incidente 9983 Reportes
ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

Loading...
Un hombre noruego presenta una denuncia contra ChatGPT por afirmar falsamente que mató a sus hijos.
abc.net.au · 2025

Un hombre noruego presentó una denuncia después de que el chatbot de inteligencia artificial (IA) ChatGPT afirmara falsamente que había sido condenado por el asesinato de dos de sus hijos.

Arve Hjalmar Holmen recibió la información falsa después de que usara ChatGPT para preguntar si tenía información sobre él. La respuesta que recibió incluía: "Arve Hjalmar Holmen es un noruego que captó la atención debido a un trágico suceso.

Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020".

Sin embargo, no todos los detalles eran ficticios.

El número y el sexo de sus hijos eran correctos, así como su ciudad natal, lo que sugiere que sí contaba con información precisa sobre él.

El grupo de derechos digitales Noyb, que presentó la denuncia ante la Autoridad Noruega de Protección de Datos en su nombre, alegó que la respuesta que ChatGPT le dio fue difamatoria e infringió las normas europeas de protección de datos.

Afirmaron que el Sr. Holmen "nunca ha sido acusado ni condenado por ningún delito y es un ciudadano responsable".

ChatGPT muestra a los usuarios una advertencia en la parte inferior de su interfaz principal que indica que el chatbot puede generar resultados falsos y que se les pide que "consulten información importante".

Pero el abogado de protección de datos de Noyb, Joakim Söderberg afirmó que esto es insuficiente.

"No se puede simplemente difundir información falsa y al final añadir una pequeña advertencia que indique que todo lo que se dijo podría no ser cierto", declaró el Sr. Söderberg en un comunicado.

Exigencia de multa para OpenAI

Noyb ordenó a OpenAI eliminar el contenido difamatorio y perfeccionar su modelo para eliminar las inexactitudes.

También solicitó que OpenAI pagara una multa administrativa "para evitar infracciones similares en el futuro".

Desde el incidente de agosto de 2024, OpenAI ha lanzado una nueva versión de su chatbot, denominada GPT-4.5, que, según se informa, comete menos errores.

Sin embargo, los expertos afirman que la generación actual de IA generativa siempre alucinará.

¿Qué es la alucinación en IA?

La alucinación en IA se produce cuando los chatbots presentan información falsa como si fuera real.

OpenAI afirma que su último chatbot debería cometer menos errores de alucinación, según un sistema de medición desarrollado por la compañía. ¿Cómo funciona y qué muestra?

Un periodista alemán, Martin Bernklau, fue descrito falsamente como abusador de menores (https://www.abc.net.au/news/2024-11-04/ai-artificial-intelligence-hallucinations-defamation-chatgpt/104518612), traficante de drogas y estafador en Copilot, la herramienta de IA de Microsoft.

En Australia, el alcalde del Consejo del Condado de Hepburn, en la región de Victoria, Brian Hood, fue descrito erróneamente por ChatGPT (https://www.abc.net.au/news/2023-04-06/hepburn-mayor-flags-legal-action-over-false-chatgpt-claims/102195610) como un delincuente convicto.

El año pasado, la IA Gemini de Google sugirió a los usuarios pegar queso a la pizza con pegamento y afirmó que los geólogos recomiendan comer una piedra al día.

En un comunicado, el Sr. Holmen afirmó que esta alucinación en particular era muy perjudicial.

"Algunos piensan que no hay humo sin fuego.

"Lo que más me asusta es que alguien pueda leer esto y creer que es cierto".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd