Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5001

Incidentes Asociados

Incidente 9983 Reportes
ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

ChatGPT le dijo falsamente a un hombre que había matado a sus hijos
bbc.com · 2025

Un hombre noruego presentó una denuncia después de que ChatGPT le informara falsamente que había asesinado a dos de sus hijos y fuera condenado a 21 años de prisión.

Arve Hjalmar Holmen contactó con la Autoridad Noruega de Protección de Datos y exigió una multa para OpenAI, el creador del chatbot.

Este es el último ejemplo de las llamadas "alucinaciones", en las que los sistemas de inteligencia artificial (IA) inventan información y la presentan como si fuera un hecho.

El Sr. Holmen afirma que esta alucinación en particular le resulta muy perjudicial.

"Algunos piensan que no hay humo sin fuego; lo que más me asusta es que alguien pueda leer este mensaje y creerlo", declaró.

Se contactó con OpenAI para obtener comentarios.

El Sr. Holmen recibió la información falsa después de usar ChatGPT para buscar: "¿Quién es Arve Hjalmar Holmen?".

La respuesta que recibió de ChatGPT incluía: «Arve Hjalmar Holmen es un noruego que captó la atención debido a un trágico suceso.

Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020».

El Sr. Holmen afirmó que el chatbot calculó aproximadamente correctamente la diferencia de edad, lo que sugiere que sí tenía información precisa sobre él.

El grupo de derechos digitales Noyb, que presentó la denuncia en su nombre, afirma que la respuesta que le dio ChatGPT es difamatoria e infringe la normativa europea de protección de datos en materia de exactitud de los datos personales.

Noyb afirmó en su denuncia que el Sr. Holmen «nunca ha sido acusado ni condenado por ningún delito y es un ciudadano concienzudo».

ChatGPT incluye un descargo de responsabilidad que dice: "ChatGPT puede cometer errores. Revisa la información importante.

Noyb afirma que eso es insuficiente.

"No se puede simplemente difundir información falsa y al final añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso", declaró el abogado de Noyb, Joakim Söderberg.

Las alucinaciones son uno de los principales problemas que los informáticos intentan resolver en el ámbito de la IA generativa.

Se producen cuando los chatbots presentan información falsa como si fuera real.

A principios de este año, Apple suspendió su herramienta de resumen de noticias Apple Intelligence en el Reino Unido tras alucinar titulares falsos y presentarlos como noticias reales.

La IA Gemini de Google también ha sido víctima de alucinaciones: el año pasado sugirió pegar queso a la pizza con pegamento y afirmó que los geólogos recomiendan que los humanos coman una piedra por... día.

No está claro qué es lo que causa estas alucinaciones en los grandes modelos lingüísticos (la tecnología que sustenta a los chatbots).

Este es un área de investigación activa. ¿Cómo construimos estas cadenas de razonamiento? ¿Cómo explicamos qué sucede realmente en un modelo de lenguaje extenso?", preguntó Simone Stumpf, profesora de IA responsable e interactiva en la Universidad de Glasgow.

La profesora Stumpf afirma que esto puede aplicarse incluso a quienes trabajan entre bastidores en este tipo de modelos.

"Incluso si participas más en el desarrollo de estos sistemas con frecuencia, no sabes cómo funcionan realmente, por qué generan esta información en particular", declaró a la BBC.

ChatGPT ha cambiado su modelo desde la búsqueda del Sr. Holmen en agosto de 2024 y ahora busca artículos de noticias actuales cuando busca información relevante.

Noyb declaró a la BBC que el Sr. Holmen había realizado varias búsquedas ese día, incluyendo introducir el nombre de su hermano en el chatbot, y que este produjo "múltiples historias diferentes, todas incorrectas".

También reconocieron que las búsquedas anteriores podrían haber influido en la respuesta sobre sus hijos, pero señalaron que los modelos de lenguaje extensos son una "caja negra" y que OpenAI "no responde a las solicitudes de acceso, lo que imposibilita obtener más información sobre lo que... "Los datos exactos están en el sistema."

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e