Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1238: Se informa que los modelos OpenAI ChatGPT fueron liberados para proporcionar instrucciones sobre armas químicas, biológicas y nucleares.

Traducido por IA
Descripción:
Traducido por IA
Una investigación de NBC News informó que los modelos de lenguaje de OpenAI, incluyendo o4-mini, GPT-5-mini, oss-20b y oss-120b, podrían ser liberados para eludir las barreras de seguridad y proporcionar instrucciones detalladas sobre la creación de armas químicas, biológicas y nucleares. Mediante un mensaje de liberación públicamente conocido, los reporteros obtuvieron resultados perjudiciales, como pasos para sintetizar patógenos o maximizar el sufrimiento con agentes químicos. OpenAI reconoció los hallazgos y afirmó que está perfeccionando las medidas de seguridad para reducir los riesgos de uso indebido.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI , ChatGPT , 04-mini , GPT-5-mini , oss-20b y oss-120b, perjudicó a General public , National security stakeholders y Public safety.
Sistemas de IA presuntamente implicados: ChatGPT , 04-mini , GPT-5-mini , oss-20b y oss-120b

Estadísticas de incidentes

ID
1238
Cantidad de informes
1
Fecha del Incidente
2025-10-10
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas
Loading...
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas

Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas

nbcnews.com

Loading...
Los sistemas de seguridad de ChatGPT se pueden eludir para obtener instrucciones sobre armas
nbcnews.com · 2025
Traducido por IA

ChatGPT de OpenAI cuenta con barreras de seguridad que, supuestamente, impiden que los usuarios generen información que pueda utilizarse con fines catastróficos, como la fabricación de armas biológicas o nucleares.

Sin embargo, estas barrer…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 informes
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65