Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6787

Incidentes Asociados

Incidente 13293 Reportes
Grok Reportedly Generated and Distributed Nonconsensual Sexualized Images of Adults and Minors in X Replies

Loading...
La inteligencia artificial Grok de Elon Musk genera imágenes de menores con ropa minimalista.
theguardian.com · 2026

El chatbot Grok de Elon Musk publicó el viernes que fallas en las medidas de seguridad lo llevaron a generar "imágenes que muestran a menores con ropa mínima" en la plataforma de redes sociales X. El chatbot, producto de xAI, la empresa de Musk, ha generado una oleada de imágenes sexualizadas durante toda la semana en respuesta a las solicitudes de los usuarios.

Capturas de pantalla compartidas por los usuarios en X mostraron que la pestaña de medios públicos de Grok estaba repleta de este tipo de imágenes. xAI afirmó estar trabajando para mejorar sus sistemas y prevenir futuros incidentes.

“Hay casos aislados en los que los usuarios solicitaron y recibieron imágenes de IA que mostraban a menores con ropa mínima”, declaró Grok en una publicación en X, respondiendo a un usuario. “xAI cuenta con medidas de seguridad, pero se están realizando mejoras para bloquear estas solicitudes por completo”.

“Como se mencionó, hemos identificado fallas en las medidas de seguridad y las estamos solucionando urgentemente: el abuso sexual infantil (CSAM) es ilegal y está prohibido”, publicó xAI en la cuenta @Grok en X, refiriéndose a material de abuso sexual infantil.

Muchos usuarios en X han incitado a Grok a generar versiones sexualizadas y no consensuadas de imágenes alteradas por IA en los últimos días, en algunos casos quitándoles la ropa a las personas sin su consentimiento. El jueves, Musk republicó una foto suya en bikini, capturada con IA, acompañada de emojis de risa y llanto, en un guiño a la tendencia.

La generación de imágenes sexualizadas de Grok parecía carecer de medidas de seguridad, lo que permitía que aparecieran menores en sus publicaciones, generalmente mujeres, con poca ropa, según las publicaciones del chatbot. En una respuesta a un usuario de X el jueves, Grok afirmó que la mayoría de los casos podrían prevenirse mediante filtros avanzados y monitorización, aunque afirmó que "ningún sistema es 100 % infalible", y añadió que xAI estaba priorizando las mejoras y revisando los detalles compartidos por los usuarios.

Al ser contactada por correo electrónico para solicitar comentarios, xAI respondió con el mensaje: "Mentiras de los medios tradicionales".

El problema del uso de IA para generar material de abuso sexual infantil es un problema de larga data en la industria de la inteligencia artificial. Un estudio de Stanford de 2023 descubrió que un conjunto de datos utilizado para entrenar varias herramientas populares de generación de imágenes de IA contenía más de 1000 imágenes de abuso sexual infantil. Según los expertos, entrenar a la IA con imágenes de abuso infantil puede permitir que los modelos generen nuevas imágenes de niños explotados.

Grok también tiene un historial de incumplimiento de sus medidas de seguridad y de publicación de desinformación. En mayo del año pasado, Grok comenzó a publicar sobre la conspiración de extrema derecha del "genocidio blanco" en Sudáfrica en publicaciones sin relación con el concepto. xAI también se disculpó en julio después de que Grok comenzara a publicar fantasías de violación y material antisemita, incluyendo autodenominarse "MechaHitler" y elogiar la ideología nazi. Sin embargo, la compañía consiguió un contrato de casi 200 millones de dólares con el Departamento de Defensa de EE. UU. una semana después de los incidentes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc