Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5327

Incidentes Asociados

Incidente 11043 Reportes
AI Chatbot Allegedly Used to Research Explosive Materials in Palm Springs Fertility Clinic Bombing

Loading...
El FBI afirma que los sospechosos del atentado de Palm Springs utilizaron un programa de chat con inteligencia artificial para planificar el ataque.
cnbc.com · 2025

Dos hombres sospechosos del atentado del mes pasado en una clínica de fertilidad de Palm Springs, California, utilizaron un programa de chat generativo de inteligencia artificial (https://www.cnbc.com/ai-effect/) para planificar el ataque, informaron las autoridades federales el miércoles.

Los registros de una aplicación de chat de inteligencia artificial (https://www.cnbc.com/2025/05/14/meta-google-openai-artificial-intelligence-safety.html) muestran que Guy Edward Bartkus, el principal sospechoso del atentado, "investigó cómo crear explosiones potentes con nitrato de amonio y combustible", según informaron las autoridades.

Las autoridades no identificaron el programa de inteligencia artificial utilizado por Bartkus. Las autoridades policiales de la ciudad de Nueva York arrestaron el martes a Daniel Park (https://www.cnbc.com/2025/06/04/man-arrested-at-ny-airport-in-connection-with-palm-springs-fertility-clinic-bombing.html), un hombre de Washington sospechoso de ayudar a suministrar grandes cantidades de sustancias químicas utilizadas por Bartkus en un coche bomba que dañó la clínica de fertilidad.

Bartkus murió en la explosión, mientras que otras cuatro personas resultaron heridas.

El FBI declaró en una denuncia penal contra Park que Bartkus presuntamente usó su teléfono para buscar información sobre "explosivos, diésel, mezclas de gasolina y velocidad de detonación", según informó NBC News.

Este es el segundo caso este año en el que las autoridades señalan el uso de IA para asistir en un atentado o intento de atentado. En enero, las autoridades informaron que un soldado que hizo explotar un cibercamión Tesla frente al Hotel Trump en Las Vegas utilizó inteligencia artificial generativa, incluyendo ChatGPT, para planificar el ataque.

El soldado, Matthew Livelsberger, utilizó ChatGPT para buscar información sobre cómo fabricar un explosivo, la velocidad a la que se desplazarían ciertas municiones, entre otras cosas, según las autoridades.

En respuesta al incidente de Las Vegas, OpenAI expresó su tristeza por la revelación de que su tecnología se utilizó para planear el ataque y su compromiso de garantizar que las herramientas de IA se utilicen de forma responsable.

El uso de la IA generativa se ha disparado en los últimos años con el auge de chatbots como ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google. Esto ha impulsado un gran desarrollo en torno a los servicios de IA orientados al consumidor.

Sin embargo, en su afán por mantenerse competitivas, las empresas tecnológicas están tomando cada vez más atajos en las pruebas de seguridad de sus modelos de IA antes de su lanzamiento al público, informó CNBC el mes pasado.

OpenAI el mes pasado presentó un nuevo "centro de evaluaciones de seguridad" para mostrar los resultados de seguridad de los modelos de IA y su rendimiento en pruebas de alucinaciones, fugas de la seguridad y contenido dañino, como contenido de odio o consejos ilícitos.

Anthropic añadió el mes pasado medidas de seguridad adicionales a su modelo Claude Opus 4 para evitar su uso indebido en el desarrollo de armas.

Los chatbots de IA se han enfrentado a numerosos problemas causados por manipulaciones y alucinaciones desde que ganaron popularidad.

El mes pasado, el chatbot xAI Grok de Elon Musk (https://www.cnbc.com/2025/06/03/elizabeth-warren-elon-musk-doge-report.html) proporcionó a los usuarios afirmaciones falsas sobre el "genocidio blanco" en Sudáfrica, un error que la compañía posteriormente atribuyó a manipulación humana.

En 2024, Google suspendió su función de generación de imágenes con IA Gemini (https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html) después de que los usuarios se quejaran de que la herramienta generaba imágenes históricamente inexactas de personas de color.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd