Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Las acciones de Xiaomi sufren la mayor caída desde abril después de que un accidente fatal con un vehículo eléctrico generara preocupaciones de seguridad.

Incidente 1232: El accidente fatal del Xiaomi SU7 Ultra en Chengdu supuestamente se debió a un fallo en la conducción automatizada y un mal funcionamiento de la cerradura de la puerta.

Traducido por IA
“Las acciones de Xiaomi sufren la mayor caída desde abril después de que un accidente fatal con un vehículo eléctrico generara preocupaciones de seguridad.”Último informe
cnbc.com2025-10-18

El gigante tecnológico chino Xiaomi vio caer sus acciones más de un 5% el lunes, tras informes de que las puertas de uno de sus vehículos eléctricos no se abrieron tras un choque en llamas en China que dejó una persona muerta.

Las acciones cayeron hasta un 8,7% en Hong Kong, marcando su mayor caída desde abril, antes de reducir las pérdidas después de que imágenes y videos de un sedán Xiaomi SU7 en llamas en Chengdu circularan en redes sociales chinas.

Videos y relatos de testigos mostraron a transeúntes intentando, sin éxito, abrir las puertas del vehículo en llamas para rescatar a un ocupante. El personal en el lugar finalmente utilizó un extintor para apagar el incendio, según informes locales.

La policía de Chengdu informó que el accidente ocurrió después de que el SU7 colisionara con otro sedán, causando la muerte de un hombre de 31 años, sospechoso de conducir bajo los efectos del alcohol.

Xiaomi, fabricante de productos electrónicos de consumo, software y vehículos eléctricos, no respondió de inmediato a la solicitud de comentarios de CNBC.

Este último incidente se produce tras un accidente mortal del SU7 a principios de este año, que generó dudas sobre las funciones de conducción inteligente del vehículo y provocó la caída de las acciones de Xiaomi.

El accidente también podría intensificar el escrutinio sobre las manijas electrónicas de las puertas, un diseño popularizado por Tesla y ahora común en los vehículos eléctricos modernos.

A diferencia de los modelos mecánicos, las manijas electrónicas de las puertas dependen de sensores y electricidad, y pueden fallar durante un incendio o un corte de energía.

China está considerando prohibir este tipo de manijas de puertas eléctricas para abordar los riesgos de seguridad asociados a esta función, según informaron medios estatales a finales de septiembre.

Mientras tanto, la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. ha iniciado una investigación sobre unos 174.000 vehículos Tesla Model Y tras recibir informes de fallos en las manijas de las puertas.

Leer Más
Loading...
Un anuncio de ataque del Partido Republicano falsifica a Chuck Schumer con inteligencia artificial

Incidente 1231: Un supuesto video deepfake generado por IA muestra al senador Chuck Schumer apoyando el cierre del gobierno en un anuncio de campaña del NRSC.

Traducido por IA
“Un anuncio de ataque del Partido Republicano falsifica a Chuck Schumer con inteligencia artificial”
npr.org2025-10-18

Un nuevo anuncio de ataque de los republicanos del Senado utiliza las palabras reales del senador Chuck Schumer sobre el cierre del gobierno, pero en una deepfake con IA del líder de la minoría demócrata del Senado.

El video de 30 segundos (https://x.com/NRSC/status/1979187237720924195), publicado en X y YouTube por el Comité Senatorial Nacional Republicano el viernes, alertó a muchos observadores, quienes advirtieron que traspasaba una nueva frontera en la política y podría desatar una avalancha de anuncios de ataque deepfake generados por IA.

Subtitulado en X "Semana 3 del cierre de Schumer: 'Cada día es mejor para nosotros'", el video muestra una versión de Schumer generada por IA repitiendo esas palabras y sonriendo. El video concluye con Schumer sonriendo mientras un narrador dice: "El cierre de Schumer está empeorando las cosas en Estados Unidos y a los demócratas les encanta".

"Cada día nos va mejor", fue parte de una cita que Schumer dio al sitio web político Punchbowl News en un artículo del 9 de octubre sobre el cierre. Continuó: "Es porque habíamos pensado en esto con mucha antelación y sabíamos que la atención médica sería el tema central el 30 de septiembre y nos preparamos para ello... Su teoría era: amenazarnos, engañarnos, y nos rendiríamos en un par de días".

Sin embargo, el artículo original solo incluía el texto de la declaración de Schumer, sin video ni audio.

Un comunicado de prensa del NRSC (https://www.nrsc.org/press-releases/video-nrsc-uses-ai-to-show-voters-exactly-what-schumer-thinks-of-his-shutdown-2025-10-17/) que anuncia el anuncio lo describe como una "visualización" del comentario de Schumer y afirma que fue "creado en parte mediante software de inteligencia artificial e incluye una advertencia sobre la IA".

La grabación falsa de Schumer incluye una pequeña marca de agua transparente del logotipo del NRSC y las palabras "GENERATED AI" (GENERADO POR IA) en la esquina inferior derecha. En YouTube, el video (https://www.youtube.com/watch?v=1-WZIStqImo) incluye la etiqueta adicional "Contenido alterado o sintético" (https://www.npr.org/2023/11/14/1212986395/youtube-will-label-ai-generated-videos-that-look-real), que indica: "El sonido o las imágenes fueron editados significativamente o generados digitalmente".

"Estas son las propias palabras de Chuck Schumer", declaró la directora de comunicaciones del NRSC, Joanna Rodríguez, en un correo electrónico a NPR. "Sabemos que Schumer desearía que la gente no supiera que dijo esto, pero lo hizo, y este video es una forma de que los votantes vean y escuchen lo orgulloso que está de su cierre".

La oficina de Schumer no respondió a una solicitud de comentarios.

Aunque la cita fue algo que Schumer dijo, el uso de IA para inventar videos falsos es excesivo, afirmó Hany Farid, profesor de la Universidad de California en Berkeley, quien estudia la manipulación de medios.

"Si hubieran querido usar la cita, podrían haber mostrado una imagen de Schumer y superpuesto la cita, como se suele hacer. No se puede argumentar razonablemente que crear un deepfake del senador Schumer sea lo mismo", afirmó.

Además, Farid afirmó que la advertencia en la esquina inferior derecha del video "no es una revelación particularmente clara ni obvia, sobre todo cuando la mayoría de los usuarios están viendo sus publicaciones en redes sociales con aires de fatalismo".

El video del NRSC también fue criticado por periodistas y otros comentaristas en redes sociales, incluyendo reporteros de publicaciones de derecha.

"La parte de Schumer es un video generado por IA, que se revela en la esquina inferior derecha, pero estamos a las puertas de un nuevo mundo aterrador", escribió Jon Levine, reportero político del Washington Free Beacon, en X (https://x.com/LevineJonathan/status/1979227930405339355).

"El NRSC ha recurrido cada vez más a la IA para sus anuncios, pero esta es la primera vez que los veo llegar al extremo de usarla para un video falso de un oponente. Es un terreno resbaladizo, incluso con la pequeña revelación de la IA en la esquina", publicó Ramsey Touchberry, reportero del Congreso del Washington Examiner en X (https://x.com/ramsberry1/status/1979218136390889730).

En medio de las críticas, Rodríguez, del NRSC, escribió en su propia cuenta X: "La IA ya está aquí y no se va a ninguna parte. Adaptarse y ganar o aferrarse a la perla y perder".

No es la primera vez que los republicanos usan la IA para hacerse pasar por Schumer y otros demócratas. En vísperas del cierre del gobierno, el presidente Trump publicó en Truth Social un video aparentemente generado por IA, plagado de blasfemias, que inventó a Schumer diciendo "ya a nadie le gustan los demócratas". El líder de la minoría de la Cámara de Representantes, Hakeem Jeffries, también aparece en el video con un sombrero y bigote caricaturescos.

Pero a diferencia del video de Schumer publicado por el NRSC, los ejemplos anteriores eran fáciles de identificar como falsos.

Farid advirtió que la creciente prevalencia de falsificaciones de IA en política podría tener un efecto corrosivo.

"Si bien no creo que nuestros líderes deban publicar deepfakes engañosos, también corren el riesgo de que, al publicar contenido real, el público tenga buenas razones para cuestionar su autenticidad", afirmó.

Leer Más
Loading...
La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney

Incidente 1234: Supuestas falsificaciones explícitas generadas por IA de estudiantes de secundaria de Sídney circulan en línea

Traducido por IA
“La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney”
abc.net.au2025-10-18

La policía está investigando informes sobre la circulación en línea de imágenes explícitas alteradas digitalmente con los rostros de alumnas de un instituto de Sídney.

La ABC tiene conocimiento de que varias familias acudieron a la comisaría de Eastwood el miércoles por la noche.

La policía confirmó en un breve comunicado que se está llevando a cabo una investigación.

"Oficiales adscritos al Comando del Área Policial de Ryde han iniciado una investigación", declaró un portavoz.

"Las indagaciones están en curso y no hay más información disponible en este momento".

Se ha informado a la ABC que los padres acudieron a la policía después de que un estudiante al que se le enviaron las imágenes lo denunciara a su escuela.

Un portavoz del Departamento de Educación afirmó que la escuela estaba colaborando estrechamente con la policía en este asunto.

"Los deepfakes presentan nuevos riesgos significativos para el bienestar y la privacidad de los estudiantes", declaró.

"Si se descubre que algún estudiante ha incurrido en este comportamiento, la escuela tomará fuertes medidas disciplinarias".

El departamento solicitó a la ABC que no se revelara la identidad de la escuela.

"Muy preocupante", afirma la ministra

La ministra de Educación interina, Courtney Houssos, afirmó que el incidente se trataría con el secretario del Departamento de Educación el jueves y en la reunión nacional de ministros de educación el viernes.

"He recibido información muy preocupante sobre estos informes", declaró.

"Este no es un problema exclusivo de Nueva Gales del Sur, sino nacional, pero es apropiado que la policía investigue este asunto".

La Sra. Houssos afirmó que las escuelas son "un microcosmos de lo que vemos en la comunidad en general".

"Este es un desafío que enfrentamos en todo el país; creo que es importante que lo consideremos específicamente en nuestras escuelas", afirmó.

La Sra. Houssos indicó que se implementarían medidas de apoyo en la escuela en cuestión.

"Estas acusaciones son realmente preocupantes y nos aseguraremos de llegar al fondo del asunto".

Se fortalecen las leyes contra las deepfakes en Nueva Gales del Sur

El mes pasado, el parlamento de Nueva Gales del Sur aprobó una ley que prohíbe el uso de inteligencia artificial (IA) para crear imágenes íntimas de una persona real e identificable sin su consentimiento.

La modificación de la Ley de Delitos de 1900 castigó con hasta tres años de cárcel la producción de deepfakes sexualmente explícitos de una persona.

En aquel momento, el fiscal general Michael Daley declaró a la ABC que las leyes estaban diseñadas para mantenerse al día con las tecnologías emergentes y erradicar las herramientas de explotación sexual.

También expresó su preocupación por su uso en las comunidades escolares.

"No se trata solo de crear caricaturas. Son formas de actuar realmente dañinas que a menudo afectan a los jóvenes en las escuelas", declaró en septiembre.

"Hemos tenido jóvenes, incluso mujeres, que se han suicidado por esta causa. Por eso, el gobierno se lo toma muy en serio".

La ministra federal de Comunicaciones, Anika Wells, señaló el mes pasado que el gobierno implementaría medidas enérgicas contra la tecnología de IA, como las aplicaciones de "desnudez".

Leer Más
Loading...
Which? encuentra estafas de inversión deepfake en YouTube

Incidente 1236: Una estafa de inteligencia artificial cuántica supuestamente utilizó recomendaciones de celebridades generadas por inteligencia artificial y sitios de medios falsos para solicitar inversiones.

Traducido por IA
“Which? encuentra estafas de inversión deepfake en YouTube”
which.co.uk2025-10-18

Which? ha advertido repetidamente sobre las estafas globales de inversión deepfake llevadas a cabo por una organización llamada "Quantum AI". Utilizando vídeos deepfake de famosos, Quantum AI ofrece atractivas ofertas de inversión en redes sociales, esta vez en YouTube.

Tentado por el apoyo de una celebridad respetada, podrías ser atraído a visitar uno de los sitios web de Quantum AI. Al llegar, te invitan a invertir, con la promesa de grandes ganancias con poco o ningún esfuerzo.

Al principio, puedes ver ganancias, pero pronto te darás cuenta de que nunca podrás retirar nada de tus ganancias ni recuperar tus inversiones. Es una estafa peligrosa que puede hacer que las personas pierdan grandes sumas de dinero.

En una encuesta reciente, el proveedor de pagos de banca abierta Yaspa informó que uno de cada 10 británicos perdió dinero debido a estafas de inversión. Descubrieron que cuatro de cada diez personas nunca recuperaron el dinero perdido tras ser víctimas de una estafa, y el importe medio perdido por estafas fue de 765 libras esterlinas.

Siga leyendo para descubrir lo que encontramos en YouTube y cómo protegerse de las estafas.

Anuncios de estafas de inversión

Which? encontró ocho vídeos sospechosos en YouTube que promocionaban la plataforma de inversión fraudulenta Quantum AI, que afirma permitir invertir en bolsa mediante inteligencia artificial (IA). Estos vídeos habían acumulado más de 17.000 visualizaciones al momento de escribir este artículo.

Todos los vídeos que encontramos llevaban a sitios web que solicitaban el nombre, apellidos, número de teléfono y dirección de correo electrónico.

Esta es la misma información que los estafadores intentaron obtener en nuestra investigación original sobre IA Cuántica (https://www.which.co.uk/news/article/which-exposed-a-global-ai-scam-quantum-ai-a6E3T4Y5WHVc), realizada el año pasado para la revista Which? Tech. Descubrimos que, una vez que les dimos información de contacto, nos bombardearon con varias llamadas diarias desde números falsos de todo el mundo, y en cada ocasión nos pidieron inversiones de entre 200 y 250 libras.

Rastreamos uno de los videos de YouTube hasta un video genérico de un presentador de noticias presentando noticias de última hora.

Which? contactó con YouTube sobre estos videos y la empresa informó: "El phishing está prohibido en YouTube y, cuando encontramos contenido que infringe nuestras políticas, tomamos medidas". Eliminó los ocho videos que compartimos.

Un hilo en Reddit también ha compartido advertencias sobre estas estafas. Un usuario de Reddit advirtió sobre un anuncio de video fraudulento de Quantum AI encontrado en YouTube, en el que se hacía pasar por el Primer Ministro, Sir Keir Starmer, y Sky News. El video parecía incluir un código QR que, según se informa, conducía a un sitio web que se hacía pasar por la BBC y presentaba un artículo falso con el Primer Ministro promocionando los beneficios de invertir con Quantum AI.

Creemos que los estafadores tomaron una entrevista genuina y la manipularon para que pareciera y sonara como si el Primer Ministro estuviera promocionando la plataforma de Quantum AI.

Innumerables anuncios, correos electrónicos y llamadas

Dirigirse incesantemente a las personas con anuncios, correos electrónicos y llamadas parece ser la táctica de la estafa de Quantum AI.

Una persona que compartió pruebas con nosotros para nuestra investigación el año pasado nos contó cómo los estafadores responsables de la estafa de inversión siguen en la mira de ellos. Nos contó que apareció un anuncio en YouTube mientras navegaba en su teléfono. El anuncio se hacía pasar por Martin Lewis, Steph McGovern y la BBC. Explicó que lo dirigía a un sitio web falso que imitaba a la BBC y le pedía nombre, correo electrónico y número de teléfono para registrarse.

Nos contó que, a día de hoy, los estafadores de IA Cuántica siguen contactándolo por correo electrónico.

Después de ser estafado, los estafadores podrían volver a contactarlo, sugiriéndole que puede ayudar a recuperar los fondos perdidos. Esto se conoce como estafa de recuperación, donde los estafadores se hacen pasar por capaces de recuperar su dinero, solo para volver a estafarlo.

Cómo evitar estafas de inversión

A principios de este año, la Autoridad de Conducta Financiera (FCA) emitió una advertencia sobre Quantum AI, indicando que podría estar ofreciendo o promocionando servicios o productos financieros sin su autorización.

Compruebe que una empresa esté regulada por la FCA buscando su nombre en el registro de la FCA (https://register.fca.org.uk/s/). Todas las plataformas fraudulentas no están reguladas, pero algunas pueden copiar los datos de una empresa legítima, así que investigue siempre la empresa antes de compartir información confidencial o dinero.

También es recomendable evitar ofertas poco realistas en anuncios o publicaciones en redes sociales de personas que promocionan oportunidades de inversión, especialmente si provienen de una cuenta no oficial. Lea nuestras guías de Which? sobre inversiones e inversiones (https://www.which.co.uk/money/investing).

Desconfía siempre de introducir tu información personal en sitios web que nunca hayas visitado y utiliza una herramienta como TinEye o la búsqueda inversa de imágenes de Google (seleccionando el icono de la imagen a la derecha de la barra de búsqueda de Google) para comprobar si una imagen se ha utilizado en otro sitio.

También puedes comprobar si un sitio web es reciente introduciéndolo en el sitio web Who.is para obtener información sobre su registro. Los sitios web nuevos suelen ser un indicio de estafa.

Si pierdes dinero en una estafa, llama a tu banco inmediatamente al número que aparece en el reverso de tu tarjeta bancaria y denúncialo a Action Fraud, o llama a la policía al 101 si estás en Escocia.

Leer Más
Loading...
Un diputado conservador denuncia a la policía un vídeo de deserción deepfake

Incidente 1233: Un supuesto video deepfake muestra al diputado conservador George Freeman abandonando el partido para unirse a Reform UK.

Traducido por IA
“Un diputado conservador denuncia a la policía un vídeo de deserción deepfake”
bbc.com2025-10-18

Un diputado conservador afirma haber denunciado a la policía un vídeo deepfake en el que aparece anunciando su adhesión a Reform UK.

George Freeman afirmó que sigue siendo diputado conservador por Mid Norfolk y que no tiene intención de unirse a Reform ni a ningún otro partido, denunciando el vídeo que circula en redes sociales como un deepfake generado por inteligencia artificial.

Freeman declaró haber denunciado el vídeo a las autoridades. Se ha contactado a la Policía de Norfolk y a Facebook para obtener comentarios.

"Este tipo de desinformación política tiene el potencial de distorsionar, perturbar y corromper gravemente nuestra democracia", añadió.

En el vídeo, ampliamente difundido, el diputado pareció afirmar que "se acabó el tiempo de las medias tintas" y que "el Partido Conservador había perdido el rumbo" tras anunciar su adhesión a Reform, según el Servicio de Información sobre Democracia Local (https://www.bbc.com/lnp/ldrs).

En respuesta, Freeman declaró: "El video es una invención, creado sin mi conocimiento ni consentimiento, y utiliza mi imagen y voz sin permiso".

"Independientemente de mi cargo como diputado, esto debería ser un delito".

Freeman ha sido diputado conservador desde 2010 y ocupó diversos cargos ministeriales en el gobierno anterior.

Recientemente, fue Ministro de Estado en el Departamento de Ciencia, Innovación y Tecnología.

Declaró: "Desconozco si este incidente fue un ataque con motivos políticos por parte de oponentes políticos o simplemente una broma peligrosa, pero es evidente que en los últimos meses ha habido un enorme aumento de la desinformación, la disrupción y el extremismo político, tanto de izquierda como de derecha, por parte de extremistas religiosos, personas influyentes peligrosas como Andrew Tate y disruptores antidemocráticos.

"He denunciado este asunto a las autoridades competentes e insto a cualquiera que vea el video a que lo denuncie de inmediato en lugar de compartirlo".

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    604
  • 🥈

    Anonymous

    152
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    691
  • 🥈

    Khoa Lam

    230
  • 🥉

    Anonymous

    224
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    2765
  • 🥈

    Anonymous

    957
  • 🥉

    Khoa Lam

    456
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65