Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...

Incidente 1429: El Banco de Italia advirtió que se utilizaron supuestos deepfakes del gobernador Fabio Panetta en presuntas promociones de inversión fraudulentas.

Traducido por IA
“”Último informe
bancaditalia.it2026-03-22
Leer Más
Loading...
Miles de personas se han enamorado de esta chica ideal de MAGA. Está hecha con IA.

Incidente 1422: Una cuenta sin etiqueta, supuestamente generada por IA y con el nombre de usuario "Jessica Foster", se habría hecho pasar por una militar partidaria de Trump para atraer seguidores y dirigir a los usuarios a contenido para adultos de pago.

Traducido por IA
“Miles de personas se han enamorado de esta chica ideal de MAGA. Está hecha con IA.”
washingtonpost.com2026-03-21

La bella Jessica Foster, rubia militar, posó con un avión de combate F-22 Raptor, se vistió con ropa de camuflaje en el desierto y caminó por una pista de aterrizaje con el presidente Donald Trump el primer día de los ataques contra Irán.

La gran cantidad de fotos y videos que muestran la vida patriótica de la supuesta "chica ideal" de MAGA han disparado su cuenta de Instagram, ganando más de un millón de seguidores desde que comenzó a publicar hace cuatro meses.

Pero Foster es una ilusión: una mujer falsa que, según los expertos, probablemente fue creada por un generador de imágenes de inteligencia artificial. No existe ningún registro público del servicio militar de Foster y la cuenta, a pesar de no estar etiquetada como generada por IA, está repleta de indicios de que es falsa. Entre muchas de sus publicaciones a favor de Trump, Foster también muestra sus pies de forma prominente.

El éxito viral de Foster pone de manifiesto una estrategia cada vez más común para captar la atención en línea. Numerosas cuentas de derecha, que difunden patriotismo mezclado con pornografía blanda, utilizan mujeres falsas e imágenes convincentes para atraer espectadores en una internet saturada, monetizar su interés y obtener réditos políticos.

Cuentas que muestran mujeres generadas por IA haciéndose pasar por soldados, camioneras y policías que apoyan a Trump han logrado un aumento exponencial de audiencias en plataformas como TikTok, Instagram y X, donde miles de usuarios han comentado afirmando creer que las mujeres son reales.

Una versión de esta estrategia también se ha visto en las últimas semanas fuera de Estados Unidos. Cientos de videos generados por IA que muestran a mujeres soldados y pilotos iraníes animando al ejército del país se han multiplicado en internet, como informó inicialmente la BBC (https://www.bbc.com/news/videos/cy9gw900dp9o). Una señal inequívoca de que son falsos: Irán prohíbe a las mujeres participar en combate.

Sam Gregory, director ejecutivo de Witness, un grupo que promueve la autenticidad de los videos e investiga los deepfakes, afirmó que el caso de Foster ejemplifica el poder engañoso de los generadores de video con IA.

Los avances en IA han facilitado a los creadores la generación de un personaje falso consistente para usarlo en múltiples fotos o videos y para colocarlo junto a figuras públicas reales, dando la impresión de que el personaje está en el centro de eventos reales.

Al incorporar elementos políticos y eventos actuales a la vida ficticia de estos personajes, sus creadores probablemente buscan maximizar su viralidad y destacar en el entorno digital, explicó Gregory. Una vez que captan la atención del público, los creadores pueden —como en el caso de Foster— redirigirlos a una plataforma de pago, donde se les pide a los usuarios que paguen por escenas más explícitas.

Foster es "la personificación de las fantasías de MAGA, todo concentrado en un solo canal, pero es obvio que se trata de IA: las imágenes carecen de procedencia, no hay historial sobre ella, se aprecian fallos", afirmó. "Hay infinidad de mujeres hermosas, reales e irreales, en internet, pero tener una tan cercana al poder, en torno a los grandes eventos del día, tiene un atractivo diferente".

La persona desconocida que gestiona la cuenta de Foster no respondió a las solicitudes de comentarios. Tras la solicitud de comentarios de The Washington Post, la cuenta publicó el miércoles una nueva foto que muestra a Foster navegando a bordo de un buque militar en el estrecho de Ormuz.

Una portavoz del Ejército declaró que las autoridades no encontraron ningún registro de Foster. Instagram eliminó la cuenta de Foster por violar sus políticas el jueves por la noche, según informó un portavoz de Meta. La Casa Blanca no respondió a las solicitudes de comentarios.

El primer video de Foster, publicado el Día de Acción de Gracias, mostraba a la mujer de ojos azules sentada bajo una bandera estadounidense con una camiseta ajustada e incluía un pie de foto que pedía comentarios a todos los "chicos heterosexuales a los que les guste una chica del ejército estadounidense".

En los meses siguientes, se publicaron más de 50 fotos y videos que revelaban una intensa agenda de reuniones con la primera dama Melania Trump, el presidente ucraniano Volodymyr Zelensky, el presidente ruso Vladimir Putin y la estrella del fútbol Lionel Messi. Entre esos encuentros, Foster hacía bromas subidas de tono, daba discursos y participaba en peleas de almohadas con sus compañeras.

"El mejor trabajo del mundo", decía el pie de foto de un video del mes pasado que mostraba a Foster con casco y chaleco táctico.

Los momentos eran extraordinariamente extravagantes, pero incluso los detalles dejaban entrever sus intenciones. Las insignias de sus uniformes de combate y servicio sugieren una mezcla confusa de cualificaciones, indicando que podría ser sargento de estado mayor, graduada de la escuela Ranger o general de brigada.

En una foto, aparece dando un discurso en la "Conferencia de la Frontera de la Paz", una versión fallida de la nueva Junta de Paz de Trump. En otra, donde se la ve sosteniendo a Nicolás Maduro, expresidente de Venezuela, su uniforme muestra su nombre de pila en lugar de su apellido.

A pesar de ello, miles de usuarios han inundado la sección de comentarios de sus publicaciones. Refiriéndose a Foster, la inversora de Silicon Valley Justine Moore, de la firma de capital riesgo Andreessen Horowitz, comentó en una publicación: "Me sorprende la cantidad de hombres que siguen a influencers que claramente son IA".

Las publicaciones de Foster han recibido más de 100.000 comentarios, muchos de ellos de cuentas con hombres en sus fotos de perfil. Algunos la acusaron de ser IA, aunque muchos simplemente elogiaron su belleza, le enviaron emojis de ojos de corazón o la animaron.

La cuenta verificada de Instagram de un funcionario de transporte brasileño le dio "me gusta" a la mayoría de sus fotos y le dijo a Foster que era "linda" o hermosa. Otro usuario preguntó: "¿Por qué NUNCA respondes?". (Las cuentas no respondieron a las solicitudes de comentarios).

El Instagram de Foster, que incluye galerías tituladas "training", "U.S." y "dailyarmy", originalmente estaba vinculado a una cuenta en OnlyFans, una plataforma de suscripción popular entre creadores de contenido para adultos. Un portavoz de OnlyFans declaró que la cuenta fue eliminada por infringir sus normas, que exigen que todos los creadores sean adultos (humanos) verificados.

Ahora, Foster enlaza a sus seguidores con su cuenta en Fanvue, una plataforma más pequeña que compite con OnlyFans y que permite modelos con IA, etiquetándolos como "generados o mejorados".

Su cuenta allí, "jessicanextdoor", indica que está ubicada en Fort Bragg, la enorme base militar en Carolina del Norte donde se encuentra el Comando de Operaciones Especiales del Ejército, y describe a Foster como "servidora pública de día, problemática de noche 🤍".

Muchos influencers utilizan esta técnica de embudo de ventas para convertir a los espectadores gratuitos en clientes de pago que acceden a contenido más explícito y exclusivo. Fanvue se negó a compartir información sobre la cuenta, que invita a los espectadores a suscribirse para obtener "contenido especial".

"Por cierto, respondo a todos los mensajes, pero tengan paciencia, ya que no soy un robot", decía la cuenta, acompañada de un emoji de guiño. A los pocos días de su creación, la cuenta recibió más de 10.000 "me gusta".

Los manipuladores no necesitan IA para engañar a la gente en internet. Mujeres reales han visto sus fotos robadas y utilizadas para difundir mensajes políticos que no respaldaban: en 2023, una seguidora de Trump fue manipulada para crear una cuenta de izquierda que incitaba a la ira. Y en 2024, se hizo pasar a influencers europeas por fervientes seguidores de MAGA.

Pero Joan Donovan, profesora adjunta de la Universidad de Boston que estudia la manipulación mediática, afirmó que la IA ha contribuido a la proliferación de este tipo de cuentas porque son fáciles de crear, infinitamente personalizables y ofrecen a sus creadores una vía clara para ganar dinero. El atractivo político de las cuentas también ayuda a garantizar que las imágenes aparezcan en los feeds de noticias de los usuarios.

El mayor riesgo, según Donovan, es que esta estrategia de estafa se transforme en una guerra de información, con cuentas anónimas desplegadas como una especie de «ejército de bots» capaz de distribuir propaganda, desinformación o argumentos bélicos a gran escala.

«El peligro reside en que nos estamos encaminando hacia una sociedad de la irrealidad», declaró Donovan. «Es una forma de transmitir mensajes políticos, y es eficaz. Ni siquiera sabemos si vender fotos de pies es la última faceta de Jessica Foster».

Alex Horton contribuyó a este informe.

Leer Más
Loading...
El caso del "solicitante falso" de IA genera temores de estafa laboral en Corea del Norte.

Incidente 1421: Según informes, un supuesto candidato a un puesto de trabajo mediante deepfake se hizo pasar por el ejecutivo de TI de Tokio, Kenbun Yoshii, durante una entrevista de trabajo en línea.

Traducido por IA
“El caso del "solicitante falso" de IA genera temores de estafa laboral en Corea del Norte.”
upi.com2026-03-21

19 de marzo (Asia Today) – Un presunto candidato a un puesto de trabajo, presuntamente mediante deepfake, se infiltró en una entrevista de trabajo en línea en una empresa de TI japonesa, lo que generó preocupación por sus posibles vínculos con planes norcoreanos para obtener empleo en el extranjero y generar divisas.

Según un informe publicado el jueves por Yomiuri Shimbun, el candidato utilizó inteligencia artificial para suplantar la identidad de una persona real, alterando sus rasgos faciales y datos personales durante una entrevista remota realizada a principios de este mes en Tokio.

El hombre, que se identificó con un nombre falso, afirmó haberse criado en Estados Unidos y solicitó trabajar completamente a distancia. Al informarle que se requería su presencia física, finalizó la entrevista tras aproximadamente dos minutos.

El candidato había enviado un currículum en inglés a través de una plataforma de reclutamiento japonesa, donde indicaba experiencia en una importante empresa y afirmaba tener un dominio nativo del japonés. Sin embargo, el reclutador descubrió posteriormente que el perfil y la trayectoria profesional coincidían con los de Kenbun Yoshii, director ejecutivo de una empresa de TI con sede en Tokio.

Yoshii afirmó que imágenes y videos suyos disponibles públicamente parecían haber sido utilizados para crear la identidad falsa, describiendo el incidente como "escalofriante y aterrador". Posteriormente, recibió varios informes de que solicitantes similares, utilizando su identidad, habían postulado a otras empresas.

El análisis de las grabaciones de la entrevista realizado por varias organizaciones, incluyendo Okta y una startup de detección de deepfakes con sede en Tokio, reveló una alta probabilidad de que el video fuera generado mediante inteligencia artificial. Los investigadores señalaron irregularidades como contornos del cabello poco naturales, una breve desalineación de los ojos y movimientos labiales y audio incongruentes.

Okta indicó que en los últimos años se han identificado más de 6500 casos similares a nivel mundial, que involucran a personas que se cree que son trabajadores informáticos norcoreanos que utilizan identidades falsas para obtener empleos remotos en empresas extranjeras. Algunos casos implicaron la transferencia de ganancias a Corea del Norte, lo que podría haber financiado sus programas de armamento.

Un análisis independiente realizado por Trend Micro encontró evidencia de que grupos cibernéticos norcoreanos han estado experimentando con tecnología deepfake y produciendo grandes volúmenes de currículos falsificados, a menudo afirmando tener experiencia en ingeniería full-stack.

Expertos en seguridad advirtieron que estas tácticas, antes concentradas en Estados Unidos y Europa, se están extendiendo ahora a Japón. Instaron a las empresas a reforzar los procedimientos de verificación de identidad, incluyendo la autenticación multifactor y las entrevistas presenciales.

Los investigadores también señalaron que los rápidos avances en la tecnología deepfake han dificultado cada vez más su detección sin herramientas técnicas, y recomendaron métodos de verificación por capas y preguntas técnicas exhaustivas durante los procesos de contratación.

-- Reportado por Asia Today; traducido por UPI

Leer Más
Loading...
Un socio de KPMG fue multado por usar inteligencia artificial para hacer trampa en una prueba de entrenamiento de IA.

Incidente 1423: Según informes, un socio de KPMG Australia utilizó inteligencia artificial para hacer trampa en una prueba interna de capacitación en IA y fue multado con 10.000 dólares australianos.

Traducido por IA
“Un socio de KPMG fue multado por usar inteligencia artificial para hacer trampa en una prueba de entrenamiento de IA.”
theguardian.com2026-03-21

Un socio de la consultora KPMG ha sido multado por usar inteligencia artificial para hacer trampa durante un curso de formación interna sobre IA.

El socio, cuya identidad no ha sido revelada, fue multado con 10.000 dólares australianos (5.200 libras esterlinas) por usar esta tecnología para hacer trampa, siendo uno de los varios empleados que, según se informa, utilizaron esta táctica.

Más de dos docenas de empleados de KPMG Australia han sido sorprendidos usando herramientas de IA para hacer trampa en exámenes internos desde julio, según informó la empresa, lo que aumenta la preocupación por el fraude con IA en las firmas de contabilidad.

La consultora utilizó sus propias herramientas de detección de IA para descubrir el fraude, según el Australian Finance Review, que fue el primer medio en informar sobre el caso.

Las cuatro grandes firmas de contabilidad se han enfrentado a escándalos de fraude en los últimos años. En 2021, KPMG Australia fue multada con 615.000 dólares australianos por mala conducta generalizada, tras descubrirse que más de 1.100 socios habían participado en el intercambio indebido de respuestas en pruebas diseñadas para evaluar la habilidad y la integridad.

Sin embargo, las herramientas de IA han abierto nuevas posibilidades para eludir las normas. En diciembre, la Asociación de Contadores Públicos Certificados (ACCA), el organismo contable más grande del Reino Unido, anunció que exigiría a los estudiantes de contabilidad realizar los exámenes presencialmente, ya que de lo contrario sería demasiado difícil evitar las trampas mediante inteligencia artificial.

Helen Brand, directora ejecutiva de la ACCA, declaró entonces que las herramientas de IA habían alcanzado un punto crítico, dado que su uso superaba con creces las medidas de seguridad contra las trampas implementadas por la asociación.

Empresas como KPMG y PricewaterhouseCoopers también han estado exigiendo sus PwC utilizará IA en el trabajo, supuestamente para aumentar las ganancias y reducir los costos.

Según se informa, los socios de KPMG serán evaluados en función de su capacidad para utilizar herramientas de IA durante sus evaluaciones de desempeño de 2026. Niale Cleobury, líder global del equipo de IA de la firma, declaró: «Todos tenemos la responsabilidad de integrar la IA en nuestro trabajo».

Algunos usuarios de LinkedIn señalaron la ironía de utilizar la IA para hacer trampa en la capacitación de IA. KPMG está “luchando contra la adopción de la IA en lugar de rediseñar sus métodos de capacitación. No se trata de un problema de trampas, si consideramos el nuevo orden mundial. Es un problema de capacitación”, escribió Iwo Szapar, creador de una plataforma que clasifica la “madurez en IA” de las organizaciones.

KPMG afirmó haber adoptado medidas para identificar el uso de la IA por parte de su personal y realizar un seguimiento del número de empleados que hacen un uso indebido de la tecnología.

Andrew Yates, director ejecutivo de KPMG Australia, declaró: “Como la mayoría de las organizaciones, hemos estado lidiando con el papel y el uso de la IA en relación con la capacitación y las pruebas internas. Es muy difícil de controlar dada la rapidez con la que la sociedad la ha adoptado.

“Dado el uso cotidiano de estas herramientas, algunas personas infringen nuestra política. Nos tomamos muy en serio estos casos”. También estamos estudiando formas de reforzar nuestro enfoque en el actual régimen de autoinforme.”

Leer Más
Loading...
Claude Code elimina la configuración de producción de los desarrolladores, incluyendo su base de datos y las instantáneas; 2,5 años de registros fueron borrados en un instante.

Incidente 1424: Según informes, Claude Code Agent eliminó la infraestructura de producción, la base de datos y las instantáneas de DataTalks.Club mediante Terraform.

Traducido por IA
“Claude Code elimina la configuración de producción de los desarrolladores, incluyendo su base de datos y las instantáneas; 2,5 años de registros fueron borrados en un instante.”
tomshardware.com2026-03-19

A todos nos encantan las historias sobre robots agentes que fallan, y a menudo estas vienen acompañadas de cierta satisfacción maliciosa hacia nuestros compañeros virtuales. Sin embargo, a veces los errores se deben a una supervisión inadecuada, como le ocurrió a Alexey Grigorev, quien tuvo la osadía de detallar cómo logró que Claude Code borrara años de registros en un sitio web, incluyendo las instantáneas de recuperación.

La historia comienza cuando Grigorev quiso trasladar su sitio web, AI Shipping Labs, a AWS y compartir la misma infraestructura que DataTalks.Club. Claude le desaconsejó esta opción, pero Grigorev consideró que no valía la pena el esfuerzo ni el coste de mantener dos configuraciones separadas.

Gregory utiliza Terraform, una herramienta de gestión de infraestructura que permite crear (o eliminar) configuraciones completas, incluyendo redes, balanceo de carga, bases de datos y, por supuesto, los propios servidores. Le pidió a Claude que ejecutara un plan de Terraform para configurar el nuevo sitio web, pero olvidó subir un archivo de estado vital que contiene una descripción completa de la configuración en cualquier momento.

El artículo continúa a continuación.

También te puede interesar:

Claude hizo lo que Gregory le pidió y creó una configuración para el sitio web de Shipping Labs; sin embargo, el operador la detuvo a mitad de camino. Debido a la falta del archivo de estado, se crearon recursos duplicados. Gregory le pidió a Claude que identificara los recursos duplicados para corregir la situación y luego subió el archivo de estado, creyendo haber resuelto el problema.

Desafortunadamente, Gregory asumió en ese momento que el bot continuaría eliminando los recursos duplicados y solo entonces revisaría el archivo de estado para ver cómo se suponía que debía haberse configurado originalmente. Terraform y herramientas similares pueden ser muy implacables, especialmente cuando se usan sin criterio. Como Claude ya tenía el archivo de estado, lo procedió lógicamente a ejecutar una operación de "eliminación" de Terraform para preparar la configuración correcta esta vez.

Dado que la descripción de la infraestructura incluía el sitio web DataTalks.Club, esto provocó el borrado completo de la configuración de ambos sitios, incluyendo una base de datos con 2,5 años de registros y las instantáneas de la base de datos que Grigorev había utilizado como copias de seguridad. El operador tuvo que contactar con el soporte de Amazon Business, que ayudó a restaurar los datos en aproximadamente un día.

En el análisis posterior al incidente, Gregory describe algunas medidas que está tomando para evitar incidentes similares en el futuro, como establecer una prueba periódica para la restauración de la base de datos, aplicar protecciones de borrado a Terraform y a los permisos de AWS, y trasladar el archivo de estado de Terraform al almacenamiento S3 en lugar de a su máquina local. También admitió haber "dependido demasiado del agente de IA para ejecutar comandos de Terraform" y ahora está impidiendo que el agente lo haga. Además, revisará manualmente cada plan que presente Claude para poder ejecutar él mismo cualquier acción destructiva.

Recibe las mejores noticias y análisis detallados de Tom's Hardware directamente en tu correo electrónico.

Resulta tentador catalogar esta historia como otro caso de "bot tonto que salió mal", pero es probable que la mayoría de los administradores de sistemas detecten los problemas básicos del enfoque de Grigorev, como otorgar permisos de amplio alcance a quien, en la práctica, es su subordinado, y no definir el alcance de los permisos en un entorno de producción desde el principio.

Quizás la lección más importante sea asumir que Claude tendría el contexto necesario para comprender el significado de la existencia del segundo sitio web, algo que un administrador de sistemas junior no haría.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    743
  • 🥈

    Anonymous

    156
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    845
  • 🥈

    Anonymous

    238
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3127
  • 🥈

    Anonymous

    986
  • 🥉

    1

    587
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd