Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
AI 'fake applicant' case raises North Korea job scam fears

Incidente 1421: Purported Deepfake Applicant Reportedly Impersonated Tokyo IT Executive Kenbun Yoshii During Online Job Interview

“AI 'fake applicant' case raises North Korea job scam fears”Último informe
upi.com2026-03-21

March 19 (Asia Today) -- A suspected deepfake job applicant infiltrated an online hiring interview at a Japanese IT company, raising concerns about possible links to North Korean schemes to secure overseas employment and generate foreign currency.

According to a report Thursday by Yomiuri Shimbun, the applicant used artificial intelligence to impersonate a real individual by altering facial features and personal credentials during a remote interview conducted earlier this month in Tokyo.

The man, who identified himself under a false name, claimed he had been raised in the United States and requested fully remote work. When told that in-person attendance was required, he ended the interview after about two minutes.

The applicant had submitted an English-language résumé through a Japanese recruitment platform, listing experience at a major company and claiming native-level Japanese proficiency. However, the recruiter later discovered that the profile and career details matched those of Kenbun Yoshii, the chief executive of a Tokyo-based IT firm.

Yoshii said publicly available images and videos of him appeared to have been used to create the fake identity, describing the incident as "creepy and frightening." He later received multiple reports that similar applicants using his identity had applied to other companies.

Analysis of the interview footage by several organizations, including Okta and a Tokyo-based deepfake detection startup, found a high likelihood the video was generated using AI. Investigators cited irregularities such as unnatural hairline boundaries, brief misalignment of the eyes and mismatched lip movements and audio.

Okta said more than 6,500 similar cases have been identified globally in recent years, involving individuals believed to be North Korean IT workers using fake identities to obtain remote jobs at foreign companies. Some cases involved earnings being transferred back to North Korea, potentially supporting its weapons programs.

A separate analysis by Trend Micro found evidence that North Korean cyber groups have been experimenting with deepfake technology and producing large volumes of falsified résumés, often claiming full-stack engineering expertise.

Security experts warned that such tactics, once concentrated in the United States and Europe, are now spreading to Japan. They urged companies to strengthen identity verification procedures, including multi-factor authentication and in-person interviews.

Researchers also noted that rapid advances in deepfake technology have made detection increasingly difficult without technical tools, recommending layered verification methods and in-depth technical questioning during hiring processes.

-- Reported by Asia Today; translated by UPI

Leer Más
Loading...
Hungary's opposition leader to file criminal complaint over alleged deepfake video

Incidente 1420: Balázs Orbán Allegedly Published Purported Deepfake of Péter Magyar Claiming He Would Cut Pensions

“Hungary's opposition leader to file criminal complaint over alleged deepfake video”
reuters.com2026-03-21

BUDAPEST, Oct 29 (Reuters) - Hungarian opposition leader Peter Magyar said on Wednesday that he would file a criminal complaint against Prime Minister Viktor Orban's chief political aide for publishing what Magyar said was a deepfake video of him generated by artificial intelligence.

Magyar's centre-right Tisza party leads most opinion polls ahead of elections due in April 2026.

Aide Balazs Orban, who is not related to the prime minister, published a 38-second video on Facebook on Tuesday that purported to show Magyar saying that he would cut pensions.

The allegedly AI-generated video was published less than six months before a parliamentary election that could be Viktor Orban's toughest since he entered office in 2010, with the economy stagnating.

AIDE ACCUSES MAGYAR OF TRYING TO SILENCE THE TRUTH

In the video, Magyar seemingly says, among other things, that the current pension system was too generous and that some pensions needed to be taxed.

The video was not labeled as AI-generated. The European Union's AI Act will mandate such disclosures when it takes effect in 2026.

Magyar said in a statement that he would file a criminal complaint against Balazs Orban, accusing him of creating and publishing a fake video that amounts to defamation.

Balazs Orban did not immediately reply to emailed Reuters questions. But on Facebook he accused Magyar of wanting to "silence those who uncover their real intentions."

Analysts said the incident risked widening Hungary's deep political divisions.

"Things get dangerous when there is a video in which Magyar says things that he never did," said Gabor Polyak, head of the School of Media and Communication at Eotvos Lorand University.

Polyak added that Hungarian civil and criminal laws provide protection against defamatory fake videos, though court rulings on such cases remain untested.

Leer Más
Loading...
Una abuela de Tennessee fue encarcelada después de que un error de reconocimiento facial por IA la vinculara con un fraude.

Incidente 1416: Un supuesto error de reconocimiento facial habría provocado el arresto y encarcelamiento de una mujer de Tennessee en un caso de fraude en Dakota del Norte.

Traducido por IA
“Una abuela de Tennessee fue encarcelada después de que un error de reconocimiento facial por IA la vinculara con un fraude.”
theguardian.com2026-03-16

Una abuela de Tennessee afirma que está intentando reconstruir su vida tras un incidente de identidad equivocada provocado por un sistema de reconocimiento facial de inteligencia artificial (IA) que la vinculó a una investigación de fraude bancario en Dakota del Norte.

Angela Lipps, de 50 años, pasó casi seis meses en la cárcel después de que la policía de Fargo la identificara como sospechosa en un caso de fraude bancario organizado mediante un software de reconocimiento facial, según el medio de comunicación del sureste de Dakota del Norte, InForum. Lipps declaró al medio que nunca había estado en Dakota del Norte y que no había cometido los delitos.

Lipps, madre de tres hijos y abuela de cinco, afirmó haber vivido la mayor parte de su vida en el centro-norte de Tennessee. Nunca había viajado en avión hasta que las autoridades la trasladaron a Dakota del Norte el año pasado para enfrentar cargos.

En julio, alguaciles estadounidenses arrestaron a Lipps en su casa de Tennessee mientras cuidaba a cuatro niños. Declaró que la llevaron a punta de pistola y la ingresaron en una cárcel del condado como fugitiva de la justicia de Dakota del Norte.

"Nunca he estado en Dakota del Norte, no conozco a nadie de Dakota del Norte", dijo Lipps a WDAY News.

Permaneció en una cárcel de Tennessee durante casi cuatro meses sin derecho a fianza mientras esperaba la extradición. Fue acusada de cuatro cargos de uso no autorizado de información personal identificativa y cuatro cargos de robo.

Según los registros policiales de Fargo obtenidos por WDAY News, los detectives que investigaban casos de fraude bancario en abril y mayo de 2025 revisaron un video de vigilancia de una mujer que utilizó una identificación militar falsa del ejército estadounidense para retirar decenas de miles de dólares.

Los agentes supuestamente utilizaron un software de reconocimiento facial para identificar a la sospechosa como Lipps. Un detective habría escrito en documentos judiciales que Lipps parecía coincidir con la sospechosa en cuanto a rasgos faciales, complexión y peinado.

Lipps declaró a WDAY News que nadie del departamento de policía de Fargo se puso en contacto con ella antes de su arresto.

Según InForum, las autoridades de Dakota del Norte no trasladaron a Lipps desde Tennessee hasta finales de octubre, 108 días después de su arresto. Compareció ante un tribunal de Dakota del Norte al día siguiente.

Su abogado, Jay Greenwood, declaró al medio: "Si lo único que tienen es el reconocimiento facial, tal vez debamos investigar más a fondo".

Lipps fue puesta en libertad en Nochebuena después de que Greenwood obtuviera sus registros bancarios y los presentara a los investigadores. Los registros mostraban que Lipps se encontraba a más de 1900 kilómetros de distancia, en Tennessee, en el momento en que, según los investigadores, se produjo el fraude en Fargo.

Sin embargo, Lipps afirmó que la policía de Fargo no pagó su viaje de regreso a casa, dejándola varada. Abogados locales la ayudaron a cubrir los gastos de hotel y comida en Nochebuena y Navidad, y una organización sin fines de lucro local, el Proyecto F5, pudo ayudarla a regresar a Tennessee, según informó InForum.

Lipps ya está de vuelta en casa, pero afirma que la experiencia ha tenido consecuencias duraderas. Durante su encarcelamiento, al no poder pagar sus cuentas, Lipps perdió su casa, su coche y su perro, según declaró. También le dijo a WDAY News que nadie del departamento de policía de Fargo se había disculpado.

Este no es ni mucho menos el primer caso de un error de IA que identifica al sospechoso equivocado. En octubre, un sistema de IA aparentemente confundió la bolsa de Doritos de un estudiante de secundaria de Baltimore con un arma de fuego y llamó a la policía local para informarles de que el alumno estaba armado. Taki Allen estaba sentado con amigos fuera del instituto Kenwood de Baltimore cuando unos agentes de policía armados se le acercaron, le hicieron arrodillarse, lo esposaron y lo registraron, sin encontrar nada.

A principios de este año, la policía arrestó a un hombre en el Reino Unido por un robo en una ciudad que nunca había visitado, luego de que un software de escaneo facial lo confundiera con otra persona de ascendencia del sur de Asia. Las autoridades habían utilizado un software automatizado de reconocimiento facial que lo comparó con las imágenes de un sospechoso de un robo de 3000 libras esterlinas ocurrido a 100 millas de distancia.

Leer Más
Loading...
Los subcontratistas visualizan consultas meta de IA íntimas desde gafas inteligentes.

Incidente 1418: Según informes, las gafas inteligentes Meta AI expusieron imágenes y videos íntimos de usuarios a revisores humanos en Kenia.

Traducido por IA
“Los subcontratistas visualizan consultas meta de IA íntimas desde gafas inteligentes.”
uploadvr.com2026-03-16

Un informe de dos periódicos suecos reveló que los subcontratistas ven consultas visuales íntimas de Meta AI provenientes de las gafas inteligentes de la compañía, a veces activadas accidentalmente.

El informe conjunto de Svenska Dagbladet y Göteborgs-Posten (https://www.svd.se/a/K8nrV4/metas-ai-smart-glasses-and-data-privacy-concerns-workers-say-we-see-everything?ref=uploadvr.com) ha generado preocupación generalizada sobre la privacidad de las gafas inteligentes, no solo para quienes se encuentran cerca, sino también para los propios usuarios.

Cabe aclarar que el problema no radica en la función de captura intencional de fotos y videos de las gafas inteligentes Ray-Ban y Oakley. Las fotos y videos que se capturan intencionalmente con las gafas se sincronizan con el teléfono y ni Meta ni los subcontratistas los ven, ni se utilizan para entrenar modelos de IA.

En cambio, el informe se refiere a la funcionalidad de consulta visual de Meta AI en los dispositivos y su propensión a la activación accidental.

La función de consultas visuales de Meta AI comenzó a implementarse a principios de 2024, aproximadamente seis meses después del lanzamiento de las gafas Ray-Ban Meta, y originalmente requería decir explícitamente "Hey Meta, mira y dime <consulta>", tras lo cual la IA capturaba un fotograma para proporcionar una respuesta.

Una parte de estas respuestas se envía a contratistas externos, en países con mano de obra barata como Kenia, quienes evalúan la respuesta según su utilidad y precisión. Con el tiempo, Meta utiliza estos datos de revisión humana para mejorar la calidad de las respuestas de Meta AI.

A finales de 2024, tal como se anunció en Meta Connect ese año, Meta AI se actualizó para poder inferir de forma más natural, a partir del contexto de la consulta, si requería una captura de cámara. Por ejemplo, frases como «Hey Meta, ¿qué tipo de planta es esta?» o «Hey Meta, traduce este menú» la activaban.

Esta actualización hizo que Meta AI fuera más natural y útil. Sin embargo, también tuvo el efecto secundario de aumentar la probabilidad de que la IA capturara una imagen sin que el usuario lo deseara, ya que el dispositivo interpretaba erróneamente que había oído «Hey Meta». Además, con la función Live AI disponible en EE. UU. y Canadá, esto incluso puede incluir videoclips. La función Live AI permite iniciar una conversación continua con la IA, similar a Gemini Live de Google en los teléfonos inteligentes.

Combinado con el sistema de revisión de contratistas, esto crea el escenario de pesadilla que reveló el informe, en el que los humanos pueden ver lo que son esencialmente fotos íntimas capturadas accidentalmente desde el interior de los hogares de los usuarios de gafas inteligentes.

Los analistas de datos kenianos que hablaron con los periódicos suecos informaron haber visto imágenes y videoclips de personas desnudas yendo al baño, cambiándose de ropa y teniendo relaciones sexuales, así como viendo pornografía y mostrando documentos confidenciales y tarjetas bancarias.

Las instalaciones donde trabajan estos analistas de datos cuentan con estrictas medidas de seguridad que les impiden llevar dispositivos de grabación al trabajo o extraer estos clips de cualquier otra forma. Pero si se produjera una filtración de datos, desencadenaría un "enorme escándalo", sugiere el informe.

En respuesta al informe sueco, Meta señala que el LED frontal de las gafas siempre se ilumina al capturar imágenes (lo cual es cierto), y la empresa emitió un comunicado general indicando que los datos visuales se filtran previamente para proteger la privacidad de las personas, incluyendo el desenfoque de rostros y matrículas. Sin embargo, los trabajadores kenianos afirman que este filtro no es perfecto y que aún se aprecian otros detalles íntimos en las imágenes que revisan.

La práctica de que subcontraten la revisión de la interacción con la IA no es exclusiva de Meta. Amazon lo hace con Alexa, Google con Gemini y Apple con Siri, por ejemplo. En 2019, un informe de Bloomberg reveló cómo estos subcontratistas escuchaban conversaciones íntimas junto a la cama de los pacientes a través de dispositivos Amazon Echo, mientras que otro informe de The Guardian reveló que ocurría lo mismo con Siri de Apple.

Tras la polémica suscitada por el informe de The Guardian, Apple convirtió la revisión humana de las conversaciones de Siri en un sistema opcional, mientras que Google permite la exclusión voluntaria para Gemini.

Sin embargo, para Meta AI, no existe la opción de exclusión. Además, el formato de gafas inteligentes de Meta, con su cámara egocéntrica, plantea problemas de privacidad únicos para este modelo, lo que podría llevar a quienes conocen las implicaciones a no querer comprar gafas inteligentes o a dejar de usar las que ya poseen.

¿Impulsará este informe a Meta a modificar sus prácticas de revisión de datos, como hizo Apple tras el informe de The Guardian de 2019? ¿O se ignorará para que la empresa pueda mejorar Meta AI más rápidamente y alcanzar a modelos de IA más potentes como el Gemini 3 de Google? ¿Y cómo abordarán Google y Amazon este problema al lanzar gafas inteligentes para el consumidor en los próximos meses?

Leer Más
Loading...
La estrella de This Morning responde a las afirmaciones "vergonzosas" sobre pastillas falsas para bajar de peso.

Incidente 1417: Se alega que un supuesto deepfake de Ashley James se utilizó para promocionar pastillas para bajar de peso.

Traducido por IA
“La estrella de This Morning responde a las afirmaciones "vergonzosas" sobre pastillas falsas para bajar de peso.”
metro.co.uk2026-03-16

Ashley James, presentadora del programa This Morning, ha respondido tras la creación de un anuncio inquietante con su imagen, utilizando inteligencia artificial para promocionar pastillas para adelgazar.

Ashley se ha mostrado devastada ante la idea de que alguien compre dichas pastillas siguiendo su supuesta recomendación, calificando el anuncio falso de "violación".

Este fin de semana, la presentadora y activista publicó un vídeo en Instagram: "Tengo que confesar algo. He estado tomando pastillas para adelgazar.

'Al menos, eso es lo que os han hecho creer...'"

A continuación, se muestra una versión generada digitalmente de Ashley siendo entrevistada en el sofá de This Morning, donde parece revelar los resultados de su pérdida de peso y los beneficios de tomar dichas pastillas.

Es increíblemente realista, con la paleta de colores de This Morning, el logo de ITV y un personaje de IA que se ve y suena exactamente como ella.

«Lo he intentado todo. En serio, todo. Cada nueva dieta me daba esperanzas y me decepcionaba», comienza su personaje de IA.

«Pensé que debía rendirme, pero entonces vi una entrevista con el doctor Rangan Chatterjee, donde explicaba que el sobrepeso no es culpa tuya, sino un fallo metabólico causado por la edad, y que había desarrollado una fórmula que reactiva ese metabolismo, así que decidí probarla».

Mientras un texto en pantalla anuncia con énfasis: «¡Perdió 12 kilos en solo un mes!», el personaje añade: «Una semana después, había bajado 4 kilos. Tres semanas después, he bajado 12.

«Me siento ligera de nuevo». «Me encanta mi reflejo en el espejo de nuevo».

En su propia y experta refutación del vídeo, la verdadera Ashley informa a sus seguidores: «Muchos de vosotros me habéis enviado este anuncio, así que quiero dejarlo bien claro: no soy yo. Es un vídeo generado por IA».

«No solo nunca he dicho esto, sino que nunca he tomado estas pastillas, nunca he oído hablar de ellas y, lo más importante, jamás las promocionaría», insiste.

«Me siento devastada de que alguien pueda comprar estos productos creyendo que yo los he recomendado».

La exestrella de Made in Chelsea, conocida y querida por su contenido positivo sobre el cuerpo en las redes sociales, añadió que «siempre rechaza» cualquier oportunidad de patrocinio relacionada con dietas o pastillas para adelgazar.

«Así que no solo me siento totalmente agredida, sino que el mensaje que transmite me enfurece muchísimo».

«Ya vivimos en un mundo donde a las mujeres se nos dice constantemente que debemos encoger, ser más pequeñas, más delgadas, ocupar menos espacio». Y la situación solo empeora con el auge de las inyecciones para adelgazar.

Continuando con su diatriba en la descripción, Ashley admitió que, «si no supiera la verdad», también pensaría que el anuncio con IA era real.

«Alguien ha usado mi cara y mi voz para crear un anuncio que les dice a las mujeres que deberían adelgazar. Si me conocen, sabrán que ese es precisamente el tipo de mensaje contra el que he luchado durante años».

Además, citó otros ejemplos de figuras públicas que han sido víctimas de deepfakes. Martin Lewis, experto en ahorro, se vio obligado a denunciar contenido similar en el pasado después de que varias personas fueran estafadas por miles de libras al seguir consejos financieros falsos.

«No apoyo estos productos y jamás les diría a ustedes, ni a nadie, que necesitan adelgazar o hacer dieta», concluyó Ashley en su publicación. «Y si ven este anuncio, por favor, denúncienlo. ¡Es vergonzoso que las redes sociales permitan esto!». «Da miedo pensarlo».

En los comentarios, amigos famosos se apresuraron a ofrecer su apoyo, expresando su consternación por el anuncio.

«Esto es absolutamente indignante», escribió Carol Vorderman. «¿Qué opciones legales existen?».

Sarah Jayne Dunn comentó: «¡Qué miedo!».

«¡Esto es terrorífico!», exclamó Dani Harmer, mientras que Faye Tozer se indignó: «Nada de esto está bien 🤬».

Ashley lleva mucho tiempo defendiendo públicamente la aceptación del cuerpo, especialmente en lo que respecta a la maternidad.

En una publicación en la que hablaba sobre la retórica dañina en torno a los cuerpos posparto, Ashley escribió en enero: «El mundo mira el cuerpo de una madre y ve algo que corregir, pero nuestros hijos lo ven como su primer hogar y lo aman».

Afirmó con orgullo que, «con bebés o sin ellos, nunca deberíamos haber aprendido a odiar algo tan mágico». «Nuestros cuerpos son mágicos».

Esta madre de dos hijos también suele publicar fotos en bikini desde diferentes ángulos para animar a otras personas a sentirse seguras de sí mismas.

A principios de este año, escribió: «Ahora tengo más confianza en mi cuerpo que nunca. Y estoy orgullosa de ello, y no quiero que mi hija me vea odiar mi cuerpo».

La personalidad televisiva publicó recientemente su primer libro, titulado «Bimbo», en alusión a las etiquetas que le han puesto en internet y en un intento por reivindicarlas.

Se convirtió en un éxito de ventas, donde detalla sus propias experiencias y analiza la opresión y las expectativas que sufren las mujeres a lo largo de su vida.

Durante la promoción del libro, declaró en el programa «Woman's Hour» de la BBC: «A menudo, si la gente no está de acuerdo conmigo, va a internet y dice: “Es una rubia tonta”».

«Pero no se trata solo de “rubia tonta”, sino de todas las etiquetas que siento que se les ponen a las mujeres, ya sean “mandona”, “frígida”, “prostituta”, e incluso en la vejez, como “vieja bruja” o “bruja”. Quería explorar cómo estas etiquetas nos limitan y nos mantienen pequeñas».

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    738
  • 🥈

    Anonymous

    155
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    840
  • 🥈

    Anonymous

    235
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3113
  • 🥈

    Anonymous

    982
  • 🥉

    1

    587
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd