Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Una abuela de Tennessee fue encarcelada después de que un error de reconocimiento facial por IA la vinculara con un fraude.

Incidente 1416: Un supuesto error de reconocimiento facial habría provocado el arresto y encarcelamiento de una mujer de Tennessee en un caso de fraude en Dakota del Norte.

Traducido por IA
“Una abuela de Tennessee fue encarcelada después de que un error de reconocimiento facial por IA la vinculara con un fraude.”Último informe
theguardian.com2026-03-16

Una abuela de Tennessee afirma que está intentando reconstruir su vida tras un incidente de identidad equivocada provocado por un sistema de reconocimiento facial de inteligencia artificial (IA) que la vinculó a una investigación de fraude bancario en Dakota del Norte.

Angela Lipps, de 50 años, pasó casi seis meses en la cárcel después de que la policía de Fargo la identificara como sospechosa en un caso de fraude bancario organizado mediante un software de reconocimiento facial, según el medio de comunicación del sureste de Dakota del Norte, InForum. Lipps declaró al medio que nunca había estado en Dakota del Norte y que no había cometido los delitos.

Lipps, madre de tres hijos y abuela de cinco, afirmó haber vivido la mayor parte de su vida en el centro-norte de Tennessee. Nunca había viajado en avión hasta que las autoridades la trasladaron a Dakota del Norte el año pasado para enfrentar cargos.

En julio, alguaciles estadounidenses arrestaron a Lipps en su casa de Tennessee mientras cuidaba a cuatro niños. Declaró que la llevaron a punta de pistola y la ingresaron en una cárcel del condado como fugitiva de la justicia de Dakota del Norte.

"Nunca he estado en Dakota del Norte, no conozco a nadie de Dakota del Norte", dijo Lipps a WDAY News.

Permaneció en una cárcel de Tennessee durante casi cuatro meses sin derecho a fianza mientras esperaba la extradición. Fue acusada de cuatro cargos de uso no autorizado de información personal identificativa y cuatro cargos de robo.

Según los registros policiales de Fargo obtenidos por WDAY News, los detectives que investigaban casos de fraude bancario en abril y mayo de 2025 revisaron un video de vigilancia de una mujer que utilizó una identificación militar falsa del ejército estadounidense para retirar decenas de miles de dólares.

Los agentes supuestamente utilizaron un software de reconocimiento facial para identificar a la sospechosa como Lipps. Un detective habría escrito en documentos judiciales que Lipps parecía coincidir con la sospechosa en cuanto a rasgos faciales, complexión y peinado.

Lipps declaró a WDAY News que nadie del departamento de policía de Fargo se puso en contacto con ella antes de su arresto.

Según InForum, las autoridades de Dakota del Norte no trasladaron a Lipps desde Tennessee hasta finales de octubre, 108 días después de su arresto. Compareció ante un tribunal de Dakota del Norte al día siguiente.

Su abogado, Jay Greenwood, declaró al medio: "Si lo único que tienen es el reconocimiento facial, tal vez debamos investigar más a fondo".

Lipps fue puesta en libertad en Nochebuena después de que Greenwood obtuviera sus registros bancarios y los presentara a los investigadores. Los registros mostraban que Lipps se encontraba a más de 1900 kilómetros de distancia, en Tennessee, en el momento en que, según los investigadores, se produjo el fraude en Fargo.

Sin embargo, Lipps afirmó que la policía de Fargo no pagó su viaje de regreso a casa, dejándola varada. Abogados locales la ayudaron a cubrir los gastos de hotel y comida en Nochebuena y Navidad, y una organización sin fines de lucro local, el Proyecto F5, pudo ayudarla a regresar a Tennessee, según informó InForum.

Lipps ya está de vuelta en casa, pero afirma que la experiencia ha tenido consecuencias duraderas. Durante su encarcelamiento, al no poder pagar sus cuentas, Lipps perdió su casa, su coche y su perro, según declaró. También le dijo a WDAY News que nadie del departamento de policía de Fargo se había disculpado.

Este no es ni mucho menos el primer caso de un error de IA que identifica al sospechoso equivocado. En octubre, un sistema de IA aparentemente confundió la bolsa de Doritos de un estudiante de secundaria de Baltimore con un arma de fuego y llamó a la policía local para informarles de que el alumno estaba armado. Taki Allen estaba sentado con amigos fuera del instituto Kenwood de Baltimore cuando unos agentes de policía armados se le acercaron, le hicieron arrodillarse, lo esposaron y lo registraron, sin encontrar nada.

A principios de este año, la policía arrestó a un hombre en el Reino Unido por un robo en una ciudad que nunca había visitado, luego de que un software de escaneo facial lo confundiera con otra persona de ascendencia del sur de Asia. Las autoridades habían utilizado un software automatizado de reconocimiento facial que lo comparó con las imágenes de un sospechoso de un robo de 3000 libras esterlinas ocurrido a 100 millas de distancia.

Leer Más
Loading...
Los subcontratistas visualizan consultas meta de IA íntimas desde gafas inteligentes.

Incidente 1418: Según informes, las gafas inteligentes Meta AI expusieron imágenes y videos íntimos de usuarios a revisores humanos en Kenia.

Traducido por IA
“Los subcontratistas visualizan consultas meta de IA íntimas desde gafas inteligentes.”
uploadvr.com2026-03-16

Un informe de dos periódicos suecos reveló que los subcontratistas ven consultas visuales íntimas de Meta AI provenientes de las gafas inteligentes de la compañía, a veces activadas accidentalmente.

El informe conjunto de Svenska Dagbladet y Göteborgs-Posten (https://www.svd.se/a/K8nrV4/metas-ai-smart-glasses-and-data-privacy-concerns-workers-say-we-see-everything?ref=uploadvr.com) ha generado preocupación generalizada sobre la privacidad de las gafas inteligentes, no solo para quienes se encuentran cerca, sino también para los propios usuarios.

Cabe aclarar que el problema no radica en la función de captura intencional de fotos y videos de las gafas inteligentes Ray-Ban y Oakley. Las fotos y videos que se capturan intencionalmente con las gafas se sincronizan con el teléfono y ni Meta ni los subcontratistas los ven, ni se utilizan para entrenar modelos de IA.

En cambio, el informe se refiere a la funcionalidad de consulta visual de Meta AI en los dispositivos y su propensión a la activación accidental.

La función de consultas visuales de Meta AI comenzó a implementarse a principios de 2024, aproximadamente seis meses después del lanzamiento de las gafas Ray-Ban Meta, y originalmente requería decir explícitamente "Hey Meta, mira y dime <consulta>", tras lo cual la IA capturaba un fotograma para proporcionar una respuesta.

Una parte de estas respuestas se envía a contratistas externos, en países con mano de obra barata como Kenia, quienes evalúan la respuesta según su utilidad y precisión. Con el tiempo, Meta utiliza estos datos de revisión humana para mejorar la calidad de las respuestas de Meta AI.

A finales de 2024, tal como se anunció en Meta Connect ese año, Meta AI se actualizó para poder inferir de forma más natural, a partir del contexto de la consulta, si requería una captura de cámara. Por ejemplo, frases como «Hey Meta, ¿qué tipo de planta es esta?» o «Hey Meta, traduce este menú» la activaban.

Esta actualización hizo que Meta AI fuera más natural y útil. Sin embargo, también tuvo el efecto secundario de aumentar la probabilidad de que la IA capturara una imagen sin que el usuario lo deseara, ya que el dispositivo interpretaba erróneamente que había oído «Hey Meta». Además, con la función Live AI disponible en EE. UU. y Canadá, esto incluso puede incluir videoclips. La función Live AI permite iniciar una conversación continua con la IA, similar a Gemini Live de Google en los teléfonos inteligentes.

Combinado con el sistema de revisión de contratistas, esto crea el escenario de pesadilla que reveló el informe, en el que los humanos pueden ver lo que son esencialmente fotos íntimas capturadas accidentalmente desde el interior de los hogares de los usuarios de gafas inteligentes.

Los analistas de datos kenianos que hablaron con los periódicos suecos informaron haber visto imágenes y videoclips de personas desnudas yendo al baño, cambiándose de ropa y teniendo relaciones sexuales, así como viendo pornografía y mostrando documentos confidenciales y tarjetas bancarias.

Las instalaciones donde trabajan estos analistas de datos cuentan con estrictas medidas de seguridad que les impiden llevar dispositivos de grabación al trabajo o extraer estos clips de cualquier otra forma. Pero si se produjera una filtración de datos, desencadenaría un "enorme escándalo", sugiere el informe.

En respuesta al informe sueco, Meta señala que el LED frontal de las gafas siempre se ilumina al capturar imágenes (lo cual es cierto), y la empresa emitió un comunicado general indicando que los datos visuales se filtran previamente para proteger la privacidad de las personas, incluyendo el desenfoque de rostros y matrículas. Sin embargo, los trabajadores kenianos afirman que este filtro no es perfecto y que aún se aprecian otros detalles íntimos en las imágenes que revisan.

La práctica de que subcontraten la revisión de la interacción con la IA no es exclusiva de Meta. Amazon lo hace con Alexa, Google con Gemini y Apple con Siri, por ejemplo. En 2019, un informe de Bloomberg reveló cómo estos subcontratistas escuchaban conversaciones íntimas junto a la cama de los pacientes a través de dispositivos Amazon Echo, mientras que otro informe de The Guardian reveló que ocurría lo mismo con Siri de Apple.

Tras la polémica suscitada por el informe de The Guardian, Apple convirtió la revisión humana de las conversaciones de Siri en un sistema opcional, mientras que Google permite la exclusión voluntaria para Gemini.

Sin embargo, para Meta AI, no existe la opción de exclusión. Además, el formato de gafas inteligentes de Meta, con su cámara egocéntrica, plantea problemas de privacidad únicos para este modelo, lo que podría llevar a quienes conocen las implicaciones a no querer comprar gafas inteligentes o a dejar de usar las que ya poseen.

¿Impulsará este informe a Meta a modificar sus prácticas de revisión de datos, como hizo Apple tras el informe de The Guardian de 2019? ¿O se ignorará para que la empresa pueda mejorar Meta AI más rápidamente y alcanzar a modelos de IA más potentes como el Gemini 3 de Google? ¿Y cómo abordarán Google y Amazon este problema al lanzar gafas inteligentes para el consumidor en los próximos meses?

Leer Más
Loading...
La estrella de This Morning responde a las afirmaciones "vergonzosas" sobre pastillas falsas para bajar de peso.

Incidente 1417: Se alega que un supuesto deepfake de Ashley James se utilizó para promocionar pastillas para bajar de peso.

Traducido por IA
“La estrella de This Morning responde a las afirmaciones "vergonzosas" sobre pastillas falsas para bajar de peso.”
metro.co.uk2026-03-16

Ashley James, presentadora del programa This Morning, ha respondido tras la creación de un anuncio inquietante con su imagen, utilizando inteligencia artificial para promocionar pastillas para adelgazar.

Ashley se ha mostrado devastada ante la idea de que alguien compre dichas pastillas siguiendo su supuesta recomendación, calificando el anuncio falso de "violación".

Este fin de semana, la presentadora y activista publicó un vídeo en Instagram: "Tengo que confesar algo. He estado tomando pastillas para adelgazar.

'Al menos, eso es lo que os han hecho creer...'"

A continuación, se muestra una versión generada digitalmente de Ashley siendo entrevistada en el sofá de This Morning, donde parece revelar los resultados de su pérdida de peso y los beneficios de tomar dichas pastillas.

Es increíblemente realista, con la paleta de colores de This Morning, el logo de ITV y un personaje de IA que se ve y suena exactamente como ella.

«Lo he intentado todo. En serio, todo. Cada nueva dieta me daba esperanzas y me decepcionaba», comienza su personaje de IA.

«Pensé que debía rendirme, pero entonces vi una entrevista con el doctor Rangan Chatterjee, donde explicaba que el sobrepeso no es culpa tuya, sino un fallo metabólico causado por la edad, y que había desarrollado una fórmula que reactiva ese metabolismo, así que decidí probarla».

Mientras un texto en pantalla anuncia con énfasis: «¡Perdió 12 kilos en solo un mes!», el personaje añade: «Una semana después, había bajado 4 kilos. Tres semanas después, he bajado 12.

«Me siento ligera de nuevo». «Me encanta mi reflejo en el espejo de nuevo».

En su propia y experta refutación del vídeo, la verdadera Ashley informa a sus seguidores: «Muchos de vosotros me habéis enviado este anuncio, así que quiero dejarlo bien claro: no soy yo. Es un vídeo generado por IA».

«No solo nunca he dicho esto, sino que nunca he tomado estas pastillas, nunca he oído hablar de ellas y, lo más importante, jamás las promocionaría», insiste.

«Me siento devastada de que alguien pueda comprar estos productos creyendo que yo los he recomendado».

La exestrella de Made in Chelsea, conocida y querida por su contenido positivo sobre el cuerpo en las redes sociales, añadió que «siempre rechaza» cualquier oportunidad de patrocinio relacionada con dietas o pastillas para adelgazar.

«Así que no solo me siento totalmente agredida, sino que el mensaje que transmite me enfurece muchísimo».

«Ya vivimos en un mundo donde a las mujeres se nos dice constantemente que debemos encoger, ser más pequeñas, más delgadas, ocupar menos espacio». Y la situación solo empeora con el auge de las inyecciones para adelgazar.

Continuando con su diatriba en la descripción, Ashley admitió que, «si no supiera la verdad», también pensaría que el anuncio con IA era real.

«Alguien ha usado mi cara y mi voz para crear un anuncio que les dice a las mujeres que deberían adelgazar. Si me conocen, sabrán que ese es precisamente el tipo de mensaje contra el que he luchado durante años».

Además, citó otros ejemplos de figuras públicas que han sido víctimas de deepfakes. Martin Lewis, experto en ahorro, se vio obligado a denunciar contenido similar en el pasado después de que varias personas fueran estafadas por miles de libras al seguir consejos financieros falsos.

«No apoyo estos productos y jamás les diría a ustedes, ni a nadie, que necesitan adelgazar o hacer dieta», concluyó Ashley en su publicación. «Y si ven este anuncio, por favor, denúncienlo. ¡Es vergonzoso que las redes sociales permitan esto!». «Da miedo pensarlo».

En los comentarios, amigos famosos se apresuraron a ofrecer su apoyo, expresando su consternación por el anuncio.

«Esto es absolutamente indignante», escribió Carol Vorderman. «¿Qué opciones legales existen?».

Sarah Jayne Dunn comentó: «¡Qué miedo!».

«¡Esto es terrorífico!», exclamó Dani Harmer, mientras que Faye Tozer se indignó: «Nada de esto está bien 🤬».

Ashley lleva mucho tiempo defendiendo públicamente la aceptación del cuerpo, especialmente en lo que respecta a la maternidad.

En una publicación en la que hablaba sobre la retórica dañina en torno a los cuerpos posparto, Ashley escribió en enero: «El mundo mira el cuerpo de una madre y ve algo que corregir, pero nuestros hijos lo ven como su primer hogar y lo aman».

Afirmó con orgullo que, «con bebés o sin ellos, nunca deberíamos haber aprendido a odiar algo tan mágico». «Nuestros cuerpos son mágicos».

Esta madre de dos hijos también suele publicar fotos en bikini desde diferentes ángulos para animar a otras personas a sentirse seguras de sí mismas.

A principios de este año, escribió: «Ahora tengo más confianza en mi cuerpo que nunca. Y estoy orgullosa de ello, y no quiero que mi hija me vea odiar mi cuerpo».

La personalidad televisiva publicó recientemente su primer libro, titulado «Bimbo», en alusión a las etiquetas que le han puesto en internet y en un intento por reivindicarlas.

Se convirtió en un éxito de ventas, donde detalla sus propias experiencias y analiza la opresión y las expectativas que sufren las mujeres a lo largo de su vida.

Durante la promoción del libro, declaró en el programa «Woman's Hour» de la BBC: «A menudo, si la gente no está de acuerdo conmigo, va a internet y dice: “Es una rubia tonta”».

«Pero no se trata solo de “rubia tonta”, sino de todas las etiquetas que siento que se les ponen a las mujeres, ya sean “mandona”, “frígida”, “prostituta”, e incluso en la vejez, como “vieja bruja” o “bruja”. Quería explorar cómo estas etiquetas nos limitan y nos mantienen pequeñas».

Leer Más
Loading...

Incidente 1414: Según informes, imágenes generadas por IA y supuestamente producidas por Gemini afirmaban que soldados de la Delta Force estadounidense habían sido capturados por la Guardia Revolucionaria Islámica.

Traducido por IA
“”
factcheck.afp.com2026-03-15
Leer Más
Loading...
OpenAI es demandada por ejercicio no autorizado de la abogacía a través de ChatGPT.

Incidente 1415: Nippon Life alega que ChatGPT ejerció la abogacía sin licencia en un caso de discapacidad en Illinois.

Traducido por IA
“OpenAI es demandada por ejercicio no autorizado de la abogacía a través de ChatGPT.”
legal.io2026-03-15

La histórica demanda de Nippon Life contra OpenAI alega que ChatGPT actuó como abogado sin licencia.

Puntos clave:

  • Nippon Life Insurance Company of America ha demandado a OpenAI ante un tribunal federal, alegando que ChatGPT ejerció la abogacía sin autorización al ayudar a un antiguo reclamante por discapacidad a reabrir un caso ya resuelto y presentar decenas de mociones sin fundamento.

  • La demanda, considerada una de las primeras en acusar a un importante desarrollador de IA de ejercer la abogacía sin licencia a través de un chatbot para consumidores, exige 300.000 dólares en daños compensatorios y 10 millones de dólares en daños punitivos.

  • El caso surge mientras los legisladores de Nueva York impulsan un proyecto de ley que prohibiría a los chatbots de IA hacerse pasar por profesionales con licencia y otorgaría a los usuarios afectados el derecho a interponer una demanda privada contra las plataformas de IA.

Un tribunal federal de Chicago es ahora el escenario de lo que los expertos legales consideran una prueba histórica de los límites de la inteligencia artificial en el ejercicio de la abogacía. Nippon Life Insurance Company of America presentó una demanda el 4 de marzo contra OpenAI Foundation y OpenAI Group PBC, alegando que ChatGPT actuó como un abogado sin licencia (https://www.reuters.com/legal/legalindustry/openai-hit-with-lawsuit-claiming-chatgpt-acted-an-unlicensed-lawyer-2026-03-05/) al guiar a una antigua solicitante de prestaciones por discapacidad a través de una serie de maniobras legales después de que su caso hubiera sido resuelto y desestimado con carácter definitivo.

Según la demanda presentada ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de Illinois, la demandante, Graciela Dela Torre, empleada de una empresa de logística asegurada por Nippon, subió correspondencia de su antiguo abogado a ChatGPT en 2024. El chatbot supuestamente validó sus preocupaciones, la animó a despedir a su abogado y la ayudó a reabrir un caso que ya se había resuelto. Tras la negativa de un juez a conceder la solicitud en febrero de 2025, se alega que ChatGPT presentó una nueva demanda y decenas de mociones y notificaciones posteriores que, según Nippon, carecían de "un propósito legal o procesal legítimo".

Las reclamaciones de la aseguradora incluyen interferencia ilícita en un contrato, abuso de procedimiento y, sobre todo, violación de la ley de Illinois sobre el ejercicio no autorizado de la abogacía. "ChatGPT no es un abogado", afirma la demanda sin rodeos, añadiendo que, a pesar de las demostraciones ampliamente difundidas por OpenAI de que ChatGPT aprobó los exámenes de abogacía, la plataforma "no ha sido admitida para ejercer la abogacía en el estado de Illinois ni en ninguna otra jurisdicción de Estados Unidos". OpenAI respondió que "esta demanda carece de fundamento alguno".

La demanda supone una escalada significativa en la responsabilidad legal relacionada con la IA. Los litigios anteriores contra empresas de IA se habían centrado principalmente en reclamaciones por derechos de autor, privacidad y difamación. Una demanda contra un desarrollador de IA por el ejercicio no autorizado de la abogacía a través de un producto para el consumidor sienta un precedente, planteando interrogantes que los colegios de abogados y los tribunales apenas han comenzado a abordar: ¿en qué momento una herramienta de IA deja de proporcionar información para convertirse en una que ofrece asesoramiento legal?

El momento es significativo. Un proyecto de ley que avanza en la legislatura de Nueva York prohibiría explícitamente que los chatbots de IA brinden asesoramiento legal sustantivo —o asesoramiento en cualquier otra profesión regulada— y crearía un derecho de acción privada para los usuarios perjudicados por dicha conducta. La promotora del proyecto de ley, la senadora estatal Kristen Gonzalez, señaló que la legislación actual no contiene ninguna prohibición explícita sobre que un modelo de lenguaje complejo se presente como abogado y ofrezca asesoramiento legal en consecuencia. La medida, aprobada por el Comité de Internet y Tecnología del Senado en febrero, también impediría que las plataformas se ampararan en una declaración que indique que los usuarios interactúan con un "chatbot no humano".

Para los departamentos legales y los bufetes de abogados, el caso refuerza un mensaje conocido pero urgente. Los tribunales ya han sancionado a abogados por presentar informes generados por IA que contienen citas ficticias; ahora la responsabilidad se extiende a los propios desarrolladores de las herramientas. OpenAI modificó sus políticas de uso en octubre de 2024 para prohibir a los usuarios buscar asesoramiento legal a través de la plataforma, un cambio que Nippon argumenta que llegó demasiado tarde y subraya que los riesgos eran previsibles. Si este cambio de política tendrá validez legal es una de las preguntas que el Distrito Norte de Illinois podría tener que responder.

El caso es Nippon Life Insurance Company of America v. OpenAI Foundation and OpenAI Group PBC, n.º 1:26-cv-02448 (N.D. Ill.).

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    736
  • 🥈

    Anonymous

    155
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    837
  • 🥈

    Anonymous

    235
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3108
  • 🥈

    Anonymous

    981
  • 🥉

    1

    587
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd