Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Bienvenido a
la base de datos de incidentes de IA

Loading...
Mujer culpable de engaño de violación en ChatGPT

Incidente 1479: Una imagen generada por ChatGPT de un supuesto "hombre sin hogar" fue utilizada en denuncias falsas de robo y agresión sexual en San Petersburgo, Florida.

Traducido por IA
“Mujer culpable de engaño de violación en ChatGPT”Último informe
thesmokinggun.com2026-05-06

2 DE DICIEMBRE – La mujer de Florida que entregó a la policía una foto generada por IA de un hombre sin hogar que supuestamente irrumpió en su casa y la violó, ha sido condenada por denuncia falsa, un montaje motivado por un reto de TikTok y su afán de llamar la atención, según consta en los registros.

Brooke Schinault, de 32 años, se declaró ayer culpable del engaño y fue declarada culpable del delito menor. Fue multada y puesta en libertad condicional.

En octubre, Schinault llamó al 911 para denunciar que un intruso había entrado por la fuerza en su apartamento de San Petersburgo y la había agredido sexualmente mientras su bebé dormía en otra habitación.

Schinault afirmó haber tomado una foto (que se ve a la derecha) del hombre mientras este estaba sentado en su sofá. La policía proporcionó la foto a TSG en respuesta a una solicitud de acceso a registros públicos.

El robo con allanamiento y agresión denunciados provocó una intervención policial que incluyó a siete agentes, un detective, seis rescatistas y un técnico forense que recogió muestras de ADN.

La versión de Schinault se desmoronó cuando el detective Dagni Closser examinó la foto del supuesto sospechoso (http://www.thesmokinggun.com/file/chatgpt-plea), un hombre blanco de unos 30 años que vestía una sudadera con capucha. «Como conozco bien muchas redes sociales y tendencias, reconocí al hombre como parte de un reto viral de TikTok», informó Closser. El «reto del hombre sin hogar con IA», señaló Closser, consiste en subir una foto de una vivienda a una aplicación de inteligencia artificial, que luego inserta la foto de un hombre sin hogar en la imagen.

«La mayoría coloca al sujeto en su sofá, luego toma una captura de pantalla y se la envía a sus seres queridos como una broma que genera preocupación al hacerles creer que un desconocido está en su casa», dijo Closser, quien informó haber encontrado «varios videos de TikTok de este reto» que usaban la misma foto del hombre sin hogar.

Al ser confrontada por la policía, Schinault... inicialmente afirmó que solo usó IA para mejorar la nitidez de una foto borrosa de su atacante. Finalmente confesó, diciendo que estaba lidiando con depresión, no dormía y «quería llamar la atención».

La imagen falsa, dijo Schinault, fue creada usando «Google y ChatGPT». Para crear la foto, informó la policía, «Brooke escribió 'un hombre sin hogar'».

Leer Más
Loading...
Una familia de Florida advierte sobre una estafa de IA dirigida a dueños de mascotas desaparecidas.

Incidente 1478: Según informes, estafadores utilizaron imágenes generadas por IA del perro desaparecido Archer para solicitar un pago fraudulento al veterinario a una familia de Deltona, Florida.

Traducido por IA
“Una familia de Florida advierte sobre una estafa de IA dirigida a dueños de mascotas desaparecidas.”
fox13news.com2026-05-06

DELTONA, Florida - Una familia de Florida comparte su historia para advertir a otros dueños de mascotas después de que unos estafadores usaran inteligencia artificial para orquestar una estafa relacionada con su perro desaparecido.

Bill Cosens contó que la pesadilla comenzó el domingo por la mañana, poco después de que su perro mestizo de raza beagle, Archer, se escapara de su patio trasero. Tras publicar sobre su perro desaparecido en redes sociales, Cosens recibió una llamada de una mujer que afirmaba haberlo encontrado.

La persona que llamó le dijo a Cosens que Archer había sido atropellado por un vehículo y que necesitaba $2,800 para una cirugía de emergencia inmediata. El estafador envió fotos que parecían mostrar a Archer en una mesa de operaciones, usando imágenes que Cosens había publicado en redes sociales. Las fotos eran falsas y generadas por IA.

Fotos generadas por IA

Lo que dicen:

"Cuando empezamos a pensar con lógica y a dejar de lado las emociones, se hace evidente que nos están estafando", dijo Cosens. "Y entonces pasamos de estar molestos y angustiados a estar muy enfadados".

Cosens empezó a sospechar cuando investigó la dirección de la clínica veterinaria que le había dado el estafador y descubrió que era la del ayuntamiento cercano. Por suerte, no envió dinero.

Cosens dijo que un vecino vio a una mujer meter a Archer en un vehículo y marcharse. Finalmente, el vecino logró localizar a la mujer y devolverle el perro a Cosens sano y salvo.

Una tendencia en aumento:

La Oficina del Sheriff del Condado de Volusia está investigando el incidente. Este caso es similar a un reporte ocurrido a principios de este año en San Petersburgo, donde otro dueño de mascota fue víctima de una estafa casi idéntica. En ese caso, el banco de la víctima detectó la transacción sospechosa antes de que se transfirieran los fondos.

Los expertos afirman que estos estafadores suelen extraer fotos de publicaciones de objetos perdidos en redes sociales y utilizan herramientas de inteligencia artificial para añadir lesiones falsas o equipo médico a las imágenes.

Cosens aconseja a cualquier persona en una situación similar que se mantenga alerta a pesar del impacto emocional de perder una mascota.

"Lo primero y más importante para evitar ser estafado, diría yo, es que si no están dispuestos a reunirse contigo en persona y recibir el pago en persona, te están estafando", dijo Cosens.

Fuente: Este artículo se elaboró con información de dos dueños de mascotas que fueron estafados este año y con reportajes de Kailey Tracy de FOX 13.

Leer Más
Loading...
¿Utilizó el director del FBI, Kash Patel, inteligencia artificial para plagiar a los Beastie Boys?

Incidente 1480: Según informes, fragmentos supuestamente recreados con IA del video "Sabotage" de Beastie Boys aparecieron en un video promocional del FBI publicado por Kash Patel.

Traducido por IA
“¿Utilizó el director del FBI, Kash Patel, inteligencia artificial para plagiar a los Beastie Boys?”
npr.org2026-05-06

Un video promocional del FBI, publicado por el director Kash Patel, parece haber utilizado inteligencia artificial para generar clips cortos casi idénticos a los del icónico videoclip de los Beastie Boys para su clásico de 1994, "Sabotage".

Patel publicó el video el lunes en X, en una entrada sobre los esfuerzos del FBI para combatir el "fraude masivo". El video, de aproximadamente dos minutos de duración, utilizaba la versión instrumental de "Sabotage" y metraje casi idéntico al del videoclip original, intercalado con lo que parecían ser imágenes auténticas de agentes del FBI realizando su trabajo.

Para el martes, ya había recibido cerca de medio millón de visualizaciones.

Un análisis de NPR muestra que al menos seis clips del video del FBI eran recreaciones fotograma a fotograma de tomas del icónico videoclip de "Sabotage", dirigido por Spike Jonze. Los clips mostraban vehículos, personas y edificios increíblemente similares al video original, pero con pequeñas diferencias que probablemente fueron generadas por IA.

Por ejemplo, en una toma donde un auto derrapa, se ven claramente las rejillas de algunas ventanas en la grabación original, pero faltan en la versión del FBI. Otra toma muestra a una persona con un megáfono saltando de tejado en tejado con cables telefónicos de fondo. Los cables y la suciedad del edificio coinciden exactamente con el video de 1994, filmado hace más de 30 años. En un fotograma, uno de los cables telefónicos parece atravesar la cabeza del personaje: un tipo de fallo común en la generación de video con IA.

Los representantes de Spike Jonze y los Beastie Boys no respondieron a la solicitud de comentarios de NPR. El FBI tampoco respondió a la solicitud de NPR de más información sobre el video y su producción.

Expertos independientes que revisaron el video para NPR coincidieron en que los clips probablemente fueron generados por IA.

"Parece muy probable que se trate de IA", declaró Kolina Koltai, investigadora del grupo de investigación en línea Bellingcat, a NPR en un correo electrónico. "Incluso se pueden apreciar algunos errores de IA".

Por ejemplo, Koltai señala que hay un momento con artefactos característicos generados por IA que aparecen en la matrícula "No Fraud" del coche del FBI en la escena inicial.

Los clips probablemente se crearon tomando capturas de pantalla o fragmentos cortos del videoclip original de "Sabotage" e introduciéndolos en un modelo de conversión de imagen a vídeo, escribió a NPR en un correo electrónico Hany Farid, profesor de la Universidad de California, Berkeley, especializado en el análisis de imágenes digitales. También es posible que el modelo de IA generara los videoclips por sí mismo, ya que el videoclip original formaba parte de sus datos de entrenamiento, aunque Farid considera que esto último es menos probable.

En cualquier caso, Farid cree que la IA estuvo involucrada: "Las similitudes son difíciles de explicar de otra manera", escribió.

Durante el segundo mandato del presidente Trump, miembros de su administración se apropiaron con entusiasmo de la música popular, el cine y los memes para difundir su mensaje, incluso ante las protestas de los artistas.

El uso de la IA también ha sido una táctica común. Cabe destacar que, en octubre pasado, el propio presidente Trump publicó un video generado por IA en el que se le veía arrojando un líquido marrón a manifestantes en una concentración de "No Kings", con la canción "Danger Zone" de Kenny Loggins de fondo. Loggins exigió que se retirara el video. Sin embargo, este permanece publicado en la cuenta de Twitter de Trump, Truth Social.

En enero, la Casa Blanca publicó una imagen manipulada con IA de un manifestante en Minneapolis que había sido arrestado por las autoridades federales, sin indicar que la imagen había sido manipulada.

Patel, nacido en Long Island en 1980, habría estado en la escuela secundaria cuando los Beastie Boys lanzaron "Sabotage".

Leer Más
Loading...
Más de una docena de arrestos injustificados debido a la dependencia policial de la tecnología de reconocimiento facial.

Incidente 1476: La policía de Maryland presuntamente se basó en una pista de reconocimiento facial para arrestar y detener injustamente a Kimberlee Williams.

Traducido por IA
“Más de una docena de arrestos injustificados debido a la dependencia policial de la tecnología de reconocimiento facial.”
aclu.org2026-05-03

Una clienta de la ACLU pasó seis meses en la cárcel porque la policía se basó en la tecnología de reconocimiento facial para identificarla erróneamente como sospechosa. Es la decimocuarta persona conocida que ha sido arrestada injustamente debido a las fallas de esta tecnología.

Cuando la policía arrestó a Kimberlee Williams, una abuela residente de Oklahoma, por una orden de arresto de Maryland, se quedó atónita. Nunca había estado en Maryland.

La Sra. Williams descubrió más tarde que la policía de Maryland se había basado en un resultado erróneo de la tecnología de reconocimiento facial que la había señalado erróneamente como sospechosa. Es la decimocuarta persona en Estados Unidos que se suma a una creciente lista de personas arrestadas injustamente porque la policía permitió que la tecnología de reconocimiento facial defectuosa contaminara sus investigaciones.

El uso de la tecnología de reconocimiento facial por parte de la policía es peligroso, y siguen apareciendo historias de personas arrestadas injustamente debido a que la policía se basó en resultados erróneos de este sistema. Hoy, la ACLU y la ACLU de Maryland enviaron cartas a tres departamentos de policía de Maryland en nombre de la Sra. Williams, quien fue arrestada injustamente y encarcelada durante seis meses debido a que la policía de Maryland se basó en un resultado falso de reconocimiento facial y ocultó al tribunal el uso de esta tecnología poco fiable al solicitar la orden de arresto.


Una mujer arrestada por un delito que no cometió

El 23 de junio de 2021, la Sra. Williams acompañaba a una de sus hijas en una entrega de DoorDash a una base militar local en Lawton, Oklahoma. Cuando el personal de seguridad de la base realizó una verificación de identificación rutinaria en el puesto de control de entrada, descubrieron órdenes de arresto pendientes de Maryland contra la Sra. Williams y la detuvieron.

Estas órdenes de arresto solicitaban la detención de la Sra. Williams por una serie de retiros fraudulentos de efectivo en ventanilla en Maryland, ocurridos en diciembre de 2019 y enero de 2020. Un individuo desconocido había ingresado a sucursales de los bancos SunTrust y Truist en tres condados diferentes, suplantando la identidad de los titulares de las cuentas y retirando fraudulentamente miles de dólares de dichas cuentas.

Sin embargo, la Sra. Williams no se encontraba en Maryland durante ese período. Residía en Oklahoma, donde vivía con dos de sus hijas y sus nietos. Mientras alguien defraudaba a los bancos en Maryland, la Sra. Williams estaba en Oklahoma con su familia celebrando la Navidad y el cumpleaños de su hija.

En la sede del banco, un investigador de delitos financieros obtuvo imágenes del sospechoso a partir de las grabaciones de las cámaras de seguridad y envió una imagen a una lista de correo nacional de policías e investigadores privados llamada Crimedex. Alguien en la lista de correo procesó la imagen con tecnología de reconocimiento facial y envió el nombre y la foto de la Sra. Williams como una supuesta coincidencia con el sospechoso.

En el primer condado, el investigador bancario informó a la policía del condado de Montgomery que la Sra. Williams había sido identificada "mediante software de reconocimiento facial", pero no proporcionó más información, como quién realizó la búsqueda de reconocimiento facial ni cómo se llevó a cabo. A la policía de los otros dos condados, el investigador bancario proporcionó aún menos información, escribiendo que el sospechoso había sido "reconocido" como la Sra. Williams, "una sospechosa en" la investigación anterior del condado de Montgomery.

Los detectives no intentaron determinar si la Sra. Williams, residente de Oklahoma, pudo haber estado cerca de Maryland durante el período en cuestión. Sus pruebas de coartada, incluidas publicaciones en redes sociales geolocalizadas en Oklahoma, habrían demostrado que no podía ser la persona correcta. Los detectives también ignoraron otras pistas evidentes: uno de los incidentes involucraba un cheque fraudulento a nombre de una persona no asociada con las cuentas bancarias. Sin embargo, no se investigó ese nombre. En cambio, la policía se basó únicamente en la pista del reconocimiento facial, además de sus propias comparaciones visuales de las fotos del sospechoso y la Sra. Williams. Les pareció que ambos se parecían.

Tras su arresto, la Sra. Williams pasó un total de seis meses en prisión, primero en Oklahoma a la espera de ser extraditada, y luego en los condados de Montgomery y Prince George, en Maryland. Cuando finalmente se retiraron todos los cargos, la Sra. Williams fue puesta en libertad sin contemplaciones a mediados de diciembre y tuvo que buscarse la vida para regresar a casa, al otro lado del país. No tenía teléfono ni dinero. Gracias a la generosidad de desconocidos, logró conseguir un teléfono prestado para contactar con su familia y alojarse en un hotel cercano antes de poder volver a casa.

Esta terrible experiencia trastornó su vida y la de su familia, y cinco años después aún intenta recuperarse. Perdió su trabajo a causa del arresto. También le preocupa volver a llamar la atención de la policía, sin saberlo, por un delito con el que no tuvo nada que ver, lo que podría provocar otra situación similar.


Aumento de arrestos injustos debido al uso de la tecnología de reconocimiento facial

Lo que le sucedió a la Sra. Williams es indignante y, lamentablemente, una consecuencia previsible del uso de la tecnología de reconocimiento facial por parte de la policía. Se sabe públicamente que al menos otras trece personas fueron arrestadas injustamente por la policía estadounidense debido a la confianza depositada en resultados erróneos de reconocimiento facial:

  • Nijeer Parks, arrestado por la policía en Woodbridge, Nueva Jersey (febrero de 2019)
  • Michael Oliver, arrestado por la policía en Detroit, Michigan (julio de 2019)
  • Robert Williams, arrestado por la policía en Detroit, Michigan (enero de 2020)
  • Christopher Gatlin, arrestado por la policía de San Luis, Misuri (agosto de 2021)
  • Alonzo Sawyer, arrestado por la policía de tránsito de Maryland (marzo de 2022)
  • Randal Quran Reid](https://www.nytimes.com/2023/03/31/technology/facial-recognition-false-arrests.html), arrestado por la policía de Georgia con una orden emitida en la parroquia de Jefferson, Luisiana (noviembre de 2022)
  • Porcha Woodruff, arrestada por la policía en Detroit, Michigan (febrero de 2023)
  • Jason Killinger, arrestado por la policía en Reno, Nevada (septiembre de 2023)
  • [Robert Dillion, arrestado con una orden judicial obtenida por la policía en Jacksonville Beach, Florida (agosto de 2024)
  • Javier Lorenzano-Nunez, arrestado por la policía en Phoenix, Arizona (octubre de 2024)
  • Trevis Williams, arrestado por la policía en la ciudad de Nueva York (abril de 2024) 2025)
  • Angela Lipps, arrestada por alguaciles federales en Tennessee con una orden de arresto obtenida por la policía de Fargo, Dakota del Norte (julio de 2025)
  • Beau Burgess, arrestado por la policía de Orlando, Florida (agosto de 2025)

Cuando la [ACLU demandó a Detroit] En 2021, cuando la policía presentó una demanda en nombre de Robert Williams en 2021, los defensores del uso policial de la tecnología de reconocimiento facial calificaron su arresto injustificado como un error desafortunado pero aislado que no debería minar la confianza en la tecnología. Sin embargo, los arrestos injustificados han continuado. Ahora es imposible ignorar los peligros de la tecnología de reconocimiento facial en la labor policial. De hecho, la policía sigue permitiendo que se repitan los mismos fallos predecibles.

La tecnología de reconocimiento facial a menudo produce coincidencias falsas. Parte del peligro de estos sistemas radica en que, cuando fallan, personas inocentes con parecido a un sospechoso suelen ser señaladas. Precisamente para eso está diseñado el reconocimiento facial: para encontrar rostros similares en una base de datos, la mayoría o la totalidad de los cuales no coinciden realmente. Cuando la tecnología de reconocimiento facial genera coincidencias falsas con personas que se parecen a otras personas inocentes, puede viciar la investigación al engañar a testigos y policías, haciéndoles creer erróneamente que han encontrado al sospechoso.

En varios casos, personas han sido arrestadas injustamente después de que la policía pasara directamente de los resultados del reconocimiento facial a las ruedas de reconocimiento fotográfico presentadas a los testigos. Al ver fotos que contienen la imagen de una persona identificada por la tecnología de reconocimiento facial, rodeada de fotos de personas que se parecen menos al sospechoso, los testigos, como era de esperar, creen haber encontrado al culpable. Esta manipulación en las identificaciones de las ruedas de reconocimiento ha llevado al arresto injusto de al menos siete personas.

En otros casos, incluido el de la Sra. Williams, la única confirmación que obtuvo la policía fue una comparación visual de la foto del sospechoso con el resultado del reconocimiento facial realizada por un agente, quien, de igual manera, se vio influenciado por la tecnología y creyó haber encontrado una coincidencia.

Una y otra vez, la policía ha fallado en llevar a cabo investigaciones fiables e ignorado razones obvias para dudar de una pista obtenida mediante reconocimiento facial. Muchas de las personas arrestadas injustamente presentaban diferencias visibles con el sospechoso de la foto: Michael Oliver tenía los brazos completamente tatuados, Porcha Woodruff estaba embarazada de ocho meses y Trevis Williams era 20 centímetros más alto y pesaba 32 kilos más. En el caso que condujo al arresto de Nijeer Parks, la policía no esperó los resultados del análisis de ADN y huellas dactilares que habrían señalado a otra persona. Y en el caso de quienes fueron arrestados por delitos lejos de su lugar de residencia —entre ellos Kimberlee Williams, Randal Quran Reid, Robert Dillon y Angela Lipps—, la policía aparentemente no investigó si siquiera se encontraban en la ciudad o el estado correctos en el momento del crimen.


Sin protecciones, la tecnología de reconocimiento facial seguirá viciando las investigaciones.

A pesar de las políticas de los departamentos de policía y las advertencias oficiales que indican que los resultados de la tecnología de reconocimiento facial no son motivo suficiente para arrestar a alguien, la policía sigue permitiendo que esta tecnología perjudique sus investigaciones. Los problemas no terminan ahí. Numerosos estudios han demostrado que la tecnología de reconocimiento facial produce mayores tasas de falsos positivos en personas de color, mujeres, jóvenes y ancianos. Como era de esperar, la mayoría de los arrestos injustos conocidos derivados de esta tecnología han sido de personas negras. Pero a medida que salen a la luz más historias, incluyendo la de la Sra. Williams y otras personas blancas que fueron víctimas de arrestos injustos, vemos que nadie está a salvo de que esta tecnología trastorne su vida.

Estos graves peligros exigen soluciones serias. Más de 20 ciudades y otras jurisdicciones en todo el país han prohibido a la policía el uso de la tecnología de reconocimiento facial. En Detroit, gracias a un acuerdo histórico alcanzado en el caso de la detención injustificada de Robert Williams, el departamento de policía ya no permite que los agentes soliciten órdenes de arresto basándose únicamente en una rueda de reconocimiento fotográfico combinada con información obtenida mediante reconocimiento facial. Indiana ha promulgado una protección similar en su legislación estatal.

La Sra. Williams jamás recuperará los seis meses que pasó en prisión por un delito con el que claramente no tuvo ninguna relación. En nuestras cartas enviadas hoy a la policía de Maryland, solicitamos que se rindan cuentas y que se realicen cambios sustanciales en las políticas para minimizar la posibilidad de que esto vuelva a ocurrirle a alguien. Un solo arresto injustificado mediante esta peligrosa tecnología es indignante. Más de una docena, y la cifra sigue aumentando, es una auténtica farsa que los legisladores y la policía deben erradicar de inmediato.

Leer Más
Loading...
Una IA descontrolada provocó un grave incidente de seguridad en Meta.

Incidente 1471: Según informes, un agente interno de IA de Meta dio consejos que supuestamente expusieron datos confidenciales a empleados no autorizados.

Traducido por IA
“Una IA descontrolada provocó un grave incidente de seguridad en Meta.”
theverge.com2026-05-02

Durante casi dos horas la semana pasada, empleados de Meta tuvieron acceso no autorizado a datos de la empresa y de los usuarios gracias a un agente de IA que proporcionó asesoramiento técnico erróneo a un empleado, como informó previamente The Information. La portavoz de Meta, Tracy Clayton, declaró a The Verge que "no se manipuló indebidamente ningún dato de usuario" durante el incidente.

Un ingeniero de Meta estaba utilizando un agente de IA interno, que Clayton describió como "similar a OpenClaw dentro de un entorno de desarrollo seguro", para analizar una pregunta técnica que otro empleado había publicado en un foro interno de la empresa. Sin embargo, el agente también respondió públicamente a la pregunta tras analizarla, sin obtener aprobación previa. La respuesta solo estaba destinada a ser mostrada al empleado que la solicitó, no publicada.

Un empleado actuó siguiendo el consejo de la IA, que proporcionó información inexacta y provocó un incidente de seguridad de nivel SEV1, el segundo nivel de gravedad más alto que utiliza Meta. El incidente permitió temporalmente a los empleados acceder a datos confidenciales que no estaban autorizados a ver, pero el problema ya se ha resuelto.

Según Clayton, el agente de IA involucrado no realizó ninguna acción técnica por sí mismo, más allá de publicar consejos técnicos inexactos, algo que un humano también podría haber hecho. Sin embargo, un humano podría haber realizado pruebas adicionales y emitido un juicio más completo antes de compartir la información; y no está claro si el empleado que originó la respuesta tenía la intención de publicarla.

"El empleado que interactuaba con el sistema era plenamente consciente de que se estaba comunicando con un bot automatizado. Esto se indicaba en una advertencia en el pie de página y en la propia respuesta del empleado en ese hilo", comentó Clayton a The Verge. El agente no realizó ninguna acción más allá de responder a una pregunta. Si el ingeniero que actuó en consecuencia hubiera tenido más conocimiento o hubiera realizado otras comprobaciones, esto se habría evitado.

El mes pasado, un agente de IA de la plataforma de código abierto OpenClaw (https://www.theverge.com/news/872091/openclaw-moltbot-clawdbot-ai-agent-news) actuó de forma descontrolada en Meta cuando una empleada le pidió que revisara sus correos electrónicos, eliminando mensajes sin su autorización. La idea principal de agentes como OpenClaw es que puedan actuar por sí solos, pero, como cualquier otro modelo de IA, no siempre interpretan correctamente las indicaciones e instrucciones ni dan respuestas precisas, un hecho que los empleados de Meta han comprobado en dos ocasiones.

Leer Más
Enviar URL Rapidamente

Los enlaces enviados se agregan a una cola de revisión para que se resuelvan en un registro de incidente nuevo o existente. Los incidentes enviados con detalles completos se procesan antes que las URL que no poseen los detalles completos.
Acerca de la Base de Datos

La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.

Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

post-image
Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative

By TheCollab Board of Directors

2024-02-20

El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...

Leer Más
La Base de Datos en la Prensa

Lea acerca de la base de datos en Time Magazine, Vice News, Venture Beat, Wired y Bulletin of the Atomic Scientists entre otros puntos de venta.

Arxiv LogoVenture Beat LogoWired LogoVice logoVice logo
Rankings de Reportadores de Incidentes

Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.

Nuevos incidentes aportados
  • 🥇

    Daniel Atherton

    793
  • 🥈

    Anonymous

    157
  • 🥉

    Khoa Lam

    93
Reportes agregados a Incidentes Existentes
  • 🥇

    Daniel Atherton

    899
  • 🥈

    Anonymous

    243
  • 🥉

    Khoa Lam

    230
Informe total de contribuciones
  • 🥇

    Daniel Atherton

    3034
  • 🥈

    Anonymous

    934
  • 🥉

    Khoa Lam

    417
El Informe de Incidentes de IA
An envelope with a neural net diagram on its left

Create an account to subscribe to new incident notifications and other updates.

Incidentes Aleatorios
Loading...
Predictive Policing Biases of PredPol
Predictive Policing Biases of PredPol
Loading...
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates
Loading...
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
ChatGPT Reportedly Introduces Errors in Critical Child Protection Court Report
Loading...
Child Sexual Abuse Material Taints Image Generators
Child Sexual Abuse Material Taints Image Generators
Loading...
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court
El Colaborativo de IA Responsable

La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.

Patrocinador fundador de la organización
Patrocinador fundador de la base de datos
Patrocinadores y subvenciones
Patrocinadores similares

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5