Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4489

Incidentes Asociados

Incidente 8961 Reporte
Alleged Misuse of Facial Recognition Technology by Law Enforcement Reportedly Leading to Wrongful Arrests and Violations of Investigative Standards

Loading...
Detenidos por IA: la policía ignora los estándares después de las coincidencias de reconocimiento facial
washingtonpost.com · 2025

*Vea el informe completo del Washington Post para obtener información adicional, incluida una explicación de la metodología que emplearon. * PAGEDALE, Missouri — Después de que dos hombres atacaron brutalmente a un guardia de seguridad en una plataforma de tren desolada en las afueras de St. Louis, el detective de la policía de tránsito del condado Matthew Shute luchó por identificar a los culpables. Estudió videos de vigilancia granulados, sondeó refugios para personas sin hogar y llamó repetidamente a la víctima del ataque, quien dijo que no recordaba casi nada debido a una lesión cerebral por la paliza. Meses después, intentaron una opción más. Shute subió una imagen fija del video borroso del incidente a un programa de reconocimiento facial, que utiliza inteligencia artificial para rastrear las fotografías de cientos de miles de personas arrestadas en el área de St. Louis. A pesar de la mala calidad de la imagen, el software escupió los nombres y fotos de varias personas que se consideró que se parecían a uno de los atacantes, cuyo rostro estaba encapuchado con un abrigo de invierno y parcialmente oscurecido por una máscara quirúrgica. Aunque la política de reconocimiento facial de la ciudad advierte a los agentes que los resultados de la tecnología son “no científicos” y “no deben utilizarse como única base para ninguna decisión”, Shute procedió a construir un caso contra uno de los resultados generados por IA: Christopher Gatlin, un padre de cuatro hijos de 29 años que no tenía vínculos aparentes con la escena del crimen ni antecedentes de delitos violentos, como Shute reconocería más tarde. Arrestado y encarcelado por un delito que dice no haber cometido, Gatlin tardaría más de dos años en limpiar su nombre. Una investigación del Washington Post sobre el uso del software de reconocimiento facial por parte de la policía descubrió que las agencias de aplicación de la ley en todo el país están utilizando las herramientas de inteligencia artificial de una manera para la que nunca se pretendió: como un atajo para encontrar y detener a sospechosos sin otras pruebas. La mayoría de los departamentos de policía no están obligados a informar que utilizan el reconocimiento facial, y pocos mantienen registros de su uso de la tecnología. El Post revisó documentos de 23 departamentos de policía donde hay registros detallados sobre el uso del reconocimiento facial y descubrió que 15 departamentos de 12 estados arrestaron a sospechosos identificados a través de coincidencias de IA sin ninguna evidencia independiente que los vinculara con el crimen, en la mayoría de los casos contradiciendo sus propias políticas internas que requieren que los oficiales corroboren todas las pistas encontradas a través de IA. Algunos agentes de la ley que utilizan la tecnología parecen abandonar los estándares policiales tradicionales y tratan las sugerencias del software como hechos, encontró el Post. Un informe policial se refirió a un resultado de IA no corroborado como una "coincidencia del 100%". Otro dijo que la policía utilizó el software para identificar "inmediata e incuestionablemente" a un presunto ladrón. Gatlin es una de al menos ocho personas arrestadas injustamente en los Estados Unidos después de ser identificadas a través del reconocimiento facial. Seis casos fueron reportados previamente en los medios de comunicación. Dos arrestos injustos -Gatlin y Jason Vernau, un residente de Miami- no han sido reportados previamente. Todos los casos fueron finalmente desestimados. La policía probablemente podría haber eliminado a la mayoría de las personas como sospechosas antes de su arresto mediante un trabajo policial básico, como verificar coartadas, comparar tatuajes o, en un caso, seguir las pruebas de ADN y huellas dactilares dejadas en la escena. Estos ejemplos de trabajo policial cuestionable ---recopilados a través del análisis de The Post de registros de software interno, informes de arresto, registros judiciales y entrevistas con policías, fiscales y abogados defensores que rara vez se ven --- son probablemente una pequeña muestra del problema. Es imposible saber el número total de arrestos falsos impulsados por coincidencias de IA, porque la policía y los fiscales [raramente le dicen al público] (https://www.washingtonpost.com/business/2024/10/06/police-facial-recognition-secret-false-arrest/?itid=lk_inline_enhanced-template ) cuando han usado estas herramientas y, en todos los estados excepto siete, no hay leyes que requieran explícitamente que se revele. Cientos de departamentos de policía en Michigan y Florida tienen la capacidad de ejecutar imágenes a través de programas de reconocimiento facial a nivel estatal, pero se desconoce el número de los que lo hacen. Clearview AI, uno de los principales fabricantes de software de reconocimiento facial, ha dicho en una presentación a posibles inversores que 3.100 departamentos de policía utilizan sus herramientas, más de una sexta parte de todas las agencias policiales de Estados Unidos. La empresa no identifica públicamente a la mayoría de sus clientes. A través de una revisión de contratos gubernamentales, informes de los medios de comunicación y solicitudes de registros públicos, The Post identificó 75 departamentos que utilizan el reconocimiento facial, 40 de los cuales compartieron registros de casos en los que condujo a arrestos. De ellos, 17 no proporcionaron suficientes detalles para discernir si los agentes intentaron corroborar las coincidencias de IA. Entre las 23 agencias restantes, The Post descubrió que casi dos tercios habían arrestado a sospechosos identificados a través de coincidencias de IA sin pruebas independientes. La mayoría de los departamentos se negaron a responder preguntas sobre su uso de IA. Algunos negaron que los agentes arrestaran a personas basándose únicamente en la inteligencia artificial, pero se negaron a proporcionar detalles o documentos que respaldaran estas afirmaciones. Otros dijeron que los agentes pueden determinar si la persona que ven en dos o más fotos es la misma. En Florence, Kentucky, según muestran los documentos, la policía arrestó a personas identificadas por reconocimiento facial sin corroboración independiente en cuatro casos. Uno se declaró culpable de robo; los otros tres casos aún están pendientes. El fiscal local, Louis Kelly, dijo que confía en que los agentes utilicen su criterio para identificar a los sospechosos, incluidos los encontrados con inteligencia artificial. "Tenemos que permitir que los agentes utilicen el sentido común y los métodos disponibles", dijo Kelly en un correo electrónico. ### Un nuevo sentido de urgencia El 9 de agosto de 2021, ocho meses después del asalto a la estación de tren de Pagedale, tres agentes uniformados aparecieron en el vestíbulo del edificio de apartamentos del guardia de seguridad herido, Michael Feldman, con un nuevo sentido de urgencia por resolver el caso. Los agentes trajeron una serie de fotografías con imágenes de seis hombres, incluido Gatlin. Feldman les dijo que todavía recordaba muy poco al respecto debido a la lesión cerebral que sufrió. "Me sentí acorralado en una situación en la que no quería estar", dijo Feldman, de 62 años, en una entrevista reciente. "Sentí que no recordaba cómo era". Siguiendo las instrucciones del oficial, Feldman examinó cada foto y luego, una por una, las descartó en una pila, según las imágenes de la cámara corporal incluidas en un expediente judicial. Feldman redujo el grupo de fotos a dos: Gatlin y otro hombre, que también era negro pero tenía una tez notablemente más clara, según una moción presentada por el abogado de Gatlin. Colocó la foto de Gatlin en la pila de descartes mientras hacía un gesto hacia el otro hombre. "Quiero decir que es él", dijo, señalando al otro hombre. Los detectives no aceptaron de inmediato la identificación y unos momentos después, Feldman devolvió la foto de Gatlin, diciendo que no estaba seguro de cuál de ellos podría haber sido. "Piense en las características del tipo, su complexión; ¿había algo en su pelo o en la ropa que llevaba?", preguntó el detective de la policía de la ciudad de St. Louis, Matthew Welle. Cuando Feldman dijo que pensaba que el hombre podría haber llevado un sombrero o un gorro de lana, Welle lo animó a poner las manos sobre las fotos para ayudarlo a "imaginar a estos dos tipos con un gorro de lana". Feldman luego eligió a Gatlin y miró al oficial expectante. "¡Está bien!", dijo Welle, indicando a Feldman que rodeara con un círculo la foto de Gatlin y firmara con su nombre, ignorando su comentario anterior sobre el otro hombre. La declaración de Feldman fue la única prueba que tenía la policía cuando presentó una denuncia contra Gatlin seis días después, mostrando cómo la confianza de la policía en los resultados del software puede influir en toda una investigación. Cuando se le preguntó meses después en el tribunal si había sido adecuado manipular al testigo de esta manera, el detective principal, Shute, respondería "no". Tracy Panus, portavoz de la policía del condado de St. Louis, dijo en una declaración enviada por correo electrónico que la agencia capacita a los oficiales para desarrollar "evidencia independiente y corroborativa sobre el reconocimiento facial" y requiere que el supervisor revise los casos en los que el reconocimiento facial ayuda a conducir a un arresto. Panus, Shute y Mitch McCoy, portavoz de la Policía Metropolitana de St. Louis, se negaron a discutir la investigación sobre el ataque a Feldman. Welle no respondió a las solicitudes de comentarios. ### Sesgo de automatización La policía atribuye al reconocimiento facial el haberlos ayudado a resolver muchos casos difíciles, incluido el ataque del 6 de enero de 2021 al Capitolio de los Estados Unidos. Los investigadores federales reunieron abundante evidencia adicional en esa investigación, incluidos datos de ubicación celular y publicaciones en las redes sociales, lo que resultó en más de 1200 condenas. El software funciona casi a la perfección en pruebas de laboratorio utilizando fotos de comparación claras. Pero no se han hecho pruebas independientes en el mundo real de la precisión de la tecnología en la forma en que la policía la usa habitualmente: con imágenes de vigilancia de menor calidad y agentes que eligen a un candidato de una lista de posibles coincidencias, dijo Katie Kinsey, jefa de personal del Proyecto Policial de la Facultad de Derecho de la Universidad de Nueva York. Debido a esto, es difícil saber con qué frecuencia el software se equivoca, dijo. Además, los investigadores han descubierto que las personas que utilizan herramientas de IA pueden sucumbir al "sesgo de automatización", una tendencia a confiar ciegamente en las decisiones tomadas por un software poderoso, ignorantes de sus riesgos y limitaciones. Un estudio de 2012 realizado por un neurocientífico del University College de Londres descubrió que los examinadores de huellas dactilares estaban influenciados por el orden en el que un sistema informático les mostraba una lista de huellas dactilares potencialmente coincidentes. Era más probable que coincidieran erróneamente con las huellas que aparecían en la parte superior de la lista, lo que sugiere que no evaluaron adecuadamente las similitudes de otras posibles coincidencias debido a la confianza en el sistema. En un ejemplo del potente poder del reconocimiento facial, la policía de Woodbridge, Nueva Jersey, arrestó a Nijeer Parks, un sospechoso de robo que encontraron mediante reconocimiento facial en 2019, a pesar de que las pruebas de ADN y huellas dactilares recogidas en la escena apuntaban claramente a otro sospechoso potencial, según documentos presentados en una demanda que Parks presentó posteriormente contra el departamento de policía. Woodbridge resolvió la demanda por 300.000 dólares el año pasado, sin admitir ninguna irregularidad. La policía de Woodbridge no respondió a las solicitudes de comentarios, y The Post no pudo encontrar ninguna indicación de que el hombre que coincidía con las pruebas de ADN y huellas dactilares hubiera sido acusado alguna vez. La investigación académica ha demostrado que algunas personas tienen dobles genéticamente similares que no están relacionados con ellas. Según Clare Garvie, investigadora de inteligencia artificial que ha formado a abogados de defensa penal de todo el país sobre el uso que hace la policía del reconocimiento facial, las personas no son especialmente buenas a la hora de distinguir entre dos caras desconocidas que se parecen, lo que dificulta discernir si una coincidencia de IA es el autor o simplemente alguien que se parece a ellas. Durante una declaración judicial en 2023, Jennifer Coulson, examinadora de imágenes capacitada para el estado de Michigan, describió con extraños detalles cómo determinó que los rasgos del rostro de un hombre coincidían con los del autor captado en un vídeo de vigilancia robando relojes de una tienda de lujo. "Me encantó el patrón de crecimiento de su vello facial, el grosor de sus labios, la fisura de sus labios", dijo Coulson, que eligió al hombre entre cientos de fotos devueltas por el software de reconocimiento facial del estado como posibles coincidencias. "Me encantó el grosor de sus mejillas... y la presencia de la esclerótica de los ojos". Coulson estaba equivocada. El rostro que estaba describiendo pertenecía a Robert Williams, a quien la policía de Detroit detuvo injustamente en parte basándose en su hallazgo. En un acuerdo anunciado en junio, Detroit pagó a Williams 300.000 dólares y aceptó exigir a los agentes que reunieran pruebas independientes sobre los sospechosos identificados por IA antes de solicitar una orden de arresto. Coulson no respondió a una solicitud de comentarios. Una portavoz de la Policía Estatal de Michigan se negó a hacer comentarios sobre el error, pero dijo que el estado depende de los investigadores para corroborar todas las pistas que les proporciona a partir del reconocimiento facial. En varios casos revisados por The Post, los agentes arrestaron a una persona identificada por IA después de utilizar únicamente su propio criterio de que era la misma persona o mostrando una foto del sospechoso a los testigos, sin vincular de otro modo a la persona con el delito, según muestran los registros. Mucho antes de la IA, la identificación de testigos se consideraba problemática cuando era la única prueba de la culpabilidad de un sospechoso. La memoria humana es imperfecta y los testigos pueden ser influenciados consciente o inconscientemente por la policía. Según una base de datos mantenida por el Registro Nacional de Exoneraciones, un grupo de investigación académica, más de una cuarta parte de todas las exoneraciones desde 1989 --- o 986 casos --- han involucrado una identificación errónea de testigos. Ya sea que se den cuenta o no, la policía que incluye a un sospechoso encontrado a través de IA en una rueda de reconocimiento de fotografías puede "engañar" eficazmente a un testigo para que elija a esa persona, dijo Gary Wells, un psicólogo de la Universidad Estatal de Iowa cuya investigación ha arrojado luz sobre identificaciones erróneas de testigos oculares. La IA puede haber seleccionado a alguien que se parece tanto al perpetrador que sería imposible para muchas personas notar la diferencia, dijo Wells. "Por supuesto que lo van a elegir". ### Un golpe en la puerta Cinco días después de que Feldman rodeara con un círculo la foto de Gatlin, la policía llamó a la puerta de la casa de la hermana de Gatlin en St. Louis. Gatlin, un hombre delgado y de amplia sonrisa, había estado dividiendo su tiempo entre St. Louis, donde creció, y un pequeño pueblo en Indiana donde vivía su padre. Había regresado recientemente a St. Louis para el funeral de su madre, pero terminó quedándose un tiempo, pasando tiempo con sus hijos y aceptando un trabajo en el Walmart cerca del aeropuerto de St. Louis. Estaba descansando después de trabajar el turno de noche cuando los dos oficiales le pidieron que saliera. Él obedeció, pensando que estaban allí para preguntar por su camioneta, que se había averiado al costado de la carretera. Le preguntaron si tenía una tarjeta para el tren subterráneo en su billetera. Cuando dijo que no, se miraron brevemente, dijo. Luego uno sacó un par de esposas y le dijo que iría a la cárcel. Como muchos casos de reconocimiento facial revisados por The Post, la denuncia policial solo decía que Gatlin "ha sido identificado" en una agresión que fue captada en video, sin decir cómo la policía lo había relacionado con el crimen. Cuando Gatlin no pudo pagar la fianza en efectivo de 75.000 dólares, fue enviado a una celda más pequeña que una plaza de aparcamiento. "Nunca pensé que iba a salir", dijo Gatlin, que ahora tiene 32 años, en una entrevista. Terminó pasando 16 meses en la cárcel, en parte porque cortó el monitor del tobillo cuando estaba en libertad condicional y tuvo que volver. En todos los casos conocidos de arresto injusto debido al reconocimiento facial, la policía arrestó a alguien sin relacionar de forma independiente a la persona con el delito. Tomemos como ejemplo a Vernau, de 49 años, un empresario médico, que pasó tres días tras las rejas en julio de 2024 después de que la policía lo acusara de cobrar un cheque fraudulento de 36.000 dólares en una sucursal del banco Truist en Miami, basándose en una imagen de una cámara de vigilancia que pasaron por reconocimiento facial, según documentos que los fiscales compartieron con The Post. A diferencia de otros casos de arresto falso, Vernau fue identificado correctamente como la persona del video de vigilancia. Sin embargo, Vernau era solo un cliente que cobraba un cheque legítimo de 1.500 dólares en el mismo banco el mismo día del fraude. Un investigador de Truist compartió por error el vídeo de Vernau con la policía, según un resumen del caso escrito por un fiscal. La policía nunca verificó las cuentas bancarias de Vernau, la marca de tiempo de la transacción u otra evidencia que hubiera revelado el error, dijo su abogado defensor. "¿Éste es su trabajo de investigación?", recuerda Vernau haber preguntado a los detectives que lo interrogaron en el Departamento de Policía de Miami durante su detención. "¿Tienen una foto mía en un banco y esa es su prueba? Dije, ¿dónde están mis huellas digitales en el cheque? ¿Dónde está mi firma?". Los fiscales luego desestimaron el caso, pero Vernau dijo que todavía está trabajando para que los cargos sean eliminados de su expediente. Freddie Cruz, un portavoz de la policía de Miami, dijo que el departamento había iniciado una investigación interna sobre el manejo del caso. La portavoz de Truist, Carly DeBeikes, dijo que la compañía "no puede discutir ningún asunto de aplicación de la ley abierto o cerrado". Vernau es blanco. Los otros siete detenidos injustamente son negros, lo que es una evidencia preocupante del sesgo racial de la tecnología, según los grupos de libertades civiles. Las pruebas federales de 2019 demostraron que las personas asiáticas y negras tenían hasta 100 veces más probabilidades de ser identificadas erróneamente por algún software que los hombres blancos, posiblemente porque las fotos utilizadas para entrenar algunos de los algoritmos estaban inicialmente sesgadas hacia los hombres blancos. En entrevistas con The Post, las ocho personas que se sabe que fueron arrestadas erróneamente dijeron que la experiencia les había dejado cicatrices permanentes: pérdida de empleos, relaciones dañadas, pagos atrasados de préstamos para automóviles y viviendas. Algunas dijeron que tuvieron que enviar a sus hijos a terapia para superar el trauma de ver a su madre o padre ser arrestados en el jardín delantero. La mayoría dijo que también desarrollaron miedo a la policía. "Sabía que era inocente, así que ¿cómo puedo vencer a una máquina?" dijo Alonzo Sawyer, de 58 años, quien fue arrestado por las autoridades de Maryland en 2022 por un asalto a un conductor de autobús que ocurrió mientras él decía que estaba en la casa de su cuñada. Sawyer dice que solo salió de la cárcel porque su esposa condujo 90 millas para confrontar personalmente a un oficial de libertad condicional a quien la policía había presionado para que confirmara falsamente que su esposo era el atacante. Se disculpó y se retractó de su declaración. Scott Shellenberger, el fiscal del estado del condado de Baltimore, dijo en una entrevista que Sawyer fue "agraviado" y nunca debería haber sido arrestado. ### Un golpe de suerte El golpe de suerte de Gatlin llegó en la forma de su defensora pública asignada, Brooke Lima, cuyas décadas de experiencia en defensa penal la habían hecho desconfiar de confiar en la policía. El caso del condado contra Gatlin no tenía sentido para ella, porque no tenía ninguna razón para estar en el tren esa mañana. Gatlin era dueño de un camión y rara vez usaba el transporte público. Dice que cree que estaba en casa con su familia ese día, pero no puede estar seguro y no tiene nada que lo demuestre porque la policía no se acercó a él hasta ocho meses después del crimen. St. Louis utiliza un sistema de reconocimiento facial mantenido por un programa policial regional y multijurisdiccional que contiene más de 250.000 fotografías policiales. Gatlin estaba en el sistema, después de haber sido arrestado por infracciones de tránsito y por un cargo de robo en 2018; el cargo de robo fue posteriormente retirado porque los fiscales no pudieron presentar pruebas suficientes, según muestran los registros. Gatlin se negó a hacer comentarios sobre el cargo, y los tribunales de Missouri no proporcionan registros de los casos que han sido desestimados. "Me pareció tan escandalosamente distópico", dijo Lima en una entrevista. "Tienes un motor de búsqueda que está decidido a darte un resultado, y solo va a buscar personas que hayan sido arrestadas por algo, y va a tratar de encontrar a alguien entre esa población limitada que se acerque más a este fragmento de media cara que encontraste". Lima nunca había oído hablar de que la policía utilizara el reconocimiento facial antes de verlo mencionado en el informe policial de Gatlin. Investigó cómo funcionaba, habló con un experto nacional en la tecnología y se adentró en el "agujero de conejo de Westlaw", investigando el puñado de casos de apelación en todo el país en los que se ha empezado a mencionar la tecnología. Le inquietó la idea de que "el gobierno dependiera de una máquina para identificar a alguien como posible sospechoso de un delito". Al examinar los videos de vigilancia de los atacantes del andén del tren (que fueron filmados por una pequeña cámara fijada al lateral de un autobús de Metro estacionado en la estación esa mañana), Lima llegó a creer, y finalmente argumentó en el tribunal, que Shute y Welle habían confiado en una imagen que probablemente no era lo suficientemente clara como para producir una coincidencia fiable. El manual de usuario del programa de tecnología de reconocimiento de fotografías policiales de St. Louis establece que una imagen "tiene que ser de alta calidad para que el sistema proporcione candidatos probables precisos", y sin embargo los detectives habían presentado una foto de un hombre cuyo rostro era apenas reconocible. El video de la cámara corporal que muestra la alineación de fotografías de Feldman no salió a la luz hasta meses después del arresto de Gatlin, cuando un oficial mencionó durante una declaración que había grabado el episodio. Chris King, portavoz del fiscal del condado de St. Louis, dijo que el abogado asignado a este caso se enteró por primera vez de la existencia del video a partir de esta declaración, a pesar de que la grabación se mencionó explícitamente en un informe policial que se proporcionó a los fiscales y abogados defensores después del arresto. Después de que el fiscal se enteró del video y lo solicitó a la policía, dijo King, se entregó a la defensa. El juez del Tribunal de Circuito de St. Louis, Brian May, que presidió el caso, lo vio durante una audiencia en febrero de 2024 e inmediatamente dictaminó que la identificación no podía usarse en el tribunal. Welle y Shute habían roto con las prácticas ampliamente aceptadas para realizar alineaciones de fotografías justas e imparciales, descubrió May. Habían presionado a Feldman para que hiciera una declaración a pesar de que dijo que no podía recordar a los perpetradores. Invitaron a un tercer oficial para que fuera un administrador imparcial, según el protocolo, pero Welle interfirió en el proceso al sugerir qué foto pertenecía a su sospechoso, determinó el juez. "Realmente creo que el detective estaba un poco... demasiado entusiasta para poder intentar resolver este crimen", dijo May, según una transcripción del tribunal. Durante la audiencia, Lima confrontó a Shute con los pasos que había tomado para arrestar a Gatlin: la imagen de vigilancia, el escaneo de reconocimiento facial, la alineación de fotos incorrecta y la declaración de testigos. "¿Cree que esta es una forma confiable de obtener una identificación legítima de un sospechoso?", preguntó. "No lo creo", dijo Shute. Sin pruebas en su contra, los fiscales retiraron todos los cargos contra Gatlin en marzo. Esta semana, demandó a las agencias y oficiales responsables de su arresto, solicitando daños monetarios no especificados. Las agencias y los oficiales no respondieron de inmediato a una solicitud de comentarios. Mientras tanto, Lima ---recién informada sobre el uso policial de la tecnología de reconocimiento facial--- sigue preocupada de que el exceso de confianza de la policía y la supervisión laxa conduzcan a más arrestos injustificados. "¿Qué se les dice a los departamentos de policía sobre cómo pueden y deben usar esto?", preguntó. "¿Y quién lo hace cumplir?"

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd