Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Collaborative (TheCollab) para avanzar en la Base de Datos de Incidentes de AI (AIID) y su uso para prevenir incidentes de Inteligencia Artificial (IA) y daños públicos.
El AIID es un recurso público dedicado a definir, identificar y catalogar incidentes de IA para mitigar el riesgo en futuras implementaciones de sistemas de IA. Desde 2018, el AIID ha recopilado miles de informes de incidentes que alegan daños en el mundo real relacionados con sistemas de IA y ha hecho que estos daños sean visibles para desarrolladores, investigadores y formuladores de políticas.
TheCollab, una asociación entre organizaciones como el Centro de Seguridad y Tecnología Emergente y el Centro para el Avance de la Seguridad de la Inteligencia Artificial de la Universidad Northwestern, actúa como administrador de los datos contenidos en el AIID y los utiliza para respaldar proyectos de investigación independientes.
DSRI continúa ahora el desarrollo del código que subyace al AIID. DSRI utilizará el AIID como base para sus propios proyectos de investigación científica abierta en evaluación de IA y seguridad del consumidor.
A medida que la IA y otros sistemas inteligentes se vuelven cada vez más comunes en nuestra vida cotidiana (en nuestro trabajo, en nuestros hogares, en nuestra sociedad), corremos el riesgo de familiarizarnos demasiado con sus impactos. Sin embargo, la escala y la complejidad del daño que plantean estos sistemas no harán más que crecer con el tiempo. TheCollab, DSRI y otros socios agradecen su ayuda en la misión de identificar estos daños, aprender de ellos sin repetirlos y crear un ecosistema digital más seguro.
Obtenga más información en el AIID o para enviar un informe de incidente, haga clic aquí.