Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Blog de AIID

Enquête sur les incidents d'IA pour construire un avenir plus sûr : l'Instituto de Investigación de Seguridad Digital s'associe à Responsible AI Collaborative

Traduit par IA
Voir l'original Posted 2024-02-20 by TheCollab Board of Directors.

L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheCollab) pour faire avancer la Base de Données d'Incidents d'AI (AIID) et son utilisation pour prévenir les incidents. de Inteligencia Artificial (IA) et des dommages publics.

L'AIID est un recours public dédié à la définition, à l'identification et au catalogue des incidents d'IA afin d'atténuer les risques lors de la mise en œuvre future des systèmes d'IA. Depuis 2018, l'AIID a compilé des kilomètres d'informations sur des incidents qui ont eu lieu dans le monde réel lié aux systèmes d'IA et qui ont fait apparaître ces dommages aux chercheurs, enquêteurs et rédacteurs politiques.

TheCollab, une association d'organisations comme le Centre de Sécurité et de Technologie Émergente et le Centre pour l'Avance de la Sécurité de l'Intelligence Artificielle de l'Université Northwestern, agit comme administrateur des données contenues dans l'AIID et les utilise pour répondre aux projets d'enquête. indépendants.

DSRI continue depuis lors le développement du code qui se rapporte à l'AIID. DSRI utilise l'AIID comme base pour ses propres projets d'investigation scientifique ouverte en évaluation de l'IA et de la sécurité du consommateur.

Alors que l'IA et d'autres systèmes intelligents sont vus chaque fois que plus de communes dans notre vie sociale (dans notre travail, dans nos maisons, dans notre société), nous avons le risque de nous familiariser avec nos impacts. Sans embargo, l’escalade et la complexité du danger que ces systèmes plantent ne sont pas plus difficiles à créer avec le temps. TheCollab, DSRI et d'autres sociétés améliorent leur aide dans la mission d'identifier ces dommages, les apprendre sans répétition et créer un écosystème numérique plus sûr.

Pour obtenir plus d'information sur l'AIID ou envoyez un submission, faite click ici.

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c