Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6890

Incidents associés

Incident 13752 Rapports
OpenAI Allegedly Did Not Alert RCMP After ChatGPT Flagged Violent Chats Before British Columbia School Shooting

Loading...
Lettre d'OpenAI au ministre Solomon
cdn.openai.com · 2026

26 février 2026

De :

Ann M. O’Leary, vice-présidente, Politiques mondiales, OpenAI

À :

**L’honorable Evan Solomon, C.P., député

Ministre de l’Intelligence artificielle et de l’Innovation numérique, Chambre des communes, Ottawa (Ontario) K1A 0A6

Canada**

Cc :

**L’honorable Gary Anandasangaree, C.P., député

Ministre de la Sécurité publique**

**L’honorable Sean Fraser, C.P., député

Ministre de la Justice et procureur général du Canada**

**L’honorable Marc Miller, C.P., député

Ministre de l’Identité et de la Culture**

Monsieur le Ministre Solomon,

Les événements de Tumbler Ridge constituent une tragédie indescriptible, et nos pensées accompagnent les victimes, leurs familles et toute la communauté.

Nous vous remercions d'avoir convoqué la réunion de mardi et pour la discussion franche que vous avez menée avec les ministres Miller, Anandasangaree et Fraser, ainsi que le secrétaire parlementaire Noormohamed, sur les moyens de prévenir de telles tragédies à l'avenir.

Aujourd'hui, nous vous informons des mesures immédiates prises par OpenAI suite aux enseignements tirés de ces événements. Nous demeurons pleinement engagés à collaborer avec les autorités policières dans le cadre de l'enquête sur la tragédie de Tumbler Ridge et nous réaffirmons notre partenariat avec les gouvernements fédéral et provinciaux.

Comme nous l'avons indiqué à vous et aux forces de l'ordre canadiennes, en juin 2025, OpenAI a décidé de fermer le compte ChatGPT de l'auteur de la tragédie de Tumbler Ridge après avoir détecté une violation de notre politique d'utilisation. Le système automatisé d'OpenAI a détecté le compte, qui a ensuite été soumis à une vérification humaine afin de déterminer si nos politiques d'utilisation avaient été enfreintes et si le compte justifiait un signalement aux autorités policières. D’après les éléments dont nous disposions au moment de la suspension du compte en juin 2025, nous n’avons pas identifié de planification crédible et imminente justifiant un signalement aux forces de l’ordre.

OpenAI travaille sans relâche à identifier les signaux d’alerte potentiels de violence grave, tout en protégeant la vie privée et la sécurité de la grande majorité des personnes qui utilisent nos outils de manière responsable. Nous nous efforçons d’identifier et de corriger les risques critiques de préjudice sur notre plateforme, notamment les menaces à la vie humaine. Nous devons également garantir la sécurité et la confidentialité de nos produits, et veiller à ce qu’ils puissent être utilisés en toute sécurité par des centaines de millions d’utilisateurs à travers le monde. OpenAI exige que tout développement et déploiement de nos modèles contribue à la sécurité et au respect des droits humains.

Au cours des derniers mois, nous avons renforcé nos mesures de protection et modifié notre protocole de signalement aux forces de l’ordre pour les cas d’activités violentes. Toutefois, notre échange avec vous cette semaine a mis en évidence que les Canadiens attendent des mesures concrètes et continues, et nous avons bien compris ce message. Lors de notre rencontre, vous et les autres ministres avez souligné qu’aucune communauté ne devrait avoir à vivre une telle tragédie. Nous partageons cet avis.

OpenAI s'engage à :

● Continuer à renforcer son protocole de signalement aux forces de l'ordre. Le signalement aux forces de l'ordre suite à des conversations avec ChatGPT implique des décisions complexes et délicates. Nous nous efforçons de protéger la vie privée de nos utilisateurs tout en intervenant lorsque la sécurité publique l'exige. C'est pourquoi nous améliorons constamment notre protocole de signalement. Il y a plusieurs mois, nous avons collaboré avec des experts en santé mentale, en comportement et en forces de l'ordre afin d'affiner nos critères permettant de déterminer à quel moment une conversation représente un risque imminent et crédible, justifiant un signalement aux forces de l'ordre.

Des experts en santé mentale et en comportement nous aident désormais à évaluer les cas difficiles, et nous avons assoupli nos critères de signalement pour tenir compte du fait qu'un utilisateur peut ne pas aborder la cible, les moyens et le calendrier d'une violence planifiée dans une conversation ChatGPT, mais qu'il peut exister un risque potentiel de violence imminente. Forts de cette expérience, et conformément à notre protocole de signalement aux forces de l'ordre renforcé, nous signalerions aujourd'hui aux forces de l'ordre le compte banni en juin 2025 s'il était découvert.

Aujourd'hui, nous nous engageons à collaborer avec le gouvernement canadien et des experts afin de renforcer nos critères de signalement aux forces de l'ordre, en tenant compte de la tragédie de Tumbler Ridge et du contexte canadien. Cela comprendra la poursuite de l'analyse de l'évaluation des risques imminents et crédibles, ainsi que la transparence de nos rapports aux forces de l'ordre.

● Créer un point de contact direct avec les forces de l'ordre canadiennes. À la demande des ministres, nous établirons des points de contact directs avec les autorités policières canadiennes afin de leur fournir rapidement l'information nécessaire lorsque nous effectuons un signalement en raison d'un risque potentiel de violence.

● Intégrer le contexte national et communautaire dans nos efforts de désescalade. Nos modèles doivent réagir de manière appropriée lorsque des utilisateurs sont en détresse ou adoptent des comportements interdits, en privilégiant la désescalade et la sécurité des utilisateurs. Lorsque ChatGPT constate qu'un utilisateur a besoin d'aide, nous souhaitons l'aider à trouver du soutien local dans sa communauté. Nous renforcerons notre engagement à orienter les utilisateurs vers les ressources d'assistance pertinentes, telles que les lignes d'assistance locales lorsque leur localisation est connue, afin de garantir une aide adaptée à leur pays ou région.

● Amélioration de notre système de détection des récidivistes : OpenAI dispose d'un système visant à identifier les récidivistes, notamment ceux dont le compte ChatGPT a été fermé pour violation de notre politique relative aux activités violentes, et qui tentent ensuite d'en créer un nouveau. Malgré ce système de détection, après la publication du nom de l'auteur de la tuerie de Tumbler Ridge, nous avons découvert qu'il utilisait un second compte ChatGPT. Ce second compte a été communiqué aux forces de l'ordre dès sa découverte. Nous nous engageons à renforcer nos systèmes de détection afin de mieux prévenir les tentatives de contournement de nos mesures de protection et de prioriser l'identification des délinquants présentant le risque le plus élevé. Nous nous engageons également à évaluer périodiquement les seuils utilisés par nos systèmes automatisés pour détecter les activités potentiellement violentes.

Ces engagements immédiats ne constituent que la première étape du travail que nous devons accomplir en partenariat avec le gouvernement canadien pour améliorer la sécurité de l'IA. Nous souhaitons poursuivre le dialogue et serions ravis de collaborer avec le gouvernement canadien afin de réunir les intervenants locaux et l'industrie pour élaborer des pratiques exemplaires concernant les signalements aux forces de l'ordre et le comportement des modèles d'IA dans les cas de violence potentielle, en tenant compte des spécificités liées aux jeunes.

Dans les prochains mois, OpenAI collaborera également avec les gouvernements fédéral et provinciaux, nos pairs de l'industrie et les intervenants locaux de divers horizons et communautés afin de répondre collectivement aux besoins des Canadiens, tout en continuant d'améliorer nos modèles et nos politiques de sécurité.

Merci encore d'avoir lancé cette importante discussion. Nous savons qu'ensemble, nous devons tout mettre en œuvre pour renforcer la sécurité de l'IA.

Cordialement,

Ann M. O'Leary

Vice-présidente, Politiques mondiales, OpenAI

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd