Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1399: Une Sud-Coréenne aurait utilisé ChatGPT pour évaluer la létalité de mélanges de drogues et d'alcool avant deux empoisonnements mortels dans des motels.

Traduit par IA
Description:
Traduit par IA
À Séoul, une femme aurait utilisé ChatGPT pour se renseigner sur les risques mortels du mélange de somnifères ou de benzodiazépines avec de l'alcool, avant d'empoisonner trois hommes. Deux d'entre eux sont décédés dans des motels distincts, et le troisième a survécu après avoir perdu connaissance. La police aurait considéré ses requêtes via le chatbot et son historique de recherche comme des preuves de son intention.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OpenAI developed an AI system deployed by Kim (suspect in Seoul poisoning case), which harmed Three unnamed men in their 20s in Seoul.
Système d'IA présumé impliqué: ChatGPT

Statistiques d'incidents

ID
1399
Nombre de rapports
1
Date de l'incident
2026-01-28
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident Occurrence« Cela pourrait-il tuer quelqu’un ? » Une femme de Séoul aurait utilisé ChatGPT pour commettre deux meurtres dans des motels sud-coréens.
Loading...
« Cela pourrait-il tuer quelqu’un ? » Une femme de Séoul aurait utilisé ChatGPT pour commettre deux meurtres dans des motels sud-coréens.

« Cela pourrait-il tuer quelqu’un ? » Une femme de Séoul aurait utilisé ChatGPT pour commettre deux meurtres dans des motels sud-coréens.

fortune.com

Loading...
« Cela pourrait-il tuer quelqu’un ? » Une femme de Séoul aurait utilisé ChatGPT pour commettre deux meurtres dans des motels sud-coréens.
fortune.com · 2026
Traduit par IA

Soyez prudent·e dans vos interactions avec les chatbots, car vous pourriez leur donner des raisons de commettre un meurtre prémédité.

Une Sud-Coréenne de 21 ans aurait utilisé ChatGPT pour répondre à des questions alors qu'elle planifiait u…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incident précédentProchain incident

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd