Incident 1399: Une Sud-Coréenne aurait utilisé ChatGPT pour évaluer la létalité de mélanges de drogues et d'alcool avant deux empoisonnements mortels dans des motels.
Description: À Séoul, une femme aurait utilisé ChatGPT pour se renseigner sur les risques mortels du mélange de somnifères ou de benzodiazépines avec de l'alcool, avant d'empoisonner trois hommes. Deux d'entre eux sont décédés dans des motels distincts, et le troisième a survécu après avoir perdu connaissance. La police aurait considéré ses requêtes via le chatbot et son historique de recherche comme des preuves de son intention.
Entités
Voir toutes les entitésAlleged: OpenAI developed an AI system deployed by Kim (suspect in Seoul poisoning case), which harmed Three unnamed men in their 20s in Seoul.
Système d'IA présumé impliqué: ChatGPT
Statistiques d'incidents
ID
1399
Nombre de rapports
1
Date de l'incident
2026-01-28
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Soyez prudent·e dans vos interactions avec les chatbots, car vous pourriez leur donner des raisons de commettre un meurtre prémédité.
Une Sud-Coréenne de 21 ans aurait utilisé ChatGPT pour répondre à des questions alors qu'elle planifiait u…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?