Description: A study by Indiana University researchers uncovered widespread misuse of large language models (LLMs) for cybercrime. Cybercriminals, according to that study, use LLMs like OpenAI's GPT-3.5 and GPT-4 to create malware, phishing scams, and scam websites. These models are available on underground markets, often bypassing safety checks through jailbreaking. Named malicious LLMs are BadGPT, XXXGPT, Evil-GPT, WormGPT, FraudGPT, BLACKHATGPT, EscapeGPT, DarkGPT, and WolfGPT.
推定: OpenAIが開発し、Cybercriminals , BadGPT , XXXGPT , Evil-GPT , WormGPT , FraudGPT , BLACKHATGPT , EscapeGPT , DarkGPT と WolfGPTが提供したAIシステムで、internet users , Organizations と Individuals targeted by malwareに影響を与えた
インシデントのステータス
インシデントID
736
レポート数
2
インシデント発生日
2023-12-01
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
techpolicy.press · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-Despite the hype around them, readers of Tech Policy Press are well aware that the advance of large language models (LLMs) and their various applications-- ranging from chatbots and coding assistants to recommendation systems-…
theconversation.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-The internet, a vast and indispensable resource for modern society, has a darker side where malicious activities thrive.
From identity theft to sophisticated malware attacks, cyber criminals keep coming up with new scam method…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents