先月カリフォルニア州パームスプリングスの不妊治療クリニックで発生した爆破事件の容疑者2人が、攻撃計画の立案に人工知能(AI)チャットプログラムを使用していたと、連邦当局が水曜日に発表した(https://www.justice.gov/opa/pr/washington-state-man-arrested-federal-charges-alleging-he-provided-material-support-palm)。
当局によると、AIチャットアプリケーションの記録には、爆破事件の主犯格であるガイ・エドワード・バートカス容疑者が「硝酸アンモニウムと燃料を使って強力な爆発を起こす方法を研究していた」ことが示されている。
当局はバートカス容疑者が使用したAIプログラムの名前を明らかにしていない。
ニューヨーク市の法執行当局は火曜日、ワシントンD.C.在住の 男性ダニエル・パークを逮捕した。パークは、不妊治療クリニックを破壊した自動車爆弾テロでバートカス容疑者が使用した大量の化学物質の提供に協力した疑いがある。
バートカス容疑者は爆発で死亡し、他に4人が負傷した。
NBCニュースによると、FBIはパーク容疑者に対する刑事告発の中で、バートカス容疑者が携帯電話を使って「爆発物、ディーゼル、ガソリンの混合物、爆発速度」に関する情報を検索したと述べている。
法執行機関が爆破事件または爆破未遂事件へのAIの支援を指摘したのは、今年2件目となる。 1月、ラスベガスのトランプホテルの外でテスラサイバートラックを爆発させた兵士が、攻撃計画の立案にChatGPTを含む生成AIを使用していたと当局は発表した。
法執行当局によると、兵士のマシュー・リヴェルスバーガーは、爆発物の組み立て方法、特定の弾丸の弾速などに関する情報を探すためにChatGPTを使用していたという。
ラスベガスの事件を受けて、OpenAIは、自社の技術が攻撃計画に利用されたことが明らかになったことを遺憾に思うと述べ、「AIツールが責任ある形で利用されるよう尽力していく」と表明しました。
近年、OpenAIのChatGPT、AnthropicのClaude、そしてGoogleのGeminiといったチャットボットの台頭により、生成AIの利用が急増しています。これにより、消費者向けAIサービスの開発が活発化しています。
しかし、競争力維持をめぐるテクノロジー企業は、AIモデルを一般公開する前の安全性テストを省略する傾向が強まっていると、CNBCが先月報じた(https://www.cnbc.com/2025/05/14/meta-google-openai-artificial-intelligence-safety.html)。
OpenAIは先月(https://www.cnbc.com/2025/05/14/openai-will-now-show-how-models-do-on-hallucination-tests.html)、AIモデルの安全性結果と、幻覚、脱獄、有害コンテンツ(「ヘイトコンテンツや違法アドバイス」など)のテストにおけるパフォーマンスを表示する新しい「安全性評価ハブ」を発表した。
Anthropic 先月追加 は、Claude Opus 4 モデルが兵器開発に悪用されるのを防ぐため、セキュリティ対策を強化しました。
AI チャットボットは、一般の注目を集めて以来、改ざんや幻覚によって引き起こされる多くの問題に直面してきました。
先月、イーロン・マスクのxAIチャットボットGrokが、南アフリカにおける「白人虐殺」についてユーザーに虚偽の主張を提供しました。同社は後にこの誤りは人為的な操作によるものだと発表しました。
2024年、Googleは、このツールが歴史的に不正確な有色人種の画像を生成しているとのユーザーからの苦情を受け、Gemini AI画像生成機能を一時停止しました。(https://www.cnbc.com/2024/02/22/google-pauses-gemini-ai-image-generator-after-inaccuracies.html)