一見すると、アイダホ州キャマス・プレーリーの土曜日の風予報には特に異常はなかった。
モンタナ州ミズーラの地元気象局はソーシャルメディアに「帽子をしっかり押さえて!」と投稿した。「オレンジティルド」では強風の確率が10%で、そのすぐ南にある「ワッタ・ボッド」では大きな突風は免れるだろうとしている。
問題は、どちらの場所も存在しないということだ。
国立気象局の予報グラフに記された他の地点にも、スペルミスや地理的な誤りが散見された。気象局は、これらの誤りが生成AIの使用に関連していると確認している。
この失態は、国立気象局が過去1年間に投稿したこの種の記事では初めてではないが、高度な予報からグラフィックデザインまで、AIの幅広い活用を試みている中で起きた 。専門家は、適切な訓練を受けた職員がいなければ、ミスによって気象局とその技術への信頼が損なわれる可能性があると懸念している。
NWSは、AIは一般向けコンテンツに一般的には使用されておらず、使用も禁止されていないと述べた。同局は、国民への情報提供にAIを活用する方法を検討しており、これまでにも誤りがあったことを認めている。
「最近、ある地方事務所がAIを使用して予報情報を表示するための基本地図を作成したのですが、その地図には誤って判読できない都市名が表示されていました」と、NWS広報担当のエリカ・グロー・セイ氏は述べた。「地図はすぐに修正され、ソーシャルメディアに更新された投稿が配信されました。」
不正確な地図が掲載された投稿は月曜日に削除され、ワシントン・ポスト紙が画像について当局に問い合わせた同日中に削除された。
セイ氏はさらに、「NWSは、アメリカ国民へのサービス提供を最適化し続けるための戦略的な方法を検討しており、AIの導入が適切と考えられるケースへの導入も検討しています。NWSは、AIを導入した場合の精度と効率性を確保するために、引き続き結果を慎重に評価し、AIが効果的でない場合には使用を中止します。」と述べた。
サウスダコタ州ラピッドシティの事務所から11月25日に投稿されたツイートでも、予報に場所のスペルミスとGoogle Geminiのロゴが含まれていました。
NWSは、ラピッドシティの画像が生成AIで作成されたかどうかについては確認していません。
2025年1月に退職するまで45年間同局に勤務したジョン・ソキッチ氏によると、同局は実験的な予報製品を頻繁に作成しています。「しかし、そのような実験には必ずラベルを貼るのが彼らの方針です。製品が実際に運用される前に、厳格なテストプロセスが実施されています。」
ソキッチ氏は、これらの画像に実験的なラベルが貼られていなかったのは「単なる見落とし」だと考えていると付け加えました。
過去1年間で、トランプ政権による連邦政府の規模縮小の一環として、数百人の職員がNWSから解雇、退職、または退職されました。NWSの親機関である国立海洋大気庁(NOAA)は、9月までにこれらのポストの多くを補充することを約束しましたが、人員削減はNWSとその職員に負担をかけています。
「AIを使ってその不足を補う方法があるとしても、私が判断する立場にはありません」と、気象・気候コミュニケーションの専門家で元放送気象学者のクリス・グロニンガー氏は述べています。 「しかし、存在しない町を創造するということは、私たちが築き上げ続けなければならない公共の信頼を損なう、あるいは傷つけることになるのではないかと懸念しています。」
彼は、風の予報は他の潜在的な気象災害と比較して比較的軽微なものだったと指摘した。「もしこれが公共の安全に直接影響を与える予報、あるいは大きな影響を与える事象であれば、(生成AIは)使われないと思います」とグロニンガー氏は述べた。
ソーシャルメディアのフィードで誤情報を見ることは珍しくないが、政府機関による生成AIの誤りは、世界中の組織がこの急速に発展する技術の長所と短所を認識する中で、訓練と意識向上の必要性を浮き彫りにしていると、コーネル大学コミュニケーション学部で誤情報とAIを専門とする准教授のクレア・ウォードル氏は述べた。
「多くのメリットがあります。問題は、大きな欠陥もあることです」とウォードル氏は述べた。「幻覚、地名、ロゴなどを二重チェックする訓練を受けていないと、自分が間違いを犯していることに気づかないでしょう。」
彼女は、こうした誤りが、天気図を作成するのに使われる技術とは全く異なるAIに対する人々の不信感を生む可能性があると指摘した。
NOAAは12月、野心的で先進的な新しいAI駆動型地球気象予測モデル群を発表した。多くの気象専門家は、この取り組みをより優れた、より正確な予報に向けた大きな一歩として歓迎した。
「AIがどのように活用されているかを人々に理解してもらうために、社会全体でより一層の努力をする必要があります」とウォードル氏は述べた。
グロニンガー氏は、科学分野におけるAIの進歩が進むにつれて、知識のギャップはますます重要になっていると述べた。
「グラフが間違って表示されたからといって、AIが生成したモデルの背後にある数学、科学、物理学が間違っているわけではありません。それらは全く異なるのです」と彼は述べた。