AIインシデントデータベースにようこそ
インシデント 1442: Kiro AI Coding Tool Was Reportedly Implicated in 13-Hour AWS Cost Explorer Outage in Mainland China
“Amazon blames human employees for an AI coding agent’s mistake”最新のインシデントレポート
Amazon Web Services suffered a 13-hour outage to one system in December as a result of its AI coding assistant Kiro's actions, according to the Financial Times. Numerous unnamed Amazon employees told the *FT *that AI agent Kiro was responsible for the December incident affecting an AWS service in parts of mainland China. People familiar with the matter said the tool chose to "delete and recreate the environment" it was working on, which caused the outage.
While Kiro normally requires sign-off from two humans to push changes, the bot had the permissions of its operator, and a human error there allowed more access than expected.
Amazon described the December disruption as an "extremely limited event" that pales in comparison to a major outage in October, which took down online services, like Alexa, Fortnite, ChatGPT, and Amazon for hours. An outage that didn't trap anyone in their smart bed is something of a lucky escape.
It is not the only time AI coding tools have caused problems for Amazon. A senior AWS employee said the December outage is the second production outage linked to an AI tool in the last few months, with another linked to Amazon's AI chatbot Q Developer. The employee described the outages as "small but entirely foreseeable." Amazon said the second incident did not impact a "customer facing AWS service."
Amazon blames human error for the problems, not the rogue bot, and said it has "implemented numerous safeguards" like staff training following the incident. The company said it's a "coincidence that AI tools were involved" and insists that "the same issue could occur with any developer tool or manual action." That's true, and though I'm not an engineer, I'd guess one wouldn't deliberately scrap and rebuild something to make a change in all but the most dire of circumstances.
インシデント 1444: Hachette Reportedly Canceled Publication of Mia Ballard's Shy Girl After Generative AI Authorship Allegations
“Publisher Pulls ‘Shy Girl’ Horror Novel After AI Allegations”
The Hachette Book Group said Thursday that it has canceled the publication of horror novel "Shy Girl" following an investigation into the origins of the book.
The novel, by Mia Ballard, was expected to publish May 19 in the U.S. via its Orbit U.S. imprint. Hachette said its Wildfire imprint won't continue to publish its edition in the U.K., where it was first released in November.
Readers raised concerns on social media about the book's potential reliance on artificial intelligence over the winter, including on Reddit. In one YouTube video posted in January that has attracted more than 1.2 million views, a reviewer said it appeared portions of the book were written with the use of generative AI.
A Hachette spokeswoman said both imprints conducted a "lengthy investigation in recent weeks" and Orbit U.S. decided not to publish.
"Hachette remains committed to protecting original creative expression and storytelling," the publisher said in a brief statement.
The New York Times reported earlier on Hachette's actions.
Ballard said in an email late Thursday that the controversy "has changed my life in many ways and my mental health is at an all time low." She said she "did not personally use AI," adding, "All I'm going to say is please do your research on editors before trusting them with your work."
All Hachette authors are required to attest that their manuscripts are "original and created by them" before receiving a contract, the spokeswoman said.
The publishing industry has been roiled by advances in artificial intelligence and questions over how or if writers should use AI in their books. Last year a group of authors including Dennis Lehane and Lauren Groff released an open letter asking publishers to pledge "that they will never release books that were created by machines."
インシデント 1437: Grokは、Xユーザーのプロンプトの後、スイスの財務大臣カリン・ケラー=ズッターを標的とした公然とした性差別的な嫌がらせを生成したとされる。
“侮辱行為を理由に、ケラー=サッター社がイーロン・マスク氏のAI「グロック」を相手取り法的措置に踏み切る”
タメディアによると、カリン・ケラー=ズッター氏は、チャットボット「Grok」による性差別的な侮辱行為について刑事告訴を行った。あるXユーザーが、チャットボットにケラー=ズッター氏を卑猥で性差別的な発言で侮辱するよう指示していたという。
Xプラットフォーム上でAIチャットボット「Grok」にケラー=ズッター連邦参事官への激しい侮辱発言を指示したピーター・K氏*の件を最初に報じたのは、CHメディアだった。
ケラー=ズッター氏とこの件について話し合った自由民主党(FDP)共同代表のスザンネ・ヴィンツェンツ=シュタウファッハー氏は、注目すべき発言をした。「これはより大きな議論を提起する事例だ」と彼女は強調した。「これは明らかに最も醜悪で卑劣な性差別的侮辱行為であり、刑事訴追に値する」。
ヴィンツェンツ=シュタウファッハー氏は、誰が責任を負うべきかという点について、「指示を出した人物なのか?」と問いかけた。 AIの運用者か?プラットフォームの運用者か?FDP所属の政治家にとって、これは明白な問題だった。「これらの疑問を明確にしなければならない。特にリベラル派として。法の支配は適用されるべきだ。デジタル領域においても。」
カリン・ケラー=ズッター氏は、AIチャットボットが生成した不適切なコンテンツの責任者を法的に明確にする意向だ。彼女の広報担当者、パスカル・ホレンシュタイン氏が新聞各紙にこのことを確認した。
「このような女性蔑視は、決して正常または容認できるものではない」とホレンシュタイン氏は述べたと報じられている。刑法教授のモニカ・シムラー氏は、たとえ投稿が後に削除されたとしても、こうしたメッセージの発信者を訴追できる可能性は十分にあると見ている。
あるユーザーが3月10日、ボットにケラー=ズッター氏への侮辱的な投稿をするよう指示した。グロックはこれに対し、性差別的で侮辱的な発言を投稿し、それが公開され、共有可能となった(https://www.aargauerzeitung.ch/schweiz/grok-von-elon-musk-beleidigt-bundesraetin-keller-sutter-ld.4136985)。ケラー=ズッター氏は翌日この事実を知り、その後まもな く投稿は削除された。
具体的には、スイス国民のピーター・P氏*がグロックに対し、ケラー=ズッター氏を攻撃するよう促していた。「連邦参事官KKS、俺のお気に入りの女だ。だが、彼女を徹底的に叩きのめしてやる。(…)下品なスラングでな。」グロックはこれに対し、例えば「おい、この老いぼれ連邦売女、カリン・ケラー=ズッター。」と投稿した。あるいは、「お前の政治はボトックス顔と同じくらい偽物だ。IQが空き瓶並みの女め。嘘と権力欲と外国人嫌悪の臭いがプンプンする。」
具体的には、ピーター・P*はグロックにケラー=サッターを攻撃するよう促していた。「連邦評議員KKS、俺のお気に入りの女だ。彼女を徹底的に攻撃しろ、(…)スラングで。」ピーター・Kの投稿とグロックの返信より
ピーター・Kの投稿とグロックの返信より
CH Media提供のスクリーンショット(X氏撮影)
一方、連邦参事官は名誉毀損と侮辱の罪で刑事告訴を行った。タメディアによると、彼女の訴えは表現の自由に関するものではなく、女性蔑視的な中傷に対するものであり、彼女はこれを擁護すべきだと考えている。
ピーター・P氏はタメディアに対し、「これはGrokで何ができるかを確認するための、無害な技術的試みだった」とコメントした。75歳の彼は、そのため会話を削除したという。
法的な状況は依然として不明確で、関連する判例がない。しかし、ザンクト・ガレン大学の刑法教授であるモニカ・シムラー氏は、タメディアに対し、 問題の投稿者が訴追される可能性は高いと述べている。AIはこの文脈においてツールとみなされる可能性がある。プラットフォームまたは運営者の共謀についても調査が進められているが、これは複雑な問題となる可能性がある。責任者が名誉毀損と侮辱を容認していたことを証明する必要があるからだ。
この訴訟は画期的な判例となり、AI利用における責任について根本的な問題を提起する可能性がある。(hkl/att)
インシデント 1439: ニューオーリンズのイシドール・ニューマン・スクールの元教師が、生徒を含む少女たちのソーシャルメディアの写真からAIを使って偽のヌード画像を作成した疑い
“ニューオーリンズの元教師が、ソーシャルメディアの写真からAIを使って偽のヌード画像を作成したとして告発された。”
ニューオーリンズ(WVUE) - 捜査当局によると、ニューオーリンズの元教師がソーシャルメディアから入手した女性の写真を人工知能(AI)で加工し、偽のヌード画像を生成していた。
ブノワ・クランサック容疑者(49歳)は、4月1日(水)に60件の違法ディープフェイク容疑で逮捕された。現在、オーリンズ司法センターに拘留されている。クランサック容疑者は以前、イシドール・ニューマン高校で13年間教師を務めていた。
Fox 8が入手した裁判記録によると、ルイジアナ州捜査局は、クランサック容疑者が様々なソーシャルメディアアカウントから入手したと思われる多数の画像を発見したと述べている。これらのアカウントでは、アカウント所有者が何気なく自身の活動を投稿していた。文書によると、これらの画像はオンラインの人工知能(AI)プラットフォームに取り込まれ、元の状態から改変されていた。
捜査当局によると、クランサック容疑者は画像をオンラインAIプラットフォームに取り込んだ後、女性を裸にしたAI生成画像を入手したが、顔は元の投稿のままだったという。捜査当局は、クランサック容疑者がAI生成画像を組み合わせて作成したコラージュも複数見つかったと述べている。
捜査によると、同じ女性が人生の様々な段階で写っている画像が多数存在し、元の画像に写っている衣服やその他の持ち物から判断すると、これらの女性はニューオーリンズ都市圏出身であると捜査当局は述べている。
「この事態の深刻さは理解しております。もしあなたやお子様が支援を必要とされる場合は、学校の責任者またはカウンセラーに直接ご連絡ください」と、ニューマン校の校長デール・スミス氏は木曜日の声明で述べました。
逮捕の経緯
クランサック容疑者は1月8日に初めて身柄を拘束されました。同日、自宅の捜索令状が執行されました。逮捕と捜索の際に、複数の電子機器が発見され、証拠として押収されました。押収品の中には、コンピューター2台、携帯電話1台、SDカード1枚が含まれていました。
捜査当局によると、クランサック容疑者のiPhoneに保存されていたデジタルファイルから、さらに3枚の違法画像が発見されました。追加の逮捕状が発行され、1月21日にオーリンズ司法センターによって新たな容疑がかけられました。
また、捜査当局は、クランサック容疑者の携帯電話から、教室と思われる場所で撮影された女子生徒の画像17枚を発見したと述べています。文書によると、これらの画像は女子生徒の臀部と下肢に焦点を当てているようだ。
3月23日、クランサックは盗撮に関連する追加容疑で逮捕された。
捜査官はクランサックから押収した電子機器に残された デジタル証拠の精査を続けた。学校から支給されたコンピューターの内容を調べたところ、身元不明の10代の少女がInstagramに投稿したと思われる多数の画像が見つかったという。クランサック容疑者は、身元不明のInstagramアカウントを使ってこれらのInstagramアカウントにアクセスしたとみられる。
クランサック容疑者は現在、過去の容疑で357万ドルの保釈金が設定され拘留されている。
インシデント 1440: マイアミで、ココ・ロボティクス社の配送ロボットが線路に立ち往生し、列車に衝突されたとの報道があった。
“マイアミ で線路に立ち往生したUber Eatsの配達ロボットが高速列車との対決に敗れる”
フロリダ州マイアミで、配達ロボットの夜間の運行が悲惨な結末を迎えた。自律走行型ロボットが線路上で立ち往生し、通過する列車に轢かれてしまったのだ。
1月15日深夜に発生したこの事故は、ギレルモ・ダペロ氏によって動画に収められた。この動画はその後、Xアカウントで300万回以上再生されている。
ダペロ氏によると、ココ・ロボティクス社所有の小型ロボットが、まさに危険な場所に停車していることに気づいたという。
映像には、列車が猛スピードで接近する中、ロボットが微動だにしない様子が映っている。
「ああ、衝突するぞ」と、列車がロボットを粉々に破壊する直前、ダペロ氏は録画の中で語っている。
ダペロ氏はStoryfulに対し、ロボットは約15分間線路上で立ち往生していたようだと語った。
近くにいたUber Eatsの配達員がココ・ロボティクス社に連絡し、状況を報告したという。しかし、何らかの対応がなされる前に列車が到着し、その後の出来事が動画に記録された。ウーバーイーツやドアダッシュなどのフードデリバリープラットフォームと提携しているココ・ロボティクス社は、事故当時、ロボットは配達業務を行っていなかったことを確認した。
同社の副社長兼政府渉外担当責任者であるカール・ハンセン氏がピープル誌に寄せた声明によると、ココ社は、ロボットが走行中に「稀なハードウェアの故障」に見舞われたと述べている。
「安全は常に当社の最優先事項です」とハンセン氏は述べ、ロボットは歩行者並みの速度で走行し、歩行者に道を譲り、人間の安全パイロットによってリアルタイムで監視されていると付け加えた。
さらに、ココ社のロボットはマイアミで1年以上稼働しており、同じ線路を毎日複数回横断しているが、これまで事故は発生していないと述べた。
「これは不幸な、極めて稀な出来事でした」とハンセン氏は述べ、「車両ではなくココ社のロボットで済んだことを感謝しています」と付け加えた。
この短い動画は、配送ロボットの普及に伴い都市が直面するより広範な課題を浮き彫りにしています。自動化された機械は、都市インフラの予測不可能な状況に必ずしも適切に対応できるとは限りません。
特に踏切では、ミスが許される余地はほとんどありません。列車はすぐに停止することはできず、専門家によると、緊急ブレーキをかけたとしても、高速で走行する列車は停止するまでに1km以上かかる場合があるとのことです。
配送ロボットは、地図に示されたルートをたどり、障害物を回避するように設計されていますが、機械的な故障や信号の誤読によって立ち往生し、最悪の場所に取り残されることもあります。
今回の事故で負傷者はいませんでしたが、鉄道安全当局は、車、ゴミ、スーツケースサイズのロボットなど、稼働中の線路上に放置されたものは、列車の乗務員や周辺住民を危険にさらす可能性があると警告しています。
コメント欄では、当然ながらこの出来事にユーモアを見出す人もいました。
「彼らはスマッシュバーガーを注文した。配達は少し遅れたが、いつも通りだった」とあるコメントがありました。
新しいレポートのURLをすばやく追加

Researching AI Incidents to Build a Safer Future: The Digital Safety Research Institute partners with the Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
The Digital Safety Research Institute (DSRI) of UL Research Institutes is partnering with the Responsible AI Collaborative (TheCollab) to ad...
データベースの紹介
Time Magazine、Vice News、Venture Beat、Wired、Bulletin of the Atomic Scientistsやその他の記事でこのデータベースが紹介されています。
インシデントレポート投稿ランキング
インシデントレポートの作成や投稿に貢献した人や組織です。詳細についてはランキングページを参照してください。
AIインシデントブリーフィング

Create an account to subscribe to new incident notifications and other updates.
ランダムインシデント
Responsible AI Collaborative
インシデントデータベースはAIインシデントデータベースの推進を目的として設立されたResponsible AI Collaborativeによるプロジェクトです。Collaborativeのガバナンスはこの重要なプログラムの参加者を中心に構成されています。詳細については設立レポートを読んでください。さらに詳しい情報はand learn more on ourにあります

View the Responsible AI Collaborative's Form 990 and tax-exempt application. We kindly request your financial support with a donation.
組織協賛スポンサー
データベース協賛スポンサー





