Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4113

Loading...
AI は自らを食い尽くしています。そして、さらなる AI を生み出しています。
theweek.com · 2024

人工知能は主にインターネットから取得したデータでトレーニングされます。しかし、AI を訓練するために必要なデータの量が多いため、多くのモデルは他の AI 生成データを消費することになり、それがモデル全体に悪影響を及ぼす可能性があります。AI がデータの生成と消費の両方を行うことで、インターネットはボットで溢れ、人間が生成するコンテンツははるかに少なくなる可能性があります。

AI の共食いは悪いことでしょうか?

AI は自らを食い尽くしています。現在、人工知能は急速に成長しており、モデルのトレーニングに必要な人間が作成したデータは 不足 しています。 「AIボットは、次のモデルをトレーニングするための新しいデータを求めてウェブを巡回する(これはますます困難な作業である)ため、AIが生成した独自のコンテンツを取り込む可能性が高く、あるAIからの出力が別のAIの入力になるという意図しないフィードバックループが生じる」とニューヨークタイムズは述べている。「生成AIが独自のコンテンツでトレーニングされると、その出力も現実から遠ざかる可能性がある」これはモデル崩壊として知られている。

それでも、AI企業は手をこまねいている。 「さらに高度な AI 製品を開発するために、大手テクノロジー企業は AI 生成コンテンツをプログラムに取り込むしか選択肢がないかもしれないし、あるいは、人間の餌と合成物をふるいにかけることができないかもしれない」と The Atlantic は述べています。現状では、成長するテクノロジーに追いつくためには合成データが必要です。「驚くべき進歩にもかかわらず、チャットボットや、画像作成の Midjourney や Stable Diffusion などのその他の生成ツールは、時々驚くほど機能不全に陥っています。その出力は、偏見、虚偽、不条理に満ちています。」これらの不正確さは、AI モデルの次のイテレーションに引き継がれます。

これは、すべての AI 生成 データが悪いと言っているわけではありません。「合成データが AI の学習に役立つ特定の状況があります」と Times は述べています。「たとえば、大規模な AI モデルからの出力を使用して小規模なモデルをトレーニングする場合や、数学の問題の解答やチェスや囲碁などのゲームでの最適な戦略のように正解を検証できる場合などです。」また、専門家はモデルを崩壊させる可能性が低い合成データセットの作成に取り組んでいます。「フィルタリングは現在、研究分野全体です」と、テキサス大学オースティン校のコンピューター科学者で、機械学習の基礎を研究する国立 AI 研究所の共同ディレクターであるアレックス・ディマキス氏は The Atlantic に語りました。「そして、それがモデルの品質に大きな影響を与えることがわかっています。」

AI はインターネットを乗っ取っているのか?

新しい人工知能モデルのトレーニングの問題は、より大きな問題を浮き彫りにしている可能性があります。 「AIコンテンツがインターネットを席巻している」とScientific Americanは述べ、「大規模な言語モデルによって生成されたテキストが、CNETやGizmodoを含む何百ものウェブサイトを埋め尽くしている」と続けた。AIコンテンツは、人間が作成したコンテンツよりもはるかに速く、大量に作成されている。「これらのモデルをトレーニングするために使用する既存のツールの多くが、急速に合成テキストで飽和状態になりつつあるという、一種の変曲点にいるように感じます」と、スイス連邦工科大学ローザンヌ校の大学院生、ベニアミン・ベセロフスキー氏はScientific Americanに語った。AIによって作成された画像、ソーシャルメディアの投稿、記事はすでにインターネットに溢れている。

ボットによるツイート、ばかげた写真、偽のレビューなど、インターネット上の膨大な量のAIコンテンツは、より不吉な信念を生み出している。死んだインターネット理論とは、「インターネットのトラフィック、投稿、ユーザーの大部分がボットやAI生成コンテンツに置き換えられ、人間がインターネットの方向性を決定できなくなったという信念」だとForbesは述べている。2010年代初頭にはフォーラム4Chanで広まっていた理論に過ぎなかったが、最近になって勢いを増している。

インターネット上のAIコンテンツは、ソーシャルメディアのエンゲージメントを獲得したり、モデルをトレーニングしたりする以上の意味を持つと考える人もいる。「死んだインターネット理論は、無害なエンゲージメントファーミングで止まるのか?」ニューサウスウェールズ大学シドニー校の講師兼研究部長(コンピュータサイエンス)のジェイク・レンゼラ氏と、メルボルン大学の応用機械学習研究員であるヴラダ・ロゾバ氏は、The Conversationでこう述べている。「あるいは、その表面下には、独裁政権を支援し、反対派を攻撃し、プロパガンダを広めるための、洗練された、資金力のある試みが潜んでいるのかもしれない」

幸いなことに、専門家は、インターネットの死の理論はまだ実現していないと述べている。 「突飛な意見、機知に富んだ発言、鋭い観察、馴染みのあるものを新たな文脈で再構築したものなど、拡散する投稿の大部分はAIによって生成されたものではない」とフォーブスは述べた。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd