Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 735

関連インシデント

インシデント 4127 Report
All Image Captions Produced are Violent

Loading...
Scientists Made an Psychopathic AI Based on Reddit
popularmechanics.com · 2018

Scientists at MIT have created an AI psychopath trained on images from a particularly disturbing thread on Reddit. Norman is designed to illustrate that the data used for machine learning can significantly impact its outcome. “Norman suffered from extended exposure to the darkest corners of Reddit, and represents a case study on the dangers of Artificial Intelligence gone wrong when biased data is used in machine learning algorithms,” writes the research team.

Norman is trained on image captioning, a form of deep learning that lets AI generate text descriptions of an image. Norman learned from image captions of a particularly disturbing subreddit, dedicated to images of gore and death. Then, the team sent Norman to take a Rorschach inkblot test, a well known psychological test developed in 1921 designed to interpret subjects’ psychological states based on what they see in the image. Scientists compared Norman’s responses on a standard image captioning neural network.

When a standard AI sees “a group of birds sitting on top of a tree branch,” Norman sees “a man is electrocuted and catches to death. Normal AI sees “a black and white photo of a baseball glove,” psychopathic AI sees “man is murdered by machine gun in broad daylight.”

Previously, the team at MIT developed an AI called Shelly who writes horror stories, and a Nightmare Machine AI that turns ordinary photographs into haunted faces and haunted places. While MIT unveiled Norman on April Fool’s day, what Norman demonstrates is no joke: “when people talk about AI algorithms being biased and unfair, the culprit is often not the algorithm itself, but the biased data that was fed to it. The same method can see very different things in an image, even sick things, if trained on the wrong (or, the right!) data set."

(via MIT)

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd