インシデント 259の引用情報

Description: A YouTuber built GPT-4chan, a model based on OpenAI’s GPT-J and trained on posts containing racism, misogyny, and antisemitism collected from 4chan’s “politically incorrect” board, which he made publicly available, and deployed as multiple bots posting thousands of messages on the same 4chan board as a prank.
推定: Yannic Kilcherが開発し提供したAIシステムで、internet social platform usersに影響を与えた

インシデントのステータス

インシデントID
259
レポート数
2
インシデント発生日
2022-06-03
エディタ
Khoa Lam

GMF 分類法のクラス

分類法の詳細

Known AI Goal

Social Media Content Generation

Known AI Technology

Transformer, Distributional Learning

Known AI Technical Failure

Unsafe Exposure or Access

AI Trained on 4Chan Becomes ‘Hate Speech Machine’
vice.com · 2022

AI researcher and YouTuber Yannic Kilcher trained an AI using 3.3 million threads from 4chan’s infamously toxic Politically Incorrect /pol/ board. He then unleashed the bot back onto 4chan with predictable results—the AI was just as vile as…

YouTuber trains AI bot on 4chan’s pile o’ bile with entirely predictable results
theverge.com · 2022

A YouTuber named Yannic Kilcher has sparked controversy in the AI world after training a bot on posts collected from 4chan’s Politically Incorrect board (otherwise known as /pol/).

The board is 4chan’s most popular and well-known for its to…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください