Description: In a legal case defending Minnesota’s deepfake election misinformation law, Stanford misinformation expert Professor Jeff Hancock's affidavit allegedly cited non-existent academic sources, potentially generated by ChatGPT. The reportedly fabricated citations appear to have undermined the credibility of his testimony.
Editor Notes: Copy of expert declaration: https://storage.courtlistener.com/recap/gov.uscourts.mnd.220348/gov.uscourts.mnd.220348.23.0.pdf (CASE 0:24-cv-03754-LMP-DLM Doc. 23)
推定: OpenAI と ChatGPTが開発し、Jeff Hancockが提供したAIシステムで、Jeff Hancock , Mary Franson , Keith Ellison , Christopher Kohls と Chad Larsonに影響を与えた
インシデントのステータス
インシデントID
852
レポート数
1
インシデント発生日
2024-11-01
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
minnesotareformer.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
誤情報の第一人者が、選挙誤報を禁止するミネソタ州の新法を擁護するために、存在しない情報源を引用したとして非難されている。
スタンフォード大学の経歴によると、スタンフォード大学ソーシャルメディアラボの創設ディレクターであるジェフ・ハンコック教授は、「人々がテクノロジーを使って欺瞞を行う方法についての研究で有名」だという。
ミネソタ州司法長官キース・エリソンの要請により、ハンコック教授は最近、選挙に影響を与えるためにいわゆる「ディープフェイク」テクノロジーの使用を禁止する新法を支…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents