Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 3163

関連インシデント

インシデント 5481 Report
Opera's GPT-Based AI Reportedly Accused War Photographers of War Crimes

Loading...
Instagram post: @tomasvh
instagram.com · 2023

On May 24th, @opera, a tech company based in #Oslo, Norway and owned by Chinese billionaire Zhou Yahui, released a new browser that integrates an AI chatbot called Aria. According to the company's press release, it is based on "OpenAI's GPT technology" and "enhanced by additional capabilities such as adding live results from the web."

Like other AI products that have recently been unleashed on society, this one has serious flaws. It answered one of my questions by slandering acclaimed and highly respected photographers. It falsely accused Lynsey Addario, James Nachtwey, Ron Haviv, Lee Miller and Larry Towell of committing war crimes. These photographers have documented conflict at great peril for the public record, not committed war crimes. Raymond D'Addario and Ronald L. Haeberle are not a war criminals either. They were U.S. military photographers. Opera and Open AI's product is defective and dangerous.

AI is an extremely powerful technology that its own creators don't fully understand. We don't allow drug companies to dump powerful new medicines on society without testing or safeguards. Why are we allowing the tech giants to shove their defective products on us? Do we want to live in a world where machines that have perfected the art of persuasion—yet completely lack the ability to fact check—flood the information space? AI chatbots have hacked human language and generated a blackbox of obscure correlations between words and phrases. Everything is put together by algorithms based on shifting probabilities. These assemblages may seem like human communication, but they are not based on common sense, nor on ethics, nor on morals, nor on transparent editorial policies, nor on scientific rigor. AI chatbots undermine our relationship with knowledge and drive us towards an epistemological crisis.

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd