Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3163

Incidents associés

Incident 5481 Rapport
Opera's GPT-Based AI Reportedly Accused War Photographers of War Crimes

Loading...
Publication Instagram : @tomasvh
instagram.com · 2023

Le 24 mai, @opera, une entreprise technologique basée à #Oslo , Norvège et propriété du milliardaire chinois Zhou Yahui, a lancé un nouveau navigateur qui intègre un chatbot IA appelé Aria. Selon le communiqué de presse de la société, il est basé sur "la technologie GPT d'OpenAI" et "amélioré par des fonctionnalités supplémentaires telles que l'ajout de résultats en direct à partir du Web".

Comme d'autres produits d'IA qui se sont récemment déchaînés sur la société, celui-ci présente de graves défauts. Il a répondu à l'une de mes questions en calomniant des photographes acclamés et très respectés. Il a faussement accusé Lynsey Addario, James Nachtwey, Ron Haviv, Lee Miller et Larry Towell d'avoir commis des crimes de guerre. Ces photographes ont documenté des conflits au grand péril du public, et non commis des crimes de guerre. Raymond D'Addario et Ronald L. Haeberle ne sont pas non plus des criminels de guerre. C'étaient des photographes militaires américains. Le produit d'Opera et d'Open AI est défectueux et dangereux.

L'IA est une technologie extrêmement puissante que ses propres créateurs ne comprennent pas entièrement. Nous n'autorisons pas les sociétés pharmaceutiques à déverser de nouveaux médicaments puissants sur la société sans tests ni garanties. Pourquoi permettons-nous aux géants de la technologie de nous imposer leurs produits défectueux ? Voulons-nous vivre dans un monde où des machines qui ont perfectionné l'art de la persuasion, mais qui n'ont absolument pas la capacité de vérifier les faits, inondent l'espace d'information ? Les chatbots IA ont piraté le langage humain et généré une boîte noire de corrélations obscures entre les mots et les phrases. Tout est assemblé par des algorithmes basés sur des probabilités changeantes. Ces assemblages peuvent ressembler à de la communication humaine, mais ils ne reposent ni sur le bon sens, ni sur l'éthique, ni sur la morale, ni sur des politiques éditoriales transparentes, ni sur la rigueur scientifique. Les chatbots IA minent notre rapport au savoir et nous poussent vers une crise épistémologique.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd