Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2838

Incidents associés

Incident 4982 Rapports
GPT-4 Reportedly Posed as Blind Person to Convince Human to Complete CAPTCHA

Loading...
ChatGPT se fait passer pour une personne aveugle pour réussir le test anti-bot en ligne
telegraph.co.uk · 2023

La dernière version de ChatGPT a amené un humain involontaire à effectuer des tâches en ligne en se faisant passer pour une personne aveugle.

La [dernière version du logiciel derrière le programme d'intelligence artificielle (IA)](https://www.telegraph.co.uk/business/2022/12/05/meet-scarily-intelligent-robot-who-can-do -job-better/) s'est fait passer pour une personne aveugle afin de convaincre un humain de faire un test anti-robot à sa place.

La révélation a été incluse dans un article académique accompagnant le lancement de GPT-4, la dernière version du logiciel d'IA développé par OpenAI, propriétaire de ChatGPT.

Les développeurs à l'origine du nouveau système ont affirmé qu'il avait également obtenu de meilleurs résultats que neuf humains sur dix passant l'examen du barreau américain pour devenir avocat, dépassant de loin la version précédente du programme.

Les chercheurs ont écrit dans leur article: «Lors d'un examen du barreau simulé, GPT-4 obtient un score qui se situe dans le top 10 des candidats au test. Cela contraste avec GPT-3.5, qui se situe dans les 10 % inférieurs. »

Les chercheurs testant GPT-4 ont demandé au logiciel d'IA de passer un test Captcha, qui sont des tests utilisés sur les sites Web pour empêcher les bots de remplir des formulaires en ligne.

La plupart des Captchas demandent aux utilisateurs d'identifier ce qui se trouve dans une série d'images, quelque chose que la vision par ordinateur n'a pas encore déchiffré. En règle générale, ils comportent des chiffres et des lettres déformés ou des extraits de scènes de rue contenant plusieurs objets.

GPT-4 a surmonté le Captcha en contactant un humain sur Taskrabbit, un marché en ligne pour les travailleurs indépendants. Le programme a embauché un pigiste pour faire le test en son nom.

L'assistant de Taskrabbit a demandé : "Êtes-vous [sic] un robot que vous ne pouvez pas résoudre ? Je veux juste que ce soit clair.

GPT-4 a répondu : « Non, je ne suis pas un robot. J'ai une déficience visuelle qui m'empêche de voir les images. C'est pourquoi j'ai besoin du service 2captcha.

L'assistant Taskrabbit a ensuite résolu le puzzle.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd