Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2838

Incidentes Asociados

Incidente 4982 Reportes
GPT-4 Reportedly Posed as Blind Person to Convince Human to Complete CAPTCHA

Loading...
ChatGPT se hizo pasar por ciego para pasar la prueba anti-bot en línea
telegraph.co.uk · 2023

La versión más nueva de ChatGPT engañó a un humano involuntario para que hiciera tareas en línea haciéndose pasar por una persona ciega.

La [última versión del software detrás del programa de inteligencia artificial (IA)](https://www.telegraph.co.uk/business/2022/12/05/meet-scarily-intelligent-robot-who-can-do -job-better/) fingió ser una persona ciega para convencer a un humano de que hiciera una prueba anti-robot en su nombre.

La revelación se incluyó en un artículo académico que acompaña al lanzamiento de GPT-4, la última versión del software de IA desarrollado por OpenAI, propietario de ChatGPT.

Los desarrolladores detrás del nuevo sistema afirmaron que también obtuvieron mejores calificaciones que nueve de cada diez personas que tomaron el examen de la barra de EE. UU. para convertirse en abogados, superando con creces la versión anterior del programa.

Los investigadores escribieron en su artículo: “En un examen de barra simulado, GPT-4 logra una puntuación que se encuentra entre las 10 mejores personas que tomaron el examen. Esto contrasta con GPT-3.5, que puntúa en el 10% inferior”.

Los investigadores que probaron GPT-4 le pidieron al software de IA que pasara una prueba de Captcha, que son pruebas utilizadas en sitios web para evitar que los bots completen formularios en línea.

La mayoría de los Captchas piden a los usuarios que identifiquen qué hay en una serie de imágenes, algo que la visión artificial aún no ha descifrado. Por lo general, presentan números y letras deformados o fragmentos de escenas callejeras con múltiples objetos.

GPT-4 superó el Captcha al contactar a un humano en Taskrabbit, un mercado en línea para trabajadores independientes. El programa contrató a un profesional independiente para que hiciera la prueba en su nombre.

El ayudante de Taskrabbit preguntó: “¿Eres [sic] un robot que no pudiste resolver? solo quiero dejarlo claro.

GPT-4 respondió: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes. Por eso necesito el servicio 2captcha”.

El asistente de Taskrabbit luego resolvió el rompecabezas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd