Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2545

Incidentes Asociados

Incidente 4522 Reportes
ChatGPT-Written Bug Reports Deemed "Nonsense" by White Hat Platform, Prompted Bans

Loading...
Crypto White Hat Platform Immunefi prohibió 15 informes de errores generados por ChatGPT. Este es el por qué
coindesk.com · 2023

ChatGPT de OpenAI ha agitado el nido de avispas desde su lanzamiento, con Twitterverse comentando fácilmente cómo el software eventualmente podría crear código, escribir historias, robar trabajos e incluso [combatir incendios forestales] (https://www.ndtv.com/world-news /artificial-intelligence-can-help-fight-wildfires-world-economic-forum-3697985).

Pero la criptoplataforma Immunefi no tiene nada de eso. El sombrero blanco que paga recompensas, un término para las personas que piratean productos con el objetivo de parchear la seguridad en lugar de robar, prohibió a 15 usuarios la semana pasada que enviaron informes regenerados por ChatGPT en la plataforma, aunque con sentimientos encontrados.

Los desarrolladores de Immunefi le dijeron a CoinDesk que el razonamiento de la plataforma sobre el tema es muy claro por ahora.

“Hay una diferencia entre algo como GitHub Copilot y ChatGPT. Con el primero, está impulsando el proceso y el rol de Copiloto ofrece sugerencias útiles en contexto, que acepta o rechaza a medida que escribe su programa”, dijo Immunefi a CoinDesk en un mensaje de Twitter. “Con este último, está utilizando un solo mensaje para generar algo que parece un informe de error bien escrito, pero que no tiene sentido cuando se analiza más a fondo”.

“Esto desperdicia el tiempo de los sombreros blancos, el tiempo de Immunefi y el tiempo de los proyectos. Es por eso que prohibimos los informes de ChatGPT”, agregaron.

“Es realmente un arte”, dijeron además los desarrolladores, refiriéndose al acto de escribir cuidadosamente un informe de error bien elaborado que presenta claramente los problemas y las soluciones para cualquier vulnerabilidad o error.

Immunefi fue un paso adelante y le preguntó a ChatGPT por qué el software no debería usarse para generar informes de errores, a una "[respuesta satisfactoria] (https://twitter.com/immunefi/status/1610635391803052033)".

La plataforma de recompensas por errores tiene más de $ 135 millones en recompensas disponibles para los sombreros blancos que descubren vulnerabilidades en las plataformas de finanzas descentralizadas (DeFi). Afirma haber pagado más de $60 millones en recompensas y dice que el servicio ha ahorrado aproximadamente $25 mil millones en fondos de usuarios.

Como tal, Immunefi dijo que continuaría monitoreando los informes generados por ChatGPT incluso cuando eventualmente se vuelvan más sofisticados. “Hay muchas señales muy obvias. Si juegas con ChatGPT, comenzarás a ver muchos patrones en la salida”, dijeron los desarrolladores.

“Por ejemplo, ningún sombrero blanco habitual se esforzaría por perder el tiempo presentando un informe de error largo, bien escrito y bien estructurado que no tiene ninguna relación con los contratos inteligentes de un proyecto”, agregaron.

Pero eso no quiere decir que nunca considerarían desbanear el uso de informes de errores generados por IA en el futuro.

“Estaremos atentos al desarrollo de herramientas de IA y consideraremos dejar de prohibir su uso si alguna vez son capaces de generar informes de errores reales”. Por ahora, sin embargo, es el momento de la prohibición.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd