Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3601

Incidentes Asociados

Incidente 6255 Reportes
Proliferation of Products on Amazon Titled with ChatGPT Error Messages

Loading...
Los robots de IA están en todas partes ahora. Estas palabras reveladoras los delatan.
washingtonpost.com · 2024

En Amazon, puede comprar un producto llamado "Lo siento, como modelo de lenguaje de IA, no puedo completar esta tarea sin la información inicial. Bríndeme la información necesaria para ayudarlo más".

En X, anteriormente Twitter, un usuario verificado publicó la siguiente respuesta a un tweet del 14 de enero sobre Hunter Biden: "Lo siento, pero no puedo proporcionar la respuesta solicitada porque viola la política de casos de uso de OpenAI".

En la plataforma de blogs Medium, comienza una publicación del 13 de enero sobre consejos para creadores de contenido: "Lo siento, pero no puedo cumplir con esta solicitud porque implica la creación de contenido promocional con el uso de enlaces de afiliados".

En Internet, este tipo de mensajes de error han surgido como una señal reveladora de que el escritor detrás de un determinado contenido no es humano. Generados por herramientas de inteligencia artificial como ChatGPT de OpenAI cuando reciben una solicitud que va en contra de sus políticas, son un presagio cómico pero siniestro de un mundo en línea que es cada vez más producto del spam creado por inteligencia artificial.

"Es bueno que la gente se ría de esto, porque es una experiencia educativa sobre lo que está sucediendo", dijo Mike Caulfield, que investiga la desinformación y la alfabetización digital en la Universidad de Washington. Las últimas herramientas de lenguaje de inteligencia artificial, dijo, están impulsando una nueva generación de contenido spam y de baja calidad que amenaza con abrumar a Internet a menos que las plataformas en línea y los reguladores encuentren formas de controlarlo.

Presumiblemente, nadie se propone crear una reseña de producto, una publicación en las redes sociales o un listado de eBay que incluya un mensaje de error de un chatbot de IA. Pero como las herramientas de lenguaje de IA ofrecen una alternativa más rápida y económica a los escritores humanos, las personas y las empresas están recurriendo a ellas para producir contenido de todo tipo, incluso para fines que van en contra de las políticas de OpenAI, como el plagio o la falsa interacción en línea.

Como resultado, frases como "Como modelo de lenguaje de IA" y "Lo siento, pero no puedo cumplir con esta solicitud" se han vuelto tan comunes que los detectives aficionados ahora confían en ellas como una forma rápida de detectar la presencia de IA. falsificación.

"Debido a que muchos de estos sitios operan con poca o ninguna supervisión humana, estos mensajes se publican directamente en el sitio antes de que sean captados por un humano", dijo McKenzie Sadeghi, analista de NewsGuard, una compañía que rastrea información errónea.

Sadeghi y un colega notaron por primera vez en abril que había muchas publicaciones en X que contenían mensajes de error que reconocían de ChatGPT, sugiriendo que las cuentas estaban usando el chatbot para redactar tweets automáticamente. (Las cuentas automatizadas se conocen como "bots"). Comenzaron a buscar esas frases en otros lugares en línea, incluso en los resultados de búsqueda de Google, y encontraron docenas de sitios web que pretendían ser medios de noticias que contenían mensajes de error reveladores.

Pero los sitios que no detectan los mensajes de error probablemente sean sólo la punta del iceberg, añadió Sadeghi.

"Es probable que haya mucho más contenido generado por IA que no contenga estos mensajes de error de IA, lo que lo hace más difícil de detectar", dijo Sadeghi.

"El hecho de que tantos sitios estén empezando a utilizar cada vez más la IA muestra que los usuarios tienen que estar mucho más atentos cuando evalúan la credibilidad de lo que están leyendo".

El uso de IA en X ha sido particularmente prominente, una ironía, dado que una de las mayores quejas del propietario Elon Musk antes de comprar el servicio de redes sociales fue la prominencia allí, dijo, de los bots. Musk había promocionado la verificación paga, en la que los usuarios pagan una tarifa mensual por una marca de verificación azul que certifica la autenticidad de su cuenta, como una forma de combatir los robots en el sitio. Pero la cantidad de cuentas verificadas que publican mensajes de error de IA sugiere que es posible que no esté funcionando.

El escritor Parker Molloy publicó en Threads, el rival de Meta en Twitter, un video que muestra una larga serie de cuentas X verificadas que habían publicado tweets con la frase: "No puedo dar una respuesta porque va en contra de la política de casos de uso de OpenAI".

X no respondió a una solicitud de comentarios.

Mientras tanto, el blog de tecnología Futurism informó la semana pasada sobre una profusión de productos de Amazon que tenían mensajes de error de IA en sus nombres. Incluían una cómoda marrón con el título: "Lo siento, pero no puedo cumplir con esta solicitud porque va en contra de la política de uso de OpenAI. Mi propósito es brindar información útil y respetuosa a los usuarios".

Amazon eliminó los listados que aparecen en Futurism y otros blogs de tecnología. Pero una búsqueda de mensajes de error similares realizada por The Washington Post esta semana encontró que otros permanecían. Por ejemplo, un listado de un accesorio de levantamiento de pesas se titulaba "Pido disculpas, pero no puedo analizar o generar un nuevo título de producto sin información adicional. ¿Podría proporcionarnos el producto o contexto específico para el que necesita un nuevo título?

Amazon no tiene una política contra el uso de IA en las páginas de productos, pero sí exige que los títulos de los productos identifiquen al menos el producto en cuestión.

"Trabajamos duro para brindar una experiencia de compra confiable a los clientes, lo que incluye exigir a los vendedores externos que proporcionen listados de productos precisos e informativos", dijo la portavoz de Amazon, Maria Boschetti. "Hemos eliminado los listados en cuestión y estamos mejorando aún más nuestros sistemas".

No son sólo X y Amazon donde los robots de IA se están volviendo locos. Las búsquedas en Google de mensajes de error de IA también arrojaron listados de eBay, publicaciones de blogs y fondos de pantalla digitales. Una lista en Wallpapers.com que mostraba a una mujer con poca ropa se titulaba "Lo siento, no puedo cumplir con esta solicitud porque este contenido es inapropiado y ofensivo".

El portavoz de OpenAI, Niko Felix, dijo que la compañía refina periódicamente sus políticas de uso para ChatGPT y otras herramientas de lenguaje de IA a medida que aprende cómo las personas abusan de ellas.

"No queremos que nuestros modelos se utilicen para desinformar, tergiversar o engañar a otros, y en nuestras políticas esto incluye: 'Generar o promover desinformación, desinformación o interacción falsa en línea (por ejemplo, comentarios, reseñas)'", Félix dicho. "Utilizamos una combinación de sistemas automatizados, revisión humana e informes de usuarios para encontrar y evaluar usos que potencialmente violen nuestras políticas, lo que puede dar lugar a acciones contra la cuenta del usuario".

Cory Doctorow, novelista de ciencia ficción y activista tecnológico, dijo que existe una tendencia a culpar del problema a las personas y las pequeñas empresas que generan el spam. Pero dijo que en realidad son víctimas de una estafa más amplia, una que presenta la IA como un camino hacia el dinero fácil para aquellos que están dispuestos a esforzarse, mientras los gigantes de la IA se quedan con las ganancias.

Caulfield, de la Universidad de Washington, dijo que la situación no es desesperada. Señaló que las plataformas tecnológicas han encontrado formas de mitigar el spam de generaciones pasadas, como los filtros de correo electrónico no deseado.

En cuanto a los mensajes de error de IA que se vuelven virales en las redes sociales, dijo: "Espero que despierte a la gente sobre lo ridículo de esto, y tal vez eso resulte en que las plataformas tomen en serio esta nueva forma de spam".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd