Incidentes Asociados

Sé que nombrar nuevos productos puede ser difícil, pero estos vendedores de Amazon tomaron algunas decisiones de nombres particularmente extrañas.
En este punto, los usuarios de Amazon están acostumbrados a buscar resultados llenos de productos [fraudulentos] (https://arstechnica.com/tech-policy/2020/09/doj-amazon-workers-took-bribes-to-reinstate-sellers -of-dangerous-products/), estafas , o literalmente basura. Hoy en día, sin embargo, es posible que también tengan que elegir entre productos obviamente sospechosos, con nombres como "Lo siento, pero no puedo cumplir con esta solicitud porque va en contra de la política de uso de OpenAI".
Al momento de esta publicación, alguna versión de ese revelador mensaje de error de OpenAI aparece en productos de Amazon que van desde sillas de jardín hasta muebles de oficina a [tratados religiosos chinos] (https://archive.is/cFsK4) (Actualización: los enlaces ahora van a copias archivadas, ya que el original se eliminó poco después de su publicación). Algunos productos con nombres similares que estaban disponibles esta mañana han sido eliminados a medida que la noticia de los listados se difunde en las redes sociales (un ejemplo de ello está archivado aquí).
Consejo profesional: no le pida a OpenAI que integre una marca registrada cuando genere un nombre para su extraño tramo de tubo de goma.
Otros nombres de productos de Amazon no mencionan OpenAI específicamente, pero presentan [mensajes de error aparentes relacionados con la IA] (https://github.com/Azure-Samples/azure-search-openai-demo/issues/965) como " Lo siento, pero no puedo generar una respuesta a esa solicitud" o "Lo siento, pero no puedo proporcionarte la información". estamos buscando," (disponible en una [variedad](https://www.amazon.com/dp/B0CNMZXWV2/ ?tag=arstech20-20) de colores). A veces, los nombres de los productos incluso resaltan la razón específica por la cual falló la aparente solicitud de generación de IA, señalando que OpenAI no puede proporcionar contenido que "requiera el uso de marcas registradas" o "promueva una institución religiosa específica" o, en un caso, " fomentar conductas poco éticas".
La invocación repetida de un "compromiso de proporcionar descripciones de productos fiables y dignas de confianza" citada en esta descripción es particularmente irónica.
Las descripciones de estos productos con nombres extraños también están plagadas de mensajes de error obvios de IA como: "Disculpas, pero no puedo proporcionarte la información que estás buscando". Una descripción de producto para un conjunto de mesas y sillas (que desde entonces ha sido retirada) decía de manera hilarante: "Nuestro [producto] se puede utilizar para una variedad de tareas, como [tarea 1], [tarea 2\ ] y [tarea 3]]". Otro conjunto de descripciones de productos (enlace de archivo), aparentemente para pistolas de tinta para tatuajes, se disculpa repetidamente por no poder proporcionar más información porque: "Priorizamos la precisión y la confiabilidad al ofrecer únicamente detalles verificados del producto a nuestros clientes."
spam spam spam spam spam
El uso de modelos de lenguaje grandes para ayudar a generar nombres o descripciones de productos no va en contra de la política de Amazon. Por el contrario, en septiembre, Amazon lanzó su propia herramienta de IA generativa para ayudar a los vendedores a "crear más y descripciones de productos, títulos y detalles de listado cautivadores". Y al momento de esta edición, solo pudimos encontrar un pequeño puñado de productos de Amazon con mensajes de error reveladores en sus nombres o descripciones.
Aún así, estos listados llenos de mensajes de error resaltan la falta de cuidado o incluso de edición básica de muchos [estafadores de Amazon](https://arstechnica.com/tech-policy/2024/01/amazon-marketplace-crackdown-has-sellers- search-for-legal-help/) hacen ejercicio al publicar sus listados de productos spam en el mercado de Amazon. Por cada vendedor que puede ser descubierto fácilmente publicando accidentalmente un error de OpenAI, es probable que haya muchos otros que utilizan la tecnología para crear nombres y descripciones de productos que solo parecen escritos por un humano que tiene experiencia real con el producto en cuestión.
Un conjunto de personas claramente reales conversando en Twitter/X.
Amazon no es la única plataforma en línea donde estos robots de IA se revelan. Una búsqueda rápida de "va en contra de la política de OpenAI" o "como modelo de lenguaje de IA" puede encontrar muchas publicaciones artificiales en [Twitter / X](https://twitter.com/search?q=%22goes%20against%20OpenAI%20policy %22) o Threads o [LinkedIn](https://www.linkedin .com/posts/botmycareer_sag-aftras-strike-continues-after-last-round-activity-7149620996608520192-WTAQ/?utm_source=share&utm_medium=member_desktop), por ejemplo. El ingeniero de seguridad Dan Feldman observó un problema similar en Amazon en abril, aunque la búsqueda con la frase "como modelo de lenguaje de IA" no parece generar ninguna respuesta obvia. Resultados de búsqueda generados por IA en estos días.
Por divertido que sea señalar estos contratiempos obvios para las fábricas de contenido generado por IA, una avalancha de contenido de IA más difícil de detectar amenaza con abrumar a todos en las [comunidades artísticas] (https://arstechnica.com/information-technology /2022/09/flooded-with-ai-generated-images-some-art-communities-ban-them-completely/) a [revistas de ciencia ficción](https://arstechnica.com/information-technology/2023/ 02/sci-fi-becomes-real-as-renowned-magazine-closes-submissions-due-to-ai-writers/) al [mercado de libros electrónicos de Amazon](https://arstechnica.com/information-technology/2023/ 09/ai-generated-books-force-amazon-to-cap-ebook-publications-to-3-per-day/). Prácticamente cualquier plataforma que acepte envíos de usuarios que involucren texto o arte visual ahora tiene que preocuparse de verse inundada con una oleada tras otra de trabajo generado por IA que intenta desplazar a la comunidad humana para la que fueron creadas. Es un problema que probablemente empeore antes de mejorar.