Incidentes Asociados
Cuando escuchó por primera vez sobre las habilidades lingüísticas similares a las humanas del bot de inteligencia artificial ChatGPT, Jennifer Stevens se preguntó qué sería significa para la revista de retiro que ella edita.
Meses después, tiene una idea mejor. Significa que pasa mucho tiempo filtrando lanzamientos de artículos inútiles.
Personas como Stevens, el editor ejecutivo de International Living, se encuentran entre los que ven una cantidad creciente de [contenido generado por IA] (https://www.wsj.com/articles/ai-created-images-are-so-good- even-ai-has-trouble-spotting-some-8536e52c) que está tan por debajo de sus estándares que lo consideran un nuevo tipo de spam.
La tecnología está impulsando un boom de inversión . Puede responder preguntas, producir imágenes e incluso generar ensayos según indicaciones simples. . Algunas de estas técnicas prometen mejorar el análisis de datos y [eliminar tareas de escritura mundanas](https://www.wsj.com/articles/googles-bard-ai-chatbot-adds-more-languages-to-take-on-chatgpt -a2acfc5b), al igual que la calculadora cambió las matemáticas. Pero también muestran el potencial de que el spam generado por IA aumente y se propague potencialmente a través de Internet.
En la Cumbre del Consejo de CEO de The Wall Street Journal en Londres, los ejecutivos discutieron el valor de la inteligencia artificial, así como las posibles desventajas del uso generalizado de la tecnología.
A principios de mayo, la empresa de calificación de sitios de noticias NewsGuard encontró 49 sitios web de noticias falsas que usaban IA para generar contenido. A finales de junio, la cuenta había llegado a 277, según Gordon Crovitz, cofundador de la empresa.
"Esto está creciendo exponencialmente", dijo Crovitz. Los sitios parecen haber sido creados para ganar dinero a través de la red de publicidad en línea de Google, dijo Crovitz, ex columnista y editor de The Wall Street Journal.
Los investigadores también señalan el potencial de las tecnologías de inteligencia artificial que se utilizan para crear desinformación política y mensajes dirigidos que se utilizan para piratear. La empresa de ciberseguridad Zscaler afirma que es demasiado pronto para decir si los delincuentes utilizan la IA de forma generalizada, pero la empresa espera ver se utiliza para crear páginas web de phishing falsas de alta calidad, que están diseñadas para engañar a las víctimas para que descarguen software malicioso o revelen sus nombres de usuario y contraseñas en línea.
En YouTube, la fiebre del oro de ChatGPT está en pleno apogeo. Docenas de videos que ofrecen consejos sobre cómo ganar dinero con la tecnología de OpenAI se han visto cientos de miles de veces. Muchos de ellos sugieren esquemas cuestionables que involucran contenido basura. Algunos les dicen a los espectadores que pueden ganar miles de dólares a la semana, instándolos a escribir libros electrónicos o vender publicidad en blogs llenos de contenido generado por IA que luego podría generar ingresos publicitarios al aparecer en las búsquedas de Google.
Google dijo en un comunicado que trabaja para proteger sus resultados de búsqueda del spam y la manipulación y que usar contenido generado por IA para manipular las clasificaciones de los resultados de búsqueda es una violación del [Alfabeto](https://www.wsj.com/market -data/quotes/GOOG) las políticas de spam de la empresa.
Cuando este reportero le pidió a ChatGPT que "nombrara algunas revistas que aceptarían contenido escrito por ChatGPT", la IA sugirió 10 revistas, incluidas cinco que usan un sistema de envío de contenido llamado Moksha para administrar el envío de artículos.
"Los editores que usan Moksha definitivamente informaron un aumento en los envíos generados por IA, por lo que hemos desarrollado herramientas para que respondan fácilmente y bloqueen a los autores que no siguen las pautas de los editores con respecto a la IA", dijo Matthew Kressel, creador de Moksha. Señaló que una revista recomendada por ChatGPT, Shimmer, cerró en 2018.
ChatGPT es bueno para predecir las siguientes palabras en oraciones, pero ocasionalmente produce respuestas incorrectas, dijo una portavoz de OpenAI. "Mucha gente piensa que es un motor de búsqueda, pero no lo es", dijo.
Otra revista en la lista de ChatGPT, la revista de ciencia ficción Clarkesworld, tuvo que dejar de aceptar presentaciones en línea temporalmente a principios de este año porque estaba abrumada por cientos de historias generadas por IA, dijo el editor de Clarkesworld, Neil Clarke.
Clarke dijo que las presentaciones fueron impulsadas por videos en línea que recomendaban usar ChatGPT para crear presentaciones de Clarkesworld.
Clarke, al igual que otros editores entrevistados por el Journal, dijo que su revista rechaza todas las presentaciones escritas por AI y que son fáciles de identificar.
Tienen "ortografía y gramática perfectas, pero una historia completamente incoherente", dijo. A menudo comienzan con un gran problema, el mundo se va a acabar, y luego, 1000 palabras más tarde, el problema se resuelve de alguna manera, sin explicación, dijo.
"Todos están escritos de una manera bastante suave y genérica", dijo Stevens, de International Living. "Todos son gramaticalmente correctos. Simplemente se sienten muy formulados y son realmente inútiles para nosotros".
Si Internet se llena cada vez más con contenido generado por IA, podría convertirse en un problema para las propias empresas de IA. Esto se debe a que sus grandes modelos de lenguaje, el software que forma la base de los chatbots como ChatGPT, se entrenan en conjuntos de datos públicos. A medida que estos conjuntos de datos se llenan cada vez más con contenido generado por IA, a los investigadores les preocupa que los modelos de lenguaje se vuelvan menos útiles, un fenómeno conocido como "colapso del modelo".
Así como escanear e imprimir repetidamente la misma foto eventualmente reducirá su detalle, el colapso del modelo ocurre cuando los grandes modelos de aprendizaje se vuelven menos útiles a medida que digieren los datos que han creado, dijo Ilia Shumailov, investigadora del Grupo de Aprendizaje Teórico y Aplicado de Máquinas de la Universidad de Oxford, quien recientemente coescribió un artículo sobre este fenómeno.
Y no es solo el contenido de spam lo que contribuirá al colapso del modelo. También es el uso cada vez mayor de la IA para generar contenido en general, dijo Shumailov.
El mes pasado, investigadores de la École Polytechnique Fédérale de Lausanne contrataron a escritores independientes en línea para resumir los resúmenes publicados en el New England Journal of Medicine y encontraron que más de un tercio de ellos utilizó contenido generado por IA.
Shumailov cree que el colapso del modelo es inevitable, pero que existen varias posibles soluciones técnicas para este problema. Por ejemplo, las empresas que tienen acceso a contenido generado por humanos aún podrán construir modelos de lenguaje grande de alta calidad.
"No es necesariamente algo malo", dijo. "Tal vez nos deshagamos de los captchas y se vuelva normal ser una computadora en Internet", dijo, refiriéndose a los acertijos con imágenes que imponen los sitios web para distinguir las computadoras de los humanos.