Problema 5164
Fil Menczer tuvo su primer contacto con lo que él llama "bots sociales" a principios de la década de 2010. Estaba mapeando cómo viaja la información en Twitter cuando se topó con algunos grupos de cuentas que parecían algo sospechosos. Algunas compartían la misma publicación miles de veces. Otras compartían miles de publicaciones de cada cuenta. "Estos no son humanos", recuerda haber pensado.
Así comenzó una extensa carrera en la observación de bots. Como distinguido profesor de informática en la Universidad de Indiana en Bloomington, Menczer ha estudiado cómo proliferan los bots, manipulan a los seres humanos y los enfrentan entre sí. En 2014, formó parte de un equipo que desarrolló la herramienta BotOrNot para ayudar a las personas a detectar cuentas falsas en la red. Ahora se le considera uno de los cazadores de bots más destacados de internet.
Si alguien está predispuesto a detectar a los autómatas entre nosotros, ese es Menczer. Hace unos años, cuando empezó a circular la hipótesis conocida como la teoría del internet muerto, que postulaba que casi todas las conversaciones en línea habían sido reemplazadas por charlas generadas por inteligencia artificial, la descartó como una tontería. Ahora, sin embargo, el auge de la IA generativa, con sus aliados chatbots e influencers de IA, está inspirando a Menczer a ver la teoría desde una nueva perspectiva. Todavía no se toma la idea al pie de la letra, pero, como dicen, está empezando a tomarse en serio su mensaje subyacente. "¿Estoy preocupado?", pregunta. "Sí, estoy muy preocupado". La teoría de la internet muerta se popularizó en 2021, tras una publicación de un usuario llamado IlluminatiPirate en un foro en línea poco conocido. IlluminatiPirate argumentaba que internet se había convertido en un vasto e inhumano páramo, lleno de publicaciones imitadoras optimizadas algorítmicamente. La teoría atribuía todo el asunto a una conspiración gubernamental encubierta, lo que facilitaba su desestimación. Pero la llegada de herramientas como ChatGPT y Midjourney la ha vuelto completamente profética. Las redes sociales se perciben más extrañas. Las búsquedas se perciben peor. Redes de noticias enteras generadas por IA han surgido de la noche a la mañana. Meta Platforms Inc. imagina un futuro donde la IA participa en la creación de una parte sustancial de las publicaciones en Facebook e Instagram. Sitios como Wikipedia se ven sometidos a la presión de los rastreadores de IA que recorren sus páginas en busca de información nueva para alimentar sus modelos. Todo esto crea un bucle de retroalimentación, donde se crea contenido generado por IA para complacer a los sistemas de recomendación impulsados por IA, lo que amenaza con convertir a los humanos en meros espectadores. El año pasado, Renée DiResta, destacada investigadora en desinformación, y Josh Goldstein, investigador de la Universidad de Georgetown, se propusieron estudiar el uso de contenido generado por IA en spam y estafas. Se centraron en más de 100 páginas de Facebook cargadas con docenas de imágenes de IA cada una, que en conjunto contaban con millones de seguidores. Algunas incluían fotos falsas de vacas miniatura que dirigían a los seguidores a sitios web fraudulentos donde supuestamente podían comprarlas. Otras incluían imágenes idílicas de casas diminutas y cabañas de madera, que llevaban a los usuarios a sitios web llenos de anuncios.
Estos esfuerzos siguen la larga tradición de crear las llamadas granjas de contenido para generar ingresos con anuncios digitales. Con la IA generativa, el proceso de abastecimiento de estas granjas se ha vuelto mucho más eficiente. No solo eso, sino que las investigaciones de la industria publicitaria demuestran que la IA generativa facilita que los bots simulen la actividad auténtica de los usuarios, haciendo que parezca que personas reales hacen clic en esos anuncios.
En su artículo, DiResta y Goldstein identificaron muchas de las páginas de Facebook por los pies de foto copiados y pegados que compartían. "¡Este es mi primer pastel! Me alegraré de tus calificaciones", decía un pie de foto en al menos 18 imágenes diferentes de 18 personas generadas por IA posando con 18 pasteles distintos. Las páginas atrajeron a seguidores humanos, que a menudo no participaban en el proceso. Aún más desconcertantes fueron los cientos de miles de "me gusta" y reacciones de corazones y abrazos en una imagen de IA de Jesús representado como un cangrejo, parte de un nicho peculiar pero considerable de imágenes de IA con temática de Cristo como crustáceo. El arte de IA de baja calidad se ha vuelto tan común en línea que los observadores le han dado a este tipo de contenido su propio nombre: bazofia.
En algunos casos, la motivación detrás de la bazofia no es simplemente comercial. La red rusa de desinformación Pravda (https://www.bloomberg.com/news/articles/2023-10-12/android-users-see-pro-putin-propaganda-through-google-loophole "Pro-Putin Propaganda Flows Onto Android via Google Loophole"), por ejemplo, ha publicado millones de artículos en cientos de sitios web de nueva creación desde que Rusia invadió Ucrania, quizás en un intento de manipular los propios modelos de IA mediante la producción de cantidades asombrosas de propaganda diseñada para que los rastreadores de IA la ingieran. Recientemente, el organismo de control de medios NewsGuard encontró referencias a estos sitios en las respuestas generadas por los principales chatbots.
Las herramientas de IA generativa para crear contenido basura a escala industrial llegaron en un momento oportuno, justo cuando las plataformas sociales estaban dejando de recomendar publicaciones de familiares y amigos para promocionar contenido de usuarios a los que no seguían. Esto ayudó a que cuentas aleatorias difundieran contenido basura más allá de lo que habrían hecho antes, cuando las redes sociales eran más, digamos, sociales. Efectivamente, cuanto más interactuaba DiResta con estas páginas, más contenido basura veía. "El contenido no solo se creaba, sino que se recomendaba", afirma DiResta, quien ahora es profesora asociada de investigación en Georgetown. "Las máquinas le ayudan a encontrarnos".
A veces, la basura atrae a los humanos. Puede ser lo suficientemente extraña o espantosa como para persuadir a la gente a quedarse; a veces, el contenido que no tiene por qué operar dentro de los límites de la realidad es genuinamente más adorable o cautivador que las escenas de nuestro mundo físico. "Si te limitas a cosas que realmente sucedieron o a chistes inventados por humanos, ese es un conjunto predefinido de contenido", afirma Jeff Allen, cofundador y director de investigación del centro de estudios sobre confianza y seguridad Integrity Institute. "La IA amplía ese conjunto". Pero el contenido generado y promovido por IA también opera como una especie invasora, propagándose tan rápidamente que afecta negativamente a los demás habitantes de internet. "Es como la proliferación de algas que puede estallar y sofocar la vida que desearías tener en un ecosistema sano", afirma Allen.
En febrero, OpenAI informó sobre algunos "usos maliciosos" de sus modelos. En uno de ellos, una organización juvenil ghanesa falsa utilizó artículos y comentarios generados por IA para intentar influir en las elecciones nacionales de 2024. En otro caso, decenas de cuentas potencialmente vinculadas a ciberdelincuentes norcoreanos consiguieron empleos reales en empresas occidentales utilizando currículums, cartas de presentación e incluso perfiles generados por IA que se hacían pasar por sus referencias. Utilizaron las herramientas de OpenAI para sortear las entrevistas de trabajo y, tras conseguir el trabajo, para explicar a sus compañeros por qué nunca atendían videollamadas. (OpenAI afirma, como era de esperar, que sus políticas prohíben estrictamente este tipo de fraude).
Otro problema es la magnitud del esfuerzo de raspado web que las empresas de IA utilizan para recopilar datos para sus modelos. Según Tollbit, una empresa que ayuda a los editores a obtener una compensación cuando sus sitios web son raspados, el volumen de raspados por sitio se duplicó entre el tercer y el cuarto trimestre del año pasado. Tras la muerte del expresidente Jimmy Carter, los servicios de Wikimedia se ralentizaron temporalmente tras un aumento repentino del tráfico procedente de raspadores que accedían a un vídeo de un debate de 1980. "Nuestra infraestructura está diseñada para soportar picos repentinos de tráfico humano durante eventos de gran interés, pero la cantidad de tráfico generado por bots de rastreo no tiene precedentes y presenta riesgos y costos crecientes", escribió la fundación en una entrada de blog.
Algunos editores están respondiendo mediante acuerdos con empresas de IA que pagarán por el acceso al contenido o implementando muros de pago para desviar a los rastreadores. Esta tendencia podría socavar la idea misma de una web libre y abierta, advierte Shayne Longpre, candidata a doctorado en el Instituto Tecnológico de Massachusetts (MIT) y líder de la Iniciativa de Procedencia de Datos. "Al consumidor promedio le resultará más difícil acceder a cierta información sin pagar, o tendrá que suscribirse a ciertos bots de IA para acceder a esa información", afirma. Mientras tanto, "los editores web más pequeños podrían quedar al margen de la conversación".
La transición a una internet impulsada por chatbots también podría suponer una amenaza para las principales empresas de internet. El caso más obvio podría ser Google, propiedad de Alphabet Inc., cuyo motor de búsqueda se basa en dirigir a los usuarios hacia otras fuentes de información. La compañía ha comenzado a presentar resúmenes animados llamados AI Overviews (Resumen de IA). Además de ofrecer consejos ocasionalmente dudosos, los Overviews pueden dificultar que los humanos administren sitios web en los que otros humanos hagan clic. Como informó Bloomberg Businessweek"Google está buscando una respuesta a ChatGPT", algunos editores en línea han visto caer el tráfico, y culpan principalmente a la IA. (Google rechaza esta explicación, alegando que existen muchas razones por las que los sitios web ganan o pierden tráfico y que las perspectivas generales de IA están "creando nuevas oportunidades para conectar a las personas con el contenido web"). El auge de un internet impulsado por IA está poniendo de relieve cómo las agendas de los gigantes tecnológicos a menudo entran en conflicto con los intereses de sus usuarios. En una carrera por dominar el futuro impulsado por la IA, están acelerando el cambio, esté el mundo preparado o no. ¿De verdad quieren los usuarios de Facebook ver cuentas de IA mezclándose con publicaciones de antiguos compañeros de clase y familiares lejanos, como imaginan los ejecutivos de la compañía? ¿Quién sabe? Pero si mantiene a la gente real pegada a sus aplicaciones en un momento en que los humanos publican con menos frecuencia, Meta está más que dispuesta a averiguarlo.
No es difícil imaginar el final distópico donde convergen todas estas tendencias, argumenta Allen. En un mundo donde la gente real ya no puede generar suficientes ingresos con la publicidad digital para mantener sus sitios web, y sus publicaciones no pueden destacar entre el ruido generado por la IA en las redes sociales, el internet muerto gana. Peor aún, las investigaciones sugieren que cuando los modelos de IA se entrenan con contenido generado por IA, pueden colapsar. Sin nuevos productos creados por humanos en línea, afirma Allen, "internet prácticamente muere".
Menczer aún no se cree del todo el escenario catastrófico. Si las empresas tecnológicas permiten que sus productos se conviertan en criaderos de bots de bajo coste, argumenta, los humanos acabarán centrando su atención en otras cosas. "Si la relación señal-ruido es tan baja que es prácticamente basura, la gente dejará de usarlo", afirma. Las empresas tecnológicas no van a permitir que eso suceda.
Puede que sea cierto. Por otro lado, una de las publicaciones más vistas en Facebook el año pasado mostraba una habitación impecable con un ventilador gigante integrado en el cabecero de una cama moderna de mediados de siglo, que se cernía sobre un colchón desnudo; generó unas 179.000 reacciones. "Por fin encontré la cama perfecta", escribió el autor de la publicación, "¡apuesto a que no sudaría por la noche con esta cosa!". La publicación tenía algunas características de la basura de la IA (la rejilla del ventilador se veía ligeramente deformada y otros usuarios compartieron publicaciones idénticas), pero no había forma de saberlo con certeza. Y ese es precisamente el punto.