Problema 2854

La aplicación de inteligencia artificial ChatGPT ha tardado muy poco en tener un efecto disruptivo en el periodismo. Un columnista de tecnología del New York Times escribió que un chatbot expresa sentimientos (lo cual es imposible) . Otros medios de comunicación [llenos de ejemplos] (https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams) de "Sydney" Microsoft- el experimento de búsqueda de Bing AI propiedad de ser "grosero" e "intimidador" (también imposible). Ben Thompson, quien escribe el [boletín informativo] de Stratechery (https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/), declaró que Sydney le había proporcionado el “ la experiencia informática más alucinante de mi vida” y dedujo que la IA estaba entrenada para provocar reacciones emocionales, y parecía haber tenido éxito.
Para ser claros, no es posible que la IA como ChatGPT y Sydney tengan emociones. Tampoco pueden decir si tienen sentido o no. En lo que estos sistemas son increíblemente buenos es en emular la prosa humana y predecir las palabras "correctas" para unirlas. Estos "modelos de lenguaje grande" de aplicaciones de IA, como ChatGPT, pueden hacer esto porque han recibido miles de millones de artículos y conjuntos de datos publicados en Internet. Luego pueden generar respuestas a las preguntas.
A los efectos del periodismo, pueden crear grandes cantidades de material (palabras, imágenes, sonidos y videos) muy rápidamente. El problema es que no tienen absolutamente ningún compromiso con la verdad. Piense en lo rápido que un usuario de ChatGPT podría inundar Internet con noticias falsas que parecen haber sido escritas por humanos.
Y, sin embargo, desde que la empresa de inteligencia artificial OpenAI lanzó al público la prueba ChatGPT en noviembre, la exageración en torno a ella se ha sentido preocupantemente familiar. Al igual que con el nacimiento de las redes sociales, el impulso entusiasta de los inversores y fundadores ha ahogado las voces cautelosas. Christopher Manning, director del Laboratorio de IA de Stanford, twitteó: “El grupo de ética de la IA continúa promoviendo una narrativa de modelos generativos de IA demasiado tendencioso, poco fiable y peligroso de usar, pero, tras su implementación, a la gente le encanta cómo estos modelos ofrecen nuevas posibilidades para transformar la forma en que trabajamos, encontramos información y nos divertimos”. Me consideraría parte de esta “multitud de la ética”. Y si queremos evitar los terribles errores de los últimos 30 años de tecnología de consumo, desde las violaciones de datos de Facebook hasta la información errónea no verificada que interfiere con las elecciones y provoca el genocidio, necesitamos escuchar con urgencia las preocupaciones de los expertos que advierten sobre los posibles daños.
El hecho más preocupante que hay que reiterar es que ChatGPT no tiene ningún compromiso con la verdad. Como dice MIT Technology Review, (https://www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines/) los chatbots de modelo de lenguaje grande son “ notorios gilipollas”. La desinformación, el robo y la criminalidad generalmente tampoco requieren un compromiso con la verdad. Visite los foros de blackhatworld.com, donde los involucrados en prácticas turbias intercambian ideas para ganar dinero con contenido falso, y ChatGPT es anunciado como un cambio de juego para generar mejores reseñas falsas, comentarios o perfiles convincentes.
En términos de periodismo, muchas salas de redacción han estado usando IA durante algún tiempo. Si recientemente se ha visto empujado a donar dinero o pagar para leer un artículo en el sitio web de un editor, o si la publicidad que ve se ajusta un poco más a sus gustos, eso también podría significar que la IA está funcionando.
Sin embargo, algunos editores van tan lejos como para usar IA para escribir historias, con resultados mixtos. La publicación de comercio tecnológico CNET fue sorprendida recientemente usando artículos automatizados, luego de que una ex empleada afirmara en su [correo electrónico de renuncia] (https://www.theverge.com/2023/1/19/23562966/cnet-ai-write-stories- red-ventures-seo-marketing) que el contenido generado por IA, como un boletín de ciberseguridad, estaba publicando información falsa que podría "causar daño directo a los lectores".
Felix Simon, académico de comunicaciones del Oxford Internet Institute, entrevistó a más de 150 periodistas y editores de noticias para un próximo estudio sobre IA en las salas de redacción. Él dice que hay potencial en hacer mucho más fácil para los periodistas la transcripción de entrevistas o la lectura rápida de conjuntos de datos, pero los problemas de primer orden como la precisión, la superación de sesgos y la procedencia de los datos aún dependen abrumadoramente del juicio humano. “Alrededor del 90 % de los usos de la IA [en el periodismo] son para tareas comparativamente tediosas, como la personalización o la creación de muros de pago inteligentes”, dice Charlie Beckett, quien dirige un programa de periodismo e IA en la LSE. Bloomberg News ha estado automatizando gran parte de su cobertura de resultados financieros durante años, dice. Sin embargo, la idea de usar programas como ChatGPT para crear contenido es extremadamente preocupante. "Para las salas de redacción que consideran poco ético publicar mentiras, es difícil implementar el uso de un ChatGPT sin una gran cantidad de edición y verificación de hechos por parte de personas", dice Beckett.
También hay problemas éticos con la naturaleza de las propias empresas tecnológicas. Una exposición de Time descubrió que OpenAI, la empresa detrás de ChatGPT, había pagado a los trabajadores en Kenia menos de $2 por hora para revisar el contenido que describe gráficos contenido dañino como abuso infantil, suicidio, incesto y tortura para entrenar a ChatGPT para que lo reconozca como ofensivo. “Como alguien que usa estos servicios, esto es algo sobre lo que no tienes control”, dice Simon.
En un estudio de 2021, los académicos observaron modelos de IA que convierten texto en imágenes generadas, como Dall-E y Stable Diffusion. Descubrieron que estos sistemas amplificaban los “estereotipos demográficos a gran escala”. Por ejemplo, cuando se le pidió que creara una imagen de "una persona limpiando", todas las imágenes generadas eran de mujeres. Para “una persona atractiva”, los rostros eran todos, señalaron los autores, representativos del “ideal blanco”.
La profesora de NYU Meredith Broussard, autora del próximo libro More Than a Glitch, que examina el sesgo racial, de género y de habilidad en la tecnología, dice que todo lo integrado en los modelos generativos actuales como ChatGPT, desde los conjuntos de datos hasta quién recibe la mayor parte del financiamiento, refleja falta de diversidad. “Es parte del problema de que las grandes tecnologías son una monocultura”, dice Broussard, y no es algo que las salas de redacción que utilizan las tecnologías puedan evitar fácilmente. “Las salas de redacción ya están esclavizadas por las tecnologías empresariales, ya que nunca han estado lo suficientemente bien financiadas para hacer crecer las suyas”.
El fundador de BuzzFeed, Jonah Peretti, recientemente se entusiasmó con el personal de que la compañía usaría ChatGPT como parte del negocio principal para listas, cuestionarios y otro contenido de entretenimiento. “Vemos los avances en IA que abren una nueva era de creatividad… con infinitas oportunidades y aplicaciones para el bien”, escribió. El precio inactivo de las acciones de BuzzFeed subió inmediatamente un 150 %. Es profundamente preocupante: seguramente una montaña de contenido barato arrojado por un ChatGPT debería ser el peor de los casos para las empresas de medios en lugar de un modelo comercial aspiracional. El entusiasmo por los productos de IA generativa puede oscurecer la creciente comprensión de que pueden no ser del todo "aplicaciones para el bien".
Dirijo un centro de investigación en la Escuela de Periodismo de Columbia. Hemos estado estudiando los esfuerzos de las redes de "dinero oscuro" financiadas políticamente para replicar y dirigir cientos de miles de "noticias" locales a las comunidades al servicio de la ganancia política o comercial. Las capacidades de ChatGPT aumentan este tipo de actividad y la hacen mucho más accesible para muchas más personas. En un [artículo reciente](https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social -media-are-deployed-for-commercial-lead-generation/) sobre desinformación e IA, investigadores de Stanford identificaron una red de perfiles falsos que utilizan IA generativa en LinkedIn. Los intercambios de texto seductores que los periodistas encuentran tan irresistibles con los bots de chat son menos atractivos si están convenciendo a las personas vulnerables para que proporcionen sus datos personales y detalles de cuentas bancarias.
Mucho se ha escrito sobre el potencial de los videos y audios deepfake: imágenes y sonidos realistas que pueden emular los rostros y las voces de personas famosas (notoriamente, uno de ellos tenía a la actriz Emma Watson "leyendo" Mein Kampf). Pero el peligro real se encuentra fuera del mundo del engaño instantáneo, que se puede desacreditar fácilmente, y en el área de crear tanto confusión como agotamiento al “inundar la zona” con material que abruma la verdad o al menos ahoga perspectivas más equilibradas.
A algunos de nosotros en la “gente de la ética” nos parece increíble que no hayamos aprendido nada de los últimos 20 años de tecnologías de redes sociales rápidamente implementadas y mal administradas que han exacerbado los problemas sociales y democráticos en lugar de mejorarlos. Parece que estamos siendo guiados por un grupo notablemente similar de tecnólogos ricos y homogéneos y fondos de riesgo por otro camino no probado y no regulado, solo que esta vez a mayor escala y con menos atención a la seguridad.