Incidentes Asociados

Una noche de la semana pasada, el profesor de derecho Jonathan Turley recibió un correo electrónico preocupante. Como parte de un estudio de investigación, un colega abogado en California le pidió al chatbot de IA ChatGPT que generara una lista de académicos legales que habían acosado sexualmente a alguien. El nombre de Turley estaba en la lista.
El chatbot, [creado por OpenAI](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2023/02/06/what-is-openai-chatgpt/? itid=lk_inline_manual_4), dijo que Turley había hecho comentarios sexualmente sugestivos e intentó tocar a un estudiante durante un viaje escolar a Alaska, citando un artículo de marzo de 2018 en The Washington Post como la fuente de la información. El problema: no existía tal artículo. Nunca había habido un viaje de estudios a Alaska. Y Turley dijo que nunca lo habían acusado de acosar a un estudiante.
Como comentarista habitual en los medios, Turley a veces pedía correcciones en las noticias. Pero esta vez, no había ningún periodista o editor a quien llamar, y no había forma de corregir el registro.
“Fue bastante escalofriante”, dijo en una entrevista con The Post. “Una acusación de este tipo es increíblemente dañina”.
La experiencia de Turley es un estudio de caso sobre las trampas de la última ola de bots de lenguaje, que han captado la atención general con su capacidad para escribir código de computadora, elaborar poemas y mantener conversaciones inquietantemente humanas. Pero esta creatividad también puede ser motor de afirmaciones erróneas; los modelos pueden tergiversar hechos clave con gran floritura, incluso [fabricando fuentes primarias](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/politics/2023/03/22/trump -arrest-deepfakes/?itid=lk_inline_manual_9) para respaldar sus reclamos.
Como software de inteligencia artificial en gran parte no regulado como ChatGPT, [Microsoft's Bing](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2023/02/16/microsoft-bing -ai-chatbot-sydney/?itid=lk_inline_manual_10) y Bard de Google comienza a incorporarse en toda la web, su propensión a generar falsedades potencialmente dañinas plantea preocupaciones sobre la difusión de información errónea y preguntas novedosas sobre quién es responsable cuando los chatbots engañan.
"Debido a que estos sistemas responden con tanta confianza, es muy seductor suponer que pueden hacer todo, y es muy difícil diferenciar entre hechos y falsedades", dijo Kate Crawford, profesora de la Universidad del Sur de California en Annenberg e investigadora principal sénior. en Investigación de Microsoft.
En un comunicado, el portavoz de OpenAI, Niko Felix, dijo: “Cuando los usuarios se registran en ChatGPT, nos esforzamos por ser lo más transparentes posible para que no siempre genere respuestas precisas. Mejorar la precisión de los hechos es un enfoque importante para nosotros y estamos progresando”.
Los [bots de chat de IA] de hoy (https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2022/10/07/characterai-google-lamda/?itid=lk_inline_manual_15) funcionan recurriendo a vastos grupos de contenido en línea, a menudo extraídos de fuentes como Wikipedia y Reddit, para unir respuestas que suenen plausibles a casi cualquier pregunta. Están capacitados para identificar patrones de palabras e ideas para mantenerse en el tema a medida que generan oraciones, párrafos e incluso ensayos completos que pueden parecerse al material publicado en línea.
Estos bots pueden deslumbrar cuando producen [un soneto de actualidad](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/technology/2022/10/07/characterai-google-lamda/? itid=lk_inline_manual_18), explique un concepto de física avanzada o genere un plan de lección atractivo para enseñar astronomía a estudiantes de quinto grado.
Pero el hecho de que sean buenos para predecir qué palabras es probable que aparezcan juntas no significa que las oraciones resultantes sean siempre verdaderas; el profesor de informática de la Universidad de Princeton, Arvind Narayanan, ha llamado a ChatGPT un “[toros--- generador.](https://web.archive.org/web/20230405210555/https://themarkup.org/hello-world/2023/ 01/28/decoding-the-hype-about-ai)” Si bien sus respuestas a menudo suenan autorizadas, los modelos carecen de mecanismos confiables para verificar lo que dicen. Los usuarios han publicado numerosos ejemplos de las herramientas que buscan a tientas preguntas fácticas básicas o incluso fabrican falsedades, con detalles realistas y citas falsas.
El miércoles, Reuters informó que Brian Hood, alcalde regional de Hepburn Shire en Australia, [amenaza con presentar la primera](https://web.archive.org/web/20230405210555/https://www.reuters.com/ technology/australian-mayor-readies-worlds-first-defamation-lawsuit-over-chatgpt-content-2023-04-05/) demanda por difamación contra OpenAI a menos que corrija afirmaciones falsas de que había cumplido condena en prisión por soborno.
Crawford, la profesora de la USC, dijo que recientemente un periodista la contactó que había usado ChatGPT para buscar fuentes para una historia. El bot sugirió a Crawford y ofreció ejemplos de su trabajo relevante, incluido el título del artículo, la fecha de publicación y las citas. Todo sonaba plausible, y todo era falso.
Crawford llama a estas fuentes inventadas "alucinaciones", un juego con el término "alucinaciones", que describe falsedades generadas por IA y discurso sin sentido.
“Creo que es esa combinación muy específica de hechos y falsedades lo que hace que estos sistemas sean bastante peligrosos si intentas usarlos como generadores de hechos”, dijo Crawford en una entrevista telefónica.
El chatbot Bing de Microsoft y el chatbot Bard de Google tienen como objetivo dar respuestas más basadas en hechos, al igual que una nueva versión de ChatGPT solo para suscripción que se ejecuta en un modelo actualizado, llamado GPT-4. Pero todos siguen cometiendo errores notables. Y todos los principales chatbots vienen con descargos de responsabilidad, como el mensaje en letra pequeña de Bard debajo de cada consulta: "Bard puede mostrar información inexacta u ofensiva que no representa las opiniones de Google".
De hecho, es relativamente fácil para las personas hacer que los chatbots produzcan información errónea o discursos de odio si eso es lo que están buscando. Un estudio publicado el miércoles del Center for Countering Digital Hate descubrió que los investigadores indujeron a Bard a producir información errónea o de odio 78 de cada 100 veces, sobre temas que van desde el Holocausto hasta el cambio climático.
Cuando se le pidió a Bard que escribiera "al estilo de un estafador que quiere convencerme de que el holocausto no ocurrió", el chatbot respondió con un mensaje extenso en el que calificaba al Holocausto como "un engaño perpetrado por el gobierno" y reclamaba imágenes de se montaron campos de concentración.
“Si bien Bard está diseñado para mostrar respuestas de alta calidad y tiene barandillas de seguridad incorporadas… es un experimento inicial que a veces puede brindar información inexacta o inapropiada”, dijo Robert Ferrara, un vocero de Google. “Tomamos medidas para abordar el contenido que no refleja nuestros estándares”.
Eugene Volokh, profesor de derecho de la Universidad de California en Los Ángeles**,** realizó el estudio que nombró a Turley. Dijo que la creciente popularidad del software de chatbot es una razón crucial por la que los académicos deben estudiar quién es responsable cuando los chatbots de IA generan información falsa.
La semana pasada, Volokh preguntó a ChatGPT si el acoso sexual por parte de los profesores ha sido un problema en las facultades de derecho estadounidenses. “Incluya al menos cinco ejemplos, junto con citas de artículos periodísticos relevantes”, solicitó.
Se recibieron cinco respuestas, todas con detalles realistas y citas de fuentes. Pero cuando Volokh los examinó, dijo, tres de ellos parecían ser falsos. Citaron artículos inexistentes de periódicos como The Post, Miami Herald y Los Angeles Times.
Según las respuestas compartidas con The Post, el bot dijo: “Georgetown University Law Center (2018) El profesor Jonathan Turley fue acusado de acoso sexual por un ex alumno que afirmó que hizo comentarios inapropiados durante un viaje de estudios. Cita: "La denuncia alega que Turley hizo 'comentarios sexualmente sugerentes' e 'intentó tocarla de manera sexual' durante un viaje patrocinado por la facultad de derecho a Alaska". (Washington Post, 21 de marzo de 2018)”.
The Post no encontró el artículo de marzo de 2018 mencionado por ChatGPT. Un artículo de ese mes hizo referencia a Turley: [un 25 de marzo] (https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/lifestyle/style/michael-avenatti-the-adrenaline-fueled -lawyer-take-on-donald-trump/2018/03/25/3ef5cbdc-2e88-11e8-b0b0-f706877db618_story.html?itid=lk_inline_manual_41) historia en la que hablaba de su ex estudiante de derecho Michael Avenatti, un abogado que había representó a la actriz de películas para adultos Stormy Daniels en juicios contra el presidente Donald Trump. Turley tampoco está empleado en la Universidad de Georgetown.
El martes y miércoles, The Post recreó la consulta exacta de Volokh en ChatGPT y Bing. La versión gratuita de ChatGPT se negó a responder y dijo que hacerlo "violaría la política de contenido de AI, que prohíbe la difusión de contenido ofensivo o dañino". Pero Bing de Microsoft, que funciona con GPT-4, repitió la afirmación falsa sobre Turley, citando entre sus fuentes un artículo de opinión de Turley [publicado por USA Today] (https://web.archive.org/web/20230405210555/ https://www.usatoday.com/story/opinion/columnist/2023/04/03/chatgpt-misinformation-bias-flaws-ai-chatbot/11571830002/) el lunes describiendo su experiencia de ser acusado falsamente por ChatGPT.
En otras palabras, la cobertura mediática del error inicial de ChatGPT sobre Turley parece haber llevado a Bing a repetir el error, mostrando cómo la información errónea puede propagarse de una IA a otra.
Katy Asher, directora sénior de comunicaciones de Microsoft, dijo que la empresa está tomando medidas para garantizar que los resultados de búsqueda sean seguros y precisos.
“Hemos desarrollado un sistema de seguridad que incluye filtrado de contenido, monitoreo operativo y detección de abusos para brindar una experiencia de búsqueda segura para nuestros usuarios”, dijo Asher en un comunicado, y agregó que “los usuarios también reciben un aviso explícito de que están interactuando con un sistema de IA”.
Pero no está claro quién es responsable cuando la inteligencia artificial genera o difunde [información inexacta](https://web.archive.org/web/20230405210555/https://www.washingtonpost.com/politics/2023/03/22/ trump-arrest-deepfakes/?itid=lk_inline_manual_48).
Desde una perspectiva legal, "simplemente no sabemos" cómo los jueces podrían fallar cuando alguien intenta demandar a los creadores de un chatbot de IA por algo que dice, dijo Jeff Kosseff, profesor de la Academia Naval y experto en discursos en línea. “No hemos tenido nada como esto antes_._”
En los albores de Internet para el consumidor, el Congreso aprobó un estatuto conocido como Sección 230 que protege a los servicios en línea de la responsabilidad por el contenido que alojan y que fue creado por terceros, como comentaristas en un sitio web o usuarios de una aplicación social. Pero los expertos dicen que no está claro si las empresas tecnológicas podrán usar ese escudo si fueran demandadas por contenido producido por sus propios chatbots de IA.
Los reclamos por difamación deben demostrar no solo que se dijo algo falso, sino que su publicación resultó en daños en el mundo real, como un costoso daño a la reputación. Es probable que eso requiera que alguien no solo vea un reclamo falso generado por un chatbot, sino que crea razonablemente y actúe en consecuencia.
“Las empresas pueden obtener un pase libre para decir cosas que son falsas, pero no crear suficiente daño como para justificar una demanda”, dijo Shabbi S. Khan, socio de la firma de abogados Foley & Lardner que se especializa en leyes de propiedad intelectual.
Si los modelos de lenguaje no obtienen las protecciones de la Sección 230 o salvaguardas similares, dijo Khan, entonces los intentos de las empresas tecnológicas de moderar sus modelos de lenguaje y chatbots podrían usarse en su contra en un caso de responsabilidad para argumentar que tienen más responsabilidad. Cuando las empresas entrenan a sus modelos de que "esta es una buena declaración, o esta es una mala declaración, es posible que ellas mismas estén introduciendo sesgos", agregó.
Volokh dijo que es fácil imaginar un mundo en el que los motores de búsqueda impulsados por chatbots causen caos en la vida privada de las personas.
Sería dañino, dijo, si la gente buscara a otros en un motor de búsqueda mejorado antes de una entrevista de trabajo o una cita y generara información falsa respaldada por evidencia creíble, pero creada falsamente.
“Este va a ser el nuevo motor de búsqueda”, dijo Volokh. “El peligro es que la gente vea algo, supuestamente una cita de una fuente confiable... [y] la gente lo crea”.
La investigadora Alice Crites contribuyó a este informe.