Incidentes Asociados

Brian Hood es un denunciante que fue [elogiado](https://www.smh.com.au/technology/australian-whistleblower-to-test-whether-chatgpt-can-be-sued-for-lying-20230405-p5cy9b .html) por "mostrar un tremendo coraje" cuando ayudó a exponer un escándalo mundial de soborno relacionado con el Banco de la Reserva Nacional de Australia.
Pero si le preguntas a ChatGPT sobre su papel en el escándalo, obtienes la versión opuesta de los hechos.
En lugar de anunciar el papel de denunciante de Hood, ChatGPT afirma falsamente que el propio Hood fue condenado por pagar sobornos a funcionarios extranjeros, se declaró culpable de soborno y corrupción y fue sentenciado a prisión.
Cuando Hood se enteró, se sorprendió. Hood, quien ahora es alcalde de Hepburn Shire cerca de Melbourne en Australia, dijo que planea demandar a la compañía detrás de ChatGPT por decir mentiras sobre él, en lo que podría ser la primera demanda por difamación de este tipo contra el chatbot de inteligencia artificial.
"Ser acusado de ser un delincuente, un delincuente de cuello blanco, y haber pasado un tiempo en la cárcel cuando eso es 180 grados incorrecto es extremadamente perjudicial para su reputación. Especialmente teniendo en cuenta que soy un funcionario electo en el gobierno local". dijo en una entrevista el jueves. "Simplemente reabrió viejas heridas".
"Nunca, nunca ha habido una sugerencia en ninguna parte de que alguna vez fui cómplice de algo, por lo que esta máquina ha creado completamente esto desde cero", dijo Hood, confirmando su intención de presentar una demanda por difamación contra ChatGPT. "Tiene que haber un control y una regulación adecuados sobre la llamada inteligencia artificial, porque la gente confía en ella".
El caso es el último ejemplo de una lista creciente de chatbots de IA que publican mentiras sobre personas reales. El chatbot inventó recientemente una historia falsa de acoso sexual que involucra a un profesor de derecho real, Jonathan Turley, citando un Artículo del Washington Post que no existía como prueba.
Si procede, la demanda de Hood será la primera vez que alguien presente una demanda por difamación contra el contenido de ChatGPT, [según Reuters](https://www.reuters.com/technology/australian-mayor-readies-worlds-first-defamation- demanda-sobre-chatgpt-content-2023-04-05/). Si llega a los tribunales, el caso probaría aguas legales desconocidas, lo que obligaría a los jueces a considerar si los operadores de un bot de inteligencia artificial pueden ser responsabilizados por sus declaraciones supuestamente difamatorias.
En su sitio web, ChatGPT advierte de manera destacada a los usuarios que "ocasionalmente puede generar información incorrecta". Hood cree que esta advertencia es insuficiente.
"Incluso un descargo de responsabilidad para decir que podríamos equivocarnos en algunas cosas: hay una gran diferencia entre eso y inventar este tipo de material realmente dañino que no tiene base alguna", dijo.
En un comunicado, el abogado de Hood enumera varios ejemplos de falsedades específicas hechas por ChatGPT sobre su cliente, incluido que autorizó pagos a un traficante de armas para asegurar un contrato con el gobierno de Malasia.
"No lo encontrará en ningún otro lugar, nada que sugiera remotamente lo que han sugerido. De alguna manera lo han creado de la nada", dijo Hood.
Según la ley australiana, un reclamante solo puede iniciar una acción legal formal en un reclamo por difamación después de esperar 28 días para obtener una respuesta luego de la presentación inicial de una inquietud. El jueves, Hood dijo que sus abogados todavía estaban esperando una respuesta del propietario de ChatGPT (OpenAI) después de enviar una carta exigiendo una retractación.
El jueves, OpenAI no respondió de inmediato a una solicitud de comentarios enviada durante la noche. En una declaración anterior en En respuesta a las afirmaciones falsas del chatbot sobre el profesor de derecho, el portavoz de OpenAI, Niko Felix, dijo: "Cuando los usuarios se registran en ChatGPT, nos esforzamos por ser lo más transparentes posible para que no siempre genere respuestas precisas. Mejorar la precisión de los hechos es un enfoque importante para nosotros, y estamos progresando".
Los expertos en inteligencia artificial dijeron que la capacidad del bot para decir una mentira tan plausible sobre Hood no era sorprendente. Las mentiras convincentes son, de hecho, una característica de la tecnología, dijo Michael Wooldridge, profesor de informática en la Universidad de Oxford, en una entrevista el jueves.
"Cuando le haces una pregunta, no va a una base de datos de hechos", explicó. "Trabajan por pronta finalización". Con base en toda la información disponible en Internet, ChatGPT intenta completar la oración de manera convincente, no sincera. "Está tratando de hacer la mejor conjetura sobre lo que debería venir a continuación", dijo Wooldridge. "Muy a menudo es incorrecto, pero muy plausiblemente incorrecto.
"Esta es claramente la mayor debilidad de la tecnología en este momento", dijo, refiriéndose a la capacidad de AI para mentir de manera tan convincente. "Va a ser uno de los desafíos definitorios para esta tecnología en los próximos años".
En una carta a OpenAI, los abogados de Hood exigieron una rectificación de la falsedad. "La demanda presentada tendrá como objetivo remediar el daño causado al señor Hood y garantizar la precisión de este software en su caso", dijo su abogado, James Naughton.
Pero según Wooldridge, simplemente corregir una falsedad específica publicada por ChatGPT es un desafío.
"Todo ese conocimiento adquirido que tiene está oculto en vastas redes neuronales", dijo, "que no son más que enormes listas de números".
"El problema es que no puedes mirar esos números y saber lo que significan. No significan nada para nosotros. No podemos verlos en el sistema, ya que se relacionan con este individuo y simplemente eliminarlos".
"En la investigación de IA, generalmente llamamos a esto una 'alucinación'", escribió Michael Schlichtkrull, científico informático de la Universidad de Cambridge, en un correo electrónico el jueves. "Los modelos lingüísticos están entrenados para producir un texto que sea plausible, no un texto que sea fáctico".
"No se debe confiar en los modelos de lenguaje grandes para tareas en las que importa cuán veraz sea el resultado", agregó.