Incidentes Asociados

Un destacado experto en desinformación está siendo acusado de citar fuentes inexistentes para defender la nueva ley de Minnesota que prohíbe la desinformación electoral.
El profesor Jeff Hancock, director fundador del Laboratorio de Medios Sociales de Stanford, es “famoso por su investigación sobre cómo la gente utiliza el engaño con la tecnología”, según su biografía en Stanford.
A instancias del fiscal general de Minnesota, Keith Ellison, Hancock presentó recientemente una declaración jurada en apoyo de la nueva legislación que prohíbe el uso de la llamada tecnología de “falsificación profunda” para influir en una elección. La ley está siendo impugnada en un tribunal federal por un YouTuber conservador y la representante estatal republicana Mary Franson de Alexandria por violar las protecciones de la libertad de expresión de la Primera Enmienda.
La declaración experta de Hancock en apoyo de la ley de deep fakes cita numerosos trabajos académicos. Pero varias de esas fuentes no parecen existir, y los abogados que impugnan la ley dicen que parecen haber sido inventadas por un software de inteligencia artificial como ChatGPT.
Por ejemplo, la declaración cita un estudio titulado “La influencia de los vídeos deepfake en las actitudes y el comportamiento políticos”, y dice que se publicó en el Journal of Information Technology & Politics en 2023. Pero no aparece ningún estudio con ese nombre en esa revista; las bases de datos académicas no tienen ningún registro de su existencia; y las páginas específicas de la revista a las que se hace referencia contienen dos artículos completamente diferentes.
“La cita tiene el sello de ser una ‘alucinación’ de inteligencia artificial (IA), lo que sugiere que al menos la cita fue generada por un gran modelo de lenguaje como ChatGPT”, escriben los abogados de los demandantes. “Los demandantes no saben cómo esta alucinación terminó en la declaración de Hancock, pero pone en tela de juicio todo el documento”.
Por otra parte, el profesor de derecho libertario Eugene Volokh descubrió que otra cita en la declaración de Hancock, a un estudio supuestamente titulado “Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance”, no parece existir.
Si las citas fueron generadas por un software de inteligencia artificial, es posible que otras partes de la declaración de 12 páginas de Hancock también lo fueran. No está claro si las citas inexistentes fueron insertadas por Hancock, un asistente o alguna otra parte. Ni Hancock ni el Laboratorio de Medios Sociales de Stanford respondieron a las reiteradas solicitudes de comentarios. Tampoco lo hizo la oficina de Ellison.
Frank Bednarz, abogado de los demandantes en el caso, dijo que los defensores de la ley de falsificaciones profundas argumentan que, “a diferencia de otros discursos en línea, el contenido generado por IA supuestamente no se puede contrarrestar con verificaciones de hechos y educación”.
Sin embargo, agregó, “al denunciar la invención generada por IA ante el tribunal, demostramos que el mejor remedio para el discurso falso sigue siendo el discurso verdadero, no la censura”.
El uso torpe del software de inteligencia artificial ha causado numerosas vergüenzas en todo el sistema legal en los últimos años. En 2023, por ejemplo, dos abogados de Nueva York fueron sancionados por un juez federal por presentar un escrito que contenía citas de casos legales inexistentes inventados por ChatGPT.
Algunos de los abogados involucrados en percances anteriores con ChatGPT han alegado ignorancia, diciendo que no eran conscientes de las limitaciones del software o su tendencia a simplemente inventar cosas. Pero Hancock es un experto líder en tecnología y desinformación, lo que hace que las citas falsas sean especialmente embarazosas.
Su declaración concluye con la siguiente declaración: “Declaro bajo pena de perjurio que todo lo que he afirmado en este documento es verdadero y correcto”.