Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4316

Incidentes Asociados

Incidente 8521 Reporte
Alleged Fake Citations Undermine Expert Testimony in Minnesota Deepfake Law Case

Loading...
Experto en desinformación cita fuentes inexistentes en caso de deep fake de Minnesota • Minnesota Reformer
minnesotareformer.com · 2024

Un destacado experto en desinformación está siendo acusado de citar fuentes inexistentes para defender la nueva ley de Minnesota que prohíbe la desinformación electoral.

El profesor Jeff Hancock, director fundador del Laboratorio de Medios Sociales de Stanford, es “famoso por su investigación sobre cómo la gente utiliza el engaño con la tecnología”, según su biografía en Stanford.

A instancias del fiscal general de Minnesota, Keith Ellison, Hancock presentó recientemente una declaración jurada en apoyo de la nueva legislación que prohíbe el uso de la llamada tecnología de “falsificación profunda” para influir en una elección. La ley está siendo impugnada en un tribunal federal por un YouTuber conservador y la representante estatal republicana Mary Franson de Alexandria por violar las protecciones de la libertad de expresión de la Primera Enmienda.

La declaración experta de Hancock en apoyo de la ley de deep fakes cita numerosos trabajos académicos. Pero varias de esas fuentes no parecen existir, y los abogados que impugnan la ley dicen que parecen haber sido inventadas por un software de inteligencia artificial como ChatGPT.

Por ejemplo, la declaración cita un estudio titulado “La influencia de los vídeos deepfake en las actitudes y el comportamiento políticos”, y dice que se publicó en el Journal of Information Technology & Politics en 2023. Pero no aparece ningún estudio con ese nombre en esa revista; las bases de datos académicas no tienen ningún registro de su existencia; y las páginas específicas de la revista a las que se hace referencia contienen dos artículos completamente diferentes.

“La cita tiene el sello de ser una ‘alucinación’ de inteligencia artificial (IA), lo que sugiere que al menos la cita fue generada por un gran modelo de lenguaje como ChatGPT”, escriben los abogados de los demandantes. “Los demandantes no saben cómo esta alucinación terminó en la declaración de Hancock, pero pone en tela de juicio todo el documento”.

Por otra parte, el profesor de derecho libertario Eugene Volokh descubrió que otra cita en la declaración de Hancock, a un estudio supuestamente titulado “Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance”, no parece existir.

Si las citas fueron generadas por un software de inteligencia artificial, es posible que otras partes de la declaración de 12 páginas de Hancock también lo fueran. No está claro si las citas inexistentes fueron insertadas por Hancock, un asistente o alguna otra parte. Ni Hancock ni el Laboratorio de Medios Sociales de Stanford respondieron a las reiteradas solicitudes de comentarios. Tampoco lo hizo la oficina de Ellison.

Frank Bednarz, abogado de los demandantes en el caso, dijo que los defensores de la ley de falsificaciones profundas argumentan que, “a diferencia de otros discursos en línea, el contenido generado por IA supuestamente no se puede contrarrestar con verificaciones de hechos y educación”.

Sin embargo, agregó, “al denunciar la invención generada por IA ante el tribunal, demostramos que el mejor remedio para el discurso falso sigue siendo el discurso verdadero, no la censura”.

El uso torpe del software de inteligencia artificial ha causado numerosas vergüenzas en todo el sistema legal en los últimos años. En 2023, por ejemplo, dos abogados de Nueva York fueron sancionados por un juez federal por presentar un escrito que contenía citas de casos legales inexistentes inventados por ChatGPT.

Algunos de los abogados involucrados en percances anteriores con ChatGPT han alegado ignorancia, diciendo que no eran conscientes de las limitaciones del software o su tendencia a simplemente inventar cosas. Pero Hancock es un experto líder en tecnología y desinformación, lo que hace que las citas falsas sean especialmente embarazosas.

Su declaración concluye con la siguiente declaración: “Declaro bajo pena de perjurio que todo lo que he afirmado en este documento es verdadero y correcto”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd