Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2555

Loading...
A medida que prosperan los deepfakes, los países luchan con la respuesta
nytimes.com · 2023

La tecnología deepfake, un software que permite a las personas intercambiar rostros, voces y otras características para crear falsificaciones digitales, se ha utilizado en los últimos años para hacer un sustituto sintético de Elon Musk que cometió una [estafa de criptomonedas] (https://twitter.com/ elonmusk/status/1529484675269414912?s=46&t=ncIlhkdtfcBoxv4hnv8_7Q), para “desvestirse” digitalmente más de 0 mujeres en [0 Telegram y0 para robar millones de dólares](https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh =23c527197559) de empresas imitando las voces de sus ejecutivos en el teléfono

En la mayor parte del mundo, las autoridades no pueden hacer mucho al respecto. Incluso a medida que el software se vuelve más sofisticado y accesible, existen pocas leyes para controlar su difusión.

China espera ser la excepción. Este mes, el país adoptó reglas amplias que requieren que el material manipulado tenga el consentimiento del sujeto y lleve firmas digitales o marcas de agua, y que Los proveedores de servicios deepfake ofrecen formas de "refutar rumores".

Pero China enfrenta los mismos obstáculos que han obstaculizado otros esfuerzos para gobernar las falsificaciones profundas: los peores abusadores de la tecnología tienden a ser los más difíciles de atrapar, operan de forma anónima, se adaptan rápidamente y comparten sus creaciones sintéticas a través de plataformas en línea sin fronteras. La medida de China también ha puesto de relieve otra razón por la que pocos países han adoptado reglas: a muchas personas les preocupa que el gobierno pueda usar las reglas para restringir la libertad de expresión.

Pero simplemente siguiendo adelante con sus mandatos, dijeron los expertos en tecnología, Beijing podría influir en la forma en que otros gobiernos lidian con el aprendizaje automático y la inteligencia artificial que impulsan la tecnología deepfake. Con precedentes limitados en el campo, los legisladores de todo el mundo están buscando casos de prueba para imitar o rechazar.

“La I.A. la escena es un lugar interesante para la política global, porque los países compiten entre sí sobre quién marcará la pauta”, dijo Ravit Dotan, investigador postdoctoral que dirige Collaborative A.I. Laboratorio de Responsabilidad de la Universidad de Pittsburgh. “Sabemos que se avecinan leyes, pero aún no sabemos cuáles son, por lo que hay mucha imprevisibilidad”.

Deepfakes es una gran promesa en muchas industrias. El año pasado, la policía holandesa revivió un caso sin resolver de 2003 al crear un avatar digital de la víctima de asesinato de 13 años y publicar imágenes de él caminando a través de un grupo de su familia y amigos en la actualidad. La tecnología también se usa para parodias y sátiras, para compradores en línea que se prueban ropa en probadores virtuales, para dioramas de museos dinámicos y para actores que esperan hablar varios idiomas en estrenos internacionales de películas. Investigadores del M.I.T. Media Lab y UNICEF utilizaron técnicas similares para estudiar la empatía mediante la transformación de imágenes de ciudades de América del Norte y Europa en [los paisajes con cicatrices de batalla] (https://www.media.mit.edu/projects/deep-empathy/overview/) causados por la guerra de Siria.

Pero las aplicaciones problemáticas también abundan. A los expertos legales les preocupa que las falsificaciones profundas puedan usarse indebidamente para erosionar la confianza en los videos de vigilancia, las cámaras corporales y otras pruebas. (Una grabación manipulada presentada en un niño británico El caso de custodia en 2019 parecía mostrar a un padre haciendo amenazas violentas, según el abogado del padre). Las falsificaciones digitales podrían desacreditar o incitar a la violencia contra los agentes de policía, o enviarlos a la caza del ganso salvaje. El Departamento de Seguridad Nacional también ha identificado riesgos que incluyen ciberacoso, chantaje, manipulación de acciones e inestabilidad política.

Algunos expertos predicen que hasta el 90 % del contenido en línea podría generarse sintéticamente en unos pocos años.

El creciente volumen de deepfakes podría conducir a una situación en la que “los ciudadanos ya no tengan una realidad compartida, o podría crear confusión social sobre qué fuentes de información son confiables; una situación a la que a veces se hace referencia como 'apocalipsis de la información' o 'apatía por la realidad'”, la agencia policial europea Europol [escribió en un informe] (https://www.europol.europa.eu/cms/sites/default/files/ documentos/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf) el año pasado.

El año pasado, los funcionarios británicos [citaron amenazas] (https://www.gov.uk/government/news/new-laws-to-better-protect-victims-from-abuse-of-intimate-images), como un sitio web que “prácticamente desnuda a las mujeres” y eso fue visitado 38 millones de veces en los primeros ocho meses de 2021. Pero allí y en la [Unión Europea](https: //artificialintelligenceact.eu/), las propuestas para establecer barandillas para la tecnología aún no se han convertido en ley.

Los intentos en los Estados Unidos de crear un grupo de trabajo federal para examinar la tecnología deepfake se han estancado. La representante Yvette D. Clarke, demócrata de Nueva York, propuso un proyecto de ley en 2019 y nuevamente en 2021, la Ley de defensa de todas y cada una de las personas de las apariencias falsas manteniendo la explotación sujeta a responsabilidad, que aún no se ha votado. Ella dijo que planeaba reintroducir el proyecto de ley este año.

La Sra. Clarke dijo que su proyecto de ley, que requeriría que las falsificaciones profundas llevaran marcas de agua o etiquetas de identificación, era “una medida de protección”. Por el contrario, describió las nuevas reglas chinas como “más un mecanismo de control”.

“Muchas de las sociedades civiles sofisticadas reconocen cómo esto puede ser armado y destructivo”, dijo, y agregó que Estados Unidos debería ser más audaz al establecer sus propios estándares en lugar de seguir a otro líder.

“No queremos que los chinos coman nuestro almuerzo en el espacio tecnológico”, dijo Clarke. “Queremos poder establecer la línea de base para nuestras expectativas en torno a la industria tecnológica, en torno a la protección del consumidor en ese espacio”.

Pero los funcionarios encargados de hacer cumplir la ley han dicho que la industria aún no puede detectar las falsificaciones profundas y tiene dificultades para gestionar los usos maliciosos de la tecnología. Un abogado de California escribió en una revista jurídica en 2021 que ciertas reglas de falsificación profunda tenían "un problema de viabilidad casi insuperable" y eran “funcionalmente inaplicable” porque los abusadores (generalmente anónimos) pueden cubrir fácilmente sus huellas.

Las reglas que existen en los Estados Unidos están dirigidas en gran medida a los deepfakes políticos o pornográficos. Marc Berman, un demócrata en la Asamblea del Estado de California que representa partes de Silicon Valley y ha patrocinado dicha legislación, dijo que no estaba al tanto de ningún esfuerzo para hacer cumplir sus leyes a través de demandas o multas. Pero dijo que, en deferencia a una de sus leyes, una aplicación de falsificación profunda había eliminado la capacidad de imitar al presidente Donald J. Trump antes de las elecciones de 2020.

Solo un puñado de otros estados, incluido Nueva York, restringen la pornografía falsa. Mientras se postulaba para la reelección en 2019, el alcalde de Houston dijo que un anuncio crítico de otro candidato [violó una ley de Texas] (https://www.fox26houston.com/news/mayor-turner-calls-for-criminal-investigation- of-tony-buzbees-attack-ad) que prohíbe ciertas falsificaciones políticas engañosas.

“La mitad del valor hace que más personas sean un poco más escépticas acerca de lo que ven en las plataformas de redes sociales y alientan a las personas a no tomar todo al pie de la letra”, dijo Berman.

Pero incluso cuando los expertos en tecnología, los legisladores y las víctimas piden protecciones más estrictas, también instan a la precaución. Las leyes deepfake, dijeron, corren el riesgo de ser exageradas pero también ineficaces. Forzar etiquetas o descargos de responsabilidad en deepfakes diseñados como comentarios válidos sobre política o cultura también podría hacer que el contenido parezca menos confiable, agregaron.

Los grupos de derechos digitales, como Electronic Frontier Foundation, están presionando a los legisladores para que renuncien a la vigilancia de las falsificaciones profundas en favor de las empresas tecnológicas, o para que utilicen un marco legal existente que aborde cuestiones como el fraude, la infracción de derechos de autor, la obscenidad y la difamación.

“Ese es el mejor remedio contra los daños, en lugar de la interferencia gubernamental, que en su implementación casi siempre va a capturar material que no es dañino, que congela a las personas del discurso legítimo y productivo”, dijo David Greene, un abogado de libertades civiles de la Fundación Frontera Electrónica.

Hace varios meses, Google comenzó a prohibir que las personas usen su plataforma Colaboratory, una herramienta de análisis de datos, para entrenar a la IA. sistemas para generar deepfakes. En otoño, la compañía detrás de Stable Diffusion, una herramienta de generación de imágenes, lanzó una actualización que paraliza a los usuarios que intentan crear contenido desnudo y pornográfico, [según The Verge](https://www.theverge.com/2022/11 /24/23476622/ai-image-generator-stable-diffusion-version-2-nsfw-artists-data-changes). Meta, TikTok, YouTube y Reddit prohíben los deepfakes que pretenden ser engañosos .

Pero las leyes o prohibiciones pueden tener dificultades para contener una tecnología que está diseñada para adaptarse y mejorar continuamente. El año pasado, investigadores de RAND Corporation demostraron lo difícil que puede ser identificar los deepfakes cuando mostraron una serie de videos a más de 3000 sujetos de prueba y les pidieron que identificaran los que estaban manipulados (como un deepfake de la activista climática Greta Thunberg). negando la existencia del cambio climático).

El grupo se equivocó más de un tercio de las veces. Incluso un subconjunto de varias docenas de estudiantes que estudian aprendizaje automático en la Universidad Carnegie Mellon se equivocó más del 20 por ciento de las veces.

Las iniciativas de empresas como Microsoft y Adobe ahora intentan autenticar los medios y entrenar la tecnología de moderación para reconocer las inconsistencias que marcan el contenido sintético. Pero están en una lucha constante para superar a los creadores de deepfakes que a menudo descubren nuevas formas de corregir defectos, eliminar marcas de agua y alterar metadatos para cubrir sus huellas.

“Hay una carrera armamentista tecnológica entre los creadores de deepfakes y los detectores de deepfakes”, dijo Jared Mondschein, científico físico de RAND. "Hasta que empecemos a encontrar formas de detectar mejor las falsificaciones profundas, será muy difícil que cualquier cantidad de legislación tenga fuerza".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd