Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6100

Incidentes Asociados

Incidente 6756 Reportes
High School Athletic Director in Baltimore County Allegedly Created Racist Deepfake Audio Impersonating Principal

Loading...
Cómo un principio legal centenario podría eliminar las deepfakes de Internet
bostonglobe.com · 2025

El año pasado, una grabación viral del director de una escuela secundaria local conmocionó a los habitantes de Pikesville, Maryland.

Los oyentes podían oír la voz de Eric Eiswert, quien profería ideas rencorosas y racistas sobre los judíos y los estudiantes negros de la escuela. Estos comentarios, provenientes de un respetado educador local, eran impensables. Las consecuencias fueron rápidas y nefastas. Los miembros de la comunidad se indignaron y el distrito escolar lo suspendió de inmediato. La justicia pareció haber prevalecido, excepto que la grabación era falsa.

La grabación de Eiswert era un deepfake, una representación de una persona en una imagen, video o grabación de audio alterada digitalmente, generalmente para mostrar a esa persona diciendo o haciendo algo que no dijo ni hizo. Una investigación policial reveló que la grabación deepfake probablemente fue creada por el descontento director deportivo de la escuela secundaria.

La situación de Eiswert es cada vez más común. La tecnología de IA generativa ha mejorado notablemente en los últimos años, facilitando la creación de deepfakes increíblemente realistas. Además, internet permite que estos deepfakes generados por IA se propaguen rápidamente. Entre las víctimas se encuentran desde Taylor Swift hasta estudiantes de secundaria y legisladoras como Alexandria Ocasio-Cortez (https://www.nytimes.com/2025/08/11/opinion/alexandria-ocasio-cortez-deepfake-ai.html).

En respuesta a esta nueva amenaza, docenas de estados han aprobado nuevas leyes, y recientemente el Congreso aprobó por abrumadora mayoría la Ley TAKE IT DOWN, que tipifica como delito compartir imágenes explícitas sin consentimiento. Estas medidas, aunque bien intencionadas, solo abordan imágenes sexualmente explícitas, no el tipo de deepfake que tuvo como blanco a Eiswert. Por ello, los legisladores deben pensar con mayor amplitud.

Afortunadamente, existe un precedente legal que surgió hace más de un siglo en respuesta a un problema similar: la cámara portátil.

A finales del siglo XIX, la cámara portátil Kodak horrorizó la sensibilidad de estadounidenses y europeos. Los artículos periodísticos lamentaban que cada uno de nuestros errores fuera capturado en película. Los justicieros ingleses atacaron a fotógrafos por tomar fotos subrepticiamente de mujeres nadando en playas inglesas. El presidente estadounidense Theodore Roosevelt argumentó a un niño por tomarle una foto al salir de la iglesia, calificándola de "vergüenza". Si bien a la sociedad de principios del siglo XX no le gustaba aparecer en las fotografías de otros sin permiso, su mayor preocupación era la posibilidad de que los fotógrafos compartieran sus fotos con otros. El desarrollo de los medios de comunicación durante el mismo período permitió que estas imágenes se compartieran con millones de personas. En respuesta a esta amenaza, dos figuras clave del derecho en aquel momento, Samuel Warren y el futuro juez de la Corte Suprema de Estados Unidos, Louis Brandeis, propusieron un nuevo derecho legal: el derecho a la privacidad. En un artículo de la Harvard Law Review de 1890, Warren y Brandeis advirtieron que, en conjunto, «las fotografías instantáneas y la industria periodística han invadido los sagrados límites de la vida privada y doméstica». Les preocupaba que perder el control sobre la propia imagen perjudicara no solo los intereses económicos, sino también la dignidad humana, ya que las fotos podían causar «dolor mental y estrés... mucho mayor que el que podría causar una simple lesión corporal».

Los intereses que Warren y Brandeis describieron se conocen desde entonces como el derecho a la publicidad. Ahora reconocido en la mayoría de los estados, el derecho de publicidad protege el nombre, la imagen y la semejanza de una persona contra usos no autorizados por parte de terceros para su propio beneficio. Fundamentalmente, la protección no se limita a las imágenes sexualizadas, a diferencia de gran parte de la legislación actual que busca acabar con los deepfakes. Y podría ser un arma invaluable contra los peores daños de los deepfakes.

Las preocupaciones de Warren y Brandeis son relevantes en nuestro momento actual. Al igual que la cámara, las herramientas de IA permiten a cualquiera capturar la imagen de otra persona. Al igual que los medios de comunicación masivos anteriores, internet permite a millones de personas acceder a la imagen. Por supuesto, el poder y el alcance de la IA e internet aumentan el daño potencial. Mientras que la cámara se limitaba a capturar acciones que realmente ocurrían, las herramientas de IA nos permiten crear deepfakes de otros haciendo cosas que ni siquiera contemplaron.

Hoy en día, una de las mayores limitaciones al derecho de publicidad en muchos estados es que se limita a usos comerciales de la imagen de una persona, como en publicidad o marketing. Sin embargo, Warren y Brandeis nunca pretendieron que el derecho fuera tan limitado. Ellos y otras partes interesadas, en 1890, también escribieron sobre los daños que las cámaras podían infligir a la dignidad humana.

Legisladores y académicos han cuestionado esta comprensión limitada del derecho de publicidad. Por ejemplo, California simplemente exige que la imagen de una persona se utilice para beneficio de otra (ya sea comercial o de otro tipo) para que se considere una reclamación de derecho de publicidad.

El derecho de publicidad también puede ofrecer a las víctimas una vía para eliminar deepfakes de internet. Las plataformas en línea no suelen ser responsables de las acciones de sus usuarios, como una publicación en Facebook o un anuncio en Amazon, ya que la Sección 230 de la Ley de Decencia en las Comunicaciones las protege de responsabilidad. Sin embargo, a pesar de dicha sección, las plataformas aún pueden ser consideradas responsables de violaciones de propiedad intelectual. Los tribunales de todo el país se refieren cada vez más al derecho de publicidad como un derecho de propiedad intelectual. Deberían hacerlo más en casos relacionados con deepfakes.

Los legisladores pueden ayudar a los jueces adoptando leyes que definan el derecho de publicidad como un derecho de propiedad intelectual para contrarrestar la Sección 230. En algunas jurisdicciones judiciales estatales o federales, los jueces han reconocido este mismo principio, dictaminando que las plataformas en línea son responsables si no eliminan contenido como deepfakes que se apropian indebidamente de la imagen de una persona. Sin embargo, la mayoría de los casos se han resuelto extrajudicialmente antes de una sentencia definitiva, por lo que no está claro cuán ampliamente se aplicaría este principio, a menos que se aprueben nuevas leyes para orientar mejor a los tribunales y al público. El Congreso está considerando una ley nacional que convertiría las deepfakes en una violación de los derechos de propiedad intelectual de una persona. Si bien una víctima aún podría litigar contra el creador de la deepfake o incluso contra la plataforma en línea, obligar a las plataformas a eliminarlas podría ofrecer una solución más eficiente para la mayoría de las personas.

Las deepfakes subrayan la necesidad de un amplio derecho a la publicidad. Las deepfakes representan un daño para todos. Han victimizado a celebridades y políticos, y también han atacado a personas comunes como Eric Eiswert. Es hora de que los legisladores luchen contra los daños de esta tecnología y, afortunadamente, ya contamos con una herramienta para hacerlo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd