Incidentes Asociados

La IA está en todas partes. Muchos artistas utilizan herramientas impulsadas por IA para crear obras alucinantes o mejorar algunos conceptos interesantes. Desafortunadamente, estos recursos también han tenido algunos usos cuestionables, incluida la creación de deepfakes. Estos videos alterados muestran a personas haciendo o diciendo algo que en realidad no hicieron. Son clips generados por computadora que parecen completamente reales debido a la reutilización de metraje existente. Y si bien las celebridades parecen ser el objetivo más común de esto, la IA presenta crecientes preocupaciones que todos los que consumen medios digitales deberían conocer.
Dos de las últimas figuras en lidiar con una versión no autorizada de sí mismos generada por IA son el actor Tom Hanks y la periodista televisiva Gayle King. Hanks primero publicó una advertencia en Instagram, informando a sus seguidores que había una estafa de IA que mostraba su rostro. "¡¡TENER CUIDADO!! Hay un vídeo que promociona un plan dental con una versión mía de IA. No tengo nada que ver con eso”, escribió el actor sobre una captura de pantalla del video.
King también alertó a sus seguidores de Instagram sobre un video generado por IA que la muestra anunciando un producto para bajar de peso. “¡Nunca había oído hablar de este producto ni lo había usado! Por favor, no se dejen engañar por estos videos de IA”, escribió. King también compartió el clip original en el que se basó la versión modificada. “Publiqué este video promocionando mi programa de radio el 31 de agosto y manipularon mi voz y mi video para que pareciera que lo estoy promocionando”.
Si bien este uso indebido de las herramientas de inteligencia artificial parece provenir de empresas fraudulentas, también ha habido preocupaciones sobre su aplicación en empresas más establecidas. Una de las quejas que SAG-AFTRA, el sindicato que representa a los actores de Hollywood, ha planteado durante su huelga actual se refiere a cómo los estudios podrían utilizar la IA para crear réplicas digitales de actores sin la compensación o aprobación adecuada. Cuando una colaboración generada por IA entre Drake y The Weekend llegó a los servicios de streaming [a principios de este año](https://www.nytimes.com/2023/04/19/arts/music/ai-drake-the-weeknd-fake. html), los sellos discográficos expresaron su preocupación sobre cómo esta parte aparentemente inofensiva podría convertirse en una seria preocupación para los artistas en una industria musical frágil.
Para mantener a raya el contenido dañino generado por IA, sería necesario un esfuerzo concertado entre todas las partes: los proveedores de estas herramientas podrían ofrecer formas de rastrear los orígenes del contenido, mientras que las plataformas de redes sociales también podrían parchear sus algoritmos para disuadir su alcance. como actuar rápidamente ante contenidos que han sido denunciados por los usuarios. Si fuera necesario, incluso el derecho internacional podría involucrarse y establecer algunos parámetros con respecto al uso de estas herramientas.
Las herramientas y creaciones de IA parecen haber llegado para quedarse, y si bien un marco de reglas establecido por los actores clave sería un gran paso hacia la protección del público, siempre podrían aparecer plataformas que las eludan. Los días en que un vídeo o una imagen eran pruebas o algo así podrían haber quedado atrás, erosionando la confianza del público y cambiando el panorama digital tal como lo conocemos.