Incidentes Asociados

En diciembre pasado, el Collège Béliveau, una escuela en Winnipeg, envió avisos a los padres de que estaba investigando la publicación en línea de imágenes explícitas de alumnas. Al parecer, las imágenes originales habían sido extraídas de cuentas de redes sociales y luego manipuladas mediante inteligencia artificial para que parecieran desnudas.
Y el pasado abril, un hombre de Quebec fue condenado a prisión por crear pornografía infantil sintética generada por inteligencia artificial. Steven Larouche se declaró culpable en abril de crear al menos siete videos con la llamada tecnología deepfake, que se utiliza para superponer el rostro de un individuo sobre el cuerpo de otra persona.
“El uso de tecnología deepfake en manos de delincuentes es escalofriante. El tipo de software permite que se cometan delitos que podrían involucrar prácticamente a todos los niños de nuestras comunidades”, escribió el juez del tribunal provincial Benoit Gagnon en la decisión del 14 de abril. “Un simple fragmento de video de un niño disponible en las redes sociales, o un video de niños tomado en un lugar público, podría convertirlos en víctimas potenciales de pornografía infantil”.
En declaraciones a 680 CJOB sobre el caso de Winnipeg, la agente de policía Dani McKinnon dijo que su equipo estaba investigando el asunto, pero agregó que el uso de IA agregó un nuevo giro a un viejo delito.
“Ha habido problemas antes con… (cosas como) pornografía vengativa o la distribución de imágenes sin consentimiento”, dijo. “Pero esas han sido situaciones en las que se han enviado imágenes reales. Ahora estamos hablando de imágenes aumentadas y modificadas mediante la generación de IA. Agregó que existe una brecha entre lo que dice la ley y cómo funciona la tecnología.
En declaraciones a la CBC sobre el caso de la escuela de Winnipeg, Maura Grossman, experta legal y profesora de investigación en la escuela de informática de la Universidad de Waterloo, dijo: “Es extremadamente desafiante y creo que este problema va a empeorar, no a mejorar”.
Grossman ha visto el problema de cerca. En una entrevista separada, le dijo al National Post: “Hace varios años tuve un estudiante que tuvo esta situación. Eran imágenes reales… y ver a alguien pasar por eso… Entras en pánico porque está sucediendo algo sobre lo que no tienes control.
“Para la persona promedio, es como si toda su vida se estuviera desmoronando, y si proviene de una cultura en la que sus padres se sienten avergonzados por esto o ellos mismos se sienten avergonzados por esto, puede tener repercusiones terribles en su salud mental”.
En enero, Columbia Británica se convirtió en la última provincia en promulgar una ley para ayudar a proteger a las personas contra el intercambio en línea de imágenes íntimas sin su consentimiento. Pero la Ley de Protección de Imágenes Íntimas va más allá de las que simplemente muestran desnudez, semidesnudez o actos sexuales. Hace referencia específica a imágenes alteradas digitalmente, deepfakes e imágenes generadas por IA.
Ya existe una legislación similar en Saskatchewan, Nuevo Brunswick y la Isla del Príncipe Eduardo, mientras que la mayoría de las demás provincias tienen versiones que no mencionan explícitamente las imágenes alteradas o generadas. Pero Daniel Tsai dice que ninguna de ellas va lo suficientemente lejos como para lidiar con el ritmo desenfrenado de las nuevas tecnologías.
Tsai es profesor adjunto en la Universidad de Toronto y la Escuela de Negocios de la Universidad Queen, ex abogado de propiedad intelectual y ex asesor principal de políticas del gobierno federal. En una ocasión, redactó una disposición del Código Penal que abordaba la ilegalidad de utilizar una videocámara en una sala de cine, una legislación que suena casi pintoresca en comparación con los problemas actuales en materia de IA generativa.
En pocas palabras, la IA se puede utilizar para generar una imagen basándose únicamente en un mensaje de texto (“Muéstrame a Taylor Swift sin ropa”). También puede tomar imágenes existentes y modificarlas, intercambiando sin problemas rostros, cuerpos y otros detalles para crear imágenes irreales, desde las relativamente benignas (el Papa con un abrigo acolchado, por ejemplo) hasta las verdaderamente horrorosas. Incluso hay programas que se especializan en tomar una imagen vestida y hacer que parezca desnuda.
“Esta es la naturaleza de la tecnología”, dice Tsai. “Se puede utilizar para un gran bien. Tambi én se puede utilizar para una destrucción increíble. Esto es una indicación de la perversidad de la mente humana”.
La ley de Columbia Británica y otras similares permiten a las personas acudir a un tribunal de resolución civil para que se eliminen imágenes íntimas, independientemente de si son reales o falsas. También permite multas de hasta 500 dólares al día para particulares y 5.000 dólares al día para sitios web si no cumplen las órdenes de eliminar dichas imágenes.
“En cierto modo, Columbia Británica está a la vanguardia”, dice Tsai. “Pero hay un pequeño vacío en la ley. Tienen que conseguir una orden judicial… y luego esperar que la persona y el sitio web cumplan”.
Eso puede ser especialmente complicado si los perpetradores están en otra provincia o fuera del país. “¿Qué pasa si están en Rusia o Corea del Norte y quieren hacerte daño? ¿Adivina qué? No hay mucho que puedas hacer. No les va a importar una orden judicial canadiense”.
Incluso una nación más cercana y amigable como Estados Unidos podría resultar fuera de la ley, dice Tsai. “Si las imágenes están en un sitio de terceros y el sitio está basado en Estados Unidos… ignorarían efectivamente una orden judicial de Columbia Británica. Y se les permite hacerlo bajo la sección 230 de la Ley de Decencia en las Comunicaciones”.
Grossman está de acuerdo en que la aplicación puede ser difícil, pero tiene una visión más optimista.
“Creo que si recibieras una orden judicial no la ignorarías”, dice. “Al menos irías y argumentarías ‘no tienes jurisdicción sobre mí’ o presentarías algún otro argumento legal”.
Agrega: “Además, ¿quieres el daño a la reputación que vendrá con negarte a eliminar este tipo de cosas?”. Señala la reacción de los fanáticos de Taylor Swift por las imágenes deepfake explícitas de la estrella del pop que se compartieron recientemente en línea. “Pero probablemente se litigará”, concluye.
Grossman también está contenta con la amplitud de la nueva legislación de Columbia Británica, que incluso cubre a las personas fallecidas y la transmisión en vivo.
Pero señala que existen disposiciones para que los menores accedan al sistema sin tener que decírselo a sus padres, y que no todos los casos requerirán una comparecencia judicial de la parte perjudicada. “Mucha gente no quiere ir a juicio”, afirma. “Sólo quieren que desaparezca”.
Tsai afirma que parte de la razón de la falta de responsabilidad legal tiene que ver con la velocidad con la que se han desatado las nuevas tecnologías de IA.
“Esto ilustra cómo nos hemos apresurado a intentar sacar provecho de las nuevas tecnologías sin entender realmente los peligros y las implicaciones sociales negativas”, afirma. Las empresas tecnológicas están “decididas a crear una IA impulsada por el lucro y no necesariamente por la ética o la ley”.
Añade: “Si desatas la tecnología, cosechas el caos de la discordia social y el daño que causa”.
Grossman también ha tenido experiencia personal con la manipulación no deseada de imágenes, hace unos años, cuando alguien tomó un anuncio de sus servicios legales e hizo una versión maliciosa del mismo.
Más recientemente, tomó el asunto en sus propias manos, por así decirlo. Durante una charla organizada por la Asociación de Abogados de Estados Unidos, encontró imágenes en línea de uno de los otros oradores, un juez federal muy conocido, y les hizo dos modificaciones deepfake.
“Uno no fue muy bueno”, admite, “pero me llevó dos minutos”.
Luego fue a un sitio web de clonación de voz y copió su propia voz, bastante única, al estilo neoyorquino, y luego hizo que dijera cosas insultantes sobre sus compañeros de oradores. “Sería muy difícil decir que no fui yo”, dice. “Me quedé atónita de cómo se puede hacer esto en dos minutos y gratis”.
Tsai ve cierta esperanza, en particular en algunas de las regulaciones que se están implementando en la Unión Europea, que exigen mayor transparencia y responsabilidad a las empresas de tecnología.
“Es un buen modelo para que lo sigan Canadá y Estados Unidos, pero el problema ahora es que los caballos ya están fuera del establo y ahora vamos a ver qué tipo de barro lanzan al aire mientras pisotean nuestras normas sociales”.
La recomendación de Tsai es, en términos generales, más de todo. Más regulación voluntaria por parte de las grandes empresas tecnológicas, como los compromisos asumidos por Google, Microsoft, Meta y otras el verano pasado durante una reunión en la Casa Blanca.
“Se necesitan multas masivas contra las plataformas”, continúa. “Es necesario contar con regímenes regulatorios establecidos. Aumentar las sanciones. Todavía no hemos llegado a ese punto”.
Y teme que no lo lograremos pronto. Fuera de la nueva legislación de Columbia Británica, los canadienses que buscan reparación por imágenes compartidas en línea sin su consentimiento pueden recurrir a leyes más antiguas contra la difamación o lo que se denomina el agravio por apropiación indebida de la personalidad.
“Pero al final del día es muy caro, muy estresante y requiere mucho tiempo presentar esas demandas”, dice. “La persona común puede simplemente darse por vencida. La desafortunada realidad es que necesitamos ver que suceda algo serio antes de que un político se lo tome en serio”.