Incidentes Asociados
Los investigadores de inteligencia artificial dijeron el viernes que han eliminado más de 2.000 enlaces web a imágenes sospechosas de abuso sexual infantil de un conjunto de datos utilizado para entrenar herramientas populares de generación de imágenes de IA.
El conjunto de datos de investigación LAION es un enorme índice de imágenes y subtítulos en línea que ha sido una fuente para los principales creadores de imágenes de IA como Stable Diffusion y Midjourney.
Pero un informe del año pasado del Stanford Internet Observatory encontró que contenía enlaces a imágenes sexualmente explícitas de niños, lo que contribuye a la facilidad con la que algunas herramientas de IA han podido producir deepfakes fotorrealistas que representan a niños.
Ese informe de diciembre llevó a LAION, que significa la red abierta de inteligencia artificial a gran escala sin fines de lucro, a eliminar inmediatamente su conjunto de datos. Ocho meses después, LAION dijo en una publicación de blog que trabajó con el grupo de vigilancia de la Universidad de Stanford y organizaciones contra el abuso en Canadá y el Reino Unido para solucionar el problema y publicar un conjunto de datos limpio para futuras investigaciones de IA.
El investigador de Stanford David Thiel, autor del informe de diciembre, elogió a LAION por las mejoras significativas, pero dijo que el próximo paso es retirar de la distribución los "modelos contaminados" que aún pueden producir imágenes de abuso infantil.
Una de las herramientas basadas en LAION que Stanford identificó como el "modelo más popular para generar imágenes explícitas" --- una versión más antigua y ligeramente filtrada de Stable Diffusion --- permaneció fácilmente accesible hasta el jueves, cuando la empresa Runway ML con sede en Nueva York la eliminó del repositorio de modelos de IA Hugging Face. Runway dijo en un comunicado el viernes que era una "desutilización planificada de modelos de investigación y código que no se han mantenido activamente".
La versión limpiada del conjunto de datos de LAION llega en un momento en que los gobiernos de todo el mundo están analizando más de cerca cómo se están utilizando algunas herramientas tecnológicas para crear o distribuir imágenes ilegales de niños.
A principios de este mes, el fiscal de la ciudad de San Francisco presentó una demanda que busca cerrar un grupo de sitios web que permiten la creación de desnudos de mujeres y niñas generados por inteligencia artificial. La supuesta distribución de imágenes de abuso sexual infantil en la aplicación de mensajería Telegram es parte de lo que llevó a las autoridades francesas a presentar cargos el miércoles contra el fundador y director ejecutivo de la plataforma, Pavel Durov.
El arresto de Durov "señala un cambio realmente grande en toda la industria tecnológica, ya que los fundadores de estas plataformas pueden ser considerados personalmente responsables", dijo David Evan Harris, un investigador de la Universidad de California, Berkeley, que recientemente se puso en contacto con Runway para preguntar por qué el problemático generador de imágenes de IA todavía era accesible al público. Fue eliminado días después.