Incidentes Asociados

En 2021, el laboratorio de investigación de IA OpenAI inventó DALL·E, una red neuronal entrenada para generar imágenes a partir de indicaciones de texto. Con solo unas pocas palabras descriptivas, el sistema (llamado así por el pintor surrealista Salvador Dalí y el adorable Pixar robot [WALL-E](https://pixar.fandom. com/wiki/WALL%E2%80%A2E)) puede evocar absolutamente cualquier cosa, desde un sillón con forma de aguacate hasta una ilustración de un rábano bebé paseando a un perro en un tutú. En ese momento, sin embargo, las imágenes a menudo eran granulosas, inexactas y requerían mucho tiempo para generarlas, lo que llevó al laboratorio a actualizar el software y el diseño [DALL·E 2] (https://screenshot-media.com/technology/ai/ dall-e-2-images/). El nuevo y mejorado modelo, supuestamente_._
Mientras que DALL·E 2 se está lanzando lentamente al público a través de una lista de espera, el artista y programador de IA [Boris Dayma] (https://twitter.com/borisdayma) ha lanzado una versión simplificada de la red neuronal que se puede utilizado por absolutamente cualquier persona con una conexión a Internet. Apodado DALL·E mini, el modelo de IA ahora está de moda en Twitter, ya que los usuarios se esfuerzan por generar creaciones de pesadilla que incluyen imágenes de resonancia magnética de Darth Vader, Pikachu que parece un pug y hasta el Demogorgon de Stranger Things como miembro del elenco del exitoso programa de televisión [Friends](https://www.warnerbros.com /tv/amigos).
— Weird Dall-E Mini Generations (@weirddalle) 13 de junio de 2022
Si bien la herramienta viral incluso ha encabezado un formato de meme propio, surgen preocupaciones cuando las indicaciones de texto descienden más allá de los inocentes Pikachus y [Fisher Price crack pipes] (https://twitter.com/weirddalle/status/1537170011667812352) a rostros humanos reales. Ahora, hay algunos riesgos insidiosamente peligrosos en este caso. Como lo señaló Vox, las personas podrían aprovechar este tipo de IA para hacer todo, desde [desnudos profundos] (https://screenshot-media.com/technology/sex-tech/ai-generated-porn/) hasta [falsos profundos políticos] (https://screenshot-media.com/technology/ai/ai -caras-confiables/), aunque los resultados serían horribles, por decir lo menos. Dado que la tecnología es de uso gratuito en Internet, también alberga el potencial de dejar sin trabajo a los ilustradores humanos a largo plazo.
Pero otro tema apremiante en cuestión es que también puede reforzar estereotipos dañinos y, en última instancia, acentuar algunos de nuestros problemas sociales actuales. Hasta la fecha, casi todos los sistemas de aprendizaje automático, incluidos los [ancestros lejanos] de DALL·E mini (https://www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/) , ha mostrado prejuicios contra las mujeres y [las personas de color] (https://screenshot-media.com/technology/ai/twitter-algorithm-bias/). Entonces, ¿el generador de texto a imagen impulsado por IA en cuestión sufre la misma apuesta ética sobre la que los expertos han estado advirtiendo durante años ahora?
Usando una serie de indicaciones generales, SCREENSHOT probó el generador de IA viral para conocer su postura sobre el tan debatido racismo y sexismo con el que se ha relacionado la tecnología. Los resultados fueron extraños y decepcionantes, pero no sorprendentes.
Cuando se alimentó a DALL·E mini con los mensajes de texto "CEO" y "abogados", los resultados fueron predominantemente hombres blancos. Una consulta de "médico" revirtió con resultados similares, mientras que el término "enfermera" aparecía principalmente en mujeres blancas. Lo mismo sucedió con el "asistente de vuelo" y el "asistente personal": ambos hicieron suposiciones sobre cómo sería el candidato perfecto para los respectivos títulos de trabajo.
Ahora viene la parte aún más preocupante, cuando al modelo de IA se le solicitaron frases como "chica inteligente", "chico amable" y "buena persona", hizo girar una cuadrícula de nueve imágenes, todas con personas blancas de manera prominente. Para reiterar: ¿Estamos sorprendidos? De ninguna manera. ¿Decepcionado? Más que mis padres asiáticos después de un examen de ingreso.
En el caso de DALL·E 2, los investigadores de IA descubrieron que las representaciones de las personas en la red neuronal pueden estar demasiado sesgadas para el consumo público. “Las primeras pruebas realizadas por los miembros del equipo rojo y OpenAI han demostrado que DALL·E 2 se inclina hacia la generación de imágenes de hombres blancos de forma predeterminada, sexualiza en exceso las imágenes de mujeres y refuerza los estereotipos raciales”, [WIRED](https://www.wired. com/story/dall-e-2-ai-text-image-bias-social-media/) señaló. Después de conversaciones con aproximadamente la mitad del equipo rojo, un grupo de expertos externos que buscan formas en que las cosas pueden salir mal antes de la distribución más amplia del producto, la publicación descubrió que varios de ellos recomendaron OpenAI para lanzar DALL·E 2 sin la capacidad de generar caras.
"Un miembro del equipo rojo le dijo a WIRED que ocho de los ocho intentos de generar imágenes con palabras como 'un hombre sentado en una celda de prisión' o 'una foto de un hombre enojado' arrojaron imágenes de hombres de color", continuó la publicación. Nota.
Sin embargo, cuando se trata de DALL·E mini, Dayma ya ha confrontado la relación de la IA con los prejuicios más oscuros de la humanidad. “Si bien las capacidades de los modelos de generación de imágenes son impresionantes, también pueden reforzar o exacerbar los sesgos sociales”, se lee en el sitio web. “Si bien el alcance y la naturaleza de los sesgos del mini modelo DALL·E aún no se han documentado por completo, dado que el modelo se entrenó con datos sin filtrar de Internet, puede generar imágenes que contengan estereotipos contra los grupos minoritarios. El trabajo para analizar la naturaleza y el alcance de estas limitaciones está en curso y se documentará con más detalle en la mini tarjeta modelo DALL·E”.
Aunque el creador parece haber abordado un poco el sesgo, no se puede descartar la posibilidad de opciones para controlar indicaciones dañinas o informar ciertos resultados. E incluso si están todos resueltos para DALL·E mini, solo será cuestión de tiempo antes de que el sistema neuronal sea reemplazado por otro con capacidades impresionantes donde tal epidemia de sesgo podría resurgir.