Incidentes Asociados

Todo el mundo se lo está pasando en grande introduciendo indicaciones escandalosas en el DALL-E Mini viral generador de imágenes, pero como con toda inteligencia artificial, es difícil acabar con los [casos extremos feos y prejuiciosos] (https://futurism.com/delphi-ai-ethics-racist).
Lanzado por el artista de IA y programador Boris Dayma, el generador de imágenes DALL-E Mini tiene una advertencia justo debajo de que sus resultados pueden "reforzar o exacerbar los sesgos sociales" porque "el modelo se entrenó con datos sin filtrar de Internet" y bien podría "generar imágenes que contengan estereotipos contra grupos minoritarios".
Así que decidimos ponerlo a prueba. Usando una serie de indicaciones que van desde terminología racista anticuada hasta entradas de una sola palabra, Futurism descubrió que DALL-E Mini a menudo produce imágenes estereotipadas o abiertamente racistas.
Le ahorraremos ejemplos específicos, pero las indicaciones que usaban calumnias y terminología supremacista blanca arrojaron algunos resultados alarmantes. No dudó en inventar imágenes de cruces en llamas o mítines del Ku Klux Klan. "Caricatura racista de ___" fue una forma confiable de hacer que el algoritmo reforzara los estereotipos hirientes. Incluso cuando se le solicitó el nombre musulmán de un reportero de futurismo, la IA hizo suposiciones sobre su identidad.
Muchos otros resultados, sin embargo, fueron simplemente extraños.
Tomemos, por ejemplo, lo que se le ocurrió al generador para el término "racismo": un montón de imágenes similares a pinturas de lo que parecen ser rostros negros, por alguna razón.
Los resultados problemáticos tampoco terminan en representar a las minorías bajo una luz negativa o estereotipada. También puede reflejar simplemente las desigualdades actuales reflejadas en sus datos de entrenamiento.
Como lo vio Dr. Tyler Berzin, de la Escuela de Medicina de Harvard, señaló, por ejemplo, ingresar el término "un gastroenterólogo" en el algoritmo parece mostrar exclusivamente médicos hombres blancos.
Obtuvimos resultados casi idénticos. ¿Y para "enfermera"? Todas las mujeres.
También se mostraron otros sesgos sutiles en medio de varias indicaciones, como las caras completamente de piel clara para los términos "chica inteligente" y "buena persona".
Todo subraya una tensión extraña y cada vez más apremiante en el corazón de la tecnología de aprendizaje automático.
Los investigadores han descubierto cómo entrenar una red neuronal, utilizando una gran cantidad de datos, para producir resultados increíbles, incluido, vale la pena señalar, [DALL-E 2 de OpenAI] (https://futurism.com/the-byte/ openai-dall-e2-realistic-images-descriptions), que aún no es público pero que supera por completo las capacidades de DALL-E Mini.
Pero una y otra vez, vemos que estos algoritmos detectan sesgos ocultos en los datos de entrenamiento, lo que da como resultado resultados tecnológicamente impresionantes pero que reproducen los prejuicios más oscuros de la población humana.
En otras palabras, hemos creado la IA a nuestra propia imagen y los resultados pueden ser feos. También es un problema increíblemente difícil de resolver, sobre todo porque incluso las mentes más brillantes en la investigación del aprendizaje automático [a menudo tienen dificultades para comprender] (https://www.technologyreview.com/2017/04/11/5113/the-dark- secret-at-the-heart-of-ai/) exactamente cómo funcionan los algoritmos más avanzados.
Es posible, sin duda, que un proyecto como DALL-E Mini pueda modificarse para bloquear indicaciones obviamente dañinas o que pueda desincentivar a los usuarios para obtener resultados desagradables o incorrectos.
Pero en un sentido más amplio, es abrumadoramente probable que veamos muchos usos más impresionantes, divertidos o impactantes del aprendizaje automático que, examinados más de cerca, encarnan lo peor de la sociedad.