Incidentes Asociados

Rona Wang no es ajena al uso de la inteligencia artificial.
Wang, de 24 años, recién graduado del MIT, ha estado experimentando con la variedad de nuevos lenguajes de inteligencia artificial y herramientas de imágenes que han surgido en los últimos años, y está intrigado por las formas en que a menudo pueden hacer las cosas mal. Incluso ha escrito sobre su ambivalencia hacia la tecnología [en el sitio web de la escuela] (https://mitadmissions.org/blogs/entry/how-i-feel-about-ai-generated-art/).
Últimamente, Wang ha estado creando fotos suyas de perfil en LinkedIn con generadores de retratos de IA y ha recibido algunos resultados extraños como imágenes de ella misma con los dedos desarticulados. y rasgos faciales distorsionados.
Pero la semana pasada, el resultado que obtuvo usando la herramienta de una startup se destacó del resto.
El viernes, Wang subió una foto de ella sonriendo y usando una sudadera roja del MIT a un creador de imágenes llamado Playground AI, y le pidió que convirtiera la imagen en “una foto de perfil profesional de LinkedIn”. .”
En solo unos segundos, produjo una imagen casi idéntica a su selfie original, excepto que la apariencia de Wang había cambiado. Hizo que su tez pareciera más clara y sus ojos azules, “rasgos que me hacían parecer caucásica”, dijo.
"Pensé: 'Vaya, ¿esto cree que debería volverme blanco para ser más profesional?'", dijo Wang, que es asiático-estadounidense.
La foto, que ganó fuerza en línea después de que Wang la compartiera en Twitter, generó una conversación sobre las deficiencias de las herramientas de inteligencia artificial en lo que respecta a la raza. Incluso llamó la atención del fundador de la empresa, quien dijo que esperaba resolver el problema.
Ahora, cree que su experiencia con la IA podría ser una advertencia para otras personas que utilizan tecnología similar o siguen carreras en este campo.
El tweet viral de Wang se produjo en medio de una tendencia de TikTok reciente en la que las personas han estado usando productos de inteligencia artificial para mejorar sus fotos de perfil de LinkedIn, creando imágenes que Póngalos con vestimenta profesional y ambientes corporativos con buena iluminación.
Wang admite que, cuando intentó utilizar esta IA en particular, al principio tuvo que reírse de los resultados.
"Fue algo divertido", dijo.
Pero también habló de un problema que ha visto repetidamente con las herramientas de inteligencia artificial, que a veces pueden producir resultados preocupantes cuando los usuarios experimentan con ellas.
Para ser claros, dijo Wang, eso no significa que la tecnología de inteligencia artificial sea maliciosa.
"Es un poco ofensivo", dijo, "pero al mismo tiempo no quiero sacar conclusiones precipitadas de que esta IA debe ser racista".
Los expertos han dicho que la IA puede existir un sesgo bajo la superficie, un fenómeno que ha sido observado durante años . Es posible que la gran cantidad de datos utilizados para generar resultados no siempre refleje con precisión varios grupos raciales y étnicos, o que reproduzcan prejuicios raciales existentes, dijeron.
Una investigación, incluso en el MIT, ha encontrado el llamado sesgo de IA en modelos de lenguaje que [asocian ciertos géneros con ciertas carreras](https://news.mit.edu/2023/large-language-models-are-biased-can- logic-help-save-them-0303), o en descuidos que provocan que las herramientas de reconocimiento facial [funcionen mal para personas con piel oscura](https://www.media.mit.edu/posts/how-i-m-fighting-bias -en-algoritmos/).
Wang, que obtuvo una doble especialización en matemáticas e informática y regresará al MIT en el otoño para realizar un programa de posgrado, dijo que su foto ampliamente compartida puede haber sido solo un problema pasajero, y es posible que el programa haya generado aleatoriamente los rasgos faciales de una mujer blanca. . O, dijo, puede haber sido entrenado usando un lote de fotografías en las que la mayoría de las personas representadas en LinkedIn o en escenas "profesionales" eran blancas.
Le ha hecho pensar en las posibles consecuencias de un paso en falso similar en un escenario de mayor riesgo, como si una empresa utilizara una herramienta de inteligencia artificial para seleccionar a los candidatos más "profesionales" para un puesto, y si se inclinaría por personas que parecían blancas. .
"Definitivamente creo que es un problema", dijo Wang. "Espero que las personas que crean software sean conscientes de estos sesgos y piensen en formas de mitigarlos".
Los responsables del programa no tardaron en responder.
Apenas dos horas después de que tuiteara su foto, el fundador de Playground AI, Suhail Doshi, respondió directamente a Wang en Twitter.
“Los modelos no se pueden instruir de esa manera, por lo que seleccionarán cualquier elemento genérico según el mensaje. Desafortunadamente, no son lo suficientemente inteligentes”, escribió en respuesta al tweet de Wang.
"Encantado de ayudarle a obtener un resultado, pero requiere un poco más de esfuerzo que algo como ChatGPT", agregó, refiriéndose al popular [AI chatbot](https://www.bostonglobe.com/2023/07/10/business /chatbot-how-to-guide/) que produce grandes lotes de texto en segundos con comandos simples. "[Por lo que vale], estamos bastante disgustados con esto y esperamos resolverlo".
En tweets adicionales, Doshi dijo que Playground AI no "admite el caso de uso de avatares fotográficos de IA" y que "definitivamente no puede preservar la identidad de una cara y rediseñarla o adaptarla a otra escena como" Wang había esperado.
Contactado por correo electrónico, Doshi se negó a ser entrevistado.
En cambio, respondió a una lista de preguntas con una pregunta propia: “Si tiro un dado solo una vez y obtengo el número 1, ¿eso significa que siempre obtendré el número uno? ¿Debo concluir, basándome en una sola observación, que el dado está sesgado hacia el número 1 y que fue entrenado para estar predispuesto a tirar un 1?
Wang dijo que espera que su experiencia sirva como recordatorio de que, aunque las herramientas de inteligencia artificial se están volviendo cada vez m ás populares, sería prudente que las personas tuvieran cuidado al usarlas.
"Existe una cultura en la que algunas personas realmente confían mucho en la IA y dependen de ella", dijo. "Por eso creo que es genial hacer que la gente piense en esto, especialmente aquellos que podrían haber pensado que el sesgo de la IA era cosa del pasado".