Incidentes Asociados

En diciembre, nuestros feeds comenzaron a inundarse con imágenes generadas por IA de nuestros amigos. Gracias a la aplicación Lensa AI. Rápidamente se convirtió en la mejor aplicación de fotos en la [tienda de aplicaciones] de Apple (https://www.theskimm.com/wellness/8-apps-thatll-make-you-happier) — un análisis encontró que más de 20 millones de personas tienen ya lo descargué. Pero algunas personas sienten que las [fotos] (https://www.theskimm.com/parenting/posting-pictures-kids-online) no representan a las personas con precisión. De manera problemática. Específicamente porque el generador de imágenes de IA parece estar usando estereotipos racistas y sexistas.
Todo esto trae a colación un lado oscuro de la tecnología de IA. Para llegar al fondo de la controversia en torno a estas imágenes, nuestro equipo de podcast "Skimm This" se reunió con [Ina Fried](https:// www.axios.com/authors/ina), corresponsal jefe de tecnología de Axios, sobre las imágenes de IA que arrasan en las redes sociales.
¿Cómo funciona un generador de imágenes de IA?
Usaremos la aplicación Lensa AI como nuestro ejemplo principal aquí. Después de cargar selfies y pagar una tarifa de servicio de $4, la aplicación genera docenas de imágenes artísticas en diferentes estilos y entornos, con usted como estrella. Glamuroso, ¿verdad?
Pero ha habido preguntas sobre las imágenes que los usuarios están recuperando. Además de las preocupaciones sobre las imágenes generadas por IA con material robado a los artistas, las personas han compartido que sus avatares tienen [pechos más grandes y cinturas más delgadas] (https://twitter.com/TaylorLorenz/status/1599515902558744576?ref_src=twsrc% 5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1599516605163409409%7Ctwgr%5E096d2c6f4d9d8ab75fb0b0f5061752225cb1cd11%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fcdn.embedly.com%2Fwidgets%2Fmedia.html%3Ftype%3Dtext2Fhtmlkey%3Da19fcc184b9711e1b4764040d3dc5c07schema%3Dtwitterurl%3Dhttps3A%2F%2Ftwitter. com%2Fbrooke%2Fstatus%2F1599516605163409409image%3Dhttps3A%2F%2Fi.embed.ly%2F1%2Fimage3Furl3Dhttps253A252F252Fabs.twimg.com252Ferrors252Flogo46x38.png26key3Da19fcc184b9711e1b4764040d3dc5c07), according to [The New York Times.](https://www.nytimes.com/2022 /12/07/style/lensa-ai-selfies.html) Algunos incluso dijeron que la aplicación generó [fotos de ellos desnudos] (https://www.businessinsider.com/lensa-ai-photo-app-generating-nsfw- imágenes-sin-indicaciones-2022-12). Y algunos usuarios negros descubrieron que la aplicación [aclaraba su piel] (https://twitter.com/feministnoire/status/1599318086242689024).
Fried dice que no debería sorprendernos que la aplicación genere este tipo de imágenes. “Comienza desde el momento en que haces clic en ese botón que dice mujer, hombre u otro”, dijo. "Ahora está haciendo un montón de suposiciones [de género] (https://www.theskimm.com/wellness/gender-euphoria)".
Fried también señala que estas suposiciones provienen de [sesgos] humanos (https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai). “Tenemos sesgo en nuestra sociedad, por lo que los datos que entrenan estos sistemas tienen sesgo”, dijo. “Tenemos que corregir ambas cosas”.
Pero ahora, con esta última tendencia, esa conversación ha llegado a un público más amplio. Lo que Fried dice que es algo bueno. "Es realmente importante ahora... cuando todavía estamos hablando de cosas relativamente triviales como un editor de fotos, que entendamos el sesgo", dijo. “Que realmente aprendamos a comprender por qué los sistemas toman estas decisiones y las corrigen”.
Tal vez pase las imágenes generadas por IA. ¿Algo más que pueda hacer?
[Destaque el sesgo] (https://www.theskimm.com/news/how-to-have-uncomfortable-conversations-about-race), dijo Fried. Porque la tecnología de inteligencia artificial tiene [tantas aplicaciones diferentes] (https://www.brookings.edu/research/how-artificial-intelligence-is-transforming-the-world/), desde aplicaciones de fotografía como Lensa [hasta el sistema de fianza] (https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/). “Creo que es realmente importante que animemos a las personas que dicen: ‘Oye, esto aclaró mi piel. Esto me puso en una descripción estereotipada’. Estamos en la infancia de la IA en la que podemos decir, esto está bien y esto no está bien”, dijo Fried.
Si tienes curiosidad y quieres ver tu avatar, Fried dice que hay formas en que podemos usar la tecnología de inteligencia artificial de una manera más inteligente y segura. “Investigue un poco sobre la política de privacidad” para averiguar qué puede hacer una empresa con sus fotos, dijo. En algunos casos, pueden usarse para entrenar un algoritmo de reconocimiento facial. “Entonces, a veces no te está haciendo nada malo individualmente, pero podría estar haciendo algo colectivo con lo que no estás de acuerdo”, dijo.
el Skimm
La tecnología de inteligencia artificial está creciendo rápidamente, en más áreas de nuestras vidas de las que nos damos cuenta. Y al igual que la sociedad, lamentablemente está inundada de todo tipo de prejuicios. Lo cual puede perpetuar estereotipos racistas y sexistas. No hay sombra para aquellos que ya probaron la aplicación o que aún planean hacerlo. Pero tal vez eche un vistazo más de cerca a las imágenes que genera la aplicación antes de compartirlas.