Problema 2663
Las plataformas Inteligencia artificial (IA) ChatGPT de OpenAI y Bard de Google tienen estado haciendo olas como la próxima gran cosa en tecnología. Sin embargo, a medida que se integran más en la vida de las personas, los sesgos que están integrados en estos sistemas se vuelven demasiado evidentes como para ignorarlos. Los sesgos pueden tener graves consecuencias para las personas y las comunidades, en particular para aquellas que históricamente han enfrentado uno u otro tipo de discriminación. Los algoritmos sesgados, por ejemplo, pueden conducir a prácticas crediticias injustas o arrestos y condenas injustas. El sesgo en la IA surge cuando los datos de entrenamiento utilizados para desarrollar modelos de aprendizaje automático reflejan discriminación sistémica, prejuicio o trato desigual en la sociedad. Esto puede conducir a sistemas de IA que refuercen los sesgos existentes y perpetúen la discriminación.
El error humano es la razón del sesgo, ya que los modelos de IA son desarrollados, entrenados y probados solo por humanos. ETtech analiza las raíces de los prejuicios en los sistemas de IA, ejemplos anteriores y cómo estos algoritmos han impactado a las personas.
ChatGPT canta alabanzas a Biden, pero no habla de Trump
A principios de este mes, un usuario de Twitter con el nombre de @LeighWolf publicó capturas de pantalla de ChatGPT en las que se le pidió a la IA chatbot que escribiera un poema sobre los atributos positivos de Donald Trump. La captura de pantalla que muestra la respuesta decía que el chatbot no está programado para producir contenido de naturaleza partidista, parcial o política. Sin embargo, cuando se le pidió que escribiera sobre los atributos positivos del presidente de EE. UU. Joe Biden, el chatbot respondió con un poema de tres estrofas alabando a Biden. “El daño hecho a la credibilidad de la IA por parte de los ingenieros de ChatGPT que construyen un sesgo político es irreparable”, decía el tuit.
El daño hecho a la credibilidad de la IA por parte de los ingenieros de ChatGPT con sesgos políticos es irreparable. https://t.co/s5fdoa8xQ6
— 🐺 (@LeighWolf) 1675250675000
El nuevo jefe de Twitter y cofundador de OpenAI, el padre de ChatGPT, Elon Musk, en una respuesta tajante, tuiteó: "Es una preocupación seria". Cuando se le pidió que escribiera un poema sobre líderes republicanos menos controvertidos, incluido el ex vicepresidente Mike Pence y el líder republicano en el Senado de los EE. UU. Mitch McConell, el chatbot escribió poemas elogiándolos. El chatbot de IA parecía haber sido programado para evitar líderes y temas controvertidos en la política estadounidense. Pero cuando se trata de la política india, ChatGPT parece estar abierto a escribir poemas que elogien a los líderes de ambos lados del espectro político.
El sesgo humano se refleja en la IA
La única forma de entrenar un sistema de IA, o cualquier modelo de aprendizaje automático, es alimentar conjuntos de datos, que incluyen puntos de datos, que son ingeridos por la IA y se utilizan para producir un resultado. Según un informe de Insider, ChatGPT se entrenó en más de 300 mil millones de palabras o alrededor de 570 GB de datos. Esto hace que sea obvio que para tener una IA que funcione bien, debe alimentarse con enormes cantidades de datos. Muchos de estos datos provienen de Internet y son producidos por humanos que tienen sus prejuicios. Así es como se introducen los prejuicios en el sistema de IA. El uso de datos antiguos e históricos para entrenar la IA también puede resultar en un sesgo regresivo, pasando por alto el progreso social. Otra razón más es la homogeneidad de la comunidad de investigación de IA, que es responsable de los sistemas libres de sesgos.
Grave consecuencia de los prejuicios
A medida que la IA se integra cada vez más en nuestras vidas, su uso por parte de las autoridades y las instituciones gubernamentales para la gobernanza necesita pautas. En los EE. UU., las autoridades están utilizando la IA para evaluar la probabilidad de que un acusado criminal se convierta en reincidente o su tendencia a cometer un delito nuevamente.
Según un estudio de 2016 de la organización sin fines de lucro Propublica, una herramienta de IA con el nombre de COMPAS ( Perfil de gestión de delincuentes correccionales para sanciones alternativas), que se utilizó para evaluar el riesgo de reincidencia en personas acusadas de un delito, estaba sesgado contra los acusados negros.
El análisis de Propublica encontró que los acusados negros, que no reincidieron durante un período de dos años, tenían casi el doble de probabilidades de ser clasificados erróneamente como de mayor riesgo en comparación con sus homólogos blancos (45 % frente a 23 %). Investigadores de la Universidad John Hopkins y el Instituto de Tecnología de Georgia entrenaron robots en visión por computadora, utilizando una red neuronal llamada CLIP. Luego pidieron a los robots que escanearan imágenes de rostros de personas.
Los resultados mostraron que los robots clasificaron a los hombres negros como delincuentes un 10 % más que los hombres blancos, los hombres latinos como conserjes sobre los hombres blancos un 10 % más frecuentemente, y tendía a clasificar a las mujeres como amas de casa con más frecuencia que a los hombres blancos.
Otros estudios realizados por investigadores de la Universidad de Washington y Harvard encontraron que el mismo modelo también tenía una tendencia a categorizar personas de razas mixtas como minorías, incluso si también tienen las características de la población blanca.
El modelo también usó a los blancos como estándar, y el estudio encontró que "otros grupos raciales y étnicos" estaban "definidos por su desviación" del estándar blanco.
La regulación de la IA es la necesidad del momento
La IA y su impacto en la vida de las personas solo crecerá en el futuro. Cada vez más aspectos de nuestras vidas se integrarán con IA y afectarán directamente la forma en que vivimos. Sin una regulación y supervisión adecuadas, la IA tiene el potencial de causar mucho daño. Los algoritmos de IA sesgados, si se usan en los campos de aplicación de la ley y atención médica, por ejemplo, pueden tener graves consecuencias. Para mitigar los riesgos del sesgo de la IA, es importante contar con normas estrictas que aseguren que los algoritmos de la IA se prueben y validen, y que estén libres de discriminación. Es vital garantizar que la IA se utilice de manera ética y se desarrolle de una manera que promueva la seguridad y la protección sin discriminación.