Incidentes Asociados

Los algoritmos de inteligencia artificial utilizados por Google Docs para sugerir ediciones para hacer que la escritura sea más inclusiva han sido criticados por ser molestos.
Los modelos de idioma se utilizan en Google Docs para funciones como Smart Compose; sugiere palabras para autocompletar oraciones a medida que el usuario escribe. The Chocolate Factory ahora quiere ir más allá y está implementando la "escritura asistida", otro sistema impulsado por inteligencia artificial diseñado para ayudar a las personas a escribir documentos más impactantes más rápidamente.
La escritura asistida se está introduciendo para los usuarios empresariales y la función está activada de forma predeterminada. No todos son fanáticos de ser guiados por el algoritmo, y algunas personas encuentran irritante su capacidad de "lenguaje inclusivo", informó Vice.
Palabras como "policías" podrían hacer que el modelo sugiera que se cambie a algo más neutral como "oficiales de policía". Eso es comprensible, pero puede ser un poco ridículo. Por ejemplo, propuso reemplazar la palabra "arrendador" por "dueño de la propiedad" o "propietario". Tampoco le gustan las malas palabras como descubrió un escritor.
"La escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunican las personas. Esto también significa que pueden reflejar algunos sesgos cognitivos humanos", dijo a Vice un portavoz de Google. "Nuestra tecnología siempre está mejorando, y aún no tenemos (y es posible que nunca) tengamos una solución completa para identificar y mitigar todas las asociaciones de palabras no deseadas y sesgos".
La equidad en la IA es complicada
A medida que los expertos se esfuerzan por crear el santo grial de un sistema inteligente perfecto e imparcial, la equidad en los modelos de aprendizaje automático está demostrando ser algo difícil de medir y mejorar.
¿Por qué? Bueno, para empezar, aparentemente hay 21 definiciones de equidad en el mundo académico. La justicia significa diferentes cosas para diferentes grupos de personas. Lo que podría considerarse justo en informática puede no coincidir con lo que se considera justo en, por ejemplo, las ciencias sociales o el derecho.
Todo esto ha llevado a una pesadilla para el campo de la IA, dijo a Vox John Basl, un filósofo que trabaja en la Universidad Northeastern de EE. UU., y agregó: "Actualmente estamos en un período de crisis, en el que carecemos de la capacidad ética para resolver este problema." Tratar de corregir la equidad es difícil, no solo porque las personas no pueden ponerse de acuerdo sobre el significado del término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra.
No siempre es tan simple como asegurarse de que los desarrolladores se capaciten en un conjunto de datos representativo más diverso. A veces, los impactos de un algoritmo son diferentes para diferentes grupos sociales. Aunque existe una regulación en algunos casos de uso, como los algoritmos financieros, no existe una solución fácil para que estos modelos sean justos.
IBM: La ética es un obstáculo importante para las empresas que adoptan tecnología de IA
El CEO de IBM, Arvind Krishna, ha ascendido de rango, trabajando durante 30 años para liderar IBM. Ha sido testigo de auges y caídas en la industria de la tecnología y dijo que, aunque la IA es el futuro, tiene cuidado al implementar sus vastas capacidades en el mundo real. Ah, sí, será por eso que Watson no se dio cuenta del todo.
"Probablemente solo somos el 10 por ciento del viaje en [inteligencia artificial]", dijo en una entrevista con el Wall Street Journal. "Con la cantidad de datos actual, sabemos que no hay forma de que nosotros, como seres humanos, podamos procesarlos todos. Las técnicas como el análisis y las bases de datos tradicionales solo pueden llegar hasta cierto punto".
"La única técnica que conocemos que puede obtener información de los datos es la inteligencia artificial. El consumidor la ha adoptado primero. El mayor impacto se producirá a medida que las empresas la adopten". Pero Krisha admitió que las empresas enfrentan obstáculos relacionados con los modelos de aprendizaje automático que a menudo están sesgados o que la tecnología se usa de manera injusta.
"Tenemos algunos problemas. Tenemos que resolver la ética. Tenemos que asegurarnos de que todos los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, van a crear un monstruo. Soy muy optimista de que si prestamos atención, podemos resolver todos esos problemas", dijo.