Incidentes Asociados

Airbnb puede estar utilizando la toma de decisiones automatizada para expulsar a los usuarios de la plataforma de alquiler a corto plazo, en función de factores como las redes sociales, el historial de empleo y su dirección IP.
El grupo de defensa del consumidor Choice criticó a Airbnb en un informe que cuestionaba la falta de transparencia en torno al uso de un "algoritmo secreto" que juzga si los usuarios son "confiables".
Según Choice, Airbnb compró la empresa de verificación de antecedentes Trooly en 2017.
Desde entonces, según los informes, ha actualizado la patente varias veces, lo que sugiere que está en uso.
En lo que respecta a la letra pequeña, Airbnb "puede realizar perfiles" utilizando sus interacciones con la plataforma, así como la información obtenida por terceros.
Su política de privacidad dice que los procesos automatizados, que analizan las actividades de los usuarios dentro y fuera de Airbnb, podrían restringir o suspender el acceso a la plataforma.
“A Choice le preocupa que las empresas estén implementando ampliamente la toma de decisiones automatizada sin informar a los consumidores sobre los riesgos, ofreciendo vías para optar por no participar o la oportunidad de revisar las decisiones”, dijo Kate Bower, defensora de datos del consumidor en Choice.
¿Puedes confiar en el 'digno de confianza'?
En términos generales, el Dr. Marc Cheong, profesor titular de sistemas de información (ética digital) en la Universidad de Melbourne, dijo que esa toma de decisiones automatizada plantea dos preocupaciones.
“El problema principal es que los afectados por este algoritmo pueden no tener la oportunidad de apelar o buscar recursos sobre las acciones tomadas por la IA”, dijo el Dr. Cheong a The New Daily.
La segunda preocupación es si el sistema está recopilando datos precisos o no.
Si tiene una máquina que rastrea todo sobre usted en línea, ¿cómo se asegura de que sea correcto?
¿Puedes confiar en el algoritmo de "confiabilidad"?
Choice habló con australianos que han sido expulsados de Airbnb, a pesar de recibir buenas críticas.
Renae Macheda, quien se describió a sí misma y a su esposo como “personas limpias y aburridas”, dijo que no recibió una explicación real de la prohibición.
“No dar nada en absoluto ni opciones para tratar de remediar lo que sea, no es lo suficientemente bueno”, dijo a Choice.
'Culpable por asociación'
¿Qué pasa con las fotos o los comentarios en los que te etiquetan en línea?
El Dr. Cheong dijo que el usuario afectado sería entonces "culpable por asociación", ya que son las actividades de las personas en su red social las que lo afectan a usted, en lugar de a ellas.
La profesora de derecho Jeannie Paterson, directora del Centro de IA y Ética Digital de la Universidad de Melbourne, dijo que la toma de decisiones algorítmica no solo es difícil de entender, sino que puede afianzar o amplificar los sesgos existentes y conducir a la discriminación.
"La idea de que se puede determinar la 'confiabilidad' a partir de la presencia de alguien en las redes sociales tiene que ser 'ciencia basura', para citar al anterior comisionado de derechos humanos Ed Santow", dijo el profesor Paterson a TND.
El caso de la reforma legal
Como explicó el profesor Paterson, Airbnb es una empresa privada.
“Puede decidir quién usa y quién no usa sus propiedades”.
Desafortunadamente, tal como existe la ley ahora, las personas que son expulsadas de la plataforma tienen muy pocas opciones.
“Te acusan erróneamente de ser interrumpido y respondes: ‘No lo soy’, pero no tienes forma de cuestionar esa decisión”, dijo el profesor Paterson.
“Esa decisión la toma un algoritmo y Airbnb no parece proporcionar un proceso para apelar eso, a diferencia de Instagram o TikTok”.
Aunque un cliente podría argumentar, aunque con dificultad, que su eliminación fue injusta, el profesor Paterson dijo que la opción más fuerte es defender la reforma legal.
“Por lo tanto, arrojar luz sobre estas prácticas es realmente importante porque, al final del día, las empresas como Airbnb prosperan gracias a su reputación y si hay una brecha en la reputación al usar este proceso injusto, podría ser un aviso para que limpien su acto. .”
El profesor Paterson dijo que las redes sociales y la economía de las plataformas son parte de nuestras vidas ahora, por lo que es importante que las empresas, y no solo Airbnb utiliza la toma de decisiones automatizada, reconozcan que necesitan una buena gobernanza.
Algo optimista, el Dr. Cheong dijo que el uso responsable de la IA debe tener, como mínimo, marcos de supervisión y auditoría humanos para restaurar la confianza.
Debe haber un proceso claro y transparente para impugnar las decisiones que afectan a las personas.
Airbnb no respondió a la solicitud de comentarios de The New Daily a tiempo para su publicación.