Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1579

Incidentes Asociados

Incidente 1836 Reportes
Airbnb's Trustworthiness Algorithm Allegedly Banned Users without Explanation, and Discriminated against Sex Workers

Loading...
¿Prohibido de Airbnb sin explicación? Este es el por qué
au.finance.yahoo.com · 2022

Airbnb puede estar investigando las publicaciones antiguas de los usuarios en las redes sociales para mantener a las personas que considera poco confiables fuera del sitio.

Si al algoritmo que usa no le gusta lo que ve, parece que los usuarios pueden ser rechazados sin explicación.

Eso fue lo que le pasó a Renae Macheda.

Macheda, que trabaja en bienes raíces, se describió a sí misma y a su esposo como "personas limpias y aburridas" y se sorprendió cuando trató de reservar un Airbnb el año pasado y descubrió que la habían expulsado de la plataforma.

Cuando comenzó a hacer preguntas, no le dieron el motivo de la prohibición y le dijeron que la plataforma "revisó su caso a fondo antes de llegar a esta conclusión".

También le dijeron que no podría impugnar más la decisión.

“Creo que deberían darte una explicación”, dijo Macheda.

"No dar nada en absoluto ni opciones para tratar de remediar lo que sea, no es lo suficientemente bueno".

La información puede estar equivocada

La defensora de datos del consumidor de CHOICE, Kate Bower, dijo que era muy preocupante que las personas no tuvieran la oportunidad de verificar la precisión de la información recopilada por estas empresas.

No es difícil imaginar situaciones en las que el algoritmo pueda estar equivocado.

Por ejemplo, Bower dijo que estacionaba en el estacionamiento de una licorería todos los fines de semana para llevar a sus hijos a un café adyacente.

Para un algoritmo, podría parecer que ella va a comprar alcohol todos los domingos a las 9:00 am.

¿Qué más busca?

Es difícil saber exactamente qué está buscando el algoritmo, pero la información disponible en el software muestra que alguien con un doctorado puede considerarse más confiable que alguien con una licenciatura, por ejemplo.

“Y realmente no sabemos si eso hace que alguien sea más confiable o no”, dijo Bower.

Otras señales que el algoritmo puede estar buscando podrían ser si las personas han usado nombres falsos en línea, han estado involucradas con ciertos tipos de grupos de redes sociales o han aparecido en sitios de noticias que la plataforma considera desagradables.

CHOICE también escuchó de personas que habían sido prohibidas porque eran trabajadoras sexuales o estaban conectadas a la industria de alguna manera.

Matthew Roberts de Sex Work Law Reform Victoria dijo que prohibir a alguien de una plataforma en función de su ocupación era discriminatorio y que se necesitaban mejores protecciones.

¿Entonces Que puedo hacer?

Según Bower, es muy difícil evitar que las empresas husmeen a menos que esté preparado para desconectarse por completo.

Ella dijo que ya había una gran cantidad de datos sobre los consumidores, y que los algoritmos y las tecnologías de aprendizaje automático solo estaban mejorando para dar sentido a estos puntos de datos.

Recomendó leer las políticas de privacidad, aunque a menudo eran vagas, y no conectarse a plataformas en línea usando su cuenta de Facebook.

Bower quiere ver una regulación más estricta para "proteger a las personas porque no somos capaces de protegernos a nosotros mismos".

“El comportamiento de Airbnb destaca una importante brecha regulatoria, que permite a las empresas recopilar y utilizar datos sin transparencia ni responsabilidad”, dijo Bower.

“El gobierno federal necesita fortalecer las protecciones contra las empresas que recopilan, almacenan y utilizan datos personales confidenciales como este”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd