Incidentes Asociados

En noviembre, la SPCA de San Francisco desplegó un robot de 5 pies de altura y 400 libras para patrullar su campus. No por músculo, eso sí, sino por vigilancia. La SPCA, un gran complejo ubicado en la esquina noreste del vecindario Mission de la ciudad, ha lidiado durante mucho tiempo con vandalismo, robos y agujas desechadas en los estacionamientos circundantes. Temiendo por la seguridad de su personal, la Sociedad Protectora de Animales pensó que el robot podría funcionar como elemento disuasorio, una especie de ayudante de su equipo de seguridad humana.
El robot provino de una startup de Silicon Valley llamada Knightscope, cuya creciente familia de máquinas de seguridad funciona como versiones más lentas y disciplinarias de los autos autónomos. SPCA usó su robot K5, que es bueno para uso en exteriores. Su primo reducido K3 está diseñado para interiores, mientras que el K1 es un pilar estacionario que pronto monitoreará cosas como las entradas de los edificios. Y el K7, un robot de cuatro ruedas destinado a patrullar los perímetros de los aeropuertos y demás, será beta el próximo año. La empresa tiene la misión de dar un mordisco al crimen aumentando los guardias de seguridad humanos con máquinas. El camino allí, sin embargo, está plagado de trampas éticas.
El K5, junto con casi otros 50 robots Knightscope en 13 estados, ve su mundo cubriéndolo con láseres, patrullando de forma autónoma su dominio mientras toma videos de 360 grados. En una sala de control en el sitio, un guardia de seguridad humano monitorea esta transmisión en busca de anomalías. Knightscope dice que K5 puede leer 1.200 placas de matrícula por minuto para, por ejemplo, seleccionar autos que han estado estacionados por una cantidad excesiva de tiempo. Si te interpones en el camino del robot, dice disculpa. En caso de emergencia, el guardia de seguridad puede hablar a través del robot para alertar a los humanos cercanos. El robot de la SPCA patrulló tanto su campus como las aceras circundantes mientras emitía un gemido futurista, funcionaba como una cámara móvil para disuadir teóricamente el crimen.
Ninguna de estas máquinas está equipada con tasers o lanzallamas ni nada por el estilo. “Esto no es para hacer cumplir la ley”, dice William Santana Li, presidente y director ejecutivo de Knightscope. “Es para monitorear y dar una comprensión de la situación para que esos humanos hagan su trabajo de manera mucho más efectiva”. Nuevamente, el robot de SPCA no estaba destinado a reemplazar a los humanos, sino a complementarlos.
"Muy simple", agrega Li, "si pongo un vehículo policial marcado frente a su casa u oficina, el comportamiento criminal cambia".
Resulta que también lo hace otro comportamiento. Después de que el Knightscope de la Sociedad Protectora de Animales se pusiera en marcha en su ruta, los residentes sin hogar se pusieron manos a la obra. Un grupo de personas que instalaron un campamento supuestamente arrojó una lona sobre el robot, lo derribaron y [untaron salsa BBQ en sus sensores](https://www.bizjournals.com/sanfrancisco/news/2017/12/08/security- robot-sin-hogar-spca-mission-san-francisco.html).
Ahora, en este punto, probablemente no retrocedas cuando veas una cámara de seguridad y le arrojes piedras; para bien o para mal, todos estamos bajo vigilancia en público. Pero el K5 simplemente se siente diferente y provoca reacciones diferentes. En un centro comercial, el robot parece modesto, incluso vagamente entrañable. Los niños corren y lo abrazan. Pero al aire libre, es una encarnación itinerante de vigilancia, que graba videos de todo lo que lo rodea. Lo cual es particularmente inquietante para las personas que hacen del aire libre su hogar.
“Tenga en cuenta que este concepto de privacidad en un área pública es un poco extraño”, dice Li. “No tienes expectativas de privacidad en un área pública donde todas estas máquinas están funcionando”.
Aún así, una cámara en una pared es una cosa. Una cámara gigante que deambula por las calles de San Francisco es otra. “Cuando vives al aire libre, la falta de privacidad es realmente deshumanizante después de un tiempo, donde los ojos del público siempre están puestos en ti”, dice Jennifer Friedenbach, directora ejecutiva de la Coalición de personas sin hogar de San Francisco. “Es realmente un alivio cuando llega la noche, cuando puedes estar sin mucha gente alrededor. Y luego está este robot deambulando grabándote”.
Después de que el San Francisco Business Times publicara un artículo sobre la Con la incursión de SPCA en la robótica de seguridad, creció la protesta pública de que la organización estaba usando el robot para recorrer las aceras alrededor de sus instalaciones para disuadir a las personas sin hogar de establecerse. La SF SPCA niega que su intención fuera contra las personas sin hogar. “SF SPCA estaba explorando el uso de un robot para evitar robos adicionales en nuestras instalaciones y para disuadir otros delitos que ocurren con frecuencia en nuestro campus, como robos de automóviles, acoso, vandalismo y graffiti, para no molestar a las personas sin hogar”. dijo la presidenta del grupo, Jennifer Scarlett, en un comunicado.
Sin embargo, el grupo [descontinuó su programa piloto](https://arstechnica.com/tech-policy/2017/12/after-outcry-non-profit-stops-use-of-security-robot-to-out-homeless /) con Knightscope la semana pasada. La implementación de robots en un centro comercial es bastante inocua, pero claramente en un caso de uso más sensible como este, los acertijos éticos de la interacción entre humanos y robots se salieron de control rápidamente.
Si cree que la ética de los robots de seguridad es turbia ahora, solo espere. Knightscope quiere mantener a los humanos informados con sus robots, pero no es difícil imaginar un día en que alguien más tenga la brillante idea de dar a otras máquinas de seguridad mucha más autonomía. Es decir, hacer que los robots impulsados por IA reconozcan rostros y busquen patrones en los delitos. Patrulle esta área preferentemente a esta hora del día, por ejemplo, porque este grupo de personas sospechosas tiende a acercarse.
Los algoritmos ya están formando sesgos. En 2016, una investigación de ProPublica reveló que el software utilizado para determinar el riesgo penal estaba sesgado contra los acusados negros. Ahora imagine un robot de seguridad cargado con algoritmos que perfilan a las personas. Es especialmente preocupante teniendo en cuenta que los ingenieros que desarrollan inteligencias artificiales no necesariamente saben [cómo están aprendiendo los algoritmos] (https://www.wired.com/story/new-theory-deep-learning/). “No solo debe haber un humano al final del ciclo, sino un humano al comienzo, cuando estás aprendiendo los datos”, dice el científico informático Michael Anderson del [programa de ética de las máquinas] (http://www. machineethics.com/#).
Realmente, lo que los fabricantes de robots necesitarán son expertos en ética que trabajen junto con ingenieros a medida que desarrollan este tipo de sistemas. “Los ingenieros no son necesariamente capaces de ver las ramificaciones de lo que están haciendo”, dice la especialista en ética Susan Anderson, también de Machine Ethics. “Están tan concentrados en cómo puede hacer esto, puede hacer aquello”.
¿Podría un robot en algún momento ayudar a una organización como SPCA? Sí, quizás. Estos son los primeros días de la interacción humano-robot, después de todo, y los humanos tienen tanto que aprender de los robots como los robots tienen que aprender de nosotros. Tal vez haya maneras de hacerlo sin pasar por encima de los dedos de los pies de alguien.