Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1832

Incidents associés

Incident 2618 Rapports
Robot Deployed by Animal Shelter to Patrol Sidewalks outside Its Office, Warding off Homeless People in San Francisco

Loading...
L'éthique délicate des robots de lutte contre le crime de Knightscope
wired.com · 2017

En novembre, la SPCA de San Francisco a déployé un robot de 5 pieds de haut et 400 livres pour patrouiller sur son campus. Pas pour le muscle, attention, mais pour la surveillance. La SPCA, un grand complexe niché dans le coin nord-est du quartier Mission de la ville, fait depuis longtemps face au vandalisme, aux cambriolages et aux aiguilles jetées dans les parkings environnants. Craignant pour la sécurité de son personnel, la SPCA a pensé que le robot pourrait avoir un effet dissuasif, une sorte d'adjoint à son équipe de sécurité humaine.

Le robot est venu d'une startup de la Silicon Valley appelée Knightscope, dont la famille grandissante de machines de sécurité fonctionne comme des versions plus lentes et plus disciplinaires des voitures autonomes. La SPCA a utilisé son robot K5, qui convient à une utilisation en extérieur. Son cousin réduit K3 est destiné à l'intérieur, tandis que le K1 est un pilier fixe qui surveillera bientôt des choses comme les entrées des bâtiments. Et le K7, un robot à quatre roues destiné à patrouiller les périmètres des aéroports et autres, passera en version bêta l'année prochaine. L'entreprise s'est donné pour mission de réduire le crime en renforçant les agents de sécurité humains avec des machines. Cependant, le chemin qui y mène est semé d'embûches éthiques.

Le K5, ainsi que près de 50 autres robots Knightscope dans 13 États, voit son monde en le recouvrant de lasers, patrouillant de manière autonome dans son domaine tout en prenant une vidéo à 360 degrés. Dans une salle de contrôle sur site, un agent de sécurité humain surveille ce flux pour détecter les anomalies. Knightscope dit que K5 peut lire 1 200 plaques d'immatriculation par minute pour, par exemple, repérer les voitures qui ont été garées pendant une durée excessive. Si vous gênez le robot, il dit excusez-moi. En cas d'urgence, l'agent de sécurité peut parler à travers le robot pour alerter les humains à proximité. Le robot de la SPCA patrouillait à la fois sur son campus et sur les trottoirs environnants tout en émettant un gémissement futuriste, fonctionnant comme une caméra mobile pour dissuader théoriquement le crime.

Aucune de ces machines n'est équipée de tasers ou de lance-flammes ou quoi que ce soit du genre. "Ce n'est pas pour l'application", déclare William Santana Li, président-directeur général de Knightscope. "C'est pour surveiller et donner une compréhension de la situation pour que ces humains fassent leur travail beaucoup plus efficacement." Encore une fois, le robot de la SPCA n'était pas destiné à remplacer les humains, mais à les compléter.

"Très simplement", ajoute Li, "si je place un véhicule des forces de l'ordre devant votre domicile ou votre bureau, le comportement criminel change."

Tout comme d'autres comportements, il s'avère. Après la mise en route du Knightscope de la SPCA, les résidents itinérants l'ont pris à partie. Un groupe de personnes installant un camp aurait jeté une bâche sur le robot et l'aurait renversé et [aurait étalé de la sauce barbecue sur ses capteurs](https://www.bizjournals.com/sanfrancisco/news/2017/12/08/security- robot-homeless-spca-mission-san-francisco.html).

Maintenant, à ce stade, vous ne reculez probablement pas lorsque vous voyez une caméra de sécurité et que vous lui jetez des pierres - pour le meilleur ou pour le pire, nous sommes tous sous surveillance en public. Mais le K5 se sent juste différent et il suscite des réactions différentes. Dans un centre commercial, le robot semble modeste, voire vaguement attachant. Les enfants courent et l'embrassent. Mais à l'extérieur, c'est une incarnation itinérante de la surveillance, enregistrant des vidéos de tout ce qui l'entoure. Ce qui est particulièrement troublant pour les personnes qui font de l'extérieur leur maison.

"Gardez à l'esprit que ce concept de confidentialité dans un espace public est un peu étrange", déclare Li. "Vous n'avez aucune attente de confidentialité dans un espace public où toutes ces machines fonctionnent."

Pourtant, une caméra sur un mur est une chose. Une caméra géante qui parcourt les rues de San Francisco en est une autre. "Lorsque vous vivez à l'extérieur, le manque d'intimité est vraiment déshumanisant après un certain temps, où les yeux du public sont toujours rivés sur vous", déclare Jennifer Friedenbach, directrice exécutive de la Coalition on Homelessness de San Francisco. "C'est vraiment une sorte de soulagement quand la nuit arrive, quand vous pouvez simplement être sans beaucoup de monde autour. Et puis il y a ce robot qui se promène en vous enregistrant.

Après que le San Francisco Business Times a publié un article sur le Après l'incursion de la SPCA dans la robotique de sécurité, le tollé général a grandi que l'organisation utilisait le robot pour parcourir les trottoirs autour de son installation afin de décourager les sans-abri de s'installer. La SF SPCA nie que son intention était anti-sans-abri. "La SF SPCA explorait l'utilisation d'un robot pour empêcher d'autres cambriolages dans nos installations et pour dissuader d'autres crimes qui se produisent fréquemment sur notre campus, comme les cambriolages de voitures, le harcèlement, le vandalisme et les graffitis, et non pour perturber les sans-abri", a déclaré la présidente du groupe, Jennifer Scarlett, dans un communiqué.

Néanmoins, le groupe [a interrompu son programme pilote](https://arstechnica.com/tech-policy/2017/12/after-outcry-non-profit-stops-use-of-security-robot-to-oust-homeless /) avec Knightscope la semaine dernière. Le déploiement de robots dans un centre commercial est assez inoffensif, mais clairement dans un cas d'utilisation plus sensible comme celui-ci, les énigmes éthiques de l'interaction homme-robot sont rapidement devenues incontrôlables.

Si vous pensez que l'éthique des robots de sécurité est trouble maintenant, attendez. Knightscope veut garder les humains au courant avec ses robots, mais il n'est pas difficile d'imaginer un jour où quelqu'un d'autre aura la brillante idée de donner aux autres machines de sécurité beaucoup plus d'autonomie. Cela signifie que des robots alimentés par l'IA reconnaissent les visages et recherchent des modèles de crimes. Patrouillez cette zone de préférence à cette heure de la journée, par exemple, car ce groupe de personnes suspectes a tendance à se déplacer.

Les algorithmes forment déjà des biais. En 2016, une enquête menée par ProPublica a révélé que les logiciels utilisés pour déterminer le risque criminel étaient biaisés contre les accusés noirs. Imaginez maintenant un robot de sécurité chargé d'algorithmes qui profilent les personnes. C'est particulièrement troublant étant donné que les ingénieurs qui développent des intelligences artificielles ne savent pas nécessairement comment les algorithmes apprennent. "Il devrait y avoir non seulement un humain à la fin de la boucle, mais un humain au début, lorsque vous apprenez les données", déclare l'informaticien Michael Anderson du [programme d'éthique de la machine] (http://www. machineethics.com/#).

En réalité, ce dont les fabricants de robots auront besoin, ce sont des éthiciens travaillant aux côtés d'ingénieurs pour développer ce type de systèmes. "Les ingénieurs ne sont pas nécessairement capables de voir les ramifications de ce qu'ils font", explique l'éthicienne Susan Anderson, également de Machine Ethics. "Ils sont tellement concentrés sur la façon dont il peut faire ceci, il peut faire cela."

Un robot pourrait-il à un moment donné aider une organisation comme la SPCA ? Ouais peut-être. Ce sont les premiers jours de l'interaction homme-robot, après tout, et les humains ont autant à apprendre des robots que les robots ont à apprendre de nous. Peut-être qu'il y a des façons de s'y prendre sans rouler sur les orteils de quelqu'un.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd