En Afrique du Sud, le nouvel apartheid de la surveillance automatisée


Publié le 21 janvier 2020 par Thomas Burgel - Temps de lecture : 3 min -
Provenance : korii. / 29 novembre 2019
à compléterCet article n'a pas encore été validé par Explore

Résumé


Proposer un résumé

Article


Dans un pays fracturé, Vumacam installe un angoissant empire sécuritaire que l’IA risque de faire dériver vers des ségrégations plus grandes encore.

Bien plus encore qu’en Amérique, le crime est l’enfer endémique d’une nation aux fractures sociales et raciales abyssales: entre avril 2018 et mars 2019, 21.022 meurtres ont été recensés en Afrique du Sud. En 2017, le taux d’homicide y était de 35,9 pour 100.000 habitant·es, contre 5,3 aux États-Unis et 1,3 en France.

Caméras intelligentes

Bien que ce taux ait été divisé par deux depuis la fin de l’apartheid en 1994, la peur de la violence, elle, ne cesse de croître: un terreau idéal pour les compagnies de sécurité privée.

En Afrique du Sud, celles-ci emploient 500.000 personnes, plus que la police et l’armée réunies. Sont généralement monitorées les banlieues résidentielles blanches plus ou moins aisées, les bâtiments publics, les parkings, les centres commerciaux ou les écoles.

Jusqu’ici, les systèmes de surveillance étaient rudimentaires. Les flux des des caméras basse définition installées étaient redirigés vers des centres aux murs tapissés d’écrans, si nombreux que la supervision ne pouvait être que partielle.

À lire aussiEn cassant les prix de ses caméras de surveillance Ring, Amazon pousse à la parano

Interviennent alors Ricky Croock et l’entreprise qu’il a fondée, Vumacam. Son idée est brillante mais machiavélique: fournir aux quartiers à la fois un internet très haut débit et un réseau de caméras dites «intelligentes», l’un ne pouvant aller sans l’autre.

L’écosystème est animé par des logiciels (l’australien iSentry et l’israélien BriefCam) grâce auxquels Vumacam affirme être capable de détecter des comportements, individus ou véhicules suspects, de lire les plaques d’immatriculation et de transformer les flux vidéo en situations textuelles («un individu noir portant un t-shirt rouge», par exemple).

L’ensemble des images sont analysées, classifiées et transmises en temps réel vers un data center. Si la machine détecte quelque chose qu’on lui a appris à trouver inhabituel, elle alerte un opérateur humain, qui peut ensuite faire appel à la police ou aux services de sécurité.

Biais raciaux

Quartier après quartier, sans régulation ni débat, Vumacam étend son emprise. L’apparition de ses services dans une zone tend à déplacer le crime vers une autre zone non équipée: c’est ainsi que l’on crée une viralité commerciale et un empire incontournable.

Problème: on le sait désormais, et Michael Kwet en donne quelques preuves édifiantes, un tel système logiciel ne peut qu’être nourri par les biais, notamment raciaux, des personnes chargées de l’entraîner. Dans un pays où les personnes de couleur sont associées au crime, un·e Noir·e dans un quartier blanc sera automatiquement désigné·e comme une «anormalité».

À lire aussiÀ Lyon, la reconnaissance faciale en procès

Au-delà des questions de respect de la vie privée, de protection des données personnelles et de leur accessibilité aux forces de police, on comprend vers quel nouvel apartheid 2.0 un tel système, dans un tel pays, peut mener.

L’enjeu paraît encore plus crucial lorsque l’on sait que Vumacam veut investir les townships: le temps des dompas, ces passeports que devaient porter les personnes non blanches pour quitter leur taudis, n’est peut-être pas derrière nous.

0
Proposer une analyse

Se questionner


Proposer un questionnement commençant par "ET SI"

Réagir ?


Envie de réagir ? Laisse un commentaire, tes ressentis ici

Votre adresse email ne sera pas publiée.

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

ça peut vous intéresser


validéCet article a été validé par Explore

Le Covid-19 a aussi fait bugger l’Intelligence Artificielle…

L’épidémie de Covid19 vient de mettre en lumière l’une des limites des modèles d’intelligence artificielle. De la publicité à la … Lire l’article complet

validéCet article a été validé par Explore

Serge Tisseron : « Le maillon faible de l’IA, c’est l’Homme ! »

Serge Tisseron alerte sur la dangerosité que représentent les «gentils» robots dont les individus ne se méfient pas assez. L’humain … Lire l’article complet

validéCet article a été validé par Explore

Voici « xenobot », le premier robot conçu à partir de cellules vivantes

Des scientifiques américains ont conçu pour la première une machine vivante, appelée xénobot. Un super ordinateur a calculé des algorithmes … Lire l’article complet

Notre newsletter


Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer un autre article

Partager un article ?

Prévisualisation des données
Envoyer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.