Envie de réagir ? Laisse un commentaire, tes ressentis ici

Bonne nouvelle ! La guerre pour la transparence des algorithmes a commencé

Publié le 23 avril 2019 - Temps de lecture : 5 min -
Provenance : L’ADN / 12 mars 2019

Résumé

Les algorithmes sont partout et savent presque tout de nous. En l’absence de réglementation, certaines villes prennent les devants pour imposer plus de transparence. Objectif : en finir avec l’opacité pour garantir aux citoyens une plus grande liberté de décision et une meilleure protection de leur vie privée.

un exemple Transalgo est une plateforme scientifique inédite en Europe qui étudie la transparence des algorithmes et des données depuis 2018.

L’intelligence artificielle est capable de produire des résultats très précis sans que l’on puisse parfois expliquer comment elle y est parvenue. Les algorithmes s’appuient sur les informations que nous partageons consciemment (via les réseaux sociaux et applications) ou non (notre comportement en ligne et les métadonnées que nous laissons derrière nous), puis extrapolent pour produire un troisième niveau de connaissance, beaucoup plus profond, de notre double numérique.

Article

Entre 1981 et 2000, la base de la Royal Air Force de Greenham Common a été occupée par 30 000 militantes pour lutter contre l'installation de missiles nucléaires. Les théoriciennes reconnaissent aussi dans ce mouvement ce qu'elles nommeront le reclaim : un geste de réappropriation et de réinvention de la féminité. (Crédit : Ceridwen)

Les algorithmes sont partout et savent tout (ou presque) de nous. Face à leur influence croissante sur nos vies, nos métiers et nos business, et en l’absence de réglementation, certaines villes prennent les devants pour imposer plus de transparence.

Début février, le tribunal administratif de la Guadeloupe a enjoint l’université des Antilles depublier les algorithmes locaux utilisés par l’établissement sur Parcoursup pour classer les candidats. Une première. Cette décision, qui pourrait faire jurisprudence, souligne bien que le temps de la naïveté envers les algorithmes qui nous gouvernent est révolu.

Ouvrir les “boîtes noires”

Dans son rapport consacré aux intelligences artificielles publié en 2018, le député de l’Essonne Cédric Villani posait déjà les principes du problème posé par l’opacité des algorithmes, soupçonnés de provoquer certains effets pervers comme les bulles de filtres et les biais. Il s’agit du fameux problème de “la boîte noire” : l’IA est aujourd’hui capable de produire des résultats très précis sans que l’on puisse parfois expliquer comment elle y est parvenue. En clair, la mécanique interne des IA (la “boîte noire”) nous échappe.

Or, cette mécanique peut influencer nos vies. Une récente étude de la fondation Panoptykon souligne que nous ne contrôlons réellement qu’un tiers de notre identité en ligne, graphique à l’appui. Concrètement, les algorithmes s’appuient sur les informations que nous partageons consciemment (tout ce qu’on communique via les réseaux sociaux et les applications) ou non (notre comportement en ligne et les métadonnées que nous laissons derrière nous), puis extrapolent pour produire un troisième niveau de connaissance, beaucoup plus profond, de notre double numérique.

Aux États-Unis, les banques, les assurances ou les services de santé modifient leur offre en fonction de ce reflet. En Chine, ces éléments permettent de calculer le fameux score social qui détermine votre place dans la société. Or, un système déterminant pour les choix et l’avenir des humains doit être transparent et explicable. Ouvrir ces “boîtes noires” est devenu un enjeu majeur pour éviter les biais et garantir la neutralité des algorithmes utilisés.

Une obligation de transparence éparse

Faute de réglementation en la matière, les citoyens américains s’organisent, avocats et activistes en tête, pour réfléchir à une obligation de transparence des algorithmes. « La FDA a été créée au début du XXe siècle pour encadrer les produits alimentaires et les produits pharmaceutiques, expliquaient récemment Dan Greene, expert médias et Genevieve Patterson, spécialiste des données, dans IEEE Spectrum. De même, les fournisseurs d’IA qui vendent des produits et des services qui affectent la santé, la sécurité et la liberté des personnes pourraient être tenus de partager leur code avec un nouvel organisme de réglementation »,

Dans un rapport publié en décembre par l’institut AI Now, un groupe de chercheurs a repris cette idée à son compte, appelant les fournisseurs et les développeurs qui créent des systèmes de décision automatisés et d’intelligence artificielle à l’usage du gouvernement de renoncer au secret commercial ou à toute autre revendication légale « empêchant un audit et une compréhension complets de leurs logiciels. »

Qui gouverne les algorithmes ?

Pour combler le vide juridique autour des algorithmes, certaines municipalités américaines appliquent leurs propres règles de transparence pour les algorithmes du secteur public. En 2017, le conseil municipal de New York a adopté une loi de responsabilisation algorithmique. En Californie, plusieurs villes ont adopté des ordonnances strictes régissant l’achat de technologies de surveillance (logiciels d’analyse des médias sociaux, équipements de reconnaissance faciale, lecteurs de plaques d’immatriculation…). Objectif avoué de ces démarches : en finir avec l’opacité pour garantir aux citoyens une plus grande liberté de décision et une meilleure protection de leur vie privée

Dans son rapport, Cédric Villani estimait que les algorithmes devraient être audités, en respectant évidemment les secrets industriels des entreprises, pour savoir quelles données ils utilisent et s’ils comportent des biais. C’est ce que propose l’Inria depuis l’an dernier avec Transalgo, une plateforme scientifique inédite en Europe qui étudie la transparence des algorithmes et des données. Au-delà des enjeux techniques et juridiques, la généralisation de l’usage des algorithmes pose des questions d’éthique et de choix de société que les Etats n’ont pas encore tranchées.

0

Analyse et questionnements

Pour aller plus loin...

Tu souhaites réagir ? Clique sur tes émotions et / ou laisse un commentaire.

ET SI l’utilisation massive de la donnée permettait l’hypercontrôle des êtres humains?
ET SI il existait un seul endroit sécurisé où est répertoriée toute la donnée que chaque individu laisse derrière lui ?
ET SI j’avais le pouvoir de décider de vendre mes données ?
ET SI la créativité n’existait plus et était remplacée par des algorithmes ?
ET SI d’un clic je pouvais effacer toutes mes traces ?

0 commentaires

Soumettre un commentaire

Votre adresse de messagerie ne sera pas publiée.

Notre newsletter