Bonne nouvelle ! La guerre pour la transparence des algorithmes a commencé


Publié le 23 avril 2019 par KPMG - Temps de lecture : 3 min -
Provenance : L’ADN / 12 mars 2019
validéCet article a été validé par Explore

Résumé


Les algorithmes sont partout et savent presque tout de nous. En l’absence de réglementation, certaines villes prennent les devants pour imposer plus de transparence. Objectif : en finir avec l’opacité pour garantir aux citoyens une plus grande liberté de décision et une meilleure protection de leur vie privée.

un exemple Transalgo est une plateforme scientifique inédite en Europe qui étudie la transparence des algorithmes et des données depuis 2018.

L’intelligence artificielle est capable de produire des résultats très précis sans que l’on puisse parfois expliquer comment elle y est parvenue. Les algorithmes s’appuient sur les informations que nous partageons consciemment (via les réseaux sociaux et applications) ou non (notre comportement en ligne et les métadonnées que nous laissons derrière nous), puis extrapolent pour produire un troisième niveau de connaissance, beaucoup plus profond, de notre double numérique.

Article


Bonne nouvelle ! La guerre pour la transparence des algorithmes a commencé

Les algorithmes sont partout et savent tout (ou presque) de nous. Face à leur influence croissante sur nos vies, nos métiers et nos business, et en l’absence de réglementation, certaines villes prennent les devants pour imposer plus de transparence.

Début février, le tribunal administratif de la Guadeloupe a enjoint l’université des Antilles depublier les algorithmes locaux utilisés par l’établissement sur Parcoursup pour classer les candidats. Une première. Cette décision, qui pourrait faire jurisprudence, souligne bien que le temps de la naïveté envers les algorithmes qui nous gouvernent est révolu.

Ouvrir les “boîtes noires”

Dans son rapport consacré aux intelligences artificielles publié en 2018, le député de l’Essonne Cédric Villani posait déjà les principes du problème posé par l’opacité des algorithmes, soupçonnés de provoquer certains effets pervers comme les bulles de filtres et les biais. Il s’agit du fameux problème de “la boîte noire” : l’IA est aujourd’hui capable de produire des résultats très précis sans que l’on puisse parfois expliquer comment elle y est parvenue. En clair, la mécanique interne des IA (la “boîte noire”) nous échappe.

Or, cette mécanique peut influencer nos vies. Une récente étude de la fondation Panoptykon souligne que nous ne contrôlons réellement qu’un tiers de notre identité en ligne, graphique à l’appui. Concrètement, les algorithmes s’appuient sur les informations que nous partageons consciemment (tout ce qu’on communique via les réseaux sociaux et les applications) ou non (notre comportement en ligne et les métadonnées que nous laissons derrière nous), puis extrapolent pour produire un troisième niveau de connaissance, beaucoup plus profond, de notre double numérique.

Aux États-Unis, les banques, les assurances ou les services de santé modifient leur offre en fonction de ce reflet. En Chine, ces éléments permettent de calculer le fameux score social qui détermine votre place dans la société. Or, un système déterminant pour les choix et l’avenir des humains doit être transparent et explicable. Ouvrir ces “boîtes noires” est devenu un enjeu majeur pour éviter les biais et garantir la neutralité des algorithmes utilisés.

Une obligation de transparence éparse

Faute de réglementation en la matière, les citoyens américains s’organisent, avocats et activistes en tête, pour réfléchir à une obligation de transparence des algorithmes. « La FDA a été créée au début du XXe siècle pour encadrer les produits alimentaires et les produits pharmaceutiques, expliquaient récemment Dan Greene, expert médias et Genevieve Patterson, spécialiste des données, dans IEEE Spectrum. De même, les fournisseurs d’IA qui vendent des produits et des services qui affectent la santé, la sécurité et la liberté des personnes pourraient être tenus de partager leur code avec un nouvel organisme de réglementation »,

Dans un rapport publié en décembre par l’institut AI Now, un groupe de chercheurs a repris cette idée à son compte, appelant les fournisseurs et les développeurs qui créent des systèmes de décision automatisés et d’intelligence artificielle à l’usage du gouvernement de renoncer au secret commercial ou à toute autre revendication légale « empêchant un audit et une compréhension complets de leurs logiciels. »

Qui gouverne les algorithmes ?

Pour combler le vide juridique autour des algorithmes, certaines municipalités américaines appliquent leurs propres règles de transparence pour les algorithmes du secteur public. En 2017, le conseil municipal de New York a adopté une loi de responsabilisation algorithmique. En Californie, plusieurs villes ont adopté des ordonnances strictes régissant l’achat de technologies de surveillance (logiciels d’analyse des médias sociaux, équipements de reconnaissance faciale, lecteurs de plaques d’immatriculation…). Objectif avoué de ces démarches : en finir avec l’opacité pour garantir aux citoyens une plus grande liberté de décision et une meilleure protection de leur vie privée

Dans son rapport, Cédric Villani estimait que les algorithmes devraient être audités, en respectant évidemment les secrets industriels des entreprises, pour savoir quelles données ils utilisent et s’ils comportent des biais. C’est ce que propose l’Inria depuis l’an dernier avec Transalgo, une plateforme scientifique inédite en Europe qui étudie la transparence des algorithmes et des données. Au-delà des enjeux techniques et juridiques, la généralisation de l’usage des algorithmes pose des questions d’éthique et de choix de société que les Etats n’ont pas encore tranchées.

0
Proposer une analyse

Se questionner


Tu souhaites réagir ?
Clique sur tes émotions et / ou laisse un commentaire.

ET SI l’utilisation massive de la donnée permettait l’hypercontrôle des êtres humains?
ET SI il existait un seul endroit sécurisé où est répertoriée toute la donnée que chaque individu laisse derrière lui ?
ET SI j’avais le pouvoir de décider de vendre mes données ?
ET SI la créativité n’existait plus et était remplacée par des algorithmes ?
ET SI d’un clic je pouvais effacer toutes mes traces ?
Proposer un questionnement commençant par "ET SI"

Réagir ?


Envie de réagir ? Laisse un commentaire, tes ressentis ici

Votre adresse email ne sera pas publiée.

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

ça peut vous intéresser


validéCet article a été validé par Explore

Le Covid-19 a aussi fait bugger l’Intelligence Artificielle…

L’épidémie de Covid19 vient de mettre en lumière l’une des limites des modèles d’intelligence artificielle. De la publicité à la … Lire l’article complet

validéCet article a été validé par Explore

Serge Tisseron : « Le maillon faible de l’IA, c’est l’Homme ! »

Serge Tisseron alerte sur la dangerosité que représentent les «gentils» robots dont les individus ne se méfient pas assez. L’humain … Lire l’article complet

validéCet article a été validé par Explore

Voici « xenobot », le premier robot conçu à partir de cellules vivantes

Des scientifiques américains ont conçu pour la première une machine vivante, appelée xénobot. Un super ordinateur a calculé des algorithmes … Lire l’article complet

Notre newsletter


Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer un autre article

Partager un article ?

Prévisualisation des données
Envoyer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.

Proposer

Merci d' avoir partagé ce contenu
avec l'équipe d'Explore !

Nous en prendrons connaissance aussi vite que possible.