No Banner to display

Vertiges de l’algorithmie

| 14 mars 2016

Catégorie: Données, Entreprises, Institutions, Logiciels, Reportages, Secteur public

L’État et les collectivités locales sont concernés par le big data. Mais suffit-il d’ouvrir ses données et d’exploiter des logiciels libres pour s’assurer d’une utilisation responsable du big data d’origine publique ou privé ? Malheureusement, l’affaire est bien plus compliquée, comme l’analysent chercheurs, associations et directeurs de communication.

Données de santé, notes et bulletins scolaires, traitements d’infractions, systèmes de gestion divers… l’État, ses services et les collectivités sont, eux aussi, producteurs et consommateurs de grandes masses de données. Ces dernières posent une question d’utilisation, à travers des algorithmes d’un nouveau genre, qui suscitent craintes et angoisses. « Il faut non plus ouvrir les données mais les algorithmes pour en comprendre les objectifs » insiste par exemple Xavier Crouan, vice-président de l’association Communication publique, directeur de la communication de la région Île-de-France lors de la matinée « communiquer à l’ère du big data », organisée par son association le 12 février dernier.

La faute à l’algo ?

Les algorithmes, même prédictifs, ne sont pas bons ou mauvais par nature, et tout n’est pas « la faute à l’algo » comme s’amuse à le rappeler Serge Abitboul, chercheur en informatique à l’Inria. Une même technologie peut servir à développer des soins plus personnalisés et à exclure des assurances les personnes les plus fragiles. D’où la nécessité d’un contrôle sur ces algorithmes, qui n’a rien de simple. Cela passe par des experts capables de vérifier le code, d’effectuer des tests, mais aussi par des médiateurs pour expliquer des millions d’opérations complexes. Utilisateurs, associations, éducateurs… tous doivent être engagés dans cette quête de transparence et d’équité, qui concerne autant les algorithmes utilisés par l’administration que ceux exploités par les entreprises et les géants du Net.

La faute à l’algo, Une série hautement recommandée de reportages-fictions (nous sommes en 2098 et les algorithmes ont pris le contrôle de la société) diffusés sur Nolife et visualisables en ligne. À découvrir sur http://madrobot.fr/

La faute à l’algo, Une série hautement recommandée de reportages-fictions (nous sommes en 2098 et les algorithmes ont pris le contrôle de la société) diffusés sur Nolife et visualisables en ligne. À découvrir sur http://madrobot.fr/

Quelle vision du monde ?

Dans À quoi rêvent les algorithmes, le sociologue Dominique Cardon décrypte les valeurs portées par les algorithmes du Web qui questionnent les pouvoirs publics car « ils construisent le territoire dans lequel chacun circule ». Nous sommes libres d’aller consulter la quatrième page d’une réponse à une requête sur Google, mais y allons rarement. Les algorithmes s’appuient sur différentes techniques de représentation du monde : l’audience et la popularité sont au cœur des modèles de vente en ligne, le page rank de Google mesure également l’autorité, c’est-à-dire la capacité à être cité par d’autres. La logique de réputation domine sur les sites de voyages et d’hôtellerie. Mais la prédiction personnalisée forme une nouvelle famille qui transforme les trois autres, basée sur des algorithmes auto-apprenants (machine learning) qui s’appuient de moins en moins sur des règles explicables a priori.

Un monde hors catégorie

Autre caractéristique de cette algorithmie du Web : elle s’intéresse moins aux représentations des individus (ce qu’ils disent) qu’à leurs comportements (ce qu’ils font réellement). Les données sont captées au plus près de chacun (les traces de nos activités), sans catégorie. « Pour les gens du big data, les catégories sont trop grossières, alors que chaque individu a des particularités, des singularités » note le sociologue. Du coup émerge une sorte de « complicité objective » entre les techniques de calcul et la société des individus, qui ne veulent plus être représentés par des catégories ou des institutions. Un enjeu qui met à mal notre culture statistique, construite avec l’État, qui représente sa population pour se donner des catégories d’action. « C’est un nouveau contrat social, conclut Dominique Cardon, dans lequel les entreprises privées viennent posséder, décrire, analyser des informations sur les individus qui pourraient avoir une utilité pour les institutions statistiques si leur qualité était assurée. » La catégorie sociale permettait aussi à chacun de représenter ses appartenances et participait à sa définition en tant que sujet, comme l’analyse dans un article Antoinette Rouvroy, chercheure au Fonds national de la recherche scientifique belge. Aujourd’hui, les algorithmes reconstituent peu de nouvelles catégories (qui pourraient être celles de mes plus proches voisins algorithmiques) et une telle approche pose des questions d’égalité et de justice. L’analyse des données des pratiques culturelles d’une ville permettra de personnaliser une offre de service pour les plus actifs en matière de consommation culturelle, mais que dira-t-elle de celles et ceux qui n’y participent pas ?

 

La matinée « Communiquer à l’ère du Big Data » donnera également lieu à un numéro spécial de Parole publique.

Print Friendly, PDF & Email
Signaler un contenu

Les commentaires sont fermés

No Banner to display

No Banner to display