Algorithmes : l’heure de la grande régulation

Par Gautier Roos, France Télévisions, Direction de la Prospective

C’est devenu une évidence, partagée bien au-delà du cercle des spécialistes du numérique, qu'il est temps de discuter : les algorithmes nous gouvernent. Objet de débats publics récurrents (pensons au phénomène des bulles de filtres, réapparu au moment de l’élection de Trump), ils sont aujourd’hui au cœur des enjeux de régulation de l’économie numérique. Problème : leur architecture complexe et leur fonctionnement opaque rendent souvent difficile la justification de tel ou tel résultat dans un moteur de recherche par exemple.

did_the_holocaust_happen_-_Google_Search-3

Après avoir été épinglé pour avoir placé en tête des résultats un site négationniste, Google s’est justifié de la sorte : l'algorithme fait des choix basés sur des critères objectifs, et sa page n’est que le reflet du monde tel qu'il est.

Le tri des résultats ne vous plaît pas ? Ce n'est pas Google qu'il faut accabler ou combattre, mais bien le monde déplorable dans lequel nous vivons. Vu le tollé provoqué, le moteur de recherche a en bout de course corrigé le tir et modifié ses résultats. Ce qui complexifie encore un peu la question : quid de la tant vantée « neutralité des algorithmes » dans ce cas ?

On le voit bien : des problèmes éthiques, sociaux et économiques inédits se posent pour le régulateur. Pour mieux appréhender ces enjeux, Axelle Lemaire, secrétaire d’Etat au numérique et à l’innovation, a confié au Conseil Général de l'Economie (CGE) une mission d'analyse et de propositions. Elle a mené à la création d’une plateforme, « Transalgo », qui réunit chercheurs et experts pour proposer des critères d’évaluation des algorithmes et encourager la diffusion de bonnes pratiques.

La loyauté des plateformes plutôt que la neutralité des algorithmes

Plutôt que de chercher une « neutralité » des algorithmes impossible à attester (ne serait-ce que parce qu’ils sont conçus par des… humains), la mission met l’accent sur la « loyauté » des plateformes. Ce concept, forgé par le sociologue Dominique Cardon, défend l’idée qu’un algorithme doit faire ce qu’il est censé faire, et doit le faire bien. En résulte un devoir d’explication transparente des principes qui gouvernent la personnalisation des interfaces et des recommandations.

Discriminations publicitaires volontaires, bulles de filtres Facebook, abus de positions dominantes : les configurations varient selon les algorithmes utilisés, et les problèmes générés aussi. L’effet provoqué peut être identifiable par l’utilisateur et prévisible par la plateforme ; il arrive aussi qu’il soit non identifiable par l’utilisateur et non prévisible par la plateforme…Ce qui rend la tâche du régulateur particulièrement ardue.

Comment réagir quand Benjamin Edelman et Michael Luca, deux professeurs à Harvard, constatent que sur Airbnb.com, les Noirs sont obligés de louer leur maison 12 % moins cher que les autres annonceurs (les clients étant spontanément moins susceptibles de répondre à leurs annonces) ? Qui est responsable : la plateforme, les clients, l’algorithme, la société ?

La mission a donné lieu à cinq recommandations pour permettre au citoyen sur-sollicité d’aujourd’hui d’y voir plus clair. Les pistes d’action, formulées dans un rapport remis à Axelle Lemaire le 15 décembre dernier, sont les suivantes :

  1. Créer une plateforme collaborative scientifique, destinée à favoriser le développement d’outils logiciels et de méthodes de test d’algorithmes.
  2. Développer la capacité de contrôle au sein de la direction générale de la conurrence, de la consommation et de la répression des fraudes.
  3. Pour les entreprises, communiquer sur le fonctionnement des algorithmes visibles pour l’utilisateur et identifier l’équipe ou la personne responsable (« chief algorithm officer »).
  4. Développer, dans les domaines de l’emploi, de la santé, de la finance et de l’assurance, les réflexions sur les bonnes pratiques pour de nouveaux services utilisant des algorithmes de traitement de contenus.
  5. Former les agents opérant un service public utilisant un algorithme au respect des obligations de transparence inscrites dans la loi pour une République numérique.

La montée en compétence et le développement de l’expertise des pouvoirs publics (points 1 et 2) doivent ainsi mener naturellement au développement des bonnes pratiques (points 3 à 5).

De bons et de mauvais algorithmes ?

Récemment, le CSA Lab, la cellule de veille et prospective du CSA, a lui aussi planché sur la question. Le but étant de s'assurer que les algorithmes "opèrent au service d’un intérêt général convenablement et clairement défini, et non pas d’intérêts particuliers et opportunistes".

La curation de contenus trop personnalisée semble inquiéter la cellule, qui prévient d’un risque d’une discrimination accrue, d’une uniformisation de la société, d’une réduction de la liberté des choix individuels, voire d’une manipulation, lorsque la personnalisation a pour but d’influencer les comportements.

Le diagnostic s’appuie sur une distinction entre deux types d’algorithmes qui influent sur nos décisions. Nous avons d’un côté l’algorithme sémantique (basé sur des thésaurus, menus et mots clés), qui favorise l’exploration et l’ouverture ; de l’autre, l’algorithme statistique (calculé en fonction de notre consommation et celle de nos amis), qui nous conduit à aimer ce que nous aimons déjà.

Un algorithme bien tempéré devrait respecter la structure du graphe des affinités, en misant sur les deux tableaux, et en fournissant à la fois du contenu sur les affinités fortes et faibles.

La cellule a aussi évoqué la création d'un algorithme cool (par opposition au modèle smart), qui inciterait le consommateur qui le souhaite à participer à la construction de son offre, et lui permettrait de jauger l’impact des algorithmes sur sa consommation. Elle cite l’exemple de la RTBF qui travaille sur un curseur qui donnerait la possibilité aux utilisateurs de régler le degré de personnalisation du site. Et restaurer, d’un même coup, sa possibilité de choisir et sa confiance.

Vivons-nous vraiment l’ère de la « toute-puissance » des algorithmes ?

En plus de ces mesures, Dominique Cardon met l’accent sur la nécessité de développer une culture critique de ces outils pour anticiper, ajuster nos comportements en connaissant ce qu’ils font et la manière dont ils procèdent. Et comprendre ainsi leurs limites.

Rappelons que s’ils sont aujourd’hui omniprésents, les algorithmes n’en sont pas pour autant omniscients : leur approche est avant tout behavioriste et leur domaine d’expertise ne couvre que des comportements monotones et réguliers. Bien évidemment, un être humain est loin d’être (uniquement) la somme de ses comportements.

Plus généralement, on se trompe quand on pense que l’algorithme est forcément totalitaire, aliénant et destiné à nous enfermer. Adossées à une conception purement néo-libérale, les recommandations qui nous sont faites chaque jour cherchent d’abord à nous stimuler et à nous exciter en proposant aussi du neuf. L’algorithme n’est aliénant que pour l’internaute qui a choisi, délibérément, de s’enfermer dans une sphère culturelle délimitée.

Avoir une prise sur nos données et sur la manière dont nous sommes calculés, c’est aussi réaliser qu’il est facile de tromper l’algorithme, qui ne fait que calculer et retourner les traces que nous lui fournissons. Pas besoin d’être un hacker de haut rang pour glisser un grain de sable dans la machine…

Ce que le chien fait de pavlov

Enfin, le sociologue propose à chacun de « dézoomer », de prendre du recul sur sa pratique et de montrer à l’individu numérique où il se situe par rapport aux autres. Ce qu’il manque pour l’instant aux outils digitaux, ce sont des représentations visuelles qui donnent une idée de la diversité des mondes. Unfiltered News de Google présente par exemple un état des lieux de l'information dans le monde et permet de mesurer l’isolement idéologique de telle ou telle zone du globe :

bubble

Basé sur les données de Google News et Google Traduction, l’outil prend les 100 sujets les plus populaires dans chaque pays, les traduit dans 40 langues et les compile afin de donner une vision d'ensemble sur les articles les plus populaires dans le monde. Il permet ainsi de jeter un coup d’œil aux sujets les plus discutés sur la planète mais aussi les moins populaires (voire inexistants) dans votre pays.

La régulation des pouvoirs publics ne pourra pas tout : il appartient aujourd'hui à chacun de s'initier à une compréhension critique des algorithmes et de transmettre ces savoirs. De même, les journalistes et les éditeurs, empêtrés dans la spirale infernale des fake news, pourraient aussi en profiter pour tracer la voie et fournir les grilles de lecture nécessaires.