Algorithmes, médias et pratiques culturelles : 3 risques, 3 pistes

Voici le texte de mon propos introductif ce jeudi lors de la table-ronde organisée par la Commission des Affaires culturelles et de l’Éducation de l'Assemblée Nationale à laquelle j'ai eu le plaisir de participer aux côtés de Geoffrey Delcroix (Innovation et prospective CNIL) et Tristan Nitot, VP advocacy du moteur de recherche Qwant sous le thème : « Les algorithmes de sélection et de recommandation : quelle influence sur les pratiques culturelles et d’information ? » :

À sa naissance il y a 30 ans, le web était perçu comme l’espace de tous les possibles, un territoire qui ferait fi de toutes les barrières et qui réorganiserait le monde en un village global.

Le constat aujourd’hui est bien différent : nous sommes face à un immense patchwork de micro-communautés d’intérêt qui évoluent dans des cercles hermétiques et qui s’en remettent au bon vouloir de quelques plateformes hyper-puissantes pour faire le tri dans la profusion de contenus disponibles (la première page de résultats Google capte 90% des clics !).

Ce tri, ce sont les fameux algorithmes qui le font. Ils sont omniprésents dans nos vies numériques :

  • Quand vous faites une requête sur Google et que le moteur de recherche hiérarchise pour vous les résultats qu’il juge les plus pertinents, c’est un algorithme (PageRank) qui est à l’œuvre.
  • Même chose quand vous achetez un produit sur Amazon et que le site vous propose des produits similaires : c’est un algorithme qui sélectionne les recommandations à vous faire.
  • Quand vous aimez des publications sur Facebook et que la plateforme est ensuite capable de vous servir des publicités ciblées selon vos goûts et vos centres d’intérêt, c’est encore grâce aux algorithmes.

Les algorithmes, concrètement, sont des ensembles de règles de calculs appliqués à des jeux de données (input) pour en sortir un résultat (output).

Pour faire simple : tout ce que vous voyez, entendez, lisez, achetez sur internet est filtré par des algorithmes avant d’arriver jusqu’à vous. Le problème, c’est que ces algorithmes ne sont pas neutres. Et les risques sont multiples :

Risque de biais, de discrimination :

La qualité des résultats fournis par les algorithmes dépend de la qualité des données dont ils ont été nourris. Si les jeux de données sont incomplets, ou biaisés, les résultats le seront aussi. Pire : des acteurs mal intentionnés pourraient volontairement tronquer les données pour manipuler le travail algorithmique. Facebook pourrait soudainement décider par exemple de ne mettre en avant que des contenus anti IVG, ou que des contenus pro NRA aux US. Autre exemple, de biais involontaire cette fois ci : une IA entraînée pour reconnaître les visages humains peut ne pas reconnaître un visage noir si on n’a pas pris la peine de s’assurer que les données dont on l’a nourrie étaient complètes et représentatives de la diversité des génotypes de notre humanité…

Risque d’enfermement dans des chambres d’échos ou bulles de filtre :

En analysant notre profil et nos comportements, les algorithmes sont entraînés pour nous recommander des contenus que nous serons susceptibles d’aimer. Ils nous enferment ainsi insidieusement dans un univers aseptisé où les résultats de nos recherches Google, les musiques recommandées sur Spotify, les articles de presse présents sur notre fil Facebook alimentent ce que nous connaissons déjà et uniformisent notre consommation de contenus culturels et médiatiques. Résultat : une hyper individualisation des pratiques culturelles. Nous sommes de moins en moins confrontés à l’altérité et aux points de vue divergents et évoluons de plus en plus dans des univers parallèles, qui se côtoient sans jamais se rencontrer.

Or l’empathie, la capacité à comprendre la diversité des points de vue sont une condition indispensable au bon fonctionnement de la démocratie, qui suppose de placer l’intérêt commun au-dessus des intérêts individuels. Sans cadre de références commun, comment participer de manière constructive au débat public ?

Risque de réduction de la liberté de choix, voire de manipulation :

La liberté de choix, ce n’est pas juste avoir la possibilité de choisir entre quelques options prédéfinies. C’est avoir la possibilité de se perdre, de déambuler au hasard et d’échapper au déterminisme. Une imprévisibilité que les algorithmes ne permettent plus dans nos vies numériques. Et pourtant, un humain est plus qu’un simple empilement de critères sur sa vie domestique, amoureuse, professionnelle…

Dans ce contexte, comment permettre aux citoyens de découvrir ce qu’ils ne connaissent pas encore, d’aimer ce qu’ils n’ont jamais testé, de s’ouvrir à des opinions différentes des leurs, si les algorithmes ne les nourrissent que de ce qu’ils aiment déjà ? D’autant plus que c’est un cercle vicieux, qui n’encourage pas les éditeurs à innover et à prendre des risques (puisqu’ils savent que ce qui marche le mieux est ce que le public aime déjà).

Le problème est multifacettes, et déjà bien réel. La preuve en 2016, quand nous sommes successivement tombés des nues en apprenant le vote du Brexit, puis l’élection de Trump. Nous aurions pu (dû) voir venir ces mouvements d’opinion… si nous n’étions pas déjà enfermés dans nos bulles !

Mais la cause n’est pas perdue, nous pouvons encore réagir.

Quelques pistes à envisager :

  1. Ouvrir une réflexion (puis une action) interdisciplinaire sur les algorithmes, qui mêle autant les sciences que les humanités. Il s’agit d’ouvrir les boîtes noires en faisant appel à toutes les intelligences, à toutes les disciplines, pour travailler en bonne intelligence et construire ensemble une stratégie efficace.
  2. Développer les capacités de contrôle et identifier les responsables des algorithmes : mettre en place des principes contraignants de neutralité des algorithmes et de loyauté des plateformes, pour obliger les acteurs recourant à ces outils à rendre des comptes sur leur programmation et leur utilisation. À cet égard, l’administration publique doit être exemplaire et remplir son devoir de transparence sur les données collectées et les principes qui gouvernent les algorithmes des services publics numériques (Parcoursup par exemple).
  3. Éduquer les citoyens (surtout les plus jeunes) à une compréhension critique des algorithmes : c’est essentiel, car nos jeunes générations sont en train de grandir avec les smartphones et les réseaux sociaux… des outils qui leur donnent une dangereuse impression d’omniscience sur le monde. Sans sensibilisation aux biais des algorithmes, on a vite fait de confondre son petit espace personnel avec le reste du monde. Chacun voit le monde à travers son propre prisme (son fil Twitter, ses actualités Facebook) et le considère comme la vérité.

Et dans ce travail, nous avons tous un rôle à jouer : institutions publiques, Education nationale, médias, citoyens… Le chantier est immense et c’est dès maintenant que nous devons nous y atteler.

Eric Scherer, avec l'aide précieuse d'Alexandra Yeh.

La vidéo de l'intervention est disponible sur le portail de l'Assemblée nationale.

Photo de andresmh sur Foter.com