IA et journalisme : quelle éthique ?

Par Alexandra Yeh, France Télévisions, Direction de l'Innovation

Tout n’a pas encore été dit sur l’intelligence artificielle (IA) dans les rédactions, loin de là. Dans la conférence organisée cette semaine par l’Ecole de journalisme de Sciences Po, nous avons retenu les questions éthiques, voire morales, que posent l'IA, les robots, ou autres chatbots. 

Extraits choisis.

1Pour une éducation des algorithmes

L’intelligence artificielle sera-t-elle consacrée comme le buzzword de l’année 2017 ? Personne ne s’en étonnerait. Pourtant, l’IA n’est déjà plus toute jeune, comme l’a expliqué le sociologue Dominique Cardon et son retour historique bien utile pour démystifier l’effervescence autour de ce terme qui alimente tous les fantasmes.

« On en est à la troisième hype de l’IA, a expliqué le sociologue, et le terme a déjà connu trois printemps et deux hivers ! »

L’émergence de l’intelligence artificielle remonte en effet aux années 1960 et au duel de deux chercheurs du Stanford Research Institute qui opposent deux conceptions diamétralement opposées de la notion d’IA : d’une part, Doug Engelbart, pour qui l’IA est une prothèse destinée à enrichir le cerveau de l’homme, à amplifier son intelligence. D’autre part, John McCarthy, partisan lui d’une intelligence pleinement autonome qui doterait les automates d’une forme de conscience. L’histoire, explique Dominique Cardon, a donné raison au premier : l’IA aujourd’hui est loin d’être autonome, et les algorithmes doivent être éduqués !

Une « éducation des algorithmes » d'autant plus essentielle que l'on a vu dans les années 1980, avec la deuxième vague de l'IA, que les tentatives de programmer les machines à raisonner comme des humains en les nourrissant de règles et de systèmes de décision logiques étaient vouées à l'échec... Pour une raison bien simple : l'homme n'est pas un être pleinement rationnel, et ses décisions dépendent bien souvent de facteurs imprévisibles (contexte, affects, sensibilité).

La solution, selon Dominique Cardon, est donc d'apprendre aux machines à analyser nos comportements plutôt que nos représentations. En gardant toujours à l'esprit que « nous devons réfléchir à la façon dont nous voulons éduquer les algorithmes ». Car les responsables des biais de l'IA (rappelons-nous le cas de l'IA raciste), c'est nous !

2Qui sauver, qui sacrifier ? Les dilemmes de l’IA

Accepter ou refuser un prêt bancaire, conseiller un avocat dans sa plaidoirie… Et demain, décider si vous allez vivre ou mourir : l’expression peut sembler provocatrice, mais c’est peu ou prou le problème auquel est déjà confrontée l’intelligence artificielle embarquée dans les voitures autonomes.

Car face aux situations de danger, les voitures autonomes seront inévitablement confrontées à des dilemmes : renverser un enfant ou deux adultes ? Provoquer une femme enceinte ou un homme âgé ?

Des dilemmes pour le moins épineux que Jean-François Bonnefon, chercheur à la Toulouse School of Economics, se propose d’explorer avec le projet Moral Machine. Le site, qui confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions. Le but : identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité…) et les différences culturelles et géographiques.

Verdict : on préfère sauver les humains plutôt que les animaux, mais il n’y a pas de préférence entre passagers et piétons. Et si ces choix moraux sont relativement homogènes d’un bout à l’autre du monde, les résultats montrent aussi qu’il n’y a pas de règle d'éthique qui soit totalement universelle… même si « il y a quand même des convergences locales dans le monde ». Il y aurait donc peu de chances qu’on préfère vous renverser pour sauver un chat : de quoi être rassuré !

3Repenser l'utilisation des statistiques d'audience : le cas du Temps

Ils sont nombreux, ces dernières années, les médias clamant haut et fort servir au public exactement ce qu’il veut, en s'appuyant sur l'analyse des sujets tendances sur les réseaux pour produire des articles. Les statistiques d’audience et les « trending topics » semblent être devenus la nouvelle boussole de ces rédactions en quête effrénée de lecteurs. Mais tous ne cèdent pas, et certains choisissent même de prendre le contrepied total de cette démarche, comme le quotidien suisse Le Temps, dont le rédacteur en chef adjoint Jean Abbiateci est venu présenter le projet Zombie.

Zombie, projet de R&D financé par le fonds DNI de Google, part d’une idée simple : le meilleur ambassadeur d’un média, ce sont ses (bons) contenus, et les rédactions ont besoin d’outils pour les identifier et les mettre en avant. Et un bon article, pour Jean Abbiateci, n’est pas seulement un article qui fait du clic, mais un article qui retient l’attention des lecteurs, qui crée le débat, qui fait réagir… Zombie, c’est donc une multitude d’indicateurs qui vont bien au-delà des seules données Chartbeat et Google Analytics pour y associer des données sociales et sémantiques.

Une analyse bien plus complète des contenus qui permet au Temps d’élaborer une stratégie différenciée pour chaque article : une enquête fouillée visera à capter l’attention des lecteurs et à les retenir sur le temps long, un autre article d’opinion cherchera plutôt à créer le débat, tandis qu’un contenu evergreen devra pouvoir être remis en avant plus tard.

4La guerre des intelligences : « Mes enfants ont un cerveau made in California ! »

On ne pouvait pas parler d’intelligence artificielle sans évoquer Laurent Alexandre, le « Monsieur IA » du moment. L’homme aux multiples casquettes (énarque, chirurgien, chef d’entreprise, auteur) est partout. Et il n’a pas déçu, enchaînant les punchlines et les saillies enflammées.

A commencer par ce cri d’alarme : l’IA est en train de provoquer un changement civilisationnel, et elle risque de faire exploser les inégalités. Devenue le centre névralgique de nos industries, l'intelligence artificielle risque de laisser sur le bas-côté des millions d'individus qui ne seront pas formés pour manipuler les algorithmes. Et pas la peine d'apprendre à nos enfants à coder, car le chercheur prédit que 95% du code sera écrit par l'IA d'ici 15 ans, le reste étant pris en charge par des ingénieurs ultra qualifiés.

Deux puissances – Washington et les GAFA d’un côté, Pékin et les BATX de l’autre – se partagent aujourd’hui le monde, abandonnant l’Europe et ses nains numériques, à la traîne. Ces géants, ce sont ceux qui maîtrisent l’intelligence artificielle, condition indispensable de la puissance géopolique selon Laurent Alexandre. L’Europe, encore « ancrée dans le 20ème siècle dans la plupart des domaines industriels », ne serait plus qu’une « colonisée numérique », dont la seule planche de salut sera de réussir à se faire une place dans cette économie de l’intelligence. Rendez-vous l’année prochaine pour mesurer nos progrès ?