L’IA s’invite dans la newsroom

Par Alexandra Yeh, France Télévisions, Direction de la Prospective

En 2013, les directeurs de l’info de l’agence de presse US The Associated Press ont fait un pari audacieux : automatiser la rédaction de certaines dépêches. AP fut ainsi l’un des premiers médias à introduire l’intelligence artificielle dans les salles de rédaction, en commençant par sous-traiter la rédaction des compte-rendus sportifs et des résultats trimestriels d’entreprises.

Quatre ans plus tard, l’IA s’est officiellement invitée dans le quotidien des journalistes et infuse désormais tous les maillons de la chaîne de production de l’info. Dans un rapport sur ce que l’on nomme désormais le « journalisme augmenté« , AP nous en dit plus sur le potentiel de l’IA dans le journalisme.

Capture d’écran 2017-04-07 à 11.13.01

Qu’est-ce que le journalisme augmenté ?

Non, on ne parle pas ici de réalité augmentée, encore moins de revendications salariales. On parle d’un journalisme dopé à l’intelligence artificielle, enrichi avec des algorithmes qui sont désormais parties prenantes dans la fabrication de l’info.

C’est un journalisme qui dote ses professionnels de nouveaux outils pour les aider à produire une info plus précise, plus documentée, et à plus grande échelle. Car l’IA permet, comme le souligne le rapport, de rationaliser les workflows, de décharger les journalistes des tâches répétitives et peu qualifiées, d’industrialiser le traitement des données, d’identifier des tendances, de mettre en forme l’info sous divers formats (texte, vidéo, audio…) ou encore d’analyser les contenus pour mieux les indexer.

Ses avantages ? Une rapidité d’exécution incomparable et une fiabilité bien supérieure à celle de l’humain. Car l’intelligence artificielle ne fait pas de fautes d’orthographe ou d’erreurs de calcul, et est capable de traiter à la chaîne des quantités massives de données, là où nous, simples mortels, sommes soumis à notre dure condition d’êtres faillibles.

Une telle puissance de frappe n’est pas de trop pour certaines investigations de grande envergure. Dans le cas des Panama Papers, le recours à l’IA a même été indispensable pour traiter les 2,6 terabytes – soit 26.000 gigas ! – de données et transformer les emails et les documents de Mossack Fonseca en données exploitables par les journalistes.

Source : Süddeutsche Zeitung
Source : Süddeutsche Zeitung

Et alors que « les médias et les internautes créent 2 milliards d’images et 1 milliard d’heures de vidéo par jour », selon Justin Pang, directeur des partenariats chez Google, les journalistes ont plus que jamais besoin de l’intelligence artificielle pour analyser, hiérarchiser et indexer ces quantités colossales de données.

Mais pour tirer pleinement parti de l’IA et l’intégrer efficacement dans les salles de rédaction, encore faut-il comprendre les rouages de cette technologie.

Petit lexique de l’IA

Traitement du langage naturel, reconnaissance vocale, apprentissage supervisé… Sous le mot-valise d’IA se cache une large palette d’outils techniques qui s’avèrent extrêmement utiles au travail journalistique. AP revient sur les cas d’usage de l’IA et les termes techniques à connaître.

Capture d’écran 2017-04-07 à 14.53.07

Machine learning

Le machine learning désigne l’apprentissage automatique par la machine et peut être supervisé ou autonome. 

L’apprentissage supervisé consiste à nourrir la machine avec une base d’exemples de référence pour lui apprendre à repérer les données qui s’en écartent. Prenons l’exemple d’un journaliste d’investigation qui suspecterait une entreprise d’être impliquée dans des activités frauduleuses, mais n’aurait pas assez de temps pour éplucher tous les documents financiers à sa disposition. L’apprentissage supervisé de l’IA pourrait lui permettre de sous-traiter le travail : en nourrissant la machine avec des documents valides, le journaliste apprendra à la machine à détecter ceux qui ne sont pas conformes au modèle et donc à repérer d’éventuelles irrégularités.

A l’inverse, l’apprentissage autonome consiste à nourrir la machine avec des données non structurées et à la laisser repérer des liens ou des tendances, sans la guider.

Traitement du langage

On distingue ici le traitement automatique du langage naturel (natural language processing, NLP) de la génération automatique de texte (natural language generation, NLG).

Avec la génération automatique de texte, la machine se contente de compléter des textes pré-écrits. C’est le cas du Quakebot du Los Angeles Times, par exemple, qui a été entraîné pour tweeter automatiquement les séismes recensés en Californie :

Capture d’écran 2017-04-07 à 17.25.04

Le traitement automatique du langage naturel, en revanche, est capable de comprendre et contextualiser la donnée pour rédiger des textes de toutes pièces :

Capture d’écran 2017-04-07 à 17.27.36

Speech to text vs. text to speech

La traduction ici est assez transparente : le speech to text désigne la transcription d’un document audio en un texte écrit, et le text to speech désigne la transposition audio d’un texte écrit. Le text to speech est la technologie principale sur laquelle reposent les assistants vocaux comme Alexa ou Google Home, et qui de plus en plus sont investis par les médias pour proposer de l’info au format audio. Le speech to text, lui, permet par exemple d’automatiser la production de sous-titres pour les vidéos.

Quels impacts de l’IA sur le journalisme ?

Chez AP, l’arrivée de l’IA et l’automatisation des contenus sportifs et financiers a déjà permis de libérer 20% de la charge de travail des journalistes. Autant de temps qu’ils peuvent désormais consacrer à la production de contenus plus complexes et à plus forte valeur ajoutée.

Et à ceux qui craignent pour leur emploi, l’étude répond simplement que si l’IA peut augmenter le journalisme, elle ne remplacera pas les journalistes. Simplement, elle transformera leur métier – et elle le fait d’ailleurs déjà : de plus en plus, les journalistes seront amenés à collaborer avec la machine, mais aussi et surtout avec les professionnels de la robotique. Data scientists et « computational journalists » seront de plus en plus nombreux dans les rédactions pour continuer à entraîner l’IA et tirer pleinement parti des potentialités qu’elles nous offrent. D’ores et déjà, le New York Times a adapté sa politique de recrutement et recherche de plus en plus de journalistes capables de coder.

Quid des accusation de biais des algorithmes ? Faux procès, selon Lisa Gibbs, global business editor chez AP : « les erreurs des algorithmes découlent généralement d’un problème avec les données de base [celles avec lesquelles on a nourri l’IA, NDLR]. Si la donnée est mauvaise, le résultat sera mauvais ». Finalement, c’est cela le vrai challenge : réussir à construire une IA qui réfléchit comme l’humain, mais qui ne reproduit pas ses préjugés et ses erreurs.

c76bea53b07289ade01ea9bac71fb8c6

Plateformes vs. éditeurs : les liaisons dangereuses

Par Gautier Roos, France Télévisions, Direction de la Prospective

La question est aussi vaste qu’ambitieuse : comment la Silicon Valley a-t-elle changé le visage du journalisme mondial ?

Dans un (long) rapport de 25.000 mots publié il y a quelques jours, le Tow Center for Digital Journalism de Columbia s’étend sur les nombreuses conséquences induites par la montée en puissance de ces acteurs oligopolistiques, dont il paraît bien difficile (pour ne pas dire suicidaire) de se passer quand on est un média d’informations. Une étude rétrospective éclairante sur la rapide redistribution des rôles de chacun, qui montre à quel point une petite décennie suffit à rebattre complètement les cartes à l’échelle du web. 

Les espoirs contrariés d’un web pluriel et compétitif

En à peine 20 ans, le journalisme a connu pas moins de trois révolutions successives : une valse intensive qui souligne l’importance de prendre les bonnes décisions au bon moment.

Il y eut d’abord le basculement vers le numérique, lors des premiers balbutiements du web (1994-2004), période à laquelle les entreprises d’info se demandaient comment elles allaient transférer les lecteurs du print vers l’ordinateur. Il y eut ensuite, lors de la décennie suivante, l’émergence du web social, soutenu par l’open source et la prolifération des commentaires, période où de nombreux pure players ont vu le jour.

La troisième phase concerne l’actuelle prépondérance du mobile : plus qu’un acteur incontournable, il est devenu la nouvelle voie d’accès à l’information, accusant par la même un recul des ordinateurs de bureau et des tablettes.

Au fil du temps, des entreprises de plus en plus puissantes se sont mises à capter le marché de l’attention et les recettes publicitaires, exerçant une influence sur des éditeurs contraints d’adapter leurs pratiques et leurs structures économiques. L’internet d’aujourd’hui, verrouillé par quelques acteurs, est en train de mettre à mal les espoirs originels du père fondateur du web, le britannique Tim Berners-Lee.

Parmi la quarantaine de réseaux sociaux qui permettent à un média d’info d’atteindre son public, Facebook exerce une influence encore jamais vue dans toute l’histoire de la consommation de news. Conséquence directe : un nouvel écosystème de l’info se dessine, et, disons-le clairement, il coupe les vivres aux institutions journalistiques. Verizon, Twitter, Yahoo, Google et Facebook captent déjà plus de 65% du marché publicitaire en ligne, rappelait le Pew Research Center en 2016.

Sans décision politique collective, le ciel restera bien sombre pour les entreprises d’info : Digital Content Next constate de son côté que 90% de la croissance générée sur ce même marché en 2015 est allée dans les poches de Facebook et Google. Pas vraiment de quoi espérer des lendemains qui chantent…

cannibale FB google

Les plateformes sont-elles des éditeurs ?

Longtemps engluées dans le déni, les plateformes acceptent désormais d’assumer le rôle plus que prépondérant qu’elles jouent aujourd’hui dans ce nouvel écosystème d’info : au cœur du débat sur les fake news, Facebook est subitement passée de « simple entreprise technologique » à « nouveau genre de plateforme » dans la bouche de son illustre créateur, qui reconnaît aussi que le réseau social est un média à part entière.

Brouillant la frontière entre créateurs et distributeurs de contenus, les entreprises de la Silicon Valley jouissent d’un statut ambigu : Apple, Google, Snapchat, Twitter, et surtout Facebook sont-elles devenues des éditeurs ? La distribution et la mise en forme de l’info, la monétisation des publications, le point de contact stratégique avec les audiences : ces leviers sont aujourd’hui entre les mains d’une poignée de plateformes, chez qui la bonne santé du journalisme est loin d’être la première des priorités.

Dans cette nouvelle ère où l’information passe d’abord par le mobile (le Pew Center rappelle qu’en 2016, 92% des américains de 18 à 29 ans possèdent un smartphone, et plus de 62% de la population US consomment l’info via un réseau social, avec Facebook comme principale porte d’entrée) il faudrait affilier à ces applications une nouvelle fonction : celle de gatekeeper, de gardien de l’info. Le temps que nous passons sur ces appareils, et la tonne de data récoltée chaque jour par ces quelques acteurs, bouleverse non seulement les rapports de force, mais aussi l’environnement journalistique dans son ensemble.

Loin d’être uniquement des relais, les plateformes s’exposent à des enjeux nouveaux : doivent-elles influencer le tri des requêtes et des résultats, ou s’en remettre à des algorithmes dont elles sont parfois bien en peine de justifier les décisions ? L’interventionnisme brise la neutralité et l’objectivité chère à notre démocratie, là où l’absence totale de filtres laisse place à n’importe quelle dérive (Google, et les nombreuses requêtes portant sur la véracité de l’Holocauste, en sait quelque chose).

Difficile d’apporter une réponse définitive à ces questions : en août 2016, Facebook a congédié ses 30 « curateurs » humains pour les remplacer par des algorithmes, après qu’on lui a reproché d’avoir injustement occulté des informations provenant de sites conservateurs dans ses Trending Topics

Le déferlement des fake news et la mise en lumière de la post-vérité ont bien vite changé la donne : à la fin de l’année, tout le monde s’accordait pour dire que Facebook devait préférer l’ingérence plutôt que le laisser-faire, afin de ne pas laisser les rumeurs et les messages propagandistes ravager notre démocratie. Une réponse à un contexte inquiétant : Craig Silverman (chef de section médias chez Buzzfeed News) venait de montrer que lors du mois précédent l’élection, les partages et les likes concernant les publications du site conservateur et ultra-partisan Freedom Daily (où la moitié des contenus sont soit mensongers, soit trompeurs), étaient en moyenne 19 fois plus fréquents que ceux d’un acteur historique de l’info comme CNN…

Peu après l’élection de Trump, Mark Zuckerberg rappelait à raison que Facebook devait bien se garder de devenir “un arbitre de la vérité” : raison pour laquelle la firme a noué des partenariats avec des éditeurs et des entreprises de fact-checking pour soumettre les articles douteux à notre discernement (ce sont les internautes qui effectuent le signalement) plutôt qu’à la censure. Une labellisation qui a justement été reprochée au Décodex (Le Monde), accusé d’endosser un costume de juge au-dessus de la mêlée, voire d‘inquisiteur restaurant la mise à l’index : de quel droit une entreprise qui a des intérêts économiques peut-elle distribuer les bons et les mauvais points à ses concurrents ?  

Nouveaux formats, clickbait, contenus sponsorisés : le diktat des plateformes et des annonceurs

D’un monde où le journalisme pouvait presque se réduire à quelques items phares (le bon vieil article de presse, l’entretien à la radio), nous avons basculé dans un univers d’abondance où une multitude de nouveaux formats cohabitent. Snapchat Discover, Facebook Live, Instagram Stories, Twitter Moments : il n’a fallu que quelques mois à cette novlangue obscure pour basculer dans le jargon commun. Mais ces nouveaux formats impulsés par les géants de la Silicon Valley, s’ils ont l’avantage de pousser les médias à une certaine créativité, sont difficilement digérables par toutes les structures.

La production de vidéos nécessite évidemment des coûts plus importants pour les éditeurs que le print. Les médias ayant la chance d’être distribués via Snapchat Discover ont tous dû monter des cellules et des équipes spécifiques, rodées aux nouveaux usages, pour produire du contenu quotidien (sans réel gage de rentabilité).

Conscient de son pouvoir démiurgique, Facebook a subventionné certains médias jusqu’à 5 millions de dollars pour qu’ils produisent du live et initient le public à ces nouveaux usages. Mais lorsque l’entreprise a stoppé ces aides en début d’année, le live s’est logiquement mis à stagner… S’alignant sur les variables du marché publicitaire, Mark Zuckerberg a aussi souhaité stimuler la production de longues vidéos sur le réseau social, grâce aux mid-rolls apparaissant une minute trente après la lecture : comment un média, même de taille moyenne, peut-il s’adapter à des exigences de production aussi fortes et fluctuantes ?

D’autant que l’audience volage naviguant sur Facebook dicte elle aussi sa loi : constatant que leurs vidéos étaient souvent mises en mode « mute » sur le réseau social, les éditeurs se sont mis à y inscrire du texte. Pour une entreprise de presse, la pression vient de partout, et peut surgir du jour au lendemain : les injonctions de Google et Facebook ne sont pas les seules à poser problème, comme le résume Mark Thompson, président du New York Times.

« L’idée diffuse selon laquelle les revenus publicitaires en ligne (…) seraient suffisants pour financer un journalisme de qualité est illusoire. Ces revenus profitent principalement à ceux qui contrôlent les plateformes (…) : le search, les réseaux sociaux, et les terminaux ».

Permettant à n’importe qui de générer des revenus en ligne, la démocratisation du web a fait chuter le CPM (coût par mille impressions) : de nouveaux formats publicitaires ont donc été contraints d’émerger pour toucher efficacement le public. La prolifération du native advertising, avec ces contenus sponsorisés qui émergent au sein des médias pourtant peu adeptes de l’agressivité publicitaire, témoigne de cette nouvelle donne économique.

examples-in-feed-ads-471fc9f7

La publicité plus ou moins déguisée jouxte désormais les articles plus sérieux, l’idée étant d’entretenir une confusion des genres dans la tête d’un lecteur qui dispose aujourd’hui d’ad-blockers toujours plus performants. Les éditeurs sont ainsi contraints d’héberger le discours des marques : c’est un peu comme si en ligne, le publi-communiqué s’était invité partout.

En s’appropriant le format journalistique, les annonceurs ont trouvé la solution pour renouer le contact avec leurs cibles. Selon une étude de Digital Content Next publiée début 2017, les recettes des contenus natifs représentent déjà en moyenne 14% des recettes globales pour un éditeur en ligne.

Le phénomène est solidaire du clickbait, ces contenus aguicheurs (et parfois trompeurs) uniquement conçus comme des incitations aux clics. S’appuyant sur des enquêtes de qualité, BuzzFeed jouit aujourd’hui d’un certain prestige au sein de la presse : son modèle économique n’en reste pas moins drivé par des contenus viraux loin de donner leurs lettres de noblesse au journalisme… Certes, le click incentive n’est pas né d’hier, mais dans un web très concurrentiel où prévaut l’économie d’échelle, et au moment où le marché de l’attention s’intensifie, il a encore de belles heures devant lui.

Des stratégies de distribution qui varient grandement selon les titres

Mais ce contexte incertain a au moins un avantage : permettre aux titres de redéfinir leurs fondamentaux journalistiques. Certains éditeurs n’hésitent plus à délocaliser l’essentiel de leurs contenus sur les plateformes, cherchant à multiplier les points de contacts et s’assurer avant tout une visibilité, au risque de perdre totalement la main sur leur audience. D’autres réfléchissent à deux fois avant de s’engager sur la dernière innovation formelle initiée par Facebook et consorts, et optent pour une logique de barrage qui restreint un maximum la migration du public.

Native vs platform

Avec comme cadre de référence la semaine du 6 au 12 février, le graphique montre que la production de contenus natifs (Stories, Snapchat Discover, Instant Articles de Facebook, Apple News…) est presque devenue aussi conséquente que celle de contenus « propriétaires » (« networked »), c’est-à-dire ceux redirigeant vers le site ou l’application originale. Ce qui en dit long sur l’exigence de temps et de moyens qu’il faut désormais déployer pour satisfaire les plateformes.

HUFF POST

Ne lésinant pas sur les Instant Articles et sur les Apple News, le Huffington Post a par exemple fait le choix d’une stratégie essentiellement tournée vers le natif (66% de sa production totale).

CNN

CNN s’inscrit dans une démarche similaire, avec un recours presque aussi intensif à l’hébergement extérieur (59% de contenus natifs). Une situation qui s’explique aussi par leur stratégie sur Snapchat Discover et sur l’application de messagerie Line, destinée à capter de jeunes audiences pas vraiment habituées à prendre l’info à la source.

NYT

La stratégie du New York Times est tout autre. Si le titre a publié quasiment le même nombre d’éléments que le Huff Post sur les plateformes, il préfère garder la main mise sur sa relation avec le lecteur (seulement 16% de contenus natifs, avec une faible activité sur Apple News). Deux raisons à cela : le NYT a abandonné les Instant Articles, et le journal s’inscrit aujourd’hui dans une logique d’abonnement qui vise surtout à drainer du trafic sur son site, de façon à convaincre l’audience de souscrire à un modèle premium.

En tous les cas, le rapport semble préconiser la plus grande prudence au moment de choisir sa stratégie vis-à-vis des plateformes, ne serait-ce que pour rester propriétaire de sa relation avec l’audience. L’entre-deux fonctionne mal : l’étude conseille de bien définir en amont quelle ligne choisir. Soit un engagement minimum vis-à-vis des plateformes (un modèle économique qui repose sur des marges élevées, mais un échantillon de revenus limité) ; soit une alliance avec elles et une intégration au sein du marché publicitaire (avec des marges moins importantes puisqu’il faut les partager, mais des sources de revenus plus étalées).

Le déséquilibre entre plateformes et éditeurs semble tel aujourd’hui qu’il pousse les marques à valoriser leur image de marque et affirmer leur spécificité, dans une ère où l’info brute est disponible partout. Et c’est peut-être la (petite) note d’espoir qui ressort de cette synthèse pas vraiment enthousiasmante : pour les services de streaming comme pour les entreprises d’info, le marché de l’abonnement commence doucement à décoller, permettant une certaine autonomie vis-à-vis de la pression publicitaire…et un recentrement autour d’une valeur centrale : le public.

Militantisme 2.0 : les nouveaux continents numériques de l’élection

Par Alexandra Yeh, France Télévisions, Direction de la Prospective

Des partis traditionnels à la traîne sur les réseaux sociaux et une stratégie de l’outsider qui triomphe : c’est le panorama d’une campagne électorale plus turbulente que jamais que dresse l’agence de communication Reputation Squad, qui a observé les communautés Facebook des cinq candidats à la présidentielle les plus influents sur le web.

Quelle communauté est la plus fidèle à son candidat ?

Comment les multiples rebondissements de la campagne se traduisent-ils dans les comportements en ligne des électeurs ?

 Un « marché du like » hyper volatil

Pendant 7 mois, d’août 2016 à mars 2017, Reputation Squad a analysé 9 millions de likes générés par 1,7 million d’internautes. Pour réaliser cette étude, l’agence a choisi d’observer plus particulièrement les mentions « j’aime » récoltées par les statuts Facebook des candidats. Le but ? Etudier les comportements qui révèlent une véritable adhésion à un propos – car si un simple like de la page Facebook d’un candidat ne signifie pas un ralliement à ses idées, « aimer » un contenu qu’il poste est en revanche bien plus révélateur d’une certaine proximité idéologique.

Premier enseignement de l’étude : les likes sur les publications des candidats sont hyper sensibles à l’actualité politique. La plateforme est un véritable miroir de l’opinion des internautes à l’instant T, et le réceptacle de leurs réactions aux péripéties de la campagne : les émissions politiques, les affaires judiciaires ou encore le premier grand débat entre les cinq grands candidats se sont ainsi reflétés instantanément dans le nombre de likes sur les statuts des candidats, avec un afflux massif de mentions « j’aime » pour certains (Jean-Luc Mélenchon lors de sa Marche pour la VIème République par exemple, ou encore Benoît Hamon après l’Emission Politique du 9 mars), et un recul soudain pour d’autres (François Fillon après l’éclatement de « l’affaire Pénélope »). 

03

Et cette volatilité se traduit directement dans le classement des communautés Facebook les plus engagées : dans la course aux statuts les plus likés, aucun candidat ne se distingue réellement, et si Marine Le Pen et Jean-Luc Mélenchon, avec respectivement 485.000 et 431.000 mentions « j’aime », sont loin devant en termes de likeurs uniques (Benoît Hamon, bon dernier, plafonnant à 116.000), l’étude révèle en revanche que l’engagement des internautes sur chacune de leurs publications est extrêmement instable. A l’image, finalement, du climat d’incertitude inédit qui anime cette campagne.

 L’engagement des communautés politiques sur Facebook, miroir des pratiques de com des candidats

Autre enseignement : les fluctuations du nombre de likes sur leurs statuts permettent de mieux comprendre la stratégie de communication de chaque candidat. Benoît Hamon par exemple a vu son nombre de likes grimper en flèche en janvier puis en mars, précisément lors des deux actualités majeures de sa campagne : sa victoire à la primaire de la gauche puis sa venue sur le plateau de L’Emission Politique. Deux pics d’engagement seulement qui révèlent la difficulté du candidat socialiste à fédérer sa communauté en ligne en dehors de son actualité immédiate : loin d’une stratégie digital-native, c’est une communication très institutionnalisée que pratique Benoît Hamon, où Facebook n’est qu’un relais parmi d’autres. 

04

A l’inverse, Emmanuel Macron a vu, tout au long de la campagne, les mentions « j’aime » sur ses statuts augmenter lentement mais sûrement, de façon relativement décorrélée de son actualité : le résultat, selon Reputation Squad, d’une communication digitale réussie qui réussit à maintenir l’intérêt des internautes malgré l’absence de grands coups d’éclat dans sa campagne.

Jean-Luc Mélenchon, quant à lui, ne faillit pas à sa réputation d’excellent communicant 2.0 : c’est le seul, parmi les 5 candidats, à réussir à provoquer des pics de likes pour des actualités… d’autres partis que le sien. En parvenant à s’inviter dans l’agenda politique de ses adversaires, le candidat de la France insoumise a vu sa communauté Facebook cliquer frénétiquement sur le bouton « j’aime » en novembre 2016, puis en janvier 2017, lors des primaires de droite et de gauche. Une stratégie payante qui a permis à Jean-Luc Mélenchon de se construire une solide communauté en ligne. 

05

Cartographie de l’échiquier politique 2.0

Et parce que beaucoup d’internautes ne likent pas qu’une seule page de candidat, Reputation Squad a pris soin d’observer les recoupements entre les communautés Facebook de chacun pour dresser une cartographie de l’échiquier politique sur la toile.

Une démarche particulièrement pertinente dans le contexte des primaires de droite et de gauche, puisqu’elle permet de montrer, chez les républicains comme chez les socialistes, que les candidats outsiders ont totalement hacké l’élection : 

01 02

Et quid de la fidélité des communautés des candidats sur Facebook ? Sans surprise ici, ce sont Marine Le Pen et Jean-Luc Mélenchon qui parviennent le mieux à fédérer leurs soutiens, avec respectivement 91% et 80% de « likeurs fidèles » (c’est-à-dire n’aimant les statuts que d’un seul candidat), suivis de près par François Fillon, à 79%.

Une domination des candidats de l’opposition qui s’explique, selon Adélaïde Zufilkarpasic, directrice de BVA Opinion, par le fait que Facebook est une plateforme particulièrement propice à l’expression d’opinions tranchées, voire extrêmes. Contrairement à Twitter qui favorise les échanges avec des inconnus, Facebook se présente comme un espace clos où l’on converse entre amis. Une impression d’intimité qui désinhibe et favorise donc l’expression de positions assez radicales.

 Le numérique a-t-il révolutionné la « compol » ?

Probablement pas, selon le panel d’experts invité par Réputation Squad pour réagir aux résultats de l’étude. Pour Romain Pigenel, ex directeur adjoint en charge du numérique du service d’information du gouvernement, qui a participé à la campagne numérique de François Hollande en 2012, cette élection est même une véritable déception :

« Depuis trois ou quatre campagnes, la campagne 2017 est la première qui marque une stagnation, voire un retrait des outils numériques. J’ai l’impression qu’on est restés bloqués en 2012 : rien n’est fait sur Instagram, ni sur Snapchat ».* Et d’ajouter que « les vieux réseaux sociaux sont devenus inopérants. Twitter est devenu un champ de bataille clos qui ne rassemble plus que des militants hyper formatés s’échangeant des éléments de langage ».

D’autres, comme Tristan Mendès-France, enseignant des nouveaux usages numériques au CELSA, reconnaissent tout de même que le web, et en particulier les forums, jouent un rôle inédit dans cette campagne, citant notamment les attaques synchronisées de militants FN qui diffusent des memes ou qui ont créé des trending topics sur « Ali Juppé » et « Farid Fillon ». Pour lui,

« nous sommes certes dans une campagne atone, mais des choses apparaissent, un phénomène de fond qui replace les réseaux sociaux dans un espace central. Si la communication côté candidats ne change pas, elle bouge beaucoup en revanche du côté des militants » .

La campagne 2017 n’aura donc pas été celle du numérique. Si tous les candidats ont bien saisi l’importance de consolider leur présence sur le web, tous en revanche ne parviennent pas encore à exploiter pleinement les potentialités des réseaux sociaux et beaucoup considèrent encore Facebook comme une simple extension de leurs canaux de communication traditionnels.

Un manque de considération pour le terrain numérique qui se ressent dans l’engagement des communautés en ligne des candidats. A l’instar des sondages qui semblent incapables de prédire le résultat de l’élection, ce ne sont pas les statistiques de likes sur Facebook qui permettront de désigner le gagnant : définitivement, la première place se disputera jusqu’au 7 mai.

* [Edit du 3 avril] Une affirmation à nuancer, car les cinq grands candidats sont bel et bien présents sur Snapchat et Instagram. Bien qu’ils semblent en faire une utilisation relativement conventionnelle (peu de recours aux filtres, customisation légère, ton assez formel sur Snapchat et peu d’Instragram Stories), il faut leur reconnaître l’effort de proposer du contenu sur les nouveaux réseaux — reste à relever le plus gros défi : parvenir à s’approprier les codes de ces plateformes sans rogner sur la qualité et le fond du propos.

L’IA, en route vers la quatrième révolution industrielle ?

Par Gautier Roos et Alexandra Yeh, France Télévisions, Direction de la Prospective

Après la machine à vapeur, l’électricité et l’informatique, au tour de l’intelligence artificielle de bouleverser notre quotidien. Encore à ses balbutiements dans les années 1950, la technologie est aujourd’hui sur toutes les lèvres, grâce à une puissance de calcul inconcevable il y a de ça quelques années. De là à parler de nouvelle révolution industrielle, il n’y a évidemment qu’un pas !

La donnée est le nouveau pétrole

Entrer une adresse sur un GPS, effectuer une recherche Google, écrire un tweet, consulter la météo sur notre téléphone : toutes nos actions aujourd’hui produisent de la donnée, qui est en passe de devenir le nouveau pétrole de nos sociétés modernes. Et ces quantités industrielles d’informations, seule l’intelligence artificielle est capable de les collecter, les trier, les hiérarchiser et les gérer.

Le saviez-vous ? Quand vous consultez la météo sur votre iPhone, vous confiez vos données à... IBM
Le saviez-vous ? Quand vous consultez la météo sur votre iPhone, vous confiez vos données à… IBM

Contrôler la donnée, c’est l’assurance pour les entreprises de pouvoir aller de plus en plus dans l’analyse des comportements, le profilage des utilisateurs, et donc le ciblage des produits et services qui leur sont vendus. Et pour mieux exploiter ces gigaoctets d’information, les grands groupes tech développent des IA toujours plus performantes, capables d’une compréhension de plus en plus fine de notre monde.

Chez IBM par exemple, l’IA Watson fonctionne selon trois principes :

L’IA infuse tous les secteurs

Et les cas d’usages de ce type d’IA apprenante sont de plus en plus nombreux, dans tous les secteurs. Quelques exemples :

Sur tous les fronts, l’IA apparaît donc comme la panacée pour les innovateurs du monde entier, bien que sa définition et son périmètre restent difficile à définir clairement. Cette absence de contours précis contribue d’ailleurs à un certain effet de mode : certaines entreprises s’engagent sur le chantier de l’intelligence artificielle sans vraiment savoir pourquoi.

Cloderic Mars, CTO chez Craft.Ai, où il conseille et accompagne des acteurs profanes en la matière, le confirme : certains de ses clients prennent le problème à l’envers et viennent le voir pour « faire de l’IA », sans projet clair associé ! La technologie devient une fin en soi, alors que pour être pleinement efficace, elle doit demeurer un moyen au service une vision.

Loin d’être le sésame magique qui ouvre toutes les portes, l’IA reste pour l’heure soumise à des biais qui prouvent qu’elle a encore un peu de retard sur l’intelligence humaine.  Si en 2017 la reconnaissance faciale n’est déjà plus une fonctionnalité pointue, nous en sommes encore à un stade où la compréhension d’une image reste assez sommaire.

Malgré une capacité à digérer des millions de cas de figure pour parfaire son apprentissage, la technologie est encore faillible. Exemple avec cet ordinateur dont on a longtemps cru qu’il savait distinguer “avec discernement” les voitures des camions, mais dont on s’est finalement rendu compte que sa lecture de l’image était très limitée (comme les exemples qui lui ont été enseignés montraient souvent des clichés de camion capturés en journée, la machine associait spontanément la couleur du ciel au type de véhicule…).

La révolution de l’IA en est donc à ses prémices, mais au vu des montants colossaux qui sont investis, les progrès seront inévitablement très rapides. Il était donc grand temps que nos gouvernants se saisissent de cette thématique, dont les conséquences commencent déjà à infuser l’économie et redéfinir nos emplois.

IA : la France se dote enfin d’une vision stratégique

C’est dans ce contexte mêlé d’excitation et d’incertitude que le gouvernement a mobilisé les membres de la communauté IA pour prendre le pouls des initiatives du pays et définir une stratégie nationale sur cet enjeu plus qu’essentiel.

Recherche, formation, stratégie industrielle, éducation du grand public : 500 experts répartis en 17 groupes de travail ont ainsi été mis à contribution du 20 janvier au 14 mars pour plancher sur des actions de politique publique en matière d’IA.

ban-ia-02-38

Remis au gouvernement le 21 mars à la Cité des sciences et de l’industrie (Paris), le rapport prévoit la mise en place d’un comité stratégique de l’IA – qui réunira des acteurs de la recherche, de l’enseignement, du monde économique et de la société civile – pour mettre en œuvre les recommandations des groupes de travail.

Le lancement d’un programme sollicitant les institutions de recherche pour identifier, attirer et retenir les meilleurs talents en IA ; la coordination par la France d’une candidature à un programme phare européen sur l’IA co-financé par l’UE à hauteur d’1 milliard d’euros ; la mobilisation de diverses filières (automobile, finance, santé, transport ferroviaire, relation client) pour que chacune d’entre elle définisse sa stratégie en matière d’IA, sont à l’ordre du jour.

Parmi les 59 propositions mises sur la table et accessibles dans la synthèse du rapport, on retiendra la création d’un Centre français pour l’IA (« un lieu de rencontre entre académiques et industriels »), ainsi que le développement de MarIAnne, un assistant conversationnel intelligent en soutien à la modernisation de l’action publique. L’accent est mis sur l’éducation, avec la possible mise en place d’un enseignement « à l’IA, au traitement des données et aux sciences numériques » qui courrait de l’école primaire au lycée.

L’adaptation du code de la route aux voitures autonomes, ou la défiscalisation des rachats de start-ups IA par les grands groupes français en vue de gagner en compétitivité, y sont aussi évoquées.

Une série d’initiatives qui atteste de la volonté de la France de se placer aux avant-postes dans un domaine où la compétition fait rage, et où la fuite des cerveaux semble nous avoir déjà beaucoup porté préjudice. L’exécutif met donc le coup d’accélérateur nécessaire pour prendre la mesure d’un nouvel âge d’or de l’IA, « né de la combinaison de l’explosion des volumes de données, de la démultiplication de la puissance de calcul et du développement de nouvelles méthodes et algorithmes » comme le résume Thierry Mandon, secrétaire d’Etat à la Recherche et l’Enseignement supérieur et initiateur du projet FranceIA avec Axelle Lemaire.

Loin des idées reçues qui voudraient faire d’elle un dinosaure sur le front technologique, la France est la deuxième destination en matière d’investissements européens en IA, avec 278 millions d’euros levés en 2016. C’est loin derrière l’indépassable Grande-Bretagne (581 millions d’euros), mais largement devant nos voisins allemands (187) et belges (110), révèlent les chiffres de La Tribune.

Si on peut peut-être regretter que cette batterie d’initiatives arrive un peu tard, il faut tout de même souligner le fait que seuls trois pays ont mis en place des chantiers similaires dans le domaine de l’intelligence artificielle : la Corée du Sud, la Chine, et les Etats-Unis.

Retrouvez notre story Snapchat sur la remise du rapport France IA au gouvernement :

Des jeunes pousses de la French Tech aux grandes entreprises du CAC 40, des laboratoires de chercheurs aux bureaux des ministères, l’intelligence artificielle semble avoir conquis tout le monde. Mais sous le vernis d’un enthousiasme généralisé, une inquiétude subsiste, et une question est sur toutes les lèvres : l’IA va-t-elle remplacer l’humain ?

D’un ton rassurant, Nicolas Sekkaki expliquait, cette semaine, que « l’IA ne va pas remplacer l’homme, elle va l’augmenter. » D’autres avancent, chiffres à l’appui, que seuls 10% des emplois seraient menacés par l’automatisation du travail. Beaucoup estiment enfin que si l’IA est performante dans l’exécution de tâches systématiques, répondant à un « pattern » précis, elle est en revanche encore loin derrière l’homme en termes de capacité d’abstraction et de créativité.

Des propos à tempérer, dans la mesure où beaucoup d’apôtres de l’intelligence artificielle sont, précisons-le, motivés aussi par des intérêts économiques. Il n’aura fallu que quelques années à l’IA pour infuser discrètement nos pratiques, mais qu’en sera-t-il dans 5, 10 ou 20 ans ?

Ce qui est sûr, c’est que c’est une transformation en profondeur qui est en train de s’opérer sous nos yeux. Et que c’est dès aujourd’hui qu’il faut réfléchir à la société intelligente que nous voulons construire.

Le speed watching : analyse de la consommation à grande vitesse

Par Samuel Bischoff, Fonds des Médias du Canada. Billet invité

Cet article, publié sur FMC Veille, est présenté dans le cadre d’un partenariat éditorial entre le Fonds des Médias du Canada (FMC) et Méta-Media.

© [2017] Tous droits réservés.

Le visionnement en accéléré (speed watching en anglais) de contenu témoigne de la mutation de la consommation médiatique à l’ère de la surabondance. Difficile de connaître l’étendue de cette pratique, mais, chose certaine, elle témoigne de l’émancipation croissante des spectateurs vis-à-vis des contenus.

Depuis l’arrivée du magnétoscope il y a 25 ans, l’activité de visionnement a été bouleversée et la temporalité télévisuelle, étendue à l’infini. Cette nouvelle liberté a donné au téléspectateur la capacité de consommer les contenus audio et vidéo comme bon lui semble. Le choix du moment de visionnement, le support et le format lui appartiennent désormais. En l’espace de quelques années, le spectateur est devenu son propre curateur ou programmateur.

L’arrivée de la Peak TV

La suite est bien connue. Nous vivons dans un monde saturé de contenus où l’écoute en rafale (binge watching en anglais) fait maintenant partie de la culture populaire et où les téléspectateurs ne veulent plus rater la nouvelle série qui vient tout juste d’être mise en ligne. En quelques années, le phénomène de l’écoute en rafale a déjà atteint ses limites [temporelles], car l’offre du secteur audiovisuel dépasse la capacité de consommation des téléspectateurs et conserve toujours une longueur d’avance.

Entre 2009 et 2016, le nombre de séries produites par an aux États-Unis a augmenté de 174 % et 455 séries dramatiques originales ont été diffusées en heure de pointe à la télévision américaine en 2016, d’après FX Research. C’est bien plus que les 8760 heures que compte une année, rendant ainsi impossible pour un être humain de visionner ne serait-ce qu’une partie de ces émissions.


Source : FX Networks Research, Variety

Gagner du temps

Afin de regagner le temps perdu à regarder des séries ou des balados [podcasts, NDLR], certains ont trouvé de nouvelles façons d’étancher leur soif de visionnage d’épisodes alors que leurs journées sont déjà surchargées. La dernière en date s’appelle le speed watching.

Cette pratique consiste à visionner en accéléré du contenu vidéo ou audio (principalement à partir d’un ordinateur) à des vitesses allant de 1,2 à deux fois la vitesse normale. Les possibilités ne manquent pas : YouTube offre des paramètres de réglages de la vitesse, une extension de Google Chrome permet aux abonnés de Netflix de faire de même et le logiciel VLC est aussi muni d’une telle fonction.

Le but premier du visionnement en accéléré est de gagner du temps. Un épisode de 52 minutes de Game of Thrones peut être consommé en seulement 39 minutes, et voir la saison en entier prend six heures et demie au lieu de huit heures et demie à vitesse normale.

10 secondes de Game of Thrones à 2x :

Si on en croit les adeptes, les résultats varient selon le contenu. La série The Office ne se visionnerait pas bien en accéléré, tandis que Modern Family en ressortirait encore plus drôle.

Pour lire la suite de cet article, rendez-vous sur FMC Veille !

Le numérique, grand oublié de l’élection présidentielle ?

Par Alexandra Yeh, France Télévisions, Direction de la Prospective

Parcourez vos fils d’actualité, ouvrez un journal, allumez la télé ou la radio… Partout, vous retrouverez les thèmes incontournables d’une année électorale : réforme de la sécurité sociale, réduction des effectifs de la fonction publique, flexibilisation du marché du travail… Autant de serpents de mer qui monopolisent le débat politique – à la mesure de leur importance dans notre quotidien, certes, mais au détriment d’autres sujets pourtant cruciaux du monde qui vient.

Parmi eux, le numérique, sujet incontournable dans un monde où les GAFAs sont devenus hégémoniques. Et une question pourtant injustement délaissée par les débats, émissions, et autres interviews politiques que nous livrent quotidiennement les médias.

Ces deux dernières semaines, le groupement d’agences média UDECAM et le collectif France Numérique 2017 ont donc proposé aux candidats à l’élection présidentielle de présenter leurs programmes médias et, plus largement, leurs projets numériques. A 45 jours de l’élection, il était temps d’aborder le sujet !

Quelle politique média pour le prochain quinquennat ?

Premier à passer son grand oral, Benoît Hamon est le seul candidat à s’être déplacé aux Rencontres de l’UDECAM exposer ses mesures en matière numérique. Il a déroulé un programme clair, axé autour de mesures concrètes et ciblant en priorité la lutte contre la concentration des médias. Evoquant un contexte de crise économique et sociale, mais aussi de crise de confiance, Benoît Hamon propose d’endiguer le phénomène de surconcentration des médias en interdisant à un groupe de disposer de plus de 40% du capital d’une entreprise de médias ou de dépasser le seuil de 20% dans plus de deux médias.

Selon lui, pour pouvoir exercer leur rôle de contre-pouvoir indispensable à la qualité du débat démocratique, les médias doivent être indépendants des intérêts des grands groupes. Et de viser, sans surprise, Vincent Bolloré, en regrettant que « l’année ne fut pas particulièrement exemplaire de la part du groupe Bolloré ».

Autre proposition du candidat socialiste : améliorer l’aide à la création de nouveaux médias indépendants via la création d’un nouveau statut de « société de média à but non lucratif » et l’ouverture d’une branche médias à la Banque publique d’investissement. Des mesures qui s’inscrivent dans un projet qui cherche à favoriser le pluralisme des médias en France et, pour ce qui est de l’audiovisuel public, à s’inspirer du modèle britannique de la BBC, plusieurs fois cité en exemple par Benoît Hamon.

De l’autre côté du spectre idéologique, ce n’est pas tout à fait le même son de cloche qui s’est fait entendre. Mikaël Sala, président du collectif Croissance Bleu Marine venu représenter la candidate du FN, a commencé son intervention par une attaque frontale : « le traitement des candidats [par les médias] n’est pas équitable, c’est un fait. Mais dans l’entourage de Marine Le Pen, nous avons la culture du combat. »

Sur le volet médias du programme FN, Mikaël Sala a insisté sur la nécessité de réformer la composition du CSA pour y inclure un collège de professionnels des médias, un collège de représentants de l’Etat et un collège d’usagers des médias. Le but ? Casser le le côté technocratique de l’institution en permettant aux citoyens d’être représentés et de peser dans la régulation du secteur audiovisuel.

03

Une position partagée par Alexis Corbières, porte-parole de Jean-Luc Mélenchon, qui propose même de créer un conseil supérieur des médias qui fusionnerait le CSA, la CPPAP et l’ARPP et qui serait, comme dans la proposition du Front National, constitué de représentants de l’Etat, des professionnels des médias et d’usagers.

Le candidat de La France insoumise a également repris à son compte une proposition de loi du sénateur Jean-Pierre Sueur visant à interdir les sondages à soixante jours de l’élection pour « mettre un terme à la sondocratie », en expliquant déplorer en effet que la course à l’info et l’accumulation des sondages amènent le débat public à se concentrer sur la réaction aux petites phrases au détriment d’un débat d’idées plus profond.

Dernier candidat à exposer son programme médias devant l’UDECAM : François Fillon, représenté par Nathalie Kosciusko-Morizet. Beaucoup de généralités (prise de pouvoir des GAFAs, bouleversement de la chaîne de valeur) et peu d’annonces concrètes : la porte-parole de M. Fillon semblait peu au fait des positions de son candidat en matière de médias, avouant même, alors qu’elle était interrogée sur une possibilité de réforme du CSA, qu’elle ne savait absolument pas ce que pense François Fillon (sic).

La représentante du candidat républicain a en revanche pu distiller des réponses plus détaillées sur une réforme de l’audiovisuel public. Contrairement à Benoît Hamon ou Jean-Luc Mélenchon qui ne souhaitent pas revenir sur le nombre de chaînes de la télévision publique, Nathalie Kosciusko-Morizet a affirmé avec fermeté la volonté de son candidat de rationnaliser le nombre de canaux, arguant qu’à l’heure de la délinéarisation des pratiques de visionnage, il devenait superflu de financer « sept stations Radio France, six chaînes France Télévisions plus une avec la nouvelle chaîne d’info, trois chaînes France Médias Monde et deux chaînes parlementaires ».

« Le débat sur le numérique devrait être le vrai commencement de la campagne présidentielle »

C’est par ces mots que Corinne Bouchoux, sénatrice et soutien de Benoît Hamon, a ouvert les débats organisés la semaine suivante par le collectif France Numérique 2017 avec des représentants de François Fillon et Emmanuel Macron. Deux préoccupations majeures à retenir de leurs interventions : la nécessité de soutenir l’innovation et les start-ups françaises ; et l’impératif de transformation d’un marché du travail mis à mal par la révolution numérique.

Alain Juppé, en jetant définitivement l’éponge cette semaine, a bien évoqué « la transformation numérique de nos économies, de nos sociétés, peut être de notre humanité ».  

Tous ont aussi insisté sur le besoin de trouver un équilibre entre réglementation et innovation. L’objectif ? Assurer une exploitation éthique des données personnelles des citoyens sans pour autant brider l’innovation technologique. Plusieurs propositions concrètes ont été exprimées pour soutenir cette innovation technologique : Benoît Hamon envisage ainsi de soutenir la recherche en lui dédiant 3% du PIB, tandis que Corinne Erhel, membre de l’équipe de campagne d’Emmanuel Macron, a annoncé la création d’un fonds de 10 milliards d’euros dédiés à l’investissement dans l’intelligence artificielle et la big data. François Fillon, pour sa part, a développé sa proposition de suppression de l’ISF pour encourager les investisseurs à revenir en France et développer le tissu de start-ups nationales.

Et quid de l’emploi à l’heure du numérique ? Sur ce sujet, c’est Mounir Mahjoubi, ancien président du Conseil National du Numérique et désormais soutien d’Emmanuel Macron, qui a occupé le devant de la scène, en déroulant un projet destiné à la fois à « libérer l’innovation tout en protégeant les travailleurs ». L’idée ? Sortir du carcan des statuts (salarié, auto-entrepreneur, indépendant, …) pour universaliser l’assurance chômage et garantir l’accès de tous à la formation professionnelle. Emmanuel Macron entend ainsi fluidifier le marché du travail pour mieux l’adapter aux transformations induites par le numérique.

Du côté républicain, le porte-parole de François Fillon a déroulé un ensemble de proposition destiné à « arrêter de surcharger les entreprises avec des normes » et à « faire de l’Etat un véritable accompagnateur du numérique ». Dématérialisation des procédures administratives, mise en place de l’open data, stabilisation de l’environnement fiscal des entreprises, réduction de l’imposition des particuliers souhaitant investir dans les PME : François Fillon entend alléger le poids de l’Etat régulateur pour encourager l’investissement dans l’innovation et inscrire pleinement la France dans la transition numérique.

02
Extrait d’un tract de François Fillon

Différentes voies vers un même objectif : finalement, c’est ainsi que l’on pourrait résumer les projets portés par les candidats à l’élection présidentielle en matière de médias et de numérique. Loin d’être un sujet aussi clivant que la sécurité sociale, l’immigration ou encore l’Union européenne, le numérique semble faire l’unanimité parmi les candidats, qui reconnaissent tous qu’il est temps d’adresser le sujet.

Dommage que les projets numériques des candidats se limitent encore trop souvent à quelques déclarations solennelles sur l’importance de l’innovation et promesses de soutien aux start-ups… A 45 jours de l’élection, ne serait-il pas temps de proposer plus de mesures concrètes, portant une vraie vision de l’avenir de notre société numérique ?

Transformation numérique : analyse des projets médias financés par Google

Par Gautier Roos et Alexandra Yeh, France Télévisions, Direction de la Prospective

Vous voulez savoir ce que mijote le gratin des éditeurs européens pour réussir leur transformation numérique ? Nous avons donc épluché avec soin les bonnes oeuvres de Google ! En d’autres termes, les projets que le géant du Web a choisi d’aider dans le cadre de son fonds d’innovation dans le secteur des médias. Créé en 2016, le « Digital News Initiative Innovation Fund » lance cette semaine son 3ème round.

L’occasion pour le GESTE d’inviter à Paris son responsable Ludovic Blecher à présenter le programme de financement, qui, affirme-t-il, ne vise « pas à financer des projets de modernisation, mais des projets de transformation ». Une nuance qui a son importance : le but de Google, c’est de stimuler l’écosystème des médias d’info et de se poser ainsi en moteur de la mutation numérique des médias.

Ludovic Blecher est aussi revenu sur les projets financés lors du deuxième round : 24 millions d’euros au total, répartis sur 124 projets et couvrant 25 pays européens, pour insuffler la culture de l’innovation dans les salles de rédaction.

124 projets pour insuffler la culture de l’innovation dans les rédactions

Pour vous, nous avons donc passé au crible le catalogue de ces 124 projets sélectionnés lors de cette deuxième vague de financements. L’intérêt : mieux saisir les besoins les plus pressants des rédactions du vieux continent, mais aussi les attentes de lecteurs sur-sollicités, désireux d’obtenir des repères dans un paysage informationnel surchargé. Les tentatives visent autant à exploiter les nouvelles technologies dans la production journalistique que l’expérimentation de nouveaux modèles économiques dans un monde où le tout gratuit a changé la donne.

Sans grande surprise, les projets retenus mettent souvent l’accent sur les préoccupations qui ont été au cœur des débats ces derniers mois : la chasse déclarée aux fake news, le traitement et l’exploitation d’un large volume de data, la montée en gamme des chatbots comme interface propice à la consommation d’infos… Le fact-checking est d’ailleurs un peu la tendance phare de la saison, s’invitant au cœur d’une bonne partie des projets : preuve que les fake news n’inquiètent pas seulement nos voisins d’outre-Atlantique, mais deviennent une priorité majeure ici aussi.

Outre l’expérimentation de nouveaux formats de storytelling (la VR, le 360, des séquences audio sur lesquelles on peut « ajouter » du texte et des éléments graphiques), les plateformes permettant de simplifier le quotidien des journalistes sont aussi prisées (centralisation des sources et des archives, boîtes à outil diverses permettant notamment le partage sur différents canaux…). A l’heure où de grosses échéances électorales attendent l’Europe, une demande accrue de transparence sur les politiques et les personnalités publiques se fait également ressentir.

Peu d’informations sont disponibles sur cette série de projets pour la plupart embryonnaires – certains sont décrits de manière très floue – mais voici ce qu’il faut retenir de ce second round, appelé à dessiner les contours du nouveau journalisme.

4

Les six projets français retenus

Un baromètre sociétal initié par le site Slate.fr, qui prendra la forme d’une plateforme éditoriale destinée à agréger d’anciennes données non publiées, produire de nouveaux indicateurs et fabriquer des classements. Un puissant outil à la fois pour les lecteurs et les annonceurs, qui devrait enrichir les articles du site avec des dataviz mises à jour régulièrement et fournir facilement une vue d’ensemble sur les grands changements sociétaux.

« Le Parisien Data Hub » aidera les lecteurs franciliens dans leurs prises de décision tout au long la journée. Grâce à la collecte de données géolocalisées disponibles à Paris, l’usager pourra, via un tableau de bord et des widgets, avoir accès en temps réel à une manne d’informations concernant son entourage immédiat : transport, activités culturelles, loisirs, santé, trafic, transport…

Une interface qui va faciliter la distribution d’articles via le protocole Google AMP : AMPize est la première plateforme open-source qui permettra aux éditeurs de développer des sites d’informations AMP à partir de leurs propres sources de donnés, ce qui leur donnera la possibilité d’ajouter des modules de navigation, un moteur de recherche, des contenus liés…De quoi permettre aux titres de presse de garder la main sur l’engagement avec le lecteur, à l’heure où certains reprochent au protocole l’impossibilité de réellement personnaliser les contenus.

3

Weather Dialog est un chatbot spécialisé dans le domaine de la météo : une interface qui répond à toutes les questions relatives à l’environnement, et ce de façon personnalisée, grâce à un profilage précis des utilisateurs (les allergies seront par exemples prises en compte). Grâce au machine learning, l’outil sera même en mesure d’anticiper les requêtes.

The Enemy est une expérience d’immersion journalistique novatrice qui implique virtuellement l’utilisateur au plus près des zones de conflit et des missions humanitaires (Israël, Palestine, Congo, Salvador…), projet auquel France Télévisions a par ailleurs participé. Un dispositif innovant qui permet par exemple de suivre des interviews de combattants en VR. L’idée est d’immerger le spectateur en mettant l’accès sur l’empathie : les points de vue des combattants de chaque camp sont montrés et éprouvés face caméra de façon à faire évoluer les mentalités sur les grands conflits du moment, et inviter l’usager à adopter le point de vue de son ennemi.

Le premier hub mondial uniquement dédié au journalisme de données : un espace pour les journalistes, codeurs, designers, experts, consultants, entreprises, fondations et toute personne investie dans cette nouvelle pratique journalistique. En plus de mettre en relation des professionnels autour de la thématique, l’objectif est à terme de trouver un business model pour cette industrie émergente.

L’automatisation des contenus : vers un nouveau type de journalisme

Nous y sommes : les progrès de l’intelligence artificielle font logiquement de cette technologie un allié de poids pour les journalistes de demain (avant, un jour, de se substituer à eux ?…). Entre automatisation de la rédaction, détection de tendances et mise aux formats multiples de contenus, les robots sont bel et bien en passe de s’installer dans nos salles de rédactions.

Premier usage de l’IA : l’assistance dans la production de contenus écrits ou vidéo. En Norvège, Amedia Utvikling développe par exemple une plateforme automatisée qui fournit des informations aux journalistes à propos d’organisations et de personnalités, ainsi que des suggestions d’illustrations et de phrases pour compléter leurs articles. Le chercheur italien Carlo Strapparava mise lui sur la création automatique de titres pertinents pour les éditeurs et journalistes.

Plus ambitieux, le portugais JornalismoPortoNet propose de recourir à l’IA pour produire intégralement des articles de journalisme scientifique à partir d’algorithmes et de données puisées dans les répertoires des universités.

Mais l’IA se rend aussi utile en « post-production », pour améliorer l’accessibilité des contenus par exemple, comme en Allemagne où SPEECH.MEDIA propose de générer automatiquement des traductions de voice-over et des sous-titres pour permettre aux internautes de consulter des contenus en langue étrangère.

Autre tendance phare des projets sélectionnés par le DNI : les assistants automatiques chargés de détecter les sujets qui font l’actu et de parcourir les archives pour déterrer des articles pertinents.

C’est notamment le projet du quotidien suisse Le Temps et son bot Zombie, une IA à usage interne qui se propose de rechercher les contenus evergreen (c’est-à-dire les contenus intemporels, qui ne perdent pas en pertinence avec le temps) dans les archives du journal pour suggérer des republications en fonction de l’actualité, des Google Trends ou des Trending Topics de Twitter.

En Autriche, News Radar parcoure automatiquement les dépêches d’agences, les réseaux sociaux et les flux RSS pour aider les éditeurs à identifier en temps réel les sujets les plus pertinents. Un concept proche du portail d’info allemand RP Digital, qui prévoit de créer un algorithme de tendances pour analyser les sujets d’actu et surtout mesurer l’impact des sources pour déterminer s’il s’agit d’une tendance locale ou mondiale.

Dernier projet ayant retenu notre attention, The Archive for Conflict Investigation, projet de la plateforme britannique de journalisme citoyen Bellingcat. Elle propose de collecter, trier, vérifier et préserver des contenus issus des médias sociaux dans les zones de conflit, pour la mettre à disposition des reporters et des organisations de défense des droits de l’homme.

The Syrian Archive, le projet de mémoire de guerre de Bellingcat qui a donné naissance à The Archive for Conflict Investigation
The Syrian Archive, le projet mémorial de Bellingcat qui a donné naissance à The Archive for Conflict Investigation

Du côté des lecteurs : une info individualisée au format hybride

L’expérience du lecteur se trouve elle aussi enrichie : on se dirige tout droit vers une info personnalisée, disponible à la demande, permettant au lecteur de constituer son propre menu informationnel.

Le Corriere della Sera va lancer un bot qui répondra aux questions orales des lecteurs sur l’actualité : un assistant automatisé qui parcoure les articles et les archives du quotidien italien pour vous décrypter l’info. Dans la même veine, le Bulgare Economedia  table sur Kapital NewsPal, une édition personnalisée pour chaque lecteur selon ses préférences (sujets, heure de lecture, appareils utilisés). Une expérience qui combine les avantages de la presse écrite (sélection, linéarité, complétion) et celles du digital (le partage, l’archivage et l’intemporalité).

Noyé sous l’abondance, le lecteur néerlandais pourra faire le tri grâce à la plateforme Blendle et un algorithme qui fait apparaître, en puisant au sein de 10 000 articles quotidiens, les contenus les mieux adaptés en termes de disponibilités, préférences, habitudes quant à la longueur des textes.

5

Le vieux média qu’est la radio n’échappe pas à la personnalisation : en Allemagne, le Digital Media Hub de RTL rend les chroniques et JT traditionnels interactifs et à la demande, donnant à chacun la possibilité de constituer son programme selon ses préférences (personnalités de l’animateur, horaires d’écoute, etc…). Lagardère s’inscrit sur le même créneau avec un service audio numérique qui fournit des news spécialisées provenant de la presse économique, politique, scientifique et culturelle, selon un parcours utilisateur personnalisé et interactif. 

L’hybridité des formats se pose d’aillleurs comme une autre des tendances phares de 2017. En Allemagne, l’hebdomadaire WirtschaftsWoche déploie un outil de création intuitif qui va permettre aux journalistes de créer et d’éditer des stories multimédia et interactives. Des vidéos, du texte, des graphiques, animations web, séquences audio : autant de segments superposables sur une « pile » numérique verticale qui combine ainsi de nombreux formats d’écriture. L’anglais TapeWrite mise sur une écriture similaire pour permettre aux journalistes storytellers de créer des formats audio innovants sur lesquels s’ajouteront des textes, des liens, et des photos.

Une tendance audio bien affirmée donc, dont Ludovic Blecher avoue d’ailleurs avoir été surpris. La tendance de l’audio s’est beaucoup construite autour du podcast,explique-t-il, mais pas seulement : les projets en la matière s’attachent aussi à « rendre les contenus audios plus indexables, plus faciles à trouver. L’indexabilité, c’est un sujet clé aujourd’hui ».

Nous entrons dans un monde où chaque type de contenu se retrouve enrichi : en Espagne, la plateforme Pic+ permet aux éditeurs numériques de mettre à disposition les photos des articles et les agrémenter avec des informations via des tags. Plus curieux encore, une initiative allemande qui nous fait basculer dans l’ère de “l’info structurée” : l’idée est de décomposer une information en atome et en particule, pour pouvoir la remodeler selon le profil personnalisé de chaque lecteur (son appareil, le temps qu’il a à consacrer, ses « besoins informationnels »…).

Mais la technologie sert aussi à ouvrir les arcanes du journalisme : en Allemagne toujours, la  journaliste Victoria Schneider développe un espace virtuel où les journalistes pourront regrouper et rendre accessibles toutes les pièces et éléments qui leur ont permis d’écrire tel ou tel article, permettant ainsi de prolonger la réflexion en sortant du calibrage imposé par leur rédaction.

Le parcours de la news est également au coeur du projet de l’anglais The World Weekly, avec une timeline interactive qui donne la possibilité aux lecteurs et aux journalistes de retracer le chemin d’une info, sa provenance, et d’explorer le contexte historique derrière tel ou tel événement. Une transition toute trouvée vers le fact-checking, autre enjeu majeur de ce deuxième round.

Le fact-checking : comparer les sources et éclater les bulles

Comment lutter contre la désinformation et ses conséquences (enfermement idéologique, polarisation, marché du clic, hyper-naïveté mais aussi hyper-scepticisme), le nouveau mal du siècle ?

La visualisation des sources, associée à la contextualisation, constitue une première réponse : le hongrois Mertek lance ainsi une application proposant  de consulter différents articles sur une même info, dans le but de confronter les points de vue. L’anglais Counterpointing souhaite lui aussi  vous faire sortir de votre bulle de filtres avec un comparateur d’infos qui élargira vos perspectives.

2

Toujours en Grande-Bretagne, Explaain compte enrichir les articles de presse et les rendre plus user-friendly avec des “cartes contextuelles” permettant de mieux situer les enjeux pendant la lecture.

Elargir les perspectives, c’est aussi inviter la presse à couvrir des sujets traditionnellement passés sous silence : les lecteurs du site espagnol Revista 5W vont ainsi pouvoir voter pour désigner les thèmes et les reportages qu’ils souhaitent voir traités, déclenchant ensuite des campagnes de crowdfunding.

Dans un souci de transparence, les déclarations seront elles aussi passées au crible : l’anglais Full Fact va initier un dispositif innovant pour détecter et vérifier les assertions du personnel politique, en utilisant notamment l’analyse statistique pour faire du fact-checking live automatisé (du jamais vu auparavant). Le voisin écossais du Ferret scrutera les déclarations des dirigeants du pays et cherchera à montrer avec précision à quel moment l’information devient douteuse.

Au-delà du fact-checking, nombreuses sont les initiatives qui visent à mieux maîtriser les larges volumes de données. Europa Press initie une plateforme pour faciliter l’usage de l’open data, à la fois comme source d’informations et comme instrument de fact-checking, à l’heure où cette ressource est encore largement inexploitée dans les écosystèmes d’informations. Une démocratisation qu’on retrouve à l’oeuvre dans le projet du Berliner Morgenpost, qui livre à sa rédaction un outil de data-journalisme visant à rendre compréhensible et analyser de larges volumes de données, même pour les non-experts.

0

En deux ans, la Digital News Initiative aura donc financé près de 250 projets. Et ce n’est fini, puisque le troisième round vient d’être lancé. Vous avez une idée à soumettre ? Sachez que pour cette troisième vague de financements, Google recherche en priorité des projets collaboratifs et explorant de nouvelles voies en matière de monétisation et de diversification de revenus. A bon entendeur…

L’info chez les jeunes, entre scepticisme et lucidité

Par Gautier Roos, France Télévisions, Direction de la Prospective

A l’heure de la multiplication des sources et des nouveaux moyens d’informations, les nouvelles générations composent avec une mappemonde informationnelle qui n’a plus grand rapport avec celle de leurs parents. Publié cette semaine, le rapport américain How Youth Navigate the News Landscape scrute les comportements des jeunes vis-à-vis de l’info, et s’intéresse à l’influence des smartphones, des réseaux sociaux, et des algorithmes sur les habitudes de lecture. Evidemment, ces observations donnent des indications plus générales sur le nouvel écosystème de l’info, bien au-delà des classes d’âge (nous sommes tous aujourd’hui plus ou moins soumis aux biais algorithmiques et à l’omnipotence de Facebook).

L’ère des flux et des timelines : « l’info par accident »

Nous vivons dans un environnement où la news est partout : dans nos fils d’actu Facebook, dans nos notifications push, et dans les cafés diffusant des chaines d’info continue. Notre pratique informationnelle évolue plus vite que jamais dans l’histoire : la bonne nouvelle est que les jeunes semblent conscients des nouveaux paradigmes imposés par la technologie.

A l’ère du smartphone et des réseaux sociaux, les jeunes générations rencontrent souvent l’information « par accident », en parcourant des plateformes et des applications (Facebook, Twitter, Instagram, Apple News) plutôt qu’en allant la chercher d’eux-mêmes. Une attitude passive où l’info surgit parfois sans que l’on lui demande.

Les plateformes sont devenues hégémoniques, quitte à parfois éclipser les médias d’hier (« Si je ne vois pas l’info sur les réseaux sociaux, je n’en entendrai pas parler »). Le partage d’un screenshot, où un utilisateur envoie une capture d’écran de la nouvelle à ses amis par message, pose d’ailleurs des difficultés nouvelles en termes de mesure d’audience : les recommandations, la force du réseau, deviennent des composantes à part entière de l’écosystème informationnel.

Confiance en berne, mais conscience accrue

Si les plateformes se frottent les mains, les éditeurs accusent eux le coup, et voient leur image s’écorner : la confiance envers les titres de presse est historiquement basse.

Les adolescents comme les jeunes adultes manifestent un scepticisme généralisé envers l’information, principalement pour deux raisons : celle-ci est souvent perçue comme partisane (biased) ou imprécise (innacurate). De nombreuses déclarations font état d’un relativisme accru dans la manière de percevoir l’information : revient en permanence l’idée qu’une nouvelle exprime toujours un certain point de vue ; que quelque part, l’objectivité dans l’info n’existe pas.

bias

Dans cette conception, le fait semble se confondre avec son interprétation, ce qui ne va pas sans poser d’autres problèmes : l’incrédulité totale ne s’appuie-t-elle pas sur une idéologie tout aussi périlleuse que la naïveté absolue ?

Contrairement à une idée répandue, les jeunes consommateurs d’info ont pris l’habitude de vérifier ce qu’on leur raconte, et consultent souvent plusieurs sources pour mener à bien leur démarche. Des réflexes critiques se développent à l’heure où n’importe qui, pour peu qu’il soit équipé d’un compte Twitter, peut devenir un média à part entière.

Vers un TV revival ?

Alors qu’on la dit souvent abandonnée par les nouvelles générations, la télévision est, de façon surprenante, toujours en course : certaines personnes interrogées considèrent le média comme fiable et objectif, dans la mesure où il nécessite des moyens et de larges effectifs pour produire de l’info, et présuppose ainsi une pluralité de points de vue. Le fait que les médias aient des préférences ne pose pas nécessairement problème : une source d’infos apparaît logiquement plus crédible à leurs yeux quand ses partis pris sont connus.

De façon corollaire, les jeunes populations semblent bien conscientes du pouvoir des algorithmes, et de l’entonnoir idéologique qu’ils alimentent. Le problème des fake news et des filter bubbles, revenu sur le devant de la scène après l’élection de Donald Trump, semble bien assimilé par les nouvelles générations.

Ces dernières ont intégré l’idée qu’un fil d’actualité est une vision partielle et personnalisée du monde informationnel. Le « regain » de force du média TV semble ainsi correspondre à un désir de structure et de hiérarchie (une bonne nouvelle pour les rédacteurs en chef) : et si la lecture algorithmique était déjà passée de mode ?

Jeunesse

Facebook : le live bientôt en perte de vitesse ?

Un article sur des thématiques voisines dresse un constat complémentaire : peu après son lancement, le recours à Facebook live semble lui aussi accuser le coup, avec un marché qui arrive déjà à saturation. Un graphique consacré aux éditeurs britanniques montre bien que la tendance est à la stagnation, après un pic en juin dernier.

graphique

Au-delà de la question des usages, l’hypothèse la plus probable réside dans le modèle économique choisi par Facebook, habitué à payer ponctuellement des éditeurs pour initier des nouveaux formats et familiariser le public à de nouvelles pratiques. En 2016, la plateforme avait mis la main au porte-monnaie pour inciter BuzzFeed, le New York Times ou Vox Media à créer des contenus live, ce qui explique aussi la progression observée sur le graphe.

Cette année, Facebook a revu ses objectifs et cherche plutôt à stimuler la production de vidéos longues, de façon à satisfaire son nouveau modèle publicitaire, mettant le live de côté (la firme de Mark Zuckerberg souhaiterait aussi infléchir, dans les mois à venir, la production de vidéos en 360°, en VR, et le live audio).

Incapables de trouver un modèle de monétisation qui leur convienne à moyen terme, nombre d’éditeurs refusent de jouer le jeu du live si Facebook arrête de les rémunérer. Au sein d’une mosaïque de formats devenue très concurrentielle, le live devrait donc continuer à drainer de l’audience pour les événements ponctuels (manifestations, discours politiques attendus), mais devrait marquer le pas pour les six prochains mois…

Qu’en conclure ? Le paysage aussi entre une attitude passive (la sélection par des algorithmes, la primauté des plateformes) et dans le même temps un discernement accru sur ces nouvelles pratiques, bien loin des fantasmes qui courent sur une génération crédule mordant naturellement à l’hameçon des fake news.

Des chatbots à Minority Report : ce que nous réserve l’IA dans les prochains mois

Par Gautier Roos, France Télévisions, Direction de la Prospective

Futur en Seine et Cap Digital organisaient il y a quelques jours un événement consacré à l’IA au cours duquel 18 start-ups ont pu exposer leurs innovations et livrer un aperçu des tendances robotiques et algorithmiques qui nous attendent dans les mois à venir.

L’occasion de constater l’influence déjà prégnante de l’intelligence artificielle sur de nombreux domaines : l’industrie des loisirs, mais aussi la sécurité, l’éducation, le big data prédictif… Retour sur les projets les plus innovants.

Vers une démocratisation des chatbots et des assistants de poche

A l’heure de la géolocalisation tous azimuts, pas étonnant de retrouver de nombreux chatbots parmi les projets présentés. Un moyen pour les enseignes de renouveler leur relation avec les consommateurs, mais aussi de multiplier les points de contacts avec ces derniers, grâce à des assistants virtuels disponibles 24/24 et 7/7.

Le chatbot Citron recommande ainsi aux utilisateurs des lieux de sortie bien spécifiques à Paris (restaurants, bars) via l’interface Facebook Messenger. On peut lui soumettre tout type de requêtes (« où boire une bière ? », « où manger des sushis ? », « où danser toute la nuit ? ») : sa particularité est qu’il fournit plusieurs suggestions à la fois. L’internaute peut ainsi affiner son profil, en signifiant au bot les endroits qui le tentent, ou au contraire, ceux qui n’ont pas ses faveurs.

citron

Alix, développé par la start-up DealOn, en apprend lui aussi un peu plus chaque jour sur celui qui l’utilise. Sa spécialité est le conseil lifestyle pour hommes : il recommande des vêtements en mettant l’accent sur des marques peu connues, et s’adresse d’abord aux non-initiés à la recherche de nouvelles tendances stylistiques. Un designer de poche qui prend soin, à l’instar de nombreux chatbots émergents sur le marché, de ne pas se montrer trop intrusif : l’utilisateur ne doit pas avoir le sentiment d’être « spammé » par une agence cherchant à écouler ses marchandises, ou qui profite de l’interface pour l’envahir de publicités.

Destygo se positionne de son côté sur le secteur du voyage. Il centralise les informations émises par de nombreux acteurs (aéroports, gares ferroviaires, commerces, taxis) de façon à répondre aux questions de l’utilisateur avant et après son vol. On peut donc lui poser de simples questions pratiques (wifi à proximité, tarifs du duty free, restaurants dans les horizons, convertisseur de devises, météo avant le départ) comme des requêtes plus spécifiques (réservation de tel ou tel transport, livraison des factures du vol, etc.).

Réservée avant tout aux managers, Julie Desk cherche à simplifier les prises de rendez-vous au sein des grandes entreprises, tâche fastidieuse s’il en est. Cet assistant personnel observe les disponibilités des agendas, s’occupe des relances et des confirmations, se charge des réservations au restaurant… et donne aux secrétaires, souvent condamnés à jongler avec les empêchements spontanés des uns et des autres, un gain de temps certain.

julie desk

Karos se positionne quant à lui sur le créneau du « court-voiturage », et cherche avant tout à réduire le temps passé dans les transports chaque jour (le dossier de presse précise que la technologie permet d’économiser en moyenne 20 minutes par trajet). La plateforme scrute et analyse les habitudes de déplacement des usagers, de façon à proposer automatiquement tous les covoitureurs pertinents sur les trajets réguliers (et plus spécifiquement vers le lieu de travail). Elle s’adresse directement aux entreprises qui souhaitent instaurer des solutions faciles pour leurs collaborateurs.

Surveillance, sécurité, eye-tracking : les poids lourds de l’IA

Parmi les autres concepts présentés, plusieurs faisaient explicitement référence à Minority Report, dessinant un avenir proche marqué par le sceau de la prédiction et du contrôle permanent. Pas sûr que le parallèle ait rassuré tous les visiteurs présents, à l’heure où les progrès de la reconnaissance faciale risquent de poser quelques difficultés nouvelles aux Etats de droit, même si elle s’avèrera utile pour les malades d’Alzheimer.

Angus.ai est une solution qui s’inscrit dans cette veine et qui permet aux caméras de passer au peigne fin ce que l’objectif capture. Elle s’adresse d’abord aux commerces soucieux de connaitre plus finement leur clientèle. Parmi les critères identifiés sur l’image : le nombre de personnes présentes sur le lieu, leur genre, une fourchette estimant leur âge, la durée d’attention portée sur tel ou tel produit, ou encore l’humeur (présumée) sur leur visage.

Capture d’écran 2017-03-01 à 19.50.02

C’est bien l’avenir proche du marketing qui semble poindre ici : on imagine mal les études qualitatives et quantitatives résister longtemps à une technologie capable de fournir et analyser en temps réel des données aussi précieuses pour les marques.

A.I.MERGENCE s’affiche de son côté comme le premier robot de sécurité intelligent. L’objet pyramidal se promène dans les logements et permet de rassurer les propriétaires en leur absence : il informe en temps réel sur les tentatives d’intrusion et les accidents domestiques, et se charge lui-même de dissuader les cambrioleurs. Un robot mobile plutôt conforme à ce que la science-fiction nous laissait imaginer il y a de ça quelques décennies, et qui devrait à terme nous familiariser avec la robotique domestique :

aimergence

Plus spectaculaire encore : SuriCog est un dispositif d’eye-tracking qui suit donc le mouvement des yeux, et qui à partir de ces informations, dote l’homme de capacités nouvelles : un clignement d’œil permet par exemple d’éteindre l’interrupteur de la cuisine. La firme a déjà noué un partenariat avec le Louvre pour des expérimentations culturelles : le visiteur peut « sélectionner » un élément d’un tableau d’une grâce à son regard, et ainsi déclencher quand il le souhaite le contenu audio qui lui est associé. De quoi rendre (déjà) la commande vocale obsolète ?

suricog

Un avant-goût de l’édition 2017 de Futur en Seine, qui se tient cette année du 8 au 18 juin en Île-de-France.

Démocraties en danger : pour un nouveau contrat social à l’heure du numérique

Par Gautier Roos, France Télévisions, Direction de la Prospective

Surveillance, robotisation, filtres idéologiques, droit à l’oubli : les algorithmes et l’intelligence artificielle redéfinissent en profondeur notre rapport à la démocratie. Quelles actions engager pour préserver nos libertés, à l’heure où les outils de contrôle et les leviers d’influence deviennent l’apanage de quelques acteurs, pas forcément bien intentionnés ?

Cette fastidieuse question est posée dans un long article paru dans Scientific American, le plus vieux magazine scientifique des Etats-Unis, écrit par des sommités américaines et européennes de l’intelligence artificielle, de l’informatique, de l’économie et du droit, en détaillant diagnostics et pistes de solutions imaginés par eux.

On peut le déplorer, mais c’est un fait impossible à contester : nous allons devoir vivre avec des machines et des algorithmes qui surpasseront vite nos capacités cognitives (si ce n’est pas déjà le cas), et qui seront présents dans absolument tous les secteurs.

Le nombre de données que nous fabriquons chaque jour double déjà chaque année : en 2016, nous avons produit autant de data que toute l’histoire de l’humanité jusqu’à 2015.

D’autres estimations donnent le tournis : il est établi que dans 10 ans, la planète sera équipée de 150 milliards de capteurs connectés, soit 20 fois plus que le nombre d’habitants peuplant la Terre. A ce moment précis, le volume de données doublera… toutes les douze heures !

Aujourd’hui, l’intelligence artificielle est déjà en voie d’autonomisation : elle n’est plus programmée ligne par ligne, elle est désormais capable d’apprendre. Pour prendre un exemple récent, l’algorithme DeepMind de Google a littéralement « auto-appris » comment remporter 49 parties d’Atari. En constant développement, les algorithmes contrôlent désormais 70% des transactions financières, et on imagine mal comment la tendance pourrait s’inverser.

Si vous jugez le monde d’aujourd’hui instable, que direz-vous dans dix ans, quand 40% des 500 plus grosses entreprises mondiales auront tout bonnement disparu ?! Nos emplois subiront eux aussi de plein fouet la révolution algorithmique (l’automatisation menacera d’ici 20 ans la moitié de nos métiers), nous libérant à la fois des tâches ingrates et des missions moins besogneuses.

Pris comme ça, le tableau peut sembler désespérant : même les magnats des nouvelles technologies (Elon Musk, Bill Gates, Steve Wozniak) tirent la sonnette d’alarme, alors même que leur fortune s’est constituée en grande partie sur ce nouveau paradigme numérique.

Cauchemar impossible à enrayer ?

Nous sommes aujourd’hui à la croisée des chemins : sans une volonté politique forte, et sans l’envie de remodeler les droits du citoyen à l’heure numérique, les promesses de la Silicon Valley se transformeront vite en un cauchemar impossible à enrayer.

L’espoir réside donc dans le fait que des projets collectifs, impliquant la concertation et la protection de tous les citoyens, commencent déjà à émerger. Nous ne sommes qu’au début de cette révolution numérique : si pour l’instant, seuls quelques acteurs ont réussi à mettre la main sur nos informations personnelles et bouleversé de fond en comble l’économie, rien ne dit que les gouvernements, la justice et les citoyens ne pourront s’accorder pour façonner un contre-pouvoir nécessaire et dans l’intérêt de tous.

Aucune révolution ne s’est faite sans heurts : l’occasion nous est aujourd’hui donnée de formuler un nouveau contrat social à l’ère du numérique, basé sur la confiance et la coopération. Loin d’être des hypothèses fantaisistes, de nombreux dangers nous guettent : une ère de surveillance généralisée, qui pourrait s’exprimer de façon autoritaire (Big Brother) ou d’une manière plus douce (nudging, persuasive computing), ainsi qu’une confiscation oligopolistique des ressources par quelques firmes seulement. Le risque est qu’à terme, les machines ne soient plus les seules à être programmées, mais que les humains y passent eux aussi…

Score de confiance et big nudging : quand faire le bien risque de mener au pire

Le concept du Citizen Score, testé en ce moment en Chine, donne logiquement matière à inquiétude, et prouve que les solutions collectives viables ne se feront pas en un coup de baguette magique. A mi-chemin entre 1984 et un épisode prophétique de Black Mirror, le concept repose sur l’agrégation des données récoltées sur chaque individu pour lui attribuer un « score général de confiance ». Une sorte de cote de solvabilité qui détermine, en plus de l’accès aux crédits, le droit à la sécurité sociale, à certains métiers, à un visa vers les pays extérieurs…

Un outil de contrôle social imaginé par le Parti communiste chinois, digne des pires scénarios de science-fiction, qui « fiche » l’individu dans le moindre de ses actes et qui l’invite même à réévaluer ses fréquentations (même le comportement de vos amis peut influer sur votre score). Le Parti espère en fait éliminer tous les obstacles pour accéder au partage des données recueillies par les administrations, les entreprises, les organisations et les collectivités.

Un programme aux accents totalitaires (le mot n’est pas usurpé ici) qui pourrait être effectif dès 2020, et qui vise officiellement à lutter contre la corruption. Et un exemple qui montre la difficulté qui attend les démocraties soucieuses de régulation numérique, puisqu’un Etat connaissant tout de nous semble tout aussi dangereux qu’un conglomérat de quelques acteurs privés omniscients.

china

A côté de cet arsenal autoritaire préoccupant, quelques tentatives plus souples, mais loin d’être plus rassurantes. Le nudging, méthode douce qui donne curieusement un second souffle aux sociétés paternalistes, consiste à inciter discrètement quelqu’un à entreprendre une action en modifiant l’ordre ou l’architecture des choix proposés. L’idée est de lui faire préférer une option jugée de l’extérieur comme plus souhaitable, bénéfique pour lui-même (être en bonne santé par exemple) comme pour la société dans son ensemble (réduire les coûts de santé).

Evidemment, le danger intervient quand ces petites poussées discrètes tombent entre les mains des marques, des assureurs ou des partis politiques (on parle déjà de « big nudging », contraction du nudging et du big data). La pratique risque de nous inciter à acheter des produits inutiles ou à un prix excessivement cher, ou de favoriser insidieusement tel candidat « qui nous veut du bien » lors des échéances électorales. Le risque est d’autant plus accru dans les pays où la première page de résultats affichés par Google capte 90% des clics (dont la moitié vers les deux premiers résultats).

Un système de récompense se met là aussi en place : dans le secteur de l’assurance, nombreuses sont les entreprises qui fournissent gratuitement des bracelets électroniques pour accéder aux données de leur clientèle, et qui leur proposent, en échange de comportements vertueux, des réductions tarifaires… Même avec les meilleures intentions, voulons-nous vraiment d’une société où les individus sont aussi conditionnés et déterminés pour se faire du bien ?

On assiste à un nouveau type d’« hygiénisme punitif », pour reprendre l’expression du journaliste Philippe Vion-Dury dans son ouvrage La nouvelle servitude volontaire, enquête sur le projet politique de la Silicon Valley (éd. FYP), qui n’a plus rien à voir avec l’idéal d’émancipation hérité des Lumières. Plus nocif et sournois encore que George Orwell : Aldous Huxley…

De nouveaux droits numériques…et de nouveaux devoirs

Dans un monde où la donnée est devenue plus précieuse encore que le pétrole, le citoyen doit reprendre la main sur les multinationales, qu’il rémunère en fin de compte chaque jour grâce à ses données personnelles.

Une façon de protéger les internautes européens serait de leur permettre d’accéder à l’ensemble des données les concernant (« Right to a Copy ») : la Suisse, pays du secret défense par excellence, a déjà proposé d’entériner ce droit dans la constitution. A l’inverse, les organismes qui exploitent de la data sans y être autorisés doivent être sévèrement punis par la loi.

La « fraude algorithmique », prisée par les constructeurs allemands qui réussissent à truquer facilement les tests anti-pollution effectués sur leurs voitures (Volkswagen est loin d’être un cas isolé), doit ouvrir la voie à de nouveaux standards éthiques en matière de technologie.

De même, les utilisateurs ne sont pas exempts de tout reproche, et doivent probablement prendre un peu de recul par rapport à leurs pratiques quotidiennes : nous avons tendance à laisser les programmes informatiques penser à notre place, des séries numéraires et des probabilités se substituant trop souvent au bon vieux jugement humain.

L’article cite l’exemple de l’appli Bébé Connect, un outil de suivi complet consacré au développement des nourrissons, qui compare les faits et gestes des nombreuses progénitures grâce à une base de donnée en temps réel. Pour de nombreux parents, leur bébé est (curieusement) devenu assimilable à une quantité de données abstraites, et la moindre disparité avec l’enfant du voisin génère des inquiétudes disproportionnées.

Les réformes gouvernementales ou extra-européennes ne pourront se faire qu’avec une évolution des mentalités, et une prise de conscience accrue de ces phénomènes.

A ceux qui se demandent si l’école sert encore à quelque chose à l’heure du numérique : voici une réponse toute désignée.