Des interfaces qui s’oublient
Par Lorraine Poupon, France Télévisions, MédiaLab
Cap Digital a rassemblé dans ses locaux cette semaine une quinzaine de startups dans le cadre du festival FUTUR.E.S, nouvelle version de Futur en Seine. A quoi ressembleront les interfaces de demain ? Si les initiatives présentées étaient très abouties et sophistiquées, une tendance nous a marqué : leur capacité à faire disparaître la complexité inhérente à la technologie, pour proposer des expériences simples et « seamless ».
Nous vous parlons ici de petites révolutions, à échelle humaine, de produits utilisables par tous sans réclamer de compétences particulières. Un monde où la technologie a vocation à pénétrer notre quotidien sans heurt ni bruit. A se faire oublier. Une volonté d’effacement qui pourrait être une réponse aux peurs provoquées par notre dépendance croissante à la technologie, notamment les craintes liées au vol de nos données personnelles.
La solution prônée par Snips ? Prendre le contrepied des standards que les GAFA érigent en normes par leur domination de facto. Cet assistant vocal version French Tech de l’Alexa d’Amazon ou du Google Home ne se définit pas uniquement comme un David contre les Goliath, il veut surtout « faire oublier les technologies ». Capable lui aussi de reconnaissance vocale et de compréhension du langage naturel, il propose une technologie 100% embarquée et donc sans connectivité ni envoi de données personnelles vers un cloud. Sa tarification fonctionne donc à l’achat de l’appareil auquel ne s’ajoute pas le prix unitaire d’un service. Private by design, il est ainsi évident que son indépendance constitue un atout pour l’application à venir de la fameuse RGPD !
Mais plus qu’un assistant à portée de voix, la tech se désincarne, se dématérialise. Sans effort, l’objet se fait prolongement de votre corps ou capte vos mouvements. Avec le Digital Roll développé par le Cnam, la liseuse change de forme. Le texte défile sur un simple cylindre compact à mesure que vous le manipulez entre vos mains, laissant l’expérience de lecture ininterrompue.
Hayo, quant à lui, centralise les commandes des objets connectés de votre domicile. Plus besoin de multiplier les télécommandes. La tour scanne l’espace de la pièce dans laquelle elle est placée ; il suffit désormais d’un geste pour activer interrupteur, télévision, volets, enceinte…
Enfin, la Table d’Embodme semble être la prochaine étape car poussant la logique plus loin encore dans le domaine de l’art. Cet instrument de musique électronique fonctionne à l’aide de capteurs infrarouges qui perçoivent les mouvements des doigts dans l’espace. La composition et la performance live se transforment aussi bien pour l’interprète que pour l’auditeur-spectateur.
https://www.youtube.com/watch?v=8kS8R9QZPSE
Secousse sismique pour l’audiovisuel public en Europe
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
L’audiovisuel public fait parler de lui en ce moment, c’est peu de le dire. Mais derrière les unes provocatrices et les phrases choc, il reste encore de la place pour une vraie réflexion sur l’avenir du secteur et les nécessaires réformes à entreprendre. Une réflexion qui peut trouver à s’inspirer dans la stratégie des autres groupes de l’audiovisuel public en Europe, confrontés eux aussi à la mutation rapide de leur industrie. C’était l’objet d’un colloque organisé cette semaine par la Chaire Audiovisuel & Numérique de l’université d’Assas à Paris.
Partout en Europe, la défiance à l’égard des télés publiques
Le Brexit, l’élection de Donald Trump et la crise des fake news qui a suivi ont largement mis en lumière ces deux dernières années la défiance croissante des citoyens à l’égard des médias historiques. Une défiance qui n’épargne pas les médias de service public européens, et qui va jusqu’à remettre en question dans certains pays la légitimité d’un financement par la redevance.
Premier exemple, et pas des moindres : la Suisse, dont les citoyens seront appelés à se prononcer en mars prochain sur le maintien ou non de la redevance sur la radiotélévision nationale. Venu exposer la situation incertaine du service public audiovisuel dans le pays, le chercheur Mattia Ferretti a indiqué que selon un récent sondage, 57% des Suisses se disent favorables à une abolition de la taxe, qui s’élève actuellement à 462CHF annuels (soit 390€, le plus haut montant en Europe). Dans tous les cas même si la redevance est maintenue, le gouvernement a d’ores et déjà prévu d’abaisser son montant à 365CHF par an, ce qui placera ainsi l’audiovisuel public suisse « sous la plus grande pression financière de son histoire », selon le chercheur.
En Italie, c’est un débat sur l’utilisation des deniers publics par la RAI qui fait rage. Comme l’explique Mattia Perretti, « malgré ses efforts stratégiques pour s’ouvrir au numérique, la RAI doit faire face à la désaffection des jeunes ». Pour résister, le groupe mise sur un phénomène curieux : le lien affectif extrêmement fort qui existe entre les téléspectateurs italiens (y compris les plus jeunes) et leurs présentateurs vedettes, véritables icônes du patrimoine culturel national. Totalement dépendante de ces figures stars de l’antenne, la RAI leur verse des salaires mirobolants qui font d’eux les présentateurs les mieux payés d’Europe. Résultat : la colère monte dans certaines franges de la population, et de plus en plus de voix s’élèvent pour questionner la légitimité de tels montants.
Crédit : Chloé Moukourika
Mais malgré ces contestations montantes, les services publics audiovisuels à travers l’Europe peuvent se targuer de rester des médias de référence en matière de qualité et de fiabilité des contenus. En décembre 2016, 80% des Allemands déclaraient ainsi que l’audiovisuel public était indispensable, et 72% considéraient que la télévision était crédible. Même tendance au Royaume-Uni où une étude de l’Ofcom indique que 78% des téléspectateurs britanniques se déclaraient satisfaits de l’offre audiovisuelle publique en 2016 (+2 points par rapport à 2006) et 75% affirmaient avoir confiance dans les programmes du service public, soit une hausse de 5% par rapport à 2015 !
Si le contexte est évidemment compliqué (mutation galopante du secteur, écrasement par les nouveaux géants que sont les GAFA, difficile adaptation aux usages du public) et remet en cause les modes de financement des services publics à travers l’Europe, on peut donc toutefois leur reconnaître une place particulière dans leurs paysages audiovisuels nationaux, où ils restent des vecteurs de confiance et les garants d’une certaine qualité de contenus pour les citoyens.
Un rôle de pionnier à réaffirmer ?
Partout en Europe, la spécificité des services publics audiovisuels s’affirme par une exigence de qualité des contenus et l’obligation de s’adresser à tous les publics. Mais il est une mission que l’on oublie parfois de mentionner, celle d’expérimenter, de tester, d’être pionnier dans la transformation de son secteur – tant en termes de contenus que d’organisation. Leur financement par la publicité étant limité, voire totalement interdit dans certains pays (en Espagne, par exemple), les télés publiques sont relativement exemptes de la lourde contrainte de « plaire à l’annonceur » et peuvent donc en profiter pour innover et oser explorer de nouveaux territoires.
C’est ce qu’a fait DR, la télé publique danoise, il y a quelques années en lançant le genre Nordic Noir, qui connaît désormais un grand succès. Ce polar nordique sombre, engagé socialement, qui confronte le mythe de l’Etat-providence scandinave à la pauvreté et à la criminalité qui existent encore dans leurs sociétés a émergé avec la série Borgen, devenue un immense succès à travers le continent.
« Les séries de polar nordique ont prouvé que les pays scandinaves peuvent être compétitifs au niveau international » déclare Roel Puijik #sgae2017
— Chaire AV & Num (@Chaire_AvNum) December 5, 2017
Même chose avec la série norvégienne SKAM, innovante non pas sur le genre, mais sur le format, puisque cette série transmédia a été diffusée par la NRK à la fois en linéaire, via des web épisodes et sur les réseaux sociaux. Un mode de diffusion adapté aux nouveaux usages qui a porté ses fruits, puisque la majorité des visionnages ont eu lieu en ligne. Ce succès a poussé la NRK a adapter ses pratiques de programmation, autrefois différenciées par plateformes avec, toujours la TV au centre, pour parler aujourd’hui de « programmation 360° » qui met sur le même plan tous les écrans et tous les modes de visionnage.
Et comme l’innovation se passe aussi (et surtout ?) en coulisses, derrière les antennes, de plus en plus de télévisions publiques européennes se réorganisent pour s’adapter à cette nouvelle donne qui ne place plus le téléviseur au centre des usages. En Bavière, la télé publique régionale projette ainsi de fusionner ses trois directions, actuellement divisées par média (radio / TV / web), et toutes les rédactions travaillent déjà ensemble pour favoriser une synergie et l’émergence d’un « média global ». La RTBF va franchir le pas aussi en abolissant la division verticale entre radio, télévision et web pour se réorganiser autour de deux piliers : les contenus (création des programmes) et les médias (diffusion des programmes), mais aussi en demandant à ses cadres de re-postuler à leur job. La BBC réfléchit également à une restructuration autour des programmes plutôt que des supports.
Et en France ?
Le chantier est vaste et le contexte, particulièrement délicat en ces temps où chaque jour sort une nouvelle fuite sur l’avenir de l’audiovisuel public. Pas d’annonce particulière à Assas, mais des dirigeants de France Télévisions et Radio France en ordre de marche qui ont insisté sur la nécessité de poursuivre sur les voies d’un média global, engagée l’an dernier avec le lancement de l’offre Franceinfo.
Beaucoup d’insistance aussi sur la nécessité de former des alliances à travers l’Europe pour atteindre une masse critique et faire le poids face aux GAFA et autres BATX. Delphine Ernotte a ainsi souligné l’urgence pour les acteurs du continent d’unir leurs forces :
« Une grande fiction américaine – ce qui fait la valeur de Netflix ou d’OCS aujourd’hui, c’est 10 millions l’épisode. On n’a pas les moyens financiers : une série sur France Télévisions, c’est en moyenne 800.000€. Donc il faut se mettre à plusieurs et créer un effet de levier : […] si en Europe, et notamment entre services publics, on est capables de cofinancer ces séries, on aura les moyens de les diffuser sur les territoires européens. C’est indispensable. Et ce n’est pas trop tard, mais c’est maintenant qu’il faut le faire ! »
Côté privé, les groupes TF1, Newen et Webedia montrent l’exemple : alliances avec des MCN du monde entiers, coproductions à gros budget de séries comme Versailles… Les exemples d’alliances avec des acteurs étrangers n’ont pas manqué. Même chose du côté de l’UER qui a mis en avant MediaRoad, son projet de « Silicon Valley à l’européenne » pour favoriser la collaboration entre grands groupes et start-ups et nourrir l’innovation dans les médias européens.
Innovation dans les contenus et leur diffusion, réorganisation des structures, réforme des modes de financement : c’est un vaste programme qui attend les services publics audiovisuels à travers l’Europe. Et alors que la RTBF, la BBC ou encore la télé publique bavaroise engagent des refontes complètes de leur organisation, la France pourrait peut-être se poser à son tour la question : il est peut-être encore temps, au-delà des simples mesures cosmétiques, de nous transformer et d’abandonner la division par support pour se recentrer autour des contenus.
AY/ES
IA et journalisme : quelle éthique ?
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
Tout n’a pas encore été dit sur l’intelligence artificielle (IA) dans les rédactions, loin de là. Dans la conférence organisée cette semaine par l’Ecole de journalisme de Sciences Po, nous avons retenu les questions éthiques, voire morales, que posent l’IA, les robots, ou autres chatbots.
Extraits choisis.
1Pour une éducation des algorithmes
L’intelligence artificielle sera-t-elle consacrée comme le buzzword de l’année 2017 ? Personne ne s’en étonnerait. Pourtant, l’IA n’est déjà plus toute jeune, comme l’a expliqué le sociologue Dominique Cardon et son retour historique bien utile pour démystifier l’effervescence autour de ce terme qui alimente tous les fantasmes.
« On en est à la troisième hype de l’IA, a expliqué le sociologue, et le terme a déjà connu trois printemps et deux hivers ! »
L’émergence de l’intelligence artificielle remonte en effet aux années 1960 et au duel de deux chercheurs du Stanford Research Institute qui opposent deux conceptions diamétralement opposées de la notion d’IA : d’une part, Doug Engelbart, pour qui l’IA est une prothèse destinée à enrichir le cerveau de l’homme, à amplifier son intelligence. D’autre part, John McCarthy, partisan lui d’une intelligence pleinement autonome qui doterait les automates d’une forme de conscience. L’histoire, explique Dominique Cardon, a donné raison au premier : l’IA aujourd’hui est loin d’être autonome, et les algorithmes doivent être éduqués !
#NPDJ@karmacoma rappelle que l’IA en est à sa « 3e hype ». « Nous vivons dans le monde de l’intelligence augmentée (Engelbart). L’intelligence artificielle (MacCarthy), elle, a donné très peu de résultats. (…) Nous faisons couple avec les algorithmes, nous les éduquons. »
— Marie Simon (@marie_simon) 4 décembre 2017
Une « éducation des algorithmes » d’autant plus essentielle que l’on a vu dans les années 1980, avec la deuxième vague de l’IA, que les tentatives de programmer les machines à raisonner comme des humains en les nourrissant de règles et de systèmes de décision logiques étaient vouées à l’échec… Pour une raison bien simple : l’homme n’est pas un être pleinement rationnel, et ses décisions dépendent bien souvent de facteurs imprévisibles (contexte, affects, sensibilité).
La solution, selon Dominique Cardon, est donc d’apprendre aux machines à analyser nos comportements plutôt que nos représentations. En gardant toujours à l’esprit que « nous devons réfléchir à la façon dont nous voulons éduquer les algorithmes ». Car les responsables des biais de l’IA (rappelons-nous le cas de l’IA raciste), c’est nous !
2Qui sauver, qui sacrifier ? Les dilemmes de l’IA
Accepter ou refuser un prêt bancaire, conseiller un avocat dans sa plaidoirie… Et demain, décider si vous allez vivre ou mourir : l’expression peut sembler provocatrice, mais c’est peu ou prou le problème auquel est déjà confrontée l’intelligence artificielle embarquée dans les voitures autonomes.
.@JFBonnefon nous déprime : un jour les AI pourront décider lesquels d’entre nous vont vivre ou mourir. Exemple ici avec les voitures autonomes. Qui doivent-elles sauver en cas d’accident ? #NPDJ pic.twitter.com/fd22WJzqhf
— Tiavina Kleber (@Ktiav_) 4 décembre 2017
Car face aux situations de danger, les voitures autonomes seront inévitablement confrontées à des dilemmes : renverser un enfant ou deux adultes ? Provoquer une femme enceinte ou un homme âgé ?
Des dilemmes pour le moins épineux que Jean-François Bonnefon, chercheur à la Toulouse School of Economics, se propose d’explorer avec le projet Moral Machine. Le site, qui confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions. Le but : identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité…) et les différences culturelles et géographiques.
Verdict : on préfère sauver les humains plutôt que les animaux, mais il n’y a pas de préférence entre passagers et piétons. Et si ces choix moraux sont relativement homogènes d’un bout à l’autre du monde, les résultats montrent aussi qu’il n’y a pas de règle d’éthique qui soit totalement universelle… même si « il y a quand même des convergences locales dans le monde ». Il y aurait donc peu de chances qu’on préfère vous renverser pour sauver un chat : de quoi être rassuré !
3Repenser l’utilisation des statistiques d’audience : le cas du Temps
Ils sont nombreux, ces dernières années, les médias clamant haut et fort servir au public exactement ce qu’il veut, en s’appuyant sur l’analyse des sujets tendances sur les réseaux pour produire des articles. Les statistiques d’audience et les « trending topics » semblent être devenus la nouvelle boussole de ces rédactions en quête effrénée de lecteurs. Mais tous ne cèdent pas, et certains choisissent même de prendre le contrepied total de cette démarche, comme le quotidien suisse Le Temps, dont le rédacteur en chef adjoint Jean Abbiateci est venu présenter le projet Zombie.
Audience d’un article et moral du journaliste : tentative de corrélation (humour inside) par @JeanAbbiateci#NPDJpic.twitter.com/YmvmnD7dtP
— Aurélien Viers (@aviers) 4 décembre 2017
Zombie, projet de R&D financé par le fonds DNI de Google, part d’une idée simple : le meilleur ambassadeur d’un média, ce sont ses (bons) contenus, et les rédactions ont besoin d’outils pour les identifier et les mettre en avant. Et un bon article, pour Jean Abbiateci, n’est pas seulement un article qui fait du clic, mais un article qui retient l’attention des lecteurs, qui crée le débat, qui fait réagir… Zombie, c’est donc une multitude d’indicateurs qui vont bien au-delà des seules données Chartbeat et Google Analytics pour y associer des données sociales et sémantiques.
Une analyse bien plus complète des contenus qui permet au Temps d’élaborer une stratégie différenciée pour chaque article : une enquête fouillée visera à capter l’attention des lecteurs et à les retenir sur le temps long, un autre article d’opinion cherchera plutôt à créer le débat, tandis qu’un contenu evergreen devra pouvoir être remis en avant plus tard.
Pourquoi @ProjetZombie ? Pas pour enterrer la presse mais pour déterrer des articles, répond @JeanAbbiateci (désormais détenteur de la palme de la slide la + photographiée ET de la palme provisoire de la punchline de la matinée)#NPDJ
— EDJ Sciences Po (@sciencespoEDJ) 4 décembre 2017
4La guerre des intelligences : « Mes enfants ont un cerveau made in California ! »
On ne pouvait pas parler d’intelligence artificielle sans évoquer Laurent Alexandre, le « Monsieur IA » du moment. L’homme aux multiples casquettes (énarque, chirurgien, chef d’entreprise, auteur) est partout. Et il n’a pas déçu, enchaînant les punchlines et les saillies enflammées.
A commencer par ce cri d’alarme : l’IA est en train de provoquer un changement civilisationnel, et elle risque de faire exploser les inégalités. Devenue le centre névralgique de nos industries, l’intelligence artificielle risque de laisser sur le bas-côté des millions d’individus qui ne seront pas formés pour manipuler les algorithmes. Et pas la peine d’apprendre à nos enfants à coder, car le chercheur prédit que 95% du code sera écrit par l’IA d’ici 15 ans, le reste étant pris en charge par des ingénieurs ultra qualifiés.
.@dr_l_alexandre : « L’IA n’est pas un problème technologique, c’est un problème politique. Il faut éviter ce que prédit @harari_yuval : une société à deux vitesses entre des dieux qui maîtrisent l’IA et des inutiles » #NPDJpic.twitter.com/W7hAR8U3yn
— Alexandra Yeh (@AlexandraYeh) 4 décembre 2017
Deux puissances – Washington et les GAFA d’un côté, Pékin et les BATX de l’autre – se partagent aujourd’hui le monde, abandonnant l’Europe et ses nains numériques, à la traîne. Ces géants, ce sont ceux qui maîtrisent l’intelligence artificielle, condition indispensable de la puissance géopolique selon Laurent Alexandre. L’Europe, encore « ancrée dans le 20ème siècle dans la plupart des domaines industriels », ne serait plus qu’une « colonisée numérique », dont la seule planche de salut sera de réussir à se faire une place dans cette économie de l’intelligence. Rendez-vous l’année prochaine pour mesurer nos progrès ?
GAFA : des empires fissurés ?
Par Clara Schmelck, Journaliste à Intégrales, Philosophe des médias et chroniqueuse radio (billet invité)
Un empire est une entité politique souveraine, conquérante, qui exerce une domination internationale de nature à transformer structurellement ses vassaux. Par transposition, il est permis de dire des GAFA qu’ils constituent un archipel d’empires. Ce système parfaitement intégré ne paraît pas devoir s’écrouler de sitôt du fait que les GAFA forment un oligopole des infomédiaires – le processus d’infomédiation combine des milliers de parties dont certaines peuvent être algorithmiques et faire usage de l’intelligence artificielle. Et les GAFA continuent de croître. Ainsi, au troisième trimestre 2017, le nombre d’utilisateurs quotidiens de Twitter a augmenté de 14% en moyenne ; l’EBITDA de l’entreprise a crû de 207 millions de dollars et le nombre de vidéos vues sur la plateforme a été multiplié par deux en un an.
Malgré ces signes de stabilité et d’expansion, les GAFA se fissurent : leur rapport aux clients conquis se détériore, l’identité qui a contribué à façonner leur hégémonie économique et culturelle perd en lisibilité, et des puissances concurrentes se sont bâties en les imitant.
L’absence de considération des intérêts de ses vassaux
En décembre 1931, la création du Commonwealth, qui marqua une prise en considération de l’intérêt économique des colonies, dominions et comptoirs de la Couronne britannique, avait pour but d’unifier et de pacifier l’Empire britannique. Car lorsque les périphéries se sentent lésées, le risque de soulèvement est réel.
Les géants américains membres de la « bande des quatre » ont recours à l’optimisation fiscale en ne déclarant pas leur chiffre d’affaires dans les pays de leurs utilisateurs, mais, légalement, dans un pays tiers très accommodant en matière de taux d’imposition. Cela a pour conséquence un manque à gagner dans les budgets de ces différents pays, ce qui à terme, fragilise leur économie. D’après Ouest France, Google et Facebook auraient évité entre 2013 et 2015 de payer 5,4 milliards d’euros au sein de l’UE. Porté par le ministre français de l’Économie et des Finances Bruno Le Maire, le projet de taxation des GAFA sur leur chiffre d’affaires généré dans chaque pays européen, et non plus uniquement sur leurs bénéfices, ne convainc pas l’Irlande, qui a même refusé l’an dernier d’encaisser une amende de 13 milliards d’euros que la Commission européenne voulait imposer à Google, cela pour garder à tout prix le siège européen du géant à Dublin.
À l’échelle des rédactions, les journalistes ont de plus en plus l’impression que les newsrooms travaillent gratuitement pour Facebook. « Le marché mondial de l’information s’est émietté et paupérisé. On constate une redondance de l’info : sur une journée, seule 40% de l’offre est originale. Beaucoup de live mais de moins en moins d’analyse », a déploré Emmanuel Hoog, président de l’AFP, à l’occasion du colloque NPA le 07 novembre 2017. Et les GAFA sont en partie responsables de ce phénomène. Récemment, le New York Times a publié une note de déontologie à l’attention de ses journalistes en leur demandant « neutralité, objectivité et d’adopter un langage châtié » quand ces derniers émettent des tweets depuis leur compte nominatif. Or, demander aux journalistes d’être « objectifs » sur les réseaux sociaux peut desservir les médias dans la mesure où une expression écrite impersonnelle, sobre à l’excès, renvoie à cette impression que les journalistes, producteurs de contenus, ne sont que des utilisateurs de plateformes sociales parmi d’autres.
Pour contrebalancer le poids prépondérant des GAFA dans l’économie des médias, la riposte s’organise. En France, une vingtaine de groupes, médias, régies publicitaires, groupes de e-commerce, ont donné le coup d’envoi à une initiative publicitaire commune : Gravity. Sur cette plateforme d’achat publicitaire, tous les partenaires mettent en commun leurs audiences et leurs datas en vue de gagner en performance dans la publicité « programmatique » (publicités dont la vente est effectuée automatiquement à l’aide d’algorithmes et de systèmes d’enchères). La plateforme sera en self-service janvier prochain. « Les membres de Gravity touchent 44% des internautes français chaque jour, soit 16 millions de personnes », estime Béatrice Lhospitalier du groupe Les Echos, alors que Google en touche 60% et Facebook 70%.
L’incapacité à s’adapter aux cultures locales
L’empire instaure un rapport de forces, mais ces forces doivent aussi mettre les formes, épouser les cultures locales et non chercher à les absorber. Les Romains n’ont pas proscrit les divinités des Gaulois mais ont cherché à établir des correspondances entre dieux gaulois et dieux romains. On retrouve ainsi des représentations de dieux romains accoutrés de costumes gaulois, comme le Mercure de Lezoux, une statue retrouvée dans le Puy de Dôme.
Sur le plan culturel, Facebook a imposé sans nuances le modèle typiquement américain de la « communauté » de personnes qui se « socialisent » en « likant » toutes les anecdotes et confidences ouvertes de leurs « amis », individus qui ne sont souvent que des connaissances. Un système de relations humaines dont la légitimité ne tardera pas à être interrogée dans sa dimension philosophique.
Le refus de prendre des responsabilités
Les sites sociaux, qui n’assument aucune responsabilité éditoriale, ont pour principe la libre circulation de contenus sur les plateformes ouvertes à tous publics et non régulées. L’application YouTubeKids laisse ainsi passer des contenus violents. Dérangeant, quand on sait qu’en France, les enfants âgés de 1 à 6 ans passent quelque 4 heures 37 sur le web par semaine, principalement devant des vidéos. Quant au serpent de mer des fakenews, YouTube, Twitter ou Facebook, en dépit des admonestations des gouvernements européens, ne semblent pas chercher à agir dans le sens d’une plus grande lutte contre ces fake, qui possèdent un haut potentiel à clics.
Une identité moins forte
Monétisation, diversification, innovation technologique avec l’IA : les plateformes sociales savent qu’elles doivent se renouveler pour assurer leur pérennité. Twitter donne désormais la possibilité de tweeter en 280 caractères au lieu de 140, et a livré une version payante avec une fonction de sponsoring automatique du compte et des tweets. Facebook a lancé le paiement en ligne via Messenger. Messenger a d’abord été un service, puis une app, et désormais c’est une plateforme à part entière. Comment situer Messenger dans son rapport avec son entité mère, Facebook ? Snap a publié ce mercredi ses résultats du troisième trimestre, marqués par un chiffre d’affaires inférieur aux attentes et une perte de 443 millions de dollars. La plateforme annonce un design totalement refait de son appli pour décembre et des modifications de son algorithme de recommandations personnalisées. Mais, si Facebook devient une banque et Snap remplace le téléviseur dans les maisons de retraite, l’identité propre de chaque plateforme, fondement du succès de chacune d’entre elles, perd inéluctablement en lisibilité.
Dans le même temps, l’identité des plateformes en tant que plateformes neutres de partage de contenus est mise à mal depuis qu’a été révélé par le Congrès américain le rôle de l’agence Internet Research Agency dans l’influence russe sur la présidentielle américaine.
La concurrence d’autres puissances
Durant vingt ans, l’internet était un lac américain sur lequel le monde entier naviguait. Mais cela pourrait vite changer, car les quatre firmes américaines qui forment l’archipel des GAFA ont toutes désormais leur réplique chinoise : le moteur de recherche Baidu (Google), le site de vente en ligne Alibaba (Amazon), la messagerie Tencent (Facebook) et le fabricant de mobiles Xiaomi (Apple) sont chaque jours fréquentés par plus de 500 millions d’internautes. Le chiffre d’affaires de Tencent s’élevait à 22,9 milliards de dollars en 2016. À titre de comparaison, le CA de Facebook, la même année, était de 27,6 milliards de dollars.
Des fissures, certes, mais toutefois pas de quoi titrer « GAFA, bientôt la fin » : lorsque Facebook constate que les jeunes quittent le réseau, le voilà qui rachète Instagram, tant et si bien que la concentration s’accélère. Autrement dit, tous les chemins mènent à Facebook.
ePrivacy : un enjeu de taille pour l’innovation dans les médias
Par Alexandra Yeh et Barbara Chazelle, France Télévisions, Innovation et MediaLab
« Le projet de Règlement sur la e-Privacy est bien plus inquiétant que celui sur Protection des Données Personnelles ! », a prévenu Benoit Cassaigne (Médiamétrie) ce matin lors de la conférence « Médias » organisée par les Echos.
A l’heure où les médias s’allient pour passer à la vitesse supérieure sur la data et le programmatique, le projet de règlement sur la ePrivacy risque de ralentir l’effort d’innovation face à l’hégémonie des GAFA sur le marché de la publicité.
Même si les acteurs présents à la conférence admettaient être « des nains sur le marché publicitaire face aux GAFA », les rapprochements récents dans le domaine du programmatique (Gravity, SkyLine) laissaient les acteurs français espérer pouvoir grapiller quelques parts de ce marché qui pèse déjà pour 60% de la publicité.
« Google n’a que des données de search (intention), Facebook a des données de comportements constatés. Nous, on a des données d’intention d’achat, d’intention servicielle, démographiques… la diversité on l’a, la puissance aussi. Il ne faut pas surestimer les GAFA, ni nous sous-estimer » a affirmé Amaury Lelong (SoLocal Group).
Pourquoi le projet de règlement inquiète
Parallèlement au règlement sur la Protection des Données Personnelles qui doit entrer en vigueur en mai prochain, Bruxelles travaille sur autre texte appelé communément « Règlement ePrivacy » qui devrait remplacer la directive du 12 juillet 2002 sur la protection de la vie privée dans le secteur des communications électroniques. Le texte prévoit l’obligation d’obtenir le consentement explicite des utilisateurs (opt-in) avant de pouvoir déposer des cookies sur leur terminal alors qu’aujourd’hui il faut seulement les en informer. Plus inquiétant encore, l’absence de consentement pourrait être paramétrée directement dans le navigateur.
Francis Morel (Groupe les Echos) alerte : « Le règlement nous priverait de toute connaissance sur nos internautes bien au-delà de la publicité. Voter le projet ePrivacy en l’état serait laisser internet aux mains des GAFA (et plus particulièrement à Facebook et Amazon) qui connaissent déjà tout de nous. La clé chez nous c’est que toutes nos données soient anonymisées. On ne peut pas aller au-delà. »
En effet, les données comportementales sont utiles à bien des égards :
- pour améliorer l’expérience éditoriale en recommandant des offres plus personnalisées et mais aussi aider à l’écriture de contenus plus en phase avec les attentes des publics
- pour la mesure de l’audience, dont l’hybridation (panel-data) est aujourd’hui indispensable
- pour proposer des publicités mieux ciblées à chaque individu
Rappelons que le règlement a été adopté par le Parlement et est actuellement discuté par le Conseil des Etats membres. Selon nos sources, la France ne se serait pas encore positionnée et les différents ministères reçoivent encore les acteurs concernés. Les médias espèrent que le Gouvernement penchera en leur faveur et ne ralentira pas l’effort d’innovation.
Des pistes pour repenser la publicité en ligne
On l’aura compris : la RGDP et le règlement ePrivacy promettent de provoquer une véritable secousse sismique. Et cela touche tous les acteurs de l’industrie (éditeurs, agences, annonceurs) ; personne ne sera épargné par les bouleversements promis par ce nouvel environnement législatif, a fortiori dans un contexte de rejet croissant de la publicité par les internautes. Quelques pistes ont donc été évoquées pour faire face à cette mutation du secteur.
- Face à l’adblocking, repenser l’expérience publicitaire
Première piste, la plus évidente : repenser entièrement les expériences publicitaires proposées aux internautes. Impossible désormais d’ignorer le phénomène de l’adblocking, qui après être longtemps resté cantonné aux cercles d’initiés, est désormais entré dans les usages populaires (on compte déjà un milliard de téléchargements pour AdBlock Plus). Les raisons avancées pour expliquer ce rejet massif de la publicité sont claires : les messages publicitaires sont trop nombreux, trop souvent non pertinents, intrusifs et ils occupent trop de place sur les écrans des internautes.
Et la faute, selon Francis Morel, revient entièrement aux annonceurs et aux médias : « les premiers responsables de l’adblocking, c’est nous, car nous avons autorisé les publicités intempestives ».
Car ce n’est pas la publicité en elle-même que rejettent les utilisateurs, mais bien la façon, bien souvent peu subtile, dont elle est matraquée sur tous les écrans. Tous les intervenants l’ont souligné, il est donc urgent de se renouveler, sur les contenus bien sûr en imaginant de nouvelles écritures publicitaires, mais aussi et surtout sur l’expérience en concevant des formats adaptés aux usages et surtout au contexte de consommation des internautes et à leur parcours de navigation transdevice.
Car comme le souligne David Larramendy, membre du directoire du groupe M6, il n’y a pas réellement de publiphobie : à la télévision par exemple, il y a un contrat d’écoute avec le téléspectateur, qui accepte que ses programmes soient interrompus régulièrement (en moyenne 12 minutes par heure). Mais tout dépend du contexte de visionnage : quand il visionne un contenu court sur une plateforme vidéo, sa tolérance sera plus limitée.
- Données : qui est propriétaire ?
Au-delà d’une réflexion sur les formats publicitaires, c’est évidemment autour du sujet de la data que l’industrie doit se structurer. Levier d’engagement et moyen de mieux connaître les clients selon Catherine Gotlieb (Volkswagen Group), la data est au cœur de toutes les stratégies des annonceurs et des médias. Mais quid de la propriété de ces données collectées ? Le philosophe Gaspard Koenig, invité en conclusion de cette table ronde sur la data, est venu apporter une réflexion et un recul bienvenu sur ce problème tout autant économique qu’éthique :
« Aujourd’hui on n’achète pas l’individu, on vole l’individu. Le producteur primaire de l’or noir [la data], c’est nous, et nous ne sommes pas rémunérés pour ces données qui font la valeur des GAFA. »
A ceux qui affirment que nos données sont une monnaie d’échange contre un service rendu par les plateformes, Gaspard Koenig affirme que c’est à nous que doit revenir le droit de propriété sur la data et donc la décision de les céder ou non aux grands acteurs du web.
Car pour lui, nous sommes aujourd’hui spoliés de notre valeur : la donnée est une partie de nous et nous devrions être rémunérés par les plateformes qui l’utilisent.
Le philosophe l’affirme : « la révolution industrielle a conduit à l’instauration de la propriété intellectuelle avec le brevet. Il serait logique que la révolution numérique instaure un droit de propriété sur les données personnelles ! ».
Dans cette logique, c’est à nous qu’il reviendrait d’arbitrer entre notre confort et notre vie privée : quelles données souhaitons-nous céder ? quel degré de transparence acceptons-nous ? Ce serait à nous de le décider et de choisir une ligne de conduite : confier nos données aux plateformes pour accéder gratuitement à leurs services, ou au contraire refuser de les céder et payer pour l’accès aux services. Avec, entre ces deux pôles, d’autres alternatives : par exemple, accepter de céder nos données à condition qu’elles ne soient pas transmises à des tiers… Redonner le pouvoir de décision aux individus évitera de tomber dans les méandres de la judiciarisation : les décisions morales seront directement prises par les utilisateurs.
Une solution séduisante donc, mais qui pose un problème moral, éludé lors de son intervention : le droit à la vie privée sera-t-il réservé aux riches, à ceux qui auront les moyens de payer pour refuser que les plateformes accèdent à leurs données personnelles ? Ce sera effectivement un arbitrage de consommation, concède Gaspard Koenig, mais la valeur de nos données ne correspond pas à la taille de nos portefeuilles mais à notre environnement : les données de géolocalisation d’un chauffeur qui utilise l’application Waze, par exemple, auront beaucoup plus de valeur que celles d’une personne plus riche, mais qui effectue moins de trajets en voiture.
Une intervention qui aura permis de prendre un peu de hauteur sur le vaste sujet de la data, même si l’instauration d’un droit de propriété sur les données paraît, à court terme, utopique. Dans l’immédiat, à défaut de mener une vraie réflexion de grande ampleur, l’urgence pour l’industrie est d’abord de retrouver la confiance des utilisateurs, en leur assurant une utilisation éthique et surtout transparente de leurs données. C’est ce à quoi travaillent l’ACPM, le CESP et Médiamétrie selon Benoît Cassaigne.
C’est aussi à nous citoyens qu’il revient de nous informer, de ne pas accepter aveuglément la cession de nos informations et d’être conscients de nos pratiques en ligne. La protection de nos vies privées ne dépend pas que de la bonne volonté des plateformes, elle passe aussi par une conduite responsable des internautes eux-mêmes !
Crédit image de Une : Jad Limcaco (Unsplash)
Victimes du clic, nous sommes devenus des « prolétaires affectifs » du web
Par Barbara Chazelle, France Télévisions, MédiaLab et Prospective
La circulation numérique de nos émotions est un élément essentiel de l’économie du web social. Nos interactions en ligne deviennent les ressorts d’un « capitalisme numérique affectif » dont nous sommes les travailleurs bénévoles, promesse d’une meilleure expérience en ligne mise à part.
Mais à qui profitent nos affects et comment sont-ils exploités ?
Les enseignants-chercheurs Camille Alloing et Julien Pierre analysent et critiquent ce phénomène dans leur ouvrage « Le web affectif, une économie numérique des émotions » (INA Editions).
Emotions, affects : quelles sont leur valeur économique ?
Les auteurs ont pris le parti de parler « d’affects » plutôt que « d’émotions ». Quelle est la différence ? Les émotions seraient individuelles, de l’ordre du ressenti, alors que les affects sont de l’ordre de la relation sociale. Affecter « c’est avoir un effet sur quelqu’un, l’inciter, l’émouvoir, empiéter sur sa réalité ».
Roue des émotions de Plutchik
Rapporté au web, il s’agit d’attirer l’attention de l’internaute sur des informations produites par d’autres utilisateurs et de l’y faire réagir (par un clic, un like, un commentaire… en d’autres termes une donnée numérique) : c’est ce qui permet de faire circuler le contenu en question. Cette preuve d’intérêt produit des recettes publicitaires et vient alimenter les stratégies des grandes plateformes qui ont alors des éléments pour décider où investir.
Tout est bon pour faire réagir : après les smileys et les Facebook Reactions, place à l’application Bitmoji qui anime votre avatar en réalité augmentée. Certaines marques vont jusqu’à créer leurs émojis pour un événement, à l’instar de Disney en partenariat avec Twitter à l’occasion de la sortie de Star Wars VII et un marché de start-ups spécialisées dans le brand sticker est en pleine expansion !
Une expérience personnalisée à condition d’être profilé
La généralisation des plateformes (Facebook, YouTube…) est à l’origine du poids grandissant des affects : elles sont non seulement un moyen de circulation des contenus mais aussi un outil d’analyse et de mesure utile aux marques.
« Devenues ordinaires, elles englobent et encadrent tous nos comportements. Leur ubiquité s’accompagne d’une tendance à quantifier, mesurer, tracer tous les gestes et actions de leurs usagers. Parce qu’il y a une continuité entre mise en chiffres et création de valeur, l’affect mesuré est intrinsèquement un outil de valorisation pour l’économie numérique », expliquent les auteurs.
Notons que la mesure des émotions est très approximative, mais elle fait consensus chez les professionnels. (Rien de nouveau, la mesure d’audience de Médiamétrie repose sur ce même principe).
« Ce n’est pas tant l’objet émotion qu’il est nécessaire de définir, mais plutôt les postulats, représentations, croyances ou conventions que les chercheurs, mais également des ingénieurs ou des entrepreneurs investissent dans les émotions. »
Dans le cadre de cette économie des affects, nos interactions en ligne constituent un « travail affectif numérique » et nous transforment en un « prolétaire affectif » qui « produit beaucoup d’affects, au point qu’il ne peut subsister que par ce qu’il produit ».
Les données que nous produisons permettent aux plateformes de nous promettre une expérience personnalisée (ou plus ciblée selon le point de vue où l’on se place). Elles viennent alimenter des méthodes et algorithmes brevetés (« Method and system for tagging of content » de Google ou « EdgeRank » de Facebook) qui participent à notre profilage.
Et demain, c’est par la voix que ces plateformes analyseront nos émotions via les objets connectés qui envahissent tous les jours un peu plus notre quotidien.
« J’imagine un monde où chaque objet intelligent serait doté d’une puce le rendant capable de comprendre nos émotions en temps réel », déclarait en 2016 déjà la dirigeante de la société Affectiva.
Hack your emotion !
Cette économie des affects dépasse la simple activité marchande : on la retrouve aujourd’hui « au service de la mise en capacité de soi, du management dans les entreprises et parfois dans une certaine forme de contrôle social. »
« Nous voyons le capitalisme affectif comme un moyen d’encadrer ce travail en ligne : s’assurer que les travailleurs et les consommateurs sont dans de bonnes dispositions et que les états affectifs qu’ils expriment participent aux systèmes économiques en place », expliquent Camille Alloing et Julien Pierre. C’est ainsi que l’on voit apparaître dans les entreprises des « Chief Happiness Officers » dont la mission consiste à « administrer des actifs humains par le management des émotions. »
Mais cette récupération de nos affects n’est pas sans danger : la technologie capture des émotions dont nous n’avons pas toujours conscience et l’exposition de ces données émotionnelles pourrait « créer de nouvelles formes de domination mais également de résistance. »
Il est temps de reprendre le contrôle en nous interrogeant sur ces dispositifs afin de pouvoir redéfinir ce qui nous affecte. Dans cette perspective, deux stratégies doivent être mises en place. D’une part, nous ne devons pas abandonner la bataille de la redevabilité des plateformes en leur demandant plus de transparence quant aux comportements de leurs algorithmes. D’autre part, l’éducation aux médias et au numérique est fondamentale pour aguerrir tout individu à hacker l’exposition de ses émotions, en apprenant à tromper les algorithmes en générant des données aléatoires en grande quantité par exemple.
L’ère de la dématérialisation et son impact bien réel sur la planète !
Par Lorraine Poupon, France Télévisions, MédiaLab
Ce n’est plus un secret pour quiconque s’intéresse réellement à la question du numérique, qu’au-delà de son image d’industrie « propre », mathématisée et abstraite voire même indolore, elle est à l’origine de conséquences réelles sur l’environnement. Alors, incriminable comme l’industrie automobile ou l’agriculture intensive, depuis longtemps pointées du doigt ?
C’était le sujet d’un débat organisé la semaine dernière à la Recyclerie à Paris par le Mouton Numérique où intervenaient Coline Tison, journaliste réalisatrice du reportage « Internet, la pollution cachée » et l’ingénieur Philippe Bihouix, critique de l’idée populaire de « croissance verte ».
Data Centers : la plupart des grandes plateformes s’engagent à faire des efforts
Pour les entreprises, notamment à l’échelle des GAFA, l’étape de la prise de conscience de l’urgence d’un modèle insoutenable à long terme est depuis longtemps passée. Ce n’est pas qu’une question de transparence vis-à-vis d’une société civile toujours plus exigeante en la matière. Les décisions en matière d’écologie ne relèvent pas non plus d’un choix militant ou du sentiment d’une quelconque responsabilité : l’enjeu pour elles relève de la rationalisation des coûts.
Dès qu’il s’agit de la question énergétique dans le secteur technologique, les célèbres data centers sont souvent les premiers blâmés. Et pour cause, à échelle mondiale, ils représentent à eux seuls 3 à 4 fois la consommation électrique française.
Avec une dimension pareille, qu’ils fonctionnent à l’énergie éolienne ou au charbon est donc loin d’être neutre du point de vue environnemental. Dans ce domaine, et par leur position de domination à l’échelle mondiale, l’attitude proactive d’Apple, Google et Facebook provoque un effet d’entraînement pour l’ensemble du secteur.
C’est ce que montre le classement « Clicking Clean » établi par Greenpeace depuis 2012 en fonction de la transparence en matière d’information, du discours tenu dans le débat public, des engagements annoncés, de leur respect et du mix énergétique adopté.
Les GAFA (exception faite d’Amazon) sont donc aussi leaders en matière environnementale ! Lorsque Google annonce que ses bureaux et ses data centers fonctionneront entièrement grâce aux énergies renouvelables à partir dès 2017, l’entreprise crée un standard, une nouvelle norme, un niveau d’exigence que les autres devront appliquer à leur propre compte, sous peine de souffrir d’une image détériorée.
A l’inverse, Netflix y fait figure de mauvais élève. Malgré son statut d’acteur global désormais incontestable, l’entreprise a longtemps été dépourvue de tout discours sur la question environnementale. Le silence n’était plus soutenable et des objectifs ont été annoncés. Mais pour Green Peace, il ne s’agit que d’artifices qui ne provoqueront pas de véritables changements structurels dans le mode de fonctionnement de l’entreprise. Ils consistent plutôt en des actions compensatoires des méfaits de son activité avec, par exemple, l’achat de crédits carbone.
Nos comportements numériques sont le plus grand danger pour l’écologie
Pour autant, réduire la question de l’impact écologique d’internet au défi que représentent les data centers, revient à grandement limiter la question et faire preuve d’aveuglement pour ne vouloir voir que la partie émergée de l’iceberg.
Sur cette question, le débat ne s’est pas tant concentré sur la pollution due au composantes-mêmes des appareils électroniques (citons l’exemple du silicium de nos smartphones !) que sur les nouveaux comportements et habitudes de consommation nés à l’ère du numérique.
Après l’obsolescence programmée, voici venue l’obsolescence marketing ! Votre iPhone 7 fonctionne encore mais cela ne vous empêchera pas de le remplacer par l’iPhone 8 comme vous aviez déjà mis de côté votre iPhone 6 auparavant.
Il faut repenser ces nouveaux comportements devenus habitudes. Notre attitude d’internaute revient à un choix de consommation au même titre que nos achats de vêtements ou notre régime alimentaire.
Bien que contre-intuitif, la fabrication physique d’un CD ne coûterait pas nécessairement plus cher écologiquement que l’écoute d’un titre en streaming des millions de fois. Il en va de même pour la fabrication d’un DVD face au bingewatching de saisons entières de série en l’espace de quelques jours, pratique inimaginable avant Netflix.
Bien loin de l’imaginaire du cloud dématérialisé et intangible, renvoyer 3 fois le même email et ses fichiers en pièce jointe ou se tourner systématiquement vers Google à chaque fois que notre mémoire nous fait défaut sur un nom d’acteur ou une capitale de pays a des conséquences. Ce n’est pas un hasard si des moteurs de recherche verts comme Ecosia (le moteur de recherche qui plante des arbres !) ou Qwant et sa collaboration récente avec Akuo Energy sont nés. C’est tout simplement une offre qui répond à cette demande naissante.
Et c’est probablement là que réside le véritable défi (pour l’instant non relevé !) pour les entreprises de la tech. Quand bien même des progrès sont faits par une meilleure conception architecturale des data centers, dans les méthodes de réfrigération ou dans les énergies utilisées pour les faire fonctionner, si le coût unitaire écologique de la donnée traitée diminue, le nombre de données collectées, lui, explose de manière exponentielle. Et cela ne va pas aller en s’arrangeant.
Intel a ainsi alerté sur la viabilité du modèle avec, par exemple, l’arrivée sur le marché de la voiture autonome. Une voiture autonome seule produirait en un jour 4000Go de données par jour. Généralisez ce flux de données individuel à un parc automobile d’un million de véhicules autonomes, soit seulement un millième du parc automobile mondial ? Inconcevable ! Ou du moins intenable.
Mais alors, que faire ? Ces milliers de données collectées sont-elles vraiment nécessaires, surtout quand on sait qu’une large partie d’entre elles est encore inexploitable car étant non structurées ? Les copies « en back up » de tous les sites en 3 ou 4 exemplaires pour se prémunir de tout bug ou du moindre ralentissement et réduire le temps de chargement au minimum sont-elles indispensables ? A-t-on réellement besoin de chacune des apps figurant dès les paramètres d’usine sur le menu de son portable ?
Au même titre que l’éco conception des pages web avec des codes plus légers et optimisés, l’idée d’une sobriété dans notre rapport au net a été évoquée. Accepter la patience avant l’affichage, rendre conscient et non plus automatique le geste de la recherche Google ou de l’ouverture de l’onglet Facebook … Après l’installation du bloqueur de publicités pour ne pas voir son espace visuel envahi ou le moteur de recherche respectant sa vie privée, prochaine étape ?
Médias et GAFA, it’s complicated – Rêves communautaires et modèles économiques
Par Kati Bremme – France Télévisions, Direction de l’Innovation
Serait–ce la fin d’une histoire d’amour qui aurait duré à peine onze ans ? Les débuts étaient pourtant idylliques : face à des médias en manque de renouvellement et aux revenus publicitaires en chute libre sur les interfaces historiques (le papier, puis l’écran), les plateformes, avec leurs fonctionnalités nouvelles et leur public jeune, signaient la promesse d’un renouvellement salutaire. Pourtant aujourd’hui, la relation entre médias et GAFA semble déjà grippée.
Bien sûr, avec 60% des Américains qui s’informent sur les réseaux sociaux et ⅓ de l’activité en ligne consacrée à la consommation de vidéos notamment sur les réseaux sociaux (80% en 2019, selon Cisco), la question n’est pas de boycotter le duopole Facebook/Google, ni plus largement les GAFA. Mais après le sursaut de terreur d’octobre, quand Facebook a testé un double fil d’actualité séparant posts d’amis d’un côté et posts d’éditeurs de l’autre, le temps est venu de prendre du recul et d’analyser les différentes possibilités qui s’offrent aux médias. De demander plus de transparence, en gardant en tête l’importance de ne pas tout miser sur le même cheval, et de ne pas se rendre complètement dépendant de ses partenaires – la dépendance n’étant jamais une bonne base pour une relation. Après avoir contribué à la (fausse) idée que le journalisme, et les contenus, doivent être gratuits, les plateformes s’ouvrent aujourd’hui peu à peu pour mieux répondre aux besoins économiques des médias et des annonceurs.
Mais les GAFA ne sont pas des entreprises charitables. Lorsqu’ils proposent un produit aux médias, c’est dans un but précis, avec toujours le même objectif principal : garder l’attention du public le plus longtemps possible en couvrant l’intégralité de ses envies (consommation vidéo, info, jeux, messagerie instantanée…) Pour cela, ils ont besoin d’être alimentés en contenus, en usant de stratégies en disruption complète avec le business as usual des médias traditionnels.
Petit tour d’horizon des modèles économiques avec un focus sur 4 plateformes : Snapchat, Facebook, Apple et Google.
Snapchat et les jeunes, Saint–Graal de la publicité
- Une audience jeune précieuse
Toucher ceux qui forment le monde de demain reste la priorité numéro un des annonceurs, et un objectif important pour rajeunir l’image vieillissante de certains médias. Avec un potentiel de dépenses de 44 milliards, la génération Z séduit naturellement l’industrie. Snapchat génère un engagement beaucoup plus fort que d’autres services, grâce à son ergonomie qui incite dès l’ouverture de l’application à la création et au partage de snaps et de stories. Démographiquement singulière et particulièrement fidèle, son audience mérite d’être protégée, notamment des annonceurs. Le prochain toilettage de la plateforme, qui vise à rendre son interface plus accessible aux non initiés, risque d’ailleurs de faire fuir les habitués de Snapchat.
- Discover et la publicité créative sur Snapchat
En attendant, Discover, la partie réservée aux médias lancée en 2015, génère l‘essentiel des revenus (43 %) de Snapchat. En France, le nombre de lecteurs actifs mensuels a dépassé les 10 millions depuis septembre. Des chiffres excellents qui ont poussé Snapchat à diffuser, depuis 2016, de la publicité dans les stories. Pour chouchouter son audience professionnelle de l’image, la plateforme sélectionne soigneusement les agences avec lesquelles elle travaille et innove en proposant des formats créatifs tels que des filtres sponsorisés. Elle donne même un coup de main aux annonceurs en proposant son outil Snap Publisher pour créer des formats verticaux. Les performances de ses partenaires sont scrutées de près afin de déterminer ceux qui attirent le plus les utilisateurs du service, et Snap n’hésite pas à les remplacer en cas de résultats décevants.
- Des nouveaux formats qui demandent des investissements lourds aux médias
Des équipes dédiées de 6 à 10 personnes, de nouveaux métiers – comme les « motion designers », spécialisés dans le graphisme et la vidéo d’animation –, un storytelling rythmé et visuel : Snapchat exige un budget et une énergie considérables pour livrer ces nouveaux formats verticaux de qualité. Une tâche d’autant plus ardue que la plateforme évolue très vite, bien plus vite que les médias dont la capacité d’adaptation laisse encore à désirer. Tout le monde n’est pas BuzzFeed, le média star de l’ère numérique qui arrive à délivrer des contenus adaptés à 20 plateformes.
- Quel retour sur investissement ?
Même si les médias traditionnels sont en concurrence directe avec des influenceurs de plus en plus convoités par les annonceurs, l’affaire semble rentable. Fondé sur un modèle de partage de recettes 50/50 entre la plateforme et les éditeurs, Snap représente déjà un sixième des recettes publicitaires médias de Vice France, et près de 18% du chiffre d’affaires digital de Cosmopolitan, selon Les Echos. Non seulement les revenus publicitaires sont au rendez-vous, mais les médias arrivent aussi à capter un nouveau public en proposant des contenus de qualité, à l’instar du journal Le Monde, dont le patron Louis Dreyfus déclare que les 2,7 millions de Snapchatteurs mensuels ne viennent pas pour « du LOL et des chats » mais « que l‘audience jeune s‘intéresse à l‘actu sérieuse exprimée dans de nouveaux langages ».
Pour aider les éditeurs et annonceurs à mieux qualifier leur audience, Snapchat vient même d’ajouter un pixel pour suivre les conversions et permettre la segmentation d’audiences on–site. A l’instar de Facebook, la plateforme autorisera le retargeting et la création d’audiences de type « lookalike ». Autant d’évolutions qui prouvent la volonté bien ancrée de Snap de rester leader sur la cible des jeunes !
Facebook Instant Articles, vidéos, pub et le paywall
- Capter – Fidéliser – Récolter des données – Revendre
Copié de toutes parts, le modèle stratégique de Facebook est simple et gagnant : attirer un maximum d’utilisateurs, les fidéliser en créant des interfaces et des fonctionnalités addictives tout en recueillant leurs données, et enfin monétiser le tout grâce à la publicité. Depuis que les médias ont peu à peu pris la place des étudiants de Harvard dans les serveurs de Facebook, ils sont en constant bras de fer avec le géant de la Silicon Valley, l’un de leurs plus grands problèmes étant le manque de transparence des algorithmes et la marge limitée de revenus générés.
- Instant Articles – pallier la faible production de contenus par les utilisateurs
En 2015, la très sérieuse université de Princeton avait prédit une perte de 80% des utilisateurs de Facebook d’ici à 2017. Raté : en deux ans, la plateforme a vu son nombre d’utilisateurs augmenter de façon exponentielle. Une santé au beau fixe dont Facebook a d’ailleurs profité pour lancer une nouvelle fonctionnalité, les Instant Articles. Présentés aux éditeurs comme un cadeau qui améliore l’expérience utilisateur sur mobile, ils ont bien sûr pour but de remédier à la pénurie de contenus, et d’alimenter le fonds de formats propriétaires de la plateforme, en les hébergeant et en les contrôlant. Les débuts furent compliqués, avec des éditeurs et annonceurs sceptiques leur reprochant des possibilités limitées de tracking d’audience, un choix de gabarits publicitaires restreint et un partage des recettes déséquilibré avec la régie publicitaire de Facebook. Les Instant Articles ne permettaient pas non plus les paywalls, pourtant l’un des modèles économiques essentiels pour la survie des médias sur le numérique.
- Nouvel enjeu de l’engagement : la vidéo
Sur le déclin, et avec l’essor fulgurant de la vidéo, les Instant Articles ont été quelque peu remisés au second plan. La vidéo génère en effet 1200% de partages de plus sur les réseaux sociaux par rapport aux contenus images et textes réunis. Pour capitaliser sur ce nouveau format star, Facebook a donc forcé les médias à s’adapter et à produire des formats ad hoc : courts, avec des surtitres (85% des vidéos étant vues sans le son sur Facebook), avec un montage bien différent du format classique des bandes-annonces ou des sujets JT pour la TV. Mais tout n’est pas rose pour Facebook : après avoir été accusé de gonfler les chiffres de la pub en 2016, côté publicité vidéo, les premiers retours des éditeurs sur le mid-roll sont mitigés et dénoncent, encore une fois, le manque de rémunération de ce format par rapport aux investissements exigés. Mais la firme de Menlo Park a un autre tour dans son sac : la rémunération directe de certains médias pour les inciter à fabriquer du contenu, révélée par Nicolas Becquet pour l’European Journalism Observatory dans un article figurant également dans ce cahier. Il s’agirait de 100 000 et 200 000 euros par mois sur des périodes renouvelables de six mois, en somme des millions d’euros distribués aux médias hexagonaux. Facebook est même à l’origine de nouveaux studios pour certaines chaînes, une dépendance qui s’ajoute à celle générée par le trafic depuis les réseaux sociaux.
Ces faits vont ainsi à l’encontre de l’idée reçue selon laquelle Facebook ne serait pas prêt à financer des contenus. Rappelons que par ailleurs, Mark Zuckerberg a annoncé qu’il allait investir 1 milliard de dollars en 2018 pour la productions de contenus originaux à destination de sa nouvelle plateforme Watch.
- Une carotte pour inciter les éditeurs à revenir sur les Instant Articles : freemium et paywall
Depuis juillet 2017, Facebook teste les Instant Articles pour les médias freemium / paywall, avec des clients importants comme Bild, The Economist, La Repubblica, Der Spiegel, The Washington Post et Le Parisien. Deux modèles possibles : des abonnements sur une période donnée ou un accès à une quantité donnée d’articles, avec toujours 100% du prix de l’abonnement récupéré par le média. Facebook affirme par ailleurs reverser l’intégralité des revenus publicitaires aux éditeurs qui gèrent eux-mêmes la publicité. Il se réserve en revanche une commission de 30% sur les publicités gérées par sa régie qui, elle, bénéficie des données des utilisateurs et peut donc mieux cibler les publicités. La fonctionnalité est d’abord lancée sur Android, faute d’accord trouvé avec Apple : même les géants entre eux sont dépendants des décisions arbitraires de leurs collègues !
Apple News, l’opacité
- Le mystère Apple News
Lancée la même année que Discovery et Instant Articles, Apple News est peut être le format le plus mystérieux pour les éditeurs. « News » communique encore moins que ses concurrents sur la nature de son algorithme, et cela ne s’arrange pas depuis janvier 2017 : le widget n’a plus de représentant officiel en France, et les éditeurs présents sur la page – accessible en balayant l’écran d’un iPhone vers la gauche – sont peu bavards sur le succès de leurs contenus. Cela n’empêche pas Apple News de revendiquer plus de 70 millions d’utilisateurs. Et selon le Reuters Digital News Report, un utilisateur d’iPhone sur 5 au Royaume-Uni considère Apple News comme sa principale source d’information
- Une audience importante
Tout ce que l’on sait est que l’audience est importante : iOS étant installé sur 23 % des smartphones en France, soit 9,3 millions d’utilisateurs, la consultante Virgine Clève, qui étudie Apple News depuis plus d’un an, estime « qu’il contribue de 5 à 25 % au trafic mobile total de certains éditeurs ». Une disparition soudaine de leurs contenus de cette vitrine peut donc signifier des variations de plusieurs millions de visites d’un mois à l’autre. En France, 8 médias concentrent presque toute la visibilité dans Apple News.
Les 4 places sont chères : la sélection géolocalisée est rafraîchie toutes les 15 minutes et les articles n’y figurent pas plus de sept jours. Et les contenus frais sont favorisés : le premier éditeur qui publie une information aura plus de chances d’être sélectionné.
- Un modèle payant pour les éditeurs
Un modèle intéressant pour les éditeurs est la forte mise en avant de contenus avec paywall, à l’instar du Telegraph, qui promeut sur Apple News ses contenus premium avec abonnement (sans toutefois communiquer sur ses chiffres). Les revenus sont partagés avec les éditeurs, et le widget leur permet d’ajouter leur contenu simplement via un flux RSS ou bien de l’intégrer davantage au service avec l’implémentation d’un code spécifique. Naturellement, Apple avait privilégié sa propre régie (abandonnée depuis) pour la diffusion des publicités… alors même qu’il empêche le fonctionnement des modèles économiques fondés sur la publicité dans son écosystème technologique, en admettant des bloqueurs de publicité dans son navigateur Safari.
- Mais de faibles revenus publicitaires
Malgré les fortes audiences, les éditeurs, ici encore, se plaignent des faibles revenus publicitaires et du peu de partage des données sur le public, ce qui ne s’arrange pas depuis que la « défense de la vie privée » est devenu le nouveau cheval de bataille d’Apple (pour avoir l’exclusivité des data à exploiter). Tout ce que l’on sait est que l’audience semble être plus âgée que sur les autres plateformes. Mais il est difficile de programmer des campagnes pertinentes sans connaître sa cible.
Google, la vitesse supérieure
- Un chargement de page rapide, presque trop
Quand Snapchat, Facebook et Apple poussent les éditeurs à céder leurs contenus aux plateformes pour les héberger et distribuer, Google leur propose juste, avec AMP, une version de langage HTML allégée, permettant ainsi un affichage rapide des pages web tout en maintenant le contenu chez son propriétaire. Le code est même tellement optimisé que des annonceurs considèrent que les pages se chargent trop vite pour avoir le temps de consommer la pub.
- Un modèle publicitaire surveillé
Comme pour Instant Articles, l’éditeur, via ses propres ad–servers, perçoit 100% des revenus. Mais comme Facebook, Google veut limiter l’affichage publicitaire. Les interstitiels sont refusés et seuls les formats classiques sont acceptés. Un peu à l’instar de Snapchat, Google veut contrôler la qualité des publicités affichées.
- Un partage de revenus sur les abonnements
Début octobre, Google a fait un pas vers les éditeurs, en annonçant la fin du déréférencement des contenus payants dans le search classique. En contrepartie, Richard Gingras, responsable des actualités de Google, a expliqué en octobre au Financial Times que le groupe « souhaite prélever une part des revenus sur les nouveaux abonnements générés grâce à ses données ». Le montant se situerait toutefois en dessous des 30% d’AdSense.
- Stamp, le nouveau concurrent de Discover
Google s’apprête par ailleurs à concurrencer Discover. Son nouvel outil Google Stamp (Stories et AMP) est en cours d’élaboration avec un certain nombre de médias partenaires (CNN, Mashable, Vox Media…), qui sont par ailleurs rémunérés directement pour les développements et tests engagés, là où le modèle de Snap repose sur un partage de revenus. Avantage de Google face à la startup Snapchat : les contenus « Google Stamp » pourraient être référencés en haut des pages de résultats sur son moteur de recherche. Ils pourraient également être intégrés sur les sites web et applications des éditeurs.
Les enjeux de la publicité digitale
- Reprendre le contrôle de la pub programmatique
De plus en plus d’annonceurs, et même récemment des éditeurs, réclament plus de transparence et de contrôle de la chaîne de diffusion des publicités programmatiques. Danny Spears, responsable programmatique au Guardian, appelait en octobre à arrêter la « roulette russe » de la diffusion non contrôlée de pubs et des investissements dans des inventaires opaques sur des marchés secondaires, qui ont mené à l’affichage sur des sites comme Breitbart ou encore à des fraudes qui réduisent leur ROI de façon considérable. Au Digiday’s Publishing Summit Europe, les éditeurs européens ont reconnu que « Facebook a été un désastre pour [eux] ». De plus en plus, ils s’associent pour faire face au duopole Google/Facebook qui monopolise 20% des revenus publicitaires mondiaux (radio, TV, presse, numérique, affichage, cinéma…). Les médias français s’allient via Gravity, à l’exception du Monde et du Figaro qui font front de leur côté avec Skyline. Le message est fort : les marques veulent se réapproprier le contrôle de leurs campagnes publicitaires numériques et face à Google et Facebook, les rivalités historiques s’estompent. Côté agences, certaines proposent des AdGreements pour garantir la qualité et l’efficacité des publicités diffusées.
Matthieu Le Cann, directeur général d’Advideum, résume en une phrase le casse-tête des revenus publicitaires sur les réseaux sociaux : « Nous voulons résoudre l’équation du moment que tout éditeur vit : la diffusion des contenus sur leur site est monétisée avec une valeur élevée mais génère peu d’audience, alors que la diffusion sur les réseaux sociaux génère une audience importante mais une monétisation nulle. »
- Centrer la mesure d’audience sur le contenu
Pour les médias (notamment d’information) souhaitant distribuer leurs contenus sous forme native sur les réseaux sociaux, l’un des freins était aussi la perte d’audience de leurs pages. Médiamétrie et l’ACPM se sont finalement adaptés à ces nouveaux usages : « Jusqu’à présent, Médiamétrie mesure l’audience des supports (support centric). Mais nous pourrions passer à une mesure centrée sur le contenu (content centric) et déportalisée », rapporte Estelle Duval, directrice du département Internet de Médiamétrie. L’institut publie d’ailleurs depuis juin 2017 les audiences des Instant Articles et d’AMP. Julien Rosanvallon, directeur du département Internet de Médiamétrie, ajoute que toutes les plateformes sur lesquelles il y a du contenu pourraient à terme être comprises dans la mesure d’audience.
La réconciliation ?
Les fiches de paye des médias seront-elles bientôt signées Facebook, Google et Cie ? Ne voyons pas tout en noir.
Exigeantes car elles challengent les médias et les agences de publicité sur les temps de chargement, les formats innovants ou encore le taux d’engagement de leurs contenus, les plateformes ont aussi un avantage : elles impulsent de la créativité et forcent les éditeurs à se concentrer sur l’expérience utilisateur. Le besoin constant d’adaptation aux nouveaux usages peut aussi aider les médias traditionnels à revoir leur organisation, leurs processus de fabrication, et enfin à devenir plus agiles pour expérimenter de nouveaux langages et rajeunir leur public.
Pour les éditeurs de presse, cette compétition est une réaffirmation de la valeur ajoutée que procurent les contenus professionnels et labellisés. Les GAFA ont besoin de la présence des médias comme produit d’appel et gage de qualité, a fortiori après la crise des fake news. Ils font aujourd’hui quelques efforts dans la recherche de modèles économiques viables pour les éditeurs : la logique du partage de revenus progresse et devient substantielle dans l’organisation des médias. Certains GAFA proposent même des outils d’analyse poussés, comme CrowdTangle, pour démystifier leurs propres algorithmes. D’autres, comme Google avec son fonds DNI, se présentent en partenaires de l’innovation. Il ne s’agit donc pas pour les médias de signer naïvement un pacte avec le diable, mais bien de garder le contrôle de la diffusion de leurs contenus et des données de leur audience, de proposer des partenariats intelligents, en maintenant, pour les plus grands, quelques plateformes propriétaires capables de garantir aux annonceurs des environnements dépourvus de contenus problématiques, dans un contexte où les GAFA peinent encore à assurer leur propre autocontrôle. Comme on l’expliquait en introduction, il faut éviter de mettre tous ses œufs dans le même panier, continuer à affirmer une stratégie et une ligne éditoriale claires, se diversifier et surtout rester vigilant. Décidément, it’s complicated.
L’Open Source, une alternative aux Gafa ?
Par Nathalie Pignard-Cheynel, professeure en journalisme numérique, Académie du journalisme et des médias, Université de Neuchâtel
Depuis quelques mois, le monde journalistico-médiatique découvre avec effroi l’emprise, construite progressivement, des Gafa sur la diffusion de l’information et sa monétisation. Victimes plus ou moins consentantes, parfois acteurs à part entière du système, les médias font dorénavant partie de cet écosystème piloté par les géants du numérique. Et sont soumis à des règles qui cadrent, influencent mais également contraignent leur activité. Après le constat et la prise de conscience, vient le temps de la recherche d’alternatives. L’idée n’est pas de faire du jour au lendemain sans les infomédiaires mais de desserrer l’emprise, de retrouver des marges de manœuvre, et d’inventer des modèles techniques propres.
Parmi les pistes évoquées, celle de l’Open source avec des outils spécifiquement pensés pour les rédactions, développés en leur sein ou à travers des collaborations (inter-médias, avec des start up voire la recherche académique). Cette piste prometteuse nécessite toutefois un préalable : accepter de saisir à bras le corps la question technique, et surtout questionner la dépendance dont font preuve nombre de médias à son égard. Cela ne va pas de soi : davantage présenté comme une activité intellectuelle, le métier de journaliste est peu pensé dans sa matérialité technique, réduite dans l’imaginaire collectif à un calepin et un stylo. Souvent mise à distance, la technique est donc peu valorisée voire mésestimée à l’image des journalistes web qui, malgré (ou à cause de) leurs agilités numériques, sont souvent considérés comme les parents pauvres du journalisme.
Pourtant, interroger le rapport à la technique, sa place et ses effets ne signifie pas tomber dans une fascination ou un déterminisme honnis tant des journalistes que des académiques. Il s’agit plutôt de considérer la technique comme une construction sociale, intrinsèquement liée aux dimensions politiques, économiques et éthiques qui façonnent également la pratique journalistique.
Penser (la dépendance à) la technique
La question de l’indépendance est souvent avancée comme un enjeu central du journalisme : indépendance vis-à-vis des actionnaires, des sources, des communicants, etc. Plus rarement pose-t-on la question de l’indépendance technique. Cela devient pourtant une problématique cruciale dans une société et une profession immergées dans le numérique, où les technologies, omniprésentes, investissent la production, la diffusion et l’usage de l’information.
Les Gafa n’y sont pas étrangers, loin de là. Drainant l’essentiel de l’audience des sites d’information, ils sont une pièce centrale de l’équation numérique. Selon Parse.ly, Facebook et Google représentent à eux deux près de 80% du trafic externe des sites d’information ; sans compter la part grandissante d’AppleNews dans les audiences mobiles.
Cette dépendance trouve ses origines dans une soumission à des exigences d’ordre technique, qui se muent insidieusement en préconisations éditoriales voire marketing. Guillaume Sire a bien montré comment Google a progressivement façonné un type de titraille sur les sites d’information, conduisant à une standardisation extrême de l’écriture. Cette codification, dictée par les logiques de SEO, s’est rapidement accompagnée de choix éditoriaux (nombreux sont les sites qui ont fait évoluer leur offre numérique en visant prioritairement un « bon » référencement chez Google) et des organisations spécifiques au sein des rédactions (comme le recrutement de spécialistes en référencement). La même partie se joue quelques années plus tard avec Facebook. Pour obtenir les faveurs de l’algorithme, il faut se soumettre à ses exigences techniques : adopter certains formats (si possible natifs de Facebook comme le live, la vidéo ou les instant articles), ce qui transforme progressivement l’offre éditoriale pour la faire coller à ces « recommandations ».
Pour certains médias qui ont fait le choix radical d’une existence exclusivement réduite à ces plateformes, l’enjeu est encore plus grand. Chez Brut, MinuteBuzz ou Kapaw, pas de site web. Ces pure players ont abandonné toute velléité de présence en propre sur le net et ne vivent qu’à travers les différentes plateformes pour lesquelles ils produisent à chaque fois des contenus sur mesure.
Ajoutons au tableau que la plupart de ces plateformes et les algorithmes qui les régissent sont des systèmes propriétaires et verrouillés sur eux-mêmes (plus encore dans leurs versions mobiles), mettant à mal tous les idéaux qui ont contribués à la naissance d’Internet puis du web.
Crédit : Catherine Créhange, Un dessin par jour
Quand l’Open source rencontre le journalisme
Dans ce contexte d’emprise grandissante des Gafa sur l’écosystème informationnel, les regards se tournent vers l’Open source comme possible contre-modèle.
Il faut dire que les valeurs portées par le mouvement du libre depuis les années 70 (et dévoyées par les ambitions économiques des Gafa) peuvent, à bien des égards, être rapprochées de l’idéal journalistique : le service de l’intérêt général, la participation au dynamisme démocratique, une visée sociétale. La nécessité d’une collaboration entre les sciences informatiques et le journalisme s’inscrit, elle, dans la figure du journaliste hacker née aux USA dans les années 1980 ou plus anciennement encore dans la tradition du « computer-assisted reporting » (apparue dans les années 1950 et souvent présentée comme prémisse du datajournalisme).
L’Open source fait donc sens mais le chemin est encore long. Au quotidien, nombre de journalistes utilisent (parfois sans le savoir) des solutions ou logiciels libres. De WordPress à Timeline JS en passant par des logiciels de cartes et de visualisation de données, le net regorge d’outils qui connaissent du succès auprès des journalistes. Certaines technologies sont même développées en libre par les Gafa, comme l’AMP de Google ou le système d’exploitation Android.
Plus rares sont les rédactions qui développent un projet structuré autour du libre. Le mouvement s’amorce toutefois en s’appuyant sur quelques cas qui font figure d’exemples. Ils peuvent être classés en trois catégories :
- Des médias développent en interne des outils Open source puis les laissent à disposition de la communauté via des plateformes comme Github. En Suisse, c’est le cas du Temps qui a mis en place depuis quelques années une « toolbox » constituée d’outils et de canevas éditoriaux créés sur mesure pour les formats numériques les plus utilisés (long form, timeline, diaporama, etc.). Une méthode qui permet de s’affranchir des contraintes et ressources techniques liées à la création systématique de nouveaux formats. Même logique pour la NZZ, toujours en Suisse mais côté alémanique, qui développe une boite à outils de storytelling.
- Dans une perspective plus intégrée, certains médias tendent à implémenter de manière systématique des outils Open source, au niveau même de leur workflow et de la gestion de leurs contenus. L’un des principaux acteurs de ce type de solution est SourceFabric, dont les outils sont expérimentés au Zeit Online mais aussi au sein de l’Australian Associated Press (notamment Superdesk, une « salle de rédactionvirtuelle »). La particularité est que ces outils ont été pensés pour des rédactions, à partir d’une identification des usages et des attentes des journalistes (et non des services informatiques ou des gestionnaires).
- A un niveau encore plus macro, d’ambitieux projets voient le jour sur la base de coopérations entre différents acteurs, parfois à un niveau international, sorte de pendant technique aux investigations à grande échelle comme les Panama ou Paradise Papers. De telles synergies visent à réfléchir collectivement sur des problématiques contemporaines du journalisme (les fake news, le lien avec le public, etc.) et d’essayer d’y apporter des réponses à travers des outils libres. Citons par exemple le Coral Project qui regroupe différents médias (dont le Washington Post et le New York Times), des universités et la fondation Mozilla. L’ambition est de mener une réflexion et d’apporter des réponses concrètes à la crise de confiance envers les journalistes et de favoriser échange et participation avec les lecteurs. Une interface de commentaires entièrement personnalisable (baptisée « Ask ») est ainsi en cours de test sur le site du Washington Post.
L’outil au service de l’éditorial
Au-delà des visées politiques et éthiques portées par le logiciel libre, son intégration par les médias a d’autres vertus :
– Il conduit souvent, par sa plasticité et sa nature évolutive, à renverser la perspective qui l’associe aux usages. L’outil est pensé au service de l’éditorial et de la pratique journalistique. Il devient un facilitateur voire une source d’enrichissement et non une contrainte comme c’est encore trop souvent le cas ;
– L’Open source offre également une réponse à un enjeu central de l’ère numérique : la pérennité des contenus. Combien de journalistes ont vu leurs productions disparaître du jour au lendemain parce que l’outil utilisé (souvent en ligne et doublé d’un service d’hébergement) a disparu, est devenu payant, etc. Sans compter les problèmes que posent ce type de solution externalisée pour la comptabilisation de l’audience ou même la comptabilité technique avec le CMS utilisé par le média ;
L’Open source peut donc être envisagé comme un contre-modèle voire un acte de résistance à l’encontre des tout-puissants Gafa. Gageons qu’ils soient également un catalyseur d’innovations en poussant les médias à s’interroger sur la technique, à se saisir pleinement de son potentiel et à le faire en intégrant dans la réflexion les premiers acteurs concernés, les journalistes.
Crédit Image Une : Patrick Tomasso, Unsplash
Médias : 10 stratégies pour résister aux GAFA
Par Barbara Chazelle, France Télévisions, Prospective et MediaLab
Tous les GAFA développent aujourd’hui des stratégies pour profiter des quelques 200 milliards de dollars que pèse le marché TV au niveau mondial.
Comme le rappelait Guillaume Posch (co-directeur général de RTL Group) qui intervenait au colloque NPA/Le Figaro cette semaine à Paris, la télévision linéaire présente encore quelques intérêts pour un groupe média : les contenus gratuits génèrent une forte adhésion de l’audience (« nothing beat free »), les programmes sportifs et les directs évènementiels fédèrent toujours ainsi que la dimension nationale voire régionale de certains programmes.
Mais cela sera bien insuffisant pour résister aux voraces géants. Aux Etats-Unis (qui ont toujours 3 à 5 ans d’avance sur les marchés européens), la durée d’écoute média progresse sur tous les supports, sauf sur le poste de télévision non connecté.
« Nos concurrents sont globaux, qu’ils proposent une offre linéaire ou non linéaire » a déclaré Guillaume Posch. Mieux vaut ne pas essayer de se rassurer avec les seules audiences Médiamétrie mais s’attaquer aux multiples fronts de l’accélération numérique.
1EXPERIMENTER DE NOUVEAUX FORMATS
Aujourd’hui, les contenus ne se cantonnent plus aux traditionnels longs formats de 30 ou 60 minutes. Le numérique permet une plus grande souplesse et la créativité explose dans les « short forms ».
RTL Group qui se revendique leader mondial en agrégation de chaînes YouTube, estime à 42.000 le nombre de créateurs de contenus au sein de son MCN, dont certains influenceurs font exploser les compteurs de vues comme Zoella , Fernanfloo ou El Rubius (respectivement 12, 24 et 26 millions d’abonnés)
L’innovation technologique est évidemment essentielle. Mais toujours au service des contenus, qui restent le cœur de métier des médias.
Concernant les contenus d’informations, le PDG de l’AFP, Emmanuel Hoog tire la sonnette d’alarme. Les rédactions ont été paupérisées : les journalistes ont été reportés sur le live mais les titres d’analyse diminuent dans le monde. Le paysage de la production d’information est « émietté et boursouflé » :
» Il y a de plus en plus de producteurs et de moins en moins de cartes de presse, de plus en plus de contenus mais d’une extrême redondance. A l’échelle mondiale, sur une journée, seule 40% de l’offre est originale. »
2ETRE « SOCIAL »
La présence sur les réseaux sociaux rajeunit l’audience des médias traditionnels mais aussi offres de multiples contacts quotidiens. Les médias doivent s’adapter à ce nouveau mode de consommation en « snacking », par petites doses mais tout au long de la journée. Cela permet de tisser une relation plus intime avec ses publics, voire chaque utilisateur pour qui sait exploiter ses données.
Selon Patrick Walker (Directeur des partenariats médias EMEA chez Facebook), la vidéo représentera 75% du trafic de Facebook dans 5 ans. Mais que toucheront les éditeurs ? Difficile à dire… Seuls ceux qui auront atteint une masse et un reach suffisants pourront monétiser convenablement leur offre. Certains s’impatientent déjà…
3INVESTIR DANS LA CREATION ORIGINALE, SURTOUT DANS LES SERIES
« Le problème quand on est une chaîne linéaire comme Canal, c’est qu’il faut investir dans le cinéma et le sport. Il leur faudrait quasiment doubler l’investissement pour ajouter une offre de séries en OTT. » a déclaré Hervé Payan (CEO, HBO Europe).
Or aujourd’hui, l’attractivité des offres premium se mesure au volume de séries.
En Scandinavie, où 7 à 8 millions de foyers (sur 11 millions) ont souscrit à une offre SVOD, Netflix et HBO proposent à eux deux près de 100 nouvelles saisons chaque année. Soit 2 nouvelles séries par semaine ! « En France, il n’y a pas d’offre ! » a conclu Hervé Payan.
4… ET PROPOSER DES OFFRES PREMIUM OTT
Internet a fait exploser les frontières de l’audiovisuel et aujourd’hui tout le monde peut mettre un contenu en ligne… et toucher des revenus en contournant les intermédiaires traditionnels.
Selon Valéry Gerfaud, (Directeur des innovations technologiques numériques, M6), l’OTT présente deux enjeux majeurs :
- L’amélioration de l’expérience utilisateur, pas assez fluide sur les box opérateurs et lente à faire évoluer.
- L’accès aux données utilisateurs, jalousement gardés par les FAI
« On développera moins d’offres OTT si on peut accéder aux données opérateurs de consommation TV. (…) Le sujet de la data remet du piment dans les discussions éditeurs-opérateurs ! » a-t-il déclaré.
5INVENTER DES MODELES HYBRIDES
D’un point de vue business, l’ouverture du marché n’a pas que des mauvais côtés. Les producteurs ont accès à de nouveaux acheteurs. RTL Group s’est ainsi félicité d’avoir pu vendre sa série produite par FremantleMedia « American Gods », à la chaîne américaine Starz et à Amazon Prime Video.
Selon Guillaume Posch, « il faut davantage de modèles hybrides » et l’offre 6Play mélangera bientôt gratuit et payant.
De même pour la production, il est urgent de se tourner vers des modèles de financements alternatifs. A l’heure des plateformes mondiales, la coproduction internationale est une option sérieuse à considérer.
6NE PAS METTRE SES ŒUFS DANS LE MEME PANIER
Pour survivre, une stratégie de diversification est essentielle.
« Un modèle économique unique n’est pas suffisant » pour RTL Group qui souhaite aller vers le « Total Video » en multipliant les joint-ventures, les achats d’actifs, les achats organiques (comme Golden Moustach) et les achats d’outils publicitaires.
La billetterie d’évènements, le développement solutions marketing innovantes et natives (sans implication des équipes éditoriales) ou encore l’offre formation (MOOC) sont autant de pistes à explorer.
7DEVELOPPER LE PROGRAMMATIQUE
« Le futur de la TV sera en partie en vente directe » selon Guillaume Fosch qui conseille aux médias d’être plus « Mad Men » dans leur relation aux annonceurs et plus « Math Men » dans l’exploitation des données. Pour cela, RTL Group a acquis il y a quelques mois 100% du capital de la plateforme de vidéo programmatique SpotX et détient également Smartclip depuis 2016.
L’utilisation de la donnée doit néanmoins être réfléchie. Bernard Marchant (Administrateur délégué du groupe Rossel) préconise à l’industrie médias de « travailler sur un modèle de contextualisation de la pub plutôt que sur le retargeting » appliquée par les GAFA qui est très désagréable pour nos lecteurs.
8ADOPTER LA GLOCAL ATTITUDE
L’offre de chaînes a explosé en 15 ans, avec des concurrents non plus nationaux mais globaux.
Néanmoins, une « stratégie 100% internationale de contenus serait une fausse bonne idée » selon Arnaud Métral (Managing Director, Webedia). Les éditeurs doivent s’adapter aux sensibilités locales avec une approche technologique commune aux différents marchés. « Il est possible de réaliser des économie d’échelle sur la plateforme de distribution » a-t-il précisé.
Même constat dans l’industrie musicale ou celle du jeu vidéo, représenté lors du colloque par Stéphane Roussel (COO Vivendi / CEO Gameloft) :
« Le global est une évidence mais le local persiste. Le mode de distribution n’est pas si global que ça, cela concerne uniquement dans les pays matures. »
Pour la musique « 60% des produits consommés sont locaux dans le monde. Selon les cultures et les pays, cela peut être plus important encore, comme en France ou au Japon. » Quant aux jeux, l’offre est certes mondiale mais les deals sont locaux, passés avec les telcos nationaux et certaines fonctionnalités sont adaptées pour mieux coller à la culture des utilisateurs selon les pays.
« Il est très important d’avoir des centres de production dans différents pays, pas uniquement où l’on a des avantages fiscaux. » a-t-il insisté.
« Pour être mondial, il ne faut pas faire un produit aseptisé mais assumer ses bases, sa différence » a assuré Gérald-Brice Viret (EVP Canal+) pour qui la French touch est un réel argument de vente à l’international.
Quant à la monétisation, chaque marché développe sa stratégie. « Il commence à y avoir des demandes pour des campagnes de publicité mondiales mais très peu encore car la stratégie des annonceurs reste locale » selon Arnaud Métral.
9MODERNISER LES INDICATEURS
Pour avancer dans la bonne direction, l’industrie audiovisuelle particulièrement doit pouvoir y voir clair. Or les indicateurs fournis par Médiamétrie sont désormais insuffisants pour appréhender les évolutions du marché de la vidéo. Sans parler des usages des 10-13 ans, quasiment intraçables.
Selon Julien Rosanvallon (Médiamétrie), la mesure d’audience TV 4 écran évolue régulièrement pour intégrer de nouvelles plateformes OTT (Molotov en septembre dernier, MyCanal prochainement).
Pour la SVOD, Médiamétrie espère proposer un outil d’ici la fin d’année, à l’instar de Nielsen aux Etats-Unis depuis octobre.
9′ … ET LA REGULATION
Quant à la régulation, les médias attendent que la puissance étatique se réveille.
« L’Etat n’aurait bientôt plus d’argent à nous donner. On attend de l’Etat d’être un régulateur, notamment en termes de politique fiscale, et non des aides directes, ce qui est sain pour notre activité de médias d’information. Au nord de l’Europe, l’Etat ne donne pas d’aide mais il est le premier annonceur, ce qui est un partenariat beaucoup plus dynamique » selon Bernard Marchant.
Eric Peters (Conseiller à la Commission Européenne) estime que l’Europe peut jouer un rôle important si elle est unie autour de valeurs communes, notamment sur la création des standards en matière de protection de la vie personnelle ou encore de neutralité du net. L’Europe doit :
- réussir son passage à la 5G (il manque encore 150 milliards d’euros !) pour pouvoir construire et proposer des produits numériques à forte valeur ajoutée
- assurer que les règles et les contraintes soient les mêmes pour tous les acteurs
- se préparer aux échanges de données et à leurs utilisation
« Il n’y a aucune raison qu’il n’y aiten que deux blocs, les Gafas américains d’un côté et les chinois de l’autre. Mais en France, il y a un impensé total sur un « soft power » à la française » qui ne doit d’ailleurs pas venir uniquement des pouvoirs publics, a déployé Emmanuel Hoog.
10VALORISER LES TALENTS
Dernière stratégie qui est loin d’être anecdotique, celle de la valorisation des talents. Une véritable guerre sévit : il est de plus en plus difficile d’attirer ou de garder les jeunes talentueux maîtrisant les nouvelles technologies dans l’industrie des médias. Il est important de leur offrir de la mobilité en interne, au niveau national et international et de savoir les écouter et leur confier des responsabilités. A bon entendeur…
Crédit Une : Photo by Shirly Niv Marton on Unsplash
