Les éditeurs affinent les stratégies éditoriales de leurs… newsletters
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
Des années que l’on prédit la mort de l’email. Et des années qu’il résiste, encore et toujours, au point de faire figure aujourd’hui de vétéran dans un univers numérique habitué à voir les innovations fleurir… et faner tout aussi rapidement.
Loin de décliner, l’email se porte en fait plutôt très bien. Une santé au beau fixe qui n’a pas échappé aux médias, prompts à investir tous les canaux disponibles pour atteindre leur public. C’est ainsi que la newsletter, format historique du web s’il en est, affiche aujourd’hui une forme insolente qui fait le pied de nez aux « vidéos à la Brut » qui ont affolé le petit monde des médias… pour devenir, en moins de deux ans, déjà ultra-galvaudées. Quel est donc le secret de la longévité de la bonne vieille « lettre d’information » ?
La stratégie de la boîte aux lettres
Tous ceux qui l’ont testée semblent d’accord : pour être efficace, la newsletter ne doit pas avoir pour seule vocation de ramener de l’audience vers les sites web. De plus en plus considérée comme un format à part entière, elle ne se contente plus de relayer des contenus, mais leur apporte une valeur ajoutée, un supplément d’âme.
On est loin d’une simple course au clic : la newsletter n’a rien à voir avec le prospectus publicitaire du supermarché du coin qui traîne dans vos boîtes aux lettres. Non, il s’agit avant tout de maintenir un contact avec les lecteurs, comme l’explique le quotidien suisse Le Temps, et surtout d’aller le chercher là où il est : dans sa boîte mail. Un lieu isolé, plus intime, loin du bruit permanent des réseaux sociaux et du flux incessant de contenus qui y sont déversés chaque jour. Et donc un lien privilégié qui repose sur un véritable contrat de lecture entre lecteur et média :
Pour Le Temps, « la newsletter est un outil à double tranchant. En échange de cette ‘intimité’ consentie par le lecteur, elle nécessite d’être pensée comme non intrusive et utile, sous peine de finir en spam. »
Rien à voir donc avec une stratégie de conversion agressive qui chercherait à driver du trafic vers le site pour recruter de nouveaux abonnés. La stratégie de la boîte aux lettres est plus subtile : la newsletter doit être un moyen de donner une nouvelle voix à un média, de créer une relation de proximité, de s’ancrer dans les habitudes du public. Plus qu’un simple canal de diffusion des contenus, elle est devenue un format à part entière, avec son propre ton et sa propre ligne éditoriale.
Et c’est une stratégie de long terme selon Dan Silver, responsable des contenus numérique du Telegraph britannique – qui vient de lancer pas moins de 6 newsletters en 6 semaines : pour séduire et fidéliser l’audience, « il faut être patient : cela prend du temps de bâtir une communauté. »
Une nouvelle forme de storytelling
Et pour bâtir des communautés, la newsletter se doit de proposer un vrai contenu éditorialisé, avec un angle, du caractère, un ton, une identité graphique. « Nous avons souhaité penser chacune de nos newsletters comme un petit média, avec sa propre ligne éditoriale et sa propre stratégie », explique Le Temps, qui a choisi de segmenter son offre éditoriale en une dizaine de newsletters thématiques pour toucher des communautés d’intérêt.
Même démarche chez Axios, Quartz ouThe Telegraph, qui a lui développé une offre centrée autour de verticales thématiques aussi variées que la politique, le rugby ou encore le Brexit. Des newsletters portées par des plumes reconnues de la rédaction, avec un ton conversationnel et informel mais qui conserve l’autorité et la crédibilité des grands noms du quotidien.
Mettre en perspective les contenus, créer du liant entre eux pour s’éloigner de la simple collection de liens et proposer une newsletter qui ait du sens, mais aussi adopter un ton intimiste qui maîtrise les codes du web (gifs, hashtags, memes) : autant d’artefacts qui permettent aux newsletters de proposer une nouvelle forme de mise en scène des contenus pour réengager leur public.
La curation contre la surabondance
La newsletter, c’est aussi la réponse parfaite, pour les médias, au problème de la découvrabilité. Non seulement elle s’adresse à une audience captive et engagée, mais surtout elle permet d’instaurer une relation désintermédiée avec elle, sans le filtre des algorithmes qui ont habituellement droit de vie ou de mort sur les contenus. Débarrassée de ces « gatekeepers », la newsletter permet de mettre en avant et de faire découvrir des contenus plus pointus à un public qu’elle sait d’avance intéressé par ses sujets.
Une curation qui peut être thématique, mais qui peut aussi reposer sur l’incarnation par une personnalité reconnue (la newsletter Slate x Titiou, qui mêle billet d’humeur et revue de presse tout à fait subjective de la journaliste et blogueuse Titiou Lecoq, en est un bon exemple).
La curation peut aussi être participative, comme c’est le cas pour la newsletter Rugby Reader du Telegraph, qui propose aux fans du ballon ovale de participer à la sélection de liens envoyés chaque semaine (la moitié des contenus est issue de suggestions des lecteurs, selon Dan Silver), ou encore le Brexit Bulletin, qui s’enrichit régulièrement de sondages pour faire participer ses lecteurs.
Un format agile
Un CMS, un outil de diffusion, du contenu à proposer : c’est à peu près tout ce dont vous aurez besoin pour lancer une newsletter. Un format agile, rapide à produire, qui permet aux médias d’expérimenter et d’itérer plus facilement que sur d’autres canaux plus complexes (une nouvelle rubrique sur un site, une série de vidéos…).
Résultat, certains médias lancent des newsletters périodiques, reliées à un événement et limitées dans le temps, comme le New York Times dont l’offre pléthorique (plus de 50 newsletters !) comprend notamment une verticale dédiée aux résultats d’élections ou encore une, plus insolite, dédiée aux résumés des épisodes de Game of Thrones. Et ça marche : en seulement quelques semaines (la newsletter n’ayant été envoyée que pendant la période de diffusion de la série), ce sont 80.000 lecteurs qui s’y sont abonnés, avec un taux d’ouverture record de 60%.
Un contenu éditorialisé, un ton conversationnel, un format qui crée un lien intime et qui fidélise le lecteur : non seulement l’email n’est pas mort, mais il a encore de beaux jours devant lui avec la newsletter.
Mais le contenu ne fera pas tout : pour convaincre, la newsletter se doit d’être responsive (d’autant plus qu’elle est majoritairement lue sur mobile), ergonomique et esthétique. Car comme toujours avec les formats numériques, l’expérience utilisateur est centrale !
2018, la (déjà) longue année de Mark Zuckerberg
Par Jérôme Derozard, consultant et entrepreneur. Billet invité
« Cette année me paraît déjà longue » a admis Mark Zuckerberg lors de la keynote d’ouverture de la conférence F8 cette semaine. Et c’est vrai que l’année 2018 a déjà été très riche pour The Social Network et ses partenaires réunis à San José cette semaine, entre changements multiples de l’algorithme du fil d’actualité, révélations sur l’accès « illicite » aux données personnelles de millions d’utilisateurs ou sur les campagnes de fake news orchestrées par de faux comptes russes. Dernier épisode en date, le départ du fondateur de WhatsApp à la suite de divergences stratégiques quelques heures avant le début de la conférence.
Des utilisateurs à rassurer
Le PDG de Facebook a donc dû consacrer une grande partie de son intervention à rappeler les mesures prises depuis plusieurs années pour sécuriser « sa » plateforme, multipliant dates et chiffres, slides de consultant à l’appui.
Comme l’année dernière il a tenté de faire preuve d’humour face à l’adversité ; cela l’a d’ailleurs desservi lors de l’annonce du nouveau service de rencontre « Facebook Dating », une partie de la salle ayant initialement cru à une blague… L’avenir de ce service est d’ailleurs loin d’être assuré tant la méfiance des utilisateurs envers la plateforme est grande.
Pour tenter de rassurer les utilisateurs Mark Zuckerberg a annoncé une nouvelle option permettant d’effacer facilement l’historique de navigation sur les sites et applications tierces conservé par Facebook ; on aurait aimé que la plateforme propose également d’honorer l’option « ne pas tracer » présente dans les navigateurs. Le réseau social continue aussi à privilégier les « groupes » pour rapprocher ses utilisateurs, avec un onglet dédié dans l’application mobile et de nouvelles fonctions comme « Watch Party » pour regarder une vidéo en simultané avec d’autres membres d’un groupe.
Plateformes : des annonces plutôt pauvres pour éviter de mettre de l’huile sur le feu ?
Cela fait d’ailleurs plusieurs mois que Facebook pousse les éditeurs à créer des groupes pour organiser leur communauté, et compenser la perte de visibilité de leurs publications au gré des changements du fil d’actualité. Jusqu’au prochain changement d’algorithme…
De leur côté, les développeurs pourtant audience principale de la conférence, ont dû se contenter de quelques annonces mineures comme un kit de développement dédié aux solutions B2B. Mais ils vont surtout devoir se conformer aux nouvelles contraintes imposées par Facebook pour continuer à avoir accès aux données des utilisateurs, avec à la clé pour eux de nouvelles contraintes ergonomiques et techniques.
Les autres applications du groupe semblent pour l’instant moins exposées aux polémiques que Facebook. Instagram va bénéficier d’un nouveau design pour l’onglet « Explorer » axé sur les centres d’intérêt de l’utilisateur, va proposer les effets de réalité augmentée de la plateforme AR Caméra et supporter les appels vidéo de groupe. Les développeurs peuvent publier directement des « stories » sur le réseau social depuis leur application, par exemple pour partager la chanson actuellement écoutée par l’utilisateur.
Malgré le départ de son cofondateur WhatsApp poursuit sa croissance effrénée. L’application traite chaque jour plus de 65 milliards de messages et 2 milliards de minutes de communication vocale ou vidéo tandis que près de 450 millions d’utilisateurs mettent à jour leur « statut ». L’application va elle aussi proposer des appels vidéo de groupe et de nouveaux outils pour permettre aux grandes entreprises de communiquer avec leurs clients.
Enfin les 200.000 développeurs de la plateforme Messenger vont pouvoir intégrer des fonctions de réalité augmentée aux près de 300.000 bots disponibles, tandis que les utilisateurs vont bénéficier de fonctions de traduction automatiques et les éditeurs de page d’un assistant de création de bots.

Au final la relative pauvreté des annonces laisse à penser que certaines nouveautés ont été repoussées ou annulée suite aux récentes polémiques. Des rumeurs faisaient ainsi état du lancement possible d’un produit concurrent aux Amazon Echo et autre Google Home, un lancement sans doute peu adapté au contexte actuel autour de Facebook.
Une poursuite des investissements dans la VR et l’IA
Une large part de la conférence a été consacrée à deux sujets chers à Mark Zuckerberg : la réalité virtuelle et l’intelligence artificielle. Dans le domaine de la VR l’Oculus Go a été lancé dans plusieurs pays dont la France au prix de 219€ à 269€. A la différence des autres produits du groupe, l’Oculus Go ne nécessite ni ordinateur ni smartphone pour fonctionner ; il intègre aussi un contrôleur qui lui confère 3 degrés de liberté (3DoF). Produit par le fabricant chinois Xiaomi il devrait permettre à la société d’étendre sa base installée au-delà des « gamers » ou des possesseurs de smartphone Samsung.
En plus du casque, Facebook a annoncé plusieurs applications mêlant social et réalité virtuelle, dont Oculus TV qui permet de regarder des contenus audiovisuels sur un téléviseur virtuel en VR, avec comme premiers partenaires Netflix, ESPN ou encore Hulu ; l’application permettra prochainement d’inviter des amis à rejoindre la séance virtuelle pour regarder un programme en même temps. Dans la même veine, Oculus Venues permet de regarder des événements tels que des matchs de la NBA ou des concerts en VR avec d’autres spectateurs, connus ou inconnus. Ou l’application Oculus Rooms qui va permettre d’organiser des parties de Monopoly en réalité virtuelle grâce à un partenariat avec Hasbro. Facebook Spaces, application destinée aux casques haut de gamme comme l’Oculus Rift, évolue également avec des avatars plus réalistes et la possibilité de visiter l’espace virtuel d’un ami en son absence.
D’autres casques VR sont en préparation chez Oculus ; le prototype « Santa Cruz », premier casque autonome haut de gamme offrant 6 degrés de liberté est en cours de test chez plusieurs partenaires. Un autre prototype nommé « Half-Moon » intègre pour sa part un écran qui se rapproche ou s’éloigne des yeux en fonction de la distance entre l’utilisateur et un objet virtuel. Facebook semble ainsi disposé à continuer ses investissements dans les technologies de réalité virtuelle malgré des retombées commerciales encore assez faibles.
Autre secteur où Facebook poursuit ses investissements : l’Intelligence Artificielle. A l’occasion de F8 Facebook a présenté Facebook.ai, son nouveau portail rassemblant tous les outils open-source produits par ses équipes dans le domaine de l’IA. A la différence d’Amazon, Google ou Microsoft, Facebook ne propose de services IA hébergés comme des services de reconnaissance de langage naturel ou d’analyse d’images dans le cloud. La société propose à l’inverse aux développeurs d’adapter et héberger les mêmes outils qu’elle utilise en interne. Facebook utilise ces outils IA à grande échelle par exemple pour détecter les publications qui cherchent à stimuler le « click-bait » dans le fil d’actualité, censurer les contenus terroristes, modérer les commentaires sur Instagram ou générer automatiquement les sous-titres des vidéos.
Cette édition 2018 de la conférence F8 aura été donc beaucoup moins flamboyante que les éditions précédentes : pas de nouvelle plateforme comme les bots Messenger (2016) ou AR Caméra (2017) ; pas de projets « moonshots » comme les implants neuronaux (2017). Peut être que la société organisera une deuxième conférence de lancement dans quelques mois pour annoncer les projets non annoncés, lorsque les polémiques actuelles se seront tassées ?
Journalisme : comment créer des GIFs pour illustrer vos articles
Par Kevin Beaty, journaliste visuel et designer chez Denverite
Voici un tutoriel qui vous permettra de réaliser des boucles GIFs fluides, aussi appelées cinémagraphes. Il s’agit d’une méthode en deux temps qui mobilise deux savoirs-faire distincts : la réalisation de la boucle et sa transformation en GIF.
Il est important de garder cela à l’esprit tout au long du processus. Ces deux étapes sont ici accomplies à l’aide de logiciels appartenant à la suite Adobe Creative, mais n’importe quel logiciel de montage pour utilisateur averti devrait faire l’affaire pour réaliser une boucle avec cette méthode. J’utilise Photoshop pour faire le GIF car c’est l’outil le plus simple que je connaisse. Les autres logiciels d’édition de GIFs n’offrent pas autant d’options paramétrables, mais même si vous ne disposez pas de ce logiciel vous apprendrez des choses en consultant cette partie du tuto.
Avant toute chose, quelques éléments de contexte. L’idée derrière l’utilisation de boucles vidéos est de capter l’attention du visiteur, avec un peu de magie, en lui présentant une action dont la répétition est infinie. J’ai pu constater que ce medium se prête particulièrement bien au traitement de certains sujets.

Il y a certaines choses à savoir avant de se lancer. Les GIFs ne constituent pas le format le plus « propre » pour afficher des vidéos en boucle sur le web. Pour être chargée à une vitesse acceptable par les navigateurs, la boucle doit faire moins d’un mégaoctet, ce qui signifie que l’animation est en général limitée à une vingtaine d’images, et que ces images ne doivent pas faire plus de 600 pixels au risque d’être compressées.
Mais alors pourquoi s’intéresser à ce format ? C’est avant tout une question d’accessibilité. Le GIF bénéficie d’un autoplay à travers la totalité des navigateurs web. Les vidéos HTML5 permettent de réaliser des boucles plus longues et de meilleure qualité, mais ne sont pas toujours lancées automatiquement. Cela signifie que certains de vos lecteurs risquent de manquer cet ajout subtil qui offrait du mouvement à votre récit.
Cependant, n’oubliez pas que le GIF ne représente que la moitié du travail – il s’agit uniquement de la méthode d’export de la boucle.
Faire une boucle fluide
1. Tout part de l’appareil
Le plus important, c’est la brièveté et la stabilité. Quand vous sortez filmer, essayez de repérer des mouvements récurrents. Il peut s’agir du vent qui fait bouger les arbres, d’une fumée qui s’échappe de quelque part, de quelqu’un qui cligne des yeux ou de voitures qui passent par là. Ne bougez pas. Le mieux reste d’utiliser un tripod, mais le plus souvent une tenue en main assurée, couplée à un stabilisateur d’image fait l’affaire. Souvent, on peut obtenir des boucles décentes de façon naturelle alors que l’on tourne en continu, au cours d’une interview par exemple, pendant un temps mort, entre deux questions.

2. Importez vos vidéos dans un logiciel de montage non-linéaire (Premiere, Photoshop…)
3. Visionnez-les à la recherche de la boucle la plus intéressante
Cela dépend du sujet. Quoi qu’il en soit vous devez traquer deux types de mouvement:
- les mouvements cycliques : essayez de repérer des actions qui se répètent de sorte que le début et la fin de l’action se ressemblent.
- les mouvements oscillatoires : cherchez des actions dont le mouvement pourrait permettre de masquer une inversion soudaine du sens de l’action. Les portraits peuvent souvent être réalisés avec cette méthode.
Les mouvements oscillatoires sont aussi connus sous le nom de « boomerang » ; la plupart du temps, ils ne sont pas des plus efficaces pour réaliser des boucles subtiles et ils rallongent la durée de votre vidéo ce qui affecte la taille du GIF final. Les cycliques sont bien plus propices à la création de boucles efficaces.

4. Construire une boucle
Cyclique
- Faites un copier-coller du clip vidéo pour pouvoir le superposer à lui-même
- Ajoutez un effet de transition. « Dissolves » fait le plus souvent l’affaire.
- Coupez la fin du clip qui est au premier plan, puis retirez la même longueur au clip en arrière-plan. Cela permet de faire en sorte que la fin de la boucle corresponde avec le début.
- Retravaillez le tout. Si vous constatez un à-coup, essayez de modifier votre choix de timing jusqu’à obtenir suffisamment de fluidité.
https://www.youtube.com/watch?v=B4qZ_Xwy3zs
Oscillatoire
- Faites un copier-coller du clip vidéo en les faisant se suivre.
- Inversez le second clip
Retirez une image de la fin de chaque clip de sorte que le début et la fin de chaque clip correspondent à une seule et même image. Cette image sera lue deux fois d’affilée et introduira une pause dans l’animation.

5. Tester
Dès lors, vous devriez être en mesure de copier-coller votre séquence pour créer votre boucle. Si cela fonctionne, le mouvement se répète sans aucune interruption. Il peut arriver que vous vous retrouviez avec des mouvements qui gâchent l’effet, il vous faudra alors figer ces mouvements par la suite.
6. Exporter
Je préfère toujours exporter en full HD, même si, par la suite, le format GIF va dégrader la qualité de la vidéo. Avantage, vous pourrez utiliser votre boucle hors ligne en attendant que l’autoplay soit la norme.
Exporter en tant que GIF
J’utilise Photoshop CC 2016, mais n’importe quelle version fera l’affaire.
1. Fichier > Importation > Images vidéo dans des calques
2. Sélectionnez votre fichier vidéo. Retenez bien sa durée.
3. Sélectionnez la séquence
Personnellement je choisis l’option « Limiter à toutes les (x) images » avec un nombre d’images dérivé de la durée du clip. La plupart du temps, j’ajoute 1 à la durée du clip, à moins que celui-ci ne soit vraiment court. Dans le cas présent, une seconde, c’est suffisamment court pour l’importer du début à la fin. N’oubliez pas que cette étape a pour but de limiter la taille de notre fichier. La durée du clip est le facteur qui a le plus d’impact sur le poids de notre fichier, c’est la raison pour laquelle nous devons limiter le nombre d’images qu’il comporte.
4. Modifier le clip pour diminuer la taille du fichier
À ce stade, il nous reste quelques options pour diminuer la taille de notre fichier de manière préventive (qui, pour rappel, doit être inférieur à 1Mo)
- Figer le mouvement : sélectionnez les parties fixes de l’image pour en faire un masque qui laissera uniquement apparaître les zones en mouvement. Il suffit de copier-coller ces zones fixes par-dessus les autres calques. Assurez-vous d’avoir bien positionné les calques collés au-dessus des autres.
- Réduire le nombre d’images en supprimant certaines d’entre-elles. Enlever quinze images reste raisonnable. Je ne suis jamais allé au-dessus de 20 sans faire face à de vrais problèmes de compression par la suite.
5. Déterminer le timing
Le timing de votre GIF peut s’avérer compliqué à déterminer car les différents navigateurs vont le lire à des vitesses différentes. Cela dit, il faut globalement vous attendre à ce qu’ils le lisent un poil plus rapidement que ce que vous pouvez voir dans Photoshop. Le ralentir légèrement ne fera donc pas de mal.
https://www.youtube.com/watch?v=yy9giClSTN4
6. Calque > Nouveau calque de réglage
Je vous conseille de consolider les noirs et les blancs de votre boucle avec un calque « niveaux », car la compression qui vient par la suite limite le champ des couleurs.
7. Fichier > Exportation > Enregistrer pour le web
Il s’agit de la dernière étape, et sans doute de la plus compliquée. Ces options qui apparaissent dans une fenêtre menaçante contrôlent différentes caractéristiques de votre nouveau GIF :
Le bon calcul est approximativement celui-ci :
Taille du fichier = durée de la boucle x taille de l’image x couleurs x tramage x perte
La première étape sera de modifier la taille de l’image. Pour ma part, j’opte pour une taille de 600px.
Pour les trois valeurs suivantes, voici des exemples de GIFs exportés avec chaque option au plus bas pour que vous puissiez voir ce que ça rend.
La perte : il s’agit surtout de la compression. Zéro (0) signifie qu’il n’y a aucune compression et chaque augmentation de cette valeur produira une image plus floue, plus confuse. Pour ce qui est de la taille du fichier, passer de 0 à 5 peut changer la donne sans pour autant compromettre votre image. Voici un exemple de « perte » fixée à 60 juste pour vous montrer à quel point cela peut-être flou.

Le tramage détermine la fidélité des couleurs. 100 % équivaut à une précision maximale. En dessous, vous verrez apparaître une rustine de couleur là où devrait normalement se trouver un dégradé.

Les couleurs : vous serez surpris de voir que vous n’avez pas besoin de tant de couleurs que ça. L’exemple ci-dessous correspond à 100% en tramage, 0 en perte et de 40 couleurs.

Étant donné que j’ai choisi un clip très court, ce GIF pourrait être exporté sans faire de tels compromis. En voici une version avec une perte à 0, et 100% de tramage en 256 couleur. Il pèse 882 ko.

Cliquez sur « Enregistrer » et ça y est, c’est prêt !
Si vous voulez voir plus de GIFs, cliquez ici.
L’ensemble des cinemagraphes présent sur cette page ont était produit pour Denverite.com.
Cet article a été originellement publié sur IJNet en anglais il vous est présenté dans le cadre d’un partenariat éditorial entre IJNet et Méta-Media. © [2018] Tous droits réservés.
Liens vagabonds : entre censure et media-bashing, le journalisme plus fragile que jamais
A RETENIR CETTE SEMAINE
Reporters sans frontières publie son rapport annuel et le constat est sans appel : la liberté de la presse est plus en fragile que jamais. La censure et la haine des médias ne s’arrête plus aux frontières des régimes autoritaires, et nombreux sont les chefs d’Etat démocratiquement élus qui affichent ouvertement leur mépris pour les journalistes. Les menaces et violences physiques à leur encontre s’intensifient. Un phénomène plus qu’inquiétant alors que le monde a plus que jamais besoin des journalistes.
Les nouvelles sont meilleures pour les plateformes : malgré les scandales, Facebook a gagné près de 12 milliards $ au 1er trimestre, soit 50% de plus en un an ! Du côté de Snap, tout va bien aussi avec l’annonce de nouveaux services en réalité augmentée, et de pubs non skippables de 6 secondes.
En Europe, on note le lancement d’Ellis (European Lab for Learning & Intelligent Systems) pour offrir des conditions favorables aux chercheurs en IA et éviter l’hémorragie de talents en direction de la Silicon Valley… alors que de l’autre côté de l’Atlantique, les ingénieurs quittent les Etats-Unis pour le Canada.
3 CHIFFRES
8,3 millions vidéos abusives ont été supprimées par YouTube au dernier trimestre 2017
4,1 milliards, c’est le nombre d’internautes dans le monde en avril 2018 d’après le dernier rapport Hootsuite et We Are Social
100 millions de personnes ont eu l’accès à Internet grâce à Facebook
FAKE NEWS / POST TRUTH
- Trump : la presse américaine est en train de perdre
- Facebook rend publiques ses guidelines de modération
- Le casse-tête de la législation contre les fake news
“MUST READ”
- Mondes virtuels
- Le futur que nous voulions, notre ami l’assistant IA
- « Veuillez accepter nos conditions » : la fabrique du consentement chez Facebook
- Les neurosciences vont-elles faire de l’homme une machine ?
- Pourquoi je ne quitte pas (encore) Facebook
- « Le Web a développé des résistances antibiotiques à la démocratie »
A VOIR
- Museum of Websites : les évolutions graphiques des principaux sites internet
- Oubliez le fond vert, la réalité mixte débarque au cinéma
SURVEILLANCE / CONFIANCE / WINNER TAKES ALL
- Une entreprise accusée d’avoir laissé fuiter les données de 48 millions d’internautes
- Google utilise bien plus de données personnelles que Facebook. Pourquoi personne ne s’en soucie
DATA
DISRUPTION, REVOLUTION, DISLOCATION
- Le secteur de la musique a retrouvé ses niveaux d’avant Internet grâce au streaming. Mais ce sont les studios qui en profitent, pas les artistes
- Réanimer L’Express et Libé, mission impossible ?
- Comment Facebook a transformé l’amitié en donnée mesurable
NOUVEAUX USAGES ET COMPORTEMENTS
- Les chaînes TV pour enfants en chute libre aux US
- Emergence des “MilleXZials” : n’attendez pas qu’en vieillissant les jeunes consomment les médias comme leurs parents. C’est l’inverse qui se passe.
- Ces vendeurs qui utilisent Facebook pour inonder Amazon de faux avis
5G
ADDICTION
360° / REALITE VIRTUELLE / REALITE AUGMENTEE
- Apple travaille à un casque VR/AR pour 2020
- Netflix sort une série avec de la réalité augmentée
- Des dessins et de la réalité augmentée pour lutter contre le harcèlement à l’école
- La RA à l’assaut des musées
- Snappables : les jeux en AR de Snpachat :
BOTS, INTELLIGENCE ARTIFICIELLE, AUTOMATISATION, BIG DATA, MACHINE LEARNING
- Nous sommes bien plus influencés par l’IA que nous le pensons
- Une société lance une base de données pour entraîner les IA à la cybersécurité
- Et si nous acceptions le robot en nous ?
- Des experts se mobilisent contre la création d’une personnalité juridique pour les robots
RÉSEAUX SOCIAUX, PLATEFORMES
- Portrait sans concession de la responsable des news de Facebook ; on y lit aussi que Facebook veut faire de l’info dans Watch avec un budget de 90M $
- Facebook veut créer une application de messagerie destinée aux lycéens
- De Brut à BFM, la chute de l’engagement Facebook n’épargne aucun média
- La Commission européenne attaque les GAFA sur tous les fronts
- Comment les réseaux sociaux accentuent l’enfermement dans ses idées
- Comment Facebook vous contraint à accepter ses nouvelles conditions d’utilisations
- Surprise ! Twitter vous enferme dans des bulles d’opinions politiques
NOUVEAUTES
NETFLIX
AMAZON
INNOVATION / START-UP
- Pour attirer les millennials, ces start-up d’e-RH misent sur l’humour
- Première licorne des néobanques en Europe, Revolut lève 250 millions de dollars
STORYTELLING
- Pourquoi Netflix et Amazon testent les formats courts
- Le big data c’est pour les machines : comment utiliser la small data pour écrire des histoires impactantes
- La communication à l’ère du « voice first »
PUB
JOURNALISME 2.0
- Presse papier et numérique, guerre fratricide ou coexistence pacifique ?
- 11 projets de datajournalisme inspirants
- Aperçu du prochain Data Journalism Handbook
- Des applications de bien-être, mais pour les news : le Neva Labs développe une nouvelle expérience de lecture de l’info
- Qui est qui dans l’info locale : guide dans le combat pour le journalisme local
- MAD, le média 100% social sous LSD du Figaro
OUTILS
Retrouvez la sélection des outils Méta-Media sur jTools
ES avec l’équipe Méta-Media
Presse papier et numérique, guerre fratricide ou coexistence pacifique ?
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
Sale temps pour la presse papier : déjà abattus par l’érosion de leur lectorat et l’inéluctable déclin de leurs recettes publicitaires, les éditeurs subissent aujourd’hui le naufrage de Presstalis, le principal distributeur de journaux du pays, qui diffuse 75% des titres de presse. Un nouveau choc à encaisser pour ce marché qui souffre depuis de longues années déjà de la concurrence féroce du numérique.
Alors le print a-t-il fait son temps ? Rien n’est moins sûr selon Eric Fottorino : invité par la Fondation Jean Jaurès, l’ancien directeur du groupe Le Monde et cofondateur de l’hebdomadaire Le 1 a tenu un discours réaliste, mais pas fataliste sur l’avenir de la presse papier.
Lorsqu’il a dirigé Le Monde, Eric Fottorino a dû prendre une décision difficile mais nécessaire : rapprocher les équipes du papier et du numérique, alors installées d’un bout à l’autre de la capitale, dans les 13è et 19è arrondissements parisiens.
“Ils ne se connaissaient pas et ne voulaient pas se connaître. Ceux du numérique considéraient que ceux du papier étaient de vieux dinosaures qui allaient disparaître avec l’étincelle d’internet, et ceux du papier considéraient que les jeunes du numérique avaient sûrement les doigts carrés à force de taper sur leur clavier. C’étaient deux cultures, et je peux vous dire que quand je les ai faits rentrer physiquement dans les locaux du Monde, ça a été comme le Congrès de Vienne : il fallait tous les jours renégocier des passages, des espaces, c’était compliqué.”
Jusqu’au jour où, à 11 heures et demie du matin, un journaliste revient à la rédaction avec un scoop sur Lance Armstrong. Les rotatives tournent déjà pour imprimer le journal du soir. Plutôt que de les arrêter pour réimprimer l’édition du jour, Eric Fottorino prend une décision inédite : publier la nouvelle en 1500 signes sur le site web du quotidien. Le soir-même, le 20 heures de David Pujadas ouvre avec cette information, non pas en citant “lemonde.fr”, mais bien “Le Monde”. Une leçon de journalisme pour Eric Fottorino qui confie avoir compris ce jour-là que les versions papier et web de son quotidien n’étaient pas des soeurs ennemies, mais bien deux facettes d’un seul et même titre.
Déclin du papier : la faute au web… mais pas que !
Des médias en ligne qui cannibalisent les revenus des journaux papier, des kiosquiers qui meurent à petit feu, écrasés par l’hégémonie des grandes plateformes du web, des industriels qui rachètent la presse française à coups de milliards, et qui n’investissent que sur le numérique : autant de clichés éculés, mais réalistes, qu’Eric Fottorino reprend et nuance pour expliquer la situation d’un secteur aujourd’hui à bout de souffle.
Retraçant l’histoire de la presse, Eric Fottorino date le début du déclin du papier à l’éclatement de la “bulle numérique” (sic) il y a vingt ans : jusqu’alors, les journaux s’étaient bâtis sur le modèle de La Presse d’Emile Girardin de 1836, premier journal à avoir introduit de la réclame pour financer sa fabrication et faire baisser son prix de vente. On disait alors qu’un journal se vendait deux fois : une fois aux annonceurs, et une fois aux lecteurs.
Un modèle qui a fonctionné pendant plus d’un siècle avant de s’essouffler, d’abord dans les années 1970 avec les deux chocs pétroliers et la baisse de la consommation, qui n’a pas épargné la presse française, puis avec l’explosion du numérique, qui a atomisé les coûts d’impression et de distribution des journaux et a consacré le début de l’ère de la gratuité.
Echange contenus contre référencement : le pacte faustien des éditeurs
L’émergence de la presse gratuite dans les années 2000 a profondément transformé la valeur de l’objet journal selon Eric Fottorino : abandonné sur les sièges du métro, souvent piétiné au bout de quelques minutes, le journal gratuit a entériné l’idée que l’information n’avait pas de valeur. Une idée qui s’est largement propagée avec l’avènement du numérique et de la culture du tout gratuit :
“On a vu s’introduire cette idée un peu perverse de la gratuité. On a vu les éditeurs de presse signer un pacte faustien avec les grands moteurs de recherche, qui était de dire : ‘vous allez nous donner vos contenus, et non pas les vendre, et en contrepartie nous les référencerons sur nos pages.’ On vend un peu son âme en offrant ses contenus.”

Un nouveau paradigme qui a profondément fragilisé le modèle traditionnel des médias : avec des lecteurs de moins en moins enclins à payer pour s’informer, une part croissante des recettes publicitaires captée par les géants du web et des ventes papier en chute libre, la presse française s’est retrouvée sous-capitalisée et à bout de souffle, contrainte de se tourner vers de nouveaux mécènes pour se financer :
“On est parfois un peu manichéen en disant ‘les milliardaires ont tout raflé’, mais il faut bien dire aussi que beaucoup de journaux se sont tournés vers ces gens pour continuer à exister !”.
Une presse papier ringardisée par les écrans, un secteur atomisé par les plateformes numériques, de nouvelles règles du jeu dictées par des milliardaires devenus patrons de presse : le portrait dressé par Eric Fottorino est peu reluisant. Mais pas question pour lui de signer l’arrêt de mort du print : il reste encore de la place pour le bon vieux papier… à condition qu’il parvienne à se réinventer.
Réinventer des objets de presse, la planche de salut du print
Le premier problème des éditeurs de presse selon Eric Fottorino, c’est qu’ils se sont perdus en route : soucieux de changer de cap et de moderniser leurs formats pour reconquérir les lecteurs, ils ont adopté sans discernement les codes du numérique, au point parfois d’en perdre leur identité :
“On a vu fleurir tout un tas de nouvelles formules dans la presse pour attraper le chaland. C’était frappant de constater à quel point les maquettes finissaient par ressembler à des écrans d’ordinateur.”
Pas la bonne stratégie pour Eric Fottorino qui juge que chacun doit rester sur ce qu’il sait faire de mieux : le numérique sait mieux que le papier comment aller chercher le lecteur sur des papiers courts, “prêts à être digérés”. La presse papier, elle, “doit être bien écrite, prendre son temps, bien choisir ses sujets.” Approfondissement des sujets, angles inédits, format éditoriaux innovants : c’est en misant sur sa différence que le print trouvera sa planche de salut, plutôt qu’en proposant de pâles copies des formats web.

Une posture d’autant plus essentielle à l’heure de la guerre de l’attention : “L’information, c’est du temps. Quand vous ne payez rien, vous payez avec votre temps. Et c’est une matière première en stock limité, que l’on dépense sans espoir de retour.” Trop de contenus disponibles et pas assez de temps pour les consommer : c’est le grand drame des médias de notre époque. Sauf qu’ils ont pris le problème à l’envers, selon Eric Fottorino : pour faire face à la concurrence croissante du numérique, beaucoup de titres de presse ont rogné sur la qualité (articles plus courts, moins nuancés, plus simples) pour miser sur l’efficacité (le but : ne pas ennuyer le lecteur). Une stratégie qui a eu le l’effet inverse de celui escompté : une dilution de leur identité de marque et une érosion de leur lectorat.
L’enjeu pour la presse papier aujourd’hui, c’est donc bien de réaffirmer sa spécificité, de réinventer des objets de presse plutôt que des journaux. Dans cette bataille, le contenant est aussi important que le contenu : “Le 1 et America [nouveau titre semestriel cofondé par E. Fottorino, ndlr] sont deux journaux que les gens collectionnent. Pour moi, c’est important d’introduire une part de durable dans ce règne de l’éphémère.”
Côté contenu, il s’agit de proposer des formats innovants, qui ne pourront pas être concurrencés par les écrans. En témoigne l’exemple du 1, qui propose un format ludique d’une page à déplier pour explorer un sujet unique sous tous les angles. Une approche qui a surpris lors de son lancement il y a quatre ans, mais qui convainc les lecteurs, même des moins de 25 ans qui ne lisent aucune autre publication papier.
Savoir faire des choix
Pour se différencier de l’offre pléthorique du web, la presse papier va aussi devoir apprendre à faire des choix, à traiter moins de sujets mais de façon plus qualitative. Une leçon qu’Eric Fottorino a apprise à la tête du Monde, il y a quelques années :
“Lorsque j’étais directeur du Monde, je demandais tous les mois à mes équipes commerciales pourquoi les gens se désabonnaient. La raison principale, c’était l’effet de pile : le journal s’empilait sur la table de la salle à manger et les lecteurs abonnés disaient ‘j’attends le week-end’, puis ‘j’attends les vacances’, puis tout ça partait à la poubelle.
J’avais une conviction, et Le 1 en est la traduction : si vous ne faites pas un journal que vous pouvez lire du début à la fin, à un moment donné vous allez perdre vos lecteurs. Ce n’était pas vrai avant, parce qu’il n’y avait pas toutes ces sollicitations. Maintenant le défi de l’attention est tellement immense, que le seul quotidien qui pourrait voir le jour aujourd’hui et qui marcherait, de mon point de vue, s’appellerait Recto-Verso. Ce serait Le Monde de 1944 de Beuve-Méry, quand il y avait des pénuries de papier : une feuille, recto-verso, avec une histoire par jour.”
Là où la presse numérique évolue dans une économie de la demande (on tape des requêtes, puis on consomme des contenus y répondent), la presse papier doit donc se repositionner dans une économie de l’offre : ne pas chercher à être exhaustive, mais faire des choix éditoriaux engagés. Nous surprendre, et réintroduire de la sérendipité dans nos lectures, car en ouvrant un journal on ne connaît que sa une.
Réaffirmer la valeur de l’information… et son prix
On l’aura compris : la bataille du print est loin d’être perdue pour Eric Fottorino, convaincu que des formats innovants et des choix éditoriaux originaux pourront sauver la presse papier. Mais pas de romantisme aveugle pour autant : l’homme est conscient que les postures de principe ne seront pas suffisantes, et que l’argent reste le nerf de la guerre.
A l’ère du tout gratuit, il juge d’ailleurs urgent de réaffirmer le prix de l’information. Et de citer l’exemple de Mediapart :
“Bien sûr, c’est une réussite, avec plus de 100 000 abonnés, mais il y a beaucoup d’abonnés à 1€ par mois ! Un abonné à 1€, c’est bien pour le faire rentrer, mais il faut pouvoir le transformer en un abonné à 9€. Est-ce qu’à un moment donné la vérité du prix de l’information va resurgir, ou est-ce qu’on va continuer à laminer cette idée que l’information ne vaut pas grand-chose ?”
La réponse, pour lui, passera par une réorientation radicale des aides publiques à la presse :
“Je pense qu’il est malsain que les aides de l’Etat, qui sont très importantes, soient aussi mal réparties : ce sont des cacahuètes pour M. Bolloré et M. Arnault, et pourtant ce sont eux qui touchent les centaines de millions qui sont distribués chaque année.”
Ces aides devraient donc être redistribuées dans deux directions : à l’Education nationale d’abord, pour mieux former les enseignants à l’éducation aux médias et à l’information et ainsi leur permettre d’apprendre au mieux à leurs élèves à s’informer de manière éclairée. Dans l’accompagnement des médias ensuite, mais pas n’importe lesquels : ceux qui défendent une promesse éditoriale de lutte contre la désinformation, d’enquête et de décryptage, et qui devraient pouvoir bénéficier de prêts à taux zéro. Une idée qu’Eric Fottorino justifie en citant un ancien patron du New York Times : “On ne paiera plus pour une information, mais on paiera toujours pour une explication.”
Après l’ère « information contre communication », on est entré dans l’ère « information contre désinformation », estime @ericfotto chez @j_jaures pic.twitter.com/9pqnuTDAOT
— François Bourboulon (@fbourboulon) 25 avril 2018
Bientôt plus de morts que de vivants sur Facebook : l’avenir des données post-mortem en question
Par Elise Koutnouyan, Social Media Club. Billet invité
Chaque minute, trois personnes inscrites sur Facebook meurent dans le monde. À ce rythme, le réseau social aux 2 milliards d’utilisateurs comptera bientôt plus de membres morts que vivants. En filigrane, ce constat dévoile des nouvelles problématiques complexes : que deviennent nos données post-mortem ? Qui doit les administrer et comment anticiper la gestion de ce pan numérique de notre vie (et notre mort) ? Le “deuil numérique” dans ses implications sociétales, légales et économiques est un terrain d’études qui commence à peine à être défriché.
Pour en discuter, le Social Media Club a invité Lucien Castex (Université Sorbonne Nouvelle, ANR ENEID), Olivier Desbiey (CNIL), Fanny Georges (Université Sorbonne Nouvelle, ANR ENEID), Morgan Jerabek (Neuron Partners) et Frédéric Simode (Grantwill). Cette session de la commission CNRS était animée par Claire Wehrung et Paul Roy (Social Media Club).
Avec le Web est né le concept d’identité numérique. Si, à l’époque de Web 1.0, les internautes devaient créer leur site internet ou leur page personnelle pour exister en ligne, l’arrivée des réseaux sociaux ces dix dernières années a fait profondément évoluer la notion de profil numérique.
« Le Web 2.0 a introduit une standardisation et une valorisation implicite des informations qui caractérisent l’usager », analyse Fanny Georges (Université Sorbonne-Nouvelle) qui distingue identité agissante (la reformulation par le système informatique des informations relatives aux usagers) et identité calculée (la valorisation de certaines informations par l’usager, en mentant sur son âge sur Facebook par exemple).
À ces deux facettes de l’identité en ligne s’ajoutent les données collectées par les systèmes informatiques à l’insu de l’utilisateur, comme sa géolocalisation. L’ensemble de ces informations, produites intentionnellement ou non, compose l’identité numérique de l’utilisateur. Dès lors, s’intéresser à l’identité numérique post-mortem consiste à s’interroger sur « le devenir des données de l’utilisateur lorsqu’il n’est plus », définit Fanny Georges : c’est l’objet du programme Eternités numériques (ENEID) financé pendant 4 ans par l’Agence Nationale de la Recherche.
Les données qui parlent à la place du défunt
Fanny Georges constate que ces informations revêtent une charge émotionnelle importante après le décès de l’utilisateur : « il y a un investissement symbolique très fort de ces données qui parlent à la place du défunt. »
Suite au décès, les proches ont tendance à prendre en charge ces espaces d’expression numérique : un quart des profils Facebook de défunts est animé par un membre de leur famille, voire plusieurs, ce qui peut devenir source de conflits. Depuis 2016, le réseau social offre deux possibilités en cas de décès : supprimer le compte ou le transformer en page « hommage ». Seuls 3% des cas sont concernés par cette dernière option, souvent jugée trop lourde à gérer au moment du décès.
Selon le règlement de Facebook, il est interdit de modifier ou publier sur le profil d’un défunt. L’enquête ENEID a pourtant montré qu’un quart des pages Facebook est modifié après la mort des usagers par des proches qui utilisent leurs identifiants du défunt et publient ainsi par exemple l’annonce de leurs funérailles. Un phénomène parfois difficile à gérer pour ceux qui apprennent le décès par… le défunt lui-même sur son profil Facebook.
Il n’est pas rare que les proches continuent par la suite à investir les profils notamment pour embellir l’image laissée sur Internet et in fine mettre en valeur la personne décédée. « Pour de jeunes personnes décédées, cela peut consister à découper des gestes obscènes sur des photos ou bien supprimer des posts contenant des mots vulgaires », détaille Fanny Georges. Plus largement, il n’est pas rare que des familles veuillent « protéger » l’image d’une personnalité publique défunte.
« On nous demande par exemple que les deux premières pages de résultats de Google soient nettoyées afin de ne faire ressortir que les éléments positifs de sa vie », explique Morgan Jerabek, fondateur du cabinet de conseil en stratégie numérique Neuron Partners. Le droit à l’oubli existe théoriquement pour protéger le référencement de ces informations personnelles, mais ne s’applique généralement pas aux personnalités publiques dont les données relèvent souvent du domaine des droits post-mortem.
Exemple de page hommage sur Facebook
Prévoir le devenir de ses données post-mortem
Actuellement, ce sont donc majoritairement les proches ou héritiers qui prennent en charge la gestion de l’identité numérique post-mortem. Mais les mentalités évoluent : « lors du projet ENEID, on a remarqué une volonté croissante des gens d’avoir la main sur le devenir post-mortem de leurs données », analyse Lucien Castex (Université Sorbonne-Nouvelle). Selon l’enquête statistique réalisée dans le cadre du programme, 10% des personnes interrogées souhaiteraient conserver tel quel leur propre profil après leur mort, 30% voudraient le supprimer complètement et 30% voudraient qu’il soit accessible uniquement aux proches.
Face à ce constat, des outils se mettent en place pour permettre aux utilisateurs de prévoir le devenir de leurs données post-mortem. « Pouvoir gérer tous les éléments de sa vie numérique depuis son clavier », tel est le credo de Frédéric Simode (Grantwill) dont la start-up propose un coffre-fort numérique où stocker ses données personnelles et administratives destinées à être transmises au moment de sa disparition.
Quant au cadre législatif, la situation évolue lentement. Ainsi, le RGDP (prévu en mai 2018) consacre le droit au déréférencement des données, le « droit à l’oubli ». Toutefois, comme le rappelle Olivier Desbiey, du Laboratoire d’Innovation Numérique de la CNIL, « tous les droits liés à l’individu s’éteignent le jour de son décès », et c’est le cas de ce nouveau règlement européen. Pour répondre à ce vide juridique, la loi pour une République numérique, votée en octobre 2016, a introduit le maintien provisoire de ces droits liés aux données personnelles en permettant aux personnes de donner des directives relatives à la conservation, à l’effacement et à la communication de leurs données après leur décès. Ces directives sont générales lorsqu’elles portent sur l’ensemble des données d’une personne et particulières lorsqu’elles concernent certains services spécifiques. La loi prévoit que de son vivant, les directives générales peuvent être confiées à un « tiers de confiance » certifié par la CNIL.
Et même en l’absence de « testament numérique », les héritiers peuvent exercer certains droits : le droit d’accès s’il est nécessaire pour le règlement de la succession du défunt et le droit d’opposition pour la clôture des comptes utilisateurs du défunt. Cependant, ces dispositions de la loi Lemaire sur le sort des données personnelles après la mort ne sont pas encore opérationnelles, faute de décret.
Plus largement, le monde législatif se fait l’écho des questionnements sur l’avenir des données post-mortem. Une tribune du Monde sur la patrimonialisation des données a récemment mis au jour de nouvelles problématiques : doit-on posséder ces données, et donc pouvoir les monétiser ? Doit-on harmoniser les régimes de succession entre biens matériels (comme le journal intime) et données numériques (qui peuvent s’entendre comme un journal intime dématérialisé) ?
« On est à la frontière entre le droit personnaliste et le droit patrimonial» Lucien Castex (Université Sorbonne-Nouvelle)
Entre illusion de vie éternelle et deuil impossible
Ces controverses législatives reflètent in fine la question prégnante qui entoure l’identité numérique post-mortem : doit-on protéger les droits et volontés du défunt ou ceux des proches ? La gestion de ces données apporte une nouvelle dimension au deuil et la présence de ces traces numériques peut adoucir ou au contraire exacerber la douleur de l’absence.
« Il est important de penser en termes de données personnelles : l’ordinateur du défunt peut devenir une relique, le centre de la mémoire du proche décédé », souligne Fanny Georges. Dans un article, Rue89 témoigne de la difficulté, pour certains, d’effacer le numéro de téléphone d’un mort : « plusieurs personnes m’ont exprimé leur douleur à supprimer les comptes, certains employaient cette même expression ‘tuer une seconde fois” leur proche: le profil Facebook devient métonymique de la vie du défunt », confirme Fanny Georges. Pour d’autres, surtout les jeunes usagers, le numérique donne l’illusion d’une vie éternelle.
Et si le profil numérique d’un mort permet de maintenir le souvenir, il peut en même temps prolonger le processus de deuil.

C’est un nouveau rapport à la mort qui s’amorce au regard du numérique. À tel point que la pop culture s’en est emparée : les séries Real Humans et Black Mirror (épisodes « Be Right Back », « San Junipero » et « USS Callister ») anticipent de nouvelles interactions entre morts et vivants via la mémoire numérique. Pour le meilleur ou pour le pire ? Sur Twitter, une micro-nouvelle dit : « Les tombes étaient maintenant pourvues d’un numéro que l’on pouvait joindre par sms. On tombait alors sur une intelligence artificielle qui simulait la personnalité des défunts. Le service était très populaire, jusqu’au jour où les tombes commencèrent à contacter les vivants. »
Emergence des “MilleXZials” : n’attendez pas qu’en vieillissant les jeunes consomment les médias comme leurs parents. C’est l’inverse qui se passe.
Par Barbara Chazelle, France Télévisions, Prospective et MediaLab
Streaming, vidéo mobile, binge-watching, intérêt pour les objets connectés… Les lignes entre les générations X (nés entre 1966 et 1982 / 35-51 ans), Y (ou Millenials, nés entre 1983 et 1996 / 21-34 ans) et Z (nés entre 1997 et 2003 / 14-20 ans) se floutent et les comportements convergent. Au point que Deloitte y voit l’émergence d’un nouveau groupe que le cabinet appelle « les MilleXZials » dans son édition 2018 du Digital Media Trends Survey.
Les MilleXZials sont de gros consommateurs de streaming
L’abonnement à un service de streaming devient la norme pour 70% des Z, 68% des millenials et 64% des X aux Etats-Unis en 2017 vs 55% pour l’ensemble des foyers. Un abonné à un service de SVOD souscrit en moyenne à 3 offres parmi les plus de 200 proposées aux Etats-Unis.
Les Américains regardent 38 heures de vidéos par semaine, dont 39% sont streamées. Chaque semaine, près de 70% de la génération Z et des millenials regardent des films en streaming contre 60% de la génération X. Pour les séries et programmes TV, les différences de comportement sont plus marquées : 69% des Z en regardent en streaming chaque semaine contre 66% pour les Y et 55% pour les X.
La pratique du binge-watching est partagée par les trois générations, à 91% pour les plus jeunes, 86% pour les Y et 80% pour les X. Les millenials et la Gen X regardent en moyenne 7 épisodes d’une série d’affilée, soit un épisode de plus que les moins de 20 ans.
Le câble est délaissé, le mobile plébiscité
Alors que la consommation en streaming augmente, les MilleXZials boudent la télévision, dont il faut rappeler que l’abonnement au câble est beaucoup plus cher aux Etats-Unis qu’en France : 70% des consommateurs américains estiment qu’ils n’en n’ont pas pour leur argent. Ainsi en 2017, moins de 60% des millenials et des X avaient souscrit à une offre du câble. 22% des millenials américains n’ont jamais souscrit à une offre TV.
La consommation sur mobile progresse, y compris celle de vidéos longues (films et séries). Le sondage met en évidence que les MilleXZials considèrent la data mobile comme un service à très haute valeur ajoutée.
« 50 [years old] is the new 20 » : les parents adoptent les codes des plus jeunes
La génération X adopte les comportements des générations les plus jeunes, et parfois même les surpasse. C’est le cas pour le jeu mobile par exemple : la génération X est celle qui consacre le plus de temps à cette activité sur son smartphone.
« Les millenials ont été la première génération à adopter le streaming et à regarder des vidéos sur leurs smartphones. Certains avaient espéré qu’en vieillissant les millenials s’installeraient et regarderaient la TV payante. Au lieu de cela, leurs parents, issus de la génération X, se comportent davantage comme des millenials, utilisant des services de streaming, regardant des séries, des films et du sport sur leurs smartphone et pratiquant le binge watching », a confirmé Jeff Loucks, Directeur Exécutif chez Deloitte.
Le big data c’est pour les machines : comment utiliser la small data pour écrire des histoires impactantes
Par Juan Pablo Marín Díaz, Data Scientist chez Datasketch
Le big data est à la mode dans tous les secteurs, et le journalisme ne fait pas exception. Les Panama Papers, et le prix Pulitzer que l’équipe derrière le projet a remporté, ont prouvé que la technologie, la collaboration et l’utilisation de données pouvaient permettre de créer des récits journalistiques impactants.
L’un des premiers défis à relever est celui de la démystification du big data. Il faut révéler ce qui se cache vraiment derrière ce mot lorsque l’on parle d’investiguer avec de la donnée.
Dans le cas des Panama Papers, le volume total de données ayant fuité représentait environ 2.6 téraoctets (soit 2 600 Go). Cependant, seuls 22 mégaoctets sont arrivés jusqu’à la base de donnée finale qui a été utilisée dans la plupart des publications. Pour mettre ces chiffres en perspective, imaginons qu’un mégaoctet corresponde à un centime d’euro ; un téraoctet serait alors l’équivalent de 10 000 euros. Dès lors, sur les 26 000 euros d’informations disponibles, seuls 22 centimes ont été utilisés dans la base de données. Cela signifie qu’une partie colossale de l’information n’a pas été utilisée.
Faire des révélations nécessite de croiser de multiples sources d’informations et de les réorganiser en sous-catégories pour élaborer une histoire. Dans n’importe quel récit qui repose sur de la donnée, chaque source pourrait déboucher sur une histoire unique. C’est la raison pour laquelle, bien que le journalisme puisse bénéficier d’outils d’analyse du big data, il reste difficile de se reposer sur de telles technologies pour soutenir l’évolution d’un data-journalisme éclairé.
L’avènement du « big small data »
Quelle taille fait le big data ? Cela dépend à qui l’on pose la question. Pour certains, la data est dite « big » dès qu’elle dépasse un téraoctet (l’équivalent de 2 millions de photos).
Juan Pablo Marín Díaz, auteur originel de ce billet, préfère utiliser une échelle plus pragmatique :
« Le big data, c’est tout ce qui ne rentre pas dans une feuille de tableur. »
Comme exprimé plus haut, même dans des affaires d’envergure comme les Panama Papers, la donnée finale qui est utilisée pour construire des récits est en réalité un ensemble de petits jeux de données. Car les humains ne peuvent digérer que des informations qui sont accessibles, triées et informatives : peu importe le volume de données que vous mobilisez pour votre article, vous finirez avec de multiples jeux de données de taille réduite.
Ne nous leurrons pas : le big data, c’est pour les machines. Plutôt que de nous concentrer sur ces jeux de données massifs, nous devons, en tant que journalistes, nous employer à maîtriser de petits jeux de données, c’est-à-dire quelques feuilles de calcul qui agrègent au maximum quelques milliers d’informations brutes. Cette école de pensée qui considère que le big data est l’affaire de machines alors que la small data, elle, concerne bien les humains a d’abord été initiée par Allen Bonde, directeur adjoint du marketing chez Repsly.
De nombreux journalistes manquent encore de moyens pour trouver et collecter facilement ces petits jeux de données, et de méthodes pour les explorer et les combiner afin de les mettre en récit.
Collecter de la small data
- data.world est une bonne adresse pour trouver des jeux de « small data ». Ils utilisent des technologies de web sémantique et leur communauté met des jeux de données à la disposition de tous dans différents formats accompagnés d’outils de visualisation pour les analyser.
- Le site Statista collecte des millions de statistiques à propos de différents projets, et est particulièrement utile pour visualiser des marchés ou des tendances business.

Par ailleurs, faire des recherches du côté de la donnée traitée et organisée par des citoyens est une manière innovante d’améliorer sa collecte de small data. Cette « small data citoyenne » est très puissante pour engager les lecteurs et trouver des sujets d’articles intéressants. Un nombre croissant de citoyens utilisent les réseaux sociaux pour publier des données factuelles sur différents sujets qui leur tiennent à cœur.
Distribución de la población condenada y privada de la libertad
según modalidad delictiva (2016) pic.twitter.com/ZdrlPTLY6x— Alejandro Peláez (@apelaez1) 18 mars 2017
Combiner des jeux de small data
- Concernant le croisement de small data, pour un article, la meilleure façon de procéder consiste à utiliser des outils de visualisation comme datawrapper ou flourish.
- Il existe aussi Figshare, un outil originellement conçu pour permettre aux scientifiques de partager de la donnée et des graphiques, et qui intègre désormais de nombreuses informations utiles à n’importe quel chercheur.
- Enfin, n’hésitez pas à explorer le portail de ressources pour le data-journalisme en Amérique Latine : Datasketch, qui aide les journalistes à tirer profit de la donnée en leur fournissant des outils simples pour améliorer leur storytelling.
Utiliser la small data pour créer des récits impactants
Maîtriser l’utilisation de la donnée peut ouvrir la porte à de nouvelles formes innovantes de journalisme qui offrent des résultats tangibles. L’année dernière, la collaboration de journalistes de Datasketch avec un utilisateur de Twitter qui avait collecté des informations sur les féminicides a par exemple débouché sur un rapport concernant les violences faites aux femmes en Colombie.
Ensemble, ils ont construit la base de données la plus exhaustive sur les féminicides en Colombie à partir de différentes sources comme le droit d’accès à l’information. Ils ont notamment utilisé la plateforme QueremosDatos, des jeux de données qu’ils ont eux-mêmes constitués et des enquêtes en ligne.

Le résultat a permis de réaliser le rapport final, qui rend accessible en ligne une trentaine de jeux de small data. Mais ce travail n’a pas seulement permis de raconter l’histoire de ces violences, il a aussi contribué à faire émerger des solutions. La donnée collectée a ainsi servi à interpeller le gouvernement colombien au travers d’installations physiques afin qu’il se saisisse de ce grave problème.
Cet article est tiré d’un billet originellement publié sur IJNet, il vous est présenté dans le cadre d’un partenariat éditorial entre IJNet et Méta-Media. © [2018] Tous droits réservés
Netflix veut développer des sujets locaux à audience mondiale
Par Leora Kornfeld, professeure auxiliaire à la Schulich School of Business de l’Université York à Toronto. Billet invité, présenté dans le cadre d’un partenariat éditorial entre le Fonds des Médias du Canada (FMC) et Méta-Media. © [2018] Tous droits réservés.
Quatre mois après l’annonce par Netflix de l’investissement de 500 millions de dollars canadiens dans des productions originales au Canada, celle qui est aujourd’hui l’ancienne vice-présidente au contenu de Netflix, Elizabeth Bradley, a expliqué aux producteurs comment procéder pour que leurs émissions soient diffusées sur la plateforme.
Cinq ans se sont écoulés depuis la commande de la première série originale de Netflix, House of Cards, dont les 26 épisodes avaient été financés à hauteur de 100 millions de dollars. La série a marqué un moment tournant en matière de programmation notamment avec l’importance accordée aux données pour orienter sa création et sa promotion.
Avant l’annonce de l’investissement de Netflix au Canada, un certain nombre de producteurs canadiens avaient déjà réussi à travailler en partenariat avec la plateforme. Certains de ces partenariats ont pris la forme de fenêtres additionnelles pour la présentation de contenu produit initialement pour le compte de diffuseurs, tandis que d’autres ont pris la forme de collaborations pour créer du contenu original.
À cette deuxième catégorie appartiennent Travelers, Frontier, Alias Grace et l’adaptation d’Anne of Green Gables (simplement Anne lorsque diffusée par CBC ou Anne with an E sur Netflix).
Que recherche Netflix?
Interrogée sur ce que recherche Netflix en matière de genres, Elizabeth Bradley a répondu : « Tout. »
Qu’il s’agisse de science-fiction, de suspense, de dramatique, de comédie ou encore d’une nouvelle version d’Anne of Green Gables, elle a affirmé que les principales questions que les scénaristes et les producteurs doivent se poser sont celles-ci : En quoi est-ce excitant? En quoi est-ce différent?
Bradley a fait valoir que, une fois que Netflix a confiance en la vision d’un producteur, les autres morceaux se mettent place.
« Les détails entourant la réalisation et la distribution ne sont pas essentiels à nos yeux (…) Nous pouvons nous occuper de la distribution et du réalisateur. Par contre, pour ce qui est de la scénarisation et de la narration, nous nous fions au producteur pour obtenir un résultat extraordinaire. »
Une histoire qui résonne partout sur la planète
Bradley a poursuivi en ces termes :
« Lorsque Moira [Walley-Beckett] et Miranda [de Pencier] m’ont présenté un scénario pour Anne (et il est important d’arriver à la table avec un scénario, a-t-elle fait valoir), elles avaient une interprétation lucide et fondée que nous savions résonnerait partout sur la planète. »
Lire la suite sur FMC Veille, où ce billet a été originellement publié.
Boosté à l’intelligence artificielle, le site d’infos Knowhere promet un journalisme impartial
Par Barbara Chazelle, France Télévisions, MediaLab et Prospective
Seuls 2% des Français souhaitent un journalisme affirmant un « choix partisan », affirmait le baromètre La Croix sur la confiance dans les médias en janvier 2018. Mais traiter un sujet de manière neutre et impartiale, est-ce possible ? C’est la promesse de Knowhere, un nouveau site d’infos américain qui mise sur l’intelligence artificielle pour enlever les biais humains.
Des articles « sans biais humains »
L’intelligence artificielle a déjà fait son apparition depuis quelques années dans un certain nombre de rédactions, y compris françaises, pour la rédaction automatique d’articles traitant de sujets spécifiques tels que des résultats sportifs, boursiers ou électoraux ainsi que la création de vidéos d’information.
Knowhere utilise l’intelligence artificielle un peu différemment. Elle sert tout d’abord à identifier les sujets les plus populaires du moment sur la toile. Une fois le thème sélectionné, l’IA va parcourir plus d’un millier de sources différentes et créer une base de données du sujet en question.
Les sources pré-selectionnées sont toutes des sites vérifiés. Néanmoins, elles ne sont pas priorisées de la même manière, selon un indice de confiance : l’IA accordera ainsi plus de poids à un article du New York Times qu’à celui d’Infowars. Pour éviter la propagation de fausses nouvelles, Knowhere a fait le choix de ne pas prendre en considération les déclarations faites sur les réseaux sociaux et l’IA ne choisit un sujet que si au moins cinq sources vérifiées ont déjà publié sur cette histoire.
Vient ensuite la phase de rédaction automatique de l’article « sans biais humains », qui se concentre sur les faits corroborés par plusieurs publications. Ce processus prend aujourd’hui entre une et quinze minutes. Deux éditeurs relisent ensuite le billet et en améliorent la grammaire (ce qui permet au passage à l’algorithme de progresser). La publication revient à Nathaniel Barling, cofondateur de la startup et éditeur en chef.
Faire sortir les lecteurs de leur chambre d’écho
L’IA va jusqu’à proposer trois perspectives – « gauche, droite, impartial » – pour les articles politiques et pour les sujets controversés, et un titre « positif, négatif ou impartial ». L’image de Une reflète parfois ces nuances.
Pour les articles qui n’ont qu’un seul traitement « impartial », on retrouve en bas de page les titres de publications concurrentes.
Si l’on n’est pas convaincu par l’IA, le site propose donc l’agrégation de titres de sources variées qui permet a minima de donner une compréhension plus éclairée des enjeux d’un sujet aux lecteurs. Et c’est bien toute la volonté de Knowhere : « Espérer réduire l’effet des chambres d’écho dans lesquelles les gens se sont enfermés eux-mêmes. »
Mais le souhaitons-nous vraiment ?