Liens vagabonds : IA et ROI – Le meilleur des mondes selon Google

A RETENIR CETTE SEMAINE

En attendant l’abonnement aux Instant Articles chez Facebook, Google s’intéresse aussi au modèle payant et annonce cette semaine la fin du “First Click Free” sur son moteur de recherche. Le géant cherche à apaiser les éditeurs et paierait les marques pour les inciter à adopter Stamp, son concurrent des stories. 

L’événement Google Pixel 2 était dominé par l’Intelligence Artificielle : les écouteurs Google traduisent 40 langues en temps réel, Google Assistant intègre une technologie qui peut imiter la voix humaine à (presque) 100% et DeepMind annonce la création d’un Comité d’Éthique autour de l’Intelligence Artificielle.

En France, le CNC crée un fonds de 2 millions € pour les Youtubeurs qui soutiendra une centaine de projets “de jeune création numérique” par an. Netflix augmente ses prix pour les nouveaux abonnés ; tandis que le Canada préfère un investissement direct dans la production locale à une “taxe Netflix”.

Après les Etats Unis, Twitter lance cette semaine sa première émission originale et les publicités « in-stream » au Royaume-Uni.

3 CHIFFRES 

3 Milliards – de comptes Yahoo ont été hackés en 2013 (c’est à dire tous)

3 Millions – c’est le nombre d’utilisateurs que Molotov atteindra bientôt

1 Million – de visiteurs par jour pour le JT de BuzzFeed


TOUTE L’ACTUALITE DE CETTE SEMAINE : 

FAKE NEWS / POST TRUTH

rupert-murdoch-is-the-medias-unlikely-hero-in-the-2-22687-1507147961-8_dblbig

“MUST READ”

A VOIR

1

NEUTRALITE DU NET

SURVEILLANCE / CONFIANCE / WINNER TAKES ALL

1-oHDPCT-NJGwG5RUQH_u2Rg

NOUVEAUX USAGES, COMPORTEMENTS

SPECIAL MILLENNIALS

sondage

DISRUPTION, REVOLUTION, DISLOCATION

alexa-1

MOBILITES / LIVE

360° / REALITE VIRTUELLE / REALITE AUGMENTEE

BOTS, INTELLIGENCE ARTIFICIELLE, AUTOMATISATION, BIG DATA, MACHINE LEARNING

RESEAUX SOCIAUX, PLATEFORMES

PUB

OUTILS  

swissarmy

Retrouvez la sélection des outils Méta-Media sur jTools

ES avec Kati Bremme et Barbara Chazelle

 

L’intelligence artificielle, un savoir-faire français ?

Par Barbara Chazelle, France Télévisions, MediaLab 

La France dispose d’un atout considérable dans la course à l’intelligence artificielle : ses mathématiciens et ses chercheurs en sciences cognitives, parmi les mieux éduqués au monde. Et lorsque l’on se rend à France is AI (cette semaine à Paris), une conférence d’experts de haut niveau en IA, machine leaning et autre deep leaning, cela prend tout son sens. 

IMG_1826

Interprétabilité et éducation : deux enjeux majeurs

Si comme moi, la résolution de votre dernière équation remonte à votre baccalauréat, il y a de quoi se décourager. N’arrivera-t-on jamais à percer les mystères de l’IA ? Je vous rassure, les chercheurs avouent eux aussi qu’il est souvent « difficile d’expliquer mathématiquement les mauvais comportements d’un modèle ». Et c’est bien l’un des enjeux majeurs du futur de l’IA : l’interprétabilité des choix que les algorithmes font et feront. Surtout si c’est un algorithme qui décide de vous accorder ou non un crédit, ou qu’il vous conseille de prendre tel ou tel médicament.

Comme l’explique Bernand Ourghanlian (Microsoft), « on doit trouver un équilibre entre la qualité du modèle mais aussi la capacité de l’expliquer. Si on est capable de faire les deux, grâce à l’informatique quantique, on change totalement la donne. »

Le pendant de cela, c’est la nécessaire formation de la société civile. L’école doit former aux sciences et au numérique.

« On doit apprendre aux enfants à parler la langue de l’intelligence artificielle » a déclaré Damien Gromier, président de France is AI, pour qui l’IA pourrait bien créer de nouvelles inégalités dans nos sociétés, entre ceux qui seront en mesure d’appréhender ces intelligences et les autres.

Atouts et défis de la France en matière d’Intelligence Artificielle

Interview de Damien Gromier, président de France is AI. 

Futur de l’IA : les domaines en développement, les limites à poser

… mais aussi la stratégie de Microsoft, qui voit plus loin déjà que l’IA !

L’IA chez Twitter, ca ressemble à quoi ?

Très concret, l’éclairage de Nicolas Koumchatzky (Cortex) sur l’intégration progressive de l’IA chez Twitter.

 

Pour illustrer le propos de Nicolas Koumchatzky, un cas de biais d’une IA

[Etude] Le data journalisme de plus en plus plébiscité par les rédactions

Par Lorraine Poupon, France Télévisions, MédiaLab

Le data est partout, dans toutes les bouches, vu tant comme une opportunité économique qu’une menace à la vie privée. Les citoyens exercent désormais leur droit d’accès aux GAFA  afin, supposément, d’en reprendre le contrôle. L’époque est à la demande de transparence et à l’open data. Mais ces données, même accessibles, ne sont pas toujours compréhensibles ! C’est le rôle du data journalisme dont le NewsLab de Google tente de clarifier les enjeux dans son étude.

La maîtrise du data comme enjeu

Beaucoup évoquent le Big Data sans avoir réellement conscience de la réalité que ce terme recouvre : quantité de données brutes aux formats variées, non structurées au point qu’elles sont inexploitables de manière automatisée. Elles représentent potentiellement une mine d’informations pour celui qui saura l’en extraire.

Leur origine est également à prendre en compte selon qu’il s’agit d’un acteur public ou d’une entreprise avec des intérêts privés à défendre. Au-delà de la rétention d’information, l’excès de données mises à disposition peut être une manière d’enfouir des révélations et de s’assurer qu’elles ne feront jamais surface.

C’est dans ce contexte que s’est développée, si ce n’est la profession, du moins la compétence de data journaliste. L’étude du Google Lab cherche donc à déterminer la place qu’elle prend dans les salles de rédaction et la valeur ajoutée que ces dernières lui attribuent.

Si les avis sur la question sont encore partagés, il y a consensus autour de l’idée que le data journalisme n’est pas un genre spécifique ou une sous-catégorie, tout au plus un outil au service des mêmes critères d’exigence.

Un outil à ne plus négliger

La pratique commence néanmoins à se banaliser puisque 42% des répondants font d’ores et déjà figurer des données régulièrement dans leur travail et 51% des rédactions interrogées emploient spécifiquement un data journaliste, prouvant ainsi qu’il s’agit bien d’une compétence spécifique qui réclame une formation particulière.

01

Au fur et à mesure des témoignages se profile même une typologie des trois façons dont les données sont utilisées

Ces pratiques s’affirment comme une manière de répondre de manière rationnelle à la montée des fake news et des affirmations infondées. Utilisées à bon escient, les données redonnent leur place aux faits plutôt qu’aux opinions ou aux croyances.

Concernant les sujets faisant appel au data, la politique arrive en tête : la donnée chiffrée prend tout son sens pour contredire ou tout simplement vérifier des déclarations chocs ou des propositions populaires.

02

Le data journalisme est donc un solide complément et un soutien au journalisme traditionnel. C’est même une exigence nouvelle : 83% des répondants voudraient ainsi voir leur rédaction y avoir plus recours. L’idée séduit, reste désormais à former !

[Lecture] Alibaba – L’incroyable histoire de Jack Ma, le milliardaire chinois

Par Lorraine Poupon, France Télévisions, MédiaLab

« Ces quinze dernières années, la Chine a changé grâce à nous. Nous espérons que dans les quinze années qui viennent, c’est le monde qui changera grâce à nous ». Cette volonté illustre le chemin parcouru ainsi que l’ambition démesurée de celui à qui est consacrée la biographie « L’incroyable histoire de Jack Ma » par Duncan Clark.

Alibaba ? Ce nom devrait vous dire quelque chose. Valorisation la plus importante de l’histoire à son entrée en bourse en 2014, elle finit son premier jour de cotation au-dessus de géants connus de tous comme Coca-Cola, Facebook ou Amazon. La plateforme assure la livraison des deux tiers de colis en Chine. Sa structure de distribution en traite 15 millions par jour. Son système de paiement Alipay permet 3 fois plus de transactions en volume que Paypal.

C’est aussi un empire. Un site de e-commerce pionnier. Une success story qui manquait à la nouvelle classe moyenne chinoise. Mais derrière les volumes presque inconcevables et les périphrases, c’est surtout le parcours loin d’être rectiligne de Jack Ma que l’auteur a voulu retracer.

Derrière l’empire, l’homme

Ce qui ressort de ce portrait, c’est sans aucun doute l’ambition, une volonté inébranlable en dépit des échecs mais aussi une certaine forme de folie qui lui vaudront (et justifieront !) le surnom de « Crazy Jack ».

Cela se traduit au sein de l’entreprise par son statut de véritable guru et de star dans son pays. L’auteur le connaît, a lui-même travaillé en tant que consultant pour Alibaba et lui prête de véritables talents oratoires. Certains passages du livre laissent d’ailleurs penser qu’il est lui aussi tombé sous leur charme.

Folie, vision, charisme. Voilà qui explique que malgré les deux échecs précédents Alibaba, il ait toujours été suivi et soutenu par un groupe de fidèles. Cela explique également sa volonté d’investir coûte que coûte dans Internet, l’innovation qui fut sa vraie révélation au point qu’il en a fait le pari à deux reprises trop tôt pour rencontrer le succès.

jack ma

Une histoire chinoise

Car l’histoire de Jack Ma et d’Alibaba, c’est aussi celle de la Chine contemporaine, une Chine qui sort progressivement du communisme pour se libéraliser, une Chine en retard par rapport aux Etats-Unis, le berceau du Web. Les débuts furent artisanaux car au développement du business s’ajoutait une tâche d’évangélisation des clients. Ceux à qui il essayait de vendre ses services ne connaissaient pas Internet ou ne possédaient pas d’ordinateur.

La Chine, Alibaba s’en fait également le porte-étendard. Taobao se veut, jusque dans son identité visuelle, résolument chinois. Les standards américains, bien plus épurés, ne s’y appliquent pas. Conçu pour dématérialiser les méandres du marché traditionnel chinois, il reste fidèle aux ambitions premières. Ce soft power se justifie aussi par une réalité politique. Pour une entreprise du Web, the Great Firewall of China peut être un véritable obstacle avec la censure des contenus, des délais de téléchargement rallongé ou le blocage du trafic. Il expliquera l’échec de l’implantation d’Ebay en Chine au moment où Alibaba remporte la bataille sur son concurrent. Le premier choisissait l’hébergement de ses serveurs aux Etats-Unis ; le second restait fidèle à l’empire du Milieu.

Mais si la preuve du succès d’une entreprise correspondait au moment où son fondateur s’en détourne ? Voici donc quelques temps que Jack prend position sur des sujets comme la santé publique ou le problème de la pollution en Chine. Le voilà philanthrope et environnementaliste. Il investit même dans les médias, comme d’autres l’ont fait avant lui : rachat d’un studio de cinéma, du YouTube chinois ou encore du premier quotidien anglophone de Hong-Kong.

L’objectif ? Les grands médias occidentaux dévalorisent la Chine avec leur description et à travers elle, Alibaba. Il est temps de changer cela en vue d’une expansion globale. Et si la boucle était bouclée ?

IBC : on n’attendra pas les JO 2020 pour voir de la 8K

Par Bernard Fontaine, France Télévisions, Direction de l’Innovation

Les lignes de la prochaine révolution, celle qui va bousculer l’industrie des médias comme a pu le faire le multi-écrans, sont désormais identifiées : Ultra HD, réalité virtuelle, services reposant sur l’analyse de data, intelligence artificielle, assistants personnels… Les fondations sont posées et beaucoup de ces technologies ont été présentées, à un stade plus ou moins avancé, lors de la 50ème édition de l’IBC qui a accueilli à Amsterdam des professionnels venus de toute l’Europe. On était loin des 30 exposants de 1967 à Londres où la télévision en couleur était à l’époque au centre des discussions !

Quelles sont les innovations qui vont secouer dans les 5 ans à venir notre industrie ?

Voici 5 tendances qui nous paraissent fondamentales :

La 4K se démocratise. La 8K est déjà bien présente

De la caméra aux infrastructures techniques de production en passant par les moyens de diffusion et de réception, tout était « 4K centric » HDR bien entendu. Les JO d’hiver de Corée dans quelques 140 jours n’y sont certainement pas pour rien !

Photo 2 - Photo 4K Projet Coree

Les caméras 4K se démocratisent : Panasonic, Sony et autre BlackMagic Design présentaient des nouveautés «low cost » autour de 2.000€. Matériels qui raviront autant les professionnels que les bloggeurs exigeants, surtout s’ils choisissent de les compléter par l’une des nombreuses micro régies TV très complètes interconnectables autant à Youtube qu’à Facebook, pour un budget entre 1.000 et 2.000€.

Photo 5 - Regie low cost

Photo 5 bis - Regie low cost

Cette année l’innovation n’était pas cantonnée à la « Future Zone », un peu pâle en nouveautés, mais partout dans ce salon, à l’exception peut-être des travaux de la NHK sur la 8K, télévision publique japonaise, où ses chercheurs mettent aussi au point l’écran de demain, flexible bien entendu !

Certains pensaient que la 8K serait au menu de l’IBC 2020 avec les JO de Tokyo, mais cette technologie est d’ores et déjà bien présente (comme on a aussi pu le voir à l’IFA de Berlin cette année) avec de vrais produits, et non des prototypes de laboratoire : écrans géants de plateau TV, caméras, encodeurs, moniteurs et autres players logiciels.. On se prépare sur tous les fronts, non sans bouleverser les réflexions des visiteurs qui péniblement commençaient à envisager de migrer de la HD vers l’UHD.

Photo 7 - Ecran Geant

Photo 8 - 8K TV Advantech

La star surprise de ce salon restera sans doute la camera 8K UHC-8300 de Sony, un monstre de technologie capable de tout faire, de la HD à la 4K jusqu’à la 8K HDR. Un étroit travail de design entre le constructeur Sony et la NHK selon nos informations…

Photo 6 - Cam SONY 8K

Technologies de simplification de la production et de la diffusion

L’image numérique et le studio virtuel ont à nouveau captivé les visiteurs, par des démonstrations en direct où les décors virtuels rivalisaient de performance. C’est à nouveau Zero Density qui à raflé l’Award 2017 du prix du jury pour sa solution de studio virtuel (utilisant le puissant moteur Real Engine)

Photo 4 - Zero Density

Les solutions sans fond vert sont de plus en plus impressionnantes à l’instar de celles proposées par la start-up indienne Wasp3D ou la société hongroise ZLense dont le dispositif, qui repose lui-aussi sur le moteur Real Engine, permet de voir le présentateur tourner autour d’un objet virtuel 3D et plus simplement passer devant !

Très intéressant aussi, les solutions de post-prod dématérialisées dans le cloud : Sony présentait notamment Hive (montage dans le cloud) et Virtual Switcher (une régie virtuelle entièrement hébergée dans un cloud, local ou distant, qui sera commercialisée d’ici la fin de l’année)

Le français B-Com comptait sur sa dernière innovation pour révolutionner les technologies HDR en simplifiant leur fabrication au sein des chaînes TV : un programme SDR pourrait ainsi être automatiquement converti en HDR, et pourquoi pas être aussi intégré pour automatiser des catalogues de VOD ou au sein des téléviseurs.

Scène étonnante, une équipe d’Apple s’est invitée sur le stand du le fondeur Hililicon (filiale du géant chinois Huaway) en grande prospection de solutions de conversion SDR et HDR. Nous avons eu la chance de voir en avant-première leur Set-Top Box, 4K 60fps, qui tient, elle, dans le creux de la main !

Coté diffusion, on retiendra solution de live streaming multiplateforme (pour diffuser sur tous les réseaux en simultané) qui prend aussi en charge le format 360°, de la start-up française Livescale.

De nombreuses expérimentations autour de la 5G

La 5G n’aura pas non plus attendu le prochain salon des mobiles de Barcelone en mars 2018 pour faire parler d’elle. De nombreux tests sont en cours, pour les JO de Corée bien sûr, mais aussi à Londres où l’équivalent de notre TNT (25 chaînes) vont être mise « on air » sous peu en 4K UHD, sous l’égide d’Arquiva avec Samsung et le français Ateme.

Photo 9 - Arqiva 5G

La 5G représente une énorme opportunité, tant pour les broadcasters que pour les opérateurs de services, d’autant que les dernières spécifications du 3GPP (organisme de standardisation) permettent la diffusion en mode broadcast sans aucune carte SIM (donc pour un usage proche de la TNT). Un dossier à suivre de près au côté de l’UER très au fait de ces questions qui vont bouleverser à nouveau notre univers des médias numériques d’ici 3 ans !

L’IP bouscule l’univers très fermé du broadcast

Sans rentrer dans de complexes détails techniques, l’IP, cette technologie qui a permis l’explosion de tous les services numériques ces dernières années, est en train de bouleverser le monde très fermé de la fabrication du contenu broadcast, c’est-à-dire des chaînes TV. Cette technologie qui attendait sa standardisation (SMPTE ST 2110 et AMWA IS-04) pour décoller et rassurer fabricants et chaînes TV était disséminé un peu partout à l’IBC. Pas un seul équipementier, des plus petits aux plus grandes marques, y a dérogé.

Photo 10 - IP SMPTE

D’importants moyens techniques sont déjà en service, comme par exemple le car de d’ARENA TV UHD tout IP nominé pour un Award IBC et qui tourne depuis un an déjà en Angleterre principalement pour des couvertures sportive de premier plan.

Pourquoi l’IP ? Sans cette technologie considérée comme inéluctable, la migration vers les nouveaux standards de qualité comme l’UHD, 4K, 8K est difficilement crédible. On lui attribue aussi d’autres avantages, comme la virtualisation des moyens de production, ou leur mutualisation, l’évolution des systèmes etc…mais attention ce n’est pas une mince affaire que de faire évoluer une installation existante, autant pour des raisons techniques que budgétaires et même sécuritaires. Mais ainsi en a toujours été l’évolution de la TV.

L’IA fait son entrée à l’IBC

La mise en parallèle des deux salons IFA et IBC reste intéressante : dans les deux cas les tendances se complètent. Le premier présente le futur des équipements « consumer », le second, les moyens techniques pour les alimenter. Un point commun cette année : l’IA, repérée à l’IFA il y a quelques semaines, était pour la première fois présentée à Amsterdam. Sa présence est d’autant plus notable qu’elle s’articule entre start-ups et géants du numérique.

On retiendra la solution de la start-up Athenas Owl qui se fait une spécialité d’analyser les programmes video avec des promesses séduisantes en terme de précision ou encore celle des Israëliens de Comigo qui démodent les services de TV Live, de VOD ou de Replay par de puissants services d’enrichissement associés.

Photo 11 - Comigo Stand

L’équipementier européen EVS, très présent chez la plupart les broadcasters du monde entier, se lance aussi dans cette aventure par des premiers produits algorithmiques d’analyse vidéo.

Google était évidemment présent mais seulement par des propositions relativement timides de services de Machine Learning dédiés aux médias.

Photo 12 - Google

Nous avons pu constater que le géant américain IBM reste en avance avec son IA Watson. Les médias pourraient être séduits par ses nombreuses possibilités démontrées lors du salon, principalement autour du sport où l’IA devrait exceller ces prochaines années tant le nombre de services associés sont à imaginer.

Le Chinois Huaway, via sa filiale Hisilicone, démode déjà les traditionnels assistants vocaux intégrés dans des mini enceintes : leur objet « all in one » pyramidal de 30 centimètres embarque assistant vocal, caméra vidéo, plateforme multimédia complète et même un Hub de commande pour le foyer connecté. Cet ovni est déjà déployé en Corée à la demande de l’opérateur KTM.

Ces produits sont à rapprocher de ceux présentés à l’IFA de Berlin il y a quelques jours avec le fameux Kirin 970, chipset mobile embarquant de l’IA : l’ère du processeur neuronal est arrivée.

Ce 50e cru de l’IBC était d’un très haut niveau, tant par l’organisation que par la qualité des exposants.

Reste aux visiteurs professionnels à bien comprendre les enjeux qui s’offrent à eux, à tester ces changements, sinon est grand le risque de rester sur le bord de la route de l’évolution incroyable du secteur.

 

 

[Etude] La stratégie des réseaux sociaux pour combattre les fake news est-elle efficace ?

Par Lorraine Poupon, France Télévisions, MédiaLab

Les réseaux sociaux ont été pointés du doigt comme véhicules de propagation massive de fake news aussi bien pendant les élections que plus récemment lors du passage d’Irma. Ils se devaient donc de réagir. Mais au-delà des communiqués de presse ou des effets d’annonce, leur stratégie de lutte est-elle réellement efficace à l’ère de la post-vérité ? Une étude menée à Yale a cherché à le déterminer.

Pour une entreprise comme Facebook, le défi du retour de la confiance et de la restauration de son image est crucial. Au-delà des supposées ambitions politiques de son fondateur Mark Zuckerberg, le réseau social est fondé sur l’échange et le partage. Une certaine atmosphère doit donc être préservée. Plus encore dans le contexte actuel où passivité est synonyme de complicité. Ne pas réagir aurait été indéfendable.

Plusieurs mesures ont ainsi été prises : changement dans son algorithme pour détecter et isoler les news présumées fausses ou encore sanctions économiques en privant les auteurs de revenus publicitaires.

Dans le cadre de leur étude, les chercheurs de Yale se sont concentrés sur l’impact effectif ou non de deux d’entre elles : la possibilité pour un tiers de dénoncer une news comme étant fausse et l’affichage du logo de l’éditeur de l’article dans le feed pour une supposée meilleure identification de la source.

fake news

« Disputed by 3rd party fact-checkers »

Cette nouvelle fonctionnalité fait apparaître la mention « contestée par un tiers » quand l’article a été remis en cause par une source d’information fiable. Si l’étude révèle que cette mesure a effectivement permis de réduire la propagation des fake une fois dénoncés, les effets restent limités.

La question de l’application à grande échelle de cette méthode se pose. En effet, quels que soient l’énergie ou les moyens mobilisés, les fake news créées ou relayées de manière automatisée par des bots, le tout à bas coût, dépasseront toujours un contrôle humain et manuel.

Et quand bien même ce système deviendrait la référence, cela ne se ferait pas sans poser son lot de difficultés. Un fake qui ne porterait pas la fameuse mention tout simplement parce qu’il n’aurait pas encore été passé en revue semblerait être validé comme étant vrai et vérifié ! Cet outil rencontre sa limite dans l’exigence d’exhaustivité de l’analyse des nouvelles relayées qu’il réclame.

CNN v. Breitbart News ?

Pour ce qui est de la facilitation de l’identification d’un titre à l’aide de son logo, elle répond à une critique récurrente faite à Facebook. En tant que plateforme, elle a peu à peu supplanté les grands médias dans l’esprit de ses utilisateurs comme étant la source de l’info.

Le résultat de cette mesure est positif bien que lui aussi limité. Lorsqu’elles sont identifiées, la confiance dans les informations relayées est plus grande, même si elles s’avèrent être fausses.

Mais la défiance à l’égard des médias traditionnels est telle que l’effet peut aussi être pervers. Certains, à l’image des supporters de Trump, accordent une plus grande confiance aux « infos » partagées par leur famille ou leurs proches qu’à celles par un média national reconnu, identifié et objectivement fiable.

Le constat est plutôt accablant. Les réponses apportées sont loin d’être suffisantes ou même réellement efficaces. Certains vont même jusqu’à se poser la question de l’intérêt réel qu’aurait Facebook a totalement stopper la propagation de fake news.

D’autres solutions doivent être trouvées. Le Newsfeed de Facebook pourrait être une manière de reprendre un certain contrôle dans la sélection éditoriale. Alors, satisfaite la presse ? Rien n’est moins sûr quand on sait à quel point le rapport de force avec les plateformes est déjà déséquilibré.

Snapchat accélère la démocratisation de la réalité augmentée mobile

Par Barbara Chazelle, France Télévisions, Media Lab de l’Information

Snapchat contre-attaque les annonces récentes d’Apple : dans sa dernière mise à jour, la plateforme est allé un cran plus loin dans la réalité augmentée en permettant à ses utilisateurs d’intégrer leur avatar 3D animé dans leur environnement réel. Pour y avoir accès, il aura fallu préalablement télécharger l’application Bitmoji et créer son propre avatar.

Une preuve supplémentaire que la démocratisation de la réalité augmentée passera par le mobile !

Notre avatar s’est invité sur le plateau de FranceInfo : regardez notre tuto pour comprendre comment créer vos propres vidéos.

Les médias sont-ils voués à devenir des marques blanches, les agences de presse des GAFA ?

Par Nicolas Becquet, journaliste à l’Echo, billet invité

Ce post est le dernier d’une série d’articles visant à partager les principaux enseignements de sept années de journalisme multimédia. Sept ans au service de L’Echo, un « vieux média » dans lequel il fait bon travailler et expérimenter. Après la question du greffon numérique en rédaction, de la gestion d’équipe, du débat entre polyvalence et spécialisation, de la production multimédia et de la communauté des « journalistes partageurs », finissons par le commencement : le graal de l’éditorial.

S’il ne fallait retenir qu’un seul enseignement, après sept années d’expérimentations multimédias et d’une patiente observation du paysage médiatique, je ne citerais pas les disruptions technologiques en elles-mêmes, mais ce qu’elles ont révélé de la presse: un prodigieux essoufflement éditorial et une déconnexion croissante avec son lectorat.

La percée des plateformes numériques et sociales a en effet accéléré ces deux phénomènes, alors qu’historiquement la presse s’est bâtie au gré des combats idéologiques, politiques et culturels qui ont animé la société. Que sont devenues ces identités éditoriales fortes, novatrices voire militantes?

Depuis la fin des années quatre-vingt-dix, à la faveur de la profonde dépression que traversent les médias, ces orientations tranchées et assumées se sont progressivement réduites à de fragiles aspérités, pour finalement être gommées, dommage collatéral de la « guerre numérique de l’attention ».

Etranglés économiquement, beaucoup d’entre eux ont pensé avoir trouvé les conditions de leur survie dans les fausses promesses de l’audience de masse et du modèle de la gratuité. La stratégie du grand écart éditorial (s’adresser à un public toujours plus large aux exigences toujours plus variées), a durablement abîmé les marques de presse, déboussolé les journalistes et dilué l’identité de nombreuses rédactions.

Une inquiétante uniformisation

Au-delà des considérations stratégiques et commerciales des entreprises de presse, il est frappant d’observer à quel point la prédominance des « plateformes sociales » et de l’Internet mobile a parallèlement entraîné une uniformisation des formats et des approches journalistiques.

Pour beaucoup de médias, Facebook a supplanté Google comme source de trafic. Mais si Google impose des standards d’écriture, de mise en page et de référencement, Facebook va un cran plus loin en agissant comme un média.

Non content de fournir des outils de publication, de partage communautaire, de référencement, de monétisation et une audience de près de deux milliards de personnes, Facebook assume désormais son statut de média.

Une rédaction en chef hybride a vu le jour, mi-humaine, mi-algorithmique. Elle pèse aujourd’hui de tout son poids à travers une foule d’initiatives dispersées : des canevas prêts à l’emploi (Instant Articles), des formats contraignants (la lecture automatique des vidéos sans le son), des primes de visibilité attribuées à certains types contenus (posts des amis proches VS média, live VS texte + photo…), le filtrage des messages selon les pays, la censure d’images ou de textes, etc.

En quelques années, une entreprise américaine a mis sur pied un système médiatique autonome et planétaire dont elle change à loisirs les règles du jeu pour l’ensemble des médias.

algo-facebook

En définissant des canevas et des modes de consultations applicables à l’échelle mondiale, Facebook a logiquement contribué à une uniformisation sans précédent des informations et des formats publiés sur les réseaux sociaux.

Ce qui était un temps perçu comme un espace de liberté permettant de renouer un contact plus direct avec l’audience s’est finalement transformé en prison dorée. Un risque souligné dès 2012 par Dominique Wolton, dans son essai intitulé Informer n’est pas communiquer :

« Alors même que, pendant des siècles, l’émancipation a consisté à nous affranchir de toutes les dépendances (religieuses, politiques…) et que les techniques de communication y ont contribué, c’est au moment où l’individu est libre, indépendant de toute autorité, qu’il s’assujettit, volontairement cette fois, aux techniques qui lui ont permis de se libérer. Les « servitudes volontaires » sont innombrables. »

Servitudes numériques volontaires

Après une courte période d’hésitation, les médias d’information se sont finalement ralliés à l’engouement planétaire pour les réseaux sociaux. Un virage d’autant plus brutal que la prise de conscience a été tardive.

Aujourd’hui, la majorité des rédactions produit, par exemple, des vidéos courtes, muettes et agrémentées de textes colorés parce que 85% des utilisateurs de Facebook ne cliquent pas sur les vidéos de leur timeline et les regardent sans le son. Bref, tout le monde ou presque fait de l’AJ+ ou du NowThisNews (avec plus ou moins de réussite).

Un élan positif qui démontre que les rédactions ont compris qu’elles devaient sortir de leur pré carré et explorer de nouveaux territoires. Un réflexe de survie qui traduit aussi l’espoir de capter une part du gâteau de l’audience « offerte » par Facebook. Mais finalement, un sursaut contraint et forcé qui s’exprime dans un corset formel et éditorial sans précédent.

Le filon d’une audience de masse potentiellement monétisable a fait naître la fièvre de l’or chez les éditeurs. Et c’est à peine remis de leur coup de chaud qu’ils prennent conscience que leurs contenus sont désormais noyés dans des timelines saturées et que la plupart des lecteurs à qui ils s’adressent reste souvent indifférents à la source de l’information (56% selon une récente étude).

Les nouvelles initiatives de Facebook et de Google pour mettre davantage les marques de presse en valeur et les articles payants ne devraient pas changer fondamentalement les habitudes des utilisateurs.

Au fil du temps, en nourrissant des plateformes sociales insatiables avec des contenus conditionnés industriellement, les médias sont insidieusement devenus des marques blanches. Cerise sur le gâteau tant convoité, les revenus publicitaires espérés restent plus que jamais dans le giron de… Facebook.

La marque blanche a de l’avenir

Les médias semblent lentement se transformer en agences de presse chargés d’alimenter en contenus des réseaux sociaux devenus médias. Ce faisant, ils acceptent de se muer en marques blanches aptes à répondre aux exigences multiples et propres à chaque plateforme.

« Google rédacteur en chef » n’était finalement qu’un timide avant-goût de ce qui arrive aujourd’hui.

L’exemple de Snapchat est particulièrement édifiant. Pour créer la rubrique Discover de son application, le réseau social pour ados est parvenu à convaincre de prestigieuses rédactions de dédier entre dix et quinze journalistes à la production de contenus premium ad hoc. Une prouesse époustouflante quand on connait l’état des finances de la presse et l’absence de retour sur investissement.

Sur Instagram, on fait défiler à loisir, d’un simple geste, des images de photographes de renom, de stars, de marques, d’inconnus ou d’agences de presse. Une consommation globale et indifférenciée qui se prolonge tant que l’œil s’amuse. Les audiences sont faibles, le travail d’animation chronophage et le retour sur investissement quasi nul. Pourtant, le coût de la visibilité ne cesse d’augmenter, car nous sommes passés du recyclage des contenus à une production dédiée.

Plus généralement, ce double phénomène de production de contenus sur-mesure combinée à un effacement des marques et des identités éditoriales est promis à un bel avenir. Qu’il s’agisse des contraintes liées aux systèmes d’exploitation (iOS, Android, Windows…), aux supports (smartphones, wearables, objets connectés…), aux kiosques en tout genre (Newsstand de Google, Apple News, Instant Articles de Facebook, SFR Presse…), en passant par les réseaux sociaux, les chatbots et bientôt la généralisation de l’intelligence artificielle, l’information est promis à un morcellement toujours plus grand.

La « liquidité » de l’information est devenue un enjeu majeur. Les médias, soucieux de rester dans la course, atomisent toujours plus leurs contenus pour satisfaire les exigences techniques et éditoriales des plateformes et des canaux de distribution. Ils utilisent également les mêmes sources et outils de production, notamment pour la vidéo.

En résulte une uniformisation des formats à l’échelle planétaire qui sature les timelines de contenus interchangeables. Avec des contenus toujours plus liquides, assurer une bonne visibilité de la continuité éditoriale de son média est devenu très compliqué. Une logique soulignée par Nikos Smyrnaios (Université de Toulouse) lors de sa présentation à Obsweb en janvier 2017: « L’oligopole de l’internet contre l’autonomie journalistique ».

mediatype.be

mediatype

Le graal de l’éditorial

La bouffée d’air offerte par les audiences massives atteintes en ligne ces dernières années ne saurait pourtant faire oublier l’agonie structurelle de la presse. Il serait par ailleurs illusoire de croire que les médias disposent d’une part réservée du gâteau numérique de l’audience. Enfin, si la monétisation des contenus reste un enjeu capital, c’est bien l’inadéquation entre l’offre éditoriale et les attentes réelles (ou supposées) de l’audience qui reste le problème le plus aigu.

Sur cet aspect, les stratégies des nouveaux médias qui se sont développés en ligne sont riches d’enseignements. Si le ciblage des publics et la maîtrise des données d’audience leur ont rapidement permis de s’imposer dans l’écosystème numérique, c’est bien leur identité éditoriale forte qui leur a permis de rentrer durablement dans les usages des internautes.

Buzzfeed, AJ+, Melty, Kombini, ViceNews, Brut, Vox, Politico… Qu’il s’agisse de divertissement pur, de thématiques ultra spécialisées ou de journalisme, ces médias ont tous fait des choix forts et les brandissent comme des étendards pour séduire le public.

De leur côté, les médias traditionnels ne font qu’essayer de les singer, sur leur terrain, en vain et tout en s’écartant dangereusement de leurs fondements éditoriaux. « Faire » du Buzzfeed, de l’AJ+, du Mediapart ou du Vice News n’est évidemment pas une solution pérenne. Etudier leurs recettes, oui. Les copier sur le plan éditorial, non. Cela n’a aucun sens et ne rendra pas leur identité aux « vieux médias », bien au contraire.

buzzfeed-lepoint

Le changement, c’est pour quand ?

Après avoir coupé dans les effectifs, intensifié le marketing, tenté de séduire une audience toujours plus large, après avoir suivi à la lettre les exigences des plateformes, investi dans la technologie pour rester à la page, le constat est sans appel : la désaffection est toujours là.

Une désaffection qui ne se traduit certes pas dans les chiffres de consultation, qui ne cesse de progresser, mais dans l’absence d’évolution significative des ventes à l’unité et à l’abonnement. L’acte d’achat reste un indicateur et un miroir sans concession : le lecteur est-il prêt à dépenser de l’argent pour le service que je lui propose?

Globalement, il y a eu des changements, des ajustements dans les rédactions, mais personne n’a remis en cause le modèle de la presse traditionnelle, son périmètre et ses fondements.  Les éditeurs manquent d’argent, mais rares sont ceux qui ont pris la décision de changer radicalement d’échelle, de faire moins et mieux, de changer les modes d’organisations pour soutenir des projets éditoriaux véritablement novateurs.

Il faut visiblement préserver à tout prix ce qui existe et satisfaire les annonceurs pour des tarifs toujours plus bas. La nostalgie de l’âge d’or des grands tirages est ravivée par la nouvelle poule aux œufs d’or: « les jeunes ». On se berce de l’illusion qu’être présent sur Snapchat et Whatsapp permettra de renouveler son lectorat, tout en continuant à faire de l’info comme on l’a toujours produite.Un leurre, évidemment.

Pour traverser cette tempête, savoir qui l’on est et quelle vision du journalisme on défend sont des conditions indispensables à la survie d’une presse ambitieuse et singulière. Quand ces conditions sont réunies, il est alors possible de jouer le jeu des plateformes sans se trahir et sans ruiner sa crédibilité auprès de son audience.

En bref

Il y a urgence. Les projets les plus innovants et intéressants se développent désormais hors des rédactions, en périphérie, à la frontière du journalisme ou dans des médias qui font le choix des niches, du contretemps. Bref, il est temps de desserrer l’étau, redéfinir nos missions et ensuite de redistribuer les priorités et les moyens au sein des rédactions. 

La série de Nicolas Becquet est disponible sur son blog mediatype.be:

Illustrations de Catherine Créhange, Un dessin par jour

7 ans de journalisme multimédia : 3 leçons clés

Par Nicolas Becquet, journaliste à l’Echo, billet invité

Nicolas Becquet, journaliste au quotidien belge l’Echo, partage avec la profession son retour d’expérience de sept années de journalisme multimédia. Ce billet compile trois extraits issus d’une série de sept articles dans laquelle il évoque son effort constant pour garder le contenu au centre, tout en mettant l’ensemble des opportunités offertes par le web au service d’un journalisme « augmenté ».

print_web_multimedia_lecho_catherine_crehange

A la recherche de LA stratégie

Pendant plusieurs années, j’ai avancé contre le vent avec la conviction, très naïve j’en conviens, que je serai capable, à moi seul, de faire basculer toute une rédaction vers une nouvelle organisation.

Pour ce faire, j’ai expérimenté un nombre incalculable de stratégies :

Le rêve d’une collaboration transversale et multi-support à l’échelle de la rédaction n’est pas mort. Au contraire, il est même sur le point de se réaliser si je me fie aux progrès réalisés ces derniers mois. Mais alors, pourquoi aura-t-il fallu tant d’années pour y parvenir, alors que tous les ingrédients et les savoir-faire étaient déjà présents depuis plusieurs années?

La réponse est misérablement simple au regard de l’énergie dépensée et aux longues heures de réflexion accumulées pour essayer de comprendre: la direction et la rédaction en chef n’en avaient pas pris la décision. Tout simplement. Aujourd’hui, c’est fait. 

La fin de la bidouille ?

Aujourd’hui, toutes les écoles de journalisme forment leurs étudiants à cette polyvalence technique.  Malheureusement, les rédactions ont fait, et font encore, un très mauvais usage de cet atout. En effet, la polyvalence est encore trop souvent synonyme de « tout venant », de journaliste à tout faire, capable d’assurer à lui-seul la couverture de l’info « sur le web ». Elle n’est toujours pas considérée comme une source de plus-value, mais plutôt comme une capacité à alimenter un flux et des « canaux » numériques.

catherine cr

Mais entretemps, les cartes ont été rebattues : la concurrence s’est accrue, l’exigence des internautes s’est renforcée, les possibilités techniques ont explosé et les standards de qualité ont considérablement évolué.

A l’heure des applications « responsive », se lancer dans un webdoc est devenue une gageure. Visualiser quelques données avec Datawrapper ou avec Inforgr.am paraît bien dérisoire face aux productions des data-journalistes chevronnés. Le Facebook Live est devenu une affaire de réalisateurs télé. Sans compter l’exigence de la diffusion multiplateforme, l’importance du marketing éditorial, la complexité des analytics…

Il n’y a pas de doute, la polyvalence reste un atout, au moins autant qu’une connaissance minimum de l’écosystème numérique. Idem pour « la bidouille » qui permet, par exemple, de créer des récits interactifs à 360° avec peu de moyens. Mais après sept ans de pratique, je suis convaincu que ce type de profils doit rester minoritaire au sein des rédactions, tout en leur réservant une place centrale dans l’organisation.

Que ce soit pour la vidéo, la data, l’édition multicanal ou les dominantes thématiques, les médias ont plus que jamais besoin d’experts (fond et forme) capables de répondre aux exigences de l’audience en termes de qualité, de pertinence et d’usage. Ainsi, voit-on fleurir des pôles spécialisés dans l’édition multiplateforme. De son côté, l’infographie, un temps sortie des rédactions et sous-traitée, fait son retour, portée par les enjeux de la communication visuelle en ligne et les contraintes liées à l’« expérience utilisateur ».

L’indispensable boîte à outils

A la fougue et aux tests tout azimut des débuts succède rapidement le temps du tri, du partage et  de la sédimentation. Dénicher des outils n’est pas la tâche la plus compliquée, trouver du temps pour les maîtriser est un peu plus difficile. Mais le véritable challenge, c’est la « sédimentation » des usages.

Favoriser l’adoption durable d’outils par un nombre critique de journalistes est un vrai défi. Certains d’entre eux sont adoptés instantanément, d’autres jamais. Problème d’ergonomie, mauvaise communication ou simple manque de temps, les causes sont multiples.

Qui doit maîtriser quel outil, avec quel degré de compétence et d’exigence? Des questions auxquelles il faut tenter de répondre pour éviter de saturer les journalistes. Et la frontière est ténue! Par ailleurs, l’élan positif de la découverte se heurte rapidement aux tâches prioritaires à accomplir. Or, inciter les journalistes à utiliser de nouveaux outils, c’est accepter qu’ils prennent le temps nécessaire et donc qu’ils produisent un peu moins, pour une durée limitée.

nouveaux_formats_nicola_becquet_catherine_crehange

Pour favoriser ce travail d’enrichissement, une courte sélection d’outils permet de pouvoir piocher dans des formats définis et de les réaliser rapidement. Comme au journal Le Temps, L’Echo développe depuis quelques années des outils à usage interne pour la réalisation de cartes, de graphiques, de « cards » pour Twitter ou des templates de long format ou de live, prêts à l’emploi.

Le tout forme une boîte à outils complétée par un portfolio mi-public mi-privé qui permet, grâce à des mots-clés, de retrouver rapidement une carte, une timeline ou un graphique lors d’une actualité spécifique. Le réemploi et la modification des contenus multimédias existants permettent, eux, de gagner en efficacité et en productivité.

La boîte à outils, en bref:

Méthode : apporter une plus-value quotidienne et variée, par petites touches, avec des outils pour la plupart gratuits et/ou en open source.

Résultats visés :

La série de Nicolas Becquet est disponible sur son blog mediatype.be:

Liens vagabonds : Facebook contre fake news, une bataille perdue ?

A RETENIR CETTE SEMAINE

FAKE NEWS / POST TRUTH

eduardoune

“MUST READ”

A VOIR

SURVEILLANCE / CONFIANCE / WINNER TAKES ALL

NOUVEAUX USAGES, COMPORTEMENTS

cotd91

SPECIAL MILLENNIALS

DISRUPTION, REVOLUTION, DISLOCATION

MOBILITES / LIVE

streamers

360° / REALITE VIRTUELLE / REALITE AUGMENTEE

BOTS, INTELLIGENCE ARTIFICIELLE, AUTOMATISATION, BIG DATA, MACHINE LEARNING

02etzioniWeb-master768

VIDEO / SMART TV / STREAMERS / MULTI-ECRANS

HOLLYWOOD

RESEAUX SOCIAUX, PLATEFORMES

filterpop-snapchat-geofilter-app-1080x628

4K / U-HD / 8K / HDR

PUB

Gossamer

JOURNALISME 2.0

EDUCATION

INNOVATION / START-UP

 

Retrouvez la sélection des outils Méta-Media sur jTools

ES avec Kati Bremme et Barbara Chazelle