Podcast : un panorama de l’offre de la presse française

Par Laura Pironnet, Intrapreneure médias et innovation. Billet invité.
Billet originellement publié  sur Medium et republié sur méta-media avec autorisation.

Mis à jour le 22 octobre 2019

Parler des podcasts dans les médias aujourd’hui, c’est comme parler de vidéo il y a quelques années. Un format incontournable. Une pratique pourtant existante pour des auditeurs depuis pas mal de temps et un virage déjà pris par des groupes médias comme Arte qui publie Un podcast à soi ou Profils. Oui mais voilà, il y a un temps pour tout. Et aujourd’hui, il est l’heure de faire des podcasts natifs.

Ce qui est intéressant d’observer, c’est que ce ne sont pas tant les groupes médias audios (même si on pense aux podcasts natifs de Radio France) qui ont exploité le filon que les entreprises de presse écrite. Une manière, peut-on penser, de diversifier l’offre éditoriale, d’aller chercher de nouveaux lecteurs-auditeurs abonnés, de se fondre dans les nouveaux usages (plus facile d’écouter un podcast lors de son trajet jusqu’au travail que de lire un article sur son écran). Et de chercher de nouveaux modèles de revenus ? Pour ça, il faudra encore attendre un peu, le temps que des modèles économiques se confirment.

Alors qu’il y a encore quelques temps, certains s’interrogeaient du manque d’intérêt des journaux français pour les podcasts (je vous invite à lire le très complet article de Xavier Eutrope sur l’INA Revue Média, qui parle de la situation début 2018, intitulé “Pourquoi les journaux français ne font — presque — pas de podcasts ?”), la liste aujourd’hui s’est bien allongée. Les groupes de presse écrites sont de plus en plus nombreux à créer des podcasts adossés aux marques de leurs titres. C’est même plutôt le contraire : on cherche quel titre de presse n’a pas encore lancé son podcast !

Voici les éditeurs de presse traditionnels (hors nouveaux acteurs audio,plateformes de streaming et pure-players) qui ont lancé leurs propres contenus en format podcasts natifs :

PRISMA MEDIA 

REWORD MEDIA

MONDADORI

USBEK ET RICA

LE POINT

SOPRESS

LES INROCKUPTIBLES

MEDIAPART

L’EXPRESS

L’OBS

GROUPE CHALLENGES 

ELLE 

LES ECHOS 

LA CROIX 

L’ÉQUIPE

LE FIGARO 

LE MONDE

LIBERATION 

NICE MATIN 

SUD OUEST 

CENTRE FRANCE 

EBRA 

LE PARISIEN 

OUEST-FRANCE 

TELEGRAME

20 MINUTES 

 

NB : J’ai essayé de dresser une liste la plus complète possible, mais il se peut que certains podcasts de médias de presse écrite français soient passés à la trappe… Preneuse des éventuels manquants en commentaires !

Il faut le dire… ça en fait des heures d’écoute ! La création d’autant de contenus audio, n’est pas anodine. Quelques notes et réflexions que j’en tire :

Contenu éditorial 

Le contenu traité dans le podcast est souvent une manière de poursuivre un filon déjà exploité par le média (comme Déclic de Nice-Matin, qui s’intéresse aux solutions, dans la lignée de l’offre solutions du journal lancé en 2016). L’objectif : approfondir un sujet, un traitement de l’information. Ou encore s’adresser à un segment plus ciblé de son audience et l’attirer vers son offre média globale : par exemple avec Les Echos et son podcast “Tech off” qui cible directement l’écosystème entrepreneurial.

La plupart des podcasts proposés offre du contenu exclusif, dans la mesure où ils ne sont pas tirés ou repris de contenus déjà diffusés sur le print ou web. A côté de ces podcasts de récits, d’enquêtes ou de rencontres, une partie des groupes de presse publie des podcasts d’actualité quotidienne ou hebdomadaire condensés (20 Minutes avec “Minute papillon !” ; Le Figaro avec “L’édito du Figaro” ; Challenges avec “L’édito”…). Une façon plus classique de produire du contenu audio.

Concernant la durée des podcasts, il semble y avoir deux tendances : le temps court, entre 5 et 10 minutes, et le temps plus long, entre 35 minutes et 1 heure. Alors que le format vidéo, également très plébiscité par les médias, se concentre sur des temps automatiquement courts (moyens de productions oblige

Le contenu fait souvent référence à une appartenance identitaire, notamment pour les podcasts édités par les journaux de PQR : par exemple le Télégramme avec “Paroles de marins” ou “Écoutez mon rhum” ; L’Yonne Républicaine avec “Y a plus de saisons” ; ou Le Progrès avec “ça bavasse en gaga”. Une façon de (re)tisser du lien avec son lectorat, avec un positionnement unique !

Stratégie de développement

Si on peut toujours trouver des précurseurs et retardataires, 2018 semble être L’ANNÉE où bon nombre de ces groupes se sont lancés dans le podcast !

La plupart de ces podcasts sont réalisés par des journalistes maisons, pas nécessairement spécialistes du format au départ et qui ont voulu l’exploiter au profit de leur titre média. Mettre aux manettes des journalistes spécialistes de l’écrit est-il aussi facile ? S’ils savent produire de bons contenus à l’écrit, les adapter aux codes de l’audio, aux formats du podcast, n’est peut-être pas aussi évident que cela en a l’air.

Au contraire, certains titres font aussi appel à des personnalités extérieures pour animer et donner un ton au podcast, comme le podcast “Binôme” de Sciences et Avenir avec Cédric Villani.

L’investissement à perte des groupes média (à cause d’un modèle économique encore non certain) n’étant pas envisageable, la tendance est plutôt au test & learn : expérimenter plusieurs podcasts avec une saison 1 pour en tirer un bilan et investir ensuite dans ceux qui montrent des résultats exploitables. C’est pour cela que certaines groupes n’hésitent pas à en avoir produire plus de 5 différents par marque !

Certaines entreprises de presse vont plus loin en créant un véritable studio de production de contenus audio, comme Sopress qui avait déjà son studio de production Allso, et vient de lancer en juin 2019 Allsound, pour produire des podcasts et autres contenus sonores (publicité radio, web radio, sound design) pour les marques.

Reste à savoir comment les groupes de presse vont se structurer autour de ces nouvelles offres : intégration à leurs offres d’abonnement globale (print + web + podcast ?) ; équipes ressources dédiées ou entière sous-traitance ; mais aussi stratégie d’investissement dans une plateforme de diffusion maison (comme le fait Challenges avec ses podcasts créés pour la plateforme AEX lancée par Renault) ou pourquoi pas mutualisée entre plusieurs acteurs du secteur ?

Identifier une fausse image en ligne est plus difficile que vous ne le pensez

Par Mona Kasra, Professeure adjointe en design des médias numériques, Université de Virginie. 

Il peut être difficile de déterminer si une image est réelle. Comme les participants à notre récente recherche l’ont fait, regardez ces deux images et essayez de deviner si l’une ou l’autre – ou les deux – ont été falsifiées.

Image A, à gauche : est-elle réelle ? / Image B, à droite : qu’en est-il de celle-là ? Mona Kasra, Author provided

Vous avez peut-être fondé votre évaluation uniquement sur les éléments visuels ou avez peut-être pris en compte la source de diffusion de l’information ou encore du nombre de personnes qui ont aimé et partagé ces images.

Mes collaborateurs et moi avons récemment étudié comment les gens évaluent la crédibilité des images qui illustrent des articles en ligne et les éléments qui sont pris en compte dans cette évaluation. Nous avons constaté que vous êtes beaucoup moins susceptibles de vous tromper si vous êtes un habitué d’Internet, de la photographie numérique et des plates-formes de médias en ligne – c’est ce que les universitaires appellent « l’éducation aux médias numériques ».

Qui est dupé par les fausses photos ?

Avez-vous été dupé ?

Les deux images sont fausses.

Nous voulions savoir dans quelle mesure chacun des facteurs contribuait à l’exactitude du jugement. Nous avons émis l’hypothèse que la fiabilité de la source initiale pouvait être un élément déterminant, de même que la crédibilité de toute source secondaire, telles que les personnes qui ont partagé ou republié l’image en question. Nous nous attendions également à ce que l’opinion des internautes puisse les influencer. S’ils sont en désaccord avec quelque chose que l’image montre, ils seront plus susceptibles de la considérer comme fausse et, inversement, plus susceptibles de croire qu’elle est vraie s’ils sont d’accord avec ce qu’ils ont vu.

De plus, nous voulions savoir si le niveau de connaissance d’une personne dans les outils et techniques permettant aux utilisateurs de manipuler des images et d’en générer des fausses jouait un rôle dans le jugement. Ces méthodes ont progressé beaucoup plus rapidement ces dernières années que les technologies capables de détecter les manipulations numériques.

Tant que les vérificateurs d’images n’auront pas rattrapé leur retard, les risques et les dangers que des personnes mal intentionnées utilisent de fausses images pour influencer l’opinion publique ou provoquer une détresse émotionnelle restent élevés. Le mois dernier, pendant la période de troubles suivis aux élections en Indonésie, un homme a délibérément répandu une fausse image sur les médias sociaux pour attiser le sentiment anti-chinois auprès de la population.

Notre recherche visait à mieux comprendre comment les gens prennent des décisions concernant l’authenticité de ces images en ligne.

Tester les fausses images

Pour notre étude, nous avons créé six fausses photos sur divers sujets, notamment la politique nationale et internationale, les découvertes scientifiques, les catastrophes naturelles et les problèmes sociaux. Ensuite, nous avons créé 28 maquettes montrant comment chacune de ces photos pourrait apparaître en ligne, telle que partagée sur Facebook ou publiée sur le site Internet du New York Times.

Chaque maquette présentait une fausse image accompagnée d’une brève description textuelle de son contenu ainsi que quelques indices et éléments contextuels, tels que le lieu où elle la photo était supposée avoir été prise, des informations sur sa source et si quelqu’un l’avait repartagée – ainsi que le nombre de likes ou toute autre forme d’interaction.

Toutes les images et les textes et informations qui figurent à leur côté étaient des fabrications – y compris les deux en haut de cet article.

Nous avons utilisé uniquement de fausses images pour éviter la possibilité que des participants à notre étude aient déjà été confrontés à l’image originale. Notre recherche ne s’est pas intéressée à un problème connexe appelé « mauvaise attribution », dans lequel une image réelle est présentée dans un contexte indépendant ou avec de fausses informations.

Nous avons recruté 3 476 participants d’Amazon Mechanical Turk, qui avaient tous au moins 18 ans et vivaient aux États-Unis.

Chaque participant a d’abord répondu à un ensemble de questions ordonnées au hasard concernant ses compétences Internet, son expérience de l’imagerie numérique et son attitude à l’égard de diverses questions sociopolitiques. On leur a ensuite présenté une image mise en forme dans une maquette choisie au hasard et leur a demandé de regarder attentivement l’image et d’évaluer sa crédibilité.

Le contexte n’a pas aidé

Nous avons constaté que les jugements des participants sur la crédibilité des images ne variaient pas en fonction du contexte. Nous avons placé la photo d’un pont effondré dans une publication Facebook partagée par seulement quatre personnes. Ils l’ont jugé fausse de la même manière quand cette image illustrait un article du site Internet du New York Times.

Au lieu de cela, les principaux facteurs qui ont déterminé si une personne pouvait correctement percevoir une image comme fausse étaient liés à leur niveau d’expérience avec Internet et la photographie numérique. Les personnes familiarisées avec les médias sociaux et les outils d’imagerie numérique étaient plus sceptiques quant à l’authenticité des images et moins susceptibles de les estimer comme vraies.

Nous avons également découvert que les croyances et les opinions existantes influaient grandement sur la manière dont ils jugeaient la crédibilité des images. Par exemple, lorsqu’une personne désapprouvait la prémisse de la photo qui lui était présentée, elle était plus susceptible de croire qu’il s’agissait d’une fausse image. Cette constatation est cohérente avec les études montrant ce qu’on appelle le « biais de confirmation » ou la tendance des gens à croire qu’une information est réelle ou vraie si elle correspond à ce qu’ils pensent déjà.

Un biais de confirmation pourrait aider à expliquer pourquoi les fausses informations se répandent si facilement en ligne – lorsque les personnes rencontrent quelque chose qui confirme leur point de vue, elles les partagent plus facilement en ligne avec leurs communautés.

D’autres recherches ont montré que les images manipulées peuvent altérer la mémoire des internautes et même influencer leur prise de décision. Le préjudice que peuvent causer de fausses images est donc réel et significatif. Nos résultats suggèrent que, pour réduire les dommages potentiels liés aux fausses images, la stratégie la plus efficace consiste à former la population aux médias en ligne et au traitement d’images numériques, notamment en investissant dans l’éducation. Ensuite, ils en sauront plus sur la façon d’évaluer les images en ligne et seront moins susceptibles de se faire piéger par une fausse image.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

Photo by John Schnobrich on Unsplash

The Conversation

Liens vagabonds : contenus haineux, les plateformes commencent à bouger

À retenir cette semaine :  

#Cyberhaine. Alors que la loi Avia sur la « cyberhaine » sera débattue à l’Assemblée nationale à partir du 3 juillet, les plateformes commencent elles aussi à prendre des mesures restrictives. Twitter a annoncé que les tweets injurieux des personnalités publiques seront cachés. Mais pas supprimés ! Facebook lui emboîte le pas en proposant de nouveaux outils pour rendre la modération du contenu moins toxique. La plateforme va même plus loin puisque Facebook a accepté de communiquer à la justice française les adresses IP des auteurs de propos haineux.

#Transparence. Régulièrement accusées de manque de transparence, les plateformes font un pas en ce sens pour essayer de lever le voile sur cette opacité de leurs algorithmes. La dernière mise à jour de YouTube donne aux utilisateurs plus d’informations et de contrôle sur les recommandations de vidéos. Dans la même lignée, Facebook a mis à jour ses conditions d’utilisation pour que pour que les utilisateurs comprennent mieux comment la plateforme fonctionne. Le Sénat américain souhaite aller plus loin en obligeant Google et Facebook de révéler la valeur des données personnelles.

Et aussi cette semaine :

Cédric O, secrétaire d’État chargé du Numérique, réclame un « Conseil de l’ordre des journalistes », faute de quoi « l’Etat s’en chargera ». Cette déclaration a suscité un tollé chez les journalistes ; il a donc tenté de rectifier le tir en reconnaissant des « paroles malheureuses ».

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographie: Google est très friand de nos données personnelles | Statista

Vous trouverez plus d’infographies sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS

DISRUPTION, DISLOCATION, MONDIALISATION

SURVEILLANCE, CONFIANCE, DONNEES

LEGISLATION, REGLEMENTATION

FAKE NEWS, LIBERTE DE LA PRESSE

JOURNALISME

USAGES

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

AUDIO, PODCAST, BORNES

TECHNOLOGIE

 IMMERSION, 360, VR, AR

https://www.youtube.com/watch?v=G63goXc5MyU

SPORTS  

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

5G / MOBILES / TELCOS

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

TECH, STARTUPS, SMART

Newsbridge lève 1,5 million d’euros pour optimiser la création de contenus vidéo dans l’audiovisuel

OUTILS

 

ES avec l’équipe Méta-Media

 

Podcasts : l’écosystème se structure

Par Laure Delmoly, France Télévisions, MediaLab

Dernier volet du cycle MAIN Conférences, la conférence sur les podcasts organisée à la SACD cette semaine fait l’état des lieux d’un écosystème en pleine effervescence et en voie de structuration. Dans ce moment charnière, les acteurs historiques radiophoniques et les plateformes de streaming s’interrogent sur l’écriture des podcasts, leur distribution et la juste rémunération des auteurs.

L’audio en ligne : un usage qui devient courant

Rodolphe Desprès, Responsable département internet de Médiamétrie, présente une étude entièrement consacrée à l’audio. Si la Radio FM reste le premier média d’écoute de contenus sonores, se développe le « streaming » (écoute sans téléchargement) et l  « podcast », qui peuvent être soit le « replay » d’une émission déjà diffusée, soit un contenu « natif  » c’est-à-dire produit pour le web.

Au delà de cet usage disruptif de la radio, l’écoute de l’audio en ligne est devenue un usage courant sur le web au même titre que la lecture d’articles de presse ou le visionnage de vidéos. La preuve en est : le podcast a désormais son propre festival : le Paris Podcast Festival.

L’effervescence des podcasts natifs

Les acteurs historiques comme Radio France se sont lancés dans la production de podcasts natifs (France Inter, France Culture, RTL, Europe 1)  ainsi que la presse (Elle, Slate, Le Parisien) et des acteurs indépendants (Binge Audio, Louie Media, Nouvelles écoutes, Boxsons).

A l’origine exclusivement musicales, les plateformes de streaming(Deezer, Spotify) se sont également mise à distribuer et à co-produire de l’audio parlé . Dans le même temps, de nouveaux acteurs (Sybel, Majelan) proposent dès leur lancement une offre de podcasts sélectionnée et leur propre production. Preuve de cet écosystème en pleine effervescence, le classement podcast iTunes France comporte désormais des podcasts natifs dans son top 10.

Un public jeune et engagé

L’audience des podcasts natifs est un public jeune, CSP+, francilien et adepte de l’audio digital. En France, les podcasts natifs sont désormais connus par près de 40% des internautes de 15 ans et plus. Ils le sont encore davantage chez les jeunes, à 63% pour les 15-24 ans.

Par ailleurs, on n’écoute pas un podcast par hasard comme on regarde une vidéo. Le public de ce format est engagé. 15% des internautes de 15 ans et plus sont capables de citer au moins un podcast natif d’un acteur radio et 18% connaissent au moins un podcast natif d’un autre acteur. 

Un ton unique

Le podcast natif permet une écriture plus décalée, plus libre et plus longue. Féminisme, sexe, identité raciale ou de genre, développement personnel, entrepreneuriat, le podcast natif délivré de toute contrainte de format adopte le ton de la communauté à laquelle il s’adresse.

« Il y a ce ton très particulier que l’on va chercher quand on fait des co-productions avec des marques Média comme So Foot par exemple. » explique Frederic Antelme de Deezer.

Les auteurs de fiction exploitent cette liberté de ton. Klaire fait Grr, autrice et membre de la SACD a ainsi produit une comédie feuilletonnante sur les déboires amoureux d’une jeune femme qui a reçu le Prix Italia de la meilleure fiction radio en 2018.

Les supports d’écoute

Les podcasts natifs sont consommés à 48% via des applications de podcasts. 41% d’écoute se font sur le site ou l’application de l’éditeur.

La découverte des podcasts via les enceintes connectées est aujourd’hui encore anecdotique en France. Les avis divergent sur la nécessité d’y être présent.

« Je crois davantage à l’intégration dans les voitures connectées qu’aux enceintes connectées » déclare Mathieu Gallet de Majelan.

Quand Virginie Maire, Fondatrice de Sybel fait le choix d’y être.

« 45% de la consommation de podcasts se fait à domicile. Nous souhaitons donc être présents sur cet outil d’écoute propice à la maison. »

La découvrabilité 

Mal référencé et beaucoup moins viral que la vidéo, la découvrabilité du podcast est un enjeu majeur. Tous les acteurs se posent la même question : comment rendre visible leurs podcasts et comment amener les internautes à en découvrir d’autres ?

Selon l’étude Médiamétrie, 34% de internautes qui écoutent des podcasts natifs les découvrent par les applications de podcasts et 59% par les réseaux sociaux.

Nous permettons aux podcasteurs d’éditer un clip de trente secondes pour mettre en valeur leur podcast sur les réseaux sociaux car nous savons que le taux d’engagement est bien plus important avec une pastille vidéo qu’avec une simple photo” explique Maxime Piquette de Ausha, un service de distribution de podcast créé par des podcasteurs.

Si Google et Apple ont fait des annonces récentes sur le speech to text, la retranscription de l’audio parlé est encore très mauvaise en langue française. Le speech to text coûte cher à produire mais tous les acteurs sont conscients qu’il améliorait grandement la découvrabilité des podcasts.

La recommandation éditorialisée 

La curation éditoriale est essentielle pour la mise en valeur des podcasts. La start-up Elson, créée par Carine Fillot, propose une sélection éditorialisée basée sur des choix humains et algorithmiques. Cette sélection s’organise en sons du jour, en playlists, en séries sonores ou en collections thématiques.

L’objectif de la recommandation éditorialisée est de proposer à l’internaute les contenus qu’il aime mais également de le sortir de ses habitudes d’écoute. Le format playlist est particulièrement adapté à ce type de programmation.

“Dans nos playlists, on mélange les podcasts dont on sait qu’ils vont engager avec des podcasts plus confidentiels que l’on souhaite faire découvrir aux internautes. Notre travail sur l’audio parlé est en ce sens très proche de celui que nous faisons sur la musique” déclare Frederic Antelme, Responsable contenus de Deezer.

Mathieu Gallet explique le travail éditorial considérable effectué sur Majelan notamment en terme de catégorisation :

« Nous avons fait un vrai travail de thématisation avec la création de 600 tags mêlant logique d’actu et d’humeur. »

La rémunération des auteurs 

En 2017, la SACD a créé le premier fonds de soutien au podcast natif pour France Culture. En 2019, elle crée un second fonds de soutien pour l’ensemble des acteurs. La particularité de ce fonds : les projets doivent être présentés par les plateformes.

« Il y a beaucoup de podcasts amateurs de qualité faits par des passionnés. C’est la difficulté pour nous les auteurs professionnels. Nous devons faire attention à travailler avec des acteurs qui ont des partenariats avec les société de gestion de droits pour être rémunérés correctement. » rappelle Claire fait Grr, autrice et membre de la SACD.

« Même si il est clair que dans l’univers audio, nous ne sommes pas dans le même modèle économique dans l’univers de la vidéo, le temps de la création est le même. Le temps d’écriture est un temps incompressible et qui coûte cher » ajoute Virginie Maire, Fondatrice de Sybel. 

Les plateformes Sybel et Majelan sont en négociations sur les droits d’auteurs avec les gros acteurs historiques comme Radio France par exemple. Et Laurent Frisch, Directeur du Numérique de Radio France de déclarer dans une interview dans les Echos, « La bataille de l’audio suivra celle des plates-formes vidéo. »

L’émergence régulière de nouveaux acteurs montre un écosystème des podcasts en pleine effervescence. Les acteurs historiques et de nouveaux entrants se positionnent et le marché se structure. La multiplicité des plateformes de distribution est une bonne chose pour les podcasteurs qui peuvent ainsi choisir leur mode de distribution en toute liberté. Cet usage « disruptif » de la radio pourrait dans les années à venir l’emporter sur la programmation traditionnelle radiophonique.

« Au Royaume-Uni, les podcasts natifs sont désormais plus écoutés que ceux du replay radio. C’est un bon indicateur pour nous sur les années à venir » conclut Yann Thébault, Directeur d’Acast France.

 

Crédit de Une : Lee Campbell via Unsplash

La télévision européenne est-elle en train de s’américaniser ?

Par Alexandre Bouniol, France Télévisions, MédiaLab

Après avoir conquis le marché de la SVoD en Europe, les États-Unis sont-ils en train de faire de même avec la télévision ? Ce n’est peut-être pas aussi flagrant qu’avec le streaming vidéo, mais c’est en tout cas le sens du dernier rapport de l’Observatoire européen de l’audiovisuel.

Un contexte de déconcentration et de fragmentation de l’audience

Les barrières à l’entrée du marché de l’audiovisuel sont beaucoup moins élevées qu’elles ne pouvaient l’être il y a quelques années, provoquant une « multiplication des chaînes de télévisions » au sein de toute l’Europe. Le corollaire de cette tendance est la fragmentation de l’audience : « en moyenne, quelque 95% des diffuseurs des pays d’Europe et de l’UE captaient une audience n’excédant pas 10% » en 2017.

Les grands groupes subissent ce phénomène de plein fouet puisque « entre 2012 et 2017, la part de marché d’audience moyenne des quatre premières chaînes télévisées sur les marchés nationaux européens a baissé de 8,2% ». Pour ralentir « l’évolution générale », ils ont eu tendance à se regrouper pour « mieux préserver leurs parts cumulées sur les marchés nationaux européens ».

Une internalisation du marché à l’accent américain

Qu’il semble loin le temps de l’ORTF et le monopole du secteur audiovisuel par un seul et même acteur ! Le marché s’est depuis non seulement ouvert à la concurrence nationale, mais également à la concurrence internationale. Et la place que prennent les groupes étrangers au sein du marché de l’audiovisuel ne cesse de croître. « En 2017, les chaînes étrangères représentaient ainsi plus de 20% de part d’audience sur 26 marchés audiovisuels européens, et même plus de 50% dans dix pays ». C’est particulièrement vrai au sein des petits marchés, « notamment en Bulgarie, en première place avec une part de 71,6% » de parts du marché national détenues par des groupes étrangers.

La plupart des groupes étrangers détenteurs de parts de marchés nationaux sont européens. L’internationalisation est donc principalement intra-communautaire. Cependant, on constate une importante pénétration des groupes américains notamment dans les pays de petite taille. Par exemple, les acteurs américains détenaient 44,1% du marché en Slovénie en 2017. Mêmes tendances en Roumanie, Croatie, République Tchèque, Pologne ou encore Slovaquie où les acteurs US dépassent les 25% de parts de marché. Bien que ces pays représentent une faible part du marché européen global, les proportions atteintes par les acteurs US sont très significatives puisqu’elles représentent près de 15% de l’audience des 20 plus grands groupes étrangers au sein des marchés nationaux de l’Europe.

 

Au-delà du marché de l’audience au sein duquel ils ont réussi à se faire une place, les groupes américains ont réussi à tisser un maillage impressionnant au sein de l’Europe : en 2017, le groupe américain Discovery était le plus omniprésent sur le marché européen de l’audiovisuel, puisqu’il diffusait sur 26 territoires. Le groupe était suivi de près par Viacom, Walt Disney Company, AT&T et Comcast qui sont présents sur respectivement 25, 23, 22 et 19 pays d’Europe. Ces chiffres sont considérables puisque à titre de comparaison, le groupe européen le plus implanté hors de ses frontières nationales est l’Allemand Bertelsmann, présent sur 14 territoires.

Cela veut dire que les cinq premiers groupes en termes d’implantation au sein des marchés nationaux de l’audiovisuel de l’Europe… sont américains !

Ce phénomène a été accentué par les récents phénomènes de fusion-acquisition par de grands groupes américains. « Le rachat du groupe britannique Sky par Comcast en novembre 2018 et celui de 21st Century Fox par Walt Disney Company en mars 2019 » a renforcé l’ancrage des groupes américains en Europe. « Elles ont porté la part totale des groupes américains sur le marché de la télévision non nationale au niveau inédit de 9,1% là où elle n’était auparavant que de 6,9% ». À nuancer cependant avec le fait que ces fusions-acquisitions « ont surtout accru leur présence sur les marchés nationaux et non gagné de nouveaux territoires de radiodiffusion significatifs ».

La résistance des médias de service public

Cette internationalisation du marché de la télévision en Europe est à mettre en perspective avec le poids des groupes de médias de service public. Même s’ils réalisent la plupart de leur audience au sein de leur marché national, ils représentent sept des vingt premiers groupes audiovisuels du point de vue de marché d’audience en Europe. Ils ont une place dominante dans la plupart des grands pays de l’Europe, notamment en Russie avec la RTR et Channel One Russia, en Italie avec la RAI, au Royaume-Uni et en France avec la BBC et France Télévisions.

Alors oui le marché européen de la télévision s’internationalise, avec un fort ancrage américain, mais il reste « solide sur ses appuis » ; la proportion de l’internationalisation étant principalement intra-communautaire et le poids des médias de service public étant (encore) très important au sein des marchés nationaux en Europe.

Cinéma : comment l’IA révolutionne le marketing d’audience

 Par Laure Delmoly, France Télévisions, MediaLab

L’intelligence artificielle (IA) permet des applications toujours plus surprenantes et révolutionnaires. Dans l’audiovisuel, la start-up israélienne Vault Analytics permet de réaliser des prédictions d’audience avant même la sortie des films ou séries télévisées. Du pain béni pour les professionnels qui peuvent optimiser leur activité à la lumière de ces précieuses données. Rencontre avec Caroline Wanne, manager du département de recherche de Vault Analytics.

Vault Analytics, c’est quoi aujourd’hui ?

Vault Analytics a été créé en 2015 par David Stiff, Nir Tzachar et Ziv Ayalon. Nous comptons aujourd’hui une dizaine de salariés. Nous sommes basés à Tel Aviv mais nous avons également des bureaux à Los Angeles.

Que proposez-vous ?

Vault Analytics fournit des analyses d’audience par pays avant la sortie d’un film ou d’une série télévisée. Notre intelligence artificielle travaille sur le langage naturel, ce qui nous permet de faire des prédictions d’audience dès l’étape du scénario qui constitue le plus gros de notre analyse. Les producteurs veulent savoir avant tout si le film ou la série rencontrera une audience et si cela vaut le coup d’investir !

Nos clients nous consultent fréquemment pour optimiser leurs bandes-annonces en nous soumettant plusieurs versions. Grâce à notre analyse, ils peuvent aussi les adapter par pays de distribution.

Nous intervenons aussi sur les stratégies de distribution. Les professionnels du marketing peuvent enfin sortir de la logique « spray and pray » qui consistait à inonder tous les canaux avec une bande-annonce pour ensuite observer le comportement de l’audience.

Aujourd’hui, nous leur fournissons des études d’audience par pays, par âge et par genre. C’est un sacré gain de temps, d’argent et d’énergie !

En quoi cela révolutionne-t-il les méthodes traditionnelles de pronostic d’audience ?

Les méthodes traditionnelles utilisaient des questionnaires, des groupes de discussion et l’analyse des conversations sur les réseaux sociaux pour faire des comparaisons avec des audiences de films déjà distribués et jugés similaires. Non seulement ces méthodes étaient coûteuses mais les prédictions étaient limitées.

Notre IA analyse les « points d’activation » et les « liens » dans les films. Notre algorithme en a détecté des centaines de milliers. Ces « points de données » concernent les genres (adaptation littéraire, film de science-fiction, comédie romantique, film d’espionnage) les thèmes (New York, famille royale, jeux politiques) et la narration (flash-backs, scènes de violence intense, courses-poursuites, scènes de sexe).

Nous pouvons faire des analyses prédictives jusqu’à 52 semaines avant la sortie d’un film ou d’une série télévisée. Cela permet à tous les professionnels qui interviennent en amont de la production de venir nous consulter.

 Quelle est la pertinence de vos résultats ?

Depuis 2017, nous avons fait des études d’audience sur plus de 350 films. Notre algorithme passe au crible environ 1000 scénarios en fonction du type de contenu étudié. Et nous utilisons le deep learning, donc nos pronostics sont toujours plus précis.

Sur ces 350 titres analysés, nous atteignons aujourd’hui en moyenne 75% de pertinence sur les pronostics réalisés sur le premier week-end de sortie du film.

Concernant nos succès, je pourrai citer The Meg. Le Hollywood Reporter avait prédit 20 millions de dollars de recette pour le premier week-end de sortie. Nous avons pronostiqué 47 millions. Résultat : 45,4 millions pour la sortie. Ou encore Ocean’s Eight pour lequel nous avions pronostiqué 40,3 millions de dollars et qui a atteint 41,6 millions de recette au premier week-end de sortie.

Grâce à ces données, la prise de risque financière est moindre et les campagnes marketing sont optimisées.

Quels sont vos clients, actuels et à venir ?

Aujourd’hui, notre marché est essentiellement basé en Amérique du Nord. Mais nous souhaitons à terme développer notre activité en Amérique latine, en Europe et en Asie.

Dans l’industrie du cinéma, Vault fait des pronostics pour toutes les types de films : du blockbuster au cinéma indépendant. Nous analysons actuellement surtout des films et des séries télévisées.  Nous travaillons avec des studios, des diffuseurs et les plateformes OTT. À terme nous souhaiterions travailler avec les professionnels du jeu vidéo. Et nous savons qu’ils sont intéressés.

Pronostic d’audience en dollars au premier week-end de sortie :

 

Photo de Une par Krists Luhaers via Unsplash

Liens Vagabonds : Facebook bat monnaie au nez du vieux monde

À retenir cette semaine :

Libra. Annoncée la semaine dernière par Facebook, on en sait un peu plus sur la nouvelle cryptomonnaie de la plateforme. Elle a déjà un site internet dédié et un livre blanc qui lui est consacrée. En filigrane, on comprend que la conquête du marché de la monnaie par Facebook s’inscrit dans une logique de diversification, devenue une nécessité, pour faire face aux géants chinois en ouvrant un nouveau front.

Avant même qu’elle ne soit officiellement lancée (début 2020), Libra suscite de nombreuses interrogations. Certains s’inquiètent des problèmes (majeurs) de confidentialité qu’elle peut poser. Le Sénat américain prend les choses en mains puisqu’il a fixé la date d’une audience afin que Facebook puisse s’expliquer à ce sujet.

Et si le but était de casser le système bancaire ? Le monde de la finance s’inquiète ! Le président du Crédit Mutuel appelle les États à s’opposer au projet craignant « un monde de monopoles totalitaires ». D’autres se demandent l’impact que la cryptomonnaie aura sur la presse, qui pourrait offrir des opportunités dans le micropaiement.

L’investisseur américain Ari Paul pense quant à lui que Libra n’a « que 50% de chance de survivre ».

Et aussi cette semaine :

Netflix. Après l’Allemagne, le Royaume-Uni ou encore la Suisse, c’est au tour de la France de voir ses tarifs augmentés pour un abonnement à la plateforme. L’offre «  de base » pour un écran ne change pas, en revanche les tarifs pour deux et quatre écrans augmentent respectivement d’un et deux euros par mois pour s’établir 11,99€/mois et 15,99€/mois.

Renault, qui était entré dans le capital du Groupe Challenges il y a un an et demi a décidé de suspendre ses investissements. En cause, « des pertes deux fois plus élevées que prévu »…

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographie: Nouvel emballement en vue pour les cryptomonnaies ? | Statista

Vous trouverez plus d’infographies sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS

DISRUPTION, DISLOCATION, MONDIALISATION

SURVEILLANCE, CONFIANCE, DONNEES

LEGISLATION, REGLEMENTATION

FAKE NEWS, LIBERTE DE LA PRESSE

 

 

 

JOURNALISME

USAGES

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

AUDIO, PODCAST, BORNES

IMMERSION, 360, VR, AR

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

5G / MOBILES / TELCOS

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

OUTILS

ES avec l’équipe Méta-Media

 

China Big Data, les données au coeur d’un communisme capitaliste high-tech

Par Kati Bremme, Direction de l’Innovation et de la Prospective.

Retour d’un voyage en Chine avec le Hub France IA, dont France Télévisions est membre, sur invitation de la China Big Data Exposition* à Guiyang, avec une learning expedition à Hangzhou et Pékin organisée par la French Tech Beijing.

« A l’Ouest, tout est simple, mais rien n’est possible. En Chine, tout est compliqué, mais tout est possible ». Ainsi pourrait-on résumer l’écosystème d’innovation, et en particulier de l’intelligence artificielle (IA), de l’Empire du Milieu, qui marie high tech et culture millénaire sur fond de capacité de transformation impressionnante. L’IA est devenue ces dernières années un des domaines privilégiés de compétitivité de la Chine, à la fois comme un moyen de maintien de la stabilité interne et comme une ressource stratégique dans les relations diplomatiques et économiques internationales. Depuis deux ans, cette volonté est clairement exprimée dans un vaste plan de support par le gouvernement, qui vise à faire de la Chine le leader mondial de l’Intelligence Artificielle à horizon 2030.

Une histoire de nombres

Pour se représenter le potentiel chinois en termes de Big Data – et donc d’IA et d’apprentissage automatique (dont les données sont la principale nourriture) – il s’agit de comprendre non seulement le contexte politique, mais surtout quelques chiffres. Kai-Fu Lee résume la situation dans son livre AI Superpowers : « La Chine est l’Arabie Saoudite des données ».

Les grandes plateformes Baidu, Alibaba et Tencent disposent de plus de données que les Etats-Unis et l’Europe réunis. Le 1,4 milliard de Chinois, reparti dans 160 villes de plus d’un million d’habitants, est de plus en plus connecté, soutenu en cela par les investissements massifs dans la 4G, puis la 5G : on compte 900 millions d’internautes chinois (deux fois la population des Etats-Unis, 21% de l’ensemble des utilisateurs d’Internet dans le monde, selon Mary Meeker), dont 98% utilisateurs sur mobile, fournissant une quantité importante d’informations à disposition des BATX, et, par extension, du gouvernement chinois. Avec une application de plus en plus étendue des technologies numériques en Chine, le pays devrait générer et stocker 27,8% des données mondiales en ligne d’ici 2025, selon un rapport de l’institut de recherche International Data Corp avec Seagate. 

La Chine est passée depuis longtemps de l’imitation à l’innovation. On compte 186 licornes en Chine, plus de 4.000 incubateurs, et des fonds d’investissements aux moyens presque illimités (comme Sequoia Capital, Tencent ou Sinovation Ventures de Kai-Fu Lee). Les investissements sont souvent pilotés par le gouvernement, qui met en place un écosystème très favorable pour le développement de l’innovation dans les secteurs stratégiques, y compris en modulant jusqu’aux frais de l’électricité et de location. Là où l’Europe cède souvent ses start-ups aux investisseurs américains ou asiatiques une fois atteint une certaine taille, la Chine permet à son écosystème d’innovation de se mettre à l’échelle de la demande. Et pour booster l’innovation, les grandes plateformes des BATX n’hésitent pas à se lancer dans une concurrence féroce entre-elles (WeChat Pay vs AliPay). C’est aussi en Chine que l’on trouve la start-up IA la plus valorisée au monde

Depuis 2017, toutes les universités chinoises proposent des formations en intelligence artificielle et produisent des dizaines de milliers de chercheurs en IA tous les ans. Certaines écoles primaires commencent même à enseigner l’IA. La Chine ne compte pas une, mais plusieurs « Silicon Valley » de l’IA, soutenues par le gouvernement national et les pouvoirs régionaux. Elle vient de lancer le 13 juin à Shanghai sa plate-forme boursière dédiée aux valeurs technologiques, son propre Nasdaq chinois.

Le Big Data dans les montagnes chinoises

L’un des exemples du pouvoir de transformation du gouvernement est la région autour de Guiyang, première étape de notre voyage en Chine.  


Vue de Guiyang depuis les montagnes environnantes

Autrefois ville isolée dans une région montagneuse du sud-ouest de la Chine, Guiyang est devenue en quelques années le cœur d’une « Big Data Valley » profitant de l’essor du traitement des données massives, du cloud et de l’Internet des Objets dont les données récoltées nécessitent d’immenses espaces de stockage. C’est dans la province de Guizhou que le gouvernement chinois a décidé d’installer ses plus grands data centers, un choix favorisé par le climat, les sources d’énergie disponibles à proximité et la géodynamique. Dès 2013, la région est nommée terrain pilote pour le big data.

Les données des utilisateurs chinois n’ayant pas le droit de sortir de Chine, certains acteurs internationaux commencent à y installer leur cloud, comme Intel et Dell, et Apple, qui a construit son centre de données en février 2018 (contrairement à Facebook qui refuse de stocker les données de ses clients sur le territoire chinois). Guiyang est aussi le siège de l’entreprise Global Big Data Exchange (GBDEx), la première, et la plus grande, plateforme de commercialisation de mégadonnées en Chine, propriété de la région, avec des pouvoirs publics qui sont à la fois vendeurs et acheteurs de milliards de données (anonymisées).


Tableau de bord de la GBDEx qui commercialise des données à destination d’entreprises chinoises

La « Big Data Expo » : collaborer autour des données

Pour renforcer la visibilité de cette volonté d’investissement dans le big data, Guiyang accueille chaque année la « China International Big Data Expo », sorte de VivaTech chinoise, avec des conférences qui affichent la stratégie nationale autour de l’IA. En pleine guerre commerciale avec les Etats-Unis, le discours d’ouverture du président Xi Jinping a mis cette année en avant l’importance de la collaboration autour de la donnée. Il appelle à une « coopération internationale autour du numérique », soulignant que les pays « doivent renforcer leurs liens et approfondir leurs échanges » pour saisir les opportunités de la « transformation digitale, du travail en réseau et du développement de l’intelligence » dans les domaines juridiques, sécuritaires et de gouvernance autour du big data.

Depuis sa première édition en 2015, l’exposition s’internationalise de plus en plus (même si toutes les diapositives des conférences restent en chinois). L’édition 2019 a attiré 501 entreprises de 59 pays et régions dont 36 impliquées dans la « Nouvelle Route de la Soie ». L’un des invités d’honneur cette année était l’Inde, vaste marché de distribution de la 5G par Huawei.


Entrée de la Big Data Expo Guiyang

Les conférences affichent représentants du gouvernement chinois et entreprises travaillant sur l’IA, de Miao Wei, ministre de l’Industrie et des Technologies de l’information, à Paul Romer, prix Nobel d’économie et professeur à l’Université de New York, en passant par Kevin Kelly, rédacteur en chef et fondateur du magazine Wired, et Lu Yong, vice-président de Huawei. Ce dernier affirme que « la 5G n’est pas seulement une 4G plus rapide. Elle va modifier fondamentalement la façon dont les entreprises mènent leurs affaires et restructurer un large éventail d’industries en utilisant des données pour créer davantage de valeur ».

Baidu y parle d’un « Internet of everything », la combinaison de l’IoT+AI+5G. Egalement au programme : l’IA comme nouveau pouvoir de la société, avec quelques notions de protection de données évoquées par le président d’Huawei Cloud et une forte implication écologique, ou encore des voitures autonomes (qui n’arriveraient pas avant 15 ans selon le Dr. Guobin Wu du AI Lab de Didi), avec un programme pilote qui court depuis 2016, une avancée importante, surtout « pour les femmes », un genre d’allusion que l’on a le droit de faire en Chine. Kevin Kelly évoque des méga-ordinateurs constitués des puces de nos appareils connectés et l’importance du « edge computing », tout en soulignant que le « Big Data without big AI is a big headache ».

La partie exposition accueille, entre autres, Huawei, Alibaba, Dell, Tencent, CCTV, voitures autonomes de HanKaiSi, et même Google, mais pas dans sa fonction de moteur de recherche. Google présente la section Asie de Google Arts & Culture et des ombres chinoises générant des vidéos d’animation.  


Les ombres chinoises chez Google 

Un forum franco-chinois pour la coopération dans l’IA

2019 est l’année du 55ème anniversaire de la collaboration franco-chinoise et c’est aussi la première participation de la France à la Big Data Expo dans le cadre d’un forum franco-chinois. Airbus et Dassault y présentent le transport de demain, l’entreprise Yidu Cloud démontre les possibilités de la médecine augmentée par l’IA – notamment dans la recherche du cancer -, et Lu Qingjun, directeur du Centre national de télémédecine et de médecine Internet, propose d’établir une norme internationale des données de santé pour coopérer dans la prévention et le contrôle des principales maladies.

A l’initiative du Hub France IA, sous le haut patronat de Cedric O, Secrétaire d’Etat chargé du Numérique, et avec la Guiyang Big Data Development Administration, soutenue par le gouvernement chinois, a été signé un protocole d’accord sur une coopération autour de la data. Antoine Couret, président du Hub France IA, souligne, comme le président chinois, l’importance de la collaboration internationale pour l’avenir de l’IA.


Signature d’un protocole d’accord sur la collaboration autour des données, entre le Hub IA France et la Guiyang Big Data Development Administration 

Une plateforme d’échange de données entre la France et la Chine pourra aider à faire progresser les travaux d’analyse de données dans des secteurs stratégiques comme la Santé et le Transport. Les échanges d’étudiants entre les deux pays et la mise en place de projets de recherche communs (à l’instar du MIT CHIEF) sont un autre enjeu pour faire émerger des talents en ingénierie de la donnée, suggère par Françoise Soulié-Fogelman, conseillère scientifique du Hub France IA, qui vient d’enseigner pendant trois ans l’Intelligence Artificielle à l’Université chinoise de Tianjin.

Hangzhou, rencontre d’Histoire et de High Tech sur fond de Edge computing

Après trois jours à Guiyang, la prochaine étape de notre voyage est Hangzhou dans la province de Zhejiang. Région d’origine du célèbre thé Long Jing, résidence des Empereurs chinois au bord du lac de l’Ouest, considérée comme l’une des plus belles villes de Chine, Hangzhou est également la ville natale du fondateur d’Alibaba et le siège du géant d’e-commerce. C’est d’ailleurs Alibaba qui optimise le trafic local sur les routes en analysant des informations issues de drones, alarmes, caméras, smartphones et voitures connectées.

Au carrefour entre traditions et high tech, c’est à Hangzhou que l’on retrouve l’une des entreprises qui nous accompagne depuis l’aéroport aux conférences de la Big Data Expo, en passant par l’entrée de l’hôtel et chaque arrêt au feu : HIK Vision, numéro un de la surveillance vidéo, sur la liste noire de Donald Trump. Comme pour la plupart des entreprises en secteur stratégique, 51% de HIK Vision sont détenus par l’Etat chinois. 13 000 ingénieurs R&D travaillent à l’amélioration de la détection d’image, jusqu’à l’identification d’une personne par sa façon de bouger.

Des caméras pour gérer les stocks de magasins, optimiser le trafic, surveiller des prisons (comme celle de Lille en France) ou encore, dissimulés dans un ours en peluche, pour garder les enfants à la maison. On retrouve ici la tendance du passage du Cloud au Edge computing déjà évoquée à la Big Data Expo, et à l’intégration de l’intelligence directement dans le terminal pour se passer des latences de la connexion à distance. Avec un enjeu important pour toutes les industries similaires en Chine : s’affranchir de la dépendance des puces américaines pour créer une « AI on chip » made in China.

C’est justement le challenge de Robsense, fabricant de drones pour des vols en formation. Situé dans le plus grand bâtiment du monde (encore une histoire d’échelle) dans la HighTech Zone “5050plan” de Hangzhou, qui héberge un centre de recherche en IoT, l’équipe de jeunes chercheurs de Robsense travaille sur un contrôle intelligent des drones, tout en mettant à disposition leur code en Open Source.


Dans les bureaux de Robsense

Une innovation avec des données de l’utilisateur pour utilisateur

Dernière étape de notre voyage : Pékin. C’est dans la capitale chinoise que se concentre près de la moitié des licornes, dont Didi, l’Uber chinois. L’un des points forts de l’innovation en Chine est sa grande sensibilité à l’expérience utilisateur. Des applications parfaitement ergonomiques (et addictives) qui permettent de passer sa vie avec les BATX et leurs écosystèmes de services (copiés par les GAFA), en répondant à chaque besoin du quotidien. Combiné à des utilisateurs très connectés, peu frileux de nouvelles technologies et nouveaux usages (comme partout en Asie), elles sont la clé du succès de la stratégie Big Data chinoise. 

Achats groupés sur Meituan, e-commerce sur Pinduoduo, cadeaux virtuels sur des plateformes de streaming, shortvideos sur Kuaishou (l’appli à succès de la Big Data Expo, soutenue par Tencent et concurrent de TikTok), binge-watching sur iQiyi, le Netflix chinois du contenu, dialogue avec les assistant vocaux Baidu, discussions sur Blued, premier réseau social homosexuel chinois, retouches de photos sur Meitu (avec la techno Face++ et Face ID de Megvii), partage d’expériences tendance sur Xiaohongshu (Le petit livre rouge), commerce phygital dans les magasins digitalisés par Alibaba (avec Auchan et Taobao) ou encore cabines de karaoké dans les aéroports, la récolte des données se fait de façon ludique jusqu’au « Smile to pay » avec Ant Financial


Xiaohongshu à la Big Data Expo

Les utilisateurs chinois trouvent l’offre proposée en retour assez intéressante pour adhérer à la collecte des données. Ant Financial, la filiale financière d’Alibaba, met à disposition une « Digital fintech for all », avec par exemple, un service de micro-crédits facilement débloquables grâce aux données utilisateurs disponibles (3 secondes au lieu de 2 mois d’attente), et une protection contre les escroqueries basée sur la blockchain Open Ant BaaS. Le « New Retail » prôné par Jack Ma porte ses fruits auprès de 80 millions de commerces jusqu’au petit vendeur de rue.

La recommandation intelligente chez ByteDance

Le succès de ByteDance se fonde notamment sur une recommandation personnalisée plus efficace que celle de Facebook, développée dans son laboratoire IA. 

En sept ans, ByteDance est devenue la start-up la mieux valorisée du monde (75 milliards de dollars). Lancée dans un petit local près de l’Université de Beijing, le nombre d’employés de l’entreprise ne cesse d’augmenter depuis sa fondation, proportionnellement à son expansion mondiale, avec une présence, à ce jour, dans 150 pays et 75 langues. Une partie importante des employés est notamment chargée de contrôler les vidéos, après un rappel à l’ordre par le gouvernement chinois pour diffusion de « contenus vulgaires« .

Son produit le plus connu à l’international est l’application de vidéos courtes TikTok, qui est en train de faire de l’ombre aux autres réseaux sociaux installés à l’Ouest, surtout auprès d’un public féminin (très) jeune. En France, plus de la moitié des jeunes filles de 11 à 14 ans l’utiliseraient (selon Génération Numérique).

La Chine a sa propre version de l’application TikTok, Douyin, avec une exigence différente en rapport aux « valeurs centrales du socialisme ». A l’image d’autres réseaux sociaux, la plateforme ne cesse de s’enrichir de nouvelles expériences, à coups de live streaming, e-commerce et partage d’expérience voyage avec #TiKToKTravel. Le modèle de succès est le même que dans l’autre application phare de ByteDance, Jinri Toutiao (« À la Une aujourd’hui »), qui propose grâce à un apprentissage automatique continu basé sur les GAN (Generative Adversarial Network), des contenus qui correspondent à des centres d’intérêt et des habitudes, avec un succès fulgurant. Elle affiche un temps passé dans l’application de 74 minutes par jour (+50% par rapport à Facebook, et +12% même par rapport à WeChat).


Le siège de ByteDance, dans un ancien musée de l’aéronautique à Pékin

Big Data en Chine, une gouvernance à double tranchant

Hôtels Alibaba, hôpitaux Tencent, services publics via WeChat (qui est en fait devenu synonyme de smartphone) – les liens étroits entre entreprises et plateformes dans des domaines stratégiques du Big Data et le gouvernement chinois ne sont pas un secret. La loi interdit aux banques d’être hébergées sur des clouds privés, les données des Chinois n’ont pas le droit de sortir du territoire, les informations pour la reconnaissance faciale utilisés dans AliPay proviennent du système national de sécurité, Zhima Credit d’Ant Financial est partenaire technologique du programme national de « Crédit social », et en février 2019, la structure gouvernementale responsable de la planification en Chine a inauguré un laboratoire d’IA en partenariat avec Baidu.

Le système du “Crédit social” basé sur la collecte d’informations sur les réseaux sociaux et via 170 millions de caméras de surveillance intelligentes serait en effet impossible sans la coopération des BATX. Une imbrication qui peut paraître redoutable du point de vue d’une démocratie occidentale, mais qui est très bénéfique pour l’entraînement de l’intelligence artificielle, là où l’Europe s’auto-censure avec le RGPD et où les Etats-Unis se lancent dans des discussions anti-trust.

Mais tout comme l’Europe, la Chine prône une « AI for good » pour relever les défis sociétaux : exode rural, réduction de la pauvreté (avec succès), pollution, pluralité sociale, déserts médicaux… Un écosystème très bien décrit dans le rapport d’Aifang Ma L’Intelligence Artificielle en Chine : un état des lieux


Collaboration entre plateformes et gouvernement chinois, source : Mary Meeker, Internet Trends 2019

Les données sont une valeur marchande et un outil nécessaire aux scientifiques pour entraîner les algorithmes. C’est notamment dans cet objectif que la France vient de signer l’accord de principe avec la Chine, un pays au premier plan mondial en termes de ressources numériques disponibles, pour avancer dans la recherche sur l’ IA et l’analyse de l’échange de données. Tout en maintenant une IA éthique, mais en passant désormais à l’étape opérationnelle, l’Europe peut, dans certains domaines, se permettre une ouverture vers des partenaires puissants, et en même temps travailler sur la mise en place d’un écosystème indépendant basé sur la collaboration entre pays membres, dans l’objectif de la création d’une véritable plateforme européenne de données.   


Salle de réunion chez nihub, Centre d’innovation basé à Hangzhou, qui aide les entreprises internationales dans leur approche du marché chinois

* Un grand merci à Xu Bo, représentant de la Big Data Expo en France
Photos : KB, sauf image de couverture, Shanghai, par Li Yang sur Unsplash

A voir : Une animation sur le site d’Abacus qui dessine l’écosystème tech chinois

En 2024, la moitié de la population mondiale devrait être couverte par la 5G

Par Alexandre Bouniol, France Télévisions, MédiaLab

La bataille pour la 5G fait rage entre les télécoms. Les enchères pour l’attribution des fréquences ne finissent plus de monter en Allemagne, la Chine a récemment déclaré qu’elle accordera bientôt des licences pour son exploitation commerciale et les premières offres grand public commencent à apparaître dans différentes villes aux États-Unis. Pourquoi tant d’engouement dans le monde ? Le rapport Ericsson sur la mobilité nous donne quelques premiers éléments de réponse.

Le mobile connecté, premier levier de croissance pour la 5G

L’avenir de la 5G s’annonce radieux. En l’espace de 6 ans, sa mise en réseau passe de quelques laboratoires de recherche des télécoms à une couverture de près de 65% de la population mondiale en 2024 pour les estimations les plus ambitieuses.

Estimations du pourcentage de la population mondiale couverte par la 5G

Le rapport souligne l’indissociabilité de la croissance de la 5G avec celle de l’adoption du mobile connecté (smartphone) dans le monde. Ne serait-ce qu’au premier trimestre 2019, on compte plus de 44 millions nouveaux abonnements à une offre mobile. L’équivalent de l’ensemble de la population de l’Argentine. Au total on en recense 7,9 milliards dans le monde, dont 6 milliards comprenant une connexion à internet (au moins 2G).

Le marché mobile de la 5G est potentiellement énorme. Le rapport estime à « 10 millions le nombre de souscriptions à une offre 5G à la fin de l’année 2019 ». Chiffre qui devrait atteindre les « 1,9 milliards à la fin de l’année 2024 », soit environ « 20 % de l’ensemble des souscriptions mobile dans le monde ».

La croissance de la 5G n’atteindra pas la même vitesse selon la partie du monde dans laquelle on se trouve.

Sans surprise, c’est en Amérique du Nord où la croissance sera la plus forte. « La commercialisation de la 5G s’impose à un rythme rapide » alerte le rapport. Les offres mobile 5G devraient même être majoritaires en 2024, puisqu’elles représenteraient 63% du total des offres mobile.

L’autre partie du monde où la 5G croît rapidement est l’Asie du Nord Est ; entendez par là la Chine, le Japon et la Corée du Sud. En 2024, les offres 5G devraient représenter presque la moitié des offres mobile, soit plus que les offres 4G.

L’Europe Occidentale complète ce trio de tête avec des prévisions estimées à 40% d’offres mobile 5G en 2024, mais minoritaires par rapport aux offres 4G. Le rapport n’en fait pas état, mais ce retard pourrait s’expliquer par la guerre commerciale que se livre Etats-Unis et Chine. Il se pourrait que Huawei se retrouve privé du marché Européen et ralentisse le taux de couverture européen.

Des usages propices au développement de la 5G

On le sait, le potentiel des usages de la 5G est démentiel, surtout dans l’univers mobile. La 5G devrait évidemment s’appuyer sur ces tendances lourdes pour continuer son développement. « Plus d’utilisateurs, plus de connexions, une vitesse accrue, et plus de vidéo mobile » affirme Jean-Paul Simon,  Directeur et fondateur de JPS Public Policy Consulting, une société de conseil spécialisée en stratégie et réglementation des médias et des télécommunications. L’ensemble de ces tendances engendre la même conséquence : une hausse considérable du trafic mobile. Entre les premiers trimestres 2018 et 2019, le trafic mobile a augmenté de 82%. Le poids de la vidéo est majeur et est même amené à s’accentuer dans les années à venir.

« La prise de pouvoir » de la vidéo dans le volume de données est à associer à « la croissance des services SVoD […] et à la perpétuelle évolution d’une meilleure résolution des écrans ».

La 5G permettra de lire quasiment instantanément les vidéos, mais ouvre aussi de nouvelles perspectives. Notamment en ce qui concerne « les médias immersifs comme le streaming de vidéos 360 ou la réalité augmentée et virtuelle » qui pourront être diffusés de manière beaucoup plus fluide.

Des médias expérimentent déjà la 5G, principalement dans la transmission en direct d’événement sportifs. C’est déjà le cas de France Télévisions à l’occasion de Roland Garros ou encore du diffuseur Telstra en Australie « avec des matches de l’Australian Football League ».

L’IoT, l’autre enjeu de la 5G

Smart cities, voitures connectées, montres connectées, etc. Les mobiles ne sont pas seuls. L’univers de l’Internet of Things est également amené à jouer un rôle dans le développement de la 5G, d’autant plus lorsque l’on sait l’importance qu’il est amené à prendre dans les années à venir avec des dizaines de milliards d’objets connectés dans le monde d’ici 2025. Le rapport distingue quatre catégories d’IoT qui ne nécessitent pas tous les mêmes besoins en connectivité.

 

La 5G devrait a priori connaître deux temps de croissance : un premier intimement lié à l’adoption de smartphones de plus en plus performants dans le monde dont on pourra percevoir directement les effets dans les cinq ans à venir. Une première forme de démocratisation réservée aux territoires les plus riches de la planète. Un second lié au développement d’industries qui demande un maillage particulièrement efficace de la 5G dont on ne pourra voir les premières applications qu’aux alentours de 2024.

 

Image by mohamed Hassan from Pixabay 

L’âge des possibles

Par Julien Breitfeld, Creative technologist chez Fabernovel

Tout le monde a en mémoire la photo d’un Mark Zuckerberg déambulant, goguenard, lors de l’événement S7 de Samsung à Barcelone en 2016, au milieu d’une foule équipée de casques VR. Venu vanter les mérites du logiciel Oculus, racheté 2 ans plus tôt, le jeune PDG déclarait la réalité virtuelle, « the next platform » : une plateforme expérientielle, ludique, et sociale. 

Trois ans plus tard, Facebook a lancé 3 versions de son propre casque VR (Oculus Go, Rift et Quest), Google son casque DayDream, Microsoft en est à la version 2 de Hololens, MagicLeap commercialise enfin ses lunettes AR, et le bruit court qu’Apple dévoilerait les siennes en 2020.

La course à la technologie

Le monde qui arrive, que l’on peut appeler Metaverse, et qui est repris à gros traits par le schéma en couches de MagicLeap, s’inspire du modèle OSI, qui caractérise le fonctionnement du réseau. Et comme ce modèle a été décliné économiquement (les fameux services OTT), on assiste à une consolidation des couches et une tentative d’appropriation, qui n’est pas sans rappeler les 40 dernières années de l’industrie informatique.

Coté hardware et OS, Apple et Google mènent le bal, avec Arkit et ArCore, et les tentatives de Facebook, MagicLeap ou Microsoft de percer sur des devices et des OS propres.

Au-dessus, la couche de modélisation 3D lorgne du côté des plateformes, avec Unity, Unreal Engine (porté par le succès de Fortnite) ou encore CryEngine. On notera également l’incursion d’Amazon sur ce segment, avec le moteur de jeu Lumberyard.

Un cran encore au-dessus, des infrastructures de développement comme le Lens Studio de Snapchat, ou la Real World Platform de Niantic, dont le CEO, John Hanke, déclare ses ambitions de « Social AR Platform », en voulant opérer pour la réalité augmentée « like Amazon Web Services does for cloud computing ».

Bien évidemment, toute l’industrie a en tête l’énorme erreur d’IBM dans les années 1980, abandonnant le cœur de valeur (l’OS) à Microsoft. Et tous les acteurs suscités de jouer sur un, deux ou trois couches, à l’instar de Niantic développant en propre les franchises Pokemon Go ou Harry Potter.

C’est d’ailleurs avec cette problématique en tête que Mark Zuckerberg interpellait en 2015 son comité de direction et justifiait son intention de procéder à l’achat de Unity pour détenir encore une couche et avoir un pouvoir de négociation avec les fournisseurs d’OS :

« Nous sommes vulnérables sur les mobiles qui fonctionnent avec les services de Google et d’Apple car ils forment de grandes plates-formes mobiles […] D’un point de vue temporel, nous en tirerons avantage dès que la prochaine plate-forme deviendra omniprésente et que le temps passé dans un monde essentiellement mobile dominé par Google et Apple est réduit au minimum. Plus cette période est courte, moins notre communauté est vulnérable aux actions des autres ».

Et même si dans l’esprit du PDG à capuche, la réalité virtuelle mettrait 10 ans à percer, il incombait à l’entreprise « non seulement gagner la bataille de la VR/AR, mais aussi d’accélérer son arrivée sur le marché ». Cette même stratégie était déployée par Google, lequel proposait d’abord le cardBoard (en openSource), puis sa plateforme VR Jump, et créait dans la foulée son propre studio de création Spotlight Stories, tous deux fermés depuis pour se concentrer sur l’AR, avec Playground.

Quand on parle d’AR/VR, Il ne faut évidemment pas s’arrêter au gaming, bien souvent la porte d’entrée des technologies chez les geeks précurseurs, qui va ensuite infuser à mesure que ces mêmes geeks vieillissent. Les filtres Snap ont de fait bien accéléré l’adoption de l’AR, et des secteurs tels que l’industrie de la beauté, de l’habillement ou du luxe ont naturellement sauté le pas pour proposer des essayages virtuels et tests « grandeur nature ».

par Benoit Talabot, directeur artistique fabernovel

Ces avancées rapides sont le fait de la montée en puissance des processeurs graphiques, les GPU, qui calculent plus vite que les CPU. Rendus incontournables par l’interface graphique essentielle aux smartphones, ils ont également permis de développer concomitamment l’autre avancée technologique majeure de ces 10 dernières années, « l’intelligence artificielle ».

En effet, les processeurs graphiques permettant de générer des modèles 3D complexes (des millions de vertex et de shaders) sont également très efficaces dans le calcul statistique. L’intelligence artificielle est, n’en déplaise aux néo-luddites, très loin de Skynet. Il s’agit majoritairement de modèles mathématiques de régression linéaire, qui permettent de prédire des occurrences en se basant sur de très grands ensembles de données.

On voit donc un seul et même processeur capable de réaliser des deepFake, vidéos plus vraies que nature se basant sur un modèle d’entrée pour les expressions du visage, et un autre pour réaliser l’image cible ; si le procédé n’est pas nouveau, sa démocratisation l’est : le prix d’un GPU d’entrée de gamme est de 1 000 €.

Construction d’un nouveau réel

Ce mouvement de construction d’un nouveau réel n’est néanmoins pas réduit à un téléphone mobile ou un casque de VR : de Red Dead Redemption et son écosystème plus vrai que nature à des égéries virtuelles interagissant avec des mannequins bien réels (dans la dernière publicité Calvin Klein), de l’intégration 3D dans les live de WeatherChannel pour figurer les effets d’un ouragan aux mannequins générés par ordinateur, de la fausse vidéo d’Obama aux avatars chinois de l’agence de presse chinoise Xinhua, de la production du prochain Roi Lion à l’évolution de la Royal Shakespeare Company, la représentation du réel n’est plus simplement sa captation, mais dorénavant son calcul.

Image tirée du jeu Red Dead Redemption

Nous vivons l’écriture d’une nouvelle histoire, à mi-chemin entre science-fiction et réel, la puissance des processeurs permettant d’anticiper, de virtualiser, de communiquer de la plus simple des manières en se basant sur l’interface naturelle du monde, le monde lui-même.

« Nous vivons l’écriture d’une nouvelle histoire, à mi-chemin entre science-fiction et réel »

MagicLeap, en dévoilant son prototype Mica, représentation virtuelle d’une personne humaine, a introduit la convergence AR/AI : le prototype interagit avec l’utilisateur, que ce soit avec le langage corporel, le « eye tracking » ou les expressions faciales ; MICA est une IHM qui reproduit le comportement humain, afin de rendre les interactions totalement naturelles.

Les interactions entre les humains s’effectuent à différents niveaux : le texte seul via l’écriture, la voix (téléphone), le face-à-face. Pour chaque niveau, des paramètres sont nécessaires pour la compréhension : on emploie l’italique ou le gras, la MAJUSCULE fait l’objet d’un compromis de la nétiquette concernant sa hauteur (CRIER) ; les émoticônes et emojis ont fait leur apparition pour ajouter du contexte. La voix a fait l’objet de conventions, du chuchotement au cri ; le face à face fait intervenir le langage corporel, tels que les expressions du visage ou le langage des mains.

Dans la société du Metavers en construction, l’avatar faisant office d’IHM doit singer le plus précisément toutes les composantes de l’expression, afin de ne pas en dénaturer les subtilités, puisque le diable se cache dans les détails. Poker Face ! Et cette IHM dispose de nouvelles infrastructures, qui se retrouvent à égalité dans le palmarès StackOverflow des développeurs avec Node.js, TensorFlow ou encore React.

Ce n’est qu’une question de temps avant que Google, propriétaire de la première représentation de l’espace, Google Earth, n’intègre ses fichiers kml et kmz dans Google Earth VR. Déjà, il commercialise son API et adapte le jeu iconique Carmen Sandiego ; combien de temps donc encore pour que l’expérience immersive permette, non seulement de se rendre sur la 5e avenue à New York, mais de visiter le dernier concept store de Nike et d’y faire ses courses ? Combien de temps pour assister à un concert privé de Childish Gambino, en 3D et en live, après sa première expérience immersive ? Combien de temps pour qu’un dispositif d’AR soit suffisamment adapté à l’utilisateur pour qu’il ne le porte en permanence, et se meuve dans son propre musée ? Combien de temps pour que Mica ne remplace Alexa ou Siri, et ne devienne le compagnon (ou l’avatar) de tout un chacun ?

 Lorsqu’on parle en Europe d’infrastructure souveraine, de contrôle des réseaux sociaux ou de « l’IA » produite par les GAFA, on oublie une chose essentielle : cette bataille est déjà perdue et Américains comme Chinois ont déjà un pied dans un nouveau territoire, celui de Ready Player One.

Et le champ des possibles extraordinaire qui s’ouvre à nous ne doit pas nous faire oublier que ce nouveau monde n’est pas un bien commun et que notre vie numérique, faite d’AR, de VR, d’IA et d’interfaces, sera définitivement au-delà de l’espace et du temps des nations, dont les règles ont près de 4 siècles. Si un âge des possibles se dessine sous nos yeux, c’est à nous de l’écrire.

 

Photo de Sebastian Voortman via Pexels