Les 3 pistes du président de l’ARCEP pour hacker les GAFAs !
Par Alexandra Yeh et Emilie Balla, France Télévisions, Direction de la Prospective
À peine sorti de l’adolescence, le web serait-il en train de renier les idéaux de son origine ? Internet se recentralise en effet autour de quelques grands intermédiaires, dont les GAFAs sont les ambassadeurs les plus visibles. Aucune règle ni décision politique ne semble capable de les arrêter. Peut-on pour autant confier l’avenir du monde aux mains de quelques multinationales, aussi innovantes soient-elle ? N’essayons pas de construire des murailles de Chine pour arrêter ces nouveaux barbares. Battons-nous avec leurs propres armes, utilisons la puissance des réseaux et de la data !
« Bref, hackons les Gafas pour qu’internet reste notre bien commun », a exhorté Sébastien Soriano, président de l’ARCEP, le gendarme des télécoms et donc un peu d’Internet, ce week-end à la Gaité Lyrique lors du Festival Futur en Seine.

Pour les sceptiques, Sébastien Soriano cite un chiffre : en 2013, les GAFA auraient généré l’équivalent du PIB annuel du Danemark, tout en employant dix fois moins de personnes. Cette domination sans partage se fonde sur des effets de réseau, qui reposent sur un phénomène très simple : un réseau n’a d’intérêt que si notre entourage y est aussi. Dès lors, on comprend vite comment Google ou Facebook ont pu attirer des milliards d’internautes et devenir des mastodontes.
En choisissant de recourir aux services de ces quelques plateformes, nous avons subrepticement basculé vers ce que Sébastien Soriano appelle une « consocratie » mondiale. Nous serions en effet passés d’Etats démocratiques (pour la plupart) à un monde dirigé par la colonisation informationnelle, pour reprendre l’expression de Louis Pouzin, l’un des pères d’internet, où quelques personnes collectent et exploitent toutes les informations mondiales.

Nous avons voté avec nos clics, avec nos choix de consommateurs, et nous avons instauré un système parallèle de gouvernement dans lequel nous avons confié le pouvoir aux quelques grands milliardaires à la tête des grandes plateformes, de Mark Zuckerberg à Elon Musk en passant par Peter Thiel.
Mais aujourd’hui, une question se pose : peut-on s’appuyer sur ces quelques milliardaires pour construire l’avenir de l’humanité ? Et surtout, comment éviter la concentration toujours plus importante des plateformes et reprendre le contrôle sur nos données ?
Le président de l’ARCEP évoque ainsi trois pistes pour détrôner les GAFAs, ces géants du web connus sous le nom de Google, Apple, Facebook et Amazon.
1« Pour peser la France doit trouver son Google »
Sébastien Soriano parle d’une première solution, qui certes ne répond que partiellement à la question, mais établit déjà un panorama clair des problèmes actuels. Pour exister face aux géants du web, il est nécessaire de se faire une place dans cette course mondiale, de parvenir à peser en tant qu’européens sur le marché international, dominé par dix milliardaires dont la force réside dans la connexion en réseau.
Mais pour cela il faut proposer de la diversité : « avoir un Zuckerberg européen, mieux encore une femme aussi emblématique que le patron de Facebook, ou un musulman à la hauteur de Mark Zuckerberg », car pour Soriano « le but à atteindre c’est le monde » !
Et selon lui, la France est encore à la traîne dans le domaine de l’excellence, car elle se trompe de priorités. « Nous devrions créer des écoles de titans, des centres dans lesquels l’état d’esprit serait de viser la rapidité et non plus la perfection ». Il pointe du doigt le manque d’ambition des startups françaises, qui rêvent seulement de se faire racheter par une boîte du Cac 40 ou par Google. Il cite cette phrase connue de la Silicon Valley ; « Fail but fail fast », vous avez le droit de vous tromper, mais trompez-vous rapidement, pour rebondir et devenir les nouveaux Google !
2« Redistribuer façon puzzle »
Une autre solution pour hacker les GAFAs serait de « redistribuer les ressources à la manière d’un puzzle » en faisant éclater les grosses entreprises en morceaux, en les démantelant et les vendant par appartements.
Tout comme cela a déjà été fait avec le marché des télécoms français il y a une vingtaine d’années, rappelant que ce n’est pas si farfelu que cela. Ouvrir le marché à la concurrence, démanteler les puissants opérateurs économiques de l’internet, et les obliger à vendre certaines parties à de plus petits acteurs, pour permettre au marché d’émerger. Et redistribuer les pouvoirs pour éviter cette concentration dans les mains de ces mêmes milliardaires à qui on confie nos vies en ligne.

3Réinventer les acteurs et services
.@Sorianotech : » La réponse est aussi citoyenne, ce qui suppose aussi de barbariser l’Etat » #FENS2016 pic.twitter.com/WdxCpRSiAe
— ARCEP (@ARCEP) 10 juin 2016
La mise en réseau des personnes et des pensées permet de rendre les individus davantage autonomes. C’est une des forces des géants du web, qui ont également utilisé ces puissances de la data ou de l’intelligence artificielle. Afin que nous, Européens, puissions nous battre à armes égales face à eux, il faut justement « utiliser leurs outils, ces nouvelles technologies, la multitude et la richesse des réseaux ».
Cela permettrait de redonner du pouvoir aux individus et de redéfinir des produits qui pourront remplacer ces acteurs qui nous paraissent incontournables, mais dont on peut pourtant se passer. Selon Sébastien Soriano, la solution réside dans l’« ubérisation » ou plus précisément la « blockchainisation » afin de briser ce lien très fort établi entre les consommateurs et les entreprises, qui ont pris la place des Etats. Ce que Soriano entend par là, c’est renverser la balance en redonnant un sens à la démocratie qui s’est laissée dépasser par ce qu’il appelle la « consocratie ». Attendre de ces plateformes qu’elles soient loyales, ne suffira pas, ajoute-t-il.
Le défi c’est de s’organiser. La société dans son ensemble doit pouvoir contrer les GAFAs, qui ne sont que très peu contrôlés par rapport aux politiques.
Cette année Futur en Seine hacke le futur !
Futur en Seine, le plus grand festival gratuit du numérique et de l’innovation en Europe, ouvre ses portes ce jeudi pour sa 7ème édition. Les conférences, keynotes et ateliers de démonstrations seront répartis entre la Gaîté Lyrique et le Carreau du Temple.
Sujets incontournables de l’actualité tech en ce moment — réalité virtuelle et intelligence artificielle seront évidemment au coeur de tous les débats — mais Futur En Seine sera aussi un lieu de découvertes et d’échanges entre le public, les professionnels et les startups.

L’occasion, pour les lecteurs de Méta-Media de rencontrer ces startups françaises présentées ces derniers jours sur nos réseaux sociaux, et de tester leurs technologies. Ces entrepreneurs français et internationaux exposeront leurs inventions du 9 au 12 juin au Village des innovations. Sept thématiques, du sport, à la data en passant par le business seront abordées à travers 150 projets innovants qui ont été séléctionnés, pour appréhender au mieux le futur.
France Télévisions sera également de la partie et proposera à celles et ceux qui n’ont pu se rendre à Roland Garros, de créer leur avatar en 3D, grâce à la cabine d’avatarisation de Silkke.
Tous les jours, Méta-Media vous fait gagner par tirage au sort 5 avatars : rendez-vous sur notre compte twitter ! Il suffit de suivre notre compte et de retweeter le tweet gagnant du jour. Pour ceux qui auront manqué d’un peu de chance, on vous donne un code promo de 2 euros : FESFTV3D.
Retrouvez notre Best of Snapchat sur les startups françaises de Futur en Seine:
Cette année, Futur en Seine propose — via son cycle de conférences — un manifeste : Tous hackés ? Tous hackers !
Oui, la technologie hacke aujourd’hui notre société, notre manière de vivre, de produire, de nous divertir, de faire du sport, de communiquer, d’apprendre, de vivre ensemble, mais aussi de plus en plus nos cerveaux, nos corps…

Ce ne sont plus seulement les joueurs qui changent, c’est le jeu lui-même
Le Festival a voulu regarder avec optimisme — mais aussi lucidité et sens critique — les évolutions liées au numérique dans nos vies : automatisation, dématérialisation, connexion permanente, virtualisation, humains augmentés….
Face à l’inquiétude que peuvent provoquer ces bouleversements économiques, sociaux, culturels, Futur en Seine affirme que le numérique est aussi un levier puissant pour (re)prendre la main sur notre avenir, démoder les modèles, donner la capacité d’agir et de contribuer, en un mot : replacer plus que jamais l’humain au cœur de la technologie.
Plusieurs mondes numériques sont possibles, à nous tous de choisir celui dans lequel nous voulons vivre.
Futur en Seine propose cette année encore d’explorer les raisons et les moyens de nous engager dans cette mutation sociétale historique, notamment grâce à 10 grandes conférences.
Pour porter cette vision, le Festival a souhaité donner la parole à la jeunesse et aux entrepreneurs du changement. Nos speakers incarnent ces nouvelles voix qui proposent un futur innovant, engagé, audacieux, enthousiaste!

Des “innovators under 35”, des jeunes talents qui s’engagent :
Anais Barut, fondatrice de Damae Medical / MIT under 35 ; Kayane, gameuse professionnelle, 52 podium de jeux de combats; Diana Philippova, startup connector chez Microsoft et activiste Ouishare
Des pépites tech françaises: Snips, Qwant, Damae medical, Body Cap, OpenClassroom…
Des “Femmes de tech”: Laurence Devillers (chercheuse en communication humain/machine),Tris Acatrinei (juriste, hacktiviste et fondatrice du projet Arcadie), Cécile Monteil (pédiatre et entrepreneure)…
Ils prendront la parole dans des conférences portant sur l’innovation dans notre quotidien, et sur ma manière de nous en saisir pour repenser demain : la réalité virtuelle qui hacke le cerveau et augmente les possibilités, les incroyables avancées en matière d’intelligence artificielle, l’humain comme corps connecté en miroir avec les robots de plus en plus humains, les nouveaux hackers, la révolution du travail…
Des speakers qui viendront témoigner en format keynote du monde incroyable dans lequel nous vivons:
- Fan Hui champion de jeu de go européen battu par AlphaGo de Google à l’automne dernier,
- Robert Riener le créateur du Cybathlon (première édition des JO des hommes augmentés),
- Salvatore Iaconesi, hacker contre le cancer (il a piraté ses données médicales et les a mises en ligne)…

Hacker, c’est prendre conscience ! Prendre conscience du monde d’avant et chercher à comprendre les mécanismes du monde qui vient ! Et aider les autres à prendre conscience de ce qui arrive ! Ne pas être passif ! Sans doute faut-il commencer par se hacker soi-même !
Pour retrouver le programme des conférences c’est par ici.
Bon festival !
(full disclosure: France Télévisions est donc partenaire de Futur en Seine, et Eric Scherer en est, comme l’an dernier, le commissaire des conférences).
À chacun son contenu : Comment YouTube a réécrit l’histoire de la télévision
Par Danielle Desjardins, Fonds des Médias du Canada. Billet Invité
Cet article, publié sur FMC Veille, est présenté dans le cadre d’un partenariat éditorial entre le Fonds des Médias du Canada (FMC) et Méta-Media.
© [2015] Tous droits réservés.
Cristos Goodrow, directeur de l’ingénierie pour la recherche et la découverte chez YouTube, déclarait en juillet 2015 : « Pour chaque humain sur terre, nous pensons qu’il existe 100 heures de YouTube qu’il aimerait regarder. »
C’est facile à imaginer, étant donné le volume phénoménal de vidéos téléchargées sur le site : selon les calculs de Tubular Labs, une firme de recherche spécialisée en vidéo Internet, YouTube hébergerait environ 1,1 milliard de vidéos. Selon une autre analyse, YouTube accueille plus de 2.000 chaînes qui comptent plus d’un million d’abonnés chacune.
Une quantité phénoménale de vidéos les plus hétéroclites et disparates possibles, où le contenu professionnel côtoie les vidéos de chats mignons, d’enfants involontairement drôles ou encore de mains anonymes qui cuisinent des plats minuscules. Tous les goûts, tous les intérêts, toutes les curiosités y trouvent leur compte.
Un patchwork infini
En 2006, alors que YouTube n’avait qu’un an d’existence, la MIT Technology Review se demandaitsi l’émergence d’un réseau de télévision grand public uniquement diffusé en ligne n’était pas imminente. Offert en preuve de cette hypothèse : le site Break.com, une plateforme d’échange de vidéos née du site Big-boys.com et dont le public cible est constitué d’hommes de 18 à 35 ans.
Parce qu’il rémunérait les créateurs des meilleures vidéos choisies par les utilisateurs, le site semblait mieux positionné pour devenir une télévision Internet grand public que YouTube, « un petit patchwork de contenu créé par les utilisateurs ». Près de dix ans plus tard, YouTube est devenu une force incontournable dans l’univers des médias, tandis que Break.com — qui existe toujours — est resté confiné dans sa niche destinée aux dudes et autres bros.
De « Me at the Zoo », la vidéo qui a inauguré le service le 23 avril 2005 — quelques minutes tournées au zoo de San Diego par Jawed Karim, l’un des fondateurs —, à PewDiePie, le YouTubeur millionnaire aux 40 millions d’abonnés et plus de 10 milliards de visionnements, YouTube est devenu le plus grand espace de narration jamais créé, un énorme patchwork d’éléments hétéroclites.
Les YouTubeurs, ces internautes dont la publication de vidéos sur YouTube est la principale activité et qui, autant que possible, en tirent une rémunération, sont ceux qui accaparent l’attention médiatique, mais on trouve absolument de tout dans ce vaste espace ouvert à toute personne disposant d’une connexion Internet et d’une caméra vidéo.
Tubular analyse les interactions de plus de 100 millions de spectateurs avec des millions de vidéos sur YouTube. L’entreprise a réalisé une compilation du nombre de visionnements moyen pour neuf catégories de vidéos parmi les plus populaires. Un survol de cette compilation donne une bonne idée de la grande diversité des contenus disponibles sur la plateforme.
Selon Tubular, le contenu de YouTube, c’est autant le joyeux mélimélo de la catégorie Gens et blogues qui passe des vidéos virales uniques à la Charlie Bit My Finger aux vidéoblogueurs, indépendants comme superstars millionnaires, que du contenu ludoéducatif produit par des amateurs capables de captiver un auditoire en vulgarisant des notions scientifiques.
Vous trouvez cet article passionnant ? Lisez la suite sur le site du FCM Veille
Vidéo mobile : toute la journée, même sans wifi
Par Barbara Chazelle, France Télévisions, Direction de la Prospective
Le trafic de data mobile a augmenté de 60% entre 2015 et 2016. Cette croissance massive est intimement liée à l’appétit féroce du public pour la vidéo en streaming.
« La consommation de vidéo est progressivement en train de migrer de la TV à la vidéo en streaming sur smartphone » prévient Ericsson qui vient de publier la nouvelle édition de son Mobility Report.
Le téléviseur délaissé pour le smartphone
Le temps passé à regarder la TV et des vidéos à la maison est globalement le même chez les ados et les autres. Ce qui change, c’est l’écran ; le téléviseur est délaissé pour le smartphone. Ce comportement est observé pour tous les âges, mais est plus fort chez les jeunes. Entre 2011 et 2015, la consommation mobile de contenus TV/vidéo à la maison des ados a augmenté de 85% ; ils ont quasiment réduit de moitié le temps passé à regarder un téléviseur. Le changement est moins radical chez les plus âgés : les 30-35 ans passaient 4 heures de plus que les ados devant la TV en 2011. Et c’était encore le cas en 2015.
Une consommation tout au long de la journée, même sans wifi
Conséquence de la mobilité, la consommation de vidéo est plus diffuse dans la journée et le nombre de sessions de visionnage augmente. La consommation de vidéo se fait toujours principalement grâce à une connexion wifi, qui compte pour 85% du trafic de donnée. Mais Ericsson constate un changement majeur de comportement : les jeunes tapent de plus en plus dans leur forfait data mobile pour regarder des vidéos tout au long de la journée.
Aux Etats-Unis, au Japon et en Corée du Sud, l’usage du forfait mobile de data a augmenté de 80% entre juillet 2014 et octobre 2015 pour les applications de vidéo en streaming et de 127% chez les moins de 20 ans.
La demande est telle que 63% des ados interrogés affirment être prêts à payer pour une meilleure connexion mobile (plus rapide et plus homogène sur le territoire)
Selon Ericsson, les ados est le groupe socio-démographique le plus important à observer car leur consommation de vidéos mobile croit rapidement : la vidéo mobile pèse 2,5 GB/mois chez les 30-35 ans, soit seulement un cinquième de la consommation des ados.
Son binaural : comment le produire ?
Par Lidwine Hô, France Télévisions, Direction Innovations et Développements
Après une première introduction aux bases du son binaural, voici la suite de notre dossier consacré à cette technologie de restitution du son en trois dimensions. Dans cette seconde partie, nous présentons ici les différentes méthodes de captation pour fabriquer du son binaural.
Nous avons vu que cette écoute 3D est possible car nos deux oreilles ne perçoivent pas exactement le même son. C’est de cette différence inter-aurale que notre cerveau tire les indices nécessaires à la construction de l’image sonore qui nous donne à entendre la réalité qui nous entoure.
Comment alors, recréer ces indices qui vont permettre à notre cerveau de reconstruire cet espace ?
1Fabriquer du binaural natif
Le binaural natif consiste tout simplement à remettre dans les oreilles de l’utilisateur ce qu’il entend dans la vie réelle. La manière la plus naturelle de fabriquer du son binaural est de reproduire les conditions réelles d’écoute. Pour cela, le moyen le plus évident est de placer deux micros à l’entrée des conduits auditifs d’une personne (réelle ou mannequin artificiel) et d’enregistrer sur deux pistes séparées.
Les avantages de cette technique sont nombreux. Le son reproduit est une restitution presque parfaite de l’environnement sonore, notamment l’image du lieu, la position des sources sonores dans l’espace, la sensation d’externalisation (le fait de ressentir les sons loin de soi) et cela ne nécessite aucune post production.
De plus la mise en place est très simple : il suffit de trouver un élément qui ressemble à une tête avec des pavillons d’oreille réalistes et d’y insérer des micros. L’enregistrement issu de cette captation aura nativement tous les indices nécessaires à la recréation de l’espace par notre cerveau.
Quelques exemples de têtes




Il existe cependant certains inconvénients au binaural natif.
La scène captée contiendra intrinsèquement tous les éléments qui vont permettre au cerveau de localiser les sources sonores. En revanche, il ne sera plus possible de dissocier ces différentes sources sonores. L’image sonore est pour ainsi dire figée : on ne peut pas modifier des éléments de cette prise de son ou changer l’axe d’écoute. La prise de son originale doit donc être parfaitement maîtrisée et presque déjà diffusable au moment de la captation. Cela conviendra parfaitement lorsque l’on souhaite produire une captation très réaliste, comme pour des reportages dans le vif du sujet, des plans-séquence (car on aura une continuité du mouvement), des scènes en subjectif ou encore des contenus immersifs qui ne nécessitent pas de changer de point d’écoute.
Mais cette technique ne permet pas l’interactivité du mouvement. De plus, dans un contexte télévisuel, les processus de production sont régis par différents facteurs tels que la prise en compte de la captation image en simultané, ce qui implique une discrétion du système de captation. La nécessité de produire des flux audio compatibles avec différents modes de restitution ou de configuration de hauts parleurs est une contrainte de plus en plus présente en raison de la multiplication des types de configurations. Ce mode de captation ne sera donc pas adapté à toutes les situations de tournage en télévision, bien qu’il permette de restituer avec fidélité un espace sonore.
Exemples de captation en binaural natif
Roland-Garros 2015
Diverses méthodes sont possibles pour pallier certains de ces inconvénients. Pour les changements d’axe par exemple, une méthode simple consiste à mettre plusieurs têtes à l’emplacement des différents points de captation et de passer de l’une à l’autre. Cette technique a été mise en place sur Roland-Garros en 2015 lors d’une captation Ultra haute définition à trois caméras. Les micros introduits dans les oreilles étaient des dpa4060 protégés par des bonnettes anti-vent.
Les signaux stéréo binauraux issus de chacune des trois têtes on été ramenés via les signaux caméra pour être mixés directement au car régie. Une automation de la console de mixage permettait ainsi de mettre à l’antenne le son associé à la caméra qui était également mise à l’antenne.
La transition d’un son à l’autre se faisait en fondu enchainé automatique sur une durée qui a été ajustée de 400 ms à 3 secondes, sans réussir à trouver un temps de montée et de descente des faders qui convienne à toutes les situations. Il est resté nécessaire de reprendre manuellement les temps de fondu enchaîné en fonction du contenu. Néanmoins, l’expérience s’est avérée concluante en terme de réalisme du son et de positionnement des sources sonore dans l’espace.
Projet de film interactif : « Tantale » de Gilles Porte
Dans ce projet, l’interaction n’est pas liée au mouvement, elle relève d’un choix fait par l’internaute à la place du personnage principal. Le son binaural est utilisé lorsque l’utilisateur se retrouve en situation de devoir faire un choix et qu’il se retrouve dans la tête de ce dernier : le binaural permet alors de créer un effet de contraste pour l’auditeur. Pour cela, tout le film a été entièrement bruité en prise de son classique et en binaural (natif et de synthèse) grâce à deux têtes (Sandy de France Télévisions et La Neumann KU100).
Scène en 360°
Autre dispositif de captation en binaural natif, la scène 360°. Ici, des têtes sont fixées aux caméras, qui se trouvent au centre de l’espace et filment vers l’extérieur.
Un dispositif de captation totalement subjective permet de voir et d’entendre comme si on était à la place d’un musicien, un batteur par exemple sur la photo ci-dessous.

2La synthèse binaurale
La synthèse binaurale est, comme son nom l’indique, la reproduction artificielle des caractéristiques d’un son binaural. Pour la produire, il faut connaître les différences sonores inter-aurales gauche-droite, qui sont produites par la forme de notre tête et notre corps. Pour mieux comprendre ce qui se passe à l’entrée de nos pavillons d’oreille et comment les sons sont modifiés, on effectue ce que l’on appelle des mesures HRTF (head-related transfer function, ou fonction de transfert relative à la tête).
Pour s’assurer de ne prendre en compte que les effets de la tête sur une source sonore émise, on place la personne en chambre anéchoïque, c’est-à-dire une pièce sans écho, dans laquelle les sons ne se répercutent sur rien. Des petits micros omnidirectionnels sont placés à l’entrée des conduits auditifs de la personne ou de la tête à mesurer. On émet alors un son sur un haut parleur, appelé « sweep », enregistré par les deux micros pour obtenir un fichier audio stéréo contenant toutes les différences entre l’oreille gauche et l’oreille droite pour un son émis de cet endroit là. Il ne reste plus qu’à réitérer l’opération en déplaçant la source sonore pour toutes les directions que l’on souhaite mesurer. On obtient ainsi des HRTF(s).
« La fonction de transfert relative à la tête ou HRTF caractérise par une fonction de transfert mathématique les transformations apportées aux ondes sonores par le corps d’un auditeur, principalement la tête, le pavillon de l’oreille et le conduit auditif, qui permettent à l’être humain de repérer l’origine d’un son, tant en azimut (horizontalement) qu’en site (verticalement). »
La synthèse binaurale consiste, à l’aide des mesures HRTF, à appliquer à chaque source que l’on souhaite spatialiser la différence gauche/droite de temps d’arrivée, d’intensité et de fréquence, ceci afin de reconstituer les indices inter-auraux qui permettent au cerveau de reconstruire l’espace tridimensionnel. On utilise alors des logiciels de spatialisation ou des plugs que l’on peut insérer dans une console et qui appliquent à chaque son la fonction de transfert correspondante, en fonction de la position à laquelle on veut le restituer.
Les avantages de cette méthode sont multiples :
- Compatibilité : La synthèse binaurale étant une méthode classique dite de micros d’appoints, où l’on place un micro à proximité de chaque source sonore, elle permet donc de produire des scènes sonores sans changer le processus de captation habituel et de continuer à faire des mixages en stéréo ou en 5.1.
- Maniabilité : Les sources sonores étant toutes enregistrées indépendamment, le processus de binauralisation est appliqué a posteriori et l’axe d’écoute est modifiable après l’enregistrement. Il permet même de rendre le contenu interactif en binauralisant le son à la demande en fonction des préférences de l’utilisateur.
- Personnalisation : La synthèse binaurale permet également de personnaliser l’écoute. L’écoute binaurale étant liée à des paramètres morphologiques (distance entre les deux oreilles, forme du pavillon), ces derniers peuvent être affinés selon la morphologie de chacun afin de restituer une écoute fidèle en trois dimensions. La fonction de transfert devra donc être choisie en fonction du profil de l’auditeur.
3Le mixage binaural sur haut-parleurs virtuels
Le mixage binaural sur haut-parleurs virtuels consiste à binauraliser un contenu multicanal destiné à un set de haut-parleurs pour permettre une écoute au casque fidèle à la réalité. On applique la différence inter-aurale correspondant à la position du haut-parleur à toutes les pistes audio de manière à donner l’impression que chacune provient effectivement de haut-parleurs virtuels.
Ce procédé peut être très pertinent car il permet de faire entendre un mixage à l’auditeur sur un jeu de haut-parleurs parfaitement bien placés dans une acoustique choisie, ce qui est le cas dans la plupart des mixages musicaux. C’est une méthode qui n’a pas la prétention de reconstituer le réalisme d’une scène sonore réelle, mais plutôt de mettre l’auditeur dans les conditions parfaites d’une écoute multicanale, bien placé au centre du système.
Autre avantage de cette pratique, la possibilité de proposer le contenu en un format unique, tout en permettant à l’auditeur de choisir son écoute sur enceinte ou au casque. De plus, le flux n’étant pas binauralisé au départ, la fonction de transfert qui sera appliquée pourra être choisie en prenant en compte la morphologie de l’auditeur. C’est notamment le format de diffusion principal du site NouvOson de Radio France.
Enfin, une autre méthode de captation permettant d’obtenir un rendu en synthèse binaurale est la prise de son Ambisonic. Cette méthode consiste en un micro muni de plusieurs capsules qui enregistrent l’espace sonore tridimensionnel (plus ou moins précisément selon le nombre de capsules) et permet d’en faire une restitution soit sur haut-parleurs, soit au casque en binaural.


Du binaural natif à la synthèse binaurale, en passant par le mixage sur haut-parleurs virtuels, les méthodes de captation du son pour restituer un son en écoute 3D sont donc variées et adaptables à tous les contenus : musique, jeux en réalité virtuelle, compétitions sportives… Les possibilités sont infinies et le son binaural est un pas de plus vers une expérience de plus en plus réaliste, pour proposer de nouveaux modes de narration et vous proposer des contenus toujours plus immersifs !
Industries culturelles et créatives : la parole aux entrepreneurs
Par Emilie Balla et Alexandra Yeh, France Télévisions, Direction de la Prospective
Accompagnement des entrepreneurs, financement de projets, développement en France et à l’international : tous les aspects de l’entrepreunariat culturel ont été abordés, il y a quelques jours à Paris, lors de la 2ème édition du forum « Entreprendre dans la Culture » organisé par le Ministère de la Culture. Des professionnels issus de tous secteurs, de la presse papier au jeu vidéo, en passant par la réalité virtuelle, se sont succédés pour débattre des perspectives des industries créatives en France.
Etat des lieux :
Jeu vidéo : la partie commence
Avec l’explosion du e-sport, le jeu vidéo est en passe de devenir l’un des piliers des industries culturelles et créatives françaises. Le développement de filières de formation spécialisées et des financements proposés par le CNC, la Banque Publique d’Investissement et l’Institut pour le Financement du Cinéma et des Industries Culturelles (IFCIC) ont fait du marché français du jeu vidéo un secteur en pleine expansion.
Lors du Forum, plusieurs entrepreneurs sont revenus sur leur expérience et ont débattu des spécificités du secteur mobile, particulièrement prisé par les nouveaux entrants sur le marché du jeu vidéo car plus accessible que la filière des jeux sur console. Tous s’accordent à dire que le marché des applications de jeu sur mobile est un secteur où la barrière à l’entrée se trouve moins sur la production du jeu que sur sa commercialisation et son marketing. En effet, avec une licence d’entrée sur l’Apple Store à seulement 90$, c’est une profusion de nouvelles offres qui sont proposées chaque jour, et les créateurs d’applications se retrouvent tout de suite en concurrence avec les meilleurs développeurs mondiaux. Une bonne raison, selon Francis Ingrand (directeur de PlugIn Digital), de proposer des jeux en plusieurs langues dès leur lancement. Une condition d’autant plus indispensable lorsque l’on sait que les Etats-Unis et la Chine représentent à eux seuls 75% du marché mondial du jeu vidéo, contre seulement 5% pour la France.
Enfin, pour ceux qui souhaitent se lancer sur ce marché, tous les professionnels du jeu vidéo ayant témoigné au cours du forum se sont accordés sur un conseil clé : l’adaptabilité. En effet, tous ont insisté sur la nécessité de savoir réorienter le processus décisionnel de leur entreprise dans un secteur où les technologies et les usages n’ont jamais évolué aussi vite.

Internet, incubateur de talent(s) ?
C’est la question que posait l’une des conférences dédiées au secteur audiovisuel. Pour les créateurs de contenus, l’essor des plateformes de diffusion sur le web a signé le début d’une nouvelle ère, d’abord en termes de démocratisation de la création : plus besoin de gros moyens pour créer et exposer son œuvre, désormais il suffit d’un simple smartphone et une connexion internet. Une philosophie parfaitement incarnée par YouTube, dont le slogan, « Broadcast Yourself », symbolise plus que jamais l’idée de mettre à la portée de tous les moyens pour diffuser ses créations à une audience mondiale. Avec l’essor de telles plateformes, Internet est ainsi devenu un terrain d’expérimentation privilégié pour les apprentis créateurs et une mine d’or pour les producteurs à la recherche de nouveaux talents.
Si autrefois c’étaient aux producteurs de repérer les artistes susceptibles de plaire au grand public, aujourd’hui ce sont les créateurs eux-mêmes qui s’exposent et se construisent une communauté de fans grâce à la vitrine que constitue Internet. Le revers de la médaille ? Pas facile de se distinguer lorsque notre vidéo est perdue au milieu des 400 heures de contenus mises en ligne chaque minute sur YouTube. La visibilité n’est donc pas toujours au rendez-vous, mais lorsque les YouTubeurs parviennent à accumuler les vues et à gagner en notoriété, un nouvel univers s’ouvre à eux. Ceux qui franchissent le cap des 10 000 abonnés obtiennent en effet le droit d’accéder au YouTube Space, un espace dédié aux créateurs avec mise à disposition d’outils de réalisation et de post-production, qui se veut aussi un lieu de rencontre et d’ateliers pour échanger les bonnes pratiques sur la plateforme. Les plus prometteurs se voient de plus en plus souvent proposer des contrats avec des MCN, ou multi-channel networks, des agrégateurs de chaînes qui les accompagnent dans la gestion de leur audience, des régies publicitaires et des droits de diffusion.
En permettant aux créateurs amateurs de confronter leurs œuvres à une audience mondiale, YouTube est donc bel et bien un incubateur de talent. Mais c’est aussi et surtout une plateforme qui favorise la professionnalisation de ceux qui parviennent à construire une communauté et à se faire repérer.
La réalité virtuelle, nouvelle frontière des industries culturelles
Autre gros dossier abordé par ce cycle de conférences, la réalité virtuelle. Des professionnels d’Arte, France Télévisions, Orange et de la société de production Agat Films & Cie ont été invités à dresser un panorama de ce marché en pleine expansion et à présenter quelques uns de leurs nombreux projets VR. Tous ont insisté sur l’interactivité, la mobilité et la viralité inédites permises par cette technologie, et sur la nécessité de ne pas considérer la réalité virtuelle que comme un simple support de diffusion, mais aussi comme un vecteur de création.
France Télévisions et Arte ont notamment insisté sur un point : la technologie ne doit pas être un prétexte pour la création, elle doit être mise au service de la narration pour proposer une offre culturelle sur tous les écrans. Arte, qui cherche à renforcer son statut de média global européen, explique que la VR lui permet de tester de nouveaux formats et de penser ses programmes sur toutes les plateformes. La chaîne franco-allemande a ainsi présenté plusieurs projets de réalité virtuelle, dont le film « I, Philip », une expérience immersive dans la vie de l’auteur de science-fiction Philip K. Dick, ou encore le jeu vidéo « Sens », une plongée dans un labyrinthe graphique déroutant. Arte s’est également associé à Agat Films & Cie pour créer « Notes On Blindness », une expérience immersive dans la peau de John Hull, un écrivain devenu aveugle à l’âge de 45 ans, acclamée au festival Sundance.
Du côté de France Télévisions, ce sont deux documentaires en VR qui ont été mis à l’honneur : « The Enemy », qui rompt avec l’imagerie traditionnelle de la guerre en permettant au spectateur une immersion dans chaque camp de conflits ancestraux, ainsi que « Le Goût du Risque », un documentaire de France Ô qui nous met dans la peau des sportifs de l’extrême.
Si le marché de la VR est en plein envol et est appelé à évoluer dans les mois qui viennent, les acteurs du secteur s’accordent sur un point : il est encore impossible de tirer des conclusions sur les nouvelles pratiques émergentes. Pour l’heure, les médias précèdent les usages, et après avoir séduit les early adopters avec des premières expérimentations, le plus gros reste à faire : convaincre le grand public de l’immense potentiel de la réalité virtuelle.
Longue vie au papier !
Alors que la plupart des éditeurs investissent dans le numérique, certains tentent le pari osé du tout papier, qui plus est du payant. Valérie Toranian, a délaissé la direction du magazine Elle, pour un challenge bien plus difficile à relever ; celui de reprendre un des plus anciens mensuels français, La revue des deux mondes, qui date de 1829. Depuis son arrivée à la tête du mensuel en décembre 2014, elle a pour objectif de le recentrer sur des thématiques contemporaines et non plus seulement sur les voyages comme c’était le cas à l’origine.
« Notre lectorat est plutôt âgé et prêt à payer 15 euros chaque mois, mais nous avons également la volonté de conquérir un public plus jeune. »
Revenir au papier a aussi été le choix de Franck Annese, responsable du groupe So Press qui comprend notamment les célèbres So Foot, lancé en 2003 et Society, le quinzomadaire de société fondé en 2015. Ce dernier a d’ailleurs été lancé sans numéro 0 ni étude de marché. « Nous voulions surtout quelque chose qui nous ressemblait et non plus faire ce que les lecteurs attendaient de nous », a expliqué Franck Annese pour qui les études de marché étouffent la créativité. Aujourd’hui le succès est au rendez-vous, mais la route a été longue avant de parvenir à rentabiliser les ventes des différents magazines, « nous avons perdu 30 000 euros par mois pendant 9 ans ! »

Le papier un média haut de gamme ?
Arnaud Viviant, ancien journaliste de Libération et Les Inrockuptibles, a créé en 2012 Charles, un « Mook » (contraction de magazine et book) politico-culturel à 16 euros l’unité. Pour cette revue, il a fait le choix de ne pas faire appel à des publicités car « cela ne correspond pas à l’univers du livre » dans lequel l’équipe souhaite s’inscrire.
Les thématiques ne sont pas les mêmes, le style aussi est différent mais tous ont l’envie de donner aux lecteurs un livre esthétique et de qualité présenté comme un magazine, et que l’on peut conserver sur son étagère comme un élément de collection.
« L’objet physique reste important dans notre société, l’exemple de la liseuse est parlant. Elle a été détournée de son usage premier, aujourd’hui beaucoup d’enfants l’ont transformée en console de jeux » renchérit Arnaud Viviant.
S’ils ont décidé de redonner vie au papier c’est aussi parce que le business-modèle actuel du web ne correspond pas à leurs attentes. Tous sont d’avis que les formats longs ne fonctionnent pas sur le web car « ce n’est pas très agréable à lire ». Sur Internet, nous lisons en effet des articles bien spécifiques, essentiellement courts, et qui répondent à des interrogations précises pour lesquelles nous voulons des réponses rapides. Les magazines papier au design étudié proposent tout l’inverse. Ils laissent le lecteur feuilleter les pages unes à unes pour découvrir les sujets et s’attarder sur un article, chose impossible sur un média en ligne.
L’Etat à la rescousse des médias
Depuis plusieurs années, différents modèles se sont construits sur Internet. Le plus répandu reste celui du tout gratuit financé par les annonceurs, ce qui coûte moins cher mais ne rapporte pas assez pour les éditeurs de contenus. Parmi eux le seul à avoir opté pour la formule gratuite c’est Alexandre Curnier, responsable de la revue culturelle Noto, lancée en 2013. Gratuite oui, mais elle devient payante à l’abonnement, pour ceux qui souhaitent la recevoir directement dans leur boîte aux lettres.
Difficile de lancer son projet dans un milieu très concurrentiel, d’autant plus quand on ne dispose pas de fonds propre. C’est pourquoi, il existe des aides de presse accordées par la CPPAP (Commission paritaire des publications et agences de presse). Elles sont toutefois ciblées sur les titres d’information, considérés comme part importante du débat civique mais excluent les titres de presse culturelle. Le fonds stratégique accorde également une aide aux PME créés il y a moins de 3 ans, inférieures à 250 salariés et réalisant moins de 50 Milliards d’euros de chiffres d’affaire annuel. Il s’agit notamment de bourse de création, de programmes d’incubation médias ainsi que d’aides à l’exploitation de l’entreprise. La TVA à taux réduit, soit à 2,1% fait également partie de ces aides accordées pour les éditeurs de presse papier ou en ligne depuis 2014.
Cela fait des décennies que l’on parle de crises successives de la presse, dues à l’apparition de la télévision, puis d’internet. Chaque fois le coup porté semble plus difficile à accuser, à tel point que l’Etat intervient en insufflant quelques aides pour assurer la pluralité du débat. Pourtant ces entrepreneurs de la presse osent et investissent, chacun avec une approche différente de la culture, quelle soit payante, gratuite ou hybride. Si certains misent sur la formule papier, d’autres rêvent d’atteindre l’indépendance de Mediapart.
Mais tous sont unanimes, il faut innover, se réinventer!
2016 : réalité virtuelle, année zéro
Par Jérôme Derozard, consultant et entrepreneur
Le concept de réalité virtuelle date de plusieurs décennies, et a été remis au goût du jour en 2012 avec le projet Oculus sur Kickstarter et surtout en 2014 avec le rachat d’Oculus par Facebook, le lancement de Cardboard par Google et de la Gear VR par Samsung. 2016 marque l’année zéro de la réalité virtuelle, l’année du début de son succès – ou de son échec – commercial.
Les principaux casques VR « autonomes » (Oculus Rift, HTC Vive et Playstation VR) et « mobiles » (Samsung GearVR et Google Daydream) seront tous en vente d’ici la fin de l’année. De nombreux accessoires, caméras et services de production ou de consommation de contenus VR seront aussi lancés, tandis que se mettent en place les trois principales plateformes VR (Oculus de Facebook, Daydream de Google et SteamVR de Valve).
Les géants du secteur disposent de quelques mois pour « éduquer » le marché et attirer développeurs et fournisseurs de contenus avant le premier test du marché que constituera la période des fêtes. Nous saurons alors si l’adoption de la VR va suivre celle des consoles de jeu vidéo à la fin des années 1970, l’ordinateur personnel au milieu des années 1980, le mobile à la fin des années 1990 ou le smartphone à la fin des années 2000.
Revue des protagonistes et des différents terrains d’affrontement de la VR:
Les casques
La première bataille se déroule autour de la partie la plus visible et la plus essentielle : les casques de réalité virtuelle. Deux types de casques sont à présent disponibles sur le marché, les casques « autonomes » qui intègrent leurs propres écrans et qui s’utilisent avec un ordinateur personnel ou une console de jeux de salon, et les casques « mobiles » qui utilisent un smartphone comme écran et unité centrale.
Dans la première catégorie, le pionnier Oculus, détenu par Facebook depuis 2014, commercialise depuis mars la première version grand public de son casque Rift. Ce lancement intervient après quatre ans de développements et de multiples versions pour en améliorer l’ergonomie et les performances. Ce casque nécessite un ordinateur fixe performant (compter au moins 1 000 €) pour fonctionner et sera accompagné d’un contrôleur « Oculus Touch » au second semestre. Le lancement a été assez difficile, les premiers acheteurs du casque Oculus ont été confronté à des délais de livraison de plusieurs mois. Mais même si la première version de ce casque ne devait pas connaître le succès commercial, le PDG de Facebook Mark Zuckerberg a annoncé que d’autres suivraient car la réalité virtuelle était au « cœur » de la stratégie de Facebook.
Oculus Rift :
- Points forts : meilleure ergonomie, excellente immersion grâce au suivi des mouvements de la tête et à un affichage performant (définition de 1080×1200 pixels par œil, angle de vue de 100° et rafraîchissement à 90Hz), catalogue de contenus important (jeux, vidéos à 360° et « expériences » VR), viabilité de la plateforme grâce au soutien de Facebook.
- Points faibles : Prix (699 € sans le contrôleur Oculus Touch), encombrement.
Face à l’Oculus Rift, HTC et son partenaire Valve (initialement partenaire d’Oculus avant son rachat par Facebook) ont lancé en avril leur casque autonome HTC Vive, après deux ans de collaboration. Ce casque se distingue par la possibilité de se déplacer physiquement dans un environnement virtuel grâce à des capteurs et à une caméra intégrée au casque, ainsi qu’à un contrôleur innovant permettant de détecter la position des mains. Il nécessite lui aussi un ordinateur puissant pour fonctionner. La question de la viabilité de la plateforme se pose toutefois, car si Valve est un éditeur de jeu profitable, notamment grâce à sa plateforme de distribution Steam (et sa déclinaison en réalité virtuelle, SteamVR), son partenaire HTC est dans une position financière délicate suite à son déclin sur le marché des smartphones. En outre, alors que SteamVR est disponible sur Oculus Rift, l’inverse n’est pas vrai : Facebook a récemment bloqué les logiciels permettant de jouer aux jeux Oculus sur le HTC Vive.
HTC Vive :
- Points forts : immersion la plus complète grâce à la détection des mouvements du corps et un affichage légèrement plus performant que celui de l’Oculus Rift (angle de vue de 110°)
- Points faibles : viabilité, prix (799 € avec contrôleur), catalogue de contenus plus réduit (essentiellement des jeux), moins simple d’utilisation qu’Oculus, encombrement.
De son côté, Sony va lancer en octobre son propre casque autonome, le PlayStation VR. Fruit de plusieurs projets internes, ce casque fonctionnera avec la PlayStation 4 (plus de 36 millions d’exemplaires vendus). Le catalogue de contenus s’annonce fourni (plus de 100 jeux au lancement) grâce aux nombreux partenaires éditeurs de jeux mais aussi à la force de Sony dans le domaine de la TV et du cinéma ; il sera ainsi possible d’utiliser le casque avec son bouquet TV Vue.
PlayStation VR :
- Points forts : prix plus bas (399 € sans contrôleur), catalogue de jeux le plus important, accès au catalogue vidéo de Sony, viabilité de Sony.
- Points faibles : Moins bonne immersion du fait d’une moins bonne résolution (1920×1080 pixels pour les deux yeux, mais taux de rafraîchissement de 120 Hz), dépendance à la console PS4.
Enfin le dernier de ces « casques autonomes » est un outsider, le studio suédois Starbreeze et son casque StarVR développé à l’origine par une start-up française, Infinit Eye. La spécificité de ce casque est la qualité de son affichage qui propose un angle de vue de 210° et une résolution « 5K » de 2560×1440 pixels par œil. Starbreeze s’est récemment allié avec Acer pour la fabrication du casque, qui compte tenu de son prix sera essentiellement proposé aux professionnels du divertissement. Il sera ainsi disponible dans les salles IMAX.
StarVR :
- Points forts : Le meilleur affichage du marché
- Points faibles : Prix élevé qui le réserve aux professionnels, catalogue limité, viabilité de la plateforme
D’autres acteurs se positionnent sur le marché des lunettes autonomes, notamment en Chine avec des acteurs comme Dlodlo et ses « Glass », des lunettes VR offrant une résolution équivalente à celle de StarVR mais pesant seulement 78 grammes. Elles devraient être disponibles en août au prix de 500 €.
LG a lui lancé ses propres lunettes autonomes « 360VR » qui nécessitent un smartphone pour fonctionner, et Samsung a lui aussi annoncé travailler sur son propre produit autonome. Le coréen est pour l’instant partenaire de Facebook/Oculus avec le Gear VR, le casque VR du type « mobile » le plus abouti. Vendu 100 €, il a été utilisé par près d’1 million d’utilisateurs en avril, chacun passant en moyenne 25 minutes par session VR. Comme les autres casques mobiles, il ne permet pas le suivi de la position de la tête mais uniquement de la direction du regard. En outre le contrôleur est intégré au casque ce qui rend la navigation peu ergonomique.

Gear VR :
- Points forts : Bon rapport qualité/prix, accès au catalogue de contenus de Facebook / Oculus.
- Points faibles : Compatible uniquement avec les téléphones haut de gamme Samsung, ergonomie limitée en l’absence de contrôleur dédié.
Le concurrent le plus sérieux du Gear VR – et d’Oculus – est le nouveau système de casques mobiles « Daydream » annoncé lors de la dernière conférence Google I/O. Daydream vient compléter le casque « en carton » Cardboard lancé en 2014 et distribué à plus de 5 millions d’exemplaires grâce à de multiples partenariats (New-York Times, Budweiser, Mac Donald’s…). Google reste sur une approche centrée sur le mobile, à la différence de Facebook qui cible aussi bien les casques autonomes que mobiles. Mais alors que Cardboard permettait de faire découvrir la réalité virtuelle grâce à des expériences « snacks » de quelques minutes, Daydream promet des « repas virtuels complets » permettant aux utilisateurs de rester immergés pendant des durées plus longues et se pose donc en alternative des casques autonomes.
Le système se décompose en une gamme de smartphones « Daydream ready » qui seront lancés à la fin de l’année par plusieurs fabricants, dont Samsung et HTC, et fonctionneront sous Android « N » à travers un nouveau « mode VR ». Les smartphones certifiés fonctionneront dans ce mode avec un niveau minimal de performance (latence de 20 secondes entre une action utilisateur et sa traduction à l’image, rafraîchissement à 60 images par seconde) soutenu sur une longue durée. Ces smartphones pourront être utilisés avec des casques mobiles Daydream disponibles fin 2016. Google fournira prochainement un « design de référence » aux fabricants et compte proposer son propre casque. Chaque casque sera obligatoirement vendu avec un contrôleur relié en Bluetooth pour naviguer en VR confortablement ; ce contrôleur disposera d’un capteur d’orientation, d’un gyroscope, d’un accéléromètre et d’un pavé tactile cliquable.
Des applications compatibles avec les casques Daydream seront proposées dans une nouvelle boutique « Google Play for VR » par des partenaires comme HBO, Netflix et des éditeurs de jeux. Google tente ainsi de conquérir le marché de la VR en adoptant la même stratégie que dans le mobile avec Android : une offre matérielle portée par des partenaires, un bouquet de services accessibles uniquement aux appareils certifiés, une gamme de référence (Nexus) spécifiée et vendue par Google pour « tirer le marché vers le haut ». Et souhaite ainsi répliquer le succès commercial d’Android, qui équipe plus de 80% des smartphones dans le monde.
Google continuera également à proposer Cardboard pour les utilisateurs de smartphones non compatibles avec Daydream (dont l’iPhone). Google dispose aussi d’une autre corde à son arc dans la VR/AR avec le projet Tango. Celui-ci vise à intégrer de multiples capteurs (détection de profondeur, mouvement, traitement visuel) dans les smartphones afin de « numériser » le réel en temps réel. Cela permettra à Google de proposer une expérience équivalente au casque de réalité augmentée Hololens de Microsoft (réalité mixte) mais à un coût plus raisonnable. Le premier smartphone compatible Tango sera lancé en fin d’année par Lenovo.
Daydream VR :
- Points forts : Puissance de Google, nombreux partenaires, catalogues YouTube et Play Store, contrôleur VR dédié, prix compétitif grâce aux multiples partenaires.
- Points faibles : Lancement tardif, moins bonne intégration matériel/logiciel du fait de la dépendance à des partenaires.
Apple ne devrait pas rester à l’écart longtemps du marché de la VR et proposera probablement son propre casque compatible avec l’iPhone, peut-être dès 2017. Tim Cook a déjà indiqué qu’il ne considérait pas la réalité virtuelle comme un marché « de niche » et qu’elle offrait des applications intéressantes. Nul doute que si Apple se lance sur ce marché, ce sera avec un produit très abouti en termes d’intégration matériel / logiciel.
Pour tous les fabricants, la VR est une occasion de redynamiser le marché du smartphone, en stagnation, en relançant la course à la performance. En effet, alors que dans une utilisation classique un écran 4K est parfaitement inutile sur mobile, il prend tout son sens dans le cadre d’une utilisation VR, Google indiquant même qu’il faudrait multiplier par 6 les résolutions actuelles pour ne plus voir les pixels à l’écran ! Idem pour la puissance du processeur ou le débit du réseau nécessaire pour transmettre les vidéos à 360° en temps réel.
Les caméras et les équipements de production VR
Deuxième terrain de bataille de la VR : les caméras. Plusieurs modèles ont été lancés cette année, en commençant par les caméras « 2D » à 360° comme la 360cam du français Giroptic (499 €), enfin disponible 2 ans après son projet Kickstarter. Cette caméra – comme celles de ses concurrents chez Ricoh ou Kodak – cible essentiellement le grand public et permet de prendre des photos ou des vidéos à 360° sans effet de relief. La caméra Vuze, prévue fin 2016 au prix de 799 €, permet de prendre des photos et vidéos en 3D (avec effet de profondeur/relief) pour une meilleure immersion.
Pour les utilisateurs professionnels, la société française Videostitch, spécialisée dans les logiciels d’assemblage (« stitching ») de flux vidéo à 360°, propose sa caméra Orah 4i 2D spécialement adaptée à la diffusion en direct. Mais sur ce marché comme celui des casques, la principale bataille se joue entre Facebook et Google qui proposent chacun des modèles de caméra 360° 3D. Le design de la Surround 360° de Facebook a été dévoilé lors de sa conférence « f8 » et sera disponible en « open source » à l’été 2016 (compter 30 000 $ pour les composants), ainsi que le logiciel permettant d’assembler les flux des 17 caméras. Google avait dévoilé en 2015 son propre design « Jump » associé à son logiciel de stitching. La première caméra compatible est proposée depuis le mois d’avril par GoPro pour 15 000 $ et est utilisée par Paramount et le New York Times pour produire des contenus immersifs ; un autre modèle « Jump » ciblant les professionnels du cinéma devrait être prochainement commercialisé par IMAX.
C’est ce marché que cible également la caméra Ozo proposée par Nokia pour 60 000 $ ; le groupe finlandais a annoncé un partenariat avec Disney pour la production de contenus VR ainsi qu’un accord avec l’UEFA pour filmer certains matchs de l’Euro 2016 en réalité virtuelle. Autre acteur, Lytro avec sa caméra « Immerge » qui permet pour la modique somme de 250 000 $ de créer des films à 360° avec une perspective dynamique et six degrés de liberté. Les spectateurs d’un contenu filmé par cette caméra, et équipés d’un casque comme l’Oculus Rift ou le HTC Vive, pourront changer de point de vue en bougeant simplement la tête, comme s’ils étaient physiquement présents.
Mais la réalité virtuelle, ce n’est pas que la vidéo à 360° ; c’est également la création d’expériences et d’environnements en 3D, en utilisant les technologies issues du jeu vidéo. Des moteurs 3D sont commercialisés depuis plusieurs années pour simplifier le travail des développeurs ; les deux principaux, Unity 3D (utilisé par 5,5 millions de développeurs) et Unreal de Epic, sont d’ores et déjà compatibles avec Oculus, Steam VR et Daydream. Certains outils permettent même de créer des histoires VR directement depuis un casque VR, comme Visionary VR ou Limitless VR. D’autres permettent de prendre des « photogrammes » d’un lieu, comme Reality.io, ou de personnes, comme 8i, afin de les recréer en 3D.
Pour la production de vidéos à 360° comme pour les environnements 3D, le son est aussi un élément clé de l’immersion. Facebook vient ainsi d’acquérir un spécialiste de l’audio immersive, Two Big Ears, pour faciliter le travail des créateurs de contenus Oculus, tandis que Google a implémenté un SDK spécifique pour gérer le son 3D sur Cardboard.
La diffusion et consommation de contenus VR
Dernier terrain d’affrontement des géants de la VR : la diffusion et la consommation de contenus VR, avec Oculus Home pour Facebook et Daydream Home pour Facebook. Tous deux sont des portails d’accès à la réalité virtuelle, lancés par défaut au démarrage du casque VR, comme autrefois les portails des fournisseurs d’accès Internet accueillaient les internautes. Tous deux pourront évoluer pour intégrer de plus en plus de services qui permettront aux géants de se rendre incontournables dans la réalité virtuelle comme ils le sont aujourd’hui sur le web et sur le mobile.
Ces portails sont associés à des « appstores », l’Oculus Store pour Facebook et le Play Store VR pour Google permettant de découvrir – et d’acheter – des applications. Chaque contenu VR y est noté en fonction de « l’intensité » des mouvements, pour aider les utilisateurs à choisir les contenus les plus appropriés en fonction de leur sensibilité et éviter la « nausée VR ». Pour gérer son appstore, Google peut s’appuyer sur son expérience mobile, où il gère 6 milliards de téléchargements par mois et 500 millions d’utilisateurs actifs.
Autre fonction du portail : l’accès aux vidéos à 360 degrés. Facebook propose l’application Oculus Video, qui donne accès à des vidéos professionnelles mais aussi à celles postées par les utilisateurs sur Facebook. Google compte sur YouTube et sa nouvelle version VR, qui permettra d’accéder aussi bien aux contenus traditionnels qu’à ceux filmés en 360°, qu’ils soient enregistrés ou en direct.
Face aux deux géants, d’autres acteurs tentent de se positionner comme alternative pour les utilisateurs et les créateurs de vidéos à 360° en proposant des plateformes « neutres ». C’est le cas de Wevr, qui a levé 25 millions de dollars pour développer son portail Transport disponible sur tous les casques VR, ou de NextVR qui diffuse les concerts du premier tourneur mondial, Live Nation, des évènements sportifs comme le Daytona 500 avec Fox Sports ou des contenus VR produits par les magazines du groupe Time. Les acteurs traditionnels de la VOD sont eux aussi actifs, avec des applications VR donnant accès à leur contenu traditionnel « 2D » comme Netflix, voire en proposant aussi des contenus à 360° comme Amazon et Hulu.
Pour se différencier, de nouveaux acteurs se positionnent sur des verticaux comme la diffusion d’évènements sportifs en direct. C’est le cas de la start-up française Livelike VR qui permet à plusieurs utilisateurs de regarder un match diffusé en 360° installés ensemble dans une loge virtuelle, ou au bord du terrain. Virtually VR propose lui de numériser les mouvements des joueurs en 3D et de permettre ainsi aux spectateurs de suivre l’action au plus près, comme dans un jeu vidéo.
Dernière fonctionnalité clé des portails VR : la VR sociale, c’est-à-dire la possibilité de partager des expériences en réalité virtuelle à plusieurs. C’est bien sûr l’un des axes de développement principaux de Facebook, qui capitalise sur son réseau social et ses nombreuses applications de messagerie (WhatsApp, Messenger, Instagram) et a démontré lors de sa conférence f8 un concept d’exploration de photos à 360° à plusieurs avec fonction « selfie ».
Google a d’ailleurs repris cette démo lors de sa propre conférence I/O, mais aura sans doute plus de mal à s’établir dans la VR sociale, ses expériences dans le web « social » ou les applications de messagerie n’ayant pas vraiment été couronnées de succès. Valve se concentre lui sur le jeu vidéo en proposant notamment aux utilisateurs de Steam VR de diffuser en direct sur leurs expériences virtuelles, à la manière de Twitch. Là aussi, des start-ups ont lancé leurs propres « réseaux sociaux virtuels » comme les anglais de VR Time ou les américains de Altspace VR. Parmi les fonctionnalités proposées par ces plateformes : regarder une vidéo ensemble, discuter, jouer de la musique… Autant de cas d’utilisation de la réalité virtuelle anticipés depuis plusieurs années par l’une des séries TV les plus en pointe sur le sujet : Les Simpsons !
Réalité Virtuelle : directs 360° en 4K et clonage virtuel à Roland Garros
Par Barbara Chazelle, Direction de la Prospective et Bernard Fontaine, Direction de l’Innovation
Tendance tech 2016, la réalité virtuelle est mise à l’honneur par France Télévisions à Roland Garros cette année. Diffusion des matchs en direct 360° et en 4K, cabine d’avatarisation du public et le Web 3D sont les temps forts de cette édition 2016 au RG Lab de Roland-Garros, à découvrir au musée de la Fédération Française de Tennis, du 21 mai au 5 juin 2016.
Une immersion sans précédent
France Télévisions, en partenariat avec la Fédération Française de Tennis, propose la diffusion en direct, en 360° et en 4K, de tous les matchs disputés sur les courts Philippe-Chatrier, Suzanne Lenglen et le court n°1. Une première à Roland Garros.
L’occasion de mettre en avant le savoir-faire de start-ups françaises avec l’inauguration de la caméra Orah 4i de VideoStitch – qui vient d’être dévoilée aux US – épaulée par Intel et sa technologie d’encodage Intel Quick Sync ou encore, la technique de traitement numérique virtuel de l’ensemble des opérations live 360, via le cloud de FireKast .
Pour expérimenter cette immersion sans précédent dans le Stade depuis chez soi, deux solutions :
- L’application de réalité virtuelle « RG 360 » disponible gratuitement sur iOS, Android et Samsung Gear VR, permet de visionner en 4K 360° en direct ou en replay les matches des courts concernés.
- La chaine YouTube de FranceTv Sport, l’occasion pour France Télévisions d’expérimenter les nouvelles fonctionnalités du player YouTube Live 360 ainsi que les pages Facebook de franceTv Sport et Roland Garros où seront également disponibles les replays 360.
Si vous passez au RG Lab, vous pourrez aussi découvrir une expérimentation 360° sur Android TV ainsi que des démonstrations audio de « son 360° » pour parfaire l’immersion, respectivement en partenariat avec Push-Pull TV et Arkamis.
Votre avatar articulé sur le court central
France Télévisions propose cette année au public du tournoi une expérience tout à fait inédite : la possibilité de créer son clone numérique ! Ces avatars 3D articulés, générés via une cabine de scan 3D de la start-up Silkke qui photographie le corps entier (en quelques 110 photos), peuvent ensuite prendre vie sur un court de tennis.
Pour France Télévisions, une telle technologie permet d’imaginer de nouvelles expériences média interactives et immersives, à l’instar d’une plate-forme Web 3D, peuplée d’avatars réalistes, présentée au RG Lab.
Un temps d’avance
Au musée de Roland-Roland, France Télévisions met aussi à l’honneur une facette de la recherche française, avec l’Institut Mines Telecom et ses travaux sur la gestuelle d’avatars. Aujourd’hui, l’animation d’un avatar relève d’un long travail de programmation. Mais grâce à la sémantique et des algorithmes complexes, les machines peuvent interpréter un texte et le traduire par des mouvements, qui donnent vie aux avatars.
Le CEA Tech propose de nombreuses démonstrations autour de la réalité virtuelle et de la réalité augmentée : projection de contenus sur un casque de AR en plein soleil, projection grand angle et affichage tête haute, sont autant de problématiques que le centre de recherche travaille à résoudre. L’intelligence artificielle n’est pas en reste avec la présentation d’un logiciel d’indexation automatique de contenus audiovisuels. Sans oublier les problèmes liés à l’énergie qui fait vite défaut lorsque l’on parle de VR : l’avenir de la batterie pourrait-il être la pile à combustible de poche, rechargeable à l’eau ?
Quant aux travaux scientifiques autour du Li-Fi , technologie qui permet de se connecter grâce à la lumière, ils entament leur phase industrielle. Les acteurs majeurs de ce secteur proposent de faire découvrir leurs tous derniers concepts : Oledcomm avec « La Table » mobilier connecté de Kineti , ainsi que Luciom avec les lampadaires de Radian.
Si les mobiles connectés sont destinés à se rapprocher de nos yeux de manière prolongée dans des casques de VR, le Li-Fi pourrait être une technologie de santé publique ! Pas étonnant qu’un acteur comme Orange, présent au RG Lab, emboite le pas de ces nouveaux usages.
Suivre les ½ finales et les finales en Ultra-HD sur votre télévision.
Enfin, pour la 4ème année consécutive, France Télévisions s’associe à la Fédération Française de Tennis, pour proposer les demi-finales et finales des simples dames et messieurs sur une chaîne événementielle en Ultra-HD (4K) diffusée par TDF sur la TNT (chaîne 81 à Paris et en région parisienne) et par satellite avec Eutelsat sur le reste de la France (chaîne 444 du bouquet Fransat).
A cette occasion, des tests de diffusion en direct de TV Ultra-HD HDR seront effectués pour la première fois en France avec l’aide du consortium de r&d 4Ever .
Quels leviers pour permettre aux contenus d’émerger ?
Par Barbara Chazelle, France Télévisions, Direction de la Prospective
Dans l’univers des nouveaux usages que connaît les médias, le risque de voir nos contenus relégués au second plan est bien réel : dilués dans une vague de contenus accessibles via des modes de consommation délinéarisés sur tous les types de matériels connectés, ils deviennent « introuvables » s’ils ne bénéficient pas de la puissance de référencement et de recommandation qui est désormais nécessaire pour exister. Cette problématique de la « découvrabilité » des contenus est souvent considérée comme le défi prioritaire que l’industrie aura à relever au cours de la prochaine décennie.
Le Fond des Médias Canadiens vient de publier le premier volet de son rapport « Découvrabilité, vers un cadre de référence commun » qui propose de s’intéresser aux leviers (mesures, initiatives, stratégies, outils) et aux acteurs (l’industrie et le public) qui permettent de donner une plus grande visibilité aux contenus.
« La découvrabilité se faufile entre le public et le contenu, dans un ensemble aux ramifications complexes, constitué d’initiatives et de stratégies marketing, mais également de politiques publiques, de négociations commerciales, de modèles d’affaires en mutation rapide, de technologies novatrices et de consommateurs aux habitudes changeantes. »
Des exemples illustrant l’action de chacun de ces leviers permettent de brosser un portrait des enjeux et des défis qu’ils posent – ou poseront – à l’industrie audiovisuelle canadienne en pleine mutation… et ainsi inspirer notre écosystème français et européen.
Lien pour télécharger le rapport
ESWC : on est allé à notre première compétition d’e-sport
Par Emilie Balla, France Télévisions, Direction de la Prospective
Ce week-end, Méta-Media était au Zénith de Paris, qui s’est transformé en véritable arène de combat pour accueillir la deuxième édition de l’ESWC Call of Duty, la compétition mondiale d’eSport. Seize équipes internationales se sont affrontées tout le week-end à Call of Duty, le célèbre jeu de tirs sur consoles. Les gamers se sont retrouvés face à un public de supporters très engagés, certains venus de loin pour les soutenir. Retour sur un week-end riche en émotions et le point sur la réglementation française en vigueur en matière de sport électronique.
Une compétition d’e-sport, ça ressemble à quoi ?
Lorsqu’on pénètre dans l’antre de la compétition, on est saisi par chaleur, perdu dans le jargon de gamer en franglais et tout aussi interpellé par l’engouement impressionnant de fans qui brandissent des banderoles. Sur scène ce ne sont pas des stars du rock mais les pros de la console qui entrent en action, des jeunes hommes âgés de 17 à 24 ans. Les matchs d’eSport Call of Duty sont rythmés par les tirs de fusils d’un côté, de l’autre par les cris, les applaudissements ou les hués de spectateurs, les yeux rivés sur l’écran géant. On se croirait dans un stade. Le sport électronique, rappelons-le, voit s’affronter virtuellement des équipes de gamers, casques sur les oreilles et manettes à la main.
Lors d’une compétition de Call of Duty, une équipe est composée de 4 personnes face à leurs écrans et soutenue par leur coach debout derrière eux. Pendant les manches, d’environ 5 minutes chacune, les joueurs ne communiquent quasiment pas entre eux, car la concentration est à son maximum. L’important est de garder son calme face à la pression et la rapidité du jeu. Les missions à accomplir diffèrent selon les modes de jeu, et les lieux appelés des maps. Il peut s’agir de récupérer le drapeau adverse et le rapporter dans son camp sans se faire tuer, de poser une bombe dans une usine désaffectée, ou d’anéantir le maximum de soldats ennemis dans une forêt.

Est-ce vraiment un « sport »?
L’ambiance, les sponsors, les communautés de fans qui suivent depuis des années, tout y est. Si on a l’impression d’être face à des geeks devant leurs consoles, pour les fans de Call of Duty, pas de doute, c’est un sport à part entière. Les parties d’esport se gagnent grâce à des tactiques et une stratégie très précise, où chaque gamer a son rôle à jouer, rien à voir avec un jeu de hasard. C’est un vrai mode de vie, car la préparation avant chaque tournoi est intensive, et repose sur des heures d’entraînements et de simulations en équipe et en solitaire.
Les spectateurs, eux aussi majoritairement masculins et jeunes peuvent suivre les matchs projetés sur un écran géant et commentés par les professionnels de l’esport, Jonas Ferry (@_oxygenJF) et Olivier Morin (@Olivermo), ainsi que des YouTubers stars, tels que Zakaria Haddad (@Zack_Nani), Anil Branca (@WaRTeK) et Raphael Allouche (@Zydar27) là pour meubler pendant les problèmes de connexions. Dimanche, le favori OpTic Gaming, la team américaine a remporté le tournoi face aux anglais de Splyce, repartant avec leur trophée ainsi qu’un chèque 20.000 $.

e-sport a désormais un statut en France
De plus en plus populaire dans l’hexagone, l’eSport dominé par les Etats-Unis et l’Asie, vient récemment d’obtenir un statut en France. De plus en plus lucratif aussi, puisque l’esport aurait généré 194 Millions d’euros de revenus en 2014, montant qui devrait doubler d’ici 2017. Il y a quelques temps encore, ces compétitions d’esport organisées avec des gains financiers, étaient considérées comme des loteries laissant la place au hasard et non pas à la stratégie. Mais depuis le 3 mai dernier, les tournois de jeux vidéo sont officiellement reconnus par la France, dans le cadre du projet de loi pour une République numérique, lancé par Axelle Lemaire secrétaire d’Etat chargée du numérique.
L’article 42 de ce texte vise ainsi à encadrer les compétitions d’esport. Le but étant de reconnaître l’adresse, l’endurance et l’intelligence des joueurs professionnels, qui auront à présent un vrai statut social, et de sécuriser juridiquement l’organisation des compétitions. Cela permettra également d’encourager le développement de cette activité, qui ne compte pas loin de 850 000 adeptes dans le pays.
Une différence est toutefois faite entre les compétitions réelles avec la présence physique des gamers et les tournois en ligne, ces derniers n’étant pas autorisés s’il y a une compensation financière à la clé. Si les députés en charge du projet plaident en faveur de ce projet de loi car ils redoutaient des dérives, notamment concernant le dopage ou les trafics d’argent en ligne, le secteur du jeu vidéo semble lui divisé entre envie de reconnaissance et crainte de taxation de la part du gouvernement.