5 applications et outils de retranscription à l’usage de tous les journalistes
Par Nikhil Sivadas, HackPack.press. Billet invité
La technologie, ça change tout, et de nos jours, il est possible de combiner des photos et des vidéos, des tweets et des fonds de carte pour transformer n’importe quel bout de texte en véritable projet web. Cependant, bien que la technologie fasse beaucoup pour nous faciliter le travail, les retranscriptions d’entretiens restent l’un des aspects les plus ennuyeux de notre travail. Regardons la réalité en face, personne ne devient journaliste parce qu’il aime écouter des enregistrements en boucle pour en extraire chaque mot.
Il existe toute une gamme de services de retranscription en ligne, mais il reste difficile d’en trouver un de qualité. La plupart ne sont pas en mesure de vous fournir un résultat similaire à celui que vous obtiendrez si vous prenez votre mal en patience et que vous vous occupiez vous-même de la retranscription. Voici donc une sélection des meilleurs outils et apps du marché qui ne feront pas le travail à votre place mais, qui vous faciliteront la vie.
Cogi est l’une de mes apps favorites pour enregistrer des entretiens avec mon téléphone, elle est gratuite et disponible à la fois sous Android et iOS. Lorsque vous enregistrez une interview, vous n’avez pas besoin de tous les mots et Cogi fait en sorte que vous puissiez sauvegarder le plus important. Il fonctionne avec une mémoire tampon, mais n’enregistre pas tout automatiquement.
Lorsque votre interlocuteur dit quelque chose d’important, appuyez sur le bouton et Cogi reviendra en arrière de 15 à 40 secondes pour enregistrer ce qui vient d’être dit. Vous pourrez ainsi éviter de prendre des notes et vous concentrer sur votre sujet. Je suis sûr que vous saurez apprécier la brièveté de l’enregistrement final.
oTranscribe est une application qui fonctionne directement dans votre navigateur et prouve que la simplicité est une qualité. Elle combine deux fonctionnalités principales – un player audio et un éditeur de texte – dans une interface unique. Tout est contrôlable via le clavier de votre ordinateur, qu’il s’agisse de revenir en arrière ou d’insérer des marqueurs temporels. oTranscribe ne fera pas le travail à votre place, mais vous évitera de changer sans cesse d’application ou de quitter votre clavier pour mettre sur pause ou revenir en arrière. Le seul inconvénient de cet app, c’est qu’elle reste une fenêtre de navigateur, donc si vous avez du mal à vous concentrer lorsque vous êtes sur Internet, je vous conseille de la mettre en plein écran.
Dictation.io fonctionne de la même façon que oTranscribe et peut être ouvert dans votre navigateur web (bien qu’il ne soit compatible qu’avec Google Chrome). Il s’agit d’un simple fichier texte vierge sur lequel sera retranscrit tout ce que vous dicterez. Ce n’est pas le plus précis, mais il est gratuit et peut s’avérer très utile lorsque vous avez différentes fenêtres ouvertes et que vous ne voulez pas tout taper à la main. Il est disponible dans une douzaine de langues, classées par régions.
Rev : si vous ne trouvez pas le temps ou l’énergie de taper vos notes vous-même, Rev est l’un des meilleurs sites à même de le faire pour vous. Le procédé est simple : vous uploadez votre fichier audio en ligne, vous payez les frais et vous recevrez alors votre retranscription par mail. Votre travail sera retranscrit par de vraies personnes, et non par des machines, pour un résultat plus fiable. L’exécution est rapide et le remboursement en cas de problème est garanti. Il faut compter environ 1 $ par minute, mais le prix peut vite grimper.
Dragon : largement reconnu comme l’un des meilleurs outils de retranscription, Dragon est une version simple de ce qu’un logiciel de dictée devrait être. Vous parlez face à votre terminal et vos mots apparaissent à l’écran. Il existe une version gratuite de l’application mobile qui n’est pas parfaite, mais qui peut tout de même vous faire gagner un temps précieux et reste très utile si vous pensez à voix haute. Dragon propose une gamme de différentes versions de son produit dans à peu près toutes les langues. Certaines des versions les plus avancées ne seront accessible que moyennant finance avec des prix qui s’étendent de 50 $ à 150 $.
Cet article a été originellement publié sur IJNet en anglais il vous est présenté dans le cadre d’un partenariat éditorial entre IJNet et Méta-Media. © [2018] Tous droits réservés
Réalité Mixte : raconter des histoires avec des objets
Par Benjamin Hoguet, auteur et concepteur d’oeuvres interactives et transmedia. Billet invité, présenté dans le cadre d’un partenariat éditorial entre le Fonds des Médias du Canada (FMC) et Méta-Media. © [2018] Tous droits réservés.
Allier le virtuel et le tangible peut renforcer la puissance d’une œuvre et offrir une nouvelle avenue de monétisation pour un projet numérique.
Penser le numérique s’apparente très souvent à observer des choses intangibles, des œuvres qui ont besoin d’interfaces et d’écrans pour relier le public et le contenu qui a été créé à son adresse. Et c’est d’ailleurs une critique qui leur est souvent faite : le livre numérique ne pourra jamais égaler le papier, car il ne possède pas son toucher, son odeur ; les relations sur les réseaux sociaux sont imparfaites, car les autres ne sont pas physiquement présents ; et caetera.
Pourtant, le numérique permet aussi de créer des alliances entre le virtuel et le tangible. Il existe de nombreuses œuvres où des objets physiques, bien concrets, palpables, qui viennent renforcer la puissance du récit. Les exemples les plus évidents sont les installations interactives de toutes nature, souvent assez ambitieuses en termes de dispositifs.
Par exemple, Livre in Room est une installation qui cherche à donner l’envie de lire par une utilisation astucieuse d’hologramme et de jeu d’acteur.
Dans cette « cabine » de lecture, vous pouvez vous saisir d’un livre, un vrai livre, et le numériser. Apparaît alors devant vous un acteur holographique qui vous déclame un passage de cet ouvrage que vous tenez désormais dans vos mains.
Le contact sensoriel est ici un exhausteur d’émotions, et cette logique peut être poussée encore davantage. Encore plus démentiel : Field Trip to Mars, une « visite » du sol martien dans un bus qui se transforme en salle de réalité virtuelle mobile.
Mais sortons du cadre exceptionnel de ces installations, de ces œuvres in situ — auxquelles j’ai déjà consacré un article par le passé — pour explorer d’autres types d’objets tangibles, souvent plus modestes, mais tout aussi intéressants.
Quand l’objet donne accès à l’œuvre
Promouvoir une œuvre numérique est un sujet complexe. Vendre une œuvre numérique l’est plus encore. Il relève aujourd’hui d’une certaine forme d’évidence que, pour beaucoup de consommateurs, acheter un objet demeure plus acceptable qu’acheter une application ou un quelconque bien immatériel.
Alors, pourquoi ne pas combiner les deux ? Le plaisir tactile de l’objet et l’accès direct à une œuvre numérique. C’est le pari d’un projet comme Les Super-Héros Aiment les Artichauts, un livre interactif pensé comme une extension numérique d’un livre papier éponyme publié par Benjamin Lacombe et Sébastien Perez.
Pour accéder à cet univers peuplé de superhéros très pop et internationaux, vous pouvez acheter une figurine en plastique, un objet de collection représentant un des personnages : un super-lapin à la Lewis Caroll.
Sous cette figurine bien concrète se trouve un code permettant de débloquer le livre interactif, disponible via le magasin d’applications de votre mobile.

Il est bien sûr possible d’acheter le ebook directement en ligne, mais il faut bien avouer que l’on perd alors un certain lien sensible, presque affectif, véhiculé par la mignonne figurine…
Bien entendu, l’effet serait encore plus significatif si l’univers de Les Super-Héros Aiment les Artichauts était bien plus populaire qu’il ne l’est. C’est en partie le raisonnement suivi par Nintendo avec ses figurines Amiibo à l’effigie de tous ses célèbres personnages de jeu vidéo. Celles-ci ne donnent pas accès à la totalité d’un contenu, mais plutôt à des bonus, des niveaux supplémentaires et bien plus encore.

Dans ces deux exemples, l’objet n’est pas en soi indispensable à l’expérience. Il existe d’autres façons d’en profiter ou de l’acheter. Toutefois, l’entremise de l’objet replace le numérique dans une dimension tangible. Il redonne à l’acte créatif une dimension concrète, bien souvent au cœur de l’acte d’achat culturel. Souvenons-nous qu’un contenu web est perçu par beaucoup comme étant de moindre valeur (et donc voué à être gratuit) en raison de son immatérialité.
Avant d’aborder un autre type de projet, je tenais également à évoquer la possibilité imminente de pouvoir utiliser une vaste gamme d’objets connectés comme « passeports » pour des récits d’un nouveau genre. Aujourd’hui, la plupart sont de simples bracelets d’activités, mais à mesure que des environnements plus ouverts se développeront, de nouvelles opportunités narratives naîtront. Déjà aujourd’hui, des expériences émergent, comme The Inspection Chamber, une fiction interactive proposée par la BBC via les assistants domestiques Amazon Alexa et Google Home.

Vous y conversez avec plusieurs personnages via votre assistant pour progresser dans une histoire autour du thème de l’intelligence artificielle. Le programme est hautement perfectible et votre liberté d’action somme toute limitée, mais il permet déjà d’envisager un autre futur pour la narration sonore.
Quand l’objet renforce l’immersion, les émotions
Dans les projets ci-dessus, l’objet servait de clé. Voyons désormais comment le placer davantage au cœur de l’expérience, comme le fait très bien le projet Separate Silences, une expérience de réalité virtuelle dans laquelle vous incarnez un personnage plongé dans un coma et couché sur un lit d’hôpital.
Pour lire la suite de cet article passionnant, rendez-vous sur FMC Veille !
Photo de Une : Le livre et l’application pour enfants Wuxia le renard.
Le design émotionnel : pensé par des humains pour les humains
Par Pascale Ginguené, Directrice du développement de Gobelins, l’école de l’image
Qu’entend-on au juste par « design » ? Assurément, ce n’est pas de l’art ! En anglais, design signifie conception au sens large, discipline mêlant innovation technique et technologique, production, utilisabilité (aptitude à l’utilisation) et esthétisme… Comme l’a si bien résumé Steve Jobs en 2003 : « Design is not just what it looks like and feels like. Design is how it works… » Et les produits développés par Apple en ont été les meilleurs exemples. Mais que seraient ces innovations, ces nouveaux produits ou services sans utilisateurs, sans clients prêts à les acheter et les utiliser ?
C’est ici que l’on aborde la notion d’UX Design, UX pour User eXperience, discipline à la croisée de nombreuses disciplines parmi lesquelles l’ergonomie, la sociologie, la conception, ou encore l’architecture d’information, qui s’attachera à définir et optimiser l’expérience vécue d’un utilisateur lorsqu’il manipulera une borne SNCF, une machine à café, qu’il fera des recherches sur un site web ou lancera une application sur son smartphone. On parlera de mauvaise expérience utilisateur s’il n’a pas réussi à obtenir son café serré sans sucre au distributeur.
La satisfaction du besoin de l’utilisateur (ici, le café serré sans sucre), peut être mesurée suivant différents niveaux. Aaron Walter, designer de la plateforme de newsletters MailChimp, a transposé la pyramide des besoins imaginée par le psychologue américain Abraham Maslow (les besoins primaires à la base de la pyramide devant être satisfaits en priorité) aux réponses que doit apporter le design pour les humains : la solution ou le service doit en premier lieu être « fonctionnel » (répondre à ce que l’on souhaite faire ou avoir), puis « fiable », ensuite « utilisable » (de manière simple et rapide) et souvent, ça s’arrête là… si tant est que cela arrive jusque-là ! Mais que deviendrait l’expérience utilisateur si la solution devenait « agréable » et donc mémorable ? Nous serions alors dans le design émotionnel…
Quand le design devient invisible
Depuis plusieurs années déjà, le design travaille d’arrache-pied à rendre les solutions, les produits et les services « utilisables ». Et pour les rendre utilisables le plus naturellement possible, sans apprentissage ni procédures complexes, les designers étudient les comportements humains pour développer des Interfaces naturelles. On parle aussi d’ « invisible design ». Disparus les outils d’interaction tels que les souris, claviers, écrans : la tâche est simplifiée au maximum.
Ainsi, c’est en observant le comportement d’hommes et de femmes, les bras chargés, fermant une porte avec leur pied (frigo, lave-vaisselle, porte d’entrée…), qu’est apparu le concept d’ouverture du coffre avec un mouvement de pied sous le pare-choc arrière. Le domaine du jeu vidéo, quant à lui, s’est emparé très tôt du sujet, avec des technologies permettant des interactions corporelles naturelles. Je me souviens, avec joie et émotion, de mes premières parties de bowling avec la Wii il y a un peu plus de dix ans maintenant, et ses manettes nouvelle génération qui détectaient la position, l’orientation et les mouvements. Nous étions là à un tournant de l’interaction puisque les mouvements naturels rendaient enfin les jeux vidéo accessibles aux allergiques des ronds, croix, triangles et autres boutons… En 2010, ce fut au tour de Microsoft de se lancer avec la Kinect, cette fois-ci sans manette.

Mais l’interface naturelle la plus simple ne serait-elle pas la reconnaissance vocale ? Développée depuis les années 1950, immortalisée par l’apparition de Hal en 1968 dans 2001, l’Odyssée de l’espace, intégrée en 2011 dans les smartphones d’Apple avec Siri et le traitement du langage naturel, la reconnaissance vocale est sans doute l’interface la plus naturelle, la plus intuitive et surtout la plus adaptée à toutes les situations puisque que l’on peut continuer à parler à peu près n’importe où (à part en plongée en apnée peut-être !), n’importe quand et surtout transmettre un message à une vitesse de 140 à 200 mots par minute… De quoi interagir donc. Les assistants personnels intelligents Google Home en 2016 et Amazon Echo pour la version française cette année devraient permettre le développement de ces services à interface naturelle. Ne manqueront plus alors que les interactions par la pensée, mais il reste encore du chemin à faire…
De la cognition à l’émotion
Mais au-delà de l’interface naturelle, l’étape ultime du design est d’adresser le dernier niveau de besoin des utilisateurs, l’ « agréable ». C’est ce qu’affirme Donald A. Norman, célèbre scientifique cognitif, directeur du « Design Lab » à l’Université de San Diego (Californie) et auteur des deux ouvrages de référence The Design of Everyday Things (1988) et Emotional Design (2003) : « Ce qui importe dans le déroulement des interactions, ce sont les associations que les gens établissent avec leurs objets et les souvenirs que ceux-ci évoquent. » Souvenez-vous, pour les aficionados d’Apple, du déballage de votre premier achat. Un Mac, un iPod, un iPhone, peu importe, mais vous retrouvez sans aucun doute ce plaisir à chaque fois que vous déchirez le cellophane pour ouvrir ces emballages au design sans pareil. Des petits malins en ont même profité pour mettre sur le marché, en 2016, une bougie senteur « Mac neuf » !
Faire du design émotionnel, c’est apporter plus d’humain, traduit par plus d’émotion, pour proposer une expérience utilisateur mémorable. L’émotion, traduite par une perception de plaisir ou de déplaisir, est essentielle à l’être humain car elle lui apporte des signaux perceptibles indiquant qu’un besoin est satisfait ou non. Ainsi, lors d’un impact émotionnel, de la dopamine est libérée par le cerveau, facilitant le traitement et la mémorisation de l’information. John Medina, biologiste américain, parle de « post-it chimique ».
Et si l’on veut évoquer le domaine particulier des robots, nul besoin de leur donner une forme humaine pour générer de l’émotion – d’ailleurs, mieux vaut éviter sous peine de tomber dans la « vallée dérangeante » ou « uncanny valley », cette théorie selon laquelle les robots qui ressemblent trop à des humains provoqueraient en nous un sentiment de dégoût. C-3PO et R2-D2 ont su mieux que personne nous faire sourire et nous faire passer des émotions. Vous rappelez-vous de l’une des premières animations du studio Pixar en 1986, Luxo Jr ? Au-delà de la prouesse technique, c’est l’humanisation et l’anthropomorphisme appliqués à deux lampes de bureau qui en ont fait un film mémorable qui a su nous émouvoir.
Il n’est donc plus à prouver que le design et ses nombreuses disciplines ont fort à faire pour remettre l’humain et ses émotions au premier plan de la conception dans la tech… Et c’est sans nul doute grâce au design émotionnel, encore balbutiant, que les plus grands progrès seront faits. Mais il faudra être extrêmement vigilant sur l’utilisation du levier émotionnel car, de la même manière que l’emploi d’une couleur peut avoir des significations différentes en fonction des cultures (par exemple, pour le deuil, le noir en Europe et le blanc au Japon), comme le montre la roue des couleurs/culture de David McCandless, les émotions sont étroitement liées à la culture, l’expérience, l’éducation, les orientations personnelles de chacun.
Le marketing l’a déjà bien compris et n’hésite pas à en faire usage à travers des choses aussi simples que l’envoi d’un email de confirmation d’expédition (pour nous rassurer ?). Et ça marche !
Crédit image de une : Edho Pratama via Unsplash
3 tendances pour les expériences en réalité virtuelle
Par Barbara Chazelle, France Télévisions, MediaLab et Prospective
La réalité virtuelle poursuit sa lente démocratisation. La technologie et les équipements progressent tous les jours mais restent encore relativement inaccessibles. Côté contenu, on voit naître des expériences vraiment convaincantes, au storytelling bien plus abouti.
Nous nous sommes entretenus avec Voyelle Acker, Fondatrice de Virgules, une agence de conseil en création numérique, pour décrypter les évolutions de ce marché. Trois grandes tendances se dégagent : l’hybridation des expériences, l’utilisation des technologies immersives dans l’animation et l’intérêt pour des expériences installatives et immersives à grande échelle.
1Des expériences de plus en plus hybrides
Les œuvres de réalités virtuelles n’ont pas peur de mélanger les genres : danse, théâtre, animation, cirque, BD, jeu, fiction, info. Les frontières se brouillent si cela sert la narration et l’expérience. La créativité explose, explique Voyelle Acker :
« Il y a deux ou trois ans, on ne pouvait pas aller à une conférence sur la VR sans entendre le mot « empathie ». Cette année, ce mot a disparu des discours et l’on voit fleurir une incroyable créativité. Contrairement à la télé qui est très formatée, plus personne ne se pose la question de la durée, du format, du genre, de la techno… Tout est hybridé, y compris les arts. »
2L’utilisation des technologies immersives dans l’animation
De nombreuses œuvres immersives sont réalisées en animation, qui a l’avantage de proposer une bonne qualité d’image et prémunir l’utilisateur contre la cinétose (ou « motion sickness »).
Si l’on trouve toujours des contenus 360° ou 270° en 2D ou 3D, le « parallax shifting » est désormais répandu. Cette technologie permet à l’utilisateur de se mouvoir dans un petit périmètre. Ces expériences nécessitent l’utilisation de casques de VR dotés de traqueurs (Oculus, Playstation VR…).
- Dear Angelica (Oculus story Studio)
Le spectateur est plongé au cœur des rêveries de Jessica, une jeune fille qui a perdu sa mère comédienne (Angelica). C’est l’un des premiers films à avoir été entièrement dessiné dans la réalité virtuelle elle-même. Il commence à dater, mais cela reste une réussite incontestable du mariage animation et VR.
- Allumette (Penrose Studios)
Inspirée de « La petite fille aux allumettes » de Hans Christian Andersen, Allumette raconte l’histoire d’une jeune orpheline qui vit dans une ville fantastique dans les nuages.
- Arden’s wake (Penrose Studios
Arden’s wake raconte le naufrage d’une famille dont seuls réchappent le père et la fille Meena. Le prologue a reçu un Lion d’Or à Venise l’année dernière. Le 2e épisode Tide’s Fall, présenté au dernier festival du film de Tribeca et auquel Alicia Vikander (Tomb Raider) prête sa voix, est déjà salué par la presse.
- Wolves in The Walls (Fable Studio, anciennement Oculus Story Studio)
Dans cette adaptation très poétique du livre pour enfant de Neil Gaiman, l’utilisateur est invité à aider Lucy à découvrir ce qui se cache derrière les murs de sa maison.
- Gloomy Eyes (3dar)
Premier épisode d’une série dans un univers à la Tim Burton, où un petit garçon vivant dans un monde sans soleil, va tenter de retrouver la lumière. Lors du dernier festival de Cannes, ces Argentins ont annoncé une co-production avec le studio français Atlas V.
3Intérêt pour des expériences installatives et immersives à grande échelle
Les expériences « room-scale » et « large-scale » sont caractérisées par le fait que l’utilisateur peut se déplacer dans l’espace, jusqu’à 500 mètres carrés pour les plus grosses installations, et ainsi choisir son point de vue. Les casques sont sans raccordement et parfois complétés par des manettes ou des gants qui permettent à l’utilisateur de saisir des objets et/ou de se téléporter.
« On voit de plus en plus se développer des expériences mêlant mises en scène immersives et VR, solo ou multi-utilisateurs, et dont l’expérience est personnalisée pour chacun. De plus en plus de sens sont sollicités, mêlant virtuel (la vue) et réel (l’ouïe, le toucher et bientôt l’odorat ou le goût). » explique Voyelle Acker.
Une tendance qui rejoint celle du théâtre immersif, sans casque, qui se développe lui aussi, à l’instar de la pièce « Sleep No More », un succès présenté depuis quelques années à New York, Londres, ou encore Shanghai.
« Ces expériences sont encore élitistes, car coûteuses et difficiles à financer en dehors d’une exploitation commerciale, mais c’est ce que le marché recherche. On voit se développer le « Location Based Entertainment » avec la multiplication d’espaces dédiés, comme les salles de jeux d’arcade, les salles de cinéma VR, ou des installations spécifiques dans des musées, les parcs d’attraction ou mêmes les centres commerciaux » précise la fondatrice de Virgules.
Expériences « room-scale »
- Draw me close (co produit par le National Theatre de Londres et l’Office National du Film du Canada).
Entre théâtre, VR et animation, Draw Me Close est un projet du dramaturge canadien Jordan Tannahill qui raconte sa relation avec sa mère, malade d’un cancer en phase terminale.
- Alice, the Virtual Reality Play (DV Group)
Alice est une production de théâtre immersif qui plonge le spectateur dans l’œuvre de Lewis Carroll en lui permettant d’interagir avec les personnages et les objets en temps réel, dans un environnement virtuel.
- The Horrifically Real Virtuality (DV Group)
Présentée à Cannes en 2018, cette expérience de théâtre immersif qui invite le spectateur à assister au tournage d’un film en capture volumétrique puis à littéralement intégrer la scène, aux côtés du réalisateur maudit Ed Wood et de son acteur fétiche, Bela Lugosi.
Expériences « large-scale »
- Eclipse (Backlight Studios)
Eclipse est une expérience virtuelle suivant les codes de l’Escape Game. Les joueurs (jusqu’à 8) embarquent dans un vaisseau spatial en détresse et doivent collaborer pour pouvoir rentrer sur terre.
- The Enemy (France Télévisions en co-production international avec Caméra Lucida, l’Office National du Film du Canada, Emissive, le DPT et le soutien du MIT)
The Enemy est un projet documentaire en réalité virtuelle et augmentée. Le photojournaliste Karim Ben Khelifa explore les conflits les plus longs de l’histoire contemporaine. Le projet en VR a été présenté lors d’une exposition itinérante à travers le monde à partir de 2017, dans des espaces de 150 m² où les spectateurs se déplacent librement grâce aux détecteurs de mouvements qui balisent les salles. Le projet a reçu la Rose d’Or en 2017 et vient de recevoir le prix de la meilleure production immersive et le Grand Prix Numix en mai 2018.
- Carne y Arena (Alejandro González Iñárritu et Emmanuel Lubezki)
Présenté lors du 70e festival de Cannes dans le vaste hangar de l’aéroport de Mandelieu, le spect-acteur se mêle aux migrants à la frontière du Mexique et des Etats-Unis.
Alors que le monde de la création est en pleine ébullition, les diffuseurs français n’investissent encore que peu dans la VR. La co-production et l’international sont bien souvent la seule alternative.
Selon Voyelle Acker, « il est très difficile, voire impossible de financer un projet ambitieux uniquement en France. Le marché est totalement international et pousse tous les acteurs à travailler au-delà de leurs frontières. Ce n’est pas forcément à déplorer. La créativité n’en est que décuplée. »
(Disclosure : Voyelle Acker fut, il y a quelques années, responsable du département des Nouvelles Ecritures et du Transmédia à France Télévisions)
Réengager le public grâce aux groupes Facebook : le pari des télés locales pour remobiliser leur audience
Par Arnaud Wéry, journaliste au weblab de L’Avenir.net. Billet invité
Réengager le public et renouer le lien de proximité (et de confiance) avec les citoyens : tel est le défi que doivent relever aujourd’hui les médias, et plus particulièrement les télés locales, dont la pérennité dépendra de leur capacité à remobiliser leurs communautés régionales.
En Belgique, Matélé – l’une des douze télévisions locales francophones – a développé une stratégie d’engagement fondée autour des groupes Facebook. Diederick Legrain, rédacteur en chef adjoint de la rédaction, revient sur son expérience.
Comment l’idée d’ouvrir un groupe Facebook plutôt qu’une fanpage est-elle née ?
Cela remonte à sept ans, quand j’ai lancé un groupe pour accompagner la promotion du livre de recettes Namur Gourmande, qui compte aujourd’hui 18.000 membres. J’ai vu le potentiel en termes d’implication et de contribution des internautes. A Matélé, c’était pour l’opération #tousàtable, que nous avions lancée pour favoriser la création d’auberges espagnoles IRL et virtuelles entre voisins, entre membres d’associations ou entre collègues autour du thème du locavorisme.
Justement, pour cette opération #tousàtable, quels étaient les objectifs du groupe Facebook ? Et les avez-vous atteints ?
Le but de l’opération était de mobiliser et d’impliquer notre audience web, de créer une communauté d’utilisateurs actifs et de contributeurs. L’opération a regroupé une quarantaine de communautés locales (comités de quartiers, collègues au sein d’une entreprise, associations diverses…) et le groupe Facebook nous paraissait être la bonne méthode de relier toutes ces personnes.
Concrètement, quel a été l’apport de ce groupe Facebook dans votre opération ?
Le groupe a créé une émulation entre les participants, qui se sont amusés à tester de petites productions : photos, minividéos, recettes, etc. Il nous a permis de dialoguer avec eux et de recueillir des idées pour des reportages.
Lors d’une présentation de #tousàtable devant des journalistes à Moscou, tu expliquais qu’il avait fallu un peu de temps avant de voir le groupe sérieusement grandir. As-tu pensé que vous aviez fait une erreur en ne misant pas sur une fanpage ?
Le groupe a démarré très lentement, mais je pense avec le recul que cela vient du fait que le nom #tousàtable n’était pas porteur. Il aurait fallu lancer une communauté autour d’un concept du genre « Locavores Namur », qui aurait démarré plus facilement et duré plus longtemps.
À la suite de cette expérience, les télévisions locales de la Communauté Wallonie-Bruxelles ont lancé le groupe « T’es un vrai fan de volley si… » pour accompagner une émission intitulée Volley Games. C’était en 2017. Le groupe continue de vivre mais est-ce que le magazine télé est toujours diffusé?
L’émission n’est plus diffusée, mais son statut éphémère était connu et c’est la raison pour laquelle on n’a pas fait de groupe sur le nom de l’émission mais bien sur le volley : ainsi le groupe continue de vivre sa vie et permet aux télés locales de dialoguer avec les fans de ce sport.
L’expérience nous a surtout permis de lancer un autre groupe qui a eu beaucoup plus de succès, « L’esprit de clocher », qui a accompagné toute l’opération de reconstruction du clocher de la Collégiale de Ciney. Celui-ci avait été détruit par une tempête et symbolisait les dégâts énormes que la commune a subis lors de cette époque. Les idées de reportages, les témoignages et photos reçus des habitants grâce à ce groupe ont été essentiels à notre couverture médiatique.
Aujourd’hui, combien de groupes Facebook gère la rédaction de Matélé ?
18 groupes : 15 groupes communaux ainsi que #tousàtable, L’esprit de clocher (lancé à Ciney) et Fan de volley. Avec les 15 groupes communaux, nous avons dépassé les 6.000 membres en quelques semaines… ce qui représente plus du tiers de l’audience qui avait été acquise en sept ans avec la fanpage ! Les interactions sont innombrables et nous avons très régulièrement des idées de reportage grâce à ces groupes.
Quelle est la principale difficulté dans la gestion de ces communautés ?
Ne pas avoir de tableau de bord qui permette de monitorer tous les groupes : il faut sans cesse passer de l’un à l’autre pour faire du community management, surveiller ce qui se dit, publier, etc. C’est un boulot énorme !
Les groupes Facebook offrent moins de possibilités que les fanpages, notamment pour les publications et le suivi des statistiques : n’est-ce pas handicapant ?
Les groupes Facebook ont fortement évolué depuis février 2018. Facebook a décidé d’améliorer leur fonctionnement en créant de nouveaux outils de gestion et en formant des gestionnaires de groupe de tous les pays à ces outils, notamment lors du Communities Summit de Londres. Il y a désormais des statistiques dans les groupes (même si elles restent moins fines que sur les fanpages) et il est possible de programmer des publications. Il y a beaucoup plus d’outils qu’on ne le pense.
Quels sont les conseils que tu peux donner à la suite de l’expérience de la rédaction de Matélé avec la mise en place et la gestion des groupes Facebook ?
- Ne pas créer de groupes autour d’une seule émission ou chaîne mais autour d’une communauté préexistante : foodies, habitants d’une commune, amateurs de sports, etc. ;
- Mettre en place des règles et les expliquer avec beaucoup de patience ;
- Répondre à toutes les interpellations sur le fonctionnement du groupe et la politique éditoriale du média ;
- Faire confiance aux groupes : ceux-ci évoluent parfois d’une manière qui n’avait pas été prévue initialement, mais qui correspond à ce que les membres en attendent. Il faut suivre le mouvement ;
- Rester en adéquation avec les valeurs du média.
Bref, les bénéfices des groupes Facebook sont nombreux, et il n’y a pas que les télés locales qui l’ont compris : depuis quelques mois, de plus en plus de médias investissent ce nouveau canal pour réengager leurs communautés. Un moyen aussi de rompre avec l’image d’un journalisme hors-sol, déconnecté des préoccupations des citoyens – à condition de faire les choses bien, et d’y mettre les moyens, avec un vrai travail d’éditorialisation des contenus et d’animation des communautés.
Pour découvrir d’autres projets de webjournalisme en presse locale, vous pouvez retrouver Arnaud Wéry sur son blog.
Liens vagabonds : Facebook et Google, financeurs majeurs du journalisme mondial
A RETENIR CETTE SEMAINE
On le pressentait sans oser se l’avouer : Facebook et Google sont officiellement devenus parmi les plus gros financeurs du journalisme dans le monde. A eux deux, les géants de la tech ont investi plus d’un demi milliard de dollars dans des bourses et initiatives de soutien aux médias ces trois dernières années. Un bon lifiting pour leur image de marque, alors qu’ils continuent dans le même temps à siphonner les revenus des éditeurs.
Dans son élan, Google vient d’annoncer une nouvelle version de Google News boostée à l’IA. A la clé, la promesse d’algorithmes qui épluchent l’actu et génèrent des formats simples et accessibles tels que des frises chronologiques ou encore des résumés agrégeant différentes sources d’info.
L’actu de la semaine est chargée aussi pour sa filiale YouTube, qui annonce le lancement imminent de son service de streaming musical sur abonnement. De quoi s’inquiéter chez Spotify ? L’avenir nous le dira.
Aux US, la Cour suprême autorise désormais les paris sportifs : une révolution pour les médias sportifs, qui risquent bien de voir leur marché se transformer.
On finira sur un conseil de Tim Cook, « be fearless » : une phrase issue de son discours prononcé à l’université de Duke en Caroline du Nord, à visionner ici :
3 CHIFFRES
6 secondes – la durée de la de pub désormais imposée sur Snapchat
85% – la part de dépenses que Netflix va consacrer à la production de contenus originaux
Le marché français de la SVOD multiplié par 9 depuis 2012
MUST READ
- Le futur des médias : en finir avec le mythe de la gratuité
- Must read : 8 livres pour développer votre culture numérique
- Archive.org, YouTube, Twitter, Sendvid… comment l’Etat islamique diffuse sa propagande sur Internet
SURVEILLANCE, CONFIANCE
- Une douzaine de salariés de Google démissionnent pour protester contre un contrat avec le Pentagone
- Collecte d’historique des appels et SMS : Facebook visé par une plainte collective
- Après le scandale Cambridge Analytica, Facebook suspend 200 applications suspectes
- Facebook : la directrice de la politique des contenus explique les règles de modération

LEGISLATION, REGLEMENTATION
- RGPD : la mise en conformité ne doit pas se faire au détriment du parcours utilisateur
- Qu’est ce qu’implique le RGPD pour les journalistes ?
- L’Assemblée nationale muscle les sanctions contre le cyberharcèlement de groupe
DISRUPTION, DISLOCATION, MONDIALISATION
- Dans leur transition vers le payant, les éditeurs craignent la spirale du désabonnement
- Spotify, Apple Music, Pandora… Vers une modération de la musique ?
- Facebook pourrait lancer sa propre cryptomonnaie
- La Blockchain, c’est la quatrième révolution industrielle !
USAGES ET COMPORTEMENTS

- Je dédie ma vie à Bitcoin
- Ethics by design : Instagram vous permettra bientôt de voir combien de temps vous passez sur l’appli
- Haine, harcèlement, trolls : le web nous a-t-il rendus plus méchants ?
RÉSEAUX SOCIAUX
- Des milliers de relations sur les réseaux sociaux, mais combien de vrais amis ?
- Facebook : finalement pas d’impact du changement du newsfeed pour les éditeurs
- Facebook lance Local en France, une nouvelle application pour planifier les sorties
PLATEFORMES VIDEOS, OTT, SVOD
- Streaming vidéo : Netflix en tête, les TVs derrière
- Comment Netflix et Amazon secouent aussi l’industrie du film au Japon
- Le CSA autrichien empêche sa TV publique d’avoir une chaîne YouTube
- YouTube Premium remplace YouTube Red et coûte plus cher
- Youtube lance une fonctionnalité pour contrôler votre consommation vidéo
- YouTube teste le mode incognito dans son application
STORYTELLING, NOUVEAUX FORMATS
- YouTube désormais préféré à Facebook pour les vidéos
- BuzzFeed News lance un nouveau podcast « The News »
- Les 4P du podcasting : comment transformer une idée en un hit audio
- Quand la version audio est plus populaire que l’imprimé
- Et si la réalité virtuelle n’avait du sens que dans le documentaire ?
- Comment différencier sa ligne éditoriale entre flux et Stories Instagram ?
- En 2018, on reconnaît un hit aux mèmes qu’il génère
- Comment innover dans les TV locales ?
JOURNALISME
FAKE NEWS
DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE
- Une IA s’invite au mariage de Meghan Markle et du prince Harry
- Une IA de DeepMind fait encore des siennes en apprenant à naviguer dans un espace virtuel labyrinthique
- Twitter : 12 façons d’identifier un bot
- 6 applications convaincantes de l’intelligence artificielle
PUBLICITE, MONETISATION
- Comment le RGPD va faire éclater la bulle adtech
- Amazon teste auprès de ses marchands une solution de reciblage publicitaire
- Pourquoi les marques consacrent-elles autant de temps et d’efforts à courtiser les millenials sur les réseaux sociaux ?

TECH, STARTUPS, SMART
- Le gouvernement veut accélérer le développement des véhicules autonomes
- La technologie au secours de la biodiversité
- En Irlande, un data center Apple sème la discorde
EDUCATION
OUTILS
Retrouvez la sélection des outils Méta-Media sur jTools
ES avec l’équipe Méta-Media
Pour capter l’attention du public, posez des questions plutôt que de donner des réponses
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
La course à l’attention : l’expression semble déjà être devenue une vieille rengaine pour désigner la féroce bataille que se livrent plateformes sociales, éditeurs médias et autres annonceurs publicitaires pour capter notre attention. Cette « crise de l’attention » dénoncée par certains nuit-elle à la qualité de l’info délivrée aux citoyens ? Et de quelle attention parle-t-on au juste ?
C’est autour de ces questions que le Collège des Bernardins a réuni cette semaine la théologienne Gemma Serrano, les journalistes Julien Goetz et Eric Fottorino et le sociologue Yves Citton pour deux heures de débat animé.
L’attention, une marchandise comme les autres ?
Pour bien comprendre, un détour par l’histoire s’impose. Comme l’explique Yves Citton, la course à l’attention ne date pas d’hier : c’est en 1833 que le journal The New York Sun s’est vendu pour la première fois pour la moitié de son prix de production, l’autre moitié étant financée par des espaces vendus à des annonceurs. Le début d’un modèle économique qui s’imposera progressivement pour devenir la norme dans les médias… Et un nouveau paradigme qui a permis d’abaisser le coût de l’info : sans la pub, l’édition papier du Monde serait vendue dix fois plus cher… soit 28€ ! Hubert Beuve-Méry, fondateur du Monde en 1944, parlait d’ailleurs de « bienfaisante publicité », sorte d’éloge à cette réclame qui permettait à son quotidien d’avoir un modèle économique viable.
Mais dans l’ère de la surabondance, cette « bienfaisante publicité » a rapidement tourné au lavage de cerveau, tout le monde (médias, annonceurs, plateformes sociales) se disputant notre attention à coups de slogans accrocheurs et de titres choc. Une guerre intestine féroce pour capter le fameux « temps de cerveau humain disponible », selon l’expression, reprise ad nauseam depuis quinze ans, de l’ancien PDG de TF1 Patrick Le Lay. Alors certes, ce n’est pas nouveau, comme le souligne Julien Goetz : « Avant le numérique, l’enjeu était de faire une couv’ qui donne envie d’acheter le journal. Aujourd’hui, c’est de faire en sorte d’amasser du trafic vers le site [du média] ».

Ce qui est nouveau en revanche selon Eric Fottorino, c’est que « chaque concurrent est à un clic de souris : même inconsciemment, un certain nombre d’émetteurs ont voulu, dans leur titraille, dans leur manière de mettre en avant tel ou tel type d’information, capter l’attention. Parce que cette attention crée du clic, donc des pages vues, donc de la publicité. Donc si votre hiérarchie de l’information, c’est de montrer une vidéo avec un chat dans une baignoire, le contenu est très pauvre, mais vous avez attiré à vous un certain nombre de lecteurs. Alors que si vous faites une information moins spectaculaire, mais de fond, elle aura peut-être moins d’attrait. »
L’autre nouveauté aujourd’hui, soulignée par Yves Citton, c’est qu’avec l’ère numérique, l’attention est devenue une ressource quantifiable : là où les journaux ne pouvaient analyser d’autres indicateurs que ceux de leurs chiffres de vente, les médias numériques ont aujourd’hui à leur disposition tout une palette d’outils de mesure d’audience qui leur permet de surveiller très finement l’attention des utilisateurs à coup de pages vues, de temps passé ou encore d’engagement généré par leurs contenus. Avec une limite toutefois : tous ces indicateurs traduisent une approche purement quantitative de l’attention.
Pour une approche qualitative de l’attention
Alors, l’attention ne se réduit-elle vraiment qu’à un nombre de pages vues ou de minutes passées à visionner une vidéo ? Loin de là selon Gemma Serrano, convaincue que les médias peuvent faire appel à d’autres formes d’attention, plus qualitatives, qui relèveraient davantage du domaine du sensible.
Pour cela, explique-t-elle, il faudra se concentrer sur la mise en scène du contenu, comme le fait Le 1 : « C’est une expérience esthétique de lire Le 1, de le plier et de le déplier ! Il y a toute une expérience design, corporelle qui appelle aussi l’attention. La forme et le contenu sont intimement unis maintenant dans l’expérience journalistique. L’attention est relationnelle, mais aussi corporelle : il y a une manière attentive d’être en relation avec ces outils qui nous invitent à veiller sur notre disponibilité aux choses – comment on va être disponible à cette esthétique du toucher qui va nous faire lire ou pas les nouvelles, à capter les couleurs… ».
Dans une approche spirituelle fondée sur sa formation en théologie, Gemma Serrano est revenue aussi sur la notion même d’attention, et ce qu’elle signifie dans les Saintes écritures – un retour aux sources utile pour s’émanciper de la vision utilitariste, voire mercantile, que les médias en ont habituellement :
« Dans les Saintes écritures, l’attention signifie ‘veiller sur son cœur’, se demander ce qui est vraiment important et essentiel. […] Se demander : qu’est-ce qui fait que j’accorde mon attention à cette information ; de la colère, de la curiosité… ? Quelle disponibilité est-ce que j’accorde aux différentes informations ? »

Une approche plus qualitative donc de l’attention, qui peut être salutaire pour questionner notre manière de nous informer. Ce questionnement est d’ailleurs souligné par Julien Goetz pour expliquer notre relation à la désinformation :
« La désinformation nous renvoie à un questionnement qui nous individualise par rapport à l’info : elle nous oblige à nous dire que notre rapport à l’information n’est pas un rapport pragmatique. C’est un rapport émotionnel : qu’est-ce que cette info dit de moi ? pourquoi je la partage ? pourquoi je vais partager une info que je sais fausse, mais qui m’émeut parce qu’elle me conforte dans mes convictions, dans ma colère… ? Il faut parvenir à faire le distinguo, à reconnaître que l’on a un rapport émotionnel à l’information. Et à accepter de laisser passer l’émotion pour nous interroger ensuite plus pragmatiquement sur ce que l’on pense de cette information. »
Un cheminement personnel dans lequel les médias doivent pouvoir nous accompagner, selon Eric Fottorino, en réaffirmant leur rôle d’éclaireur, pas simplement en donnant des réponses, mais surtout en posant des questions :
« Quand on demandait à Kundera si le roman avait réponse à tout, il répondait que c’était bien une vanité humaine de croire que l’on peut avoir réponse à tout : le roman a question à tout. Je pense que notre rôle [de médias] est effectivement un rôle de questionnement : lorsqu’on est face à un média bien fait, on va ressortir avec plus de questions que l’on n’en avait en entrant. »
Et Julien Goetz de conclure : « Appliquée à l’information, la logique de questionnement doit faire en sorte qu’à chaque fois qu’un média émet une info, il essaie de bousculer pour créer du mouvement. » Ne pas donner des réponses immuables mais « assumer la complexité du monde dans lequel on vit en partageant des questionnements et en laissant à chacun la liberté de choisir ses réponses ».
Un journalisme de questions plutôt qu’un journalisme de réponses : et si c’était ça, la solution pour capter à nouveau l’attention du public ?
Pour voir la conférence en intégralité :
C’est pas la taille qui compte ! Quand les séries se libèrent des grilles de programmation
Par Morad Koufane, France Télévisions, Responsable du planning stratégique
Dans l’ère de la Peak TV, on assiste à une prolifération du nombre d’épisodes dont la durée dépasse de loin les standards de l’industrie (42-52 minutes pour les drames américains et 22-30’ pour les comédies) avec notamment les plateformes comme Netflix ou Amazon qui s’arrachent des talents du monde entier en leur offrant carte blanche et final cut.
Les formules rigides du passé ne semblent plus s’appliquer aujourd’hui et il est de plus en plus rare qu’une série affiche des durées uniformes par épisode, signe « objectif » d’une liberté de création plus importante et d’une montée en gamme artistique incontestable.
Une série de « 13 films »
La nouvelle norme des épisodes de série se rallonge de plus en plus lorgnant vers le long métrage. Ce faisant, la série change de statut, avec comme moule esthético-marketing Mad Men, vendu à l’époque (2007), comme une série de « 13 films ».
Dans l’univers des networks et du câble non premium, la longue durée d’un épisode envoie le signal d’une appartenance à ce monde sans coupure de pub à grande portée créative.
Des chapitres plus que des épisodes
Le rallongement de la durée permet par exemple aux auteurs de conserver des scènes sans dialogues qui auraient été coupées au montage il y a encore quelques années (à l’instar des 12 minutes dans le pilote de la saison 5 de The Americans où l’héroïne creuse une tombe ou les 20 minutes non dialoguées du finale de The Leftovers).
« Le téléspectateur ne sait plus à quoi s’attendre d’un épisode à l’autre », comme le dit Alan Yang le co-créateur de Master of None, qui peut ainsi passer d’un épisode d’une durée de 21 minutes (s02e03) au superbe épisode s02e09 Amarsi un Po de 57 minutes.

La consommation d’affilée de plusieurs épisodes (plus de 3 d’affilée) change complètement l’expérience de visionnement et rapproche la série de l’expérience immersive de la lecture. Le roman s’est avéré la matrice ces dernières années des séries de prestige. Elles ont adopté les différents attributs de cette forme : storytelling dense, écriture nuancée, idées innovantes, voix nouvelles, anti-héros ambigu, dispositif choral (souvent une famille dysfonctionnelle) en somme une série qui encapsule l’air du temps (par son thème, sa technique, son ambition).
D’où la découpe désormais en « chapitres » des séries plus qu’en « épisodes ». Les tailles des chapitres dans un roman ne sont pas mécaniquement uniformes. La longueur répond à l’évolution dramatique voulue par l’auteur, avec une exposition de la situation plus ou moins rapide, une mise en place de l’univers plus ou moins lente, une construction des personnages plus ou moins fouillée, des accélérations de tempo, des climax dramatiques, etc. C’est la direction de l’histoire qui dicte désormais la durée des épisodes / chapitres.
Le côté roman du Binge-Watching, notamment pour les séries des plateformes de SVOD, permet une liberté de montage et de création plus forte, jusqu’à travailler l’exposition d’une série non plus sur la première partie du premier épisode mais de l’étendre sur la totalité du pilote, voire sur plusieurs.
Prétentieuse, esthétisante, ennuyeuse
A rebours, une autre façon de voir les choses se fait jour et prend de l’ampleur ces derniers mois, avec d’une part, la critique de la complaisance : la longueur de l’épisode signale fortement sa soi-disante importance et son appartenance aux « séries dite de prestiges ». Le budget et la production value l’emportent plus souvent sur le moyen de servir au mieux la narration de l’épisode. Comme si « plus » (de temps et de budget) devenait automatiquement « mieux » (prestige et qualité). Game of Thrones, par exemple, n’en peut plus de montrer ses muscles sur chaque fin de saison (s07e05 59’, s07e06 71’ et s07e07 81’), mais fait souvent du surplace pendant plusieurs épisodes sans aucun problème.
Tandis que l’ennui pointe souvent son nez, bon nombre de showrunners vantent les mérites des contraintes issus des networks (coupures pub, case horaire) qui obligent à resserrer la narration en s’appuyant sur la structure en acte (une pause chaque 15 minutes). Le créateur de The Good Place voit du gras dans la plupart de ces épisodes de prestige: « Donnez moi deux heures avec un monteur, et je vous dégage 15 minutes sans problème ».
D’autre part, une critique esthétisante se fait entendre : « Miroir mon beau miroir, dis-moi qui est la plus belle ? ». C’est ce que semblent nous dire ces épisodes à rallonge, se laissant aller à la tentation esthétisante. Le docudrama Wormwood sur Netflix, pourtant salué pour sa forme nouvelle mariant reconstitution Drama Premium et documentaire a pris cher quant à son format de 6 épisodes alors qu’un film de deux heures bouclait l’affaire.
À I/O, l’IA imite l’humain
Par Jérôme Derozard, consultant et entrepreneur. Billet invité
La séquence n’est pas passée inaperçue. Au cours de la keynote d’ouverture de la conférence Google I/O qui s’est tenue début mai, Sundar Pichai, PDG de Google, a présenté une démo qui semblait tout droit sortie d’un film de science-fiction.
On y voyait un utilisateur demander à Google Assistant de prendre une réservation pour lui. Mais au lieu de passer par un service de réservation en ligne, l’agent virtuel appelait directement le restaurant en se faisant passer pour un humain, imitant ses intonations et hésitations. Sundar Pichai indiquait que cette nouvelle plateforme nommée « Duplex » s’appuyait sur les technologies les plus avancées de Google en matière d’intelligence artificielle et était testée en conditions réelles. Si aucune date de lancement n’a été fournie, cette démo a déclenché de nombreuses réactions, notamment chez les sceptiques de l’I.A. Est-il « éthique » pour une machine d’appeler un humain sans s’identifier comme un robot ? Certains télé-marketeurs appellent bien leurs prospects avec une annonce préenregistrée simulant l’appel d’un vrai conseiller.
Dans le cas de Duplex, il ne s’agit pas d’une simple annonce vocale mais d’une intelligence artificielle capable d’imiter un humain pour arriver à ses fins, avec le risque qu’elle soit détournée par des escrocs cherchant à submerger une entreprise d’appels par exemple. Faudra-t-il que les entreprises mettent en place un « captcha » sur leur ligne téléphonique pour bloquer les appels de « robots » ? Google a en tout cas annoncé que Duplex s’identifierait à présent comme robot au début de chaque conversation.

Une IA, des usages concrets
Au cours de sa keynote, Sundai Pichar a tout de même tenté de montrer l’impact positif de l’I.A. en multipliant les cas concrets d’utilisation. Ainsi les technologies de reconnaissance vocale couplées à l’analyse visuelle permettent de générer des sous-titres sur les vidéos YouTube, en plaçant chaque phrase à côté de son locuteur ; une fonctionnalité particulièrement utile lors de débats passionnés. Autre cas d’utilisation, la coloration automatique de photos en noir et blanc ; on peut imaginer une application future pour restaurer les films en noir et blanc, avec amélioration de la qualité des images et pourquoi pas du son pour redonner une vie (commerciale) aux vieux films.
Les progrès de l’I.A. touchent bien sûr en priorité les produits Google. Ainsi, grâce à la technologie « wavenet » développée par DeepMind, six nouvelles voix de synthèse arrivent sur Google Assistant (en anglais pour l’instant) et des voix de célébrités pourraient prochainement faire leur apparition, dont celle de John Legend (Morgan Freeman aurait sans doute été plus adapté). Par ailleurs Google continue sa lutte à distance avec Amazon en lançant des fonctionnalités similaires à celles d’Alexa ; ainsi il est possible de poser des questions complémentaires à l’Assistant sans avoir à prononcer à nouveau le mot-clé « OK Google » – ce qui sous-entend que le microphone reste systématiquement ouvert après chaque requête. L’Assistant est également maintenant capable de traiter plusieurs requêtes dans une même phrase.
Avec la fonction « Pretty please », Google tente encore une fois de montrer que l’IA peut aider à « faire le bien ». En activant ce mode sur Google Home, les parents pourront forcer leurs enfants à dire « s’il te plaît » avant une demande à Assistant, et ils seront récompensés. En attendant les punitions administrées par agent virtuel ?
Plusieurs nouveautés ont aussi été annoncées dans le domaine des « actions », ces applications destinées à Google Assistant. De nouvelles réponses « visuelles » sont disponibles sur Assistant, que les éditeurs pourront personnaliser suivant leur charte graphique. Ces réponses visuelles seront disponibles sur smartphone et sur les nouveaux appareils compatibles Google Assistant disposant d’un écran, les premiers étant lancés en juillet aux Etats-Unis. D’autres appareils intégrant le « Google Assistant SDK » pourront également afficher des réponses visuelles provenant de l’assistant, comme des télévisions connectées, décodeurs TV, cadres photo intelligents…

Google ne néglige pas les enceintes connectées avec de nouvelles fonctionnalités vocales. Ainsi les utilisateurs peuvent maintenant s’authentifier dans une « action » vocale en utilisant leur compte Google. Ils pourront également effectuer des achats dans une action en utilisant uniquement la voix dès la semaine prochaine en France. Enfin, il sera possible de retrouver des contenus numériques ou des abonnements achetés via le « Play Store » dans une action.

Google Assistant x Android
En parallèle, Google cherche à intégrer plus profondément Assistant à Android et a annoncé deux nouvelles fonctions disponibles cet été. D’abord « App Actions », qui permet aux applications installées sur un smartphone d’exposer des liens profonds permettant d’accéder directement à une fonctionnalité ou un contenu. Ces actions seront affichées dès cet été lorsque l’utilisateur fera une recherche sur Android (6.0 ou plus) et ultérieurement sous forme de suggestions dans Google Assistant. Dans la nouvelle version Android P, qui sera lancée à la fin de l’année, les suggestions apparaîtront aussi lorsque l’utilisateur sélectionnera un texte.

Les actions seront également visibles dans la boutique d’applications Google Play pour les applications non installées et « intentions » supportées, par exemple regarder un film, obtenir les dernières actualités…
Google a également présenté les « Slices », des aperçus d’applications de type « widget » qui apparaîtront dans les résultats de recherche cet été puis dans Assistant. Compatibles avec 95% des appareils sous Android, ces « Slices » permettront aux utilisateurs d’accéder directement à une fonctionnalité d’une application sans avoir à la lancer – par exemple écouter un titre musical, lister les dernières commandes…
Pour la nouvelle version d’Android « P », Google veut devenir un « coach de vie numérique » afin d’aider les utilisateurs à décrocher de leur écran (et des services concurrents). Ainsi la nouvelle version fournira un tableau de bord précis du temps passé pour chaque application et permettra de limiter le temps passé sur une application donnée ou de définir une heure de coucher à laquelle l’écran basculera en mode noir et blanc. En parallèle, YouTube a lancé une fonction permettant de définir une durée maximale de visionnage pour éviter le « binge watching » immodéré.
Une session de Google I/O était dédiée à Android TV, la déclinaison d’Android pour les TV connectées et décodeurs TV. La plateforme compte plus de 3 600 applications et jeux et plus de 100 partenaires, tandis que le nombre d’appareils activés a doublé entre 2017 et 2018.

Si la plateforme n’a pas connu de nouvelles améliorations depuis l’année dernière, de nombreuses optimisations ont été apportées pour la rendre plus fluide sur les appareils bas de gamme, comme les décodeurs TV d’entrée de gamme de nos opérateurs. Google a aussi confirmé qu’Assistant serait disponible dès cette année en France sur Android TV pour permettre un accès aux « actions » via une télécommande. Le groupe a annoncé cette semaine un nouvel appareil sous Android TV : JBL Link, une barre de son disponible cet automne en France. Comme les premiers appareils Google TV, la JBL Link dispose de ports externes pour brancher d’autres appareils comme une console ou un décodeur TV. Grâce à Google Assistant, l’utilisateur peut ensuite changer de source vidéo, éteindre ou allumer sa télévision uniquement à la voix.
Google continue de capitaliser sur ses incontournables
Google a aussi profité de I/O pour dévoiler des améliorations sur ses produits phares. Le nouveau Google Actualités sur mobile et web fait la part belle à l’Intelligence Artificielle pour déterminer les cinq principaux articles à consulter à tout moment – certains éditeurs vont s’empresser d’embaucher des experts en « AI engine optimization » pour tenter d’apparaître dans cette liste. Grâce à l’IA, Google Actualités proposera aussi un nouveau format de contenu, Newscast, qui rassemblera des informations sur un événement dans une « story » visuelle. La fonctionnalité pompeusement nommée « co-localité temporelle » permettra d’avoir plusieurs points de vue sur un même événement, avec le risque, bien connu des animateurs de débat, que tous les points de vue soient mis sur le même plan, même lorsqu’ils sont minoritaires.
L’application Google Maps devient plus personnalisée et sociale en proposant une sorte de « Google Trends » des lieux populaires à proximité, un service de « matching » pour choisir des lieux similaires à ceux préférés par l’utilisateur (à quand le service de rencontre intégré à Maps ?) et une fonction de « playlist » pour choisir collectivement une liste de lieux à visiter. Google va également permettre de prendre un rendez-vous directement dans un commerce de proximité ou un cabinet de santé – sans passer par Duplex pour l’instant. Enfin, Google Maps s’intègre lui aussi à la caméra au travers d’une fonction permettant de guider l’utilisateur via des incrustations en réalité augmentée et un nouveau mode « VPS » (Visual Positionning System) pour déterminer précisément la position du smartphone. En revanche, Google a été très discret sur la récente hausse des tarifs d’utilisation des APIs Google Maps…
Sur Chrome, le mode « Picture in Picture » (déjà possible sur mobile) va être déployé sur les ordinateurs ; il permettra d’afficher une vidéo dans une fenêtre tout en continuant sa navigation. Google a profité de la conférence pour évoquer les avancées récentes autour du Codec « AV1 », qui est supporté par l’ensemble des GAFA/M/N.

Cet algorithme de compression vidéo permet des gains importants par rapport à H264 et VP9 (le format open-source de Google, utilisé principalement sur Android et YouTube), mais moins importants par rapport à HEVC/x265, le codec actuellement utilisé pour la compression des vidéos 4K/UHD. L’avantage principal de AV1 est l’absence de licence propriétaire, qui permet une réduction significative des coûts d’encodage. Si le support dans Chrome est prévu au troisième trimestre 2018, les premiers processeurs intégrant le codec ne devraient pas apparaître avant 2020, et donc les premiers appareils capables de lire des vidéos compressées en AV1 de façon fluide ne seront pas disponibles d’ici trois ans…
L’AR n’est pas en reste
Dernier sujet abordé à la conférence Google I/O : la réalité augmentée. Google Lens, la caméra intelligente disponible sur certains appareils Android, permet à présent de copier et coller directement du texte depuis une photo via la reconnaissance de caractères. La fonction « Style Match » peut trouver un vêtement au style similaire à celui pointé par l’utilisateur. Les résultats des recherches effectuées depuis Lens apparaissent maintenant directement au-dessus des objets filmés. Enfin, Lens sera prochainement disponible sur d’autres appareils que ceux de la gamme Google Pixel.
La librairie de développement d’applications de réalité augmentée AR Core s’enrichit également. Elle est actuellement disponible sur 100 millions d’appareils Android, un chiffre largement inférieur au nombre d’appareils iOS qui ont accès à AR Kit, la librairie d’Apple. AR Core permet à présent de créer des applications sociales où plusieurs utilisateurs peuvent interagir avec un objet en réalité augmentée en même temps ; une fonction disponible sur Android et iOS. AR Core supporte aussi les images augmentées, afin de créer facilement des effets de R.A. sur des images fixes.
La grande absente de ce Google I/O est la réalité virtuelle, qui était présente uniquement via quelques démonstrations dans une « tente » également dédiée à la réalité augmentée et via une application dédiée aux salles de classe. Cette discrétion est surprenante alors que Google a lancé la semaine dernière en partenariat avec Lenovo son premier casque autonome : le Mirage Solo, concurrent de l’Oculus Go de Facebook. Signe que la société songe à se retirer du marché de la VR ? Simple conflit de calendrier ? Il serait étonnant que Google laisse le marché à son concurrent Facebook, et ce alors que des rumeurs prêtent à Apple la volonté de lancer son propre casque AR/VR. Rendez-vous à la fin de l’année, lors des traditionnelles annonces de produits matériels de Google, pour en avoir le cœur net.
« Media and Democracy » : un lab de recherche et d’innovation au service du journalisme et du débat public
Cet article est tiré d’un billet originellement publié sur media-innovation.news. Il est présenté dans le cadre d’un partenariat éditorial entre WAN-IFRA et Méta-Media. © [2018] Tous droits réservés.
Au sein du technopole de Lindholmen, des organisations médiatiques, des universitaires et des institutions publiques cherchent à innover en menant des recherches expérimentales.
Le programme de recherche et d’innovation Media and Democracy a été lancé au cours de l’été 2017 pour faciliter la collaboration entre des universités et des entreprises médiatiques en Suède sur des projets expérimentaux. Ses missions principales sont de créer une dynamique de recherche innovante et de financer des projets qui feront émerger de nouvelles connaissances et de nouveaux outils, bénéfiques au journalisme et au dialogue citoyen.
Martin Holmberg, responsable du programme, et son collègue Jonathan Falck ont réuni différents acteurs au cours d’un séminaire pour échanger sur la manière dont l’innovation influence les médias et la démocratie. Leur action s’inscrit dans une logique d’open innovation : la participation citoyenne est ainsi accueillie à bras ouverts.
Alors que les entreprises médiatiques ne collaborent pas les unes avec les autres autant qu’elles le pourraient ou le devraient, les universitaires, eux, cherchent de plus en plus à accéder à ces entreprises afin de donner un volet pratique à leurs recherches. D’après Martin Holmberg, le technopole de Lindholmen constitue un espace neutre au sein duquel il peuvent se rencontrer physiquement et intellectuellement pour développer ensemble des idées innovantes.
« Lindholmen est une organisation à but non lucratif, pas un concurrent. Notre mission est de rendre service à la société et de contribuer à la réussite de ses acteurs et de l’ensemble des membres de notre réseau. »
Renforcer la démocratie locale
Le journal suédois Borås Tidning, RISE Interactive et l’université de Södertörn ont pris part à l’un des premiers projets du Lab. Dans la perspective de renforcer le journalisme local, ils ont conduit une expérience à partir de sujets et de formats qui intéressent les jeunes audiences :
« Ils ont choisi quatre personnes de 25 à 35 ans qui travaillent pour le journal ; certains sont journalistes, d’autres non. Ils n’ont pas de compte à rendre aux rédacteurs en chef comme c’est le cas des autres journalistes, afin que l’on puisse comparer les différences. C’est typiquement de cette façon que nous souhaitons travailler, par expérimentation. »
C’est avec ce type de projet que Lindholmen entend développer le local dans le paysage des nouveaux médias. Dix ans plus tôt, les discussions avaient encore lieu sur des plateformes locales ; elles se tiennent désormais majoritairement sur les réseaux sociaux. Cela pose de sérieuses questions pour les médias et la démocratie, explique Martin Holmberg :
« Comment peut-on s’assurer qu’à l’avenir il sera possible d’alimenter des débats publics à l’échelle locale et que les gens partageront suffisamment d’informations importantes pour éventuellement avoir entre eux des discussions démocratiques ? Sur les réseaux sociaux, on ne partage pas les mêmes informations, dès lors, développer une communauté locale devient un défi. »
Les nouveaux usages médiatiques
Une société évolue, et avec elle la façon dont les gens interagissent avec les médias :
« Je constate par exemple que ma femme et moi-même ne vivons pas du tout de la même façon que mes parents. Je vis dans une petite ville au nord de Göteborg, on se déplace en train donc on ne peut pas prendre le temps de faire les mêmes choses que mes parents à l’époque. Mes parents travaillaient à 10 minutes à vélo de notre maison. Ils passaient prendre le journal le matin et le soir. Je me souviens que de temps à autre mon père repassait déjeuner à la maison et repartait en vélo. Je ne connais personne de mon âge qui fait la même chose. »
Le but de chacun des projets est de mieux comprendre comment les gens agissent, ce qui est important pour eux, et quels types de technologies peuvent être développés pour les accompagner. Mais ce n’est pas la technologie qui est au centre, ce sont les besoins des gens.
Une résolution des problèmes en « bottom-up »
De la même manière, Media and Democracy décide des sujets qui sont abordés en interrogeant les membres du réseau qui partagent les principaux défis auxquels ils doivent eux-mêmes faire face. Quatre fois par an, ils invitent autour de la table des personnes aux compétences et aux expériences diverses, y compris des chercheurs, des entreprises média et des citoyens :
« Nous discutons des défis qu’ils entrevoient, des projets qui leur semblent adaptés pour acquérir plus de connaissances sur ces défis, des expérimentations que l’on pourrait mener, des gens à qui nous devrions parler, et nous leur demandons si eux-mêmes souhaiteraient participer à un tel projet. »
C’est incroyable à quel point différents acteurs partagent en définitive des problèmes similaires, explique Martin Holmberg. Le rôle de Media and Democracy est de collecter ces considérations et d’en faire des projets concrets :
« Après cette table ronde, ils retournent à leur quotidien, mais nous avons le temps et l’opportunité de réfléchir à la façon dont nous pouvons mettre tout ça en place, quels partenaires nous pourrions inviter, où nous pourrions trouver des financements. Nous travaillons beaucoup dans l’ombre pour mettre ces projets sur pied et les faire tourner. »
La plupart du financement provient de la région Västra Götaland, mais l’initiative est aussi soutenue par des médias privés, des télévisions publiques et des acteurs clés du monde universitaire suédois.
Un écosystème innovant
Le technopole de Lindholmen a fait son apparition récemment dans le vieux port de Göteborg. Quand les chantiers navals ont fermé leurs portes dans les années 1970, le technopole les a remplacés et a commencé à attirer des entreprises du secteur de l’IT, de l’automobile et des médias. Les technopoles suédois sont généralement portés sur le business, mais celui de Lindholmen est assimilé à la technologie et à la créativité. Il a pour but de réunir différentes perspectives et talents pour trouver de nouvelles solutions :
« L’incubateur de jeux vidéo lance des produits qui sont téléchargés et génèrent du business. La moitié des films suédois sont d’une manière ou d’une autre liés au technopole de Lindholmen. Et de nombreuses entreprises et collectivités ont recours à nos technologies de visualisation et profitent de notre écosystème, y compris pour renforcer la démocratie. Nous pouvons combiner des expertises et des technologies dont nous disposons pour innover dans les médias. »
En dépit de la jeunesse du programme, Martin Holmberg espère que son succès sera similaire à celui des labs plus « matures » du technopole de Lindholmen.
SERIE MEDIA LABS
- Episode 8 APA-MediaLab : le Lab doit être tourné vers l’avenir
- Episode 7 L’innovation à l’Associated Press : partager une culture plutôt qu’un Lab
- Episode 6 Next Media Accelerator : comment l’Agence de Presse allemande accélère des start-ups médias et marketing
- Episode 5 Ouest Médialab, un cluster et laboratoire des médias qui accompagne les acteurs régionaux dans leur transition numérique
- Episode 4 BBC News Labs : une cellule dédiée à l’innovation média et au développement produit
- Episode 2 Le MediaLab « Théophraste » de Sud Ouest : créer des relations avec l’écosystème régional de startups
- Episode 1 Le Medialab de l’AFP : la vérification de l’info et l’UX au cœur de l’innovation journalistique