L’IA n’est pas neutre : quand l’algorithme apprend, qui enseigne?
Par Marina Pavlovic Rivas, Consultante indépendante en exploitation de données. Billet invité
L’intelligence artificielle (IA) fait déjà partie intégrante de notre quotidien et va être amenée à influencer directement la plupart des sphères de nos vies. Comment s’assurer que cette influence se traduise de manière positive pour l’ensemble de la société? Des décennies de recherches fondamentales ont permis de relever un défi sans précédent dans l’histoire de l’humanité : celui de développer des machines intelligentes. Le défi est maintenant de rendre ces machines morales.
L’ère de la machine intelligente
La sous-traitance de tâches humaines à des machines ne date pas d’hier. La nouveauté avec les dernières avancées en IA, c’est la nature des activités qu’il est possible d’automatiser. Des programmes informatiques peuvent désormais faire des tâches qu’on associe à l’intuition, à la créativité ou à une expertise pointue. Que ce soit conduire une voiture, analyser des textes ou interpréter des radiographies, les algorithmes font des actions qu’on croyait réservées à l’humain… et les font parfois mieux.
Un algorithme peut non seulement traiter une quantité d’informations trop massive pour n’importe qui, il peut le faire de manière plus rapide, plus précise et moins coûteuse qu’une personne. Tous les secteurs d’activité sont concernés : partout où nous devons prendre des décisions complexes, on réfléchit à comment l’IA pourrait se substituer à nous ou nous soutenir et ce, à grande échelle. Cela pose des enjeux éthiques sans précédent car l’intelligence, artificielle ou naturelle, n’est pas synonyme d’éthique.
Comment vous sentez-vous face à l’idée qu’une machine influence des décisions qui ont un impact majeur sur la vie d’individus ? Pensons par exemple au choix d’embaucher une personne, ou à celui d’en incarcérer une autre. Certains s’en réjouissent, dans la logique où diminuer l’intervention de l’humain diminuerait du même coup l’effet de nos biais qui sont à la source d’injustices persistantes. Sauf que paradoxalement, donner plus de place à la technologie peut amplifier ces biais plutôt que les atténuer.

Le mythe d’une neutralité algorithmique par défaut
L’IA englobe le concept d’apprentissage machine. C’est en quelque sorte la capacité d’un algorithme à apprendre la meilleure recette pour réaliser une tâche, sans qu’une personne ne lui dicte cette recette. On pourrait donc penser qu’en sortant l’humain de la technologie, l’algorithme peut prendre des décisions plus objectivement que nous n’en serons jamais capables. C’est faux, du moins par défaut. Quand la machine apprend, ce sont les données qui lui enseignent et ces données sont notre miroir.
La donnée est un extrait imparfait d’une réalité. L’extrait soumis à la machine pour son apprentissage peut refléter les biais de la personne qui l’a choisi ou comporter des biais indissociables des activités humaines. Cela fait en sorte que la discrimination n’est pas éliminée, elle est automatisée. Des décisions auparavant prises par des humains ayant chacun leurs biais peuvent désormais être prises par un seul algorithme qui a détecté les biais les plus fréquents et qui les a généralisés en tant que patterns à suivre.
Joy Buolamwini, une chercheure noire au MIT Media Lab, a par exemple démontré comment des systèmes de reconnaissance faciale peuvent être racistes. Ils ne détectaient tout simplement pas son visage. Dans un autre cas, un système d’étiquetage de Google apposait la mention « Gorilles » sous la photo de deux amis noirs. Ces algorithmes ont été entrainés avec des images de personnes à l’apparence si homogène qu’ils ne peuvent pas reconnaître qu’un humain en est un s’il ne correspond pas à ce profil.
Le challenge technique de la suppression des biais peut être surmonté
Même les programmeurs les plus consciencieux ne peuvent échapper aux biais imbriqués dans les données… à moins de les altérer ou d’inciter un comportement chez l’algorithme. Il y a quelques années, des chercheurs de Microsoft ont démontré comment des algorithmes créés par leurs pairs chez Google sont involontairement sexistes. Ces mêmes chercheurs ont aussi démontré qu’il est possible de réduire fortement ces biais de genre avec des solutions techniques.
Si père est à homme ce que mère est à femme, programmeur informatique ne devrait pas être à homme ce que ménagère est à femme. Pourtant, de telles associations étaient faites par les modèles de Google, qui ont été utilisés pour développer de multiples produits comme des moteurs de recherche. Cela dépasse le problème de la représentation qui en est un majeur en soi. Si par exemple un recruteur cherche un informaticien sur ces engins, les profils d’hommes seront systématiquement priorisés. Sur la base de cas identifiés grâce au jugement d’humains, les chercheurs de Microsoft ont pu développer un autre algorithme qui filtrait automatiquement plusieurs de ces associations erronées.
Enlever les biais des algorithmes est un champ de recherche grandissant en science informatique. Des techniques de plus en plus efficaces et sophistiquées sont développées pour s’attaquer aux aspects techniques de l’enjeu des biais dans l’IA. Des algorithmes peuvent entre autres être entraînés à ne pas utiliser des variables potentiellement discriminatoires dans leurs prédictions. Penser que la problématique se limite à ces aspects techniques serait toutefois un leurre.

Le défi de la machine éthique est social et politique
Dans le cas où des variables potentiellement discriminatoires sont ignorées dans la prise de décision algorithmique, celle-ci devient moins précise mais plus équitable. Au-delà des défis techniques, ignorer des variables ou accepter une baisse d’exactitude, c’est un choix social. Plutôt que de dépendre uniquement des compagnies qui développent des agents intelligents, ce genre de choix devrait être collectif et des barèmes politiques devraient être mis en place pour s’assurer qu’ils soient respectés.
Les systèmes intelligents sont de moins en moins des boîtes noires pour ceux qui les développent, mais ils demeurent opaques pour les autres. Il y a des lois pour encadrer les décisions humaines, ainsi que des personnes dont le métier est de les observer, de les dénoncer ou de les évaluer. La logique devrait être la même pour les décisions prises par des IA, mais les institutions traditionnelles tardent à s’adapter. Le rôle que peuvent avoir les journalistes est d’autant plus crucial dans ce contexte.
ProPublica, une salle de nouvelles américaine à but non lucratif, l’a bien démontré depuis 2015 à l’aide d’une série de reportages qui enquêtent sur les algorithmes qui influencent la vie des citoyens et qui révèlent au grand jour des injustices méconnues. Le média a par exemple soulevé en 2016, dans une enquête qui a encore des retentissements aujourd’hui, qu’un logiciel utilisé à travers les États-Unis pour prédire les futurs criminels présentait des biais marqués contre les Noirs.
Nul besoin d’être un informaticien ou un mathématicien pour détecter ces préjudices et c’est tant mieux, comme l’impact de l’IA sur nos vies est trop grand pour laisser son contrôle uniquement entre les mains de ces experts. Ce n’est pas en regardant le code source d’un agent intelligent qu’on peut déterminer s’il agit de manière éthique. C’est l’idée avancée par un groupe de chercheurs du MIT, qui proposent qu’une science comportementale de l’IA fondée sur l’observation soit développée.
Bien que nécessaire, étudier les comportements des machines intelligentes n’est pas suffisant. Il est également indispensable d’impliquer des personnes avec des profils académiques, professionnels, culturels et socio-économiques diversifiés pour avoir des perspectives complémentaires sur la façon dont l’IA fonctionne et sur les impacts collectifs de ce fonctionnement. C’est d’ailleurs pour cette raison que des collaborations inusitées se multiplient entre autres entre ingénieurs, philosophes et citoyens dans les labos.
La question de savoir pourquoi un système est développé et à qui il servira est encore plus importante que celle de savoir comment. En septembre dernier, des chercheurs de Stanford ont entraîné des algorithmes à détecter l’homosexualité d’une personne avec une image de son visage. Leur système, bien qu’il pose des questions méthodologiques, avait un taux de précision de 81% pour les hommes et de 71% pour les femmes. L’objectif de ces chercheurs était de démontrer la faisabilité de telles technologies pour souligner l’urgence de les encadrer adéquatement.
Prôner un simple arrêt de l’utilisation de l’IA ne serait qu’une stratégie d’évitement. L’utilisation de la prédiction informatique, en opposition à la prédiction basée sur le jugement humain, exige que les règles de prise de décision soient explicites et systématiques plutôt qu’indéfinies et optionnelles. Cela nous confronte à préciser les principes éthiques qui nous régissent. C’est une ambition dont la complexité n’a d’égal que son potentiel.
L’IA apporte son lot de nouveaux enjeux et peut très bien exacerber les inégalités qui traversent déjà nos sociétés. Sans intervention assez forte et audacieuse, c’est le scénario le plus probable. Bien gouvernée, l’IA peut toutefois servir d’outil pour soutenir des mutations profondes qui sont positives pour la plupart des êtres vivants et leur écosystème. Ce n’est ni l’intelligence ni l’objectivité de la machine qui va nous permettre d’y arriver, mais bien sa moralité qui ne sera qu’un reflet de la nôtre.
Crédit photo de Une : Erik Eastman via Unsplash
Enquête : 9 pistes explorées par les médias pour innover
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
Un an d’enquête auprès d’une cinquantaine de rédactions comptant parmi les plus innovantes du monde : c’est le projet titanesque entrepris par les Danois Per Westergaard (rédacteur en chef et CEO de plusieurs titres de presse régionaux et nationaux) et Søren Schultz Jørgensen (journaliste pour plusieurs médias danois).
Après la publication de leur travail en danois, les auteurs proposent pour Nieman Lab un aperçu des résultats de leur recherche en anglais. Au programme : 9 pistes stratégiques engagées par les rédactions pour sortir de la crise structurelle des médias, retrouver le lien avec leur audience, et proposer un journalisme plus engageant. Nous les avons interviewés pour mieux comprendre leurs conclusions.
Cette enquête est d’abord le résultat d’un parti pris des auteurs : celui de considérer que la crise que traversent aujourd’hui les médias d’information n’est pas seulement la conséquence de modèles économiques devenus obsolètes ou de difficultés d’adaptation aux nouveaux défis technologiques. C’est avant tout une crise structurelle, avancent-ils, qui se manifeste par une désaffection massive des citoyens vis-à-vis des médias. Loin d’être un phénomène passager, le discrédit jeté sur l’industrie médiatique s’inscrit dans une tendance de fond inquiétante qui doit être traitée avec toute l’attention qu’elle mérite, à commencer par une remise en question des fondements même du journalisme.
Pour répondre, Per Westergaard et Søren Schultz Jørgensen ont étudié 54 rédactions à la pointe de l’innovation éditoriale à travers 9 pays de chaque côté de l’Atlantique, avec à la clé 9 pistes à explorer.

3 questions aux auteurs
Parmi les 54 rédactions que vous avez interrogées, qui sont les bons élèves en matière d’innovation ?
Nous avons choisi ces rédactions précisément parce qu’elles sont particulièrement performantes en termes d’innovation et parce qu’elles s’efforcent d’explorer de nouvelles manières de se reconnecter à leur public.
Cependant, elles n’ont pas toutes la même approche : les plus jeunes par exemple, qui se sont créées avec cette idée de repenser le journalisme et d’inventer de nouvelles façons de raconter l’info, la considèrent comme un aspect intrinsèque de leur identité. C’est le cas de la Texas Tribune à Austin, de Geekwire à Seattle ou encore Mediapart en France. Tous ces médias parlent peu d’innovation – ils innovent, tout simplement.
Les médias traditionnels, eux, ont une approche différente : ils doivent innover car ils doivent changer leur façon de faire du journalisme. De ce fait, ils parlent davantage d’innovation, de ce qui doit changer et de la manière de le faire.
KQED, la TV et radio locale de la Bay Area de San Francisco, est un bon exemple de média qui a réussi à mettre l’innovation au cœur de sa stratégie. La rédaction forme ses membres à comprendre les usages de son audience et à repérer les tendances pour développer de nouveaux formats. Dès qu’un problème survient dans l’entreprise, ou qu’un nouveau produit se prépare, des « déjeuners d’inspiration » et des ateliers sont organisés pour permettre à toute la rédaction de se mettre autour d’une table et d’échanger.
On peut aussi citer le journal régional allemand Braunschweiger Zeitung, qui s’est transformé en « bürgerzeitung » (journal citoyen) en mettant l’engagement des lecteurs et leur participation à des rencontres au centre de son travail journalistique. D’un journal qui peinait à gagner des abonnés il y a 15 ans, le Braunschweiger Zeitung est aujourd’hui devenu l’un des plus performants du paysage de la presse papier allemande.
En France, Le Monde fait figure de modèle en matière d’innovation avec une stratégie consistant à mettre un nouveau produit éditorial sur le marché tous les trois mois. En mauvaise posture il y a une dizaine d’années, le quotidien a réussi à se transformer et a même renforcé les effectifs de journalistes dans sa rédaction. Sa démarche d’innovation n’est bien sûr pas le seul facteur de cette réussite, mais elle a joué un rôle indéniable.
Quelle place la technologie tient-elle dans les 9 pistes d’innovation que vous avez identifiées ?
La technologie ne joue pas un rôle significatif dans notre enquête. Ces dix dernières années, le monde des médias a été obnubilé par le déclin des modèles économiques historiques et la montée des nouvelles technologies. Ce sont des problèmes importants bien sûr, mais de notre côté nous avons choisi de nous concentrer sur le cœur des médias d’information : le journalisme lui-même, car nous pensons que pour redevenir pertinent et retrouver la confiance des citoyens, ce sont les fondements-mêmes du journalisme qui doivent être questionnés et repensés.
Cela étant, la technologie peut évidemment servir le journalisme, à tous les stades : pour collecter les informations, interagir avec le public, renforcer la transparence du travail journalistique ou encore analyser les données de l’audience pour être plus pertinent.
Parmi les 54 rédactions étudiées, avez-vous sélectionné des médias de service public ? Comment analysez-vous leur rapport à l’innovation en comparaison aux médias privés ?
Nous avons étudié DR, l’audiovisuel public danois, pour son approche particulièrement intéressante du journalisme de solutions (l’une des 9 pistes que notre enquête a dégagées). Nous avons aussi travaillé sur la BBC, qui a adopté une démarche d’innovation très dynamique et efficace, ainsi que KQED à San Francisco.
Aurions-nous pu, ou dû, visiter d’autres médias de service public ? Nous en sommes convaincus. Les médias publics sont aussi bons en matière d’innovation que ceux du privé. Mais ils font aussi face aux mêmes défis : ce sont des grosses entreprises aux organisations complexes, qui ont travaillé avec les mêmes process pendant des décennies et qui ont aujourd’hui du mal à affronter le changement. Dans certains pays, c’est même la législation qui les empêche parfois d’être aussi agiles qu’il le faudrait dans l’innovation et l’expérimentation. Bref, les situations du public et du privé sont comparables : de chaque côté, il faut réussir à retrouver de la pertinence et renouer des liens forts avec les citoyens. Et de chaque côté, l’inertie des organisations et l’héritage culturel du journalisme peuvent faire obstacle à l’expérimentation. Mais selon nous, les médias publics ne sont pas moins armés que ceux du privé pour relever le défi de l’innovation.
9 pistes pour insuffler l’innovation dans les rédactions
1De la neutralité à l’identité
Le constat n’est pas nouveau : l’offre d’information est devenue tellement vaste qu’il en devient difficile de s’y retrouver. Alors que les contenus des médias sont de plus en plus dilués à travers les sites, les applications et les plateformes sociales, il est plus que jamais urgent d’affirmer une identité marquée, de s’engager, de revendiquer des valeurs dans lesquels une part du public pourra se reconnaître.
Il s’agit aussi pour les médias, à l’heure où des voix autrefois silencieuses commencent à s’élever dans nos sociétés, de montrer qui ils sont et de quel point de vue – social, démographique, politique, etc. – ils parlent (saluons à ce titre la démarche de Libération qui a récemment publié un article sur l’homogénéité ethnique de sa rédaction).
2De l’omnibus à la niche
Traiter des sujets de niche pour s’adresser à des communautés ciblées : une stratégie largement revendiquée par les médias ces dernières années qui ont bien compris que l’heure n’était plus à l’information de masse, indifférenciée, mais à un ciblage pointu et précis du public. Une stratégie qui peut poser question : forcément loin de fédérer un large public, le média de niche contribue surtout à alimenter l’identité collective d’une communauté déjà homogène.
Mais niche et démocratie ne sont pas antinomiques, selon Westergaard et Jørgensen : des médias comme GeekWire (un site spécialisé dans la tech basé à Seattle) ou Ze.tt (média allemand destiné aux jeunes) montrent selon eux qu’il est possible de concilier information de qualité, utile au débat public, et ciblage de communautés d’intérêt précises.
3De la masse au club
S’il y a un avantage à s’adresser à des communautés, c’est bien celui-ci : il est bien plus susciter leur engagement et même de les convaincre de devenir membres. Le « membership », adhésion en français, c’est le mot qui est sur toutes les lèvres dans les rédactions.
Qu’il s’agisse de demander des dons ponctuels ou réguliers ou d’organiser des espaces d’échanges et de débats réservés aux membres, la démarche est la même : alimenter l’esprit communautaire en les faisant participer activement à la vie du média. Mediapart et l’Espagnol El Diario ont été pionniers, suivis depuis par d’autres titres comme le prestigieux New York Times ou encore le News Revenue Hub.
4De l’encre à la sueur
Pour aller plus loin et engager leur audience IRL, de plus en plus de médias se lancent aujourd’hui dans l’événementiel en organisant des conférences, des festivals ou même des pièces de théâtre autour de leurs contenus.
Le Monde fait à ce titre figure de modèle avec son festival dont la 5ème édition se tiendra en octobre prochain. Autres exemples cités dans l’enquête ; The Texas Tribune, qui organise petits et gros événements tout au long de l’année pour maintenir le lien avec son public, ou encore le Danois Zetland qui s’exporte régulièrement sur les scènes de théâtre copenhaguoises pour des « spectacles journalistiques ».
5De la parole à l’écoute
Des Etats-Unis à l’Europe, les entreprises médiatiques sont partout en train de s’ouvrir – physiquement et aussi dans leur état d’esprit – et d’abandonner progressivement leur statut de forteresse inaccessible pour se rapprocher des citoyens. Une démarche active qui passe par des échanges directs et des rencontres pour écouter leurs avis et leurs doléances, mais aussi par l’analyse des big (et small) data pour mieux comprendre l’audience.
L’enquête cite à ce titre le Braunschweiger Zeitung, un journal allemand qui reste à l’écoute de ses lecteurs en organisant des rencontres avec les communautés locales et en réservant des ressources éditoriales et un espace dans ses colonnes aux échanges avec les lecteurs.
6De la distance à la coopération
Longtemps, les principes d’indépendance et de neutralité du journalisme sont allées de pair avec une obligation de distance – vis-à-vis des entreprises publiques privées, des groupes d’intérêt et même des citoyens.
Ce paradigme est en train de changer : comme le Hollandais De Correspondent, l’Allemand Correctiv ou encore l’Américain ProPublica, de plus en plus de rédactions impliquent directement la société civile dans leur travail, dans une démarche de co-création non seulement avec les citoyens, mais aussi avec les ONG, les institutions publiques et d’autres médias.
7Des plateformes propriétaires aux plateformes extérieures
Devenues incontournables, les plateformes sociales sont aujourd’hui devenues aussi importantes que les plateformes propriétaires des médias dans la stratégie de distribution de leurs contenus. Elles sont aussi très critiquées par les médias, qui dénoncent le siphonage de leurs revenus publicitaires et leur dépendance aux changements arbitraires d’algorithmes.
Mais les réseaux sociaux constituent aussi un formidable vecteur d’engagement et de proximité avec le public, nuancent Westergaard et Jørgensen : en témoigne l’enquête menée sur Twitter par un journaliste du Washington Post sur l’action philanthropique de Donald Trump, qui lui a valu… un prix Pulitzer.
Or, the tl;dr version: I’ve called 450 charities, looking for proof @realDonaldTrump gives millions to charity. Here’s what I found. pic.twitter.com/kO4sQL7yyR
— David Fahrenthold (@Fahrenthold) 7 novembre 2016
8Du problème à la solution
Journalisme de solution, journalisme constructif… différentes dénominations pour une seule réalité : traiter les sujets sous un angle orienté vers les solutions pour susciter davantage l’engagement de l’audience.
La télévision publique danoise DR pratique ce type de journalisme depuis plusieurs années, et les audiences suivent. Même démarche au Centre du reportage d’investigation de Berkeley, qui intègre un volet dédié aux solutions dans un grand nombre de ses enquêtes.
9Des observateurs aux activistes
Qu’elles soient jeunes ou bien établies, les rédactions sont de plus en plus nombreuses à s’engager pour des causes et à se lancer dans des campagnes d’activisme. Une approche qui peut sembler contradictoire avec la neutralité attendue des journalistes… mais qui a pu faire ses preuves, au Guardian par exemple qui s’était ouvertement engagé contre le Brexit.
Identité de marque, engagement du public, prise de position… Toutes ces pistes stratégiques pointent vers une même direction : celle de médias qui quittent leur tour d’ivoire pour aller à la rencontre de leur audience, renouer avec la réalité du terrain et oser mettre en avant les valeurs qui les animent.
Des enjeux que les 54 rédactions étudiées par Westergaard et Jørgensen ont bien compris, et surtout qu’elles essaient d’aborder avec des réponses innovantes et une démarche ouverte à l’expérimentation. Une vraie prise de conscience semble s’être opérée, autant chez les médias historiques que chez leurs cadets, de la nécessité de repenser les fondements du journalisme – et c’est une bonne nouvelle !
Crédit image : Andrew Neel on Unsplash
Lectures : nos recommandations pour cet été (1/2)
La liesse de la Coupe du Monde est derrière nous, plus d’excuse pour ne pas prendre le temps de se poser avec un bon livre ! Voici notre sélection si vous ne savez pas quoi lire à la plage.
Toute l’équipe de Méta-Media vous souhaite un très bel été !
AI Superpowers : China, Silicon Valley and the new world order – Kai-Fu Lee
Les États-Unis ont longtemps été le leader de l’intelligence artificielle. Mais le Dr Kai-Fu Lee, l’un des experts les plus respectés au monde sur l’IA, révèle que la Chine a rattrapé les Etats-Unis à un rythme étonnamment rapide. Alors que la concurrence sino-américaine se réchauffe, Lee envisage que la Chine et les Etats-Unis forment un puissant duopole dans l’IA. Dans ce nouveau livre provocateur, il décrit le bouleversement des emplois traditionnels, comment les chômeurs trouveront de nouvelles façons de rendre leur vie significative, et comment les gouvernements chinois et américains devront faire face à l’évolution du paysage économique…
Artificial Unintelligence – Meredith Broussard
Un guide pour comprendre le fonctionnement et les limites de la technologie et pourquoi nous ne devrions jamais supposer que les ordinateurs ont toujours raison.
Augmented Human: How Technology Is Shaping the New Reality – Helen Papagiannis
La réalité augmentée brouille la frontière entre les mondes physique et numérique. Dans la phase actuelle d’exploration de cette technologie, les innovateurs commencent à créer des applications qui améliorent les expériences quotidiennes des utilisateurs. Dans ce livre, Dr. Helen Papagiannis, experte mondiale dans le domaine, présente la technologie AR : comment elle évolue, quel est son potentiel et les opportunités futures.
Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor – Virginia Eubanks
En l’espace de 3 ans, l’état de l’Indiana a refusé un million de demandes de soins de santé parce qu’un nouveau système informatique interprète toute erreur comme un « manque de coopération ». Depuis l’avènement de l’ère numérique, la prise de décision dans les domaines de la finance, de l’emploi, de la politique, de la santé et des services à la personne a connu un changement révolutionnaire. Aujourd’hui, les systèmes automatisés – plutôt que les humains – déterminent quels quartiers sont contrôlés, quelles familles obtiennent les ressources nécessaires et qui fait l’objet d’une enquête pour fraude. Alors que nous vivons tous sous ce nouveau régime de données, les systèmes les plus invasifs et punitifs s’adressent aux pauvres.
Défaire la tyrannie du présent – Jérôme Baschet
Le manque de temps est l’une des pathologies de l’homme moderne, nous vivons désormais dans un présent perpétuel. Cet essai s’efforce, en s’appuyant notamment sur l’expérience rebelle des zapatistes du Chiapas, d’identifier les modalités émergentes du rapport au temps et à l’histoire. Il s’agit de poser les bases qui permettent de tenir ensemble la force du « maintenant » et le souci de l’à-venir, l’agir présent et l’anticipation stratégique, le sens de l’urgence et la nécessité de la préparation.
Deviate: The Creative Power of Transforming Your Perception – Beau Lotto
La perception est le fondement de l’expérience humaine, mais peu d’entre nous comprennent comment fonctionne notre propre perception. En révélant les vérités surprenantes sur le cerveau et la perception, Beau Lotto montre que la prochaine grande innovation n’est pas une nouvelle technologie : c’est une nouvelle façon de voir. Dans son premier livre majeur, Beau Lotto s’appuie sur plus d’une décennie de recherche pionnière pour montrer comment nos cerveaux nous jouent des tours. Avec une combinaison innovante d’études de cas et d’exercices d’illusion optique et de perception, Deviate va révolutionner votre vision du monde.
Hit Makers: The Science of Popularity in an Age of Distraction – Derek Thompson
L’alchimie des succès de la culture pop devient un peu plus scientifique dans ce traité captivant sur l’attention. Le rédacteur en chef de The Atlantic, Thompson, plonge dans des mystères – qui a décidé quels peintres impressionnistes étaient les plus grands ? Comment Fifty Shades of Grey s’est-il hissé en tête des ventes ? Une partie de l’équation, soutient-il, est l’équilibre entre la néophobie et la néophilie : les humains aiment voir des situations familières et réconfortantes surgir de situations nouvelles (mais pas trop nouvelles) qui piquent notre intérêt pour les médias aussi différents que les scénarios et les mélodies. Thompson propose une visite amusante et divertissante de la psychologie cognitive et sociale derrière nos préférences, rebondissant de la doctrine des archétypes d’histoire de Joseph Campbell à la théorie du chaos, et l’encadre dans une analyse avisée de la technologie des médias.
How to Break Up With Your Phone – Catherine Price
Consulter votre téléphone est la première chose que vous faites le matin et la dernière chose que vous faites avant de vous coucher ? Vous aimeriez passer moins de temps sur votre téléphone, mais n’avez aucune idée de comment le faire sans le mettre sous-clé ? Si oui, ce livre est votre solution.
L’avenir des Humanités. Economie de la connaissance ou cultures de l’interprétation ? – Yves Citton
En parlant de « communication », de « société de l’information » ou d’« économie de la connaissance », on laisse souvent penser que le savoir se réduit à une masse de données segmentées, isolées, brevetables et commercialisables comme n’importe quelle marchandise. Devant cette vision appauvrie et sclérosée, Yves Citton renverse la perspective et révise notre imaginaire du savoir. Il montre que les Humanités, souvent considérées comme poussiéreuses voire inutiles, cultivent une compétence incontournable, celle de l’interprétation. Très loin de la simple « lecture » automatisée d’informations computables, revêche à toute réduction économiste, l’interprétation est une activité qui demande à être cultivée par un soin très particulier.
Ouest Médialab, un cluster et laboratoire des médias qui accompagne les acteurs régionaux dans leur transition numérique
Cet article est présenté dans le cadre d’un partenariat éditorial entre Méta-Media et WAN-IFRA. © [2018] Tous droits réservés.
Propos recueillis par François Fluhr, France Télévisions, Prospective et MediaLab
Ouest Médialab est à la fois un cluster et un laboratoire d’expérimentation des médias qui réunit une grande variété d’acteurs autour de projets d’innovation numérique en régions Pays de la Loire et Bretagne.
Nous avons eu l’occasion d’échanger avec son directeur, Julien Kostrèche, qui nous a expliqué sa stratégie pour construire une communauté de confiance capable de dépasser méthodiquement les contraintes du secteur et de faire bouger les lignes du numérique dans les médias.
4 axes stratégiques
Après son lancement en 2012, il a fallu un certain temps de maturation pour que le projet fédère un nombre suffisant de personnes et qu’une feuille de route soit mise en place. Les premières actions du médialab ont ainsi été initiées en 2013 autour de quatre axes stratégiques qui sont restés les piliers du projet jusqu’à aujourd’hui.
- Le premier axe est une ambition, celle de faire monter en compétences les équipes et de créer des synergies entre les métiers, un enjeu particulièrement central dans l’industrie des médias où il devient essentiel d’expérimenter au contact de développeurs ou de designers par exemple.
- Le deuxième axe concerne la recherche et l’étude des nouveaux modèles économiques ainsi que le partage de bonnes pratiques. Le but étant d’accompagner les entreprises dans leur développement ou leur émergence, ce qui a conduit le médialab à ouvrir cette année un incubateur de médias (NMcube).
- Le troisième axe est une mission de communication. Il s’agit de mettre en valeur ce qui se fait d’intéressant et d’innovant, notamment à l’échelle locale, que ça soit du côté des médias, des écoles, des start-ups, ou même des collectivité
- Enfin, quatrième axe : l’innovation ouverte qui consiste à monter des projets à court ou moyen terme, afin de rapprocher les acteurs et de créer des synergies de travail sur des sujets liés au numérique. Cet axe permet au médialab d’affirmer sa spécificité de labo ouvert qui n’est pas le satellite d’un seul groupe de média ou de presse.

Construire une communauté
Si Ouest Médialab dispose d’une équipe réduite de quatre permanents, il bénéficie d’un apport bénévole important de la part de ses 130 adhérents, comme le souligne Julien Kostrèche : « Cela représente au moins deux équivalents temps-plein si on compte le temps que peuvent consacrer les adhérents aux actions que nous organisons. » Le cluster réunit la plupart des médias locaux de la région (Ouest-France, Le Télégramme, France 3, France Bleu, les télévisions locales, les radios associatives…) mais également des collectivités, les agences qui produisent des contenus, des start-ups, des écoles de journalisme, de communication, de design, et d’informatique. »
Pour en arriver là, il a fallu trouver un socle commun : le numérique. Évidemment, tout le monde ne part pas du même niveau : « Si certains se lancent par exemple dans la vidéo, d’autres évoluent dans des entreprises dont c’est le métier depuis longtemps. »
Un constat qui a inspiré la création du Médialab Speed Training, événement au cours duquel les professionnels qui maîtrisent des outils numériques partagent leur savoir-faire et leurs bonnes pratiques avec leurs pairs. La force d’une telle communauté, c’est aussi de disposer de retours de la part des adhérents qui font remonter leurs besoins au fil des expérimentations et permettent ainsi d’orienter la stratégie du médialab.
Gagner la confiance
Ce partage est cependant loin d’aller de soi entre des acteurs qui sont parfois concurrents.
« Quand on monte un labo comme ça, il faut du temps pour que les gens apprennent à se connaître et à se faire confiance en acceptant de partager leurs problématiques. Il faut parfois accepter de se mettre un peu à nu sur certaines questions. »
Pour répondre à cet enjeu, de nombreux ateliers d’échanges ont été mis en place par le médialab pour que chacun puisse proposer des projets, faire part de ses envies, mais aussi se livrer à des retours d’expérience. Une excellente façon de faire prendre conscience à chacun de l’intérêt que représente cette démarche collective :
« Aujourd’hui les gens nous parlent plus facilement, ils nous livrent leurs problématiques, nous confient ce qu’ils veulent faire. A nous de mettre les bonnes personnes autour de la table pour qu’elles aient envie de travailler ensemble. »
Élaborer une méthode
Tout commence par une phase d’idéation au cours de laquelle le lab utilise des méthodes de design thinking, avec des réflexions centrées sur l’utilisateur. Une étape durant laquelle tous les métiers sont mis au même niveau.
« On ne rentre pas tout de suite dans une chaîne de fabrication segmentée. On met d’emblée tout le monde en réflexion autour du projet. On autorise chacun à sortir de son terrain habituel, un informaticien peut se prononcer sur une dimension éditoriale comme un journaliste peut se prononcer sur l’interface. Cela crée des échanges inédits et sort les équipes de leur zone de confort. »
Les équipes réalisent ensuite une maquette et un prototype qu’elles testent pour se confronter à l’utilisateur. Puis chacun retrouve sa spécialité. Cette première phase est une phase difficile, car tout le monde ne parle pas le même langage : « Il faut s’adapter aux thèmes sur lesquels on va. Entre la pratique du data-journalisme et la création d’une application pour valoriser les archives, on n’a pas forcément en face les mêmes compétences. »
Une méthode qui prend du temps, mais qui s’avère indispensable. Brûler ces étapes équivaudrait à reproduire les anciens travers de la production de contenus, avec un silotage qui grippe la transmission de l’information et aboutit à des projets qui ne sortent pas des sentiers battus.
Assimiler les contraintes
Pour travailler avec des médias, il faut être capable d’identifier et de traiter les éléments susceptibles de freiner leurs ambitions en matière d’innovation.
« Au tout début, on est parti avec les labos de recherche, mais c’est dur d’embarquer les médias qui n’ont pas toujours le temps, les moyens, ou cette culture de la R&D et qui veulent des résultats à plus court terme. »
Suite à ce constat, l’équipe du Médialab s’est inspiré des hackathons pour mettre en place les Hyblabs, réunissant une centaine d’étudiants issus de plusieurs disciplines (informatique, design, média) pour constituer des équipes de travail sur des projets apportés par des médias privés, des médias de collectivité ou des professionnels de la communication. Jusqu’ici, 16 Hyblabs ont eu lieu à raison de trois à quatre par an, sur le datajournalisme, la valorisation des archives, les récits interactifs, la couverture d’événements en live…
« Il faut détecter les gens qui ont des envies, mais aussi susciter des envies en interne. Au départ, les gens posaient des RTT ou venaient pendant leurs jours de congé. On s’est dit qu’il y avait un problème. Donc on est remonté d’un cran ou deux pour aller convaincre les étages du dessus de libérer leurs équipes. »
Malheureusement, l’économie des médias ne le permet pas toujours et il reste difficile de faire accepter la dimension expérimentale du projet dans un contexte économique tendu où tout investissement appelle un résultat rapide et concret :
« Il arrivait que des médias nous disent ‘On a un journaliste qui vient 3 jours, par contre on veut un résultat garanti !’ Mais quand on expérimente, on ne peut pas mettre cette pression, ni sur les équipes, ni sur les étudiants qui travaillent ensemble. Il faut faire un effort de lâcher-prise et accepter la possibilité de l’échec. »
Un bon projet, c’est un bon timing
Les ateliers de datajournalisme font partie des grandes réussites du médilalab. Ils permettent d’apprendre à collecter, à traiter et à visualiser des données pour raconter des histoires. À l’issue des hackathons, la majorité des projets ont été publiés et ont rencontré de larges audiences. Certains ont même été primés et ont permis aux équipes de créer leur cellule data, à l’image du Télégramme et de Ouest-France.
« Dans le cas du Télégramme par exemple, le journaliste vient avec une ambition : cartographier la transformation de la ville de Brest. Il va collecter des données auprès des services compétents, s’inspire de ce qui avait été fait sur la ville de Berlin et vient sur le HybLab rencontrer une équipe d’étudiants de Polytech (informatique), AGR (webdesign), et Audencia SciencesCom (médias). En quatre grosses journées, ils réussissent à produire le contenu qui est mis en ligne en associant les Brestois pour leur demander ce qu’ils pensent de la transformation de la ville. Ça fait un carton et le projet conforte la direction du groupe de presse dans sa décision d’ouvrir une cellule data chez eux avec un journaliste à temps-plein. »
Pour Julien Kostrèche, l’enjeu essentiel consiste à trouver les bonnes échelles et le bon timing : « Tout ce qui tournait autour de la data a très bien fonctionné, parce que tout le monde partait un peu du même point là-dessus. Il y avait aussi un super timing avec l’ouverture des données publiques qui a amené du matériau et c’était un moment où il y avait des outils extraordinaires qui sortaient quasiment tous les mois pour visualiser les données. »
Ouest Médialab doit « toujours être sur la crête » pour trouver de nouveaux terrains de jeu en phase à la fois avec les contraintes du secteur, l’échelle locale, ainsi que la maturité des technologies et des usages.
SERIE MEDIA LABS
- Episode 8 APA-MediaLab : le Lab doit être tourné vers l’avenir
- Episode 7 L’innovation à l’Associated Press : partager une culture plutôt qu’un Lab
- Episode 6 Next Media Accelerator : comment l’Agence de Presse allemande accélère des start-ups médias et marketing
- Episode 4 BBC News Labs : une cellule dédiée à l’innovation média et au développement produit
- Episode 3 « Media and Democracy » : un lab de recherche et d’innovation au service du journalisme et du débat public
- Episode 2 Le MediaLab « Théophraste » de Sud Ouest : créer des relations avec l’écosystème régional de startups
- Episode 1 Le Medialab de l’AFP : la vérification de l’info et l’UX au cœur de l’innovation journalistique
Le design thinking au service du journalisme : le cas de The Lily, l’offre numérique du Washington Post dédiée aux femmes
Par Marie Rumignani, doctorante à l’Académie du journalisme et des médias, Université de Neuchâtel. Billet invité
Le design au service du journalisme : c’était le thème du News Impact Summit organisé par le European Journalism Centre avec le soutien de la Google News Initiative à Paris. Un sujet brûlant qui ne cesse de revenir dans les rédactions, sans pour autant que l’on n’en comprenne vraiment ses contours et potentiels, aussi flous que riches.
La journée fut riche en interventions et enseignements, avec notamment David Dieudonné du Google News Lab, la papesse du design thinking Heather Chaplin ou encore la présentation des projets en design interactif d’étudiants de l’Ecole des Gobelins en collaboration avec l’AFP.
Un cas a particulièrement retenu l’attention de l’auditoire : The Lily, une publication digitale de niche du Washington Post dédiée aux femmes. Ou comment une rédaction s’est forgée une ligne éditoriale unique en capitalisant sur ses erreurs et dans une réinvention permanente. Compte-rendu de la présentation.

« Notre idée est d’être résolument post-moderne ». Pour Amy King, la rédactrice en chef et directrice créative de The Lily, la ligne est on ne peut plus claire : il faut aller là où personne ne les attend. A commencer par disséquer devant plus d’une centaine d’invités les projets qui ont été des échecs cuisants, à l’instar de photos ratées, de titres tapageurs ou encore de sujets à côté de la plaque.
Une séance d’autocritique inédite qui n’est pas vraiment le fruit du hasard ou d’un simple exercice de style, mais un avant-goût de cet esprit « design » qui accompagne The Lily depuis sa création, et qui aujourd’hui est intrinsèquement lié à son ADN éditorial.
Une rédaction immergée dans le design thinking
Le pari initial était de taille en 2016. Comment créer un média pure player pour les femmes d’aujourd’hui couplé aux exigences éditoriales du Washington Post ? Comment fédérer un maximum de personnes aux origines et aspirations si différentes ? Où peut-on trouver ces publics, si dispersés ? Comment capter leur attention alors que cette dernière est devenue une denrée rare ?
Une longue liste de contraintes et d’exigences éditoriales, techniques et humaines qui traduit une réalité bien plus complexe et mouvante qu’autrefois. Pour The Lily, ces questions ne pouvaient pas être résolues avec des outils et des schémas managériaux classiques. Pour libérer ce potentiel de créativité et de réactivité des équipes, The Lily a mis en place dès ses débuts des processus intimement liés aux concepts du design thinking.
On oublie les longs chemins décisionnels et de développement de projets linéaires et rigides. On expérimente, on mise sur la co-création et la collaboration entre profils parfois opposés mais complémentaires. On affine au fur et à mesure du temps. On dit ce que l’on a aimé et ce que l’on a moins aimé à chaque réunion hebdomadaire. Comme le souligne Amy King, il faut accepter cette part d’imparfait dans les projets pour constamment les améliorer, dans le but de « faire un meilleur job qu’actuellement ».
Le lancement s’est alors fait « en douceur » selon la rédactrice en chef, nécessitant malgré tout plus d’une année pour mettre sur pied le concept, définir les métiers, recruter les profils adaptés et préparer les premiers mockups. Une condition nécessaire souligne Amy King pour « se laisser la possibilité de se développer ».
Une ligne éditoriale forte et centrée sur son public
Pour émerger dans cet écosystème saturé d’informations et de compétiteurs, The Lily s’est fixé deux objectifs fondamentaux à respecter au quotidien.
D’abord, une voix éditoriale unique en se recentrant sur l’essentiel : son public. Pour les équipes de The Lily, l’écoute est constante avec son lectorat féminin urbain pour être au plus près de ses aspirations et de ses attentes. Commentaires sur les réseaux sociaux, mails, veille permanente, organisation d’événements, rencontres physiques avec les lectrices… La panoplie est large. Mais le choix et surtout le traitement des sujets ne doivent pas trahir l’esprit d’exigence et de rigueur de sa maison mère, le Washington Post.
Loin de la caricature de la presse féminine, on y retrouve des articles sur les cellules souches au remplacement d’un juge de la Cour suprême des Etats-Unis ou en passant par le vol de bébés sous Franco. Des histoires touchant particulièrement les femmes, qui ont cependant le potentiel de raisonner auprès de publics bien plus larges.
Show don’t tell – and a lot of experimenting shaped the #design process of @thelilynews, explains @theamyking at #NISPAR. pic.twitter.com/D1CrgnW1gw
— European Journalism Centre (@ejcnet) 25 juin 2018
Construire sa « marque » média, cet autre facteur de réussite
Pour Amy King, ce n’est malheureusement pas suffisant. « Les réseaux sociaux sont des lieux très chargés. Avoir de bonnes histoires est bien, mais il est tout aussi important de pouvoir les montrer ».
The Lily s’est donc fixé comme deuxième objectif de construire une identité de marque reconnaissable instantanément, toutes plateformes confondues. Pour gagner en visibilité, chaque contenu possède son imaginaire très spécifique. Mais il doit suivre des codes élaborés à partir d’une multitude d’expérimentations et de feedbacks venu de l’interne et des lectrices. L’équipe collabore ainsi avec de nombreux illustrateurs, et un directeur artistique a été spécialement embauché pour développer et assurer une certaine cohérence.
« Ce qui marche ? La simplicité, sans trop de chichi, explique la rédactrice en chef. Il y a énormément de couleurs sur les réseaux, mais pas d’identité. On a misé alors sur le noir et blanc, avec des touches de bleu, une couleur opposée au rose traditionnel féminin. Et pour recréer cette sensation de proximité, nous dessinons directement sur les photos. » Et ce qui n’avait pas marché ? « L’utilisation de cadres, trop de couleurs et les grandes icônes ».
Le style rédactionnel est également un élément à ne pas sous-estimer pour construire son identité. « On a regardé comment nos concurrents parlent à leur lectorat. Et on a décidé d’aller à l’envers de ce qui se faisait : pas d’emoji, on bannit les points d’exclamation et l’argot. On évite également certains mots, trop sombres, et nous voulons parler de manière la plus normale possible », explique Amy King.
Utiliser Instagram pour expérimenter
Un site internet, une application, une newsletter primée, des comptes sur les réseaux sociaux à foison. The Lily mise sur une visibilité impactante et 360°, et s’adapte aux contraintes et potentiels de chacune de ces plateformes. Comme développer des visuels spécifiques pour Apple New pour être mieux référencé.
Mais un réseau social remporte l’adhésion de la rédaction, Instagram. « C’est notre plateforme préférée pour expérimenter, admet Amy King. On y développe des projets spécifiques, comme des diaporamas, des stories, des BD. Cela ne demande pas des compétences artistiques et des efforts incroyables, c’est même faisable depuis son téléphone portable. »
@theamyking just gave a killer presentation on the importance of having a clear visual strategy. Here are 10 takeaways from their first year at @thelilynews, as seen at #NISPAR @ejcnet, collected in @wochit video recap for you.
(Tweet credits to @datatheism and @fedecherubini) pic.twitter.com/iaTyjBJ7tE— Garrett Goodman (@GarrettGoodman) 25 juin 2018
Les 10 commandements de The Lily
- Vous lancez quelque chose de nouveau ? Montrez ce à quoi cela peut ressembler. Et n’hésitez pas à impliquer dès le début la partie créative, même si la forme changera drastiquement à la fin.
- Préparez des directives claires et constantes au niveau du design pour augmenter votre visibilité sur les plateformes.
- Centrez-vous sur les choses « qui sont à vous », qui vous distinguent, vous serez reconnus pour cela.
- Des journalistes aux éditeurs en passant par les community managers, votre équipe doit comprendre l’importance d’avoir une stratégie visuelle claire.
- Instagram, Snapchat, YouTube, etc. sont des plateformes orientées sur l’image. Un directeur artistique doit être un élément important pour diriger votre équipe.
- La « voix » de votre Instagram doit être identique à celle de votre newsletter.
- Les « vrais » humains reconnaissent vos efforts.
- Il n’est pas nécessaire d’être lourdement équipé sur le plan technique pour créer des visuels beaux ou intéressants.
- Le public veut se connecter en dehors d’Internet. N’hésitez pas à organiser des événements, développez des objets à la vente pour créer ce lien.
- Planifiez des journées hors rédaction pour permettre à l’équipe de se ressourcer.
Crédit image :
Irréformable, l’écosystème audiovisuel français ?
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
Irréformable, l’écosystème audiovisuel français ? C’est en tout cas l’opinion d’Olivier Bomsel, directeur de la chaire d’économie des médias de Mines ParisTech, intervenu dans une interview filmée pour le colloque organisé au Sénat cette semaine sur le thème « Comment réenchanter l’audiovisuel public à l’heure du numérique ? ».
Jugeant l’écosystème audiovisuel français « très affaibli », l’économiste a dressé un portrait de l’industrie sans concession et a plaidé pour un rééquilibrage autour des plateformes OTT.
Le cœur du problème, estime Olivier Bomsel, est que le secteur audiovisuel français s’est bâti dans les années 1980 sur un paradigme qui a complètement changé aujourd’hui :
« Cela remonte à la mise en place des concessions hertziennes, avec le lancement de Canal+, qui acte le principe de concéder à des opérateurs privés des licences d’émettre sur des fréquences hertziennes en échange d’obligations de financement [de la production, NDLR]. »
Un système qui organisait un partage de la valeur entre d’un côté les chaînes de télévision à qui on octroyait le droit d’émettre sur une fréquence hertzienne, et de l’autre des producteurs qui faisaient financer leurs programmes par ces chaînes tout en restant propriétaires de leurs droits d’exploitation.
« Le régime était largement fondé sur le fait que le spectre hertzien donnait accès de manière exclusive aux ménages consommateurs de télévision », explique Olivier Bomsel. « Il n’y avait pas d’alternative à la télévision pour entrer dans les foyers avec des images. C’est cette situation, et les modalités dans lesquelles les concessions ont été octroyées aux chaînes de télévision, qui dans la conjoncture actuelle est en crise aiguë. »
Et cette crise, quelles en sont les racines ? Tout simplement la montée de la concurrence de nouveaux canaux de diffusion, et donc la perte du monopole de la télévision dans la consommation audiovisuelle des publics. Aujourd’hui, les chaînes de télévision font face à une irrémédiable perte de valeur de leurs actifs (les concessions de fréquences), tandis qu’en parallèle la valeur des droits des contenus augmente… mais reste entre les mains des producteurs.
C’est là que le bât blesse : impossible, selon Olivier Bomsel, de « rapatrier une partie des droits vers les chaînes de télévision pour compenser la dévaluation des actifs » : les producteurs n’accepteront jamais de revenir sur le statu quo. D’autant que la concurrence des grandes plateformes américaines a entraîné une crispation des acteurs de l’industrie qui cherchent à tout prix à protéger leurs pré-carrés.
La seule solution, pour l’économiste, sera de redéployer un nouveau système autour des plateformes OTT, qui proposera un nouveau partage de la valeur entre producteurs et diffuseurs. Un rééquilibrage compliqué, mais nécessaire, qui pourrait jeter les bases d’une nouvelle ère pour l’audiovisuel français ?
Olivier BOMSEL, directeur de la chaire d’économie des médias à @MINES_ParisTech introduit les tables rondes de l’après-midi du #ColloqueAudiovisuel organisé par la #ComCultSénat #Sénat #DirectSénat pic.twitter.com/7ULS3jDSWV
— Sénat (@Senat) 12 juillet 2018
Crédit image : Daniel von Appen on Unsplash
Le podcast sortira-t-il de la niche ?
Par Alexandra Yeh et François Fluhr, France Télévisions
Il est une règle d’or que chacun se doit de connaître dans le monde des médias et de la communication : à chaque époque son format. Ou plutôt, vu la vitesse à laquelle les modes passent et tendances s’enchaînent, à chaque saison son format.
Il y a eu Snapchat et ses stories de 10 secondes. Il y a eu le live streaming et le pivot massif des médias vers la vidéo. Aujourd’hui, il y a le podcast, format audio né de la contraction des mots « iPod » et « broadcast ».
Un contenu audio qui propose des émissions de débats, des interviews, des fictions sonores – bref, tous les genres que l’on peut déjà écouter depuis près d’un siècle sur nos bons vieux postes de radio ? Rien de bien révolutionnaire a priori… à ceci près que le podcast désigne non seulement l’écoute délinéarisée d’émissions radiophoniques classiques, mais aussi un format plus récent, qui émerge depuis quelques années en France et connaît aujourd’hui un véritable boom : le podcast natif. Il s’agit de contenus audio produits directement pour une écoute délinéarisée, disponibles sur le web plutôt que sur les ondes hertziennes.
Ces podcasts natifs, produits par des créateurs indépendants (Nouvelle Ecole, Change ma vie, Crème de la crème…) ou des studios dédiés (Qualiter, Binge Audio, RadioKawa, Boxsons…), connaissent une croissance exponentielle – au point qu’il devient difficile de s’y retrouver dans la profusion de contenus disponibles. Nous arrivons aujourd’hui à un point de bascule où le podcast pourra décoller et se constituer en une industrie plus structurée ; ou bien conserver le statut quelque peu “artisanal” qui le caractérise pour l’instant et rester ancré dans les usages de quelques initiés.

Un format de niche
Contrairement à la radio broadcast, le podcast n’est pas né avec une ambition fédératrice. Il s’adresse à l’individu plutôt qu’à la foule et s’attache à construire un rapport intime et spécifique, le tout dans une démarche d’écoute à la demande. 52% des Français déclarent ainsi consommer ou préférer consommer seuls les podcasts. Un chiffre qui explique que la plupart des podcasts natifs choisissent de traiter des sujets de niche, comme l’explique Julien Neuville, invité au Tank media pour parler du studio Nouvelles Écoutes qu’il a confondé : évoquant “un marché drivé par le concept”, il cite en exemples des podcasts comme Stockholm Sardou, “le podcast des captifs de Michel Sardou” dédié à la célèbre figure de la variété française, ou encore Parle à mon Luc, qui s’intéresse exclusivement au cinéma de Luc Besson.
C’est là l’une des spécificités du paysage actuel du podcast français : les sujets sont pointus ou tout du moins limités à des communautés d’intérêt restreintes – ce qui tend à faire du podcast un contenu réservé aux initiés. D’autant que son accès demande un véritable effort, pour ne pas dire un parcours du combattant, comme l’explique Julien Neuville :
« Il y a un nombre d’étapes considérable avant d’accéder à un podcast : télécharger une appli si vous ne l’avez pas, rechercher le contenu, le télécharger, s’abonner pour être tenu au courant… En tant que studio, on crée donc le contenu pour des gens qui vont venir le chercher et l’aimer. »
En d’autres termes, on ne tombe pas par hasard sur un podcast comme on tomberait par hasard sur un programme radio. Une barrière à l’entrée importante, mais qui présente l’avantage de garantir un public fortement engagé et fidèle sur la durée. Avec un enjeu pour les éditeurs : réussir à créer ce lien intime et durable entre le contenu et son auditeur. Car loin du grand rendez-vous populaire des Grosses Têtes ou du jeu des 1000 €, le podcast natif se structure aujourd’hui autour d’une galaxie de communautés de niches, composées d’individus autonomes dans leur mode de consommation des contenus. Il s’agit donc pour les producteurs de podcasts, studios en tête, de construire une habitude chez leurs auditeurs, avec une dynamique qui s’inscrit sur la durée, sur le long cours.
Un constat qui pousse les éditeurs à rivaliser d’efforts pour développer des marques aux identités fortes afin de capter le public. Signature sonore, harmonie graphique, ton bien identifié : autant d’artefacts qui leur permettent de se positionner et de se distinguer de leurs concurrents du reste de l’offre dans un paysage qui se fait de plus en plus concurrentiel. Et ça marche : beaucoup de créateurs sont parvenus à nouer un vrai lien de proximité avec leurs auditeurs, et on voit parfois même émerger une culture propre avec ses références communes et ses private jokes – comme c’est le cas pour le studio Qualiter et son podcast Studio 404, qui a réussi à fédérer au fil des années une communauté de fidèles qui se réunit désormais sur un forum de discussion et à l’occasion de rencontres IRL.
404 fait sa réunion de rédaction sur Discord en live ici, avec vous ?https://t.co/OUcOcjSkU8
— Studio 404 (@studio404) 8 juin 2018
Sujets de niche, marché d’habitude, références parfois obscures pour les non initiés : difficile, dans ce contexte, de toucher un large public. Pour se démocratiser, le podcast va devoir trouver un moyen d’abaisser ces barrières à l’entrée, notamment en remédiant à l’obstacle majeur qui se dresse devant lui aujourd’hui : le sujet de la découvrabilité des contenus.
La critique et la recommandation pour faire décoller le podcast
L’émergence d’un nouveau format culturel va bien souvent de pair avec la construction d’un champ réflexif de la critique et de la recommandation qui lui est propre. Ce fut le cas pour la série, aujourd’hui bien installée dans nos usages et qui a vu naître toute une littérature spécialisée, des émissions télévisées et radiophoniques autour de l’actualité sérielle, des blogs, et même… des podcasts de critiques de séries.
Le podcast justement n’échappe pas à la règle, et la poussée de croissance qu’il a connue ces deux dernières années s’est naturellement accompagnée de la naissance d’un registre critique autour de ce format.
On a ainsi vu apparaître, dans une démarche très méta, des podcasts sur les podcasts (Podcastore, Podcastorama), mais aussi des sites dédiés (Radiotips, Les Moissonores, Podcasteo), ou encore des newsletters (Podcasts 101, la newsletter de Louie Media…). Le podcast, un épiphènomène qui s’auto-alimente ? Le jugement serait peut-être hâtif, mais il est frappant tout de même de constater que ce sont d’abord les acteurs mêmes de l’industrie du podcast (qu’ils soient producteurs ou simples consommateurs) qui en ont endossé le rôle de critiques. Avec à la clé, des critiques et des recommandations éclairantes et documentées – car provenant d’experts du sujet – qui poussent le podcast à une vertueuse exigence de qualité… mais qui risquent aussi de l’enfermer dans une discussion en vase clos qui pourrait peiner à se propager au-delà des cercles d’initiés.

Il faut toutefois reconnaître que le format commence à conquérir les médias traditionnels, condition sine qua non d’une éventuelle démocratisation. Les pages radio de Télérama font désormais la part belle à la critique de podcasts natifs, et partout dans la presse nationale, des dizaines d’articles ont été écrits ces derniers mois pour tenter de décrypter le boom de ce format.
N’oublions pas non plus le pouvoir prescriptif des influenceurs, graal de la recommandation sociale à l’heure d’Instagram et de YouTube. Preuve que le format se démocratise, le podcast fait de plus en plus d’apparitions dans des vidéos “favoris du mois” (format bien connu où des Youtubeu-r-ses présentent les objets et contenus qu’ils ont appréciés durant le mois) ou font même l’objet de vidéos dédiées de vidéastes plutôt positionnés d’habitude sur des sujets plus « lifestyle ». Leurs centaines de milliers d’abonnés en font des porte-paroles précieux pour le podcast, et il y a fort à parier qu’un podcast recommandé par des influenceurs se fraiera plus facilement un chemin jusqu’aux oreilles du grand public.
Enfin, de nouveaux acteurs esquissent les contours d’un modèle alternatif de recommandation, comme Hack the Radio qui propose une forme d’éditorialisation inédite des podcasts à travers la création de playlists thématiques réunissant des sons à l’unité sur des sujets aussi divers que les robots, l’amour à l’ère des réseaux sociaux ou encore les dessous de la musique. Carine Fillot, ancienne de Radio France venue présenter chez Zeens ce projet dont elle est l’initiatrice, explique que Hack the Radio cherche d’abord à pallier la pauvreté actuelle de l’indexation des podcasts (en particulier s’agissant de la réécoute d’émissions de radio, souvent intitulées par date de diffusion – du type “émission du lundi 9 juin” – sans aucune mention du sujet traité ou des intervenants).

Selon elle, les playlists thématiques améliorent la découvrabilité des podcasts non seulement en permettant aux auditeurs d’effectuer des recherches par sujet traité plutôt que par éditeur de contenus, mais aussi en effaçant les marques derrière les contenus, et en n’hésitant pas à mêler les podcasts de réécoute de radios publiques et privées aux podcasts natifs de studios et de créateurs indépendants. Un modèle de curation inédit qui pourrait bien apporter un début de réponse à ceux qui déplorent la difficulté à trouver des contenus à écouter.
De la niche au mainstream : réconcilier profanes et initiés
Alors le podcast, buzzword de l’année ou véritable tendance ? En tout cas, les chiffres sont encourageants. Chez Nouvelles Écoutes, on se félicite des 500.000 téléchargements mensuels qui représentent une croissance de… 285% entre janvier 2017 et janvier 2018 ! Et il semblerait bien que ce soit une tendance de fond, comme en témoigne la croissance mensuelle de leur audience, qui flirte avec les 30 %.
Mais il ne faudrait pas non plus conclure hâtivement à une démocratisation massive du format, qui reste encore loin du mainstream. La structure de l’audience demeure en effet très homogène, avec une surreprésentation des CSP+ qui constituent près de la moitié des auditeurs alors qu’ils ne représentent que 30% des internautes. Sans surprise, l’audience des podcasts est plutôt jeune (75% des auditeurs de Binge Audio et Nouvelles Ecoutes ont entre 18 et 34 ans) et urbaine (25% des auditeurs de podcasts sont parisiens).
Des chiffres qui montrent que la conquête du grand public est encore loin d’être réalisée… mais qui posent aussi une question : faudra-t-il, pour sortir le podcast de sa niche, renier ce qui fait sa spécificité aujourd’hui, à savoir ses sujets pointus et ses communautés d’initiés ? Loin d’être nouveau, le débat fait écho à une opposition de longue date que l’on retrouve par exemple dans l’industrie cinématographique avec la construction d’un antagonisme entre « films d’auteurs » et « blockbusters mainstream ». La démocratisation du podcast passera-t-elle forcément par une massification de l’audience et des contenus consensuels ? Pas si sûr : plutôt que de se détourner des sujets de niche, les producteurs pourraient par exemple préférer diversifier les niches elles-mêmes, pour toucher plus de communautés d’intérêts.
Ils pourraient aussi chercher à créer un lien de proximité avec des publics pour l’heure éloignés des cercles habituels d’auditeurs de podcast, comme le fait déjà Nouvelles Ecoutes pour Bouffons, son émission dédiée à la cuisine, qu’elle a choisi de délocaliser pour des enregistrements publics au-delà des murs de la capitale.
On a participé au Championnat de France de Barbecue ! Découvrez les coulisses de prochains épisodes de Bouffons et les mets réalisés par l’équipe de rêve @pharrell_arot x @GuilhemMalissen 👉 https://t.co/BFumqRs2UC
— Bouffons Podcast (@BouffonsNE) 9 juillet 2018
L’expansion et la diversification d’un modèle de niche plutôt que la croissance et la centralisation des audiences autour de quelques podcasts phares pourrait ainsi s’affirmer comme un chemin de démocratisation alternatif à celui qu’ont emprunté la plupart des industries culturelles traditionnelles… Même si bien sûr rien n’est aussi binaire : si l’on regarde du côté de la vidéo en ligne, qui fait désormais partie intégrante des pratiques culturelles du grand public, on constate qu’un modèle de niche cohabite avec des productions phares qui captent des audiences très élevées. L’émergence d’un star-system sur YouTube, centré autour de quelques grands sujets fédérateurs (gaming, mode/beauté, humour), n’a pas empêché des vidéastes amateurs de proposer des contenus sur des sujets plus confidentiels – qui finissent d’ailleurs parfois par devenir de véritables hits, l’exemple phare étant les vidéos d’ASMR qui sont longtemps restées cantonnées à quelques micro-communautés d’aficionados avant d’atteindre une audience plus large.
La démocratisation du podcast pourrait donc se réaliser dans des conditions similaires à celle de la vidéo web. Pour autant, Joël Ronez, de Binge Audio, estime qu’il n’y aura pas de Netflix du podcast car il n’y a pas de marché international du podcast – une absence qui s’explique par d’évidentes raisons à la fois linguistiques et techniques (on n’a pas encore inventé le sous-titrage de l’audio, et traduire le podcast serait dénaturer son essence même). Peut-être pourra-t-il y avoir, en revanche, du podcast sur Netflix – pas au sens strict du terme, mais sous forme d’adaptation, d’inspiration ou même en tant que sujet comme dans la série Alex, Inc. qui raconte l’histoire d’un journaliste reconverti en podcasteur. Plus près de chez nous, la série audio Calls produite par Canal+ prouve l’appétence des grands médias pour les contenus audio et ouvre la porte à la possibilité d’adaptations télévisées du podcast, à l’image du podcast américain S-Town qui devrait bientôt être porté à l’écran.
Reste à surveiller le taux de pénétration des enceintes connectées, dont le marché se développe progressivement en France, et qui pourraient bien rebattre une nouvelle fois les cartes sur le marché de l’audio.
Crédit image : Icons8 team sur Unsplash
Méta-Media décrypte : les fake news
Les « fake news » sont désormais la hantise de tous. Ces fausses informations, qui miment les vraies pour se répandre comme une traînée de poudre, représentent l’un des enjeux majeurs de la circulation de l’information sur les plateformes numériques.
Ce phénomène met plus que jamais en lumière la nécessité d’une éducation aux médias et à l’information afin que tous les citoyens puissent renforcer leur esprit critique.
Dans cette vidéo, Méta-Media revient un phénomène plus complexe qu’il n’y paraît :
Pour aller plus loin, vous pouvez lire (ou redécouvrir) nos billets sur le sujet :
- Fake news : et si la solution passait par un vaccin ?
- L’Union européenne lance à son tour l’offensive anti fake news
- Fake news : les scientifiques s’en mêlent
- Fake News : le nombre de projets de fact-checking a triplé en 4 ans
- Fake news et « travailleurs du clic » : comment la désinformation est devenue un marché mondial
Toutes les vidéos de Méta-Media Décrypte
Algorithmes, médias et pratiques culturelles : 3 risques, 3 pistes
Voici le texte de mon propos introductif ce jeudi lors de la table-ronde organisée par la Commission des Affaires culturelles et de l’Éducation de l’Assemblée Nationale à laquelle j’ai eu le plaisir de participer aux côtés de Geoffrey Delcroix (Innovation et prospective CNIL) et Tristan Nitot, VP advocacy du moteur de recherche Qwant sous le thème : « Les algorithmes de sélection et de recommandation : quelle influence sur les pratiques culturelles et d’information ? » :

À sa naissance il y a 30 ans, le web était perçu comme l’espace de tous les possibles, un territoire qui ferait fi de toutes les barrières et qui réorganiserait le monde en un village global.
Le constat aujourd’hui est bien différent : nous sommes face à un immense patchwork de micro-communautés d’intérêt qui évoluent dans des cercles hermétiques et qui s’en remettent au bon vouloir de quelques plateformes hyper-puissantes pour faire le tri dans la profusion de contenus disponibles (la première page de résultats Google capte 90% des clics !).
Ce tri, ce sont les fameux algorithmes qui le font. Ils sont omniprésents dans nos vies numériques :
- Quand vous faites une requête sur Google et que le moteur de recherche hiérarchise pour vous les résultats qu’il juge les plus pertinents, c’est un algorithme (PageRank) qui est à l’œuvre.
- Même chose quand vous achetez un produit sur Amazon et que le site vous propose des produits similaires : c’est un algorithme qui sélectionne les recommandations à vous faire.
- Quand vous aimez des publications sur Facebook et que la plateforme est ensuite capable de vous servir des publicités ciblées selon vos goûts et vos centres d’intérêt, c’est encore grâce aux algorithmes.
Les algorithmes, concrètement, sont des ensembles de règles de calculs appliqués à des jeux de données (input) pour en sortir un résultat (output).
Pour faire simple : tout ce que vous voyez, entendez, lisez, achetez sur internet est filtré par des algorithmes avant d’arriver jusqu’à vous. Le problème, c’est que ces algorithmes ne sont pas neutres. Et les risques sont multiples :
Risque de biais, de discrimination :
La qualité des résultats fournis par les algorithmes dépend de la qualité des données dont ils ont été nourris. Si les jeux de données sont incomplets, ou biaisés, les résultats le seront aussi. Pire : des acteurs mal intentionnés pourraient volontairement tronquer les données pour manipuler le travail algorithmique. Facebook pourrait soudainement décider par exemple de ne mettre en avant que des contenus anti IVG, ou que des contenus pro NRA aux US. Autre exemple, de biais involontaire cette fois ci : une IA entraînée pour reconnaître les visages humains peut ne pas reconnaître un visage noir si on n’a pas pris la peine de s’assurer que les données dont on l’a nourrie étaient complètes et représentatives de la diversité des génotypes de notre humanité…
Risque d’enfermement dans des chambres d’échos ou bulles de filtre :
En analysant notre profil et nos comportements, les algorithmes sont entraînés pour nous recommander des contenus que nous serons susceptibles d’aimer. Ils nous enferment ainsi insidieusement dans un univers aseptisé où les résultats de nos recherches Google, les musiques recommandées sur Spotify, les articles de presse présents sur notre fil Facebook alimentent ce que nous connaissons déjà et uniformisent notre consommation de contenus culturels et médiatiques. Résultat : une hyper individualisation des pratiques culturelles. Nous sommes de moins en moins confrontés à l’altérité et aux points de vue divergents et évoluons de plus en plus dans des univers parallèles, qui se côtoient sans jamais se rencontrer.
Or l’empathie, la capacité à comprendre la diversité des points de vue sont une condition indispensable au bon fonctionnement de la démocratie, qui suppose de placer l’intérêt commun au-dessus des intérêts individuels. Sans cadre de références commun, comment participer de manière constructive au débat public ?
Risque de réduction de la liberté de choix, voire de manipulation :
La liberté de choix, ce n’est pas juste avoir la possibilité de choisir entre quelques options prédéfinies. C’est avoir la possibilité de se perdre, de déambuler au hasard et d’échapper au déterminisme. Une imprévisibilité que les algorithmes ne permettent plus dans nos vies numériques. Et pourtant, un humain est plus qu’un simple empilement de critères sur sa vie domestique, amoureuse, professionnelle…
Dans ce contexte, comment permettre aux citoyens de découvrir ce qu’ils ne connaissent pas encore, d’aimer ce qu’ils n’ont jamais testé, de s’ouvrir à des opinions différentes des leurs, si les algorithmes ne les nourrissent que de ce qu’ils aiment déjà ? D’autant plus que c’est un cercle vicieux, qui n’encourage pas les éditeurs à innover et à prendre des risques (puisqu’ils savent que ce qui marche le mieux est ce que le public aime déjà).
Le problème est multifacettes, et déjà bien réel. La preuve en 2016, quand nous sommes successivement tombés des nues en apprenant le vote du Brexit, puis l’élection de Trump. Nous aurions pu (dû) voir venir ces mouvements d’opinion… si nous n’étions pas déjà enfermés dans nos bulles !
Mais la cause n’est pas perdue, nous pouvons encore réagir.
Quelques pistes à envisager :
- Ouvrir une réflexion (puis une action) interdisciplinaire sur les algorithmes, qui mêle autant les sciences que les humanités. Il s’agit d’ouvrir les boîtes noires en faisant appel à toutes les intelligences, à toutes les disciplines, pour travailler en bonne intelligence et construire ensemble une stratégie efficace.
- Développer les capacités de contrôle et identifier les responsables des algorithmes : mettre en place des principes contraignants de neutralité des algorithmes et de loyauté des plateformes, pour obliger les acteurs recourant à ces outils à rendre des comptes sur leur programmation et leur utilisation. À cet égard, l’administration publique doit être exemplaire et remplir son devoir de transparence sur les données collectées et les principes qui gouvernent les algorithmes des services publics numériques (Parcoursup par exemple).
- Éduquer les citoyens (surtout les plus jeunes) à une compréhension critique des algorithmes : c’est essentiel, car nos jeunes générations sont en train de grandir avec les smartphones et les réseaux sociaux… des outils qui leur donnent une dangereuse impression d’omniscience sur le monde. Sans sensibilisation aux biais des algorithmes, on a vite fait de confondre son petit espace personnel avec le reste du monde. Chacun voit le monde à travers son propre prisme (son fil Twitter, ses actualités Facebook) et le considère comme la vérité.
Et dans ce travail, nous avons tous un rôle à jouer : institutions publiques, Education nationale, médias, citoyens… Le chantier est immense et c’est dès maintenant que nous devons nous y atteler.
Eric Scherer, avec l’aide précieuse d’Alexandra Yeh.
La vidéo de l’intervention est disponible sur le portail de l’Assemblée nationale.
Quelle typologie des métiers de la Social Data ?
Billet invité originellement publié par Brice Andlauer pour le Social Media Club
Pour les acteurs de la social data, la bonne dénomination d’un métier est essentielle tant pour le recrutement que pour la relation avec le client. Et pour cause, il s’agit de métiers hybrides qui nécessitent des compétences à la fois en code et en analyse, mais aussi en communication et même en sciences politiques. Or on observe un déficit de ce type de profils hybrides. L’émergence de ces nouveaux métiers nécessite donc une transformation de la formation et de l’organisation des entreprises.
Data analyst, social ads manager, opinion analyst, ou encore social insights analyst … dans les agences publicitaires, les cabinets de conseil, les médias ou les instituts d’étude d’opinion, les termes pour désigner les métiers de la social data s’accumulent. Derrière cette prolifération d’appellations se trouvent de profondes interrogations sur ces nouveaux métiers, encore difficiles à catégoriser et à identifier. L’étude de la donnée sociale pouvant, dans le futur, devenir un travail à part entière, ou au contraire se fondre dans des métiers déjà existant ; les questions liées aux compétences, au recrutement et à la formation se multiplient.
« Il nous est arrivé de changer jusqu’à trois fois le nom d’une annonce sur Linkedin avant de trouver des candidats, » raconte Laurent Michel, directeur Social media à l’agence Insign. « Toutes ces appellations sont amenées à changer. C’est difficile à harmoniser car chaque agence a sa spécificité. La façon dont on nomme nos métiers doit avoir une résonance vis-à-vis de nos clients. On s’adapte beaucoup à leurs besoins et à leurs attentes. En fait, le mot social est déjà dépassé. Je pense qu’on va revenir à des termes comme digital data ou digital analyst, » analyse Laurent Michel (Insign). Si les termes diffèrent pour désigner les personnes travaillant avec la Social Data, c’est aussi parce qu’aujourd’hui les métiers ne sont pas tout à fait les mêmes d’un secteur à l’autre. Dans les agences média, il faut par exemple créer des contenus en lien avec les comportements du public. « Aujourd’hui, on nous demande d’aller beaucoup plus loin dans le social listening. On doit matérialiser des scénarios de retargeting en fonction du parcours de l’internaute et de l’interaction qu’il a eu avec le contenu, » explique Jérémy Campy, directeur général d’Adpulse. Pour proposer ces scénarios, obtenus à partir de plusieurs équations dans des outils de social listening, Adpulse doit faire appel à une agence annexe, complémentaire de son activité de brand content.
Dans les études d’opinion, si les outils utilisés sont similaires, leur utilisation est différente. « Quand je suis arrivé, on me demandait de recruter des audience managers, ce qui ne correspondait à aucun profil existant. Nous avons finalement opté pour le terme d’opinion analyst, » raconte Justin Poncet, directeur Data intelligence chez Angie, dont une partie du travail consiste à cartographier l’opinion afin d’identifier des communautés. « On part du principe qu’il n’y a plus d’internaute en tant qu’individu, mais que chacun est partie prenante de quelque chose. Dans cette vision de l’opinion émergent des communautés, ce qui permet de faire un targeting média plus fin que dans les stratégies de ciblage classiques, » explique-t-il. Comme l’explique dans une interview aux Échos Damien Liccia, l’un des opinion analyst qui travaille avec Justin Poncet, « nous utilisons des méthodologies de data mining fondées sur le code, la statistique, le langage informatique R et les dernières avancées de la recherche en science politique… mais rien n’oblige à être issu d’une formation scientifique. » Au-delà de la formation aux outils de social listening classiques comme Tracker, Linkfluence ou Radarly, Angie demande en effet à ses opinion analysts de maîtriser des langages de code informatique comme R ou Python. « Dans l’analyse d’opinion, la maîtrise du code est importante pour pouvoir faire de véritables études qualitatives. Aujourd’hui, il n’y a pas d’outil qui nous permet de fournir ce qu’on veut aux clients, » développe Justin Poncet.
Les impératifs varient cependant d’un secteur à un autre. « Nous avons complètement séparé le développement de nos équipes d’étude. Nous ne sommes plus vraiment dans la logique où nous cherchons des gens qui savent coder, même si nous sommes très heureux lorsque quelqu’un a cette compétence, » confie Laurent Michel (Insign). « Lorsqu’on cherche un développeur, ce sera surtout ponctuellement pour de l’écriture de scripts, » poursuit Clément Brygier, fondateur de Digital Insighters.
DES PROFILS HYBRIDES RARES
Si certaines structures séparent totalement le développement de l’analyse, une tendance globale à la recherche de profils hybrides semble se dégager. « J’essaye de pousser l’hybridation le plus possible. Par exemple, nos analyses de controverses peuvent aller jusqu’à proposer des plans d’action en achat média. Notre activité va de l’étude à l’action, j’ai besoin de profils qui entendent tout ça, » explique Justin Poncet (Angie). « Il faut des gens qui maîtrisent à la fois l’analytique, la communication et les outils techniques. Ces trois compétences combinées sont rares, ce sont des profils qui n’existent presque pas, » poursuit-il. « C’est également le genre de profils que l’on cherche, et en général la compétence technique manque un peu, » raconte Lucien de Brot, Head of data analysis chez Burson Marsteller i&e.
« Aujourd’hui, à part dans l’achat de social ads, ce n’est pas la Social Data qui refond des métiers existants, mais plutôt les métiers existants qui englobent la Social Data. » Rémi Douine, fondateur de The Metrics Factory
Dès lors, comment recruter de tels profils ? « Il faut aller chercher des gens qui ont des appétences. Dans les promotions du CELSA ou des Institut d’études politiques, il y a quelques profils d’analystes avec une curiosité très prononcée pour le code et les outils techniques. Ce sont des gens qui se seraient tournés vers les instituts classiques il y a quelques années, » explique Justin Poncet (Angie). « Si quelqu’un suit les 18 / 25 ans depuis longtemps dans sa carrière, je vais deviner qu’il a déjà téléchargé et testé beaucoup d’applications et d’outils. Ce sont des profils OVNI qu’il faut savoir repérer, » poursuit-il. Même tendance à l’agence Insign : « Ce sont des profils de communicants qu’on va former en interne sur des outils techniques. Soit ils ont fait le CELSA dans les filières techniques, soit des écoles de commerce. Dans tous les cas, ils doivent aimer l’analyse et les chiffres, » détaille Laurent Michel. « Comme dans tous les métiers du digital, ce qu’on recherche avant tout c’est de la curiosité. On continue de mettre cette qualité en avant sur nos fiches de postes, » poursuit Anna Oualid, directrice Social Media Research chez Opinion Way, qui confie également miser sur des profils sciences humaines avec des compétences techniques.
Maîtriser les consoles d’engagement, les langages de code informatiques, le SEO … autant de compétences qui apparaissent aujourd’hui indispensables dans les métiers de la Social Data. « C’est aussi très important d’un point de vue commercial. Car cela va me permettre d’expliquer au client ce qu’il est possible de faire ou ne pas faire. Aujourd’hui, on évacue les profils de techniciens purs, car ils vont parfois manquer de recul pour expliquer l’importance de certains choix stratégiques au client, » développe Martial Rousset, consultant social media chez ENOV.
« Nous avons la volonté de transversaliser les profils. À ceux qui viennent nous voir pour faire de la stratégie, on répond : vous aurez les mains dans le cambouis, et vous ferez de la stratégie. » Laurent Michel (Insign)
Pour mieux travailler la Social Data, certains ont au contraire opté pour une stratégie de recrutement inverse. « Il est plus facile d’amener quelqu’un qui a une compétence technique vers un métier de communication, plutôt que de faire venir quelqu’un de la communication vers la technique, » raconte Lucien de Brot (Burson Marsteller i&e). « Chez Getty, nous faisons la distinction entre profil technique et un profil communicant, sachant que l’on peut plus facilement faire communiquer un bon codeur, que de faire coder un bon communicant. Je ne crois pas tellement à l’hybridation totale communicant – codeur : il y en a mais : ils sont rares et chers ! » analyse Christophe Legrand, spécialiste des solutions digitales chez Getty Images.
DES NOUVELLES ORGANISATIONS DES ESPACES DE TRAVAIL
Avec des profils de plus en plus pluridisciplinaires et une Social Data qui s’impose dans des corps de métiers de plus en plus variés, les modèles de répartition des tâches entre les services se voient eux aussi bouleversés. « Nous avons eu deux évolutions culturelles majeures avec l’essor de la Social Data. D’abord, il a fallu passer d’une activité de recherche à une activité de conseil, donc développer des compétences beaucoup plus tournées vers la stratégie. Ensuite, il a fallu intégrer dans nos stratégies et nos process des données beaucoup plus massives. Aujourd’hui, on ne parle plus de Social Data, mais de Data dans lesquelles il y a du social, mélangée avec les données du client, » détaille Céline Grégoire, directrice générale adjointe de Sorgem Advance. Dans les équipes des clients qu’elle accompagne, les data analysts côtoient les researchers « Ils sont dans deux bureaux différents et ne se parlent pas, car ce sont deux cultures différentes. On les accompagne pour désiloter tous ces métiers. C’est un véritable changement culturel, mais qui nous permet aussi de réduire le gâchis de la data, qui se perd encore beaucoup dans les angles morts entre ces différentes compétences, » poursuit-elle.
« Pour que ça marche, il faut de l’humilité : aussi bien de la part du statisticien qui est extrêmement prudent avec les termes et les analyses, que de la part du vendeur qui veut tout vendre peu importe la vérité. Il faut faire évoluer tous les profils, » analyse Lucien De Brot (Burson Marsteller i&e). « Comme tout se passe au même endroit, on ne perd pas de temps à transmettre les dossiers. On veut des gens qui comprennent et maîtrisent toute la verticalité du process. Ça donne plus d’efficacité, mais aussi plus de diversité et de motivation aux équipes, » raconte Laurent Michel (Insign). Dans d’autres structures en revanche, si l’évolution des profils tend vers la pluridisciplinarité, elle ne se traduit pas par une hybridation de l’organisation des services. « Chez Getty Images, on fonctionne beaucoup en spécialités. La Social Data passe par les équipes de data scientists, puis par les insights, puis par le service marketing, et enfin par la production de contenus, » raconte Christophe Legrand.
« Puisqu’on ne trouve pas en externe les profils adéquats, on recrute en sortie d’études tout en sachant qu’il y aura de la formation derrière. Pour qu’ils soient plus compétents, il vaut mieux procéder ainsi, plutôt que de les récupérer après trois ans d’expérience. » Laurent Michel (Insign)
Que ce soit en interne ou dans les études supérieures, la formation semble être l’enjeu clé pour bien travailler avec la Social Data. En France, il n’existe aucune formation qui enseigne les métiers de la Social Data. À tel point qu’aucun cours sur les outils de social listening comme Tracker, Linkfluence ou Radarly n’est donné dans les écoles de commerce ou de communication. « Lorsque j’interviens dans les écoles, je suis obligé de donner mes codes d’accès professionnels à mes étudiants, » raconte Martial Rousset (ENOV). « Dans les formations diplomantes, on trouve peu d’intervenants extérieurs qui viennent parler de ces métiers là. C’est un vrai problème, » poursuit Anna Oualid (Opinion Way). Faut-il donc créer de nouvelles formations ou améliorer celles déjà existantes ? « Des personnes qui ont fait un DUT GIDO (gestion de l’information et du document dans les organisations) puis poursuivi leurs études en IEP, en école de communication ou dans l’intelligence économique ont normalement déjà une curiosité pour la donnée. Dans ce genre de parcours, l’hybridation des profils existe déjà, mais ils n’ont tout simplement pas connaissance des possibilités de carrière qui existent dans les agences. Du coup, ils se tournent plutôt vers le renseignement ou la cyber sécurité, » explique Quentin Liot, formateur chez Digimind, qui a déjà rencontré ce genre de cas de figures. « Quand on regarde les parcours des data scientists, ce sont d’abord des médecins, des biologistes ou des mathématiciens, qui se sont ensuite spécialisés dans l’analyse des bases de données. Peut-être qu’aujourd’hui, la social data est une spécialisation qui manque aux écoles de commerce et de communication, » analyse quant à lui Lucien De Brot (Burson Marsteller i&e).
Les écoles de communication, de commerce ou les IEP formant très peu leurs étudiants au code ou au SEO, l’autoformation devient cruciale pour des nouveaux entrants sur ce marché. Si elle est aujourd’hui souvent assurée en interne par l’employeur, les outils d’autoformation en ligne se multiplient, et peuvent devenir des atouts pour les futurs candidats.