Les internautes français veulent plus d’information positive
Par Mathias Virilli, France Télévisions, Direction de la Prospective
64% des internautes trouvent que les médias français ne donnent pas assez d’informations positives.
Réalisée en ligne du 7 au 17 novembre 2014 sur un échantillon de 1.500 personnes représentatives de la population des internautes français par Harris Interactive, l’étude ZoomOn fait le constat d’un manque d’informations positives dans les médias français. Ainsi, 8 français sur 10 jugent qu’une bonne nouvelle a un impact positif sur leur moral. Près de 70% des internautes considèrent que des informations positives sont bénéfiques pour le dynamisme de la société française, la confiance en l’avenir, le désir d’implication et la fierté collective.
Journalisme de solutions, plutôt qu’information positive
Les médias de flux peuvent s’avérer stressants : en témoigne la hausse constante des faits divers dans les journaux d’information télévisés. Ainsi, 83% des internautes aimeraient voir plus d’actualités positives dans les médias. Avec l’information positive, il s’agit de présenter l’information comme une ressource de solutions, d’idées nouvelles voire de motifs d’engagement. D’où le nom préférentiel de journalisme de solution, ou d’impact-journalism.
Pour Gilles Vanderpooten, Directeur de Reporters d’Espoirs, les médias ne reflètent pas la complexité des enjeux qu’ils présentent. Dans cette perspective, une fois par an, Reporters d’Espoirs s’associe à TF1 ou à Libération pour proposer de nouvelles lignes éditoriales, qui accompagnent l’approche critique inscrite dans toute charte journalistique d’une volonté de ne pas se cantonner à une information anxiogène.
De même, Usbek & Rica a de son côté “vocation à repérer les signaux faibles qui préfigurent des tendances de demain” et ainsi “d’interroger le progrès”. Si Reporters d’Espoirs travaille avec un large éventail de médias et d’angles éditoriaux, notamment pour La France des solutions, le magazine Usbek & Rica s’appuie quant à lui sur une communauté d’une dizaine de milliers de lecteurs.
Ces publications, qui essaient de traiter de sujets différents ou différemment, comptent bien déplacer l’équilibre du traitement médiatique, et questionne donc le rôle même du journalisme : s’agit-il de présenter simplement l’information telle qu’elle est, ou d’aller au-delà du constat pour devenir une force de proposition ? Les Français se disent plus enclins à consommer un contenu s’ils savent qu’il propose une solution. Se sentant plus en prise avec l’événement, ils sont également plus susceptibles de s’engager. Pourtant, cette information positive ne doit pas occulter la fonction première du journalisme : montrer les enjeux, soulever les problèmes, ou, selon la célèbre formule d’Albert Londres : “mettre la plume dans la plaie”, quitte parfois à aller à contre-courant.
Plus d’information positive pour mieux engager son audience
Avec 29 millions de Français engagés chaque mois sur sa plateforme et 14 sessions mobiles par jour en moyenne, Facebook est désormais une plateforme incontournable pour le monde des médias, qui cherchent à y générer de l’engagement. Une information positive est selon Franck Da Silva, Directeur Commercial Marketing Solutions chez Facebook France, “une information qui se partage, qui engage”. Pourtant, les outils de mesure de cet engagement apparaissent biaisés tant le like d’une information dite négative peut être perçu comme ambigu. L’usage du bouton “J’aime” semble toutefois avoir évolué vers une notification de la sensibilité à l’information, dépassant ainsi le jugement du contenu pour en souligner la pertinence. Avec la conviction que “tant que le contenu est bon, Internet peut permettre du long” (Blaise Mao).
Pour Franck Da Silva, tout dépend du contrat de lecture, de la promesse offerte à la communauté à laquelle on s’adresse. L’information positive peut ainsi trouver une résonance particulière au sein de communautés locales, à l’instar de la communication de projets pouvant améliorer le quotidien d’une ville ou d’un quartier (88% des Internautes sondés se montrent intéressés) ou de mise en valeur du patrimoine local (75%).
Choix éditorial assumé, le journalisme de solutions vise donc à rééquilibrer la double face de la réalité plutôt qu’angéliser l’information, en proposant des idées qui engagent les lecteurs à aller plus loin. Ces propositions, si elles sont réalisées, doivent à leur tour s’accompagner de preuves tangibles de leur effectivité.
Netflix, simple catalyseur des mutations du marché vidéo français ?
Par Mathias Virilli, France Télévisions, Direction de la Prospective
Et si Netflix n’était que le révélateur d’un marché vidéo français — et européen– en pleine mutation ?
Avec l’arrivée du replay et de la VOD, la télévision linéaire n’a pas attendu l’offre SVOD prônée par Netflix pour muter. Mais le géant du streaming vidéo par abonnement est en train de donner un coup de fouet aux chaînes de télévision françaises pour qu’elles s’adaptent plus vite aux changements de modes de consommation.
Dans son étude « De l’intérêt d’investir de nouveaux espaces stratégiques pour redynamiser le marché de la vidéo en France« , le cabinet de conseil Kurt Salmon s’attache à montrer cette mutation au-delà de l’arrivée de Netflix en France et propose des développements envisageables pour que le marché français de la vidéo se porte mieux.
Lundi 1er décembre à Paris, Netflix présentera devant le groupement des éditeurs et de services en ligne (GESTE) les premiers retours de ses récents lancements européens et sa vision du futur de la TV/vidéo, avant la diffusion le 12 décembre de sa nouvelle série Marco Polo qui vise une audience mondiale.
Netflix : bienvenue en France
Le PAF a craint l’ogre Netflix pendant longtemps pour ce qui était annoncé comme une offre riche en contenus et attractive autant en termes de prix que pour son expérience utilisateur. Fluide, ergonomique, disponible sur de multiples supports et guidée par un algorithme de recommandations responsable de 75% des programmes visionnés (bien loin devant le moteur de recherche ou la sélection manuelle), l’expérience Netflix devait fragmenter encore un peu plus les audiences et de nouveau empiéter sur les revenus des acteurs traditionnels.
Au final, Kurt Salmon juge qu’il n’y a pas eu d’« effet wow », et pour cause principale, pour l’instant : un catalogue pas à la hauteur des attentes. En effet, la chronologie des médias propre à la France empêche l’américain autant que les acteurs français de proposer des films récents. Netflix se retrouve donc contraint d’attendre afin d’améliorer son offre de contenus : les droits des séries qu’il propose outre-Atlantique, non soumises à ces fenêtres d’exploitation, sont d’ores et déjà détenus par des acteurs français, à l’instar de sa série phare, House of Cards, encore dans les mains de Canal +.
Un marché français en décélération
Reste à savoir si Netflix aura un impact positif sur un marché français moins consommateur de vidéo, à en juger les chiffres de Médiamétrie. Que ce soit en live ou en replay, les Français consommaient en 2013 3h46 de télévision par jour en moyenne, soit 4 minutes de moins qu’en 2012. Une tendance qui s’accélère en 2014, avec une baisse de 8 à 15 minutes de visionnage par mois.
D’après les chiffres publiés par le CSA en septembre dernier, la télévision non-linéaire (VOD, SVOD, replay) était également en recul de 5% en 2013, avec 245 millions de revenus. Si la SVOD connaissait une croissance de 4,4% en 2013 à 28 millions de revenus que l’on peut s’attendre à voir confirmée avec l’arrivée de Netflix, la VOD chutait elle de 6,5% en 2013, à 217 millions. Aujourd’hui, la VOD et la SVOD représentent seulement 11% du marché vidéo français, contre 48,5% aux Etats-Unis.
On ne dispose toutefois d’aucune donnée sur les autres supports que la télévision, si ce n’est que 6,3% des Français regardent la TV ailleurs que sur un téléviseur (Guide du SNPTV 2014). Le replay, premier service sur un téléviseur connecté pour 73% des Français, s’effectue majoritairement sur TV avec 2,5 milliards de contenus visionnés en 2013 (2% de moins qu’en 2012). D’après Kurt Salmon, ces données sont d’autant moins encourageantes que l’offre de rattrapage augmente, avec une hausse d’un tiers concernant le nombre de vidéos disponibles et d’un cinquième pour ce qui est du volume horaire !
L’exception culturelle française, incarnée par une chronologie des médias qui espace de 3 ans la disponibilité d’un film en SVOD de sa sortie en salles (contre 6 mois aux Etats-Unis, tandis que le film est disponible en SVOD en même temps que sur la TV payante au Royaume-Uni), constitue selon le cabinet de conseil un frein à l’expansion du marché vidéo français. Toutefois, le rapport souligne que l’exception française se caractérise aussi par le fait que les Français reçoivent d’abord la TV par ADSL ou par la fibre (39,7%, soit 9,5 points en deux ans).
Seulement, Kurt Salmon indique que le prix de la VOD ou des bouquets payants semble avoir reporté les consommateurs vers la TNT (31,3% de la réception TV), dont l’offre est en France riche et disponible, réduisant ainsi le budget vidéo annuel des foyers de 95,8€ en 2011 à 60,2€ en 2013.
Une offre inadaptée à la demande ?
Et si plutôt qu’un désintérêt des français pour la vidéo, ces chiffres montraient un problème d’adéquation de l’offre à la demande ? C’est l’idée qui sous-tend la publication de Kurt Salmon, qui s’appuie sur plusieurs constats :
- la VOD montre ses limites pour ceux qui souhaiteraient revoir un programme (par exemples les enfants avec un dessin animé)
- la SVOD n’a que peu d’intérêt si l’on souhaite visionner les récentes sorties cinématographiques
- le téléchargement définitif (ou EST) reste cher : on compte 10 à 17€ sur iTunes pour acheter un film.
Si les supports se sont indéniablement digitalisés, restent à savoir si les usages suivent.
Pour Kurt Salmon, en préparant l’arrivée de Netflix, les acteurs français de la vidéo n’ont pas su proposer une offre qui réponde à la demande, trop concentrés à faire face à la concurrence d’un service qu’ils ne proposaient pas ou peu. Partant de la demande par cible et par usage, le cabinet de conseil suggère qu’il y a peut-être là une opportunité à saisir pour les acteurs français. En effet, l’usage diffère d’une cible à l’autre : ainsi, si certains jeunes aimeraient voir uniquement le passage de leur candidat préféré, les parents aimeraient par exemple pouvoir avoir accès à la recette de cuisine ou au tutoriel de bricolage quand ils le souhaitent. En fragmentant ses émissions par morceau, une chaîne de télévision française pourrait ainsi faire payer ses téléspectateurs pour un morceau d’émission. Avec un prix adapté, cette fragmentation permettrait, de promouvoir les contenus produits par la chaîne sur sa propre plateforme (plutôt que sur YouTube) et sur la longue traîne.
D’après Kurt Salmon, cela impliquerait d’assouplir les services de vidéo à la demande (avec par exemple le download-to-go), ou même de promouvoir un modèle de téléchargement définitif. L’EST répondrait en effet à un besoin propriétaire des consommateurs, qui aiment pouvoir disposer de leur contenu indéfiniment, sur n’importe quel support (physique ou digital), qu’ils soient connectés ou hors-ligne.
Aux Etats-Unis, le standard Ultraviolet permet aux consommateurs d’obtenir une version digital de leur programme dès lors qu’ils l’ont acheté en VOD, DVD ou Blu-Ray, et peuvent ainsi y accéder soit en streaming, soit par téléchargement. 16 millions d’Américains l’ont déjà adopté, si bien que Verizon s’est lancé dans l’EST. En France, le service a été lancé fin 2013 en toute discrétion : sans accord avec des plateformes VOD, il a attiré 70 000 Français sur la première moitié 2014. Outre Orange et FilmoTV, peu nombreux sont les services qui encouragent le développement de l’EST en France. Cependant, l’EST, qui a connu un boom de transactions de 68% au premier semestre 2014 aux Etats-Unis (selon NPD Group), bénéficie outre Atlantique d’une fenêtre d’exclusivité de 3 semaines avant la VOD.
Netflix, catalyseur du marché de l’OTT
Malgré ces interrogations quant à la santé du marché français de la vidéo, l’arrivée de Netflix devrait jouer un rôle de catalyseur de l’ensemble de ces mutations et dynamiser les marchés vidéos européens dans lesquels l’entreprise américaine s’est récemment implantée. Si la consommation de vidéos des Français pointe du nez, l’appétit pour des contenus de toutes sortes semble augmenter. Couplé à la baisse des coûts technologiques, les revenus OTT du Royaume-Uni devrait par exemple augmenter de 254% d’ici 2017, pour atteindre les 613 millions de dollars. Ceux des marchés néerlandais et allemands devraient suivre une croissance aussi fulgurante, avec des taux respectifs de 1147% (de $19-25 millions à $237 millions en 2017) et 286% (à $143 millions en 2017), d’après une étude MTM London.
L’implantation de Netflix dans ces pays a stimulé l’investissement dans le marché OTT, alors que l’usage de smartphones augmente et que les régulations changent. Dans ce contexte et en prenant compte les fortes barrières à l’entrée que représentent l’acquisition de contenus et d’une base d’abonnés, il est possible que le marché voit quelques services s’établir et se partager avec des contenus différenciateurs : films de niches ou rares, performances live, catalogue enfants, etc. Sont également à prévoir des offres différenciées en termes de business model : services subventionnés, supportés par la publicité, transactionnels devraient s’entremêler pour générer des revenus diversifiés.
Enfin, un écosystème non-optimal en termes de débit et d’appareils connectés, associé à des attentes fortes des consommateur et l’inflation des droits d’acquisition de contenus pourraient constituer des freins à la croissance du marché de l’OTT en Europe et notamment aux entreprises désireuses de proposer des contenus de niche.
Netflix devrait donc provoquer la catalyse attendue du marché de l’OTT, aboutissant à une diversification des offres OTT. A prévoir notamment un assouplissement des offres SVOD et une guerre déjà lancée pour l’acquisition de contenus qui permettent aux services de se différencier tout en gardant l’attention de ses consommateurs. Reste à savoir si le marché français, avec ses spécificités, est susceptible de suivre un chemin différent ?
Que savez-vous d’Internet ? Faites le test !
Par Mathias Virilli et Etienne Cointe, Direction de la Prospective, France Télévisions
Connaissez-vous Internet et la technologie?
C’est la question posée aux Américains par le Pew Research Center via son quiz « Web IQ » de 12 questions sur des sujets variés liés à la technologie et à Internet: connaissance de dirigeants d’entreprises tech, histoire des grandes avancées technologiques, structure sous-jacente d’Internet et de la technologie.
Voici le lien pour faire le quiz (attention : à faire avant de lire le reste du billet si vous voulez vraiment tester vos connaissances !) : http://www.pewinternet.org/quiz/web-iq-quiz/
Les américains connaissent mal l’Internet
La majorité des utilisateurs américains d’internet sont capables de répondre correctement aux questions concernant des plateformes technologiques connues et les usages quotidiens d’internet.
A titre d’exemple, ¾ savent qu’un megabyte est plus gros qu’un kilobyte, 60% qu’un tweet peut contenir au maximum 140 caractères alors que certains n’utilisent même pas Twitter.
Mais peu d’utilisateurs sont familiers avec certains concepts d’Internet et les avancées technologiques modernes : seulement 1/3 connaissent les lois de Moore, 23% sont au courant qu’internet et le World Wide Web sont deux notions distinctes.
Beaucoup d’américains ne connaissent également pas l’histoire récente de la technologie. Malgré le film The Social Network, moins de la moitié des interrogés (42%) sont capables d’identifier Harvard comme la première université testée par le site. De même, seulement 36% des sondés ont sélectionné à juste titre 2007 comme la date de sortie du premier iPhone.
Lorsqu’il s’agit de reconnaître les dirigeants emblématiques des entreprises tech, le constat est mitigé. Si 83% des personnes interrogées parviennent à identifier Bill Gates (10% le confondent tout de même avec son grand rival Steve Jobs!), seuls 21% reconnaissent Sheryl Sandberg, actuelle Directrice des Opérations de Facebook et auteur du récent livre à succès En avant toutes : les femmes, le travail et le pouvoir.
Concernant les concepts reliés à la politique mise en vigueur sur Internet, 61% savent ce que représente la notion de neutralité du net (on doit être loin du compte en France! ) mais seulement 44% des gens sont conscients que l’existence d’une déclaration de confidentialité ne signifie pas nécessairement que le site garde confidentielle l’information qu’il collecte des utilisateurs.
Les meilleurs sont les jeunes et les diplômés
D’un point de vue démographique, les jeunes répondent globalement mieux que les personnes âgées. Cette différenciation est d’autant plus prononcée lorsque les questions posées font intervenir des connaissances relatives aux médias sociaux ou à des conventions d’usage de la toile : la notion de « captcha », la définition d’un « wiki » leur sont plus familières.
Les personnes diplômées sont également plus enclines à répondre correctement aux questions du quiz. Leurs bons résultats sur les questions faisant intervenir la technologie ne sont pas surprenants quand on sait qu’ils ont des taux élevés d’utilisation des technologies de consommation.
Cependant, certains éléments en rapport avec l’histoire et la définition d’internet leur sont encore inconnus : 1/5 d’entre eux seulement répondent correctement à la question sur une éventuelle distinction entre World Wide Web et Internet, 12% savent que Mosaic fut le premier navigateur graphique disponible sur le web.
Carton jaune pour le sport français sur le numérique !
Par Mathias Virilli et Etienne Cointe, Direction de la Prospective, France Télévisions
Le manque d’investissement conjugué à une cruelle désillusion serait-il le mal sportif français du moment? Quelques jours après la défaite de l’équipe de France en Coupe Davis ou le revers du XV de France face aux Pumas argentins, le Digital Sport Challenge 2014, qui étudie les usages des médias sociaux et la stratégie Internet des acteurs du sport, ne redore pas le blason français.
Recouvrant les ligues de football, tennis, basket, rugby et handball ainsi que 20 athlètes, 10 fédérations, 10 équipementiers, 10 évènements, 8 distributeurs, 8 médias en plus d’observer la consommation de sport via les médias numériques, cette étude de web assessment nous donne une vision à 360° de l’état de la présence du sport en ligne en France.
Les français consomment peu de sport sur Internet. La TV reste le média privilégié.
65% des Français suivent le sport. C’est peu si on le compare aux voisins allemand (77%) ou espagnol (82%). Les Français consacrent en moyenne 5h par semaine au sport, et seulement 37% fréquentent des événements sportifs (contre 72% en Turquie, par exemple). Parmi les sports suivis, le football arrive en tête (32%), devant le tennis (24%) et le rugby (22%).
Quant aux médias employés pour consommer du contenu sportif, 96% des Français qui suivent le sport citent la TV, qui reste le moyen le plus utilisé par tous les pays sondés.

En revanche, 50% seulement utilisent un ordinateur (65% chez les Espagnols, 71% chez les Russes), et 30% un appareil mobile (tablette ou smartphone). Avec l’Allemagne et le Japon, la France se situe de fait tout en bas du classement de la consommation de sport en ligne, loin derrière les Emirats Arabes Unis (86% en ligne, 74% sur mobile) et l’Inde (85% en ligne, 76% sur mobile). Les smartphones et tablettes apparaissent donc comme un levier de développement important de la consommation médiatique de sport en ligne en France, sachant que 57% seulement des fans de sport français souscrivant à un abonnement Internet ou mobile déclarent la qualité de diffusion satisfaisante.
Même constat pour les réseaux sociaux, que seuls 21% des Français fans de sport utilisent pour suivre le sport, comparé à 60% pour l’Indonésie, ou 38% pour le voisin italien. Facebook (79%) devance YouTube (52%) tandis que Google + et Twitter se partagent la troisième place (17%), laissant Instagram (8%) au pied du podium. Outre les réseaux sociaux nationaux, cette hiérarchie est majoritairement similaire dans les autres pays sondés. En termes de contenus, les fans de sports utilisent les réseaux sociaux pour regarder des vidéos des matches ou leurs résumés, mais aussi pour obtenir des informations sur une équipe ou sur un sportif.
Ainsi, avec seulement 53% des Français intéressés par le sport utilisant Internet pour le suivre, la consommation de contenu sportif sur Internet équivaut à 1h30 par semaine en moyenne.
Des acteurs français très disparates
L’étude nous révèle que la notoriété d’un sportif auprès du grand public n’est pas forcément synonyme de popularité sur les réseaux sociaux puisque seuls 2 sportifs se retrouvent dans tous les classements: il s’agit de Karim Benzema et Tony Parker.
Si le classement de la notoriété des sportifs se distingue par son hétérogénéité avec des acteurs provenant de tous horizons (football, basket-ball, natation, athlétisme, tennis et rallye), il en est autrement des classements relatifs à la popularité sur Facebook et Twitter. Ils démontrent une nouvelle fois la prédominance du football, qui place 9 de ses représentants dans chacun des top 10. Seul Tony Parker parvient à se tailler une place parmi les footballeurs tandis que Teddy Riner, pourtant sportif le plus connu selon l’étude, en est absent.
Afin d’analyser la performance des acteurs du sport sur le web et les stratégies déployées sur les réseaux sociaux, l’étude définit 6 catégories:
Les résultats diffèrent sensiblement des classements précédents. Le fait de pratiquer un sport individuel se révèle être un élément prépondérant. Les footballeurs sont très souvent dépassés par les joueurs de tennis notamment (Jo-Wilfried Tsonga et Alizé Cornet) qui ont clairement compris les enjeux que recouvrent le web et les réseaux sociaux.
Les clubs sportifs s’inscrivent davantage dans la réalité économique: les clubs de football occupent les premières places, suivies des écuries du top 14 puis des équipes de basket-ball de Pro A et des clubs de handball.
On observe des disparités dans le sport féminin: si les équipes féminines de football (Lyon, PSG, Montpellier) bénéficient indéniablement de l’attrait suscité par leurs homologues masculins présents en Ligue 1, aucune synergie ne semble exister au basket-ball par exemple.
En ce qui concerne les événements sportifs français, une réelle ligne de démarcation se dessine entre ceux d’envergure internationale (Roland Garros, le Tour de France et le Dakar) globalement bien structurés au niveau de leurs stratégies web et réseaux sociaux et les événements à portée nationale (Hand Star Game, Tournoi BNP Paribas…) qui n’obtiennent pas la moyenne.
La famille des distributeurs se distingue par une claire polarisation entre les groupes et les réseaux de magasins, pour lesquels il est difficile de partager une plateforme web performante. Les équipementiers, quant à eux, représentent le secteur le plus performant et le plus homogène dans cette étude avec des figures de proue tels qu’Adidas, Quicksilver ou Nike.
Pour les acteurs de la sphère sportive désireux de s’améliorer, l’étude donne les exemples à suivre dans chacun des secteurs. Il est donc conseillé à un sportif de visiter le site de Cristiano Ronaldo, à un club de football de se pencher sur le plan d’action de Manchester City ou à des organisateurs d’évènements français d’analyser la stratégie déployée sur le web et les réseaux sociaux pour le Super Bowl.
L’intelligence collective au service des managers de demain
Par Etienne Cointe, France Télévisions, Direction de la Prospective
Si les exemples de mise en œuvre de l’intelligence collective sont nombreux dans le milieu animal (notamment chez les abeilles ou les fourmis), son instauration semble plus compliquée chez l’espèce humaine. Aujourd’hui pourtant, les reproches qui visent les hauts responsables politiques ou les dirigeants d’entreprise, accusés de ne pas prendre en compte les avis des citoyens ou de leurs salariés, remettent en question les anciens processus décisionnels et tendent vers la mise en place d’une telle organisation.
Pour Olivier Zara, consultant en management et médias sociaux, des pays comme la France, qu’il oppose aux pays anglo-saxons, sont moins enclins à de tels bouleversements dans leurs entreprises. Il décrit « une hiérarchie française très fermée, centrée sur le statut » et qui l’a d’ailleurs convaincu de déménager au Canada au début des années 2000. Il a néanmoins l’impression que des éléments perturbateurs, tels que la crise de 2008, commencent à dérider ce système. Sous la contrainte, la France commence à agir.
Qu’est-ce que l’intelligence collective ?
Olivier Zara décrit l’intelligence collective comme « la somme des intelligences de la situation conjuguées à des savoirs. » A travers le terme « intelligence de la situation », il sous-entend une bonne compréhension du contexte et des enjeux du problème posé. L’intelligence collective n’est donc pas la somme des quotients intellectuels des individus engagés dans la réflexion, critère trop souvent mis en avant lors de la sélection des personnes pouvant prendre part au processus de décision.
Cette intelligence collective, ou intelligence en essaim, n’est cependant pas assimilable à une décision collective. Elle s’inscrit davantage dans une réflexion collective qui repose sur le principe de subsidiarité. La décision sera uniquement prise par le manager afin de ne pas le déresponsabiliser, avec une règle clé : « On discute, je décide. »
Quand l’utiliser ?
L’intelligence collective doit être utilisée afin de résoudre des problèmes complexes, à ne pas confondre avec les problèmes compliqués. Ces derniers désignent les problèmes qu’il nous est possible de résoudre avec du temps et de l’expertise parce qu’ils ne concernent que des éléments d’une même structure (ex : une voiture, un avion).
Les problèmes complexes, en revanche, ne sont pas facilement appréhendés par l’homme car ils recoupent des éléments de structures différentes dont il est difficile de comprendre le fonctionnement, les interactions et donc d’anticiper les résultats (ex : le cerveau, une entreprise). Afin de procéder à leur résolution, il convient donc d’adopter une approche holistique et systémique.
Pour Olivier Zara, les problèmes complexes des entreprises s’articulent autour de l’un des 4 thèmes suivants:
– Développement de performance / Stratégies
– Problème technique complexe / Gestion des risques / Sécurité au travail
– Gouvernance / Modes de travail
– Innovation
A ces thèmes correspondent plusieurs dimensions parmi une vingtaine existantes (organisation, marketing, finance, stabilité, stratégie, etc.) dont il va falloir concevoir les différentes interactions dans l’espoir de cerner le problème complexe posé.
L’intelligence collective sert ainsi d’outil de gestion de la complexité pour les managers et les leaders. Elle permet de sécuriser le processus de prise de décision en offrant une vision globale et partagée, une mesure des interactions, un choix élargi de décisions et une mesure des consensus.
Mise en œuvre de l’intelligence collective
– La matrice AXIO
Le management de l’intelligence collective est un processus séquencé en 6 étapes pour chacune desquelles le manager doit déterminer le nombre de personnes à impliquer. L’idée est d’éviter à tout prix le cheminement habituel du manager qui effectue les 5 premières étapes seul avant d’exposer, lors de la 6e étape, la décision aux collaborateurs. Il utilise pour cela le M.I.G (Management Incantatoire et Gesticulatoire) afin de les convaincre, ce qui ne fait que servir l’abrutissement collectif.
Avec la matrice AXIO, le manager décide seul mais est éclairé par l’intelligence collective: en intégrant ses collaborateurs au processus de décision, il en fait des « collabor-acteurs ».
– Le management paradoxal
Si l’ordre et les institutions, à travers l’organisation pyramidale, sont les meilleurs systèmes pour exécuter les décisions, ils se révèlent être les pires quand il s’agit de la prise de décision. Le management de l’intelligence collective repose sur une combinaison d’éléments du monde 1.0 (hiérarchie, organisation en silos, contrôle, discipline…) et d’éléments du monde 2.0 (co-création, intelligence collective, communauté …). Il s’inscrit dans un management qualifié de « paradoxal » par Olivier Zara car il se base aussi bien sur l’ordre et la nécessité de contrôle que sur une certaine logique de chaos, à convertir en chaos-agile (qu’il oppose au chaos-désordre) à travers la transversalité, la liberté, les sens et les savoirs.
Si les bienfaits d’un tel management peuvent être nombreux, notamment auprès des salariés, le temps que les managers doivent consacrer à l’intelligence collective reste marginal (environ 5%). Enfin, le véritable livrable de ces réunions, dont le but est d’envisager des solutions à un problème complexe, n’en reste pas moins obscur : « c’est de l’intuition pour le manager ».
Les images de cet article sont issues de « L’intelligence collective au service de l’agilité et du leadership dans la complexité » d’Olivier Zara, disponible sur slideshare.
La smart city doit être plus qu’une ville intelligente
Par Etienne Cointe et Mathias Virilli, Direction de la Prospective, France Télévisions
La smart city n’est pas un concept nouveau : les villes ont toujours essayé d’aménager l’espace urbain de manière intelligente. Dans les années 70, le maire de la ville brésilienne Curitiba, Jaime Lerner, adoptait déjà une méthode que Francis Pisani qualifie “d’acupuncture urbaine” : à l’instar de l’approche médicale, cette démarche consiste à revitaliser une zone “malade” en traitant un point-clé du système, censé déclencher des réactions positives en chaîne. Une forme de smart city parmi d’autres !
La smart city est bien un concept protéiforme, qui s’adapte à la ville, dont il est question. Jean-Louis Missika aime à rappeler que “la ville intelligente, c’est un poumon qui vit au rythme de ses habitants”. Et Carlos Moreno, professeur spécialisé dans la ville intelligente, prévient que la smart city n’est « pas un logiciel » mais doit être une méthode qui vise à faire de la ville un lieu de vie et de rencontre.
Les problématiques offertes par ce concept de smart city revêtent d’autant plus d’importance qu’on assiste à une urbanisation croissante de la planète : si en 2007, la population mondiale devenait majoritairement urbaine, 70% des habitants vivront en ville en 2040.
A l’occasion du première Forum Smart City organisé cette semaine à l’Hôtel de Ville de Paris, la maire Anne Hidalgo notait d’ailleurs 3 tendances des villes-monde, qui expliquent le développement de cette urbanisation :
- un facteur d’attraction pour les populations
- un espace de création où on invente des solutions : solutions de débrouille ou innovations
- un espace où les entreprises tentent leurs innovation et voient si ces dernières répondent aux besoins des citoyens
Aujourd’hui, quelles dimensions recouvre la “smart city” ? Tentative de définition.
Une ville numérique et connectée
Le Smart Cities Council, composé de grandes entreprises parmi lesquelles GE, EdF, Microsoft, Qualcomm, Cisco ou encore IBM, parle de « ville intelligente » lorsque les technologies digitales sont intégrées dans toutes les fonctions de la ville : régulation dynamique des réseaux entre eux (transport, énergie, eau…), boutiques virtuelles, éclairage intelligent, etc. Antoine Frérot, Président Directeur Général de Veolia Environnement ajoute d’ailleurs : « une smart city doit recueillir, transmettre et traiter un grand nombre de données en temps réel récupérées sur les infrastructures, les équipements et les consommateurs de ces services ». Cette ville connectée doit servir à optimiser le fonctionnement de ces installations complexes, et permettre d’inventer de nouveaux services avec les usagers, davantage interactifs.
Une ville durable plus participative
Pourtant, les dispositifs smart city mis en place par des villes comme Songdu en Chine interrogent la place de la technologie : elle ne doit pas être « un lieu froid fait de capteurs » (Carlos Moreno). Si l’innovation est au cœur de la ville intelligente, cette dernière n’est pas fondamentalement technologique. La technologie doit être conçue comme un accélérateur porteur d’interactivité et de connectivité : elle est bénéfique si elle trouve un usage social derrière, en répondant à un besoin exprimé ou révélé. Anne Hidalgo souligne d’ailleurs ce point en affirmant: “l’usage est la clé du développement de la smart city ».
Cette définition, axée sur le numérique, se doit donc d’être complétée par l’inclusion des habitants dans le processus de construction de la ville intelligente, ainsi que par l’enjeu de soutenabilité environnementale des solutions urbaines proposées.

Pour Boyd Cohen, le développement durable doit ainsi être mis en avant : « une smart city est une ville qui exploite la technologie et l’innovation afin de rendre plus efficace l’utilisation des ressources et réduire la taille de l’emprunte écologique ». L’exposition « Matière Grise » au Pavillon soulignait cet enjeu avec son credo : « consommer plus de matière grise pour consommer moins de matières premières », en convoquant l’intelligence collective pour reconsidérer les matériaux qui servent à la construction de nos infrastructures. Carlos Moreno évoque quant à lui la prise en compte de la vulnérabilité socio-territoriale dans la smart city.
L’instauration de smart grids, dont le premier exemple français IssyGrid est basé à Issy-les-Moulineaux, préfigure la gestion de l’énergie dans des quartiers intelligents : par exemple, si une maison équipée de panneaux photovoltaïques n’emploie pas toute l’énergie qu’elle a stockée, cette énergie inutilisée pourrait être transmise à d’autres infrastructures.
ISSY GRID ST FR from VLSTUDIO on Vimeo.
Ainsi, la smart city doit “organiser l’intelligence collective” selon Jean-Louis Missika, ce qui implique un changement dans le mode de décision des gouvernants afin de partir des habitants. Ce transfert de pouvoir vise à rétablir une relation égalitaire et de dialogue entre gouvernants et citoyens, et éviter que la ville ne dispose d’un poste de contrôle unique. La mairie de Paris a ainsi proposé à ses habitants d’échanger sur un budget participatif : une façon d’exercer son droit démocratique à travers un processus collaboratif. La ville intelligente est ainsi « responsive » pour Virginie Calmels, adjointe à la mairie de Bordeaux en charge de la croissance durable, dans le sens où elle doit être un projet de co-construction avec ses habitants afin de répondre au mieux à leurs attentes. Selon Carlos Moreno, l’esprit technocratique a laissé la place à un éco-système ouvert qui permet la co-création citoyenne.
C’est en ce sens que le numérique trouve sa place. Parce qu’il sont porteurs d’échanges et de partages, les outils dématérialisés permettent à la ville d’engager les citoyens à travers de nouveaux usages en ligne. Des consultations électroniques permettent par exemple de consulter l’avis de ses habitants au quotidien de façon plus pratique pour eux qu’auparavant, où le conseil municipal était le seul lieu de délibération régulier. Nathalie Leboucher, directrice du programme stratégie Smart Cities d’Orange, évoquait quant à elle une application mobile d’assistance personnelle personnalisée et contextualisée pour les habitants de Bordeaux ; tandis que Jean-Charles Decaux parlait de “mobilier urbain intelligent”, déjà implanté à Sao Paulo, qui diffuse in situ et en temps réel le fil d’actualité Twitter de la ville.
Cette articulation entre outils numériques et gouvernance participative doit se faire dans un climat de confiance qui passe par une éducation des citoyens aux enjeux de la data. Les mairies doivent ainsi faire preuve d’exemplarité en matière de politique des données (avec par exemple des politiques d’open data mises en place à Paris ou à Toulouse) ; tandis que l’enjeu pour les habitants est de percevoir la collecte d’informations non pas comme une violation de leur vie privée, mais plutôt comme une opportunité d’améliorer la gestion de la collectivité.
La smart city : plus qu’une ville intelligente
La smart city n’est ainsi pas nécessairement une ville high tech, comme l’a prouvé Anibal Gaviria, maire de Medellin. Connue pour son taux de criminalité le plus élevé au monde en 1991, la ville colombienne a cette année été nommé ville la plus innovante en 2012 par le Wall Street Journal pour ses technologies d’innovation incrémentales qui ont su répondre frontalement et à bas coût aux problèmes de ses habitants. D’ores et déjà intronisé cas d’étude, Medellin montre que la low tech peut rendre une ville smart et questionne la pertinence de la traduction française du concept. En effet, il s’agit bien plus d’une ville ingénieuse, maline, élégante, et parfois même bricolée qui ressort de l’exemple de Medellin, et non pas une ville à la pointe de la technologie.
Refuge, le court métrage qui met la fiction face à l’innovation technologique
Par Etienne Cointe et Mathias Virilli, France Télévisions, Direction de la prospective
Méta-Media a assisté à la projection de Refuge, court métrage expérimental dont le scénario a été pensé pour inclure les derniers formats d’image et de son.
L’objectif du projet, réalisé par Thibaut Duverneix en partenariat avec l’Institut de Recherche Technologique b<>com ? Vérifier qu’il est possible dès aujourd’hui de mettre l’innovation technologique au service d’une expérience immersive.
Le compositeur David Drury et le réalisateur Thibaut Duverneix ont relevé le défi de confronter la fiction à des technologies innovantes, tel que le son spatialisé (Higher Order Ambisonics), et le HFR (high frame rate, soit un rythme d’images supérieur à l’état actuel). Thibaut Duverneix et Jean-Yves Aubié, responsable du laboratoire Nouveaux Formats Médias à l’Institut de Recherche Technologique b<>com et auteur du livre blanc “Ce que nous réserve l’avenir de la 4K” nous livrent leurs retours d’expérience :

Pourquoi avoir fait le choix de prendre en compte la technologie dans la construction du projet ?
[Jean-Yves Aubié] On était des techniciens, on travaillait sur la technologie, sur les moyens de produire des images, du son. On a voulu vérifier le potentiel immersif de ces nouveaux formats à travers une histoire, confronter ces technologies à une trame narrative et voir s’il y avait réellement un effet immersif.
Quelles technologies ont contribué à la réalisation de “Refuge” ?
[Jean-Yves Aubié] Refuge a été tourné en 4K, 120 images par seconde, un format naissant. On a utilisé également une prise de son avec un micro 32 capsules de façon à reproduire un son spatialisé. Lors de la réalisation du clip, on utilise une technique de rendu binaural de façon à pouvoir reproduire de la spatialisation sur un simple casque stéréo.
Quels ont été les contraintes et défis rencontrés pour la réalisation de ce court-métrage ?
[Thibaut Duverneix] Il y en a eu quelques-unes et c’était le défi : mettre à l’épreuve d’un plateau de tournage des outils très neufs. La plus grande contrainte était de vouloir/devoir tout faire “in caméra” pour le son. Nous avons travaillé avec un micro extrêmement sensible et plutôt mal adapté à des conditions de tournages, surtout sous la pluie en extérieur. Ce micro rend quasiment impossibles les déplacements de caméra, car il est très difficile de bouger une caméra de ce type de façon silencieuse. Nous devions tout enregistrer sur place pour conserver la spatialisation et le traitement en post était plus que limité.
Si l’expérience était à refaire, quels changements apporteriez-vous à votre réalisation ?
[Thibaut Duverneix] Côté technique, je développerais un rig caméra qui ferait voyager le micro avec la caméra de façon silencieuse. Sinon, je le ferais avec 10 fois plus de budget et de moyens ! C’est extrêmement difficile de réaliser un film de façon indépendante.
Le coût des technologies employées peut-il être un frein au développement d’une telle expérience audiovisuelle ?
[Jean-Yves Aubié] Les coûts de production essentiellement. Il se trouve que grâce aux nouveaux moyens de compression, on peut amener des formats U-HD jusqu’au foyer de M. Tout-Le-Monde à un coût relativement raisonnable. En effet, ça ne prend pas plus de débit que la MPEC 2 aujourd’hui aux Etats-Unis, pour amener de l’U-HD avec des nouveaux formats de compression HEVC. Par ailleurs, le son spatialisé peut être également compressé. En particulier si on a du son binaural, ça revient au coût d’une simple stéréo.
Pourra-t-on profiter de cette expérience chez soi ?
[Jean-Yves Aubié] Ça va venir avec le format U-HD, déjà disponible en particulier à travers le web. Aujourd’hui, on peut recevoir de la 4K chez soi en streaming et le son peut être binauralisé, comme lors de l’expérience de visualisation de Refuge, avec un simple casque stéréo chez soi.
Pour vous, quelle sera l’expérience audiovisuelle dans 10 ans ?
[Jean-Yves Aubié] Je pense qu’il va y avoir un retour de la 3D, mais sans lunettes car la 3D avec lunettes n’était pas forcément une bonne idée. Je verrais bien des contenus holographiques, avoir la possibilité de tourner autour d’une scène et de changer de perspective.
A quoi va ressembler le travail du réalisateur dans 10 ans :
[Thibaut Duverneix]: Je ne pense pas que le métier va changer. Les médiums changent et nous maîtrisons un vaste éventail d’outils grandissant chaque jour pour faire vivre une expérience ou raconter des histoires
D’autres versions techniquement plus abouties sont déjà prévues pour 2015, notamment avec restitution sur hauts parleurs ainsi que sur les futures générations d’écrans. En attendant, une version HD à 30fps est disponible en ligne, en son binaural.
Refuge from Thibaut Duverneix on Vimeo.
Refuge a été coproduit par Jimmy Lee, agence de communication internationale et maison de production de Sid Lee ; BLVD, entreprise de production de contenu multi-plateformes, ainsi que l’Institut de Recherche Technologique b<>com.
Les conversations sur Twitter bénéfiques aussi pour la TV de rattrapage
Par Barbara Chazelle, France Télévisions, Directions Stratégie et Prospective
Les chaînes TV avaient bien compris que Twitter permettait de créer du lien avec leur public (qui échange depuis quelques années maintenant durant la diffusion de leurs programmes).
Mais savaient-elles qu’une large audience sociale en live faisait progresser l’audience de la catch-up ?
C’est ce que montre une récente étude Nielsen sur les 18-34 ans aux USA : 10% de plus de tweets durant un programme équivaudraient à une progression de 1,8% de l’audience différée, faisant ainsi des réseaux sociaux les nouveaux guides TV… de rattrapage.
L’étude montre par ailleurs que plus l’émission est « social » , plus le transfert vers le replay sera important : les « high social shows » ont une audience différée 36% plus importante que l’audience live alors ce chiffre n’est que de 16% pour les « low social shows ».
Ces résultats démontrent une fois encore qu’un programme vit avant, pendant et après sa diffusion : les mèmes, vidéos courtes, extraits, jeux… sont certainement un bon moyen d’y parvenir, en rappelant au public ce qu’il ne fallait pas rater hier à la télé !
3 conseils pour des marques plus sociales
Par Pierre-Nicolas Dessus, France Télévisions Editions Numériques, Direction du Marketing
Beaucoup de marques font désormais le pari des médias sociaux. Mais les règles changent vite, et il n’est plus question de compter uniquement le nombre de ses fans Facebook. Trois enjeux forts se sont dégagés lors de la conférence Engage 2014 dédiée au Social Marketing il y a quelques jours à New York :
- la création de contenu original et de qualité
- la transformation de l’entreprise en firme « social native »
- la mesure de la performance sociale
L’enjeu de la création de contenu original et de qualité
Si les plateformes sociales sont des caisses de résonance, le contenu n’en demeure pas moins la matière première nécessaire à toute viralisation.
Pete Mitchell, Directeur Global Media Innovation chez Mondelez et Chris Reitermann, Président de Ogilvy & Mather Asie Pacific ont proposé lors de la conférence une classification matricielle de contenus produits par les marques selon deux axes : personnalisé/global en vertical et utile/divertissant sur l’axe horizontal.
Triste constat : la majeure partie des contenus partagés par les marques relève de l’information pratique de base. Or les contenus viralisables sont ceux décrits comme « magnétiques », c’est à dire à la fois divertissants et s’adressant à tous, comme cette campagne Dove par exemple :
https://youtu.be/R9wSFg8x1vA
Dans cette école de la créativité, certaines marques ont adopté la plateforme de vidéos de 6 secondes, Vine et n’hésitent pas à imiter et même à emprunter ses stars.
Zach King, 24 ans, 2 millions de followers à date sur Vine, est un véritable cas d’école dont la marque de fabrique est la réalisation de vidéos le mettant en scène en train d’interagir avec des produits de manière surréaliste via des tours de passe-passe : https://vine.co/Zach.King. Sa créativité ainsi que le format ultra court de ses productions l’ont amené à se positionner comme une véritable agence de création publicitaire sur le marché.
Pour réaliser une vidéo de 6 secondes, il travaille avec une équipe de 5 personnes qui réalise les vidéos de A à Z (scripts, « effets spéciaux », montage). L’ensemble du projet peut prendre quelques semaines, généralement moins d’un mois. Il peut être amené à capter une cinquantaine de fois la même scène pour obtenir le résultat attendu.
Selon lui, les critères de réussite d’une vidéo courte sont :
– l’effet de curiosité
– la qualité de la réalisation
– sa dimension partageable (ce qui implique que le contenu ne peut être trop choquant ou gênant…)
– le caractère non daté, non périssable d’une vidéo
– un contenu qui génère de la confiance
Il a de plus rappeler la nécessité « de réaliser des briefs précis et de clarifier les objectifs de la marque ». Actuellement, Zach King travaille avec Chrysler Autos, Starbucks ou encore Lacoste dans le cadre d’une campagne réalisée avec BETC.
Aux Etats-Unis, HP a réalisé le premier spot TV de 30 secondes réalisé exclusivement avec des Vines dont celui de Zach King. En France, cette campagne intitulée #BenTheRules était notamment en affichage numérique en France fin octobre
L’adage « il n’y a pas de créativité sans contrainte » prend tout son sens sur Vine.
La détection de talents issus de cet univers devient un enjeu humain stratégique pour les agences de publicité et les chaînes de télévision.
Transformation d’une entreprise traditionnelle en entreprise « Social Native »
Selon, Jan Rezab, le CEO de SocialBakers, « les entreprises doivent se transformer pour devenir social native ». Les enjeux sont multiples : animer la marque, informer sur les nouveaux produits, proposer un service client, recevoir du feedback, développer la notoriété.
Selon une étude réalisée auprès du grand public par SocialBakers aux Etats-Unis, les 3 industries perçues comme étant les plus « sociales », c’est à dire ayant une action de qualité sur les réseaux sociaux sont les Télécoms, le Transport Aérien/Tourisme et le secteur bancaire. A titre d’exemple, TUI, premier groupe de tourisme au monde, a créé une équipe social média dédiée, composée de collaborateurs issus des directions de la communication, du marketing et du service client, réunie en un seul et même lieu. Le rôle de cette équipe consiste à :
– produire du contenu social riche et partageable. De plus en plus, ce contenu est fourni par l’audience dans la cadre de l’animation éditoriale (jeu autour des photos de voyages, …)
– écouter et répondre aux questions, remarques des clients. En 18 mois, aux Pays-Bas, les taux de réponses sur les réseaux sociaux sont passés de 60% à 100% et le temps de réponse moyen de 12h à 1h. L’équipe travaille 24/24 7/7 car sur les réseaux sociaux le temps réel est la règle.
– monitorer les performances à l’aide de dashboard et de reporting. Ces reportings sont partagés à la direction générale de TUI.
– former les autres collaborateurs de l’entreprise aux pratiques sociales.
L’équipe fonctionne avec peu de niveaux hiérarchiques et en interconnexion continue avec les différents services de l’entreprise via une messagerie instantanée. Chaque pays construit son équipe localement pour garder une proximité forte.
Mesurer la performance sociale
L’éternelle question au sujet du social marketing est celle de son monitoring au quotidien et de son ROI.
Rod Strother, Digital and Social Centre of Excellence de Lenovo et SocialBakers ont partagé une méthodologie pour créer un indicateur de la performance sociale, basée sur un indicateur de 4 composantes :
– Participation de l’audience c’est-à-dire nombre de personnes qui interagissent avec le produit
– Acquisition d’audience c’est-à-dire le volume de croissance de la communauté (nombre de fans)
– Rétention de l’audience active c’est-à-dire le nombre de personnes qui reviennent et interagissent
– Viralité c’est-à-dire le nombre de personnes qui partagent votre contenu
Si l’idée de créer un indicateur de performance sociale global qui puisse permettre aux marques de se comparer est intéressante, il y a quelques limites à observer. Tout d’abord, cet indicateur ne prend pas en compte le nombre global de fans de la page. Il y a donc un biais lié à la puissance de la marque. Par ailleurs, la réelle exposition du contenu produit n’est pas prise en compte (volume d’impressions) posant la question de son impact réel. Enfin, cette méthodologie, ne propose pas de corrélation entre la performance sociale et la performance business. Elle ne peut donc pas être utilisée pour monitorer une activité d’un point de vue business. Il s’agit donc plutôt d’un outil pour analyser la qualité de l’animation sociale de la marque et sa capacité à engager son audience.
Sur le même sujet, (re)découvrez les conseils de Pierre Matuchet de l’agence Milky spécialisée dans les réseaux sociaux, pour réussir votre stratégie social media :
Politique et numérique : un mariage consommé ?
Par Mathias Virilli et Etienne Cointe, France Télévisions, Direction de la Prospective
La stratégie numérique des djihadistes, notamment leur usage des réseaux sociaux pour recruter, a récemment fait la Une. Les élections de mi-mandat aux Etats-Unis furent une autre occasion d’observer le mariage de la politique avec le numérique, côté élus, médias, ou société civile. La politique compte bien désormais sur le numérique pour « engager » citoyens et électeurs, souvent désabusés, voire méfiants.
La journaliste Melody Kramer de la National Public Radio (NPR) est revenue cette semaine sur la couverture médiatique des midterms à travers un tableau de bord Pinterest intéressant qui recense les bonnes initiatives des médias de l’élection américaine.
Parmi elles, cartes interactives, infographies, images agrémentées de texte visent toutes à engager au mieux les internautes sur les résultats de l’élection.
Pendant la campagne, les médias US étaient également en quête des moyens les plus efficaces pour sensibiliser les Américains à la complexité des enjeux. A noter les vidéos explicatives de The Vox sur les huit notions à connaître sur les midterms 2014 ou sur l’efficacité des publicités politiques :
Se former aux outils numériques, une nécessité pour les politiques aujourd’hui
« Apprendre ces compétences n’est pas juste important pour votre futur, c’est important pour l’avenir de notre pays” déclarait Barack Obama en décembre 2013 à propos des réseaux sociaux. Il convient aujourd’hui d’accepter que la politique passe par le numérique, et de maîtriser les outils qui en découlent, afin d’éviter des fiascos de communication.
Ségolène Royal qui, avec la mise en ligne de son site “Désir d’avenir” fut la risée du web, en est un exemple notoire.
Les erreurs d’inattention sont également à proscrire du côté des politiques car la toile a cette fâcheuse tendance de propager une information à une vitesse sans commune mesure avec les médias traditionnels. Eric Besson en a fait la malheureuse expérience en confondant sa liste de brouillons et son compte Twitter.
L’ère de la Web politique
Elus 2.0, c’est le “journal sur la Web politique” qui s’attache à montrer les liens à double sens entre politique et numérique. Outre une veille sur l’utilisation d’Internet par les élus et les impacts du Web sur la politique, le site d’Elus 2.0 propose un classement des comptes Facebook et Twitter des personnalités et partis politiques les plus suivis, pour vérifier si nos politiques utilisent Internet pour leur action politique.
Elus 2.0 est également une plateforme pour les élus : ceux-ci peuvent disposer d’une page sur laquelle sont recensées toute l’actualité les concernant ainsi que leurs publications en ligne. Le site est édité par la société Ideose, qui propose des formations aux réseaux sociaux (en un jour!), comme lors des dernières municipales avec les clés pour réussir sa webcampagne. Ideose propose par ailleurs un baromètre des collectivités territoriales sur les réseaux sociaux.
Parce que la politique a toujours fait l’objet de détournements, satires et parodies en tout genre, le numérique ne fait pas non plus exception à la règle. En témoignent Humour de droite, qui recense plus de 177.000 « likes » sur Facebook et 255.000 abonnés sur Twitter.
Réconcilier les citoyens avec la politique, au quotidien
Gov est une application qui prétend être « la météo de l’opinion ». Lancée en Tunisie à l’occasion des élections, la nouvelle version est disponible depuis peu en France. Elle propose aux utilisateurs de voter sur des personnalités politiques ou des sujets qui font l’actualité.
Ces derniers sont proposés par les administrateurs ou les utilisateurs de l’application et portent sur des thèmes sociaux et politiques variés. L’utilisateur peut également consulter les statistiques de ces différents sondages quand il le souhaite.
Constatant que les réseaux sociaux ne sont pas pensés pour faire de la politique, Gov espère créer un nouvel espace d’expression, plus démocratique et désintermédié. Un espace qui se veut plus représentatif que ce que font les instituts de sondage et qui offre une prise plus immédiate sur la politique que le droit de vote et les manifestations.
En Tunisie, Gov voulait donner être la “voix des sans-voix”, en priorité des jeunes, qui représentent là-bas 80% des non-votants. D’après ses deux fondateurs, l’application a été un moyen d’exprimer les attentes des tunisiens aux politiques, avec des relais des leaders d’opinion, des associations et de la presse. Gov espère lutter contre la désaffection politique avec un outil citoyen, à l’heure où 80% des Français déclarent se méfier de la classe politique.
Bien qu’innovante, cette application de démocratie directe et participative n’en reste pas moins limitée. Outre l’impossibilité d’échanger avec les autres utilisateurs sur les différents sujets, l’obligation de ne répondre que « pour ou contre » à chaque question restreint considérablement la possibilité de débats constructifs. De plus, la possibilité de « gover » (voter) chaque jour, sans système de différenciation du vote d’un utilisateur quotidien comparé au vote d’un utilisateur occasionnel, interroge sur la pertinence des données collectées. Cependant, parce qu’elle s’inscrit dans le temps réel (des live-goving seront bientôt proposés), l’application n’a pas l’ambition d’exprimer une réflexion approfondie (sur des sujets pourtant complexes), mais bien de recueillir un ressenti, qui pourra ensuite être analysé.
Enfin, l’obstacle de la représentativité semble inhérent à ce type d’application : le public consulté sera d’abord technophile, donc pas forcément représentatif de la population. Surtout, comme toute application sociale, l’enjeu pour Gov est d’atteindre une masse critique afin d’éviter le risque d’instrumentalisation.
En juillet dernier, à l’occasion du concours mondial #innovation2030 qui se tenait à l’Elysée, une des 110 lauréats (et une des 7 à être monté sur scène) présentait un projet d’application qui comme Gov, vise à prendre le pouls de l’opinion à un temps t, avec une approche toutefois radicalement différente.
“Fondé sur une innovation technologique smart data capable de détecter finement des émotions et des préférences personnelles sur les réseaux sociaux”, l’application vise en effet à analyser en direct les émotions suscitées par exemple lors d’un discours politique. Angoisse, colère, joie, amour, ou même indifférence : les politiques auront bientôt une idée plus fine de l’impact qu’ils ont eu sur la sphère numérique. Le président de la République a d’ailleurs réagi au projet en déclarant en introduction de son intervention : “Rien ne serait pire que l’indifférence”.
Et pour ceux qui ne seraient pas convaincus de ce que le numérique peut apporter au politique, sachez que l’application mobile Tartooflor vous permet de vous défouler en lançant des tartes (ou des fleurs) à des hommes politiques!