Les fuites de données, armes de déstabilisation massive
Par François Fluhr, France Télévisions, Prospective et MediaLab
Paradise Papers, WikiLeaks, affaire Snowden : en une décennie, les fuites massives de données, les fameuses « leaks », se sont multipliées. Certaines font la une des médias à travers le monde quand d’autres restent inconnues du public. Pierre Gastineau et Philippe Vasset, co-auteurs du livre Armes de déstabilisation massive, nous ont fait découvrir, à l’occasion d’un petit-déjeuner au Tank, les coulisses de ce phénomène qui se révèle parfois bien plus organisé qu’il n’y paraît…
Les auteurs ont recensé un peu plus de 40 fuites massives de données depuis 2006 et ont été interpellés par un lourd paradoxe :
« C’est un phénomène qui est habituellement considéré comme une manifestation de transparence, c’est-à-dire la diffusion massive de documents qui a priori ne sont pas destinés à être publics. Mais dans le même temps, il s’agit probablement de l’un des phénomènes les plus opaques de la sphère informationnelle d’aujourd’hui. Puisque ces fuites sont toujours couvertes par l’anonymat, même les journalistes ne connaissent pas les sources. »
Comme l’expliquent les auteurs, on ne sait généralement rien du contexte de ces fuites, ni de la manière dont ces informations ont été obtenues, ni des motivations ou des intérêts de la source qui a d’ailleurs pu, elle-même, être manipulée à son insu. Apparaît alors ce contraste entre l’idée qu’on se fait d’une révolution démocratique de l’information et la réalité concrète d’une mécanique informationnelle opaque dont le pendant journalistique n’est qu’une partie de l’histoire.
Un secteur d’activité à part entière
Pour comprendre ce qui arrive aux données avant qu’elles ne soient publiées par des journalistes, les deux enquêteurs ont inspecté « l’arrière-cuisine » de ces fuites. Conclusion, le leak est aussi un outil de géopolitique et d’affaires dont l’usage s’est répandu au point de structurer tout un secteur d’activité.
« En avançant, on s’est rendu compte que c’était un secteur à part entière avec des gens qui avaient pignon sur rue et offraient divers services de stratégies, de consulting, de hacking pour des intérêts étatiques ou privés qui souhaitent organiser une fuite. »
D’après Philippe Vasset, les avocats et les arbitragistes se servent énormément de cette méthode.
Il cite notamment « tous les grands arbitrages où, miraculeusement, au milieu de la plaidoirie, quelques téraoctets de mails tombent dans l’escarcelle d’un des avocats et font basculer le procès ».
La méthode est si efficace qu’elle suffit parfois à faire pression en marge des instances juridiques :
« Un homme d’affaires irano-américain en conflit avec un des pays du Golfe a un jour reçu un mail d’un des avocats de ce pays qui lui écrivait : ‘Cher monsieur, au vu de vos mails qui sont disponibles à l’adresse suivante, veuillez abandonner votre plainte contre notre État et payer tant de dommages.’ »
Israël, la Russie et l’Inde : trois pays avant-gardistes
D’après les auteurs, la capitale mondiale de cette activité serait Tel-Aviv. Ils décrivent l’État hébreu comme une figure de proue du secteur, aux côtés de l’Inde et de la Russie. Ces trois pays ont chacun leurs spécificités, mais ils ont tous investi très tôt dans le « cyber ». Pierre Gastineau explique qu’ils ont rapidement pris de l’avance, notamment dans le souci de sortir d’une position d’infériorité stratégique. Ce secteur leur permet de rééquilibrer la balance à moindre coût en y transposant leurs méthodes d’espionnage traditionnelles. La fuite de données serait donc la digne héritière du Kompromat russe.
Une des particularités de ces États est d’avoir très vite mêlé le secteur privé à cette ambition :
« En Inde et en Israël, il existe une porosité extrême entre les services de renseignements et un écosystème privé qui développe des services en ce sens. »
En Inde, l’État s’est « branché sur l’énorme secteur du service IT » qui préexistait. Quant à la Russie, les deux auteurs préfèrent parler d’une « zone grise » volontairement entretenue par le pouvoir en place. C’est la raison pour laquelle il est si difficile de comprendre les groupes de hackers russes, de savoir si une attaque ou une fuite provient d’un groupe isolé ou de l’État. Selon eux, il faut prendre en compte la globalité du phénomène et notamment cette « zone grise volontaire », véritable écosystème du cyber-espionnage.
Et l’Europe alors ?
Interrogés sur l’Europe, les invités expliquent que c’est une posture défensive qui prévaut au sein de l’Union et que les services d’État restent très cloisonnés. Bien qu’une revue stratégique de cyber-défense ait vu le jour le mois dernier en France, la logique d’internalisation a longtemps prévalu et empêché le développement de nouveaux outils par le secteur privé. Les deux journalistes posent aussi la question d’une culture qui, loin de valoriser le secteur, le condamne et pèse sur les investissements :
« Une start-up qui fait un outil d’espionnage capable de craquer un iPhone, en France, on voit ça mal; en Israël, elle est vendue 500 millions. »
Idem pour la formation : « Dans les écoles russes, une des filières de prestige, c’est la manipulation de l’information. C’est comme être dans la « Botte » de l’ENA et choisir le Conseil d’État, alors que cela reste mal vu chez nous, y compris parmi les espions. »
Ce différentiel, les enquêteurs l’expliquent aussi en partie par le succès d’un « mythe du lanceur d’alerte » qui prospère dans nos pays. Pour Pierre Gastineau, nous faisons l’erreur de considérer tout leak comme intrinsèquement bénéfique. Il parle ainsi de la création d’un « paradigme du lanceur d’alerte » qui fut d’abord un homme seul à protéger et qui est petit à petit devenu un excellent paravent pour des intérêts plus étatiques ou économiques.
Un mythe opérant qui s’est aussi construit dans la fiction. Parmi les exemples que citent les auteurs, le film d’Oliver Stone, Snowden (2016). Peu de gens savent que ce film est l’adaptation d’un livre qui a été écrit par l’avocat russe de l’ex-agent de la CIA, avocat qui est par ailleurs conseiller du FSB (Service fédéral de sécurité de la fédération de Russie) et président du Conseil civil du ministère de l’Intérieur russe. Il glorifie très largement la figure du lanceur d’alerte et tend à l’essentialiser. Le film se termine d’ailleurs sur des images qui ne laissent aucun doute sur l’imaginaire positif véhiculé.
Les médias, acteurs de cette économie de la fuite
Sans donner de leçon de déontologie, les auteurs décrivent avec précision le rôle que jouent les médias dans cette économie de la fuite. S’ils n’hésitent pas à qualifier de « schizophrènes » ou même d’« hypocrites » certaines pratiques, ils se gardent bien de condamner la profession en bloc et distinguent différentes approches du phénomène.
Leur enquête parle d’un « blanchiment d’informations » au sujet duquel un agent soviétique, spécialisé dans la manipulation médiatique, ironise dans le livre :
« Si l’Occident n’avait pas la liberté de la presse, il faudrait l’inventer. »
Et pour cause, l’écrasante majorité des données qui fuitent ayant été hackées, c’est-à-dire volées, elles deviennent de fait illégales. Se met alors en marche un circuit étonnamment simple qui a pour but de les blanchir.
Prenons le cas de deux entreprises se livrant une bataille commerciale avec un arbitrage international. L’une accuse l’autre de corruption. Un « lanceur d’alerte » que l’avocat aura missionné et rémunéré leur fournit 1 téraoctet de données, parmi lesquelles des messages qui prouvent cette corruption. La méthode d’acquisition de ces informations étant illégale, celles-ci ne peuvent être utilisées devant un tribunal. Mais si elles sont transférées à un média et que des journalistes les traitent, elles deviennent publiques et peuvent être incorporées comme pièce à conviction dans un procès.
Il n’est même pas nécessaire de passer par des journalistes pour blanchir la donnée : il suffit qu’elle soit mise en ligne sur un simple site Internet, dont l’audience ou la légitimité importent peu. C’est sa dimension publique qui compte. Le traitement médiatique ajoutera simplement un levier supplémentaire pour faire pression dans le cadre d’un procès et vérifier les informations. C’est souvent le rôle que jouent les journalistes, même à leur insu, dans cette stratégie de la fuite.
Ainsi, les auteurs nous prédisent que fleuriront bientôt les articles dénonçant la corruption du pouvoir angolais à partir de fuites d’emails.
« Le pays vient de changer de pouvoir et toutes les anciennes sociétés affiliées à l’ancien président sont très fâchées contre le nouveau. »
Personne n’ira chercher si c’est un lanceur d’alerte ou une manipulation, car les journalistes, en tant que récipiendaires de ces fuites, font aussi partie du jeu et en bénéficient. Sortir un « leak », c’est aussi un enjeu marketing pour les entreprises médiatiques qui seront « reprises pendant une semaine en ouverture de chaque journal ».
Les journalistes esquissent donc deux évolutions possibles dans le traitement journalistique des fuites de données :
« Soit on commence à réfléchir à la totalité de l’histoire, soit, au contraire, on se rend borgne volontairement pour avoir un impact marketing de plus en plus fort. »
L’Allemand Der Spiegel, cité comme exemple, a commencé à réfléchir à cette question après s’être rendu compte que certaines de ses données provenaient de groupes de hackers russes. Le journal a choisi de considérer qu’elles demeuraient d’intérêt public, mais que l’histoire de leur source devait être intégrée pour faire comprendre la « méta-histoire » des données et éclairer leur lectorat. Le cas inverse est celui des Paradise Papers pour lesquels il n’y a pas la moindre mention d’une source ou d’un hack, pas même un hypothétique lanceur d’alerte.
Or, pour Philippe Vasset, « on ne peut pas traiter l’un sans traiter l’autre. Traiter un leak en s’aveuglant volontairement sur son origine, c’est se couper de 50%, voire 80% de l’histoire ».
Fuites et fakes
D’après Philippe Vasset, ce qui distingue fondamentalement les fuites massives de données des fake news, c’est que dans une fuite massive de données, tout est vrai. C’est la raison pour laquelle très peu de journalistes s’interrogent sur la source de ces informations :
« Quand un journaliste reçoit les éléments d’une fuite de données et qu’il vérifie que les documents sont effectivement vrais, la question de la source est éclipsée. »
Il apparaît néanmoins que les fuites peuvent nourrir les fakes. Pierre Gastineau remarque que « le mot leak est devenu une marque en soit » au même titre que « gate ». Dès qu’il y a un « leak » ou un « papers », un hashtag se crée et amène le public à croire que la personne qui en est victime à quelque chose à se reprocher.
Peu importent les faits, « c’est en soit suspect d’être victime d’un leak, on inverse le rapport de force, celui qui subit la fuite est forcément quelqu’un dont on peut douter ».
Pire, les fuites sont retraitées par des sites de fake news qui vont s’appuyer sur la fuite originelle pour inventer et diffuser de fausses accusations. Elles sont ainsi utilisées en tant que marque qui intrinsèquement porte un jugement moral.
Le livre conclut habilement sur un chapitre orwellien qui met en garde face aux réactions inévitables qu’induit ce phénomène. Ces pratiques aboutissent en effet à la mise en place dans les entreprises de méthodes de surveillance extrême des salariés. Ne pas se sentir concerné par ce phénomène serait donc une erreur. Malgré sa discrétion, il peut avoir des conséquences concrètes sur le quotidien de nombreuses personnes. Alors la prochaine fois que vous entendrez parler d’un leak, n’oubliez pas de vous demander quelle est son histoire.
L’Union européenne lance à son tour l’offensive anti fake news
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
« Une approche multidimensionnelle de la désinformation » : c’est le titre du rapport publié cette semaine par le groupe d’experts de haut niveau sur les fake news réuni par la Commission européenne, composé de représentants des médias, des plateformes et de la société civile.
Derrière cet intitulé pour le moins cryptique se cache une démarche simple : placer l’Union européenne en tête de proue de la lutte anti fake news pour armer les sociétés européennes contre la désinformation en ligne. Une manière aussi pour Bruxelles, qui ne veut pas de loi, de dire que de telles initiatives au niveau européen, constituent le seul niveau valable pour lutter contre ce fléau.
Ne dites plus « fake news », dites désinformation
Après quelques belles années à faire les gros titres, il semble que l’expression « fake news » ait désormais perdu ses lettres de noblesse. Alors que nous évoquions il y a quelques jours le désamour des chercheurs américains pour ce terme, c’est désormais au tour des 39 membres du groupe d’experts de la Commission de préconiser son abandon.
Incapable d’appréhender pleinement la complexité du problème et de refléter la diversité des types de fausses informations en circulation sur internet, le terme « fake news » a en outre fait l’objet d’une récupération par certains politiques, au premier rang desquels Donald Trump, qui n’hésitent pas à l’utiliser à des fins personnelles pour discréditer les médias qui ne vont pas dans leur sens.
Autant de raisons qui poussent le groupe d’experts européens à préconiser le terme « désinformation », qui désigne des informations fausses ou trompeuses délibérément conçues dans le but de causer un préjudice public ou dans un but lucratif.
5 étapes pour lutter contre la désinformation
Une fois la question de la terminologie réglée, les recommandations du groupe d’experts s’articulent autour de cinq piliers.
Première étape incontournable de la lutte contre la désinformation : rendre l’écosystème de l’information, et en particulier ses processus de production et de diffusion, plus transparents, dans le but d’aider les utilisateurs à mieux distinguer le contenu journalistique de qualité des contenus à vocation mensongère. Cela implique notamment que les plateformes soient plus transparentes sur les contenus sponsorisés (en particulier, souligne le rapport, en période électorale) et partagent leurs données avec des chercheurs indépendants pour évaluer l’effet des fausses informations sur les utilisateurs et l’efficacité des mesures prises par les plateformes (signalement de fausses nouvelles, fact-checking).
Si l’éducation aux médias et à l’information était déjà devenue fondamentale dans notre époque numérique, elle a pris encore une toute autre envergure avec l’avènement de la désinformation en ligne. Le rapport préconise de mettre l’accent sur plusieurs mesures d’éducation aux médias : apprendre à s’informer bien sûr, mais aussi apprendre à débattre en ligne, et à ne jamais se départir de son esprit critique devant une information. Sa force, selon le groupe d’experts, est son approche préventive plutôt que curative : l’éducation aux médias se fait en amont, dès le plus jeune âge mais aussi tout au long de la vie, pour former des citoyens capables de repérer les fausses nouvelles avant même d’avoir eu le temps d’être trompés.
Les experts préconisent ici la mise en place d’outils concrets pour armer les citoyens contre les fausses nouvelles, comme des indicateurs de qualité (labels pour les contenus vérifiés, indicateurs de transparence des contenus) ou encore des algorithmes qui favoriseraient le pluralisme de l’information pour présenter des opinions variées (mais toujours vérifiées). Du côté des professionnels de l’information, le groupe recommande aux médias d’investir davantage dans des projets innovants liés au fact-checking, à l’intelligence artificielle et aux big data pour mieux lutter contre la désinformation.
L’idée ici est de garantir un environnement favorable aux médias d’information pour leur permettre de combattre à armes égales avec les producteurs de fausses nouvelles, en favorisant la mise en avant et la découvrabilité des contenus de qualité pour ne plus qu’ils soient noyés au milieu des contenus de désinformation. Le rapport renouvelle ici son appel à des investissements plus importants pour soutenir le journalisme de qualité, citant en exemples les fonds Google DNI et le Facebook Journalism Project.
Parce qu’il ne suffit pas de prendre quelques mesures cosmétiques, le groupe d’experts insiste sur la nécessité d’évaluer en permanence l’ampleur du phénomène, son évolution et l’efficacité des mesures prises pour l’endiguer. Convaincu que des réponses législatives ne sauraient combattre efficacement la désinformation (en plus de comporter des risques d’atteinte à la liberté d’expression et à la liberté de la presse), le groupe préconise des mesures d’auto-régulation (création d’une coalition réunissant plateformes, médias d’information et organisations de fact-checking, établissement d’une « code de principes » résumant les rôles et devoirs de chacun) mais rappelle que l’efficacité de ces mesures devra être évaluée puis réexaminée par la Commission européenne au printemps 2019.
Croissance à grande vitesse pour la SVOD en Europe
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
On s’en doutait, une étude de l’Observatoire européen de l’audiovisuel est venue le confirmer : le marché de la SVOD se porte très bien en Europe. Mais les taux de croissance à deux, voire trois chiffres cachent une autre réalité : la croissance du secteur est drivée par un petit nombre d’acteurs (Netflix et Amazon) et de pays (les pays du Sud rattrapent leur retard sur la Scandinavie et le UK).
128% de croissance par an pour les recettes de la SVOD
Oui, vous avez bien lu : entre 2011 et 2016, les recettes générées par la SVOD ont connu une croissance fulgurante de 128% par an en moyenne dans l’Union européenne (106% si on considère tout le continent européen), pour atteindre un chiffre d’affaires de 2,8 milliards d’euros en 2016. Une croissance spectaculaire… mais à remettre en perspective en regardant le détail des recettes pays par pays : on comprend alors que les cinq premiers pays (Royaume-Uni, Allemagne, Suède, Danemark, Norvège) représentent à eux seuls 70% de ces recettes.

Même chose lorsque l’on observe le taux de pénétration de la SVOD en Europe : les disparités sont immenses, même parmi les cinq premiers pays, avec un taux de 53% de foyers abonnés en Norvège en 2016 qui tombe à 28% en Finlande. À noter que dans ce classement des pays où la SVOD est la mieux implantée, quatre des cinq premières places sont trustées par les pays scandinaves, qui sont décidément les moteurs de la SVOD sur le vieux continent avec le Royaume-Uni et l’Allemagne. La France, elle, est 15e avec un taux de pénétration de 10%.
Conséquence logique, la croissance du nombre d’abonnements à des services SVOD ralentit dans les pays où elle est déjà très implantée. Mais pas d’inquiétude à avoir, selon l’Observatoire : même sur ces marchés, le nombre de souscriptions continue d’augmenter, avec 20% de croissance en Norvège et près de 50% au Royaume-Uni et en Allemagne. Dans les pays aux taux de pénétration plus faibles, on retrouve une croissance fulgurante en 2016, avec des croissances de plus de 100% en France, Espagne et Italie. La croissance est plus timide dans les pays d’Europe centrale et de l’Est, ce qui s’explique selon l’Observatoire par une connexion à Internet moins performante dans ces régions.
La SVOD explose… mais la pay-TV n’est pas morte
La croissance fulgurante de la SVOD ne doit pas faire oublier que son poids demeure relativement restreint sur le marché de la télévision payante : en 2016, elle ne représentait en effet que 18% des abonnements payants, offres linéaires et à la demande confondues.
La SVOD est toutefois appelée à grappiller de plus en plus de parts de marché. Elle est d’ores et déjà devenue le moteur de la croissance de la VOD payante (elle représentait 66% du marché en 2016, contre 11% en 2011), comme le montre le graphique ci-dessous, qui compare les taux de croissance de la SVOD et de la TVOD (transactional video on demand, c’est-à-dire la VOD payante à l’acte) entre 2011 et 2016.
Mais attention à ne pas déclarer trop vite la mort de la pay-TV : il n’y a pour l’instant aucune preuve, souligne l’Observatoire européen de l’audiovisuel, d’un phénomène de cord-cutting en Europe, c’est-à-dire d’un abandon de la TV linéaire payante au profit d’offres SVOD, contrairement à ce que l’on observe aux Etats-Unis. Une différence qui s’explique, selon l’étude, par le fait que le taux de pénétration de la pay-TV est beaucoup plus important aux Etats-Unis qu’en Europe, et que les abonnements à cette TV linéaire payante sont beaucoup plus onéreux outre-atlantique. D’où une tendance des Américains à remplacer leurs abonnements au câble par des abonnements à des services SVOD, tandis qu’en Europe les offres SVOD viennent plutôt compléter un abonnement à un bouquet pay-TV.
Cette tendance pourrait toutefois s’inverser avec les années, à mesure que les jeunes générations arrivent à l’âge de s’installer et de choisir elles-mêmes leurs abonnements : il est très probable que les « cord-nevers » (ceux qui n’ont jamais souscrit à un abonnement pay-TV traditionnel) continuent sur leur lancée et préfèrent des offres SVOD à un abonnement linéaire classique.
Un marché drivé par quelques acteurs
Avec 47% des abonnements à un service SVOD dans l’UE, Netflix est sans surprise le leader sur le marché, suivi par Amazon qui représentait 20% des souscriptions en 2016 (un chiffre qui a augmenté depuis, la plateforme ne s’étant pleinement déployée en Europe que fin 2016). La croissance du marché est donc incontestablement tirée par ces deux géants.
Le choix ne manque pourtant pas en matière de SVOD sur le Vieux Continent, qui compte pas moins de 197 services différents. HBO, l’autre grand acteur américain, n’a d’ailleurs pas réussi à trouver sa place parmi cette offre pléthorique et arrive 8e en Europe avec 1% du marché, juste derrière Canal Play.
Fake news : les scientifiques s’en mêlent
Par Alexandra Yeh, France Télévisions, Direction de l’Innovation
La revue Science vient de publier La science des fake news, une étude menée aux Etats-Unis par un collectif de chercheurs pour comprendre l’ampleur réelle du phénomène et l’efficacité relative des mesures pour le combattre. Une étude qui se veut différente des innombrables papiers déjà publiés sur les fake news grâce à une approche scientifique du sujet.
Quelle définition pour les fake news ?
On a tout lu et tout entendu sur les fake news, et pourtant, personne ne s’accorde encore sur une définition officielle du terme. Ici, les chercheurs désignent par l’expression fake news des informations fabriquées de toutes pièces qui imitent les contenus des médias d’information dans la forme, mais sans respecter les normes traditionnelles du journalisme dans leur production.
Une définition qui a le mérite de faire le distinguo entre différents types de « troubles de l’information » (information disorder) :
- La « malinformation » (misinformation), c’est-à-dire la diffusion d’informations fausses
- La désinformation, c’est-à-dire la diffusion d’informations qui cherchent délibérément à induire le public en erreur
- Et enfin la fake news, qui imite la vraie information et se fait passer pour vraie… sans l’être.
On vous l’accorde, les limites entre chaque notion restent floues, et pour cause : ce que l’on nomme communément « fake news » est le plus souvent un mélange plus ou moins hasardeux entre ces trois phénomènes. Ce qu’il faut retenir, c’est surtout que la fake news fait référence à l’imitation, à la contrefaçon, et non à une information fausse (l’anglais a un autre mot pour ça : « false »). La fake news, c’est donc bien une information qui se fait passer pour vraie, mais qui ne l’est pas.
Genèse de la fake news
L’émergence aux Etats-Unis d’une éthique officielle du journalisme s’est opérée, selon Science, sous l’impulsion de deux facteurs : la propagande autour de la Première guerre mondiale et la montée des activités de relations publiques des entreprises dans les années 1920. Ces deux éléments ont poussé les acteurs des médias à se réunir pour défendre un journalisme de qualité, garantissant la production d’informations neutres et vérifiées. Les lecteurs réservaient alors leur confiance à quelques titres de presse qui bénéficiaient d’un véritable monopole de la crédibilité.
Mais l’arrivée de l’internet a considérablement réduit le coût d’entrée de nouveaux acteurs dans le secteur de l’information-communication et a vu une flopée de nouveaux concurrents arriver sur le terrain des médias traditionnels… Des concurrents qui ne plaçaient pas forcément l’éthique journalistique au centre de leurs préoccupations. Résultat, la confiance dans les médias a atteint des scores historiquement bas en 2016, avec une nette fracture idéologique aux Etats-Unis, où 51% des Démocrates et 14% des Républicains affirmaient accorder une certaine confiance aux médias traditionnels comme source d’information.
Une fracture d’autant plus notable, souligne Science, que les Etats-Unis ont vécu ces dernières années une polarisation politique inédite sur leur territoire. Une polarisation géographique tout d’abord, avec un fossé grandissant entre les populations des Etats côtiers, majoritairement démocrates, et les Américains « de l’intérieur », plus conservateurs. Une polarisation renforcée, ensuite, par les réseaux sociaux, avec leur tendance bien connue à nous enfermer dans des communautés qui partagent nos opinions et font chambre d’écho, évitant de fait toute confrontation à l’altérité.
Quel impact sur les citoyens ?
La polarisation croissante des opinions et les bulles de filtre créées par les réseaux sociaux ont donc créé un environnement particulièrement favorable à la diffusion des fake news. Mais quel est leur impact réel sur les citoyens ? Difficile à dire, souligne l’étude, car s’il est possible de mesurer le nombre d’individus ayant été en contact avec une fake news sur les réseaux sociaux, il est en revanche bien plus compliqué d’évaluer le nombre d’utilisateurs qui l’ont réellement lue, sans parler du nombre d’utilisateurs ayant été réellement influencés dans leurs opinions.
Les recherches scientifiques relayées par l’étude se bornent donc pour l’instant à nous donner quelques ordres de grandeur – bien utiles pour comprendre l’ampleur du phénomène :
- Facebook estime le nombre de bots sur sa plateforme à 60 millions
- Twitter estime pour sa part qu’entre 9% et 15% des comptes actifs sur sa plateforme sont des bots
- Dernière source d’inquiétude : selon une autre étude citée par Science, les fausses informations sur Twitter ont tendance à être beaucoup plus retweetées, et de façon beaucoup plus rapide, que les vraies informations, a fortiori quand elles portent sur la politique…
Des constats plutôt inquiétants donc, d’autant que les travaux des chercheurs montrent aussi que nous sommes affectés par de nombreux biais cognitifs qui entretiennent notre vulnérabilité aux fausses nouvelles. Au premier rang d’entre eux, le biais d’exposition sélective, qui nous pousse à accorder davantage de crédit aux informations conformes à nos croyances préexistantes. Le biais de confirmation, ensuite, nous fait considérer les informations qui vont dans notre sens comme plus persuasives que les informations « dissonantes ». Et enfin, le biais de désirabilité nous rend plus enclins à accepter comme vraies les informations dont on a envie qu’elles soient vraies.
Quelles solutions ?
Rien de révolutionnaire dans les pistes de solution explorées par Science, qui évoque les projets de régulation des plateformes (par elles-mêmes ou par les pouvoirs publics) et les incontournables initiatives de fact-checking. Mais en s’efforçant d’analyser les avantages et inconvénients de chaque méthode, l’étude apporte un éclairage nouveau qui ne peut qu’être utile dans la lutte contre les fake news.
Les plateformes pourraient s’autoréguler en repensant le fonctionnement des algorithmes qui trient les posts du fil d’actualité : l’idée serait d’arrêter de se focaliser sur l’engagement des utilisateurs pour intégrer un nouveau critère, celui de la fiabilité de l’info, et favoriser davantage les publications sourcées et vérifiées. L’étude propose également de renoncer à la personnalisation du fil d’actualité pour les publications politiques, dans l’idée d’éviter autant que possible la formation des chambres d’écho et de confronter les utilisateurs à un maximum de points de vue.
Les plateformes ont déjà entrepris de telles initiatives : Facebook a d’ores et déjà annoncé son intention de revoir son algorithme pour favoriser la « qualité » des publications dans sa curation de contenus, tandis que Twitter a annoncé avoir bloqué des comptes de fake news liés à la Russie. Mais cela n’est pas suffisant, selon le monde de la recherche, qui demande aux plateformes de collaborer avec des chercheurs indépendants pour évaluer l’ampleur du phénomène des fake news et l’efficacité des mesures d’endiguement. Car les plateformes ont une responsabilité éthique et sociale, souligne l’étude, à partager ces données qu’elles seules possèdent pour contribuer à l’avancée de la science.
Quant à la régulation par les pouvoirs publics, si elle peut être efficace, elle peut être aussi très dangereuse au regard de la liberté d’expression et de la liberté de la presse car la frontière est parfois mince entre régulation de l’information et censure. C’est une solution à envisager avec précaution, donc, pour Science – même si l’Union européenne et la France sont respectivement en train de plancher sur une législation anti fake news.
Attention aussi, prévient l’étude, aux effets parfois contre-productifs du fact-checking : même si le but est avant tout de démystifier les fausses nouvelles, le « débunking » contribue malgré tout à la diffusion d’informations erronées qui laissent parfois une trace dans la mémoire. L’avis des scientifiques, sur ce point, est contradictoire : certains évoquent un autre biais cognitif, le biais de familiarité, qui pousserait les individus à se souvenir d’une information sans forcément se remémorer son contexte (ici : on se souvient de la fake news… mais pas des explications du débunking). D’autres affirment que si la fausse information est immédiatement suivie d’une rectification, le fact-checking reste efficace. Pas de consensus donc parmi la communauté scientifique, qui prévoit de poursuivre la recherche sur ce sujet…
Comprendre l’ampleur réelle des fake news, imaginer des mesures efficaces, adapter notre écosystème d’information aux nouveaux enjeux de notre siècle que sont la prolifération des bots, l’émergence des fermes à clics et la manipulation à grande échelle : tout reste à faire dans le combat contre les fake news. Et nous avons autant besoin de l’analyse des politologues que des travaux scientifiques comme cette étude pour endiguer le phénomène.
De quoi sera fait le futur de l’Humanité ?
Expats Paris, start-up française basée à Paris, vient d’annoncer le lancement de Paris Talks, qui se déroulera le 26 mars 2018 au prestigieux théâtre de la Porte Saint-Martin. Découvrez, au fil d’une multitude d’interventions, les nouvelles idées qui façonneront l’avenir de l’humanité à l’horizon 2075. Méta-Media, partenaire de l’événement, vous fait gagner 2 places pour ce voyage prospectif.
Le programme bien rempli de cette journée verra s’enchaîner les keynotes futuristes d’une vingtaine de speakers parmi lesquels Ramesh Caussy, fondateur de Partnering Robotics et directeur de la chair d’éthique robotique de l’INP Grenoble, Denise Silber, figure de la e-santé et fondatrice de « Doctor 2.0 & You », Murielle Diaco, fondatrice de « DJOUMAN » pour la conduite de l’innovation en Afrique et Maeva Bortel, à l’origine du premier hackathon sex-tech français. Leur ambition ? Faire état des nouvelles approches et grandes idées à même de relever les défis actuels et futurs de l’Humanité.
Paris Talks se déroulera entièrement en anglais. Le programme complet ici.
Méta-Media vous fait gagner 2 places pour la conférence Paris Talks.
Il suffit de :
- suivre @metamedia sur Twitter si ce n’est pas déjà fait
- et de retweeter le tweet ci-dessous avec le hashtag #MMParisTalks.
? De quoi sera fait le futur de l’Humanité ? 2 places à gagner pour la conférence prospective @paristalks Plus d’info : https://t.co/gUVep7nV9z
⚠️ Pour être tiré au sort,
– suivre @metamedia
– RT ce tweet #MMParisTalks #Concours pic.twitter.com/wOCVHf7xdd— Méta-Media FranceTV (@metamedia) 7 mars 2018
Tirage au sort le 15 mars à midi.
Bonne chance !
Le Medialab de l’AFP : la vérification de l’info et l’UX au cœur de l’innovation journalistique
Billet originellement publié sur media-innovation.news, il est présenté dans le cadre d’un partenariat éditorial entre WAN-IFRA et Méta-Media. © [2018] Tous droits réservés.
Le Medialab de l’AFP, qui réunit une petite équipe de journalistes et d’ingénieurs, propose des expériences utilisateur innovantes pour valoriser les contenus de l’AFP, à travers des vidéos interactives ou encore un affichage automatique de la géolocalisation des informations, et développe de nouveaux outils pour les salles de rédaction, notamment dans la vérification des images et des vidéos diffusées sur internet et les réseaux sociaux.
L’AFP est une agence d’information mondiale fournissant une couverture rapide, vérifiée et complète en vidéo, texte, photo, multimédia et infographie des événements qui font l’actualité internationale. Des guerres et conflits à la politique, à l’économie, au sport, au spectacle jusqu’aux grands développements en matière de santé, de sciences ou de technologie. Ses 2.400 collaborateurs, de 80 nationalités différentes, répartis dans 151 pays, rendent compte en 6 langues de la marche de la planète, 24 heures sur 24.
Le Medialab de l’AFP est un héritage de l’ancienne direction du développement multimédia créée à la fin des années 1990. La priorité à l’époque était de développer la production de contenus multimédias de l’agence. Aujourd’hui, même si les priorités sont fixées par le comité d’innovation de l’AFP, le Medialab se concentre sur la conception de nouvelles UX autour des contenus de l’agence et développe des outils pour répondre aux problèmes concrets des journalistes.
« Notre travail en matière de vérification de l’information se base sur la méthodologie du design thinking afin que l’innovation reste centrée sur l’utilisateur. Nous observons les utilisateurs travailler pour déterminer comment les aider à être plus efficaces et optimiser les processus chronophages », explique Denis Teyssou, responsable éditorial du Medialab de l’AFP.
Des outils pour la rédaction
Par exemple, la participation au projet CrossCheck (sur la vérification de l’info pendant la campagne présidentielle de 2017) a permis au Medialab de mieux comprendre les difficultés rencontrées par les rédactions partenaires. Ce travail a abouti en juillet 2017 à la diffusion d’une extension de navigateur (sous Chrome et Firefox) permettant de vérifier des images et des vidéos et de démystifier des fausses nouvelles. Cet outil, téléchargé plus de 2000 fois, est devenu huit mois après une référence non seulement chez les journalistes mais aussi chez les militants des droits de l’homme et les éducateurs aux médias.
« L’émergence des contenus UGC (photos, vidéos, et autres documents créés par les utilisateurs) est l’une des évolutions les plus intéressantes du secteur de l’information-communication ces quinze dernières années », affirme Denis Teyssou. « Et cela crée une nouvelle difficulté : celle de vérifier les contenus créés par le public. »
Pour répondre à ce défi, le Medialab travaille actuellement sur le projet InVID, financé par le programme européen Horizon 2020, un outil de vérification contextuelle et de vérification des droits d’usage des vidéos postées par les utilisateurs sur les réseaux sociaux. Un projet auquel d’autres structures comme l’agence de presse autrichienne et sa filiale technique APA-IT ou encore le broadcaster extérieur allemand Deutsche Welle participent.
Le Medialab de l’AFP a déjà à son actif huit projets de recherche et d’innovation et a développé des prototypes très novateurs comme EarthNews (un outil de localisation des informations sur un globe 3D de la NASA) ou AFP4W (un moteur de recherche d’événements médiatiques qui permet de créer des frises chronologiques ou encore des livres électroniques en quelques clics). Lorsqu’un projet de recherche est terminé et que la technologie est mature, le Medialab s’efforce de la tester sur le terrain pour proposer des solutions concrètes aux rédactions. L’idée, pour Denis Teyssou, est de ne pas en rester au stade de l’invention, mais plutôt de passer de l’invention à l’innovation.
C’est notamment avec cette approche que le Medialab a développé son outil AFP Transcriber en collaboration avec la société Vocapia, une PME essaimage du laboratoire LIMSI du CNRS. Les journalistes de l’AFP peuvent désormais l’utiliser pour retranscrire leurs vidéos, interviews et conférences de presse : l’application envoie un fichier mp3 à Vocapia et reçoit une retranscription. Ces retranscriptions sont régulièrement améliorées grâce à l’apprentissage par la machine des néologismes et des noms propres qui apparaissent chaque jour dans les fils d’actualité. La technologie permet de travailler dans une vingtaine de langues différentes, à condition d’avoir des enregistrements audio de qualité suffisante.
« La retranscription d’interviews est l’une des tâches les plus fastidieuses du journaliste. Désormais, vous pouvez arriver avec une heure d’interview et repartir avec une transcription en quatre ou cinq minutes. En plus, la transcription est synchronisée avec la vidéo, donc vous pouvez cliquer sur un mot pour lancer la vidéo ou l’enregistrement audio à cet endroit précis. »
L’application est actuellement utilisée dans les services Vidéo et Politique de l’AFP, et devrait être utilisée à terme pour les archives des vidéos de la rédaction.
Innovation « user-centric » et méthodologie du design thinking
Les activités du Medialab se concentrent sur l’expérimentation de nouvelles technologies et sur l’innovation dans les produits, les processus et les services, sans jamais perdre de vue l’intérêt de l’utilisateur. Mais recueillir leur feedback n’est pas toujours facile : le processus itératif demande du temps et les utilisateurs, essentiellement des journalistes, ne sont pas souvent disponibles – même s’il est plus facile d’en trouver dans une grande rédaction comme celle de l’AFP. D’autant plus que le Medialab a pris ses quartiers au cœur de la salle de rédaction, entre les départements vidéo et infographie.
« Nous avons réussi à organiser des sessions de tests et de démonstrations avec quelques dizaines de journalistes de l’AFP. Même s’ils ont peu de temps à y consacrer, leurs retours sont positifs. Les plus technophiles d’entre eux apprennent plus vite, tandis que les autres ont besoin d’un peu plus de temps. Mais quand les outils répondent directement à un besoin concret, comme AFP Transcriber, nos collègues sont très enthousiastes. »
Innover à l’AFP
Même si le Medialab présente régulièrement ses réalisations au comité d’innovation interne, il conserve une véritable indépendance au sein de l’AFP, dans l’esprit d’un labo de R&D. Son travail est largement soutenu par des fonds publics européens (Horizon 2020 pour InVID) ou nationaux (l’Agence Nationale de Recherche ou le ministère de l’Economie). C’est le cas du projet ASRAEL, un moteur de recherche d’événements basé sur l’extraction des données par le traitement automatique du langage et du web sémantique.
L’avantage d’appartenir à une agence de presse internationale comme l’AFP est l’immense quantité de contenus produits, dans toutes les langues. Une mine d’or de textes, de vidéos, d’infographies et d’images à la disposition du Medialab pour le développement de ses projets. Les liens de l’AFP avec l’Etat et son prestige mondial facilitent également la coopération avec des universités et des laboratoires : « Les contenus de l’AFP sont attractifs pour le monde de la recherche. Quand vous lancez un projet et que vous avez accès à nos contenus, cela vous fournit un matériau très riche pour travailler. »
Avec les nouveaux formats narratifs qui émergent (interaction, immersion, vidéo 360°, AR/VR…), le Medialab est convaincu que la recherche doit plus que jamais se concentrer sur l’expérience utilisateur. « Nous savons que l’industrie rencontre des difficultés et nous savons que la collaboration avec les start-ups ou encore la participation à des programmes de recherche collaboratifs sont autant d’opportunités de répondre à ces défis. »
SERIE MEDIA LABS
- Episode 8 APA-MediaLab : le Lab doit être tourné vers l’avenir
- Episode 7 L’innovation à l’Associated Press : partager une culture plutôt qu’un Lab
- Episode 6 Next Media Accelerator : comment l’Agence de Presse allemande accélère des start-ups médias et marketing
- Episode 5 Ouest Médialab, un cluster et laboratoire des médias qui accompagne les acteurs régionaux dans leur transition numérique
- Episode 4 BBC News Labs : une cellule dédiée à l’innovation média et au développement produit
- Episode 3 « Media and Democracy » : un lab de recherche et d’innovation au service du journalisme et du débat public
- Episode 2 Le MediaLab « Théophraste » de Sud Ouest : créer des relations avec l’écosystème régional de startups
Snapchat : la réalité augmentée sociale est arrivée avec les Friendmojis 3D
Par Barbara Chazelle, France Télévisions, MediaLab et Prospective
En septembre dernier, Snapchat avait lancé les Bitmoji animé 3D. Cette semaine, la plateforme est allée un cran plus loin avec les Friendmojis 3D : votre avatar Bitmoji et celui d’un de vos amis peuvent maintenant se retrouver en réalité augmentée. C’est la première fois qu’une application grand public propose de l’AR sociale.
Pour y avoir accès vous devez préalablement créer un avatar Bitmoji. Si ce n’est pas déjà le cas :
- Téléchargez l’application Bitmoji.
- Créer un compte directement en vous connectant via Snapchat, c’est encore le plus simple. Sinon, il vous faudra par la suite relier vos comptes Snapchat et Bitmoji.
- Créez votre avatar.
Revenez ensuite sur l’application Snapchat.
- Les Lens des Friendmojis ne s’activent qu’en mode « Chat » (volet à gauche de l’application) avec un ami qui aura relié son compte Snapchat à son compte Bitmoji. Comment le savoir ? La photo de profil sera le visage son avatar.
- Appuyez sur le bouton « caméra ». Une fois dans l’interface, appuyez longuement sur l’écran pour faire apparaître les « Lens ». Choisissez-celle avec deux silhouettes.
- Vous pouvez ensuite déplacer dans l’espace, agrandir ou diminuer les avatars animés. Filmez la séquence et envoyez ! (si l’app ne crash pas entre temps !)
Fake News : le nombre de projets de fact-checking a triplé en 4 ans
Par Barbara Chazelle, France Télévisions, Prospective et MediaLab
Toujours très difficile à enrayer, le phénomène des Fake News a bien suscité un sursaut parmi les journalistes et universitaires. Le cinquième rapport annuel du Reporters’ Lab compte 149 projets de fact-checking répartis dans 53 pays, soit 3 fois plus qu’il y a 4 ans, avec une augmentation de plus de 30% sur la dernière année. Au-delà des chiffres, le rapport souligne que ces projets deviennent plus stables en trouvant des moyens plus diversifiés de se financer.
21 nouveaux projets de fact-checking en 2017
La hausse de 30% en une année s’explique par 21 projets lancés en 2017 ainsi que la comptabilisation d’initiatives qui n’avaient pas été identifiées dans le rapport précédent dont 8 projets asiatiques et 9 européens.
Pour la première fois depuis 2014, l’Europe compte davantage de projets que les Etats-Unis (52 vs 47). Le Reporters’ Lab en a répertorié 22 autres en Asie, 15 en Amérique Latine, 4 en Afrique et 3 en Australie.
Fait surprenant, les sites de fact-checking sont encore peu spécialisés mais cela semble changer. On notera les initiatives Climate Feedback de l’Université de Californie Merced, le Détecteur de Rumeurs de l’Agence Science-Presse à Montréal ou encore de Gossip Cop, un site de fact-cheking dédié au secteur de l’entertainment créé en 2009 par Michael Lewittes « un éditorialiste de rumeurs réformé ».
Des projets plus stables et mieux financés
Les sites de fact-checking ont la plupart du temps une activité soutenue autour de périodes électorales puis sont maintenus en service minimum ou deviennent totalement inactifs. Le rapport en comptait 63 dans ce cas. En moyenne, les projets de fact-checking ont quatre ans d’existence, signe que ces initiatives deviennent plus stables.
Alors qu’aux Etats-Unis, les fact-checkers sont majoritairement affiliés à un média à 87%, ailleurs dans le monde, la tendance s’inverse avec la montée en puissance d’organisations à but non lucratif (53% seulement des projets restent directement affiliés à un média). Les fact-checkers non affiliés à un média travaillent soit avec des universités, des think tanks ou sont des observateurs non-partisans.
Le rapport note que ces organisations ont diversifié leur manière de se financer : programmes d’abonnement, dons de particuliers, création d’association mais aussi soutien financier des grandes plateformes à l’instar du Google Lab ou de Facebook qui paye des organisations réparties dans 5 pays pour signaler les hoax qui circulent dans son newsfeed.
Vidéo, info, audio : les Français sont « mobile first » et de plus en plus « mobile only »
Par Barbara Chazelle, France Télévisions, Prospective et MediaLab
En 2017, 67% des Français se sont connectés chaque jour et ont passé 1h28 en ligne selon le dernier rapport « L’année Internet 2017 » de Médiamétrie. De plus en plus connectés en moyenne ; mais l’étude révèle des disparités d’usage importantes, notamment pour les jeunes et les CSP+, les plus friands d’Internet.
À retenir : le mobile s’impose comme le premier écran et pour 18% des Français comme le seul écran connecté, les GAFA captent toujours plus notre attention, et 2017 restera l’année où les jeunes auront désormais passé plus de temps sur Internet que sur le téléviseur.
Plus de 42 millions d’internautes quotidiens… mais de fortes disparités dans les usages
42,2 millions de Français se connectent à Internet tous les jours et 52 millions chaque mois ; seuls 17% de la population n’étaient pas connectés en 2017 (vs près de 53% il y a dix ans) selon Médiamétrie. Parmi eux, 39% de jeunes de moins de 15 ans (que des parents protègent probablement d’une vie en ligne) et 23% de plus de 50 ans.
En gardant en tête ces populations qui tirent les chiffres vers le bas, on arrive à une moyenne de 1h28 de temps connecté par jour et par Français dont 1h38 pour les 15-24 ans et 2h12 pour les 25-49 ans. Les CSP+ sont les plus gros consommateurs d’Internet avec une moyenne à 2h15.
15% des internautes comptabilisent à eux seuls près de la moitié du temps passé sur Internet : 6 millions de Français passent 6h25 sur Internet par jour, soit 3 fois plus que la moyenne des internautes (2h11).
Les Français « mobile first » dont 18% de « mobile only »
Les Français sont de plus en plus connectés et sont surtout devenus « mobile first » depuis 2015. Désormais deux tiers des connexions Internet se font via un écran mobile (smartphone, tablette ou ordinateur) et près d’un Français sur deux privilégie son téléphone pour se connecter. 18% se connectent chaque jour en utilisant exclusivement leur téléphone.
« Le mobile est le premier écran pour se connecter tout au long de la journée », affirme Bertrand Krug, directeur du département Internet de Médiamétrie. Les heures de connexion suivent le rythme de la journée : déjà entre 6h et 8h du matin, près d’un Français sur cinq se connecte via son mobile. On atteint les 30% entre midi et deux et entre 18h et 20h. Quant aux 15-24 ans, 46% d’entre eux sont connectés sur leur mobile entre 18h et 22h.
Sur les 1h28 de connexion moyenne, les Français en passent 40% sur mobile. Ce chiffre monte à 65% chez les 15-24 ans.
Les applications concentrent 87% du temps mensuel passé sur mobile
Les messageries instantanées, ainsi que les applications de plans/itinéraires et de musique, constituent l’essentiel de l’usage du mobile.
Les Français visitent 4 fois plus de sites que d’applications par mois (52 vs 16) mais ces dernières concentrent 87% du temps passé sur mobile dont 53% de ce temps est consacré aux réseaux sociaux, aux jeux et à la vidéo.
« 16 applications par mois, mais on tombe à 5 par jour : les marques se livrent à une véritable bataille de l’attention pour que leurs applications soit téléchargées mais aussi ouvertes. », précise Bertrand Krug.
Cette concentration est plus marquée encore chez les jeunes : 92% du temps mobile est dédié aux applications dont 70% sur les réseaux sociaux, les jeux et la vidéo. A noter que les 15-24 ans utilisent leurs applications particulièrement tard le soir, l’horaire médian de la dernière application consultée étant 22h58 !
Les GAFA captent plus d’un tiers du temps Internet des Français
61% des Français sont en contact quotidien avec un service proposé par au moins l’un des GAFA (Google, Apple, Facebook, Amazon). Les 10 applications les plus consultées en 2017 appartiennent toutes à ces géants dont 6 à Google, 3 à Facebook et 1 à Apple.
Bascule : les jeunes passent plus de temps sur Internet que sur téléviseur
Le smartphone est devenu un véritable « doudou numérique » dont 8 utilisateurs sur 10 déclarent ne plus pouvoir se passer. Les 15-24 ans affirment à 94% ne pouvoir vivre sans lui vs 65% pour la télévision.
Année de bascule, 2017 a vu les jeunes passer plus de temps sur Internet que sur le téléviseur, alors que le rapport il y a 5 ans était quasiment 3 fois plus important pour la consommation TV. Comme cela était déjà indiqué dans le rapport L’année TV 2017, les 15-24 ans ne passent plus que la moitié de leur temps vidéo à regarder la télévision linéaire.
« Internet est un méta-média : c’est un média à part entière mais aussi un vecteur de transformation et d’extension des médias. Aujourd’hui on estime que la consommation de vidéos représente le tiers des usages connectés en termes de durée. (…) Le marché de la vidéo est un nouveau concurrent pour les chaînes de télévision : la durée d’écoute chez les jeunes sur téléviseur a baissé au cours de ces deux dernières années, mais leur consommation globale de vidéos s’est développée. Il y a dix ans les jeunes consommaient 2h de vidéos qui étaient quasiment exclusivement de la TV et aujourd’hui cette même population y consacre 2h30 par jour. » explique Julien Rosanvallon, directeur des départements TV et Internet de Médiamétrie.
Autre chiffre à retenir, 1 Français sur 4 consulte ou télécharge des contenus de manière illégale. Cette pratique concerne 42% des 15-34 ans et 41% des CSP+.
Plateformes sociales : 50% des Français s’y connectent chaque jour et 78% chaque mois
Facebook reste le réseau social préféré des Français avec près de 46 millions de visiteurs mensuels, suivi de YouTube à plus de 43 millions et Instagram à 22 millions.
Les plateformes sociales pèsent 28% du temps passé en ligne sur les 2 ans et plus et 44% pour les 15-24 ans (moyenne sur l’ensemble de la population française, qui prend en compte les personnes non connectées).
Chez les jeunes, YouTube arrive en tête des plateformes en termes de temps passé. Snapchat a détrôné Facebook. Médiamétrie précise que près d’un million de jeunes se rend à la fois sur Facebook, Snapchat et Instagram chaque mois.
Info : plus de la moitié des 15-24 ans (53,5%) surfe chaque mois sur des sites ou apps d’actualités exclusivement depuis leur mobile
Les sites et applications d’actualité fédèrent deux fois plus de monde qu’il y a dix ans, de 18,3 millions de Français en 2007 à 41,2 millions en 2017 chaque mois (soit 66% de la population). Sur les 70% des jeunes qui consomment de l’info en ligne, plus de la moitié d’entre eux le font exclusivement via leur mobile.
Les 15-34 ans et les CSP+ sont particulièrement consommateurs de contenus déportalisés (via les technologies Instant Articles ou Google AMP) : ils pèsent respectivement pour 41% et 31% du temps passé sur ce type de contenus.
Audio : la mesure des podcasts reste compliquée
Au quotidien, 7 millions de personnes écoutent la radio sur les supports numériques dont près de la moitié sur leur mobile.
4 millions de Français écoutent chaque mois des contenus radio en podcasts (dont 47% de CSP+) dont 8 sur 10 sont téléchargés depuis un smartphone ou une tablette.
« Les podcasts (hors radio) sont très compliqués à mesurer en termes de taux d’écoute, et non uniquement en nombre de téléchargements. La mesure des podcasts est un véritable enjeu pour nous d’autant que le streaming brouille les frontières pour les utilisateurs qui ne sont pas toujours certains d’identifier l’objet podcast », a déclaré Julien Rosanvallon.
Les enceintes intelligentes commencent à séduire : 10% des foyers en sont équipés et 9% prévoient de s’équiper en 2018. Ces enceintes sont principalement utilisées pour écouter de la musique (71%).
Crédit : Photo de Une de rawpixel.com via Unsplash
La (co) production cinématographique européenne en progression
Par François Fluhr, France Télévisions, MediaLab
Le nouveau rapport de l’Observatoire européen de l’audiovisuel vient de tomber et il est de bon augure. La production cinématographique européenne a progressé de 47 % au cours des 10 dernières années… dont plus de la moitié est assurée par cinq pays seulement. Le rapport fait aussi le point sur les coproductions qui, dans 60 % des cas, intègrent des partenaires européens ainsi que sur la percée du documentaire dont la production a doublé en l’espace d’une décennie.
Des disparités entre pays mais une progression générale
Plus de 18 000 films ont été produits en Europe entre 2007 et 2016. Derrière ce chiffre, le cinéma européen enregistre une augmentation de 47 % de sa production de films en passant de 1 444 longs métrages en 2007 à 2 124 en 2016.
Néanmoins, cette abondance de films n’échappe pas aux disparités nationales. Ainsi, les cinq principaux pays producteurs que sont le Royaume-Uni, la France, l’Allemagne, l’Espagne et l’Italie représentent à eux seuls plus de la moitié de la production totale des 36 pays couverts par ce rapport (53,6 %). Plus éloquent encore, 73 % des films tournés entre 2007 et 2016 proviennent d’une dizaine de pays européens.
On relève tout de même que l’augmentation de la production est un phénomène global européen puisque seulement cinq des 36 pays couverts ont enregistré une baisse de leur production sur la période : le Royaume-Uni, la Belgique, la Norvège, l’Estonie et la Hongrie.
Une dynamique coproductive
La moyenne annuelle des coproductions est de 10 films par pays. Et lorsque l’on jette un œil aux pays européens les plus prolixes en la matière : « cocorico », c’est la France qui montre l’exemple avec 566 coproductions réalisées entre 2007 et 2016.
Cette dynamique européenne s’est ainsi solidifiée avec en moyenne plus de 60 % des coproductions qui intègrent d’autres pays européens. Et pour cause, le nombre moyen de partenaires de coproduction a augmenté sur la période en passant de 1,48 partenaires pour 2010 à 1,65 en 2015.
Si les États-Unis sont le principal partenaire non européen, les coproductions franco-belges arrivent nettement en tête du classement des partenariats de coproduction avec 207 films réalisés entre 2010 et 2015. Coproduire n’est pas pour autant devenu une norme pour le cinéma européen puisque seuls la Belgique et le Luxembourg comptent une majorité de coproductions dans leur production nationale.
La percée du format documentaire
Autre enseignement phare de ce rapport, le documentaire de long métrage est un format qui progresse rapidement. Leur nombre a presque doublé sur la période pour atteindre 698 films en 2016, soit environ un tiers des films de l’année. À noter qu’au côté du documentaire, la fiction n’est pas en reste puisqu’elle a également connu une hausse significative de l’ordre de 33 %.
Crédit : Photo de Une par Thomas William via Unsplash