Stanford Computational Journalism Lab : Jeter les bases du data journalisme américain

Par Elliot Horsburgh, étudiant en journalisme à UCLan. Cet article est tiré d’un billet originellement publié sur media-innovation.news. Il est présenté dans le cadre d’un partenariat éditorial entre WAN-IFRA et Méta-Media. © [2019] Tous droits réservés.

À partir de rien, l’Université de Stanford  a adopté une nouvelle approche de l’innovation afin de fournir aux journalistes une plate-forme leur permettant de raconter des histoires qui seraient restées inexplorées. Qu’il s’agisse de couvrir des machines à voter piratables ou d’analyser des interpellations de la police, Stanford utilise le data journalisme pour modifier les politiques publiques et sensibiliser le public aux problèmes qui se posent en Amérique. Ils visent à créer un changement du monde réel grâce à leurs efforts et n’ont aucune intention de s’arrêter.

Fondé en 2014, le laboratoire est l’une des branches du plus grand réseau de journalisme de Stanford, qui comprend le Brown Institute for Media Innovation (une collaboration entre la Columbia Journalism School et la School of Engineering de l’Université de Stanford) et le Stanford Daily Newspaper. Ici, ils enseignent aux étudiants comment extraire et utiliser des données pour améliorer des histoires ou découvrir de nouvelles histoires. Elle est dirigée par la cofondatrice Cheryl Phillips, mais c’est un réseau de personnes qui y contribuent. La mission du laboratoire est double : réduire le coût du « journalisme responsable » et utiliser des méthodes informatiques pour aider à découvrir des histoires qui, autrement, n’auraient jamais vues le jour.

Cheryl Phillips enseigne le journalisme à l’Université Stanford depuis 2014. Après avoir travaillé au Seattle Times pendant plus de dix ans, son dernier poste en date étant celui de Data Innovation Editor, Cheryl Phillips n’est pas une étrangère au monde de l’innovation dans les médias :

« Nous voulons aider les journalistes à raconter des histoires de manière plus personnalisée et plus engageante. Cela pourrait aider à construire des outils, à traiter des données. Nous nous occupons « de la plomberie » pour que les journalistes puissent raconter l’histoire. »

Big Local News

Cheryl Phillips se focalise actuellement sur le projet Big Local News, dont l’objectif est de développer des partenariats entre les salles de rédaction afin de collecter, de traiter et de mettre les données à la disposition des journalistes. Les reporters peuvent également enregistrer leurs données dans le référentiel de bibliothèques numériques de Stanford aussi longtemps que nécessaire. Cette bibliothèque est un espace numérique pour rendre le contenu accessible aux générations futures. En retour, les journalistes locaux utilisant ce service obtiennent une URL perpétuelle qu’ils peuvent partager et n’ont pas à s’inquiéter des changements de leur serveur ou de la panne de leur système.

De plus, Jonathan Stray, journaliste et conférencier à la Columbia University, travaille sur un « atelier de journalisme informatique » (actuellement en version bêta), qui fait partie de Big Local et qui constituera l’un des outils utilisés par les journalistes.

« L’idée est d’analyser les données sans coder. C’est donc basé sur Python (un langage de programmation), mais si vous êtes un journaliste qui ne sait pas vraiment comment utiliser ce logiciel, vous pouvez utiliser ces modules pour comprendre comment analyser l’information », explique Cheryl Phillips.

Ce travail est ce que Cheryl Phillips appelle « faire de la plomberie », le genre de travail sous-terrain, qu’on ne voit ni ne pense la plupart du temps, mais qui est absolument essentiel pour les éditeurs de presse et les journalistes locaux qui sont contraints par le temps et l’argent.

Structurer le réseau d’innovation

Le réseau de journalisme de Stanford comprend plusieurs branches, notamment le Brown Institute et le Stanford Daily, alors à quoi ça ressemble ? Cheryl Phillips la décrit comme une structure « très fluide ». Leurs séminaires et ateliers sont animés par divers professionnels du secteur, du directeur du Brown Institute, Maneesh Agrawala à Krishna Bharat, fondateur de Google News. Le département est libre d’enquêter et d’étoffer différents projets à sa guise, de multiplier les discussions sur des sujets, d’encourager la collaboration et de nouer des partenariats dans l’ensemble du secteur.

Cette possibilité de suivre leur instinct journalistique leur a permis beaucoup plus de liberté dans la sélection des projets. Cheryl Phillips suggère qu’ils ne sont pas motivés par le besoin d’argent, mais se concentrent plutôt sur l’impact de leur enquête :

« Ce que nous visons, c’est un impact, un changement de politique si possible, comme avec tout type de journalisme d’investigation. »

Mais ce n’est pas leur seul moteur. Quand quelqu’un vient voir Cheryl Phillips avec un projet ou une idée, elle essaie toujours d’impliquer une salle de rédaction, si quelqu’un est intéressé. Cela donne non seulement à ces étudiants un aperçu d’une véritable salle de rédaction, mais les aide également à créer un réseau et à acquérir de l’expérience aux côtés de vrais professionnels.

Cheryl Phillips cherche dans un projet quelques autres éléments clés : est-il nouveau et a-t-il un potentiel de changement ou de réforme ? Quelle est le minimum à tirer de l’histoire ? Si tout échoue, y a-t-il encore une histoire à raconter ? Quelle pourrait être le maximum à tirer de l’histoire ? Jusqu’où cette histoire peut-elle aller?

Cartographie des machines à voter piratables

Cette approche les a conduits à travailler autour de machines à voter « piratables » en Pennsylvanie. Les étudiants en data journalisme ont enquêté sur des machines à voter jugées peu avancées technologiquement et risquant d’être piratées pour chaque comté de l’État.

En dix semaines, ils ont cartographié les données pour ceux qui envisageaient de mettre à niveau ou non leurs machines avant le prochain cycle de vote et ont publié leurs conclusions dans un article pour le Philadelphia Inquirer. Les résultats de l’enquête ont provoqué une mise à jour des machines à voter de chaque comté alors que seulement quatre avaient prévu de le faire initialement.

C’est ce que vise ce Lab ; le monde réel change à la suite de ce genre d’histoires, en créant des plates-formes pour ne pas les laisser inexplorées. De manière plus importante peut-être, promouvoir (et produire) du journalisme responsable à faible coût et facile pour les journalistes.

La résolution de problèmes par l’innovation

Sur le thème plus large de l’innovation, Cheryl Phillips a indiqué qu’elle cherchait à identifier les besoins non satisfaits et à voir comment les structures ou les collaborations permettant de répondre à ces besoins pourraient être modifiées. Cependant, ils n’essayent pas d’innover de manière permanente, a déclaré Cheryl Phillips.

« Je pense que notre objectif c’est innover à la suite d’un problème et de le résoudre. Le journalisme local et le journalisme responsable sont tellement sous tension que les problèmes ne manquent pas. Nous essayons donc simplement de nous attaquer à ceux auxquels nous pouvons, même si parfois je pense que les problèmes n’ont pas encore été identifiés. »

Une de ces nombreuses tensions sur le journalisme local a conduit à l’introduction du projet Big Local :

« L’idée est de collecter des ensembles de données locales qui se prêtent au journalisme d’investigation ou de reddition de comptes, puis d’aider les salles de rédaction locales à les utiliser, ainsi que d’agréger des ensembles de données pour des reportages plus importants. Les gens avaient peut-être déjà pensé à faire quelque chose comme ça auparavant, mais ils ne « disaient pas : « Hé, il faut que quelqu’un le fasse », a ajouté Cheryl Phillips.

L’avenir

Le paysage médiatique est en constante évolution, mais l’approche du Lab en matière d’innovation peut être assez cohérente. Cheryl Phillips suggère à l’avenir que les autres universités qui cherchent à suivre leur exemple ne devraient pas avoir peur de faire des erreurs, mais plutôt de les commettre, d’apprendre et de s’améliorer. Ainsi que de « commencer à enseigner le data journalisme à vos étudiants ».

Une étude menée par Cheryl Phillips et Charles Berret dans des écoles de journalisme aux États-Unis a révélé qu’un peu plus de la moitié d’entre eux offraient régulièrement un ou plusieurs cours de data journalisme, mais que la plupart d’entre eux étaient « basiques ». Les cours enseignaient des feuilles de calcul Excel plutôt que des compétences en programmation et, dans 54 cas sur 113, aucun cours de data journalisme n’était dispensé.

L’approche que Cheryl Phillips adopte pour l’avenir et ce que l’innovation peut apporter est une chose que toute personne impliquée dans le monde de l’innovation dans les médias devrait également se saisir :

« Je pense que l’une des choses intéressante avec les journaux, qui peut parfois arriver lorsque vous n’êtes pas en ligne, est ce sentiment de sérendipité, vous pouvez trouver une histoire que vous ne connaissiez pas qui vous intéresserait et vous la lirez ensuite… et cela élargit vos horizons. La même chose est vraie pour l’innovation.

Je ne sais pas quel pourrait être leur prochain outil. J’espère que j’en fais partie et la façon dont je peux être sûr de le faire est d’encourager ces conversations. Que ce soit un outil ou un effort dans cinq ans, je ne sais pas à quoi cela va ressembler.

Je ne doute pas que la prochaine fois que nous aurons un séminaire sur le journalisme informatique, quelqu’un aura probablement une idée qui ne sera même pas quelque chose que je pensais juste et qui est cette sérendipité. Créer un terrain propice à des moments fortuits qui aideront le journalisme. »

SERIE MEDIA LABS – épisodes précédents

L’IA et la publicité de demain : une promesse de qualité, de proximité et d’efficacité

Par Irène Grenet, Directrice Générale Adjointe de France Télévisions Publicité

L’intelligence artificielle représente une promesse importante pour la publicité : celle de répondre, dans un contexte d’hyperoffre, de montée en puissance des phénomènes d’adblocking et de guerre de l’attention, à l’enjeu de toucher la bonne personne, avec le bon message, au bon moment. L’IA apparaît ainsi comme un allié majeur pour construire la publicité de demain dans ses exigences de qualité, de proximité et d’efficacité.

Créer des territoires de marques

L’exigence de qualité consiste, tout d’abord, à chercher le moment d’exposition publicitaire le plus pertinent pour l’expérience utilisateur : tel est l’enjeu de l’algorithme mis en place dans le smart mid-roll testé par France Télévisions, qui détecte le moment le moins intrusif pour une exposition publicitaire lors de la diffusion d’un contenu.

Mais c’est en matière de ciblage que réside la plus grande promesse de l’IA, puisque celle-ci permet de pousser à l’extrême la qualification de l’audience en éliminant les déchets publicitaires non pertinents. Par le volume des données traitées et les degrés de corrélation établis, l’IA permet en effet de détecter des critères de qualification non intuitifs (et par là-même exempts des préjugés conscients et inconscients), tout en répondant, par les modèles prédictifs, non seulement aux besoins présents des utilisateurs, mais également à leurs besoins futurs – contribuant ce faisant à une forme de redéfinition du rôle même de la publicité, moins centré sur une finalité purement persuasive et davantage sur la création de territoires de marques.

Engager un dialogue avec le consommateur

La publicité de demain devra par ailleurs, plus que jamais, constituer un vecteur de proximité entre les marques et leurs consommateurs. Là encore l’IA, qui constitue en tant que telle un formidable outil d’écoute du consommateur (cf. la détection des tendances via le social listening par exemple), apporte une réponse à cet enjeu : il ne s’agit plus seulement d’écouter le consommateur, mais d’engager un dialogue avec lui, en inventant une publicité conversationnelle. La technologie Visualbot permet ainsi d’intégrer un chatbot lors de la diffusion d’un spot, de générer de l’interaction entre l’utilisateur et la marque et par là-même de créer de la proximité.

Capture d’écran realeyesit.com

Optimiser les outils critères de mesure de l’engagement

C’est enfin en tant qu’outil d’optimisation et de mesure de l’efficacité publicitaire que l’IA bouleverse aujourd’hui les paradigmes du marché publicitaire, en permettant de suivre de nouveaux critères de l’engagement des consommateurs. Utiliser la mesure des émotions comme indicateur de performance est par exemple rendu possible grâce à des technologies comme le facial coding qui permet de reconnaître les différentes émotions d’un individu lorsqu’il regarde un contenu : France Télévisions Publicité a ainsi fait appel à l’analyse vidéo de Realeyes fondée sur des mesures physiologiques de l’attention et du rythme cardiaque. De la même manière, il est possible de quantifier l’attention des individus afin de garantir l’engagement : c’est ce qui est par exemple proposé par la solution de Vuble, également utilisée par France Télévisions Publicité.

Capture d’écran vuble.fr

Au final, s’il est sans doute trop tôt pour considérer que l’IA, comme outil de ciblage, de création ou de mesure, révolutionne le marché publicitaire, il est incontestable qu’elle pousse à son extrême les conséquences de la digitalisation de celui-ci, notamment en termes de « tracking ». Or le passage d’une personnalisation à une ultrapersonnalisation accroît d’autant l’exigence de transparence s’agissant des données personnelles, qui doit s’apprécier au niveau de l’usage de celles-ci, conformément au RGPD, mais également au niveau de la façon dont sont conçus les algorithmes.

C’est la raison pour laquelle, si l’avenir de la publicité réside bel et bien dans l’IA, celui-ci devrait réserver une place prééminente aux solutions de ciblage contextuel par opposition au ciblage des utilisateurs, et par là-même donner toute sa pertinence aux indicateurs de qualité des programmes audiovisuels tels que le Quality Rating Point.

 

Image by Gerd Altmann from Pixabay 

La face cachée des objets connectés

Par Alexandre Bouniol, France Télévisions, MédiaLab

Nous voyons progressivement les objets connectés investir notre quotidien. Smart TV, montres, enceintes, ampoules connectées, etc. Ce qui les caractérisent, c’est leur capacité à être « adressables depuis internet. Ce sont des objets qui vont avoir une interface de communication. Ils vont collecter énormément de données personnelles sur les personnes », explique Jérôme Gorin, ingénieur expert à la CNIL, qui est intervenu lors de la journée nationale sur « l’impact des objets connecté dans le quotidien des familles » organisée par l’UNAF la semaine dernière à Paris.

Certains, comme les smartphones, sont déjà profondément ancrés dans nos sociétés. Mais la plupart n’arrive pas — encore — à rencontrer son public. À l’aube d’une arrivée massive des objets connectés dans nos foyers, comme le prédisent plusieurs cabinets d’études, Méta-Media revient sur les enjeux et les problématiques que l’IoT (Internet of Things) soulève.

« IoT » is coming

Jean-Philippe Lelièvre fondateur de la start-up HearandKnow et professeur à l’École Supérieur d’Ingénieurs Léonard de Vinci, explique que l’on ne peut pas parler de « succès industriel » pour les objets connectés. Notamment auprès du grand public. Tendance confirmée par le rapport 2018 de la DGE ; où l’on peut voir le taux d’équipement — faible — « quel que soit l’objet considéré ».

Laurence Allard, maîtresse de conférence en Sciences de la Communication, chercheuse à l’Université Paris 3 – IRCAV et enseignante à l’Université Lille 3 explique cette non-adhésion pour trois raisons :

Ces frictions sont à priori vouées à disparaître. Selon différentes études, il y aura entre 21 milliards et 76 milliards d’objets connectés dans le monde d’ici 2025.

Jean-Philippe Lelièvre explique cette poussée pour plusieurs raisons. Les entreprises sont déjà extrêmement connectées et vont continuer à investir dans l’IoT. « Tous les objets peuvent être connectés » selon lui. « Toute connexion d’objet ou d’animaux fait sens » renchérit-il.

Tout l’enjeu réside en l’adoption de ces objets. Christine Balagué, titulaire de la chaire réseaux sociaux et objets connectés à l’Institut Mines-Telecom Business School, parle même « d’appropriation » et de « faire de la technologie une part de soi ». L’appropriation est donc plus complexe qu’une « simple adoption » ce qui explique que l’usage des objets connectés « n’est pas si développé ».

L’un des objets connectés qui émerge le plus sur ce marché est celui des enceintes connectées. En France, 1,7 millions d’utilisateurs ont été recensés en décembre 2018. Bien loin des 39 millions d’utilisateurs aux Etats-Unis. D’autres sont en train d’arriver à grande vitesse comme la voiture connectée, les objets connectés dans le domaine de la santé (on parle même de cœur artificiel connecté à grande échelle) ou encore les caméras connectées dans la lutte contre le terrorisme.

Ce que les objets connectés ne disent pas

Au vu de la place qu’est amené à prendre l’IoT dans le monde, il soulève un certain nombre de questions.

Les risques liés aux données personnelles. Notamment en ce qui concerne la collecte de données. « Le plus grand risque posé par l’IoT est la collecte de données à l’insu de la personne » insiste Jérôme Gorin. Risque démultiplié par la multiplicité de la collecte, selon le nombre d’objets connectés que l’on possède. Cela fait d’autant plus de points d’entrées potentiels pour des personnes malintentionnées. Ces objets, récoltant chacun des données propres, permettent d’identifier d’autant plus précisément l’utilisateur. C’est ce que Jérôme Gorin appelle la concentration de données. En les croisant, on peut en savoir plus sur la personne concernée.

Mathieu Cunche, maître de conférences à l’INSA Lyon et membre de l’équipe Privatics de l’INRIA hébergé au laboratoire CITI, fait aussi état de « traçage cyberphysique ». C’est-à-dire « l’idée de tracer les personnes par les objets qu’elles portent sur elles ». « Tous ces objets fonctionnent avec des technologies radio comme le Bluetooth ou le wifi. Dès qu’un objet est allumé, il va émettre en permanence des signaux qui contiennent des identifiants. Ces identifiants peuvent être captés pour détecter la présence de personnes ». Une autre faille des objets connectés réside en leur émission de données. Grâce aux signaux que ces objets produisent, il est possible d’identifier le type d’appareils. On parle « d’attaque par inventaire ». Mathieu Cunche prend pour exemple le glucomètre, appareil destiné à contrôler le niveau de glycémie pour les personnes atteintes de diabète. Il est possible de connaître la pathologie du patient grâce à la fonction de l’objet connecté.

Jérôme Gorin et Patrice Bigeard, délégué sécurité ANSSI s’accordent sur un même un constat : les objets connectés peu chers et grand public n’accordent pas une grande importance à la composante sécuritaire de l’objet. « Ils sont très peu sécurisés ». Ce qui n’est pas le cas au sein des industries qui utilisent des objets connectés « ultra-sécurisés ».

L’éthique des objets connectés pose question. Christine Balagué met en évidence les effets de biais et de discrimination qui peuvent exister dans les algorithmes : « selon la qualité des données, selon le fait que les données soient représentatives ou non d’une population, on peut avoir des résultats d’algorithme complètement biaisés et qui discriminent les individus ». Elle soulève également la question de l’opacité des données et des systèmes. On ne sait pas ce que deviennent ces données. « Elles menacent l’autonomie de l’individu » ajoute-elle. Comment s’assurer de la bienfaisance de ces objets ? Le dernier point sur lequel Christine Balagué insiste concerne la manière dont la donnée est présentée aux utilisateurs. « On ne connait pas l’effet de la donnée sur les individus » et donc le comportement que cela peut engendrer.

L’IoT, participe au réchauffement climatique. « Le numérique est l’un des secteurs qui augmentait le plus en terme de gaz à effets de serre et également en consommation énergétique » alerte Laurence Allard. « Sans compter l’extraction des terres rares nécessaire à la fabrication des puces et des composants » ajoute-t-elle. D’après le rapport du Think Thank « The Shift project », ce sont principalement les data centers qui sont les plus énergivores. Tout objet connecté produisant de la donnée, il faut la stocker et la matérialiser dans des serveurs refroidis dans des grands hangars.

« Pour continuer à connecter tous ces objets, il faudrait trois planètes » conclue la chercheuse. Que nous n’avons pas. Évidemment.

Quels moyens d’actions ?

Au moins trois échelles d’actions peuvent être initiées pour lutter contre les risques associés à l’IOT.

1.Les initiatives citoyennes

Les initiatives citoyennes sont un premier volet pour agir. Notamment en ce qui concerne la sécurisation des données et la lutte contre le réchauffement climatique. Mathieu Cunche, qui a insisté sur les risques de collecte non désiré des données, suggère la mise en place d’un boitier sécurisé à domicile, sur lequel les objets du foyer pourraient être connectés et éviter ainsi toute interaction avec un serveur extérieur inutile, voire dangereux. Sur la question environnementale, Laurence Allard a abordé le mouvement des « makers » qui se rassemblent dans « des lieux d’acculturation à la privacy mais aussi à la question environnementale », tels que les « repair cafés » ou les FabLab. Les « repair cafés », dont l’idée provient du MIT, ont pour but de réparer ses objets et retarder leur obsolescence programmée. Les utilisateurs réparent eux-mêmes leurs objets, accompagnés par des « experts » pour les aider dans leur démarche. Les FabLab promeuvent la réparation d’un objet en fabricant uniquement le composant défectueux. Les imprimantes 3D sont notamment très utilisées dans ces lieux permettant de fournir une pièce unique. Besoin unique, réponse unique.

2. Les projets de recherche

Le monde de la recherche s’est approprié le sujet. L’un des faits les plus marquants sur le plan éthique est la déclaration de Montréal pour une IA responsable, portée par l’Université de Montréal. En dix points, elle instaure des principes et des recommandations pour que la société se saisisse des enjeux inhérents à la technologie. Tout un courant scientifique international s’est constitué autour des problématiques et font état de quatre principes éthiques :

C’est aussi tout le sens de la chaire « Good in Tech » des Mines Telecom et Science Po, dont Christine Ballagué fait partie, qui a deux buts principaux :

Christine Ballagué insiste sur le fait de développer une responsabilité d’entreprise, la loi étant souvent trop longue à mettre en place par rapport aux réalités technologiques. Tech For Good Summit, qui rassemble plus de 80 acteurs du numérique pour agir pour le « bien commun » étant sûrement l’exemple le plus symbolique.

3/ La loi et le politique

La loi et les initiatives politiques sont cependant nécessaires pour fixer les grands principes, notamment en matière de protection des données et d’éthique. En France, la première loi qui s’est intéressée à ces problématiques date d’octobre 2016 : la loi pour une République numérique. Deux articles concernent directement les objets connectés :

Sur le volet éthique, les premiers rapports datent de 2016 sous l’administration Obama qui mettaient déjà en lumière les facteurs d’exclusion ou les risques à l’encontre de la citoyenneté que pouvaient provoquer l’IA. En France, le rapport de Cédric Villani propose un volet entier sur une vision éthique et responsable du développement des technologies.

En Europe, trois initiatives majeures sont à noter :

1/ La mise en place du groupe d’experts de haut niveau sur l’intelligence artificielle par la Commission Européenne qui a travaillé sur une guide éthique pour une IA de confiance. Aussi contestable soit-il.

2/ Le vote et l’application du RGPD (règlement général sur la protection des données) il y a un an, qui a permis d’apporter un cadre législatif relatif à la protection des : données personnelles.

« Son objectif est de réguler les traitements des données personnelles. Dans le cadre du RGPD on appelle données personnelles tout ce qui permet d’identifier directement ou indirectement des personnes. Cela peut-être un nom, un prénom, mais aussi une adresse IP. La collecte, l’écriture et le calcul sur les données doit répondre à certaines règles » explique Jérôme Gorin. Ces règles imposent une obligation de transparence envers les utilisateurs et son consentement dans l’usage de ses données, dans un cadre sécurisé. Le RGPD apporte donc une première forme de réponse législative vis-à-vis de l’IoT.

Le RGPD promeut aussi « deux outils » dans une logique d’ « approche vertueuse » :

Il n’existe en aucun cas une interdiction formelle en amont de mise sur le marché des objets connectés. Les constructeurs sont libres d’adopter ou non ces deux outils. Il revient au consommateur d’être vigilant sur ces points.

Le RGPD a aussi permis d’accroître le champ d’action de la CNIL en France. Ses pouvoirs de sanction (pouvant allant jusqu’à des amendes  significatives) ont été accrus. Elle dispose également d’un volet plus pédagogique en publiant régulièrement des fiches pratiques pour utiliser en toute sécurité des objets connectés.

3/ La directive ePrivacy. Cette directive est complémentaire au RGPD. « L’ePrivacy est ici pour protéger les tuyaux » souligne Jérôme Gorin. Elle s’adresse à ceux qui transmettent les données. À savoir les FAI. Ils n’ont pas de droit de regard sur ce qui va transiter par leur réseau. Elle comporte également un volet sur « l’intégrité du terminal ». « Toute personne doit demander le consentement avant de pouvoir lire ou écrire des informations sur votre terminal » explique Jérôme Gorin. Un exemple connu de l’application de cette directive est l’apparition de bandeau de cookies.

 

Image by methodshop from Pixabay 

IA dans les médias, un peu, beaucoup, passionnément ? Une cartographie des applications d’Intelligence Artificielle

Par Kati Bremme, Direction de l’Innovation et de la Prospective

Les algorithmes sont faits pour résoudre des problèmes. Source de défiance pour les uns, solution miracle pour les autres, l’Intelligence Artificielle (IA) est partout, et impacte toutes les industries. Quelques-unes ont toutefois plus de mal à s’en emparer. C’est le cas des médias, moins solvables et dynamiques que la finance ou la santé pour se doter des outils nécessaires à son intégration. Le cabinet PwC, dans son dernier AI Predictions Report, démontre bien ces différences, avec 20% des exécutifs interrogés qui prévoient de déployer l’IA dans leur entreprise, mais seulement 7% dans les médias.

Pourtant, les champs d’application de l’IA dans la presse, le cinéma, la radio, la télé et la publicité sont vastes : automatisation des process métier et des relations client, veille et écoute des réseaux sociaux, vérification de l’info, analyse prédictive de succès, création de vidéo et post-production, assistants vocaux et conversation, rédaction automatisée, personnalisation, recommandation, optimisation de la diffusion de contenus, tracking émotionnel et accessibilité.

Loin de se vouloir exhaustif, voici un panorama des utilisations de l’IA dans toute la chaîne de valeur des médias de l’information et du divertissement.  Des applications qui pourraient bien redonner un élan à une industrie en réinvention.

Pourquoi maintenant ?

Née dans les années 50, l’Intelligence Artificielle est rentrée ces dernières années dans son 2ème printemps grâce à une combinaison de trois facteurs bénéfiques : l’augmentation exponentielle de la capacité des ordinateurs, la masse de données disponibles, et des logiciels open source, comme Tensorflow, Keras,Torch, Pytorch, langage Python, qui rendent disponible la technologie à un plus grand nombre.

Les algorithmes et les plateformes pour les faire tourner sont désormais accessibles sous forme de cloud (souvent mis à disposition par les GAFAs) et permettent aux médias de se lancer dans l’aventure des algorithmes. L’apprentissage machine (machine learning) est devenu apprentissage profond (deep learning), avec une IA qui n’a plus besoin des humains pour l’alimenter avec des calculs, mais qui se nourrit de milliards de données pour construire elle-même des fonctions cognitives. L’IA exécutante devient IA apprenante. Le système AutoML de Google a même créé tout seul un réseau de neurones IA sans intervention humaine. L’IA devient contextuelle, multidisciplinaire, et peut-être bientôt consciente d’elle même…

Les usages de l’IA pour les médias vu de l’UER 

Côté audience, l’un des avantages pour l’adoption de l’IA par les utilisateurs est sa simplicité d’appréhension. Les humains n’ont pas besoin de s’adapter à l’IA, ou d’acquérir de nouvelles compétences (comme c’était le cas dans la préhistoire avec le langage MS DOS par exemple). On interagit avec l’IA par l’outil le plus simple et naturel : notre voix, ou même des images. Restent quelques questions éthiques que l’on abordera à la fin de ce texte.

Pour les médias, 4 catégories majeures pour l’utilisation de l’IA se dessinent : Marketing et Publicité, Recherche et documentation, Innovation dans l’expérience utilisateur et Services. 

Il est donc temps d’adopter cette nouvelle technologie au service de l’audience. Pour le nouveau directeur technique de l’UER, Antonio Arcidiacono, “AI is becoming mainstream”. En voici la preuve en 12 exemples d’utilisations :

1 – L’IA comme outil pour une information augmentée

La peur, non seulement des journalistes, d’être remplacés par un robot ne date pas d’hier. L’IA va en effet remplacer une partie des tâches et rendre caduque certains métiers. En cela, l’année 2020 sera une année pivot : selon Gartner, l’IA va éliminer 1,8 M d’emplois, tout en en créant 2,3 M de nouveaux. Mais l’avenir des journalistes n’est pas en danger. Même si les « journalistes robots » sont déjà une réalité et utilisés dans de nombreuses rédactions pour produire plus vite, il restent confinés à des typologies de contenu bien précis.

L’agence Associated Press publie depuis 2015 des dépêches créées par des robots journalistes pour les annonces standardisées de l’actualité financière. La même année, Le Monde s’attache les services d’un robot-rédacteur de Syllabs pour les élections départementales et régionales. Avec Heliograf, développé en 2016 pour les Jeux Olympiques, Le Washington Post utilise l’IA pour couvrir notamment des événements de petite envergure, comme du sport local d’étudiant, dont l’audience est trop restreinte pour mobiliser un journaliste humain. La TV finlandaise YLE utilise son bot Voitto pour créer 100 articles et 250 images chaque semaine.  On observe toutefois des différences culturelles dans l’adoption des nouvelles technologies par les rédactions. D’une part entre les pays du Nord et du Sud, mais aussi entre service public et médias privés, ces derniers étant davantage poussés par une logique de rendement.

Robots-rédacteurs ? En réalité, il ne s’agit pas vraiment de création, mais plutôt d’assemblage de contenus existants que l’on fait rentrer dans des templates prédéfinis. Mais la technologie progresse, et les générateurs de langage peuvent de plus en plus tenir compte du contexte pour sélectionner le format adapté.

L’IA peut aussi aider les journalistes à analyser les données et détecter des tendances à partir de sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks. Par sa capacité de scanner et d’analyser des masses de données importantes, l’IA permet d’effectuer une veille permanente des tendances sur les réseaux sociaux et de détecter des signaux faibles. Elle peut en cela aider à accomplir une des missions du service public : faire en sorte que le public trouve efficacement l’information qu’ils recherchent et soit ainsi mieux informé. Associated Press utilise NewsWhip pour détecter des tendances sur Twitter, Facebook, Pinterest et LinkedIn. News Tracer est utilisé par l’agence Reuters pour détecter les tendances et les breaking news sur Twitter et faciliter la fabrication de contenu. Le système conçu avec Alibaba repère les news, les classifie, les annote et les ordonne. 

Au delà de la détection des tendances, l’IA est capable d’analyser des volumes massifs de données, inexploitables par l’humain, un processus à l’origine d’un nouveau journalisme d’investigation construit sur une collaboration homme/machine. La veille peut combiner des sources d’informations multiples allant des sources ouvertes habituelles aux sources inédites comme les données publiées par Wikileaks ou encore les données émises par chacun via les objets connectés qu’il porte (smartphone, montre connectée, trotinette électrique…). Les Panama Papers sont le résultat du traitement de 2,6 téraoctets de données et d’un repérage de patterns par algorithme

Face à l’automatisation d’une partie des tâches du journaliste, l’IA force à repenser et réaffirmer les valeurs journalistiques pour revenir à un journalisme « authentique » en prenant en considération l’utilisateur individuel. Mais attention à ne pas ajouter de la masse inutile à l’infobésité : les contenus créés par l’IA doivent rester pertinents, et cela n’est possible que par une collaboration intelligente entre l’homme et la machine. Il s’agit de trouver la bonne balance entre jugement humain et automation, intuition, expérience et créativité pour devenir plus efficace dans la collecte, le traitement et la vérification de l’information.

2 – L’IA pour lutter contre les fake news

Si l’IA est capable de générer des fake news, elle peut aussi aider à les détecter. Fausses informations diffusées par des bots à l’accent slave ou Deep Fakes imitant la parole de Barack Obama, les progrès de l’IA pour nuire sont impressionnants. Tellement que Open AI a dernièrement stoppé son projet GPT-2, car l’IA était si sophistiquée qu’elle finissait par faire peur à ses créateurs. L’IA est parfois annoncé comme un remède miracle, notamment par Mark Zuckerberg lors de sa première audience devant le Congrès américain suite au scandale Cambridge Analytica, où il répondait à toutes les questions embarrassantes : « I dont know, our AI team will fix it« . Bien sûr, la vérité n’arrive pas magiquement par le Big Data. Mais la technologie pour fabriquer un fake étant la même que celle pour le détecter, l’IA est un allié important dans la lutte contre la désinformation.

On le sait, le problème avec les fake news n’est pas tant que les gens ne font plus confiance aux médias, mais plutôt qu’ils font confiance à n’importe quelle fake news. Grâce à ses capacités d’analyse poussées l’IA peut automatiser, du moins en partie, la vérification de l’information : vérification de l’authenticité des photos/vidéos grâce à la reconnaissance d’images, à l’analyse des métadonnées, à la comparaison en temps réel des informations avec des banques de données.

Combiné à la blockchain, l’IA peut aussi permettre d’authentifier une information. Facebook utilise l’IA pour détecter des “patterns sémantiques” qui seraient caractéristiques des fake news, avec le succès que l’on lui connaît. Truepic et Serelay se basent sur la blockchain pour authentifier les images, utilisés par l’équipe de vérification d’info du Wall Street Journal. ADOBE détecte les images retouchées grâce à un algorithme. DeepNews.ai est un outil surtout destiné aux plateformes d’agrégation. Il sélectionne sur Internet les articles les plus pertinents sur les sujets d’actualité. L’algorithme prend ensuite en compte la profondeur du traitement du sujet, l’expertise, les qualités de l’analyse et les moyens mis en œuvre en s’appuyant sur un réseau de neurones convolutifs.

L’équipe du Medialab de l’AFP a mené plusieurs projets qui aident les journalistes à détecter les fake news en recherchant notamment l’origine exacte de photos et vidéos qui peuvent ne pas refléter les événements qu’ils sont censés décrire, dernier en date : WeVerify. 

Là encore, l’algorithme n’est pas la solution miracle, la plupart des initiatives et des outils fonctionnent en combinaison avec les humains, dont la capacité d’analyse et de vérification des sources, ne serait-ce que par un simple coup de fil, dépasse encore celles des robots. Pour optimiser la recherche, les algorithmes peuvent simplement être entraînés avec les données du taux de clic sur un contenu. Cette technique ne fonctionne pas pour la détection de fake news. Ici, les jeux de données pour entraîner l’algorithme à la détection de fake news doivent être codés par des fact-checkeurs humains.

3 – L’IA pour améliorer la discussion sur Internet

Discours de haine, discrimination, violence, les trolls sont un fléau d’Internet. L’IA, à travers le traitement automatique du langage naturel (NLP) peut analyser automatiquement des contenus, les classifier, et mettre en place une modération automatique 24h/24. Mais attention, l’analyse automatique des contenus a ses limites. Même les IA très sophistiquées des plateformes ne sont pas capables d’empêcher la diffusion d’images violentes en direct, comme cela était encore le cas récemment avec les directs de la tuerie de Christchurch. Les plateformes ne se fient pas à 100% à la modération par l’IA, leur process de modération de contenu est une combinaison entre IA et humains. L’IA ne résoudra pas si vite, et peut être même jamais – car la technologie ne sera pas capable de saisir certaines nuances comme l’humour – la misère des modérateurs humains de Facebook.

Les systèmes automatiques sont néanmoins incontournables pour analyser des masses de contenu disponibles sur les réseaux sociaux, détecter des nuisances, sélectionner d’éventuelles contenus à supprimer (en qualifiant les cas de doute qui nécessitent une intervention humaine), et même empêcher la mise en ligne de contenus douteux, en bloquant l’upload d’images de haine. Les algorithmes sonnent aussi le retour des commentaires sur les sites, que les éditeurs avaient souvent fermés faute de moyens de modération. L’outil Perspective utilisé au NYT évalue le degré de toxicité des commentaires via reconnaissance de mots-clés. Le NYT souhaite ainsi passer de 10 % d’articles ouverts aux commentaires à 80 %. Il est aussi adopté par The Guardian et The Economist.

L’IA permet donc de donner un peu plus d’espace à l’expression de l’audience en automatisant un certain nombre de tâches, mais sans pour autant remplacer les humains pour la gestion des nuances qui dépassent l’intelligence des robots.  

4 – L’IA au service de la voix

Le traitement naturel du langage et la reconnaissance vocale ont permis de développer des assistants conversationnels (chatbots, smart speakers) capables de dialoguer avec des humains. Déjà 20% des recherches sont vocales (Meeker), 50% le seront d’ici 2020 (ThinkWithGoogle). Les assistants vocaux sont un nouveau carrefour d’audience pour les médias.

Lorsque nous parlons à Google Home, Amazon Alexa ou Apple Siri, l’IA est utilisée pour comprendre notre voix. Cette même technologie de réseau de neurones et de Natural Language Processing peut être utilisée pour dessiner des concepts spécifiques et définir des mots clés qui déclenchent des actions. Dans le sens inverse, par la Natural Language Generation, l’IA est capable de transformer des textes en voix. Des centaines de milliards de données sont nécessaires pour entraîner les algorithmes afin de traduire nos accents, dialects, formulations rocambolesques et autres originalités de la langue en des formules mathématiques compréhensibles pour un robot. C’est la raison pourquoi Alexa a besoin d’écouter toutes nos conversations, selon Jeff Bezos.

L’arrivée de BERT (Bidirectional Encoder Representations from Transformers) développé par Google marque une évolution signifiante dans le développement de l’IA pour la voix : arrivant à une précision de 93,2 %, des ordinateurs sont désormais capables d’apprendre les aléas des langues et peuvent appliquer ses apprentissages à une multitude de tâches.

De nombreux outils se développent pour exploiter au mieux la voix, ce moyen de communication des plus naturels : Lyrebird est une start-up canadienne qui crée des voix artificielles ultra réalistes et des avatars vocaux. Alexa a désormais une voix de présentateur professionnel pour la lecture d’infos. L’IA de Google est capable de reconnaître une voix même si elle ne l’a jamais entendue. La voix boostée à l’IA reprend les intonations et formules d’un présentateur d’info humain après un entraînement en text to speech de seulement quelques heures. Snips.ai  propose un service d’assistant vocal entièrement embarqué pour constructeurs professionnels, quel que soit le support, et respectueux de la vie privée des utilisateurs. Le VSO devient le nouveau SEO, un enjeu majeur pour les médias, et Google propose désormais des podcasts dans ses résultats de recherche. 

Mais même derrière Duplex, l’assistant virtuel de Google capable d’imiter votre voix et vos défauts pour prendre des rendez-vous, se cachent 25% d’humains travaillant dans un call center.

5 – L’IA pour créer l’interactivité et l’engagement

En 1960, le laboratoire d’Intelligence Artificielle MIT a créé la machine ELIZA qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du « patient » en questions, et en les lui posant. Grâce à l’IA, les possibilités d’interactions sont aujourd’hui bien plus développées. Le chatbot utilise à l’origine des bibliothèques de questions et réponses, mais les progrès de l’intelligence artificielle lui permettent de plus en plus  « d’analyser » et « comprendre » les messages par le biais des technologies de traitement du langage naturel et d’être doté de capacités d’apprentissage liées au machine learning. Que ce soit pour la consommation d’information ou l’interaction avec des clients (Gartner Marketing prévoit 85% des interactions sans humains pour 2020), l’automatisation du dialogue est de plus en plus sophistiquée et personnalisée.

La fabrication des bots basiques est aussi accessible plus facilement : Facebook propose une solution clé en main dans Messenger, et des plateformes comme Omnibot, Politibot ou encore Sently distribuent des solutions plug and play avec des formats spécialement dédiés aux médias pour ce dernier.

Que ce soit des bots intégrées dans des messageries pour aller à la rencontre des utilisateurs (1,6 milliard d’utilisateurs pour WhatsApp, 1,3 milliard pour Facebook Messenger), ou des bots développés directement dans les sites et applis, l’interaction conversationnelle est pour les médias un moyen de proposer une expérience utilisateur de proximité.

Les chatbots automatisent la relation, favorisent l’engagement et sont immédiatement personnalisées. Quartz a développé son bot studio pour proposer des narrations conversationnelles personnalisées. Le Guardian a son chatbot depuis 2016, CNN et le Wall Street Journal utilisent Facebook Messenger pour diffuser de l’information, NBC propose des breaking news via l’application Slack. La BBC a intégré un bot dans ses articles pour interagir avec l’audience.  

Des contenus interactifs de fiction sont aussi développés : The Inspection Chamber est un format créé par la BBC pour interagir avec un récit par la voix, StoryFlow propose des histoires sonores interactives pour enfants, The Wayne Investigation est une fiction sonore interactive disponible sur les enceintes connectées équipées d’Amazon Alexa. Alexa adapte aussi les Histoires dont vous êtes le héros en version sonore. Avec OLI, Radio France propose des contes de nuit dédiés à l’enceinte connectée de la chambre d’enfant. 

Au-delà de ces exemples, en simple assistant ou créateur de contenus, l’IA peut innover le storytelling dans les secteurs de la pub, du marketing, du cinéma et de l’audio.

6 – L’IA dans la réalité étendue

Grâce aux avancées de la technologie, les chatbots se transforment en compagnons virtuels, capables de tenir de véritables discussions et débats. L’intelligence artificielle et la réalité virtuelle semblent être deux champs de recherche différents, mais l’évolution technologique montre que les deux domaines sont de plus en plus liés. Au départ réservé au monde du gaming, ces nouvelles technologies arrivent petit à petit dans la création audiovisuelle. L’IA va changer le storytelling grâce à des personnages virtuels capables d’interactions avancées avec des humains.

Avec leur projet “Whispers in the Night”, le studio Fable s’est lancé dans la création de personnages virtuels animé par l’Intelligence Artificielle. Il s’agit de dessin animés par ordinateur augmentés par l’IA et basés sur la même technologie que celle utilisée par Epic Games ou encore Magic Leap, au service d’un storytelling immersif. Emoshape utilise le composant “Emotion Processing Unit” (EPU) pour déterminer en temps réel les émotions des utilisateurs et permettre aux robots de répondre avec un état émotionnel en phase avec celui de l’utilisateur. La technologie s’associe même aux sciences pour optimiser les interactions et les rendre le plus réaliste possible. Le MIT Media Lab a customisé un casque VR qui intègre un dispositif capable de détecter les émotions de l’utilisateur. Ce module de capture physiologique est constitué d’électrodes permettant de collecter les données de « réponse galvanique de la peau » (GSR) et de capteurs de type photoplethysmogramme (PPG) pour collecter les données de rythme cardiaque.



Moins emplie d’appréhension face aux robots humanoïdes que le continent européen, la Chine a lancé des présentateurs JT boostés à l’IA avec son agence de presse Xinhua : d’abord, le 9 nov 2018, la version masculine, Qiu Hao (qui parle chinois et anglais), ensuite, le 19 fev 2019, la version féminine, Xin Xiamomeng. Dopés à l’intelligence artificielle et au machine learning, ils peuvent commenter de manière autonome des vidéos en direct et lire des textes sur un prompteur.

7 – L’IA pour indexer, archiver et optimiser les recherches

Avant, les moteurs de recherche fonctionnaient exclusivement sur du texte. Avec l’avènement de l’IA, la recherche est désormais possible sur des images, vidéos et sons. Grâce à la combinaison des technologies de reconnaissance d’image, machine learning, speech-to-text, NLP, reconnaissance de visages, d’objets et de lieux, l’IA peut automatiser la création de métadonnées sur les contenus pour améliorer leur archivage et surtout favoriser leur découvrabilité. La structuration des données, à l’instar du format EBUCore, est l’étape incontournable à leur exploitation automatique. Conversions de formats de données, transcodage, extraction d’audio et de sous-titres ou encore déplacements/copies/purges (FTP, HTTP) sont autant de tâches automatisables de la gestion des contenus permettant presque un catalogage en temps réel. L’indexation automatique accélère aussi le travail des journalistes et facilite le fact-checking.

La durée de vie d’un contenu est très courte, et sans métadonnées appropriées il est impossible de retrouver un sujet spécifique parmi tout ce qui a été été produit. D’ou l’importance d’une optimisation de la fabrication des méta-donnes. L’IA rend la fabrication de méta-données plus rapide, moins coûteuse et plus précise, sous condition de l’entraîner avec suffisamment de données.

Développer des solutions propriétaires et maîtrisées à 100% est presque impossible pour un média. De nombreux outils clés en main sont proposés, souvent relayés à des systèmes de cloud de Microsoft, Google, Amazon, IBM, OpenText, Oracle ou tant d’autres.
Newsbridge, très présent dans le secteur des médias, propose une solution d’indexation automatique et en temps réel des rushs, via la reconnaissance d’image. Cela permet en même temps d’optimiser le process de production d’un sujet et de pérenniser les contenus en facilitant leur réutilisation plus tard. Une fonctionnalité de traduction en direct est également proposée pour les interviews. 

Editor est un outil à base d’IA utilisé depuis 2015 par le NYT pour simplifier la vérification et la mise en forme de l’information. Lorsqu’il rédige son article, le journaliste utilise des tags pour signaler les éléments clés – la machine apprend à repérer ces éléments, à comprendre le sujet de l’article et fait une recherche en temps réels pour extraire des informations sur ce sujet. Le BBC News Lab a lancé une technologie de taggage similaire appelée Juicer et un autre outil appelé Summa qui utilise la reconnaissance du langage pour mieux indexer les contenus. LEANKR permet une indexation fine de vidéos, avec un taggage automatique, une création de vignettes intelligente, et un moteur de recherche dans la vidéo grâce au Natural Language Processing, speech-to-text et à l’OCR. 

L’IA aide en effet à optimiser la justesse des résultats de recherche. Des technologies de vision ordinateur permettent aussi de mieux traiter les contenus images et accélérer le process de production. Les machines peuvent aujourd’hui facilement identifier des individus ou situations dans des photos, pour générer des légendes ou alimenter des bases de données plus complètes.

8 – L’IA pour cibler et personnaliser

Les algorithmes de recommandation ne datent pas d’hier. Leur pionnier, Tapestrya même fêté son 25ème anniversaire en 2017. A travers les algorithmes de recommandation, l’IA est un outil parfait pour adapter la stratégie de distribution des contenus en temps réel : analyse des tendances des réseaux sociaux pour identifier le moment de diffusion le plus opportun, analyse d’audience, génération automatique de titres/résumés/illustrations avec des mots-clés et hashtags qui garantissent d’apporter de la visibilité au contenu, newsletters personnalisées, playlists sur mesure…

Des contenus taillés sur mesure selon le profil de chaque utilisateur, personnalisés selon son profil, son parcours, en prenant en compte des données contextuelles (lieu, moment, météo…). Les focus groups sont désormais remplacées par la base de comportements réels des utilisateurs existants.

Le cas d’école de la personnalisation sont Amazon, Facebook et Netflix. Ce dernier adapte entièrement sa page d’accueil. Son système Meson couplé au machine learning (à travers la collecte de données pour évoluer constamment) propose même le visuel personnalisé (9 versions) sur lequel l’utilisateur est le plus susceptible de cliquer selon son parcours d’utilisation et son contexte. Objectif : trouver le plus grand combo de séries qui pourrait convenir a des segments pour satisfaire les utilisateurs plutôt que du contenu qui correspond au plus grand nombre. L’algorithme est alors à la base de créativité et diversité plutôt que de standardisation. 

L’IA peut automatiser la curation de contenus, mettre à jour régulièrement les playlists thématiques, profiler les utilisateurs pour faire de la recommandation personnalisée. Selon une étude de Reuters, 59 % des médias utilisent l’intelligence artificielle pour recommander des articles ou projettent de le faire. Your Weekly Edition est une newsletter personnalisée du NYT lancée en juin 2018 qui envoie une sélection personnalisée (via curation algorithmique & humaine) de contenus dans un seul but : ne montrer à l’utilisateur que des contenus qu’il n’a pas encore vus. Amazon Personalize permet aux développeurs sans expérience en machine learning de créer facilement des fonctionnalités de personnalisation. Freshr est un bot Messenger qui résume les actus les plus importantes du moment en fonction des goûts de l’utilisateur chaque matin en seulement 5 minutes destiné aux 20-35 ans. 

Les algorithmes de recommandation sont loin d’être parfaits. L’économiste Matthew Gentzkow parle même d’un « personalization paradox«  pour décrire leur côté déceptif. Combien de fois nous-a-t-on proposé un contenu déjà acheté, ou juste du contenu posté par nos amis sur Facebook ? Là aussi, les progrès de l’IA pourront aider à trouver le bon équilibre entre personnalisation et promotion intelligente de contenu. Et peut-être que les méthodes traditionnelles sont parfois aussi efficaces :  RAD, le laboratoire de journalisme de Radio Canada, utilise des sondages en ligne auprès de leur audience pour leur proposer un contenu adapté à leurs attentes.

9 – L’IA pour rendre accessible

Les technologies de retranscription automatiques facilitent d’un côté la vie des journalistes en optimisant leur temps de travail, et rendent en même temps accessible des contenus aux personnes en situation de handicap grâce à l’automatisation des sous-titres (speech to text), la mise en son des textes (text to speech), la reconnaissance contextuelle des images pour l’audiodescription ou encore la traduction en temps réel.

AI Media TV propose sous-titrages et transcriptions pour des événements en direct en en replay. Ils viennent de lancer le service Scribblr.ai. Trint est un outil de transcription financé par Google DNI, qui sert à transcire automatiquement des flux audio et vidéo. Il est utilisé par l’AP et intégré dans Adobe Première. Mediawen gère la traduction de contenus vidéo en temps réel à l’aide d’IBM Watson et du text to speech, en voix de synthèse ou en sous-titrage. L’AFP a développé l’outil Transcriber, qui permet à ses journalistes d’automatiser la retranscription des entretiens. 

10 – L’IA pour la production vidéo et la création  

Avec le besoin grandissant des médias de fabriquer de formats courts adaptés aux réseaux sociaux, de nombreuses start-ups proposant des solutions clés en main se sont développées. On peut alors utiliser l’IA pour générer automatiquement du texte à partir de documents graphiques, ou une vidéo à partir de textes. L’IA assiste aussi dans les différentes étapes techniques de la captation et de la diffusion. Elle intervient dans la post-production de l’image et les effets spéciaux. Le nombre de solutions contenant des briques IA dans le développement de l’édition vidéo et du média management a augmenté de façon exponentielle ces dernières années.

Grâce à la reconnaissance d’image, l’IA est capable d’analyser des rushs vidéo pour produire un montage cohérent. La plupart des grands éditeurs de logiciels de montage, comme Adobe, Avid et Elemental (filiale d’Amazon) ont, eux aussi, déjà ajouté des fonctions de traitement automatique des vidéos pour faire gagner du temps aux monteurs. Adobe et Stanford ont par exemple développé une IA qui automatise une partie du travail de montage vidéo tout en laissant la main à l’homme sur la partie créative. L’outil peut par exemple faire différentes propositions de montage d’une scène de dialogue. Gingalab crée des vidéos automatisées et personnalisées et génère automatiquement des best-of selon une ligne édito prédéfinie (humour, tension, focus sur un protagoniste…), en mettant à disposition des outils de montage simplifiés, pour publier ensuite automatiquement sur les réseaux sociaux et agréger les analytics.

En septembre 2018, la BBC a diffusé une émission entièrement fabriqué par un robot. “Made By Machine: When AI Met The Archive a assemblé une partie des riches archives de la BBC dans un format d’une heure, pas forcément toujours cohérent (le même reproche que l’on faisait déjà aux IA scénaristes des Sunspring, It’s No Game et Zone Out).

Même si la technologie des GAN (Generative Adversarial Networks, ou « réseaux génératifs antagonistes ») aide à améliorer la copie des créations par robot, du côté de l’art, l’IA n’est clairement pas prête de remplacer les artistes : elle reste basée uniquement sur des systèmes probabilistes et combinatoires qui n’ont aucune intelligence symbolique ni capacité émotionnelle.

11 – L’IA pour monétiser et prédire le succès

De l’analyse d’audience avancée à la détection de la bonne cible, les algorithmes du machine learning aident le marketing à séparer les conjectures des tâches essentielles. L’IA, en recoupant données comportementales, analyse d’audience et détection des tendances est capable de prévoir les potentiels succès commerciaux des contenus avant leur diffusion. L’analytique avancée sert ainsi à découvrir des modèles, des corrélations et des tendances permettant d’améliorer les processus décisionnels.  L’IA intervient dans toute la chaîne marketing : l’acquisition de clients (analyse d’audience et segmentation, scoring et ciblage, identification visuelle du contexte), la transformation (personnalisation et recommandation, création de contenus, optimisations de sites et de supports, pilotage automatisé des campagnes) et la fidélisation (agents conversationnels, automatisation du programme client, analyse comportementale, calcul de l’attribution et prédictions).

L’IA est même capable désormais de collecter la « data émotionnelle » pour analyser nos comportements non seulement par nos clics, mais aussi par nos émotions. C’est le dernier degré de de la personnalisation : des médias qui proposent des contenus adaptés à notre contexte émotionnel du moment. Frank Tapiro de Datakalab décrit cette transformation de la façon suivante : « Pendant trente ans, j’ai créé de l’émotion. Aujourd’hui, j’utilise les neurosciences et les datas pour mesurer l’émotion ». Amazon prépare même un bracelet pour détecter nos émotions.

Prévision.io est une plateforme en ligne (SAAS) qui permet de créer automatiquement des modèles prédictifs à partir de jeux de données (internes ou externes, structurées ou non) et de visualiser les résultats sur des tableaux de bord. Cette plateforme de machine learning identifie des scénarios prédictifs pour prévoir des pertes d’audience, des désabonnements et pour la gestion des tarifs des écrans publicitaires. Elle promeut la transparence de sa solution, en expliquant chaque résultat et en proposant des recommandations d’actions et/ou des évaluations d’impact. Le groupe Le Parisien-Les Echos a remporté récemment un financement Google DNI pour un programme anti churn (anti-désabonnement). Intitulé High Fidelity, ce projet doit permettre la mise en commun des données provenant des call centers, des newsletters, des envois de courriers et des interactions provenant des applis et des sites web, et prédire les désabonnements en cascades pour éviter la perte massive de lecteurs. Avec Project Feels, le NYT de son côté vend des espaces publicité premium en fonction du sentiment du lecteur. Vionlabs est une société suédoise qui intervient sur l’indexation des contenus à partir de la reconnaissance automatique des émotions. Elle analyse les contenus, constitue des graphs en représentant les différents moments émotionnels. Ces données vont ensuite pouvoir alimenter un moteur de recommandation basée sur les émotions.

L’IA est utilisée pour connaître le plus finement possible les utilisateurs et être capable de cibler le meilleur moment – et la meilleure façon – de leur proposer de passer à un abonnement payant. L’IA devient aide à la prise de décision et outil anti-churn.

12 – L’IA et l’éthique appliquée aux médias

En pleine crise de confiance, l’utilisation de l’IA et d’algorithmes opaques de recommandation impliquant l’analyse de comportements n’est peut être pas un choix évident pour les médias. L’usage de l’IA nécessite en effet l’instauration de règles claires et une documentation transparente à destination de l’audience. Le Big Data qui alimente l’IA est basé sur la collecte massive de données (y compris personnelles). La propriété des données et l’indépendance à l’égard de sources tierces est crucial pour le développement d’un écosystème indépendant, et pourrait être déterminant pour la survie à long terme des entreprises, en particulier pour celles du secteur des médias.

Or, la plupart des jeux de données et des algorithmes disponibles dans les clouds des GAFAs sont biaisés, voire même racistes.

Comment alors intégrer les valeurs du service public (information, éducation) dans un algorithme de recommandation ?
Comment fédérer autour d’un sujet pour animer le débat public ?
Comment continuer à jouer le rôle de la recommandation dans la cohésion sociale ?
Quel est le degré de recommandation que nous souhaitons ?
Où se trouve la juste balance entre personnalisation et découverte de contenus ?

Le gouvernement anglais a lancé un observatoire de l’utilisation de l’IA dans le service public. La BBC applique ses règles éthiques dans le programme « Responsible Machine Learning in the Public Interest », rejoint par l’UER, dont le groupe de travail Big Data réfléchit à une utilisation éthique des algorithmes dans les médias de service public pour éviter les biais et répondre aux enjeux de cet outil encore peu maîtrisé : l’inégalité face à l’intelligence artificielle, le neurohacking, la souveraineté technologique, et surtout la nécessité de la complémentarité du cerveau avec l’intelligence artificielle.

L’interprétabilité et l’explicabilité de l’IA , deux néologismes anglais, sont le plus grand défi. L’intelligibilité des algorithmes en général et particulièrement ceux de l’intelligence artificielle est devenue un critère prépondérant, évoqué notamment dans le rapport Villani en France et mis en exergue depuis le RGPD en Europe. Le premier moyen d’être transparent étant déjà d’indiquer clairement qu’un contenu ou une recommandation sont totalement ou en partie proposés par un algorithme.

D’un autre coté, les possibilités des l’IA permettent aussi d’atteindre des audiences de niche pour lesquelles un média n’avait pas les moyens de fabriquer du contenu. Les algorithmes permettent de créer des playlists entièrement personnalisées sur des sujets très ciblés. Et peut être que les médias peuvent aussi laisser la place au vide. En ce sens, Jonnie Penn, auteur invité au Workshop The impact of AI on Media de l’UER en novembre 2018, clame le besoin de « data deserts », des « protected areas from data« , pour laisser la place à une « healthy differences of opinions« .

Conclusion :

Le buzz autour de l’IA peut aussi déclencher des attentes trop élevées : l’A n’est pas la solution miracle, dans la plupart des cas que l’on a détaillés ci-dessus, elle a besoin d’être associée à l’humain, notamment pour créer du contenu. Elle est néanmoins déjà opérationnelle du côté de la demande dans les domaines de la diffusion, de l’accès au contenu et de la monétisation. Elle a un grand potentiel de bien social pour aider à naviguer dans la masse de contenus par l’optimisation de la recherche et la recommandation personnalisée, et pour prévenir la manipulation.

Autant de cas d’usage, en attendant les applicatifs à venir dans les voitures autonomes… Mais cette nouvelle technologie a besoin d’une sensibilisation d’un côté de l’ensemble des acteurs de la chaîne de valeurs des médias, et de l’autre de l’audience, des plus jeunes aux plus âgés, pour leur transmettre les enjeux de l’IA.

L’IA est bonne à certaines tâches, mais ne remplace pas les humains. La plus grande valeur apporté par les médias est (ou devrait être) la production de contenus complexes qui touchent aux domaines du jugement, de l’interprétation, de la créativité et de la communication, où les humains dominent encore les algorithmes, et le feront certainement encore pour des années à venir.

Mais l’IA peut aussi aider à se poser les bonnes questions : Comment créer de la valeur pour l’utilisateur ? L’IA a un impact très fort sur la société, et le rôle des médias est à veiller de l’utiliser à bon escient, en particulier des médias de service public.

Les cas d’usage sont encore à inventer, en faisant attention toufois à ne pas utiliser l’IA sans répondre à un besoin réel et sans apporter de valeur. Juste parce que l’on a la capacité technique de le faire, son intégration n’est pas pertinente partout, comme le remarque Jonnie Penn : « Machine learning is like salt : you can add it but if you have too much it is unhealthy« .

Pour accéder à la cartographie complète avec plus d’exemples (non exhaustifs bien entendu), c’est par ici.

Et pour la version anglaise de l’article et de la cartographie, c’est par ici.

N’hésitez pas à partager d’autres exemples d’applicatifs IA dans les médias avec nous pour enrichir cette cartographie. Vous pouvez nous contacter ici  !

Liens vagabonds : Huawei au cœur de la bataille commerciale entre la Chine et les Etats-Unis

A retenir cette semaine :  

HUAWEI. Après les sanctions infligées par les Etats-Unis la semaine dernière, Huawei se retrouve acculé. L’entreprise se retrouve au cœur d’une bataille commerciale entre les Etats-Unis et la Chine. La maison blanche force les entreprises américaines pour cesser toute activité avec Huawei, devenu symbole malgré elle de cette guerre économique. Résultat,  Google lâche le géant chinois en lui retirant sa licence Android. Intel et Qualcomm lui emboîtent le pas en arrêtant de lui fournir des pièces maîtresses dans la fabrication des smartphones. En réponse à ces ruptures commerciales, des internautes chinois réagissent en lançant le mouvement « Boycott Apple ». La réponse de Huawei n’a d’ailleurs pas tardé non plus et prévoit de lancer son propre système d’exploitation. Même si Donald Trump a accordé un sursis de 3 mois à Huawei et se dit prêt à inclure la firme dans les négociations avec la Chine.

ALIBABA. Malgré le contexte tendu entre la Chine et les Etats-Unis, la situation ne semble pas impacter Alibaba. Le groupe chinois affiche un bénéfice net en hausse de 242% au premier trimestre 2019.

#FACEBOOK Un des plus importants médias mondiaux refuse de retirer une vidéo deep fake de la présidente de la Chambre des Représentants ; Regardez l’explication honteuse de Facebook

Et aussi cette semaine :

#SvOD. Le streaming vidéo croît à grande vitesse avec un bond spectaculaire de 72% du visionnage de streaming vidéo en un an. Et ça accélère !

#GOOGLE. La plateforme a annoncé ses nouvelles Google Glass, à 999$ à destination des entreprises.

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographie: Quels pays ont banni Huawei de leur territoire ? | Statista

Vous trouverez plus d’infographies sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS

DISRUPTION, DISLOCATION, MONDIALISATION

USAGES ET COMPORTEMENTS

 

SURVEILLANCE, CONFIANCE, DONNEES

LEGISLATION, REGLEMENTATION

FAKE NEWS, LIBERTE DE LA PRESSE

JOURNALISME

PROXIMITE

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

IMMERSION, 360, VR, AR

AUDIO, PODCAST, BORNES

SPORTS  

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

4K,  U-HD, 8K, HDR

5G / MOBILES / TELCOS

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

TECH, STARTUPS, SMART

OUTILS

 

Retrouvez la sélection des outils Méta-Media sur jTools

ES avec l’équipe Méta-Media

10 places à gagner pour le Live Magazine qui n’a pas fini de vous raconter des histoires !

Qui a dit que les histoires n’étaient réservées qu’aux enfants ? Pour tous les amateurs d’histoires (journalistiques, mais pas que !), c’est l’événement à ne pas manquer. Le mardi 18 juin 2019 à 20h à BOZAR (Bruxelles), se tiendra le prochain Live Magazine, « le journal vivant » ! Se succéderont sur scènes journalistes, photographes, dessinateurs, réalisateurs pour vous raconter… des histoires inoubliables. Et ce n’est pas des histoires. Enfin si. Mais vous avez compris.

Un journal vivant ?

via GIPHY

Malgré la magie qui règne lors de cette soirée, ce ne sont pas les pages d’un journal qui bougent toutes seules. Mais bel et bien des personnes qui vont animer tout au long de la soirée ce journal vivant, en mots, en sons et en images, sur scène. Une forme de « journalisme théâtrale ». Cette « pièce » qui vous est proposée est unique, car rien n’est enregistré.

https://youtu.be/YSXdYcOvvAI

Avec déjà 59 représentations à son actif organisées dans 16 villes d’Europe, Live Magazine ne compte pas s’arrêter en si bon chemin. Vous pouvez d’ores et déjà vous abonner à vie pour deux personnes pour participer à tous les prochains Live Magazine. Vous pouvez également prendre vos places pour le prochain Live Magazine si vous n’avez pas eu la chance d’être tiré au sort par Méta-Media.

Edition spéciale à Bruxelles le 18 juin : l’Europe aujourd’hui

Le 18 juin à Bruxelles, Live Magazine a imaginé un spectacle comme une « lettre d’amour à l’Europe » (en anglais).

Sur scène, « des journalistes (une chroniqueuse du Financial Times, un journaliste sous couverture intégré dans l’extrême droite européenne, une spécialiste des technologies en quête de ses données personnelles), des photographes (lauréate photo du World Press, une grande dame du documentaire photographie), des artistes et un dénonciateur éminent, figure bien-aimée du Parlement, [qui] partageront nombre de récits de secrets et autres mensonges, d’événements décisifs qui ont tout changé, notamment sur les origines du Brexit et la naissance d’une directive fondamentale de l’UE ».

10 places à gagner

Méta-Media est partenaire de l’événement et vous fait gagner 10 places.

Il suffit de :

– suivre @metamedia sur Twitter si ce n’est pas déjà fait
– retweeter le tweet ci-dessous
– tirage au sort vendredi 31 mai.

Bonne chance !

Les Stories sortent des plateformes sociales et arrivent sur le web

Par Barbara Chazelle et Alexandre Bouniol, France Télévisions, MédiaLab

Impossible de passer à côté des Stories ! Après Snapchat, Instagram, Facebook, WhatsApp, YouTube et désormais… Spotify, ce mode de narration verticale interactif a pris une place à part entière dans l’édition de contenus. Si le format est né sur les plateformes sociales, il n’a pas vocation à y rester pour autant.

Précurseur de ce mouvement, Le Figaro a intégré ses Stories dans son application dès 2016 et franchit aujourd’hui même une nouvelle étape en décidant de les convertir au format AMP (Accelerated Mobile Pages). Lancé en février 2018 par Google, il  permet aux éditeurs d’intégrer des Stories directement sur leurs sites qui seront ainsi référencées dans le moteur de recherche Google.

La technologie AMP

La technologie AMP repose sur un allègement des pages pour réduire le débit et diminuer mécaniquement le temps de chargement. Le temps de chargement étant un facteur clé de trafic (d’autant plus sur mobile !), ces pages permettent d’améliorer significativement l’expérience utilisateur. 

La même logique s’applique aux  AMP Stories : réduire au maximum le temps de chargement de ces dernières pour maintenir une expérience utilisateur fluide.

Pourquoi Google s’intéresse aux Stories

Tout le monde a copié Snapchat. Consommées par des centaines de millions de personnes chaque jour, la popularité des Stories attire tous les géants du numérique qui peuvent monétiser le format. Au-delà du format en lui-même, c’est l’engagement qu’il génère qui le rend attractif. Les annonceurs n’hésitent plus à investir dans les Stories. C’est donc un moyen pour Google de générer de nouveaux revenus et de se positionner à terme comme un concurrent des plateformes sociales qui tiraient jusqu’à présent la grande majorité des revenus de la publicité du format vertical.

AMP Stories s’inscrit complètement dans la nouvelle stratégie de Google, qui cherche à diversifier ses SERP (Search Engine Resultats Page). Encore récemment, Google a annoncé que les podcasts s’afficheraient directement dans les résultats de recherche. Google rebat ainsi les cartes des stratégies de distribution de contenus qui opéraient jusqu’à présent et peut espérer capter de nouvelles sources de revenus publicitaires en proposant ces nouveaux formats.

C’est aussi le symbole de la prise du pouvoir du mobile dans le trafic internet. Aujourd’hui 60% des recherches Google proviennent du mobile. Nous percevons bien la volonté de Google d’adapter au mieux ses services aux usages du web. Cependant, bien que le format ait été développé pour mobile initialement, les AMP Stories sont également accessibles via desktop.

De nouvelles perspectives pour les médias

Opportunité pour les plateformes donc, mais aussi (et surtout !) pour les médias ! Les médias ont déjà investi le format ; notamment sur Snapchat et Instagram quoique encore sous-exploité. Les stories leur permettent souvent de toucher de nouveaux publics. Mais à l’heure actuelle, la monétisation des Stories sur les différents réseaux sociaux est relativement faible. Les contraintes (temps d’affichage d’un panneau imposé ; dépendance auprès des plateformes…) restent fortes. Les AMP Stories ouvrent de nouvelles perspectives. Le format étant à la fois en open source et diffusé au sein même du site des éditeurs, ils sont à la fois maîtres de la distribution et du développement du format en lui-même. Un basculement majeur dans la relation de dépendance vis-à-vis des plateformes sociales.

C’est dans cette perspective de garder la main sur son contenu que Le Figaro, qui faisait partie des premiers médias français à se lancer sur Snapchat, a décidé en 2016 d’intégrer ce format directement dans son application avec une “solution maison”.

“ Nos Stories sont pensées pour les lecteurs du Figaro. Nous ne sommes pas dans une logique de rajeunissement du public, mais sur une recherche narrative servicielle, complémentaire de nos autres contenus. Le lectorat qui consomme des Stories au sein de notre application a entre 40 et 45 ans, avec un excellent taux d’ouverture entre 40.000 et 50.000 par stories ” explique Stéphane Saulnier, Rédacteur en chef Data & Infographie.

Recherche narrative qui a conduit Le Figaro a lancé plusieurs formats de Stories comme “De vous à moi”, “Les mots de…” et teste en ce moment une série en 5 épisodes sur le populisme. Des formats moins incarnés que ce que l’on peut voir sur les réseaux sociaux et qui s’appuient sur du texte et des séquences d’interview.

En basculant sur AMP, Le Figaro est conscient que ses Stories toucheront un public plus large via le référencement Google et a d’ores et déjà entamé une réflexion éditoriale.

“Nous travaillons sur une refonte de notre site pour la rentrée : les Stories y auront une place de choix. Nous n’excluons pas une option premium et espérons une appropriation encore plus forte de ce format par notre rédaction et équipes éditoriales” nous confie Stéphane Saulnier.

Différents médias aux Etats-Unis ont commencé à expérimenter les AMP Stories à l’instar de CNN, Mashable ou encore Wired. La BBC a également intégré un onglet dédié. En France, Le Parisien les expérimente depuis un an. 

Vous voulez créer vos propres AMP Stories ? Les étapes à suivre et quelques conseils avant de vous lancer.

L’intelligence artificielle est une alliée pour la presse et les journalistes

Par Aurélie Jean, Docteur en sciences et entrepreneur. Billet invité

La data, les algorithmes, les simulations numériques et plus généralement l’intelligence artificielle (IA), impactent tous les métiers, et le journalisme n’y échappe pas. L’IA influence fortement le monde de la presse en l’alimentant pour permettre aux rédacteurs de revenir aux sources de leur métier et de se concentrer sur leur forte valeur ajoutée, qui est de produire du contenu éditorial de qualité.

Pour comprendre ce raisonnement il est important de sortir d’un prisme déformant qui présente l’IA comme source de troubles, qui vole les compétences des journalistes et qui réduit une salle de rédaction à un amas algorithmique. L’IA intervient dans trois piliers principaux présentés dans cet article : la consommation personnalisée soutenue par une captation intelligente des usages du lecteur, la rédaction automatisée d’articles factuels sans valeur ajoutée éditoriale, et enfin l’investigation soutenue par la collecte et l’analyse de données pertinentes. À l’issue de cet article entièrement rédigé par un humain, on s’accordera sur un point : l’IA est une alliée pour la presse et les journalistes !

Le mythe du journalisme numérique déshumanisé et dématérialisé

L’intelligence artificielle nourrit un grand nombre de mythes et de légendes urbaines largement inspirés par une sorte de sophisme enrobé de truisme paralysant. Les capacités des algorithmes et plus largement de l’IA sont très souvent surestimées pour ne pas dire déformées. Le journalisme n’échappe pas non plus à ces nombreux a priori. L’IA ne remplacera jamais le journaliste et ne lui fera jamais perdre le sens profond de son métier. Au contraire, elle lui donne les clés pour l’assister et rassembler son énergie et ses compétences autour de tâches nobles.

Le journalisme numérique n’est en aucun cas déshumanisé, mais au contraire met en avant les qualités humaines d’un bon journaliste : la curiosité, la surprise, le style éditorial, l’analyse fine des raisonnements humains, la confiance chez les autres, ou encore l’empathie. Le devenir du journalisme est aussi une question de choix culturels. En effet, même si certains pays envisagent déjà de robotiser le présentateur télévisuel d’actualités, on est loin d’une adoption universelle de ce genre de pratiques. Mais envisager le potentiel positif d’une certaine « numérisation du journalisme » est une bonne chose pour permettre d’en dégager les bénéfices rapidement et de manière durable pour les équipes de rédaction et de reporters.

Les trois piliers de développement : Rédaction, Investigation et Consommation

Trois piliers se dégagent des actions de l’IA sur le journalisme. Ces domaines n’ont bien évidemment pas le même niveau de maturité technologique et d’adoption, mais leur compréhension par tous les journalistes peut en améliorer significativement leur utilisation.

1La consommation personnalisée

Depuis de nombreuses années déjà, les journaux et les magazines utilisent leurs sites web intelligemment architecturés comme des capteurs à grande échelle des comportements de leurs lecteurs exigeants afin de leur proposer du contenu personnalisé. Ce pilier est sûrement le plus avancé aujourd’hui technologiquement et aussi en termes d’usage. On peut mesurer la popularité d’articles par le nombre de clics, de « like », de partage ou encore par le nombre et le contenu des commentaires. On peut également établir de façon explicite ou par des techniques d’apprentissage une classification des profils de lecteurs pour mieux identifier leurs goûts et leurs attentes. Enfin les algorithmes de captologie permettent de diriger plus finement un lecteur vers un article qui a de fortes chances de lui plaire, ou encore d’allonger son temps passé à lire les contenus du journal.

2La rédaction automatisée de contenus factuels

Même si rien ne remplacera la plume d’un humain de chair et d’os, il existe du contenu éditorial qui ne nécessite aucune sensibilité humaine dans la description des faits. C’est le cas de la description factuelle des actualités sportives, de la météo ou encore des tendances de la Bourse. Chez Bloomberg par exemple, des scientifiques et développeurs travaillent en étroite collaboration avec des journalistes économiques pour construire des modèles et des algorithmes capables de capter les signaux révélateurs dans les flux officiels de données et de générer un article factuel d’un titre et d’une ou deux phrases décrivant l’évolution d’une grandeur. Cet article automatisé permet de capter plus rapidement et en premier l’intérêt du lecteur, mais aussi et surtout de laisser plus de temps au journaliste d’écrire un article de fond et d’analyse sur le phénomène observé. Le nombre de lectures de l’article du journaliste économique s’en trouve augmenté par une publication automatique anticipée du fait économique ou financier.

3L’investigation efficace et réalisable par la data

Le film Spotlight (2015) retrace l’histoire réelle d’un groupe de journalistes atypiques du journal Américain The Boston Globe, qui investigua et résolut l’une des plus grandes histoires de pédophilie de l’église catholique et ce, grâce à la data. C’est en particulier le journaliste analytique autodidacte Matt Carroll qui réussit, aidé de son équipe, à relier les différentes affaires en croisant les profils des victimes et des possibles suspects. Cette histoire est exemplaire dans l’utilisation des données pour une investigation efficace et parfois rendue possible par la voie analytique. L’augmentation toujours grandissante de la puissance de calcul et de la performance des algorithmes va permettre de collecter et de traiter encore plus rapidement des données de plus grande taille. Les outils numériques et analytiques valorisent fortement le travail du journaliste qui se concentrera sur des interviews et des échanges privilégiés avec des individus mieux identifiés.

Où en sommes-nous et comment faire ?

Il existe des journaux tels que le New York Times et le Washington Post qui utilisent déjà des algorithmes avancés pour présélectionner des unes, recommander efficacement des articles ou produire du contenu rédactionnel sans valeur ajoutée éditoriale. La presse française, de son côté, a entamé depuis quelques années une transformation digitale profonde par la construction et l’utilisation ingénieuse de plateformes web lui permettant d’attirer et de retenir ses lecteurs ainsi que de mesurer leur niveau de satisfaction. Cela étant dit, il reste un domaine encore largement sous-exploité qui est l’usage de la data dans l’investigation et la rédaction automatisée. Ce changement de paradigme se réalisera par une collaboration étroite et proactive entre les gens de lettres et ceux des chiffres et des bits. La culture journalistique va se modeler en conséquence. Bientôt les CTO et CIO des grands journaux, comme Sacha Morard (Le Monde), encore méconnus du grand public et du milieu journalistique, deviendront des stars et des alliés forts des directeurs de rédaction et de journaux.

Il est fondamental, pour ne pas dire indispensable, que la presse saisisse l’ensemble des opportunités des technologies numériques et analytiques pour transformer ses métiers. Sans cela, les journaux et magazines verront surement leurs influences et leurs impacts diminuer pour ne pas dire disparaître. Du reste, cette nouvelle est une bonne chose pour la presse : même si elle ne peut pas échapper à cette transformation pour survivre, elle ne gagnera pas non plus en ayant les meilleurs outils d’IA. Au contraire, la différence entre les journaux s’inscrira dans la qualité éditoriale, des analyses et des enquêtes approfondies et intelligemment articulées. Écrit autrement, l’intelligence artificielle va permettre de revenir aux origines même du journalisme de qualité, et de soutenir ces vrais génies du verbe et de l’information !

Black Mirror, saison 5 : découvrez les bandes-annonces

Par Barbara Chazelle, France Télévisions, MediaLab et Prospective

Parler du futur n’est pas simple. La fiction est sans doute le genre qui permet le mieux de s’y projeter ou du moins d’y réfléchir. C’est l’ambition de la série Black Mirror qui interroge notre rapport aux technologies et ses conséquences dans un futur proche, voire immédiat.

La saison 5, dans laquelle apparaissent Miley Cyrus, Anthony Mackie (Captain America : Civil War), Andrew Scott (Sherlock) ou encore Damson Idris (Snowfallsort le 5 juin sur Netflix. En attendant, voici les bandes-annonces des trois épisodes indépendants de la saison. Et si ce n’est pas déjà fait, vous pouvez toujours regarder Bandersnatch, un épisode interactif où le spectateur décide du déroulé du récit. 

Smithereens

Un chauffeur de taxi accro à une application de méditation devient le centre de toutes les attentions.

Rachel, Jack and Ashley, Too

Une adolescente communique avec sa pop star préférée grâce à une poupée robot.

Striking Vipers

Deux amis de l’université se retrouvent plus tard dans la vie, déclenchant une série d’événements qui pourraient chambouler leur existance.

Faire du journalisme à l’ère des fake news : leçons du Brésil

Par Marcos Barros, professeur associé de Grenoble Ecole de Management (GEM). Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. 

Peut-on encore faire correctement son métier de journaliste dans des états influencés par une idéologie populiste ? L’attaque d’un cameraman de la BBC par un partisan de Donald Trump à El Paso (Texas) en février 2019, l’attaque de journalistes à Rome par des militants d’extrême droite en janvier, l’impossibilité pour les journalistes de couvrir les événements au Cachemire, permettent d’en douter.

Dans le rapport RSF Index 2018, l’ONG Reporters sans frontières soulignait à quel point les médias étaient confrontés à une « rhétorique anti-média » constante émanant des hommes politiques et répandue dans le monde entier. Avec de telles attaques, les stratèges politiques d’extrême droite tels que Steve Bannon cherchent à discréditer les médias légitimes et à mettre en avant les médias sociaux – là où les « informations » peuvent plus facilement échapper à un contrôle éditorial et à la responsabilisation – pour devenir la principale source d’informations pour le public.

Les médias traditionnels ne sont bien sûr pas irréprochables – les cas de reportages biaisés ou d’informations non vérifiées sont légion, en particulier avec la concentration croissante des médias ainsi que des relations politiques et commerciales douteuses dans des pays tels que le Brésil, la France, l’Australie, entre autres.

Néanmoins, les tendances montrent que les principales victimes de la violence à l’encontre des médias sont les journalistes qui couvrent les faits politiques racistes ou xénophobes. Certains hommes politiques les ciblent systématiquement en tant que porteurs de « fake news ». Le Brésil a maintenant emboîté le pas de cette pratique avec ses propres dirigeants populistes.

Dans ce contexte, comment les journalistes et les professionnels des médias peuvent-ils renouer avec la confiance et leur image d’objectivité ? Dans une étude récente, nous avons examiné un groupe de journalistes brésiliens qui s’efforçaient d’échapper aux restrictions imposées par les médias traditionnels et de créer une nouvelle identité pour les journalistes. Ils sont devenus des blogueurs dans une ère pré-Bolsonaro et leur expérience unique peut être instructive pour les autres.

Les blogueurs brésiliens s’insurgent

Selon de nombreux articles, postes de journalistes brésiliens, leur accession à l’indépendance a commencé par la couverture biaisée et parfois ouvertement fausse de la candidate à l’élection présidentielle Dilma Rousseff, ancienne secrétaire d’État de Lula. Un exemple célèbre est le cas d’un prétendu casier judiciaire : au cours de la campagne, Folha de São Paulo, l’un des plus grands journaux nationaux du Brésil, a publié les registres de Dilma datant de la période du régime militaire brésilien. En fin de compte, il a été découvert que la « preuve » était un faux provenant d’un spam.

Fin 2006, alors que Dilma Rousseff venait de remporter les élections contre José Serra, le candidat de droite favori des médias, les journalistes ont décidé d’accroître leur présence en ligne pour promouvoir une perspective différente du journalisme.

Ce mouvement a été principalement initié par quatre journalistes qui ont abandonné ou ont été exclus des médias traditionnels après les élections de 2006 : Luis Nassif, Luiz Carlos Azenha, Rodrigo Vianna et Paulo Henrique Amorim. Leurs blogs s’appelaient respectivement « Luis Nassif Online », « Viomundo », « Escrevinhador » et « Conversa Afiada ».

Ils défendaient des valeurs différentes de celles prétendument défendues par les principaux organes de presse, souvent liés aux politiciens de droite et soutenus par une publicité payée par le gouvernement. Les blogs étaient des propriétés privées et dépendaient de dons et de bannières publicitaires, qui ont finalement été abandonnées par certains blogs pour laisser entendre qu’ils étaient indépendants des intérêts économiques.

La découverte de relations malsaines

Les journalistes indépendants ont adopté une tradition de journalisme critique, révélant des relations de pouvoir dans le journalisme où ceux qui détiennent les médias nationaux. Selon le rapport de Reporters sans frontières, les médias au Brésil sont possédés par « une dizaine de grandes entreprises » appartenant à quelques familles. Ils distribuent les informations dans tous les points de vente d’un pays de plus de 200 millions d’habitants, ainsi que des médias internationaux.

Les blogueurs ont également réinventé les pratiques des journalistes et tiré parti du libre accès et des outils participatifs des médias sociaux. Par exemple, beaucoup de ces blogueurs ont commencé à afficher ouvertement le processus de fabrication de l’information. Ils déconstruisaient la manière dont les médias traditionnels cachaient les manipulations et les biais sous l’apparence d’un journalisme soi-disant « objectif et neutre ».

Les blogueurs progressistes ont également invité les utilisateurs à suivre les étapes au fil des enquêtes et à assister à la création de rapports journalistiques. Le blog piloté par le journaliste Luis Nassif affichait un pavé graphique dédié intitulé « en observation » pour des histoires qui méritaient l’attention du public mais ne disposaient pas encore de preuves suffisantes pour garantir leur véracité. Les journalistes ont également invité les lecteurs à publier des vidéos et des images susceptibles de prouver ou d’infirmer leurs propos. Un cas concernait un candidat de droite qui affirmait avoir été frappé et blessé par un « objet contondant ». Des vidéos ont prouvé que l’objet était en fait une petite boule de papier.

L’incitation aux commentaires

Une autre pratique des blogs consistait à inciter les lecteurs à s’engager dans le processus de production d’informations en republiant leurs commentaires en renforçant ou en critiquant un article d’actualité original. Il s’agissait d’une pratique répandue, certains utilisateurs affirmant que leurs commentaires critiques étaient bloqués et d’autres suggérant la présence de trolls rémunérés.

Ces trolls étaient constamment dénoncés et confrontés par les utilisateurs eux-mêmes. Tous les blogs de journalistes ont consacré une rubrique dédiée aux utilisateurs, comme « Outras palavras » (En d’autres termes) et « Você escreve » (Vous écrivez).

Avec ces pratiques, les blogueurs progressistes ont essayé de créer une nouvelle façon de faire de l’information. Alors que le discours sur les « fake news » n’était pas aussi présent qu’aujourd’hui, leurs efforts suggèrent que certaines réponses existent déjà. Certains ont été reproduits par certains journalistes travaillant aujourd’hui pendant que d’autres évoluent encore sous le radar.

Ces journalistes continuent toujours leur travail de pionnier. Azenha et Amorim entretiennent leurs blogs, tandis que Vianna est hébergée par un magazine alternatif et que Nassif a créé sa propre agence de presse. Néanmoins, ils ont tous été davantage marginalisés par la surveillance accrue et le harcèlement des militants de droite et de leurs trolls, et par la dépendance croissante à l’égard du soutien financier de leur public.

Une réponse à l’attaque mondiale contre la légitimité des journalistes pourrait donc consister à ouvrir le processus d’information pour aider les publics actuels à comprendre, contribuer et reconnaître à nouveau l’importance et la force du vrai journalisme.

 

Version également disponible en français sur The Conversation.

Photo de Une : Anna Kapustina via Pexels

The Conversation