Au sommet mondial ChangeNOW, un nouveau standard de technologie écoresponsable
Par Diana Liu, France Télévisions, MediaLab
ChangeNOW, le plus grand sommet mondial sur l’innovation environnementale et sociétale, a rassemblé début février à Paris des entrepreneurs, décideurs et directeurs venus de France et du monde entier. Pour cette édition 2020, organisée au Grand Palais, l’ambiance était à la fois optimiste et emplie d’une sensation d’urgence. Selon les dirigeants présents sur place, c’est à l’Europe de relever le défi ultime : établir un nouveau standard d’innovation technologique écoresponsable et engagée, inspirée par les Sustainable Development Goals des Nations Unis. Pour y parvenir, trois étapes clés : prendre position sur les enjeux sociétaux et environnementaux, prototyper de nouvelles solutions, et donner à tous les moyens d’être acteur des changements à fort impact.
Prendre position sur les enjeux sociétaux et environnementaux
« L’Europe est en train de perdre la bataille technologique », affirme André Loesekrug-Pietri, directeur de J.E.D.I. (Joint European Disruptive Initiative). « Où est le leadership européen dans l’IA ? Dans les ordinateurs quantiques ? Les semi-conducteurs ? Les deepfakes ? Le cloud ? » Face à la puissance des États-Unis et de la Chine, il appelle à « une voie européenne », une approche collaborative que l’Europe devrait adopter sur ces sujets. « Nous avons une opportunité incroyable pour définir les grands enjeux sociétaux et les nouvelles frontières où nous pouvons avoir de l’impact. »
Ces enjeux sont à la fois environnementaux, sociétaux et politiques, notamment dans la manière dont la technologie engage directement la société civile. Face à l’essor de la désinformation, il s’agit de prendre des décisions politiques. « Devant des États autoritaires qui instrumentalisent la technologie pour des objectifs politiques puissants […] nos démocraties devront également faire preuve de rapidité, d’audace et d’excellence. » La crise à laquelle notre monde est confronté est autant climatique que démocratique — à l’Europe de prendre les devants.
Crédit photo : Diana Liu
Prototyper de nouvelles solutions pratiques et durables
Quelles innovations pour répondre à ces enjeux socio-environnementaux ? On en trouve dans les logiciels, la recherche, le cloud computing — et les start-ups françaises. Eneric Lopez, directeur de l’IA chez Microsoft, met en avant les actions de l’entreprise dans les domaines de l’environnement et de l’éthique. « Nous avançons vers 100 % des énergies renouvelables, tout en réduisant nos émissions de carbone et en travaillant sur des nouvelles technologies de captation de carbone. » Microsoft défend son modèle économique qui n’est pas basé sur « …la monétisation des données » mais plutôt sur une technologie qui donne le pouvoir aux gens et aux organisations, quel que soit le secteur.
Jonathan Petit, Data scientist à la société Avanade France, prône une approche du cloud computing basée sur la sobriété et la prise en compte des effets négatifs que produit la technologie. « Nous mesurons l’impact d’un projet, comme la pollution, l’énergie dépensée, pour tester un produit ».
Pour Kat Borlongan, directrice de La French Tech, ces nouvelles solutions nécessitent avant tout un écosystème d’innovation fort pour bien démarrer et faire évoluer des idées. « La France doit devenir un des meilleurs endroits pour le devenir technologique. L’impact et la croissance économique ne doivent pas être considérés comme contradictoires, même si cela a souvent été le cas en France. »
Donner les moyens à tous d’être acteur des changements à fort impact
Un enjeu clé dans le secteur de la technologie reste le manque de diversité et d’inclusion socio-économique, une problématique davantage mise en exergue dans des initiatives responsables et engagées. Kat Borlongan décrit les efforts de la French Tech pour ouvrir le secteur aux talents : « Nous identifions des candidats talentueux de tous horizons et leur mettons à disposition des ressources pour développer leurs projets de création de start-up. »
Thomas Landrain, président du laboratoire et de la plateforme de recherche et d’innovation JOGL, souligne également l’importance de reconnaître que l’on ne peut pas tout résoudre avec une start-up. Néanmoins, on peut donner à chacun la possibilité de s’engager dans la résolution de problèmes locaux et globaux. « Il y a beaucoup de ressources scientifiques disponibles qui devraient être considérées comme des biens communs, car elles peuvent faciliter le développement de nouvelles technologies et la création de prototypes. » Le développement durable technologique, c’est aussi partager et démocratiser les moyens d’agir.
Face aux challenges climatiques actuels et le sentiment croissant de “techlash”, les acteurs de la tech se confrontent au besoin de tracer une nouvelle voie. Les leaders présents à ChangeNOW envisagent une technologie basée sur des valeurs environnementales et démocratiques qui donnerait naissance à des solutions pratiques, durables et inclusives. 500 milliards de dollars sont investis chaque année dans le positive impact, soit 1 des capitaux totaux investis chaque année dans le monde, l’objectif étant de contribuer à sa croissance chaque année. Un objectif qui devrait pousser la tech européenne à agir plus vite et avec plus d’audace.
Crédit photo : Day Taylor – ChangeNOW
Confession d’un DA : « les ogres, c’est nous ! »
Par Franck Parisis, graphiste senior, France Télévisions
En 2020, nous sommes en permanence sollicités par des images. Nous vivons dans un monde d’images, celui des écrans de nos téléphones, des sites web, des réseaux sociaux, des télévisions. Tout est devenu image. Et le rythme de renouvellement est effréné. Une image fait le «buzz» pendant 20 minutes sur twitter. Autant dire une éternité.
Internet, ce « vaste supermarché de l’image »
Les codes graphiques se suivent (ronds, carrés, triangles), se juxtaposent. Ils nous conditionnent. Chacun désire se distinguer de l’autre, du concurrent par une identité visuelle différente. Il existe même des supermarchés de l’image comme pinterest. Faire une veille graphique se traduit par une simple recherche thématique sur pinterest. C’est devenu un quasi réflexe chez certains.
Comment répondre à notre boulimie d’images ? Comment être créatif du matin au soir ? En se rendant au nouveau supermarché de l’image : internet.
C’est en évoquant un supermarché que se pose la question du choix. Qui choisit ? Un humain, un algorithme par récurrence, par empilement de posts ?Ne sommes-nous pas face aux prémices d’un nivellement par le bas de la créativité ?
Je prends sur pinterest l’image d’un autre qui me semble originale afin de créer ma propre image. Cette même image, mais un peu différente, je la poste poste ensuite sur pinterest.
Je veux découvrir une ville lointaine ? Je consulte les posts de googlemap. En voyage ? Je poste mes photos pour qu’un autre puisse se les approprier.
Je dévore la chair de l’autre pour nourrir ma propre chair. A l’image de Saturne qui dévore ses enfants, je dévore mon propre potentiel créatif.
Crédit photo : Portrait, tous droits réservés
Vers un « taylorisme graphique » ?
Bien sûr, il y a des points positifs. Pour faire face à la demande, il faut plus de graphistes, et des compétences de plus en plus variées (2D,3D, web, vidéo). Mais en contrepartie, l’usinage fait son apparition : « le taylorisme graphique ». Certaines entreprises graphiques ont constitué de vraies chaînes de fabrication, provoquant une inévitable perte de compétences afin de combler des impératifs de productivité.
Je suis conscient que mon univers graphique est la somme d’influences et d’images des autres. Copier et travailler sur cette copie, c’est déjà imprimer ma marque.Le « corpus » n’a pas changé. Les éditeurs d’hier se nomment aujourd’hui pinterest, instagram et autres.
Mais le temps de « digestion » a changé.
J’évoque ici l’appropriation des éléments des autres (picto ou tout autre élément graphique – photographies, animations) disponible sur pinterest, flaticon et autres, en insérant sans aucune altération de ma part ces objet visuels sur mes moodboards en ligne.
Addiction vs créativité
Je ne me rends plus sur ces sites. Ils finissent par « dévorer » mon libre arbitre, ma créativité. De voir toutes ces « belles » images (alléchantes comme des gâteaux d’une pâtisserie), cela finit par provoquer chez moi, une sorte d’inhibition de l’action.
Cela ne signifie pas que j’abhorre Internet, pas du tout, la question n’est pas là. Mais plutôt, comment puis-je m’en accommoder ?Comment calmer cette boulimie et son caractère chronophage ?
En l’espace de trois décennies, ce qui était rare – l’iconographie, les caractères typographiques, la production des autres – est devenue pléthorique. Et voilà que d’un coup, l’inaccessible devient accessible. Partout. Sur tous les supoorts, toujours plus immédiat. Je me suis transformé en fumeur d’opium.
Puis, la descente, le retour à la réalité. Je ne produis plus autant. Je deviens plus spectateur qu’acteur.
La contemplation fait partie de mon métier, observer, analyser, reproduire et embellir. Mais c’est une espèce d’aphasie qui s’est développée en moi, qui grossit et grandit. Je suis devenu un Lotophage.
Le déclic ? Un récent déménagement. Mon nouvel appartement n’était pas connecté. Une phase de sevrage a commencé. Retour au précieux et au rare. Une prise de conscience de la consommation des images. Fini les alertes sur mon iPhone, les visites ponctuelles sur catsuka. Grâce au wifi du coin de la rue, je vogue lentement vers un usage raisonné d’internet. Le temps ainsi gagné est consacré à la redécouverte du plaisir de faire.
Aujourd’hui, tel un ancien alcoolique, je considère qu’il s’agit ni plus ni moins d’un outil et non d’une fin (faim ?) en soi. A ce titre, il me parait salutaire de garder mes distances.
J’en conclus aussi que sans m’en rendre compte, je suis devenu un consommateur insatisfait, impuissant face à des manipulations marketing, relégué à l’état d’animal consumériste qui tente de répondre à des besoins pulsionnels. Pulsions entretenues par ce système toxique qu’est devenu internet, une sorte de « Big Mac de l’âme » : un cocktail détonnant de graisse et de sucre qui provoque une explosion d’endorphines mais qui ne comblera jamais ma faim, tout en forgeant une addiction.
Crédit photo : Theme Photos – Unsplash
Liens vagabonds : le coronavirus affole les réseaux sociaux et le monde de la tech
TikTok’s Chinese sister app #Douyin has launched a #FightPneumonia page, which provides updates on the spread of the coronavirus, expert reports and analysis, as well as relevant information on prevention. pic.twitter.com/4AJZgLy4MS
Royaume-Uni & Huawei : Malgré la pression américaine, les Britanniques donnent un feu vert à Huaweipour équiper certaines parties des réseaux de la 5G. La part de l’entreprise sur le nouveau marché sera plafonnée à 35 %,et elle sera exclue des sites centraux et sensibles du réseau de télécommunications. L’Union européenne, elle aussi, ne ferme pas complètement la porte à Huawei,mais a publié des recommandations sur la sécurité des réseaux 5G afin de se protéger contre les risques.
[Etude] En 2020, les professionnels misent sur le marché des lecteurs
Par Laure Delmoly, France Télévisions, MediaLab
Selon le Journalism, Media, Technology Trends and predictions 2020 (Reuters Institute) basé sur un panel de 233 professionnels interrogés dans 32 pays entre novembre et décembre 2019, 73% des sondés ont confiance dans l’avenir de leur entreprise. 50% d’entre eux misent sur le marché des lecteurs et se disent prêts à faire évoluer leur approche éditoriale, marketing et produit pour défendre un journalisme de qualité.
Défendre un journalisme de qualité
Les professionnels ont confiance dans l’avenir de leur entreprise, moins dans celui de leur métier. Et pour cause, le déclin de l’information locale et la crise de confiance envers les journalistes sont des préoccupations majeures. Les professionnels des médias ont conscience qu’ils sont les seuls à pouvoir défendre un journalisme de qualité.
Pour les éditeurs, les plateformes sociales ne font pas assez d’efforts pour défendre le journalisme, mis à part google (60%) via son Fond d’Innovation (DNI ou GNI) et twitter (33%). Les professionnels sont particulièrement cyniques en ce qui concerne les efforts de Facebook dont la stratégie produit peu lisible les a clairement mis en situation de vulnérabilité ces dernières années.
Quid d’une intervention des pouvoirs publics pour tenter rééquilibrer ce rapport de force ? 56% des répondants considèrent qu’une régulation serait peu efficace. 25% considèrent même que celle-ci serait plutôt néfaste pour la profession.
Lutter contre la désinformation
La plupart des médias ont intégré le fact-checking dans leur travail journalistique. Une lutte jugée nécessaire par la majorité des répondants (85%) mais peut-être un peu vaine. En effet, les entretiens et débats télévisés sont de moins en moins regardés. Les politiques ont tendance à décliner les invitations des médias traditionnels et à utiliser les réseaux sociaux pour faire passer directement leur message.
Une nouvelle stratégie, inventée par Donald Trump, et adoptée par certains politiciens comme Jair Bolsonaro au Brésil, Boris Johnson en Grande-Bretagne et Narendra Modi en Inde. Triste constat pour les journalistes qui se disent inquiets de consacrer autant de ressources éditoriales au fact-checking alors que celles-ci pourraient être affectées ailleurs.
« Nous avons clairement besoin de fact-checking. Mais nous avons également besoin de contenus qui traitent de la volonté politique, de ce qui pourrait marcher, de ce qui pourrait faire la différence. Sans cela, notre public continuera à se désengager de la sphère politique »
Mary Hockaday, BBC World Service.
Les élections 2020 constitueront un énorme terrain de jeu pour les fabricants de fake news (via notamment des logiciels IA).Les éditeurs estiment que les plateformes n’ont pas encore totalement pris la mesure de leur responsabilité dans ce domaine.
41% des répondants considèrent que les actions de twitter pour lutter contre la désinformation sont les plus significatives (notamment celle d’interdire toute forme de publicité politique). Google est jugé efficace par 34% des répondants (avec une modification d’algorithme qui privilégie désormais les contenus issus d’enquêtes et du journalisme local). En revanche, les efforts de youTube et Facebook sont clairement jugés insuffisants.
A noter que dans un contexte de flou juridique, les plateformes sociales sont de plus en plus amenées à prendre des décisions éditoriales sur les contenus qu’elles hébergent.
Miser sur le marché des lecteurs
La moitié des éditeurs (50%) considèrent que le revenu issu des lecteurs sera le modèle économique le plus prometteur dans la prochaine décennie. 35% d’entre eux considèrent que le revenu issu des lecteurs et la publicité seront les deux modèles les plus viables tandis que seulement 14% misent sur le modèle publicitaire uniquement.
Les médias qui misent déjà sur un journalisme de qualité subventionné par les lecteurs sont extrêmement confiants dans l’avenir de leur business. Le New York Times possède ainsi 4,9 millions d’abonnés numérique et papier, le Financial Times 1 million d’abonnés et le Guardian est revenu à un modèle économique rentable après des années plus que difficiles.
Fort de son succès, ce modèle économique initié par les pays anglo-saxons et scandinaves, est désormais adopté par les pays d’Europe du Sud. En Espagne, El Mundo a déjà lancé son modèle premium, suivi de El Pais début 2020.
Lancer des formats audio
Une audience qui ne cesse d’augmenter, des métriques enfin pertinentes et de nombreuses plateformes de distribution : le marché de l’audio en ligne est en pleine mutation. Les professionnels, et particulièrement ceux de la presse en ligne, voient dans le format audio la possibilité d’aller chercher un public plus jeune, de construire des habitudes de consommation et d’obtenir des revenus supplémentaires.
53% des répondants affirment qu’ils lanceront des formats podcasts cette année. Le succès du Daily, le podcast quotidien d’actu du New York Times – et l’intérêt des annonceurs pour celui-ci – est encourageant pour les professionnels. Les chercheurs du Reuters Institute ont identifié 60 podcasts quotidiens d’actu dans 5 pays, dont la majorité ont été lancés il y a moins de 18 mois. A Londres, le podcast quotidien d’actu du Times est prévu pour début 2020. A Paris, Le Monde a lancé récemment sont offre podcast issue notamment d’enquêtes politiques.
A défaut, les autres éditeurs explorent des solutions techniques permettant de transformer des articles écrits en format audio. Au Canada, le Globe and Mail utilise Amazon Polly, un service text-to-speech qui permet aux abonnés d’écouter une sélection d’articles en anglais, en français et en mandarin.
53% des répondants déclarent que les solutions IA de recommandation de contenus constituent un axe essentiel de leur stratégie, suivis par les solutions de ciblage de futurs utilisateurs (47%), et par les le doublage ou le taggage (39%).
A noter, les éditeurs font clairement la différence entre les utilisations éditoriales et non éditoriales de l’IA. Seulement 12% des répondants croient aux solutions de « robojournalisme » et 16 % aux solutions de « récolte d’information ».
Pour les journalistes, l’IA est très utile pour la transcription mais elle n’est clairement pas en mesure d’écrire des histoires. La stratégie de communication duTimes est très claire sur ce sujet « Written by humans, curated by humans, distributed by robots ».
Les médias misent principalement sur la mise en place de frontpage pilotées par l’IA.L’éditeur Schibsted en Scandinavie a ainsi mis en place une frontpage semi-automatisée pour ses titres Aftenposten et VG. L’objectif : libérer du temps aux éditeurs frontpage afin que ceux-ci se consacrent à des tâches plus créatives.
L’IA est jugée intéressante pour la traduction de contenu. La BBC a ainsi relancé son service video en japonais avec un coût humain minimal grâce à l’IA. D’un point de vue éditorial, les solutions IA sont utilisées par les agences de presse pour du rédactionnel technique : sport et finance.
Les tendances pour 2020
Les grandes tendances pour 2020 ? Les médias mettront en place des stratégies marketing offensives de logg in afin d’obtenir des données utilisateurs suffisantes malgré la loi sur les données personnelles et les récentes mesures sur les cookies tiers des navigateurs.
Les éditeurs opteront également pour des stratégies d’alliance afin de capitaliser sur les bénéfices de plateformes communes en terme de tech, données et ad tech. A venir, des partenariats produits également afin de proposer des offres de qualité adaptés aux usages : réseaux sociaux et marché de l’audio.
Côté marché des lecteurs, le modèle paywall flexible, modèle inspiré des pays anglo-saxons est la nouvelle norme. Les médias passent en freemium sur les principaux événements d’actualité. La plupart ont su développé un système de membership en offrant la possibilité d’étendre l’expérience à des services sur-mesure : conférences ou événements VIP.
Durant les périodes électorales, les professionnels des médias devront faire face à des campagnes coordonnées de désinformation de la part des politiques et autres partisans. Ils devront porter une attention particulière aux groupes fermés Facebook et Whatsapp qui seront très utilisés par les propagateurs de fake news.
Les plateformes sociales lanceront leur « offre media » de news sélectionnées et vérifiées. Cette stratégie sera-t-elle payante ? Les chercheurs du Reuters considèrent que l’expérience utilisateur en terme de news sur les réseaux sociaux relève davantage d’un « incident de parcours » que d’une volonté délibérée d’aller s’informer sur ces plateformes. Changer ce comportement utilisateur s’avérera sûrement difficile.
Connaître ses utilisateurs et innover
Les professionnels doivent être patients et accepter que l’on a changé de paradigme. Les grandes heures du broadcast et de la presse écrite sont révolues. Ceux qui veulent défendre un journalisme de qualité ont encore la possibilité de le faire. Des leviers d’action sont possibles à condition de bien s’entourer et de travailler au sein d’équipes multidisciplinaires.
Le marché des lecteurs constituera une réelle opportunité pour les éditeurs qui sauront proposer des produits adaptés aux différents besoins des lecteurs les plus fidèles. Pour se faire, il faudra s’armer de patience. Ceci n’est pas un sprint mais un marathon.
Crédit photo : Unsplash
L’avenir de la robotique sociale : assistance ou surveillance ?
Par Julien De Sanctis, doctorant CIFRE en philosophie et éthique des techniques à l’Université de Technologie de Compiègne (UTC). Billet originellement publié sur The Conversation et republié sur Méta-Media avec autorisation.
A l’heure où les robots sociaux se cherchent une place au sein de nos foyers, il est tentant pour les entreprises qui les développent de miser sur un modèle économique basé sur l’aspiration de nos données personnelles les plus intimes. Ce « dataterminisme » est-il compatible avec la notion d’éthique indispensable à nos sociétés démocratiques ?
Vers un « dataterminisme »
Comme le révèlent les faillites dans le secteur, le robot social peine à trouver sa raison d’être et son modèle économique en dehors des laboratoires. L’innovation étant aujourd’hui en grande partie darwiniste, le marché fait face à des offres de « solutions » pour lesquelles il n’existe pas encore de problème. Or, quel est aujourd’hui le critère de « sélection artificielle » sur le marché numérique ? Les données.
Rien de tel, donc, qu’un produit collecteur de données pour assurer sa sélection sur le marché. Je nomme cette mécanique « dataterminisme » car, malgré le caractère illusoire du déterminisme technologique, le matraquage technocapitaliste en matière dataïste, tant en actes techniques et financiers qu’en paroles, obstrue le champ des possibles. L’idéologie selon laquelle il n’est point de salut en dehors de la donnée est ainsi renforcée.
Dans le sillage des enceintes connectées
Lesenceintes connectéestémoignent à cet égard d’une réussite assez stupéfiante. Elles ne diffèrent pourtant pas tellement de tous les robots sociaux de type « compagnons » domotiques qui échouent sur le marché. Des deux côtés, il s’agit à la fois d’exporter des fonctions à faible valeur ajoutée, car déjà disponibles sur d’autres dispositifs portables comme les téléphones, et de proposer à l’utilisateur une nouvelle modalité d’interactions homme-machine (IHM) dévaluant la main au profit de la voix. Dès lors, comment expliquer le succès des unes et l’échec des autres ?
La percée des enceintes connectées tient probablement à un fort effet de marque (Google, Amazon, Apple) et à une relative simplicité technique rendant leurs prix « abordables ». Mais à leur réussite commerciale s’ajoute une double réussite stratégique : l’accès aux nouveaux filons d’extraction de données que sont la vie de foyer et la voix en elle-même. C’est que notre voix, en quelque sorte, parle à notre insu : de la propension à payer le loyer en retard au risque de faire une crise cardiaque, en passant par notre santé mentale. Le marché de l’extraction de données vocales attire ainsi un nombre croissant d’entreprises…
Des effets à ne pas négliger
Le passage d’IHM manuelles à des IHM vocales est loin d’être insignifiant, car il marque l’émergence d’artefacts capables de convoquer le registre général de lasentience(capacité d’avoir des expériences vécues) comme le bébé phoqueParoou le dinosaurePleo, ou celui, plus anthropocentré, de la subjectivité, avec des robots comme Spoon, NAO ou encore Pepper.
Les conséquences éthiques de ces phénomènes qu’on peut qualifier de psychotechniques ne sauraient être négligées. En effet, la capacité des robots sociaux à stimuler notre empathie et à générer des émotions est désormais bien connue. Mais alors que le pouvoir de persuasion des robots est un sujet d’étude émergent, que de nombreux acteurs du numérique usent (et abusent) de nos biais cognitifs pour maximiser le temps que nous consacrons à leurs services, il semble plus qu’opportun de questionner le positionnement à venir des sociobots sur le marché.
Quand l’expérience devient fonction
Aujourd’hui plus que jamais, l’UX design (ouuser experienceDesign) met en tension le couple fonction/expérience. En pratique, la seconde n’existe pas que pour servir la première, comme le montre l’exemple des enceintes connectées. Leur fonction, on l’a vu, n’a que peu de valeur ajoutée. Leur intérêt semble plutôt procéder de l’expérience d’utilisation, à savoir de l’interaction verbale.
Ce n’est donc pas tant ce qu’elles font, que la façon dont elles le font, qui est important. De là à dire que l’expérience d’utilisation devient la fonction de l’objet, il n’y a qu’un pas que certains robots sociaux franchissent. C’est le cas, par exemple, de Paro et de Lovot dont la fonction n’est pas de réaliser quoi que ce soit, mais de faire acte de présence, de divertir, de rassurer et/ou de générer des émotions positives comme de l’attachement. Leur fonction se déploie dans et par l’expérience, ce qui revient à dire qu’elle est l’expérience. La question est : à quels intérêts l’expérience générée est-elle soumise ?
Donner au numérique une ampleur suffisante
Ces dernières années, les technologies de captation de données ont grandement profité des investissements massifs dans l’intelligence artificielle. Or, le capitalisme dataïste a tout intérêt à étendre son périmètre de captation à la moindre parcelle d’existence pour maximiser le nombre et la diversité des données récoltées. Les technologies du numérique ne se contentent donc pas de nous accompagner le long d’un continuum assurés par nos extensions techniques (portables, tablettes, objets connectés en tout genre), elles génèrent une part importante des expériences qui donnent corps à ce continuum.
La stratégie dataterministe est donc double : numériser les expériences jusqu’ici non numériques, à l’instar de la course à pied, et créer de nouvelles expériences dont la source est le numérique lui-même, depuis les innombrables sites de e-commerce jusqu’aux jeux en ligne en passant par les réseaux sociaux. En clair, il s’agit de donner au numérique l’ampleur suffisante pour qu’il devienne un substrat, une matrice conditionnant un maximum d’expériences alimentant la datagenèse.
Une captation de l’intimité sans précédent
Les robots sociaux possèdent des atouts substantiels pour réaliser cette double stratégie, notamment celui de numériser et donc de « dataïser » notre vie sociale hors-ligne. Et l’on peut légitimement craindre que les sociobots suivent la voie tracée par les enceintes connectées : leur potentiel interactif et émotionnel fera d’eux d’excellents explorateurs de notre intimité et d’efficaces extracteurs de données.
Nombre de capteurs peuvent être intégrés aux sociobots, transformant l’utilisateur en « fonds disponible », pour reprendre l’expression heideggérienne. De la reconnaissance faciale à l’analyse vocale ou thermique en passant par la détection d’émotions, ces technologies intégrables renferment un pouvoir de captation de l’intimité des utilisateurs sans précédent. L’humain devient peu à peu transparent et gouvernable.
Un projet éminemment dangereux
De fait, comme l’expliquent Antoinette Rouvroy et Thomas Berndans un article de référence, les big data ont pour intérêt d’autoriser l’élaboration de « savoirs probabilistes statistiques à des fins d’anticipation des comportements individuels, qui sont rapportés à des profils définis sur la base de corrélations découvertes par datamining. » Partant de ce constat, les deux chercheurs forgent le concept de gouvernementalité algorithmique qu’ils définissent comme « un certain type de rationalité (a)normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles. »
Le projet économique d’une telle rationalité est simple : accroître le contrôle sur l’acte d’achat en s’adressant à la part préréflexive du psychisme. Notre « double statistique » est utilisé pour « susciter l’acte d’achat, sur le mode de la réponse-réflexe à un stimulus d’alerte court-circuitant dans la réflexivité individuelle la formation du désir singulier. » Autrement dit, il s’agit « de produire du passage à l’acte sans formation ni formulation de désirs ».En misant sur la contrôlabilité de nos « moi » préréflexifs, la prédation dataïste obstrue ce qu’on nomme en philosophie les processus de subjectivation, c’est-à-dire les processus conduisant à nous constituer comme sujets capables de réflexivité.
Vivre subjectivement relève du vivre ensemble en tant qu’un sujet est toujours multiple et qu’il procède d’une mosaïque d’éléments, d’influences, d’expériences très diverses. En d’autres termes, la politique commence avec la vie subjective. Supprimer la possibilité de délibération avec soi-même en s’adressant à la part pulsionnelle du moi, c’est s’attaquer au cœur même de la politique qui commence avec et en soi.
Comment accepter l’Autre ?
Dès lors, si le vivre ensemble du sujet est empêché, comment pourrait-on accepter le vivre ensemble intersubjectif ? Comment accepter l’autre sujet, l’autre tout court, si je ne vis pas d’abord ce processus d’acceptation, de conciliation, de délibération en moi ? En outre, obstruer la subjectivation, c’est créer une docilité confinant à une « nouvelle servitude volontaire ».
Le projet dataterministe, en tant qu’il porte un projet social dépolitisant, est donc éminemment dangereux. Comme l’affirme Antoinette Rouvroy : « La gouvernementalité algorithmique est un système immunitaire développé par le capitalisme pour lutter contre tout ce qui pourrait le mettre en crise. Les êtres humains ne sont capables de se rebeller que s’ils deviennent des sujets à part entière. Or la technologie vient les saisir un niveau infrasubjectif, au stade pulsionnel, et leur donne ce qu’ils veulent tout de suite. »
Pour une éthique démocratique des techniques
Dans ce contexte, le problème fondamental ne concerne pas tant le respect de la vie privée que la défense et la promotion active d’une vie subjective individuelle et collective, soit, en bref, d’une vie politique.C’est donc le modèle dominant de l’économie numérique qui doit être révisé.La dépolitisation individuelle et collective dont la gouvernementalité algorithmique est porteuse doit être combattue par sa symétrique inverse, à savoir une re-politisation individuelle et collective.
Ne nous y trompons pas : il s’agit d’un défi démocratique, et non technocratique. Alors que les démocraties représentatives affrontent des défis d’ampleur inédite tels que la crise écologique et la menace d’un populisme désinformateur que de nombreux grands noms du numérique encouragent ou, au mieux, favorisent par leur inaction, la revalorisation de la citoyenneté via de nouvelles formes d’engagement politique et d’action hors les urnes semble regagner du terrain. Cette « renaissance », en partie conduite par une jeunesse qui se sait plus que jamais en danger, témoigne bien d’un désir de politique.
Il y a là une formidable opportunité de revitalisation de la démocratie, par l’exercice démocratique lui-même. Alors que le dataïsme propose d’accentuer l’exsanguination politique au profit de la seule gestion économique, nous pouvons au contraire associer activement l’expertise à la citoyenneté et construire un avenir commun ! Comment ? En utilisant les outils rigoureux de la démocratie technique pour réguler l’économie des données dominante et déterminer quelles sont les causes et modes légitimes de récoltes.
Face à ce défi, la robotique sociale encore naissante devra choisir son camp : embrasser ce qui se fait déjà ou se développer selon un modèle alternatif où la notion de « robot compagnon » n’est pas l’hypocrite synonyme de « robot espion ». C’est dans cette ouverture à l’alternative que réside la véritable innovation.
Crédit photo : Andy Kelly – Unsplash
Liens vagabonds : le débat autour de la reconnaissance faciale s’intensifie
Voir l’actu à travers différentes bulles de filtre ? C’est possible !
On a créé 6 colonnes pour représenter les différentes timelines des sympathisant de
– la gauche révolutionnaire
– la gauche
– la social démocratie
– le centre-droit
– la droite droite
– l’extrême droite. pic.twitter.com/bSYw2QUSDR
Quelle résilience des médias numériques face à l’urgence climatique ?
Par Diana Liu, France Télévisions, MediaLab
Dans un contexte de crise climatique, la survie des médias sera en partie déterminée par leur capacité à développer une « résilience climatique ». Mais que veut dire « résilience » pour les médias numériques ? Frédéric Bordage, fondateur de GreenIT.fr nous donne quelques pistes pour améliorer notre résilience climatique : s’éveiller aux risques, réduire fortement l’impact écologique de la consommation de l’information et s’affranchir de notre dépendance au numérique.
1. S’éveiller aux risques climatiques liés au secteur
Selon Frédéric Bordage, compte-tenu des stocks disponibles des matières premières comme des minéraux, il reste environ 30 ans avant une augmentation drastique du prix des ressources nous permettant de fabriquer le numérique aujourd’hui. Un sujet d’inquiétude pour les entreprises comme Tesla, qui a annoncé une pénurie globale des métaux clés. Sans parler de l’exploitation humaine liée à l’extraction des minéraux comme le cobalt, utilisé dans les batteries des voitures électriques, des ordinateurs et des téléphones portables.
« Cela veut dire qu’au rythme actuel où l’on consomme le numérique, les médias numériques tels que nous les connaissons ont 30 ans devant eux — c’est une limite physique », affirme Frédéric Bordage.
Notre offre médiatique, qui actuellement est en pleine explosion tel un « big bang », connaîtra alors un « big crunch ».
2. Réduire l’impact écologique de la consommation de l’information
Au rythme des émissions mondiales de gaz à effet de serre, on est encore loin de l’objectif de limiter le réchauffement à 1,5 °C, selon l’Accord de Paris. Le rapport sur les écarts de production de l’ONU a révélé que les pays prévoient de produire environ 120 % plus de combustibles fossiles en 2030 qu’il n’en faudrait pour atteindre cet objectif. Le numérique – les appareils et les serveurs sur lesquels la plupart de notre consommation médiatique a lieu – émet lui seul 4 % des gaz à effet de serre du monde.
Face à cette réalité, la réduction des émissions qu’engendre la consommation médiatique devient une urgence pour assurer la pérennité des médias. Pour ce faire, il faut que nous adoptions une sobriété systémique dans la manière dont nous consommons les médias. Selon Frédéric Bordage, cela veut dire privilégier des médias qui sont moins impactant pour l’environnement – donc les formats texte et audio. La vidéo, format plébiscité par des publics, représente 1% des émissions mondiales, où l’équivalent des émissions de l’Espagne. « Plus on privilège les formats vidéos HD, plus l’impact environnemental sera fort», explique Frédéric Bordage.
Si la vidéo est absolument nécessaire, les médias peuvent encourager une consultation à bas impact en proposant systématiquement la plus basse définition — à l’utilisateur de l’augmenter s’il le souhaite.Cela peut sembler aller à contre-courant de l’innovation, mais la crise climatique nous oblige à re-contextualiser ce terme — pas une course vers les nouvelles technologiques les plus performantes, mais un levier pour l’éco-responsabilité.
Si on veut continuer à engager son audience tout en réduisant son impact écologique, Frédéric Bordage propose d’aller vers une éco-conception du contenu et de l’architecture technique de la diffusion de l’information.
Ses pistes pour réduire l’impact de la consommation des médias : prioriser des sites-web statiques au lieu de dynamiques, concevoir des interfaces minimalistes, simple et sobres, retravailler des éléments visuels (graphiques, photos et vidéos) afin qu’ils soient moins lourds… ou même les remplacer par des illustrations, comme dans l’édition de janvier 2020 de Vogue Italia.
On peut aussi envisager des changements des supports, par exemple en transmettant les informations par un simple email ou un SMS au lieu d’un site-web.
Une telle éco-conception a un double enjeu : réduire des émissions carbones en se dispensant du besoin de la 4G ou la 5G, et rendre les médias plus accessibles pour ceux qui n’ont pas une connectivité haut débit. Pour résumer : « la clé, c’est la sobriété. »
3. S’affranchir de notre dépendance au numérique et se recentrer sur la qualité des contenus
Pour s’assurer de la continuité des médias, qui seront nécessairement confrontés aux ressources limitées de la planète, Frédéric Bordage nous incite à nous sevrer de notre dépendance au numérique.
« Il faut se donner l’opportunité d’une transition en quelques générations vers un monde qui n’est plus dépendant du numérique, puisque nous n’aurons plus la capacité de le fabriquer sous sa forme actuelle. »
Ainsi, il lance un défi pour notre société adepte de binge-watching : reprendre l’habitude de lire.
« Il faut basculer progressivement à la lecture d’articles, et quand c’est absolument nécessaire, des vidéos. » Si les médias veulent promouvoir des modes de consommation médiatiques plus responsables, ils doivent eux-mêmes remettre en question leurs pratiques et leur raison d’être. »
« Quand on dit médias numériques, les gens pensent souvent aux vidéos HD et à l’entertainment… et beaucoup moins à la diffusion d’informations via les médias low-tech. Est-ce qu’on décide de transmettre des connaissances qui vont aider l’humanité à être résiliente face à la crise actuelle, ou est-ce qu’on diffuse des matchs de foot en 8k ? »
Pour les médias, il y a donc une convergence entre enjeux climatiques et enjeux sociétaux : le sens et la qualité des contenus que l’on produit.
Au lieu de céder à la course aux clics en créant des contenus superflus, la résilience climatique implique une réorientation radicale de nos activités pour le bien-être de nos communautés et notre planète.Plus qu’une crise temporaire à gérer, la transition écologique devient un véritable challenge pour les médias. Celle-ci montre la nécessité de rompre avec un système de valeurs qui n’est plus viable à long terme — la dépendance à des formats numériques de plus en plus lourds, la création de contenu redondant — pour en créer un nouveau. La nouvelle démarche de résilience climatique ne consistera pas seulement à encaisser la crise climatique mais à changer de paradigme et se redéfinir de manière radicale.
We just announced a fresh, new design for Facebook that makes communities as central as friends. FB5 is simpler, faster, more immersive and makes it easier to find what you’re looking for and get to your most-used features. #f82019pic.twitter.com/YWIGEnpO4M
Par Ahmad Beltagui, Marina Candi et Thomas Schmidt. Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation.
Avec plus de 2,5 milliards de joueurs dans le monde, l’industrie du jeu vidéo n’a plus rien à envier à celle du cinéma ou de la musique. Les jeux freemium, portés par les succès de Angry Birds, Farmville et Candy Crush des années 2000 représentent aujourd’hui une part importante du marché du jeu video. Pourquoi un tel engouement pour ce modèle ? Quels sont les usages qui en découlent ? Comment le rendre plus durable ? Etude de cas avec un jeu de dé Danois.
Le principe du freemium
Le modèle économique du freemium est le suivant : une grande majorité des joueurs jouent gratuitement et occasionnellement. Seulement une minorité est très investie et dépense parfois beaucoup d’argent sur le jeu.
Cette minorité de joueurs paient pour accélérer sa progression dans le jeu, améliorer l’apparence de son personnage ou pour supprimer la présence de publicités.
Les jeux freemium Pokémon GO, Fortnite et Apex Legends ont fait l’objet d’énormes succès, grâce à une valorisation et une monétisation réussie de leur base de joueurs.
Les jeux freemium et ceux financés par la publicité auraient ainsi généré 88 milliards de dollars US en 2018 (sur 110 milliards de dollars US pour l’ensemble de l’industrie du jeu), la moitié de ceux-ci provenant d’Asie.
Pourtant, pour chaque succès, beaucoup de jeux freemium disparaissent sans laisser de traces. Les joueurs se lassent vite et passent à un nouveau jeu rapidement. Pour quelles raisons ? Une trop grande simplicité de jeu ou une absence d’engagement due à l’absence de paiement pour y accéder ? Les jeux freemium ont en général besoin d’être rentabilisés rapidement : un jeu freemium génère en moyenne 75% du chiffre d’affaire dans les trois premiers jours après son lancement.
L’objectif des développeurs ? Concevoir des jeux qui donnent aux utilisateurs l’envie de jouer le plus longtemps possible et maximiser le « taux de conversion » de joueurs non payeur en joueurs payeur.
Les jeux freemium jouissent ainsi d’une réputation suffisamment mauvaise pour que certains experts anticipent leur disparition au profit d’Apple Arcade et Google Stadia, deux nouveaux services de jeux vidéo sur abonnement à la Netflix qui permettent de jouer à des jeux premium sans console. Ces deux nouveaux services représentent effectivement un défi de taille pour les jeux freemium.
Une réponse possible pour les développeurs serait de se détourner de cet attrait pour l’argent facile pour travailler sur la création de jeux visant à engager des communautés d’utilisateurs sur le long terme. Nous avons fait des recherches sur ce sujet et les résultats obtenus sont étonnants.
Deux types de joueurs : le “joueur social” et le “compétiteur”
Nous avons mené une étude sur une communauté de jeu de dés au Danemark qui compte des dizaines de milliers de joueurs actifs depuis plus de dix ans. Presque la totalité des joueurs sans payer, tandis qu’une minorité paye pour des fonctionnalités additionnelles, et notamment celle permettant d’organiser des tournois.
Ce jeu, appartenant initialement à une chaîne de télévision danoise, a été racheté par un éditeur de logiciels sont l’objectif était de monétiser la communauté de joueurs. L’éditeur a ainsi mis en place la possibilité de gagner des prix en argent réel. Nous avons interviewé les joueurs de cette communauté.
Durant ces interviews, nous avons clairement identifié deux types de joueurs : le « joueur social » et le « compétiteur ». Le « joueur social » joue essentiellement pour entretenir des amitiés ou des rivalités amicales au sein de la communauté. Le « compétiteur », lui, joue clairement dans l’objectif de gagner et d’obtenir de la reconnaissance sociale.
Les « joueurs sociaux » sont prêts à payer pour certaines fonctionnalités additionnelles, mais ils sont moins à même de le faire que les « compétiteurs ». Dans ce jeu de dés danois, les « joueurs sociaux » utilisent souvent la plateforme de jeu pour discuter des choses qui leur arrivent dans le monde réel, et se rencontrent même hors ligne lors d’événements où ils portent des badges avec leurs noms dans le jeu. Ces « joueurs sociaux » n’apprécient pas les tentatives du nouveau propriétaire de monétiser leur participation.
Les « compétiteurs » perçoivent leurs victoires comme significatives lorsqu’ils ont l’impression de jouer contre de vraies personnes ou d’accéder à un niveau de jeu plus difficile. Ils jouent plus souvent, et ont tendance à payer de grosses sommes lorsqu’ils sentent une forte appartenance à la communauté.
Malheureusement, l’éditeur de logiciel n’a pas voulu capitaliser sur cette typologie de joueurs. Il a simplement souhaité gagner davantage d’argent.
Les « petits poissons » représentent plus de 50% des joueurs, mais dépensent peu ou pas du tout.
Les « dauphins » se situent quelque part entre les deux.
Source : Agence française pour le jeu video
Bien qu’il soit naturel pour un concepteur de jeux video de se focaliser en priorité sur les « baleines » (terme utilisé par référence aux gros joueurs des casinos), cette étude de cas insiste sur le fait que les petits et moyens joueurs sont également très importants dans la stratégie d’audience.
Vous attirerez probablement des « baleines » et les fidéliserez plus longtemps si vous faites en sorte d’abord d’augmenter votre base de petits poissons et et de « dauphins ». Ceux-ci sont souvent les « acteurs sociaux » qui feront que les gros joueurs se sentent les bienvenus. De plus, les petits et moyens joueurs jouent un rôle important dans la modération.
Si les développeurs doivent éviter d’importuner les joueurs non payeurs en essayant de les convertir en joueurs payeurs, ils peuvent les utiliser pour rendre le jeu plus attrayant pour les “compétiteurs”. La stratégie d’un concepteur de jeu freemium devrait être de reconnaître l’importance des petits et moyens joueurs et de récompenser leurs efforts, tout en identifiant les « compétiteurs » qui sont prêts à payer de grosses sommes pour avoir un jeu intéressant. Une conclusion intéressante pour les professionnels du secteur qui cherchent à développer un modèle freemium plus durable.
[Baromètre La Croix] Les Français se désintéressent de l’actualité
Par Laure Delmoly, France Télévisions, MediaLab
Les Français se désintéressent de plus en plus de l’actualité. Selon le 33e baromètre Kantar / Sofres réalisé pour La Croix, 41 % des sondés affirment que leur intérêt envers l’actualité est «assez faible ou très faible», soit le pire taux jamais enregistré depuis 1987.Crise de confiance, crise de l’information mais aussi crise de la représentativité. Malgré les initiatives prises en 2019, les Français estiment que les médias ne parviennent pas encore à rendre compte de leurs préoccupation. Fait nouveau, si la confiance envers les médias traditionnels remonte légèrement, internet atteint le plus bas niveau en terme de crédibilité.
Une crise “structurelle” de l’information
En France, l’intérêt pour l’actualité est au plus bas niveau après un léger rebond observé l’an dernier. Un peu moins de 6 Français sur 10 s’intéressent à l’actualité. Effet de saturation face à l’infobésité et un certain traitement de l’actualité qui crée de la distance. Une tendance observable depuis désormais cinq ans mais aujourd’hui clairement assumée. Jamais autant de personnes interrogées n’avaient assumé le fait de s’intéresser « assez » faiblement (28% + 4) ou « très » faiblement à l’actualité. (13% +4).
Les jeunes (50 %), les femmes (53 %), les moins diplômés (54 %), les personnes engagées politiquement (48 %), mais aussi les ouvriers (53 %) ou les commerçants et artisans (53 %) s’isolent le plus de l’information.
Source : baromètre Kantar / La Croix
Une crise de la représentativité qui persiste malgré plusieurs initiatives des médias
C’était l’une des critiques majeures des « gilets jaunes » : les médias déconnectés du terrain, ne rendent pas compte des difficultés quotidiennes des Français.
Un an plus tard, après un certaine remise en question des médias et quelques initiatives, l’heure est à la prise de conscience. Les Français estiment-ils que les médias rendent mieux compte de leurs préoccupations? «Non», répondent 71 % des interrogés, et «non, pas du tout», pour 23 % d’entre eux. Le pourcentage de «non» s’élève à 79 % chez les moins de 35 ans.
Source : baromètre Kantar / La Croix
Une crise de confiance qui s’inscrit dans une tendance mondiale
« La France, est, avec le Brésil, le pays où la défiance envers les médias a le plus augmenté cette année. » souligne Vincent Giret, Directeur de France Info. Une crise de confiance qui s’inscrit dans une tendance mondiale. En effet, selon le baromètre Edelman, la défiance envers les médias a encore augmenté de 3 points par rapport à l’année dernière pour le public en général et de 4 points pour le public le plus informé.
Source : baromètre Edelman
Si la confiance envers les médias traditionnels a légèrement augmenté par rapport à l’année dernière (+2% pour la presse écrite et + 2% pour la télévision), internet souffre du discrédit actuel autour des plateformes. La radio reste le média avec le plus fort taux de confiance (50%), devant la presse écrite (46%) et la télévision (40%).
Source : baromètre Kantar / La Croix
Impossible d’appréhender ces chiffres sans aborder la situation économique des médias. En France, la perception de l’indépendance des journalistes est pour le moins inquiétante. 68% des Français interrogés estiment que les journalistes ne sont pas indépendants du pouvoir politique et 61% estiment qu’ils subissent de fortes pressions relatives à l’argent.
Source : baromètre Kantar / La Croix
La télévision reste le premier moyen d’information
Si la télévision perd du terrain, elle reste encore un moyen d’information privilégié. Les Français continuent d’accéder prioritairement à l’information par la télévision (48% dont 65% des plus âgés) et internet (32%). A noter : les chaînes généralistes restent privilégiées (29%) mais celles d’information en continu sont aussi appréciées (19%), notamment par les 35-49 ans.
Source : baromètre Kantar / La Croix
Une rupture des usages dans l’accès à l’info
Le baromètre met en lumière une rupture très nette dans les usages entre les moins de 35 ans qui s’informent majoritairement via internet (61%) et les plus de 35 ans pour qui la télévision reste le premier moyen d’information (56%). Un fossé générationnel qui ne cesse de se creuser, les plus de 65 ans optant à 65% pour le poste de télévision tandis que les jeunes qui souhaitent s’informer s’en détournent clairement (18% des 18-24 ans).
Source : baromètre Kantar / La Croix
Concernant l’accès à l’information en ligne, les applications mobiles et sites de presse écrite restent en tête des sources numériques (25%) devant les réseaux sociaux (22%). Les sites ou applications des médias TV ou radio sont encore loin derrière (9%) dans les sources d’information numérique.
Internet au plus bas niveau en terme de crédibilité
Autre constat : le discrédit d’internet comme source d’information, qui après avoir connu un pic de crédibilité en 2015 revient à son niveau le plus bas de 2005.
Deux causes à cela : le discrédit actuel des plateformes sur leur politique de modération du contenu et la modification de l’algorithme Facebook de 2018 qui ne privilégie plus les pages médias dans le feed des utilisateurs.
Source : baromètre Kantar / La Croix
Lutter contre les Fake News
Les internautes se méfient des informations sur Facebook ou Twitter quand elles sont partagées par un ami (pour 66% des sondés) ou par un organe de presse (50% en hausse).
59% Français sondés estiment qu’ils repèrent les fausses informations sur Internet. Les jeunes (72%) et les plus diplômés (67%) estiment être ceux qui les identifient le plus.
Source : baromètre Kantar / La Croix
Les médias sont clairement attendus sur les Fakes News. Interrogés sur « les acteurs qui devraient agir contre la propagation des fausses nouvelles », les sondés comptent d’abord sur les journalistes (38%, +2) et les organismes de contrôle (36%, +2°, suivis des citoyens eux-mêmes (29%, -2), du gouvernement(26%, +3), des enseignants (5%) et des universitaires (2%).
Remédier à la polarisation de l’audience
« Nous sommes envahis d’information. Or lorsque nous sommes envahis, nous avons tendance à nous raccrocher à ce qui nous ressemble. » commente Vincent Giret.
Conscients de cette forte polarisation de l’audience, les médias se donnent pour objectif de faire se rencontrer des professionnels ou des audiences qui ne pensent pas de la même façon, et ce notamment autour de 3 thèmes sur lesquels ils sont très attendus : l’environnement, l’actualité internationale & les Fake News.
« Nous avons trop longtemps négligé notre relation client. Il faut réinventer l’univers du journalisme » conclut Vincent Giret.
Les médias doivent réinventer leur relation à l’audience. Leur objectif pour 2020 ? Multiplier les initiatives citoyennes afin de fortifier cette relation.« Nous devons continuer à faire de la pédagogie de l’information afin de mettre en échec cette communautarisation de l’information » affirme Valérie Nataf, Directrice de la Rédaction de LCI. Et Guillaume Goubert, Directeur de La Croix d’ajouter « Les Médias doivent renforcer leur capacité à faire vivre des débats constructifs avec des constats d’accord et de désaccord. En faisant cela, nous sommes clairement dans notre rôle ».
* Le baromètre Edelman a été conduit en ligne dans 28 pays en octobre/novembre 2019
** Le baromètre Kantar / La Croix a été réalisé en France sur un échantillon de 1.000 personnes interrogées face à face en janvier 2020