Pérouse 2026 : faut-il être traumatisé pour être un bon journaliste ?
Quel sera le visage du journaliste en 2030 ? Simple pourvoyeur de données pour nourrir les algorithmes, architecte des liens au sein de la « relationship economy » chère à Bruno Patino, ou profession en voie de disparition ? Au Festival International du Journalisme de Pérouse, bulle de réflexion nichée dans une cité étrusque ayant survécu à bien des chutes, on s’interroge sur la pérennité du métier face à une hégémonie de l’IA pilotée par une redoutable « broligarchy ».
Par Alexandra Klinnik et Kati Bremme, Méta-Media France Télévisions
Longtemps, le journalisme a fonctionné comme un système clos. Une chaîne maîtrisée : investiguer, vérifier, éditer, publier, diffuser. Chaque étape était identifiable, chaque responsabilité assignable. L’arrivée de l’intelligence artificielle dissout cette chaîne en brouillant les frontières. Le journalisme ne peut plus prétendre maîtriser ni la distribution de ses contenus, ni leur forme finale, ni même leur contexte d’interprétation. Dans un environnement où les réponses sont générées et synthétisées par des systèmes externes qui atomisent l’information originale pour la recomposer ailleurs, l’idée même de « produit éditorial », cet objet fini, intègre et packagé, devient obsolète.
Alors que la BBC annonce le licenciement de 10 % de ses effectifs, le secteur bascule dans une « économie en K » : une bifurcation brutale où les géants technologiques captent la croissance pendant que les médias traditionnels s’enfoncent. Dans ce sillage, l’intelligence artificielle menace désormais de court-circuiter la réflexion éditoriale. Entre l’effondrement de l’illusion du contrôle sur la distribution et l’émergence de YouTube comme nouvel écran informationnel souverain, l’information doit muer : passer d’une logique de volume à une logique de service, capable d’apporter une utilité concrète et authentique à l’utilisateur. Dans un océan de synthèses complaisantes, Wikipédia devient le dernier bouclier inattendu : une oasis de pédagogie humaine là où ChatGPT automatise l’absence de réflexion.
Sur le terrain, l’urgence est la même : les vérificateurs de faits luttent pour la vérité tandis que, du Soudan à l’Ukraine en passant par Gaza et le Yémen, des reporters font preuve d’un courage exemplaire pour maintenir un lien vital avec la réalité. Face à l’automatisation qui menace de nous couper du monde physique, ce journalisme de contact devient notre ultime boussole. Voici ce que l’équipe de Méta-Media a retenu de cette édition du Festival International de Journalisme : une plongée entre fragilité technologique et résilience humaine.
10 points à émporter
- Le journalisme ‘Out of Control’ ? – Devrait-on abandonner l’idée même de contrôler la distribution du contenu journalistique ? Pour David Caswell, la réponse est un « oui » sans ambiguïté. Plutôt que de s’épuiser à vouloir maîtriser des flux devenus « liquides », il propose d’introduire la notion de service : l’information ne vaut plus par son packaging, mais par son utilité directe et son authenticité (exit le « commodity content »). Cette transition exige de rompre avec nos vieux réflexes de « control freaks », comme le martèle Erja Yläjärvi, rédactrice en chef de Helsingin Sanomat. Pour Mukul Devichand, Editor of AI Initiatives du New York Times, piloter un média aujourd’hui ne ressemble plus à la conduite d’une voiture, mais à l’exercice bien plus imprévisible de « monter un éléphant » : on peut tenter d’influencer la trajectoire, mais l’animal (les plateformes et l’IA) reste le maître du mouvement. Pour Phoebe Connelly, qui a lancé le chatbot Ask the Post du Washington Post, l’enjeu est désormais de construire notre propre « tissu connectif » entre nos contenus éditoriaux et les modèles de langage (LLM). L’objectif : ne pas répéter l’erreur tragique faite avec les réseaux sociaux, où les médias avaient fini par abandonner toute souveraineté sur leur propre diffusion.
- Comment survivre à la “broligarchie” ? — Le dilemme est désormais politique. Carole Cadwalladr, souvent accusée d’activisme par ses adversaires, interpelle les rédactions : peut-on s’allier à OpenAI (partenaire du Guardian, mais aussi de l’armée) sans y perdre son âme ? En promettant de nous libérer des tâches ingrates, la technologie nous lie à des puissances opaques. Si la lanceuse d’alerte du scandale Cambridge Analytica refuse de céder au fatalisme d’un pacte avec une bande de techno-utopistes, à la fois libertariens et autoritaires, la réalité économique s’impose : survivre à tout prix justifie-t-il de devenir les vassaux de la « broligarchy » ? Des pistes de résistance émergent : la création de marketplaces dédiées, l’adoption de standards communs (comme l’action SPUR) et le recours aux négociations collectives. Un point reste toutefois rassurant (ou inquiétant) : face à cette mutation, les deux côtés —médias comme géants de la tech — sont encore en train d’improviser.
- Le trauma comme carburant — Lancer un média aujourd’hui relève peut-être moins de la stratégie que de la blessure. Turi Munthe, investisseur, va jusqu’à faire du traumatisme sous-jacent du fondateur le premier critère d’investissement, avant même le business model. Carole Cadwalladr en est l’illustration vivante : poursuivie en justice pendant quatre ans, abandonnée par le Guardian, c’est précisément cette trahison institutionnelle qui a forgé The Nerve et sa conviction que le journalisme doit protéger ceux qui le font. Paradoxalement, c’est dans ce paysage médiatique quasi apocalyptique que surgissent les projets les plus solides. La crise, loin d’être un obstacle, devient la condition même de l’émergence.
- La vérité devient contextuelle – Le journalisme a toujours reposé sur une promesse implicite : dire le vrai. Aujourd’hui, cette promesse est pulvérisée par la recomposition permanente des contenus. « Is reality real anymore ? » : la question hante les esprits, illustrée par l’image surréaliste du président américain proférant des menaces aux côtés d’un lapin de Pâques géant. Dans cet écosystème où l’information circule par fragments, totalement déconnectée de sa source originelle, la correction ne rattrape jamais la diffusion. L’intégration de l’IA dans les rédactions ne peut donc se faire à l’aveugle. Elle exige des guidelines éthiques strictes et, comme le martèle le New York Times, qui se refuse de proposer un chatbot news, un « human oversight » (supervision humaine) permanent. Dans ce chaos, la marque devient l’unique repère de confiance ; elle est le seul actif qui ne doit, sous aucun prétexte, être abîmé. Le défi ultime est d’ailleurs moins technique qu’émotionnel : si l’IA parvient à créer un lien plus fort avec l’audience que le média lui-même (le fameux « dividende d’intimité ») comment le journalisme peut-il encore justifier son existence ?
- De l’institution à l’individu – La figure du journaliste-créateur n’est plus une curiosité, c’est le nouveau standard de la relation avec le public. Dave Jorgenson, pionnier de TikTok pour le Washington Post, illustre cette bascule : « Mon audience me fait davantage confiance depuis que je suis devenu indépendant », souligne-t-il. Paradoxalement, cette autonomie ne signifie pas une rupture avec le passé, car Dave Jorgenson reconnaît que le travail d’enquête des médias traditionnels reste la matière première indispensable de ses vidéos. Sophia Smith Galer complète cette analyse en soulignant que le journaliste doit désormais maîtriser les codes de la creator economy pour exister. La confiance ne s’attache plus uniquement à un logo institutionnel, mais à une personnalité capable d’incarner l’information. Cette évolution marque la fin de la verticalité : le journaliste n’est plus seulement celui qui publie, il est celui qui engage une communauté. Pour les rédactions, l’enjeu est de taille : elles doivent apprendre à gérer des talents dont la marque personnelle finit parfois par dépasser celle de l’institution qui les emploie.
- Defendre la pensée – L’IA n’intervient plus seulement en bout de chaîne pour mettre en forme ; elle s’immisce désormais avant l’action. On la sollicite pour l’amont cognitif : « Aide-moi à analyser cette conversation », « Est-ce normal ? », « Que devrais-je faire ? ». C’est l’ère du Pre-think, du Pre-feel et du Pre-decide, décrite par Ezra Eeman. Ce glissement transforme le soutien technologique en une dépendance invisible : la réflexion est externalisée, étape par étape, rendant la frontière entre assistance et béquille mentale de plus en plus poreuse. Bien sûr, « lorsque la machine exécute une tâche mieux que l’humain, s’en priver relève de l’absurde », (Erja Yläjärvi). Mais le journalisme ne peut se réduire à une optimisation de calcul. Certains jugements restent, par nature, inaccessibles aux algorithmes. Comment expliquer à une IA la nuance de l’exactitude (accuracy) dans un contexte de crise, ou la portée morale d’une révélation ? Nous sommes biologiquement programmés pour privilégier la facilité, mais le rôle du journaliste est précisément de résister à cette paresse cognitive pour préserver ce que la machine ne sait pas simuler : le discernement éthique.
- N’enseignez pas des outils, mais des concepts – L’appel lancé par Djordje Padejski de Stanford est un signal d’alarme pour les écoles de journalisme : pour survivre, le journaliste ne doit plus être un simple technicien de la saisie, mais un architecte de l’information. Il s’agit de former des profils capables de comprendre les systèmes en profondeur, d’auditer les modèles d’IA et d’interroger de manière critique les résultats produits par les algorithmes. On quitte l’ère de la « production » pure pour entrer dans celle de la « supervision ». Mais cette mutation se heurte à un paradoxe structurel violent : auditer, surveiller et garder le contrôle exige une expertise métier solide. Ce sont des compétences typiquement détenues par les profils seniors. Or, ce sont précisément ces profils que la plupart des rédactions sacrifient aujourd’hui lors de plans de licenciements massifs pour réduire les coûts. En se séparant de sa mémoire et de son esprit critique au profit d’une automatisation mal maîtrisée, la presse risque de perdre son dernier rempart contre l’hallucination algorithmique. Et on ne parle même pas de la difficulté des profils juniors à se battre contre les machines…
- Du « storytelling » au « truthtelling » – Le récit ne suffit plus ; il doit désormais s’accompagner d’un travail explicite sur la preuve. Le lien de confiance traditionnel est rompu : selon le rapport Understanding young audiences at a time of rapid change du Reuters Institute, 51 % des moins de 25 ans font désormais davantage confiance à un influenceur ou à une personnalité qu’à une marque média institutionnelle. Cette bascule vers des entités perçues comme plus authentiques commence à s’étendre aux agents artificiels. Les Français sont 8% à préférer l’IA aux médias pour s’informer, et ceux qui privilégient l’IA pour s’informer quotidiennement lui accordent aussi une confiance plus importante qu’aux médias traditionnels (OpinionWay). Si la confiance se déplace vers des chatbots ou des créateurs parce qu’ils sont perçus comme « directs » et sans biais institutionnel, le journalisme doit riposter par une incarnation humaine et une éthique de la preuve que la machine ne pourra jamais que simuler. Le défi dans ce nouveau monde « agentique » est double : il s’agit de prouver notre valeur auprès des agents tout en restant pertinents pour les humains.
- Entre bureaucratie armée et censure de confiance – Les menaces directes à l’encontre des journalistes évoluent. On observe une montée en puissance de gouvernements qui instrumentalisent l’obstruction administrative, en recourant à des pratiques comme le refus de visas ou le retrait d’accréditations de presse (avec comme apogée l’exclusion de l’Associated Press du pool de presse de la Maison-Blanche et d’Air Force One pour avoir refusé d’utiliser l’expression « Gulf of America »). Maria Ressa les qualifie ainsi : « C’est une mort à petit feu, une hémorragie de mille entailles. Ces coupures en apparence anodines finissent par saigner à blanc, jusqu’à ce que le corps politique, épuisé, s’effondre. » Ces mesures constituent un moyen particulièrement efficace de contrôler le récit en coupant l’accès aux voix critiques, tout en évitant le coût politique d’intimidations plus visibles comme les arrestations ou la violence. Et dans certains contextes de crise, la mention « cet article a été approuvé par le censeur » subit un retournement sémantique radical : elle devient un gage de crédibilité. Comme dans le conflit israélo-palestinien, le journaliste assume d’être d’abord citoyen patriote et ensuite journaliste. Avec une écriture et une lecture entre les lignes.
- Aucune arme n’est aussi puissante que les médias – Branko Brkic a rappelé une vérité fondamentale que l’industrie a trop souvent tendance à occulter sous la pression de l’immédiateté : la survie du journalisme ne se jouera pas sur des gains tactiques à court terme, mais sur la solidité de son impact à long terme. Dans un écosystème où une campagne de désinformation massive peut être orchestrée et propagée en quelques minutes seulement, l’enjeu n’est plus de s’épuiser à poursuivre chaque fantôme numérique. Il faut impérativement choisir ses batailles et concentrer ses forces pour combattre les campagnes qui parviennent réellement à saturer l’espace public. Face à ce défi, les médias de service public occupent une position paradoxale : ils sont à la fois des géants par leur héritage et des nains face à la puissance algorithmique des plateformes. Liz Corbin, Head of News à l’EBU, souligne que la collaboration radicale est désormais l’unique voie de salut. Cela implique de briser les silos, y compris avec la concurrence, pour bâtir des fronts communs, à l’instar de l’alliance avec la WAN-IFRA. Les médias de service public ont écrit l’histoire des médias (ils ont souvent été les premiers à émerger) mais ils ne sauraient se contenter d’y appartenir.
Le trauma, un moteur pour lancer un média avec succès ?
À première vue, quoi de plus fou que de lancer un média dans un paysage médiatique quasi apocalyptique, bouleversé par l’IA générative, la montée des créateurs de contenu et la raréfaction des financements ? Et pourtant, c’est peut-être précisément dans cette période de crise que se trouve l’opportunité. Comme l’a souligné un panel intitulé “Lancer un média aujourd’hui : folie pure ou nécessité absolue ?”, animé par Renée Kaplan, à la tête des partenariats France de Substack, cette conjoncture serait paradoxalement « la plus propice et la plus urgente pour bâtir de nouveaux modèles ».
Des modèles plus agiles, pensés pour répondre aux besoins, aux usages et aux équilibres économiques « d’un futur qui est déjà là ». Encore faut-il avoir assez de vécu et sans doute un certain goût du défi, pour avoir envie de soulever des montagnes et d’affronter l’adversité.

De gauche à droite, Renée Kaplan (Substack), Jonathan Shainin (Equator), Carole Cadwalladr (The Nerve) et Turi Munthe (investisseur)
- « Quel est l’élément indispensable, l’unique moteur qu’un futur fondateur doit posséder avant même d’envisager de lancer un média ? Est-ce le financement ? La vision éditoriale ? » interroge Renée Kaplan. Turi Munthe, investisseur, propose une réponse bien plus viscérale : le moteur premier serait, selon lui, un traumatisme sous-jacent. L’ancien journaliste a ainsi rejoint un fonds de capital-risque qui place cette singularité au cœur de sa stratégie. Leur méthode est rodée : « Le premier coup de fil sert à analyser le business model. Le second est mené par l’associé « psy », qui cherche uniquement à mesurer à quel point le fondateur est… déglingué. » Un pari qui porterait ses fruits. Selon Turi Munthe, ce traumatisme forgerait une détermination hors norme, une forme de “manie” nécessaire pour balayer tous les obstacles. La condition sine qua non ? Une honnêteté brutale envers soi-même.
- Cette thèse trouve un écho frappant chez Carole Cadwalladr, cofondatrice de The Nerve. Pour cette ex-employée du Guardian, ce récit est « absolument parfait pour introduire son histoire ». Après avoir publié ses révélations sur le scandale Cambridge Analytica dans The Observer (alors propriété du Guardian), elle a été brutalement exposée. Parce qu’elle avait mis en lumière des irrégularités lors du référendum sur le Brexit, « un proche de Nigel Farage s’en est pris à moi ». Il l’a poursuivie en justice avec une stratégie délibérée : ne pas attaquer le journal, mais viser directement le TED Talk où la journaliste d’investigation exposait son enquête. « J’ai dû affronter ce procès pendant quatre ans, seule, sans aucun soutien institutionnel. Nous avons dû financer ma défense par le crowdfunding. »
- Au-delà du fardeau financier, qui s’élève à près d’un million de livres, c’est le coût psychique qui a été aussi lourd à porter : « Le procès a été réellement traumatisant. J’ai reçu un diagnostic de stress post-traumatique par la suite » Tout au long de cette épreuve, elle a ressenti une profonde trahison : « J’étais tellement en colère contre le Guardian. Je me suis sentie abandonnée par cette institution qui se targuait de principes moraux, alors qu’elle a échoué dans ce qu’il y a de plus fondamental pour un organe de presse : défendre ses journalistes et son journalisme. Et il ne l’a pas fait ! » C’est de cette faillite institutionnelle qu’est née sa conviction profonde : « Le journalisme doit demander des comptes aux puissants, il doit être rigoureux, et sa priorité absolue doit être de protéger les journalistes qui font ce travail, tout en restant indépendants. C’est le cœur de ma motivation. »
- Une motivation et une éthique qui portent aujourd’hui ses fruits avec The Nerve, le média qu’elle a cofondé. Alors qu’elle craignait initialement de quitter la notoriété du Guardian, les résultats sont là : « Je me disais : « Je vais perdre cette plateforme mondiale… » Mais en réalité, quand je vois les statistiques d’audience, nous atteignons parfois 200 000 vues uniques sur un article. Je veux dire, des chiffres comme ça… C’est du niveau du Guardian. Vraiment. »
- Et sinon de manière plus prosaïque, pour toucher une audience véritablement internationale, le passage à l’échelle est devenu incontournable : « Beaucoup des gros Substack basés en France ne publient pas exclusivement en français », explique Renée Kaplan, mais visent des marchés étrangers. De plus en plus de créateurs indépendants s’appuient sur des outils d’IA accessibles pour traduire et peaufiner leur contenu dans plusieurs langues simultanément. C’est désormais un modèle totalement scalable et gratuit.
Les chatbots : « Si tout le monde consomme le même résumé, que devient la diversité d’opinion ? »
« Quel est le problème avec le fait que les chatbots fournissent des actualités aux gens ? Au-delà du fait qu’ils ne renvoient pas nécessairement les utilisateurs vers The Guardian ? », demande en préambule Vivian Schiller, vice-présidente et directrice exécutive d’Aspen Digital, dans une table-ronde intitulée « Quand les chatbots diffusent l’information». Les lecteurs l’utilisent de plus en plus pour s’informer, même si l’usage reste pour l’instant marginal… et les réponses peu fiables. « Mais elles vont s’améliorer » , assure Caspar Llewellyn Smith, Chief AI Officer au Guardian. 15 % des 18-24 ans utilisent l’IA pour accéder à l’actualité, contre seulement 3 % chez les seniors, observait déjà en 2025 une étude du Reuters.

De gauche à droite : Katy Knight (ex Google), Caspar Llewellyn Smith (Guardian) et Ginny Badanes (Microsoft)
- Casper Llewellyn Smith revendique une approche décomplexée : pourquoi lutter contre une tendance si profondément ancrée dans notre biologie ? Selon lui, notre préférence pour la simplicité est un mécanisme adaptatif. Là où les moteurs de recherche traditionnels obligent à un effort analytique coûteux et imposent une charge cognitive constante – trier une liste de liens – l’assistant conversationnel lui offre une réponse directe et digeste. « D’un point de vue de l’utilisateur, cette expérience peut être assez bonne. Je vais vraiment accorder de la valeur à la commodité de l’expérience. Cela réduit la charge cognitive. Nous sommes biologiquement programmés pour toujours privilégier la facilité », poursuit-il.
- La véritable question, insiste-t-il, n’est plus seulement de savoir comment nous nous informons, mais à qui nous confions ce pouvoir de médiation. « Il faut se demander : est-ce que je préfère entretenir une relation avec un éditeur de presse traditionnel, ou avec Sam Altman ou Elon Musk ? Je sais quelle option je privilégie, et je crois que c’est ce qui est préférable pour la société. »
Il faut se demander : est-ce que je préfère entretenir une relation avec un éditeur de presse traditionnel, ou avec Sam Altman ou Elon Musk ? …
Casper Llewellyn Smith
- Comme le souligne Vivian Schiller, Microsoft a pour mission première de maximiser la valeur pour ses actionnaires. Pourquoi, dès lors, investir autant d’efforts dans la qualité de l’information ? L’enjeu est d’abord de préserver la confiance des utilisateurs, explique Ginny Badanes, general manager Tech for Society Microsoft : « Nous voulons qu’ils choisissent nos produits. Ils doivent leur faire confiance. Ils ne viendront pas, ou ne reviendront pas, s’ils font de mauvaises expériences. Si cette expérience revient à ajouter du « chewing-gum » dans la recette, ils déserteront. Nous avons tout intérêt à bien faire les choses et à créer une expérience positive » Au-delà de cette stratégie, une autre réalité prévaut : « Beaucoup de personnes dans l’industrie se sentent réellement concernées, car nous sommes nous-mêmes des consommateurs d’information. Nous lisons les actualités chaque jour. Je prédis que, d’ici deux ans, même si ces modèles ne seront probablement pas la source principale où les gens s’informeront, ils y joueront un rôle majeur. »
- Face à cet optimisme technologique, Katy Knight invite à tempérer l’enthousiasme pour la « friction minimale » prônée par Caspar Llewellyn Smith. Si nous sommes biologiquement enclins à privilégier la facilité, la directrice de l’entreprise philanthropique Siegel Family Endowment (qui a pour but de comprendre l’impact de la technologie sur la société) souligne que cette adaptation comporte un risque insidieux pour la citoyenneté. « La commodité, c’est génial, et le résumé, c’est bien, mais il ne nous permet pas de nous investir pleinement dans l’information », rétorque-t-elle. L’effort de lecture est indissociable de l’esprit critique. Pour elle, en déléguant la synthèse de l’actualité à des modèles conçus pour réduire la charge cognitive, nous risquons de réduire le journalisme, ce processus structurant pour notre vie démocratique, à un simple flux de données aseptisé.
- « Si tout le monde consomme le même résumé et perd sa capacité à questionner ou à réfléchir en profondeur, que devient la diversité d’opinion ? Qu’arrive-t-il à notre écosystème informationnel ? L’actualité fait partie de quelque chose de plus vaste : elle sert à l’action, à l’enregistrement de l’Histoire, à la politique. » Forte de son expérience passée chez Google, Katy Knight ne se présente pas comme une technophobe, mais comme une observatrice lucide des mutations sociétales. Elle insiste sur le fait que notre manière d’interagir avec le monde est une question de libre arbitre. « Les faits sont les faits », rappelle-t-elle, soulignant qu’il est certes facile de les livrer via une mise à jour quotidienne automatisée, mais que cette simplification appauvrit notre rapport à la connaissance. « Je crains que, plus nos vies deviennent fluides, plus nous abdiquions notre propre libre arbitre, et peut-être notre propre intelligence », conclut-elle.« Certes, nous sommes biologiquement programmés pour privilégier la facilité, mais nous avons également un besoin profond de sentir que nous sommes aux commandes. »
- Le crédit accordé aux institutions classiques s’est évaporé au profit d’une multitude de voix individuelles, influenceurs et créateurs de contenu, rendant la vérité plus diffuse que jamais. Si les outils d’intelligence artificielle promettent de soulager notre charge mentale en agrégeant ces sources, ils créent, selon elle, un effet pervers : une surcharge informationnelle inédite. Dans ce flux où tout se mélange, le lecteur finit par perdre ses repères. « Comment appréhender un monde où la confiance devient aussi diffuse ? (…) Même si votre charge cognitive est réduite parce que vous ne passez plus votre matinée à cliquer sur trois journaux différents, cela reste une masse énorme à traiter en termes de surcharge informationnelle. Plus vous avez affaire à cette profusion, plus la confiance s’érode, parce que vous êtes trop désorienté pour savoir qui est qui et ce qui est quoi »
Après le lecteur, l’agent ?
Dans un élan de destruction créatrice schumpétérienne, le panel Après le lecteur : quelle suite pour l’information dans un monde façonné d’abord par l’intelligence artificielle ? a esquissé le portrait d’un monde où des agents d’intelligence artificielle s’intègrent pleinement à la chaîne de décision des médias. Non comme des tâcherons du numérique, mais comme de véritables collaborateurs, selon Florent Daudens, défenseur de l’open source chez Hugging Face et co-fondateur de Mizal AI. Des sites web, des newsletters, tout le « front-office » devient obsolète suite au passage des agents. Si l’ancien modèle ne crée plus de valeur, il est urgent d’explorer de nouveaux leviers de monétisation.

De gauche à droite : David Caswell, fondateur de StoryFlow, Lucky Gunasekara, co-fondateur et CEO de Miso.ai, Shuwei Fang, chercheuse au Shorenstein Center on Media, Politics and Public Policy et Florent Daudens, co-fondateur de Mizal AI
- Les éditeurs s’efforcent toujours de vendre des offres groupées sous forme d’abonnements, mais ce modèle économique doit être repensé. Selon Shuwei Fang, qui a forgé l’expression de « dividende d’intimité » pour décrire notre lien émotionnel avec des IA maîtrisant à merveille le langage naturel (et imitant à la perfection des émotions), les agents représentent un potentiel d’audience exponentiel, notamment sur le marché B2B (qu’elle vient de développer dans cet article pour The Economist). En citant des chiffres du Reuters Institute fournis par Felix Simon, on estime que 10 % des agents sont déjà utilisés pour la consommation de l’actualité. Pourtant, personne ne connaît encore la physionomie de ce nouveau marché : verrons-nous émerger huit millions d’agents spécialisés ou un seul agent universel au service de l’humanité ? Une certitude demeure: les chatbots sont morts, place aux agents. Là où le chatbot se limitait de répondre à une question dans une fenêtre fermée, l’agent agit en autonomie : il ne se contente plus de discuter, il exécute des tâches complexes, navigue entre les applications et anticipe les besoins de l’utilisateur sans attendre d’instruction constante.
- Dans ce nouveau paradigme, la monnaie d’échange n’est plus l’attention, mais le contexte et la demande accumulée. Comme le formule Shuwei Fang, la valeur réside désormais dans la compréhension fine de trois piliers : ce que le public sait, ce qu’il veut savoir, et l’objectif qu’il souhaite atteindre. Elle résume cette équation sous le terme de « demand signal » (signal de demande). Pour conserver un intérêt économique, ces informations doivent impérativement être partagées. Si ces données restaient verrouillées chez un fournisseur unique, elles ont peu de valeur. Face à cela, les médias font face à un choix stratégique : Le « supplier mindset » (posture de fournisseur) : Se contenter de nourrir les modèles des autres, une option que Florent Daudens déconseille fermement. Le « builder mindset » (posture de bâtisseur) : Prendre une part active à la construction de l’écosystème. La recommandation des experts est unanime : pour survivre, les médias doivent contrôler leur propre agent tout en favorisant l’interopérabilité avec les autres acteurs du réseau.
- Lucky Gunasekara, cofondateur et PDG de Miso.ai, une plateforme permettant aux éditeurs de transformer leurs contenus en moteurs de réponses personnalisés, exhorte les médias à prendre conscience de la valeur de leurs archives. Il dessine un portrait assez utopiste de la rédaction à l’horizon 2030 : « Demain, vous n’allez pas manager des collaborateurs, vous allez piloter une usine », affirme-t-il, citant en bon élève l’exemple d’Associated Press et son outil AP Intelligence. Pas certain que ce futur soit réellement souhaitable.
- Le défi dans ce nouveau monde « agentique » est double : il s’agit de prouver notre valeur auprès des agents tout en restant pertinents pour les humains. Interrogée sur la priorité à donner pour une rédaction aux moyens limités, Shuwei Fang évoque avec malice la question de l’horizon temporel : les agents présentent l’avantage d’être, par définition, insensibles au vieillissement. Elle ajoute un second élément disruptif : hier, le journalisme était enfermé dans le produit fini, le contenu. Demain, dans un monde où des agents évalueront la fiabilité d’autres agents, la valeur se déplacera. Ce sont peut-être les compétences satellites qui forgent l’essence du métier — vérification, investigation, enquête — qui deviendront le cœur de la valeur monétisable, bien au-delà de la simple mise en forme de l’information.
- L’ère « agentique » sonne le glas du « commodity content ». Désormais, la question cruciale n’est plus celle du volume, mais de la valeur : quel contenu est le plus à même de générer de la confiance ?
Creator economy : « Mon audience me fait davantage confiance depuis que je suis devenu indépendant »
Si l’intelligence artificielle semble rebattre les cartes de la médiation, une autre tendance transforme structurellement le journalisme : l’essor des créateurs indépendants. Dave Jorgenson en est l’incarnation. Surnommé le « TikTok guy » du Washington Post, ce journaliste a propulsé l’influence du média sur les réseaux sociaux avant de voler de ses propres ailes en août dernier, pour lancer Local News International. Un départ retentissant : selon un rapport récent, il a emporté avec lui 85 % de l’audience YouTube du Post.
« C’est ce que j’appelle une relation parasociale positive. Ils se sentent connectés pour diverses raisons, que ce soit parce qu’ils nous regardaient pendant le COVID, plus tard ou avant cela ; il y a un lien qui s’est tissé avec le temps », explique-t-il lors d’un panel dédié aux infrastructures de demain. Pour sortir du lot dans un écosystème saturé, Jorgenson mise sur une recette exigeante : « Vous devez vous différencier, que ce soit par votre façon de parler de l’actualité ou par votre manière de monter les vidéos. » Aujourd’hui, il privilégie des formats plus longs et une dose massive d’humour, devenue son « fil conducteur ». Voici ses conseils pour ceux qui souhaitent se lancer dans l’aventure.

Liz Kelly Nelson (Projet C) et Dave Jorgenson (Local News International, ex Washington Post)
- Publier une charte éthique et être transparent sur la politique publicitaire, une “des choses les plus importantes” – À l’instar des recommandations de Liz Kelly Nelson (Projet C), Dave Jorgenson a publié une charte éthique détaillée, incluant sa politique publicitaire. « C’est un peu notre mantra, ces lignes directrices et ces règles, pour que tous ceux qui nous suivent et qui tiennent vraiment à nous y adhèrent », confie-t-il. Cette transparence a un avantage stratégique inattendu : elle crée une communauté de défenseurs, une minorité très restreinte mais très expressive de son audience. « Ce sont eux qui portent le flambeau. Si je reçois beaucoup de commentaires négatifs, la plupart du temps, je laisse nos abonnés répondre à notre place. »
Ce sont eux qui portent le flambeau. Si je reçois beaucoup de commentaires négatifs, la plupart du temps, je laisse nos abonnés répondre à notre place.
Dave Jorgenson
- Miser sur l’intelligence collective et savoir bien s’entourer – Pour Dave Jorgenson, passer de journaliste à entrepreneur a nécessité une adaptation. Confronté à la peur « du côté business » qu’il ne maîtrisait pas, il s’est associé à ses cofondateurs, Lauren Saks, ex-directrice adjointe de la vidéo au Washington Post, où elle a supervisé les chaînes TikTok et YouTube du journal, et Micah Gelman, ex-responsable de la vidéo au Washington Post, en charge de l’ensemble des fonctions éditoriales et commerciales. « Il faut s’entourer de personnes en qui vous avez confiance », insiste-t-il, soulignant que même en indépendant, le journalisme reste un sport collectif : « Même si vous êtes indépendant, vous avez besoin de gens de confiance qui ne vous feront pas de critiques négatives par jalousie. Ils le feront parce qu’ils se soucient de ce que vous faites. Avoir ce genre de soutien est très important, sinon, on se sent extrêmement seul en le faisant. »
- La diversification : une stratégie à penser dès le premier jour Pour Dave Jorgenson, la liberté de l’entrepreneuriat ne doit pas occulter la réalité économique. Pour « s’en sortir très bien », il a misé sur une diversification précoce. Entre le partenariat publicitaire avec Harry’s Razors – « On fait juste des vidéos maintenant où la blague est que j’insère un rasoir Harry’s sans aucune raison. C’est ça la blague, et ils nous paient pour le faire. Trop bien » – et les revenus YouTube, il a surtout développé un pôle conseil stratégique avec ses cofondateurs. « L’autre grande partie de notre entreprise, qui est tellement importante, c’est le volet conseil avec Lauren et Micah. Ils travaillent avec des salles de rédaction à travers tout le pays, et on l’espère, bientôt à l’international aussi. Et c’est vraiment précieux pour nous d’avoir ces connexions, mais aussi des collaborations futures potentielles avec ces rédactions. » Une approche indispensable selon lui : « Réfléchissez-y bien à l’avance. C’est un conseil que je donne à beaucoup de personnes qui viennent me voir en disant : « Hé, je pense à quitter ma rédaction pour me lancer là-dedans. » »
- Une confiance plus élevée en tant qu’indépendant – L’une des découvertes les plus marquantes pour Dave Jorgenson a été l’évolution immédiate de la relation avec son public. « Mon audience me fait davantage confiance depuis que je suis devenu indépendant », souligne-t-il, tout en reconnaissant toujours le travail des médias traditionnels, matériel essentiel de ses vidéos. « Je tiens à être très clair : l’un des meilleurs aspects en quittant le Post, c’est que maintenant, je peux puiser mes sources partout. Donc, n’importe quelle vidéo peut s’appuyer sur Reuters, le Post, le New York Times, peu importe. Je suis donc très clairement pro-médias traditionnels, évidemment, mais ils sont très heureux que je sois indépendant parce qu’ils ont remarqué quelques sujets dont je parle peut-être un peu différemment. Ce n’est pas un changement radical, mais pour les gens qui nous suivent, ils le remarquent et l’apprécient. Cette confiance est donc bien plus élevée qu’elle ne l’était auparavant. »
- Loin de prôner une rupture, Jorgenson anticipe une hybridation nécessaire : « Il y aura toujours des créateurs indépendants et des rédactions traditionnelles, mais ils se rapprochent. Et pour moi, c’est une bonne chose. Je pense que c’est là que les choses se rejoignent, sans vouloir dire qu’il ne faut pas essayer de construire ces infrastructures en interne. » Pour l’heure, de nombreuses rédactions ont cette année approché des créateurs en leur proposant des tarifs de pigistes. « Spoiler : ces tarifs sont déjà trop bas pour des journalistes freelances, alors imaginez pour des créateurs qui vous demanderont, très poliment, d’ajouter quelques zéros de plus », complète Sophia Smith Galer.
Le poids des institutions : « Au Portugal, la loi m’interdit de me présenter comme journaliste »
Si le modèle des créateurs indépendants semble séduisant, il se heurte parfois à des barrières législatives quasi insurmontables. Joana, créatrice indépendante venue du Portugal, a rappelé au public dans ce même panel que la liberté éditoriale a un coût juridique : « Au Portugal, la loi m’interdit formellement de me présenter comme journaliste. Si je le fais, je risque des poursuites et des amendes, ce qui est impossible à gérer sans une structure derrière soi. » Une injustice criante, souligne-t-elle, « Il y a énormément de gens dans les rédactions qui ne sont pas journalistes, qui signent des articles, et eux ne sont pas inquiétés. Mais si vous êtes indépendant, vous êtes ciblé parce que vous n’avez pas l’institution derrière vous pour garantir votre autorité », regrette-t-elle.

De gauche à droite : Justin Arenstein (Code for Africa), Amy Mitchell (Center for News , Technology & Innovation) Justin Bank (The Independent Journalism Atlas), Lizz Kelly Nelson (Project C), et Dave Jorgenson (Local News International)
- Pour cette indépendante, le système semble piégé : monétiser son contenu signifie perdre sa « carte de presse » et, par conséquent, sa légitimité aux yeux de l’État. « Ma question est donc : quelles sont mes options ? Soit je ne monétise pas mon travail et je ne mange pas, soit je retourne dans une rédaction où ils ne me paient pas pour travailler. » Le constat est sans appel : alors qu’un article en rédaction est parfois rémunéré « 15 euros ! », le travail indépendant permet de monter à « 50 ou 80 euros ».
- « Hacker » le système pour survivre. Face à cette précarité, la réponse pourrait résider dans une forme d’auto-organisation radicale. Pour contourner ces blocages, des solutions créatives émergent, comme en Afrique francophone où des journalistes ont contourné les autorités de régulation, explique Justin Arenstein, chief strategist de Code For Africa : « Ils ont créé une entité qui leur délivre une accréditation, comme solution de contournement. Donc, si vous devez travailler dans une entreprise de médias,ils ont en fait créé une coopérative qui ne facture rien. Elle n’exerce aucune activité commerciale, mais c’est une entité légale ; ils en sont membres et obtiennent leur accréditation par ce biais. »
- Pour les intervenants du panel, cette stratégie est indispensable : « Il existe donc peut-être des solutions créatives. Nous devons quasiment « hacker » le système tout en travaillant à sa réforme, car il s’agit d’une forme de contrôle monopolistique. » Cette solidarité transfrontalière est vivement encouragée : « La meilleure façon de résoudre ce problème est d’échanger des enseignements. »
- Au-delà de cette résistance juridique, la pérennité du créateur repose sur un changement de paradigme économique. Oubliez la course aux millions d’abonnés : l’avenir pourrait résider dans la théorie des « mille vrais fans », théorisée par Kevin Kelly, cofondateur du magazine Wired et mise en avant par l’un des intervenants du panel. Ce modèle, qualifié de « très durable », repose sur une promesse simple : pour gagner sa vie en tant qu’artisan de l’information, inutile de viser une audience de masse. « Il est beaucoup plus réalisable de viser un millier de clients qu’un million de fans. Viser des millions de fans payants n’est pas un objectif réaliste, surtout lorsque vous débutez. Mais un millier de fans est à votre portée. Vous pourriez même être capable de retenir mille noms. Si vous gagniez un nouveau vrai fan par jour, il ne vous faudrait que quelques années pour atteindre ce millier. » En somme, pour le journaliste indépendant, le salut ne viendrait plus de la validation par les institutions, mais de la profondeur de la relation avec sa communauté. Un retour à l’artisanat, où la valeur ne se mesure plus en portée médiatique, mais en fidélité pure.
- Toutefois, cette proximité avec l’audience comporte une face sombre parfois occultée. Comme le souligne dans un autre panel la journaliste Sophia Smith-Galer, suivie par 800 000 followers, cette relation privilégiée est une arme à double tranchant. Si elle est le moteur de l’indépendance, elle génère une charge mentale inédite : « Gérer les retours positifs est en réalité assez épuisant, car vous recevez un flux constant de sollicitations sur votre appareil. Vous êtes encouragé, voire incité, à être en communion permanente avec ceux qui vous suivent et vous font confiance. » Loin d’être un simple échange de contenus, le journalisme créatif devient alors un exercice de gestion émotionnelle de haute intensité, où la disponibilité constante devient une exigence aussi gratifiante que dévorante.
Journalistes en zone de conflit : entre patriotisme et autocensure
Dans Convergence autoritaire : comment la Russie, l’Iran et la Chine reconfigurent les écosystèmes de l’information, Thibaut Bruttin, Directeur général de Reporters sans frontières, rappelle que le déclin de la liberté de la presse à l’échelle globale atteint un seuil critique. Selon une enquête de Forbidden Stories, 77 % des répondants (journalistes) ont été menacés par des représentants des autorités publiques (fonctionnaires, élus locaux, élus nationaux, forces de l’ordre). C’est deux fois plus que par des groupes criminels ou armés., remarque Laurent Richard, Fondateur de Forbidden Stories. En Iran, la population a vécu un blackout internet complet de pus de 50 jours. Face à 90 millions d’habitants, les 60 000 terminaux Starlink disponibles sont dérisoires ; l’information ne circule plus que par des réseaux précaires de « comptes sociaux de confiance ».

Noa Landau, Gur Megiddo et Milàn Czerny au Teatro del Pavone
- Une pression réelle qui pousse au départ forcé que ce soit en Iran, en Chine ou en Russie : le média Istories, après avoir été capable d’émettre pendant deux ans depuis la Russie, est désormais installé en exil. La situation est d’une violence extrême, explique Alesya Marokhovskaya, rédactrice en chef de Important Stories : leurs sources restées en Russie ne se parlent pas et ne se connaissent pas entre elles pour limiter les risques, car la simple collaboration avec le média expose à une peine de 5 ans de prison. Ce mur du silence brise tout lien de communication organique entre l’intérieur et l’extérieur du pays.
- À New York, Vivian Wu, fondatrice de Dasheng (Mighty Voice, car parfois il faut crier), utilise la liberté numérique pour infiltrer la muraille de censure chinoise qui s’exporte désormais partout dans le monde. Pour partager ses contenus tout en contournant la surveillance, ses abonnés rusent en masquant ses vidéos YouTube sous forme de fichiers audio présentés comme de la musique. Son approche pour combattre la simplification « noir et blanc » du régime : de la sophistication, de l’articulation et de la complexité dans ses contenus. Pour elle, l’enjeu est de créer une « archive de connaissances » sans limite de format. Son contenu ayant eu le plus de succès est d’ailleurs une interview d’un scientifique de 3 heures, prouvant l’appétit pour le temps long. Elle impose une seule contrainte : les interviewés donnent leur vrai nom, leur vrai visage, dans un décor soigné qu’elle qualifie de « très anti-social media ». Tous les acteurs s’accordent sur la nécessité de collaborer sur les moyens technologiques pour détourner la censure, mais aussi sur les enquêtes éditoriales, esquissant peut-être bientôt un réseau de journalistes en exil.
- Dans ces zones de conflit, la perception de la censure par le public s’inverse radicalement. Noa Landau, directrice adjointe de Haaretz, et Milan Czerny, journaliste et chercheur, soulignent qu’en Israël, où la censure installée sous le protectorat britannique et toujours d’usage ne se fait plus par fax mais par WhatsApp, la mention « cet article a été approuvé par le censeur » est devenue un véritable sigle de qualité. Selon les journalistes présents dans la table ronde Le paradoxe du censeur : censure israélienne, Gaza et contrôle de l’information à l’ère de l’IA, cette censure acceptée, voire sollicitée par les lecteurs pour ne pas « décourager la nation », transforme le journalisme en un mécanisme social d’autocensure. Le professionnel assume alors d’être d’abord un citoyen patriote avant d’être journaliste. Face à ces enjeux, les réseaux de journalistes en exil ne se positionnent pas en concurrents des médias institutionnels, mais comme une brique vitale capable de combler le « gap » informationnel en répondant précisément aux besoins de nuances de l’audience.
D’un côté, les journalistes opérant en zones de conflit et sous le joug de la censure doivent persévérer dans le vieil exercice de l’écriture et de la lecture entre les lignes pour laisser poindre la réalité ; de l’autre, les journalistes en exil déploient des subterfuges technologiques, s’appuyant notamment sur l’intelligence artificielle pour franchir les murailles numériques et maintenir le lien avec leurs audiences.
Sophia Smith Galer : « Je ne parlerai jamais d’un individu comme d’une « marque » »
Avec plus de 800 000 abonnés, Sophia Smith Galer s’impose comme une figure incontournable de l’information en ligne. Pourtant, la journaliste rejette catégoriquement l’étiquette de « marque » personnelle, souvent accolée à son travail par les médias traditionnels. « Je ne parlerai jamais d’un individu comme d’une « marque » », lance-t-elle lors d’un panel animé par Antonia Zappulla, CEO de la Thomson Reuters Foundation. Pour elle, le terme de « personal branding » est non seulement absent de son vocabulaire, mais il agit comme un outil de dépréciation. « Pour les femmes, il semble que beaucoup de contenus sur les réseaux sociaux soient perçus comme un exercice de « personal branding » ou de gestion d’image. Mais pour les hommes, on parlera plutôt d’entrepreneuriat ou de croissance. » Dans le monde des créateurs, elle précise d’ailleurs que personne ne parle de « personal branding ».
- Loin de l’image de marque, elle revendique une pureté journalistique adaptée aux nouveaux formats. « Je perçois mon travail comme une compréhension de la stratégie de format. C’est du journalisme, c’est de l’analyse, et c’est une manière de répondre aux changements de l’écosystème de l’information. » Cette adaptation impose de « désapprendre » les réflexes des rédactions traditionnelles pour placer l’audience au centre. « Pour que votre produit soit un succès, il doit être axé sur le public avant tout. »
- Ce basculement vers l’indépendance offre également une autonomie financière que les médias classiques peinent à égaler. « Les partenariats de marque sont bien plus rentables que ce que je toucherais en rédigeant une enquête pour un média classique (en tant que freelance) », observe-t-elle. Les tarifs en freelance sont souvent bas et ne reflètent absolument pas l’ampleur du travail à fournir, poursuit-elle. Comme ce sont les créateurs qui captent l’attention du public en ce moment, les annonceurs disposent de budgets conséquents qu’ils souhaitent investir auprès d’eux.
- Comment décrocher ce type de partenariats ? Avoir une grande communauté ne suffit plus. Lorsqu’une organisation ou une entreprise vous contacte, elle voudra souvent en savoir davantage sur les caractéristiques de votre audience, sauf si elle dispose déjà d’outils pour les analyser elle-même. « En coulisses, elles effectueront probablement des calculs sur votre taux d’engagement. Le nombre d’abonnés ne compte plus vraiment depuis un bon moment déjà. Si ce que je dis est une nouveauté pour vous, responsables de réseaux sociaux en salle de presse, sachez que vos équipes médias le savent depuis longtemps. Demandez-leur conseil : elles savent ce qui compte aujourd’hui et pourront vous l’expliquer.» Ce qui intéresse les entreprises, c’est le taux d’engagement. Elles veulent savoir : « Si je paie cette personne des milliers de dollars, quel sera mon retour sur investissement ? Vont-ils m’apporter tel nombre de vues ? »
- Toutefois, Sophia Smith Galer refuse l’opposition binaire entre médias indépendants et traditionnels. Elle continue de collaborer étroitement avec ces derniers, notamment pour les sujets les plus sensibles. « Parfois, quand les gens parlent de mon parcours en disant que j’ai quitté les médias traditionnels, je ne pense pas avoir jamais vraiment quitté les médias traditionnels. Pour quelqu’un qui est censé les avoir quittés, je travaille énormément avec eux. »
- Le paysage évolue, et avec lui, la reconnaissance juridique du statut de créateur. En Afrique du Sud, par exemple, le Conseil de la presse autorise désormais les journalistes créateurs à devenir membres. Ils doivent simplement respecter le code de conduite. Au Danemark, le Syndicat des journalistes danois dispose d’une branche dédiée aux créateurs avec son propre code de déontologie. Aux Pays-Bas, le Syndicat des journalistes néerlandais accepte les créateurs d’actualités comme membres à part entière, à condition, là encore, qu’ils respectent les mêmes normes. « Et en Belgique, on observe une discussion vraiment intéressante au sein du syndicat traditionnel, où les journalistes ne veulent pas des journalistes créateurs car, comme je l’ai dit, ils ne sont pas des « journalistes »»”, explique Sophia Smith Galer. Pour la journaliste, la transition ne doit en aucun cas être une obligation : « Je ne pense pas que chaque journaliste devrait se sentir obligé de faire de la vidéo verticale si ce n’est pas ce pour quoi il a signé. »
Comment préparer la prochaine génération de journalistes ?
Nikita Roy, créatrice du podcast Newsroom Robots, a ouvert le débat sur une question existentielle pour la profession : si l’IA s’impose comme le nouveau « stagiaire » capable d’absorber les tâches d’exécution, quelle place reste-t-il pour les nouveaux entrants ? Pour Jeremy Kaplan, directeur de l’innovation à la CUNY Graduate School of Journalism (et auteur de la newsletter Wondertools), le journalisme suit la trajectoire de la médecine : une mutation irréversible vers l’ultra-spécialisation. Là où l’on formait des journalistes généralistes, on voit émerger des profils de fact-checkers de pointe, de data scientists, de managers d’agents IA ou encore d’auditeurs de LLM.

Le public au Teatro della Sapienza
- Cette transformation profonde se traduit déjà dans les cursus académiques de la CUNY, où le curriculum est désormais révisé chaque semestre pour coller à la vitesse de l’innovation. Les étudiants y explorent des disciplines hybrides telles que le drone journalism, l’investigation algorithmique (algorithm investigators) ou le interactive storycoding. Cette technicité nouvelle s’accompagne d’un changement de paradigme éthique brutal : en temps de guerre ou de crise majeure, la sécurité est devenue la priorité absolue, supplantant désormais les traditionnelles questions légales et déontologiques.
- Pour Astrid Maier, rédactrice en chef adjointe de la DPA, une certitude s’impose : nous basculons irrémédiablement vers de nouveaux formats. Le fétichisme ancestral autour de l’écriture s’efface face à l’émergence de machines savantes et polyglottes. Nous devons impérativement cesser de nous définir uniquement comme des « écrivains » pour concentrer nos efforts sur ce que l’IA ignore encore, bien que ce champ de possibles se réduise chaque jour davantage. L’enjeu est de rester des storytellers : les humains demeurent, pour l’instant, les mieux placés pour comprendre ce que leurs semblables veulent entendre, même si OpenAI tente déjà d’investir ce terrain émotionnel en acquérant le studio de podcast TBPN. Mais au-delà du simple récit, le journalisme doit désormais porter le Truthtelling (le dire vrai) et s’atteler à reconstruire une confiance solide avec la communauté, à une époque paradoxale où les citoyens commencent déjà à accorder leur confiance à des chatbots.
Nous devons cesser de nous définir comme des rédacteurs et nous concentrer sur ce que l’IA ne sait pas faire.
Astrid Maier
- Jeremy Kaplan répond à l’interrogation quelque peu philosophique sur le nouveau socle du journalisme par une formule de « 5 V ». Un modèle qui permettrait d’établir un équilibre rigoureux entre les attentes profondes des citoyens et l’exigence de vérité, en s’appuyant sur cinq piliers fondamentaux : Valeurs, Vision, Voice (la Voix/l’Identité), Verification et Venturing (l’Audace/l’Aventure).
- À Stanford, l’enseignement a opéré un pivot majeur, explique Djordje Padejski : on abandonne l’apprentissage d’outils déterministes au profit de celui de l’esprit critique (une compétence qui, d’ailleurs, aurait toujours dû être au cœur des rédactions). Au lieu d’enseigner des « tools » qui changent désormais toutes les deux semaines, on se concentre sur l’enseignement de concepts fondamentaux. Ce changement s’inscrit dans un contexte paradoxal : on a un besoin vital de compétences clés du domaine, ce savoir-faire des seniors capables d’apporter une vision d’ensemble, un diagnostic précis et un jugement humain réel, et pourtant, ce sont ces journalistes qui ont été licenciés en premier lors de la vague d’allégement économique de ces dernières années. Le dilemme est majeur pour l’avenir de la profession : d’un côté, on manque de ces profils seniors indispensables, et de l’autre, on n’a plus la possibilité d’entraîner les jeunes, car ces derniers semblent aujourd’hui facilement remplaçables par un robot.
- Majeur dilemme, que la DPA tente de résoudre avec des actions RH innovantes : au lieu de laisser analyser les CV des nouveaux entrants par des algorithmes, les candidats se prêtent à un exercice d’interview vidéo de deux minutes sur des sujets liés à l’IA (format « video first » oblige) avec Astrid Maier, qui décrit un changement de paradigme total : le traditionnel « learning by doing » se transforme désormais en « learning by design ».
- La comparaison avec la médecine occidentale du début de cette table ronde paraît à double tranchant : si l’ultra-spécialisation permet une expertise pointue, elle risque de faire perdre la vision d’ensemble du « corps » social, menant parfois les journalistes à passer à côté de diagnostics évidents. À cette approche fragmentée, on pourrait préférer un journalisme inspiré de la médecine chinoise, capable de maintenir une vision holistique tout en intégrant des outils modernes.
- Face à un contenu infini confronté à un jugement humain réel fini, une question disruptive émerge du public, portée par Ulrike Langer, fondatrice de News Machines : ne serait-il pas plus simple d’engager des profils technologiques pour les former au journalisme plutôt que l’inverse ? À l’issue des débats, l’image de ce journaliste-orchestre des temps modernes reste floue : un expert capable d’analyser, de vérifier et d’agir comme une véritable OPC (One Person Company), tout en dirigeant des armées d’agents plus ou moins secrets ou au contraire, ou celui qui, au contraire, range ses algorithmes pour renouer avec ce qui a toujours fait le sel du métier : frapper à une porte, regarder quelqu’un dans les yeux, et raconter ce que nulle machine ne saura jamais vraiment ressentir.
Conclusion
Pérouse, comme chaque année, aura eu le mérite de nous forcer à regarder en face ce que nous préférerions parfois ignorer. L’état du journalisme en 2026 n’est ni une catastrophe annoncée ni un horizon radieux : c’est une bifurcation vertigineuse, où chaque choix engage bien plus que des modèles économiques. Il engage une certaine idée de ce que signifie informer dans une démocratie. Ce qui frappe dans les débats de cette édition, ce n’est pas tant la puissance de la technologie (d’ailleurs, la Big Tech y est presque absente) que la résistance obstinée de l’humain. Le journaliste traumatisé qui fonde un média, le reporter qui maintient le lien avec le réel au péril de sa vie, le créateur qui bâtit sa légitimité ensemble avec son audience. Tous incarnent, à leur façon, une même conviction : l’information ne peut pas se réduire à un jeu des données. Si le spectre de la « broligarchie » et de l’IA générative semble dessiner un futur où l’information est liquide, atomisée et sans ancrage, l’édition 2026 nous rappelle que la valeur refuge ne réside pas dans le packaging (dans le produit), mais dans la vérité brute et incarnée. Le journalisme ne couvre plus seulement la crise, il en devient la cible. L’IA sauvera ou achèvera le journalisme, mais la réponse réside dans sa capacité à redevenir une plateforme ouverte, humaine et viscéralement ancrée dans le vrai.
llustration : Maria Ressa au FIJ, photo Francesco Cuoccio
“Always on” : le CES 2026 comme baromètre des rapports de force qui structurent le réel
En 2026, la vie numérique cesse d’être un espace que l’on « ouvre » ou auquel on se « connecte ». Elle devient un environnement continu, qui nous entoure, négocie à notre place et décide de plus en plus de ce qui parvient jusqu’à notre attention. En sortant des rangées de machines à sous de Las Vegas, la question n’est pas « quel nouveau gadget », mais « qui contrôle désormais notre accès au monde ». Ici, l’humain augmenté ressemble moins à un super-héros qu’à une version bêta de la machine qu’il est censé entraîner. Entre exosquelettes, dispositifs d’assistance cognitive et interfaces gestuelles, on a parfois l’impression que l’industrie fabrique une phase transitoire : des corps « outillés » pour produire des gestes exploitables, le temps que les robots apprennent avant de prendre la relève. Mais ne tombons pas dans l’imaginaire apocalyptique dès le début de l’année.
Par Kati Bremme, Directrice Innovation & Prospective et Rédactrice en chef Méta-Media
Le CES 2026 ne raconte pas la disparition des médias. Il raconte le moment précis où ils cessent d’être centraux dès lors que l’architecture de la médiation leur échappe. Ce qui se joue à Las Vegas n’est pas une nouvelle vague d’innovations de surface, mais une reconfiguration silencieuse des conditions de production, de visibilité et de confiance. Le salon de cette année marque, de manière très nette, la sortie d’une période d’exubérance matérielle. Les écrans toujours plus grands, les démonstrations spectaculaires, les promesses futuristes sont toujours là, mais ils ne font plus système.
Idées clés :
- Du visible à l’invisible : la révolution silencieuse des infrastructures
- L’agentisation des usages : vers la fin de l’interface
- Traçabilité et confiance : un nouveau contrat social pour les médias
- Économie de l’intention : la fin du clic
- IA embarquée et personnalisation locale : la fin du profilage centralisé
- Mutations de la production culturelle : Hollywood, créateurs et fandoms à l’ère de l’IA
- Simulation vs réalisme : l’innovation en tension
- Robotique : réorganiser le travail plutôt que briller en gadget
- Infrastructure IA : un enjeu géopolitique et stratégique majeur
Les annonces les plus structurantes portent moins sur des produits finis que sur des plateformes, des stacks, des machines de calcul et des systèmes d’orchestration. Le traitement quasi rock star réservé à Jensen Huang, chez Nvidia, en est un symptôme révélateur. Cette transformation se lit dans l’organisation même du salon, désormais structurée en profondeur : un CES grand public visible et spectaculaire, conçu pour la mise en scène médiatique ; un niveau startups, plus discret, où se négocient intégrations, partenariats et premiers cas d’usage ; et, en arrière-plan, un étage décisif, celui du calcul, des modèles et des métriques. L’essentiel ne se joue plus dans les usages visibles, mais dans l’infrastructure critique : ces couches invisibles qui conditionnent leur existence et leur monétisation.


Le CES reste un show à l’américaine, bien sûr. Mais ce qui importe n’est plus ce qui se voit immédiatement. Ce sont les infrastructures qui décident ce qui sera vu, comment, par qui, et selon quelles métriques. Pour les médias, ce déplacement est stratégique. La concurrence ne porte plus d’abord sur la production de contenus, mais sur la capacité à rester lisible et intégrable par des systèmes qui gouvernent la découverte et la recommandation, où la technologie s’efface derrière les usages qu’elle permet. Le salon révèle un renversement profond du pouvoir technologique, et annonce une reconfiguration des chaînes de valeur, des dynamiques de visibilité et des modes de narration de l’innovation. Le constat formulé dans l’article fondateur des grands modèles de langage s’applique désormais pleinement au paysage médiatique : « Attention is all you need ».
1. La fin de l’outil, l’avènement du système (fermé)
Internet fut longtemps perçu comme un objet homogène, incarné par une figure unique, « Monsieur [ou Madame] Internet ». Puis il est devenu un écosystème de métiers, de spécialisations, de chaînes complexes, où coexistent ingénieurs réseau, développeurs backend, experts sécurité, data scientists, designers d’interfaces. L’intelligence artificielle suit la même trajectoire. L’IA n’apparaît plus comme un outil que l’on choisit, mais comme un environnement dans lequel on opère. Le CES 2026 montre que nous avons quitté l’ère du « prompt magique » pour entrer dans celle d’un monde d’architectures et de dépendances. L’IA a définitivement gagné les étages de la direction : elle n’est plus expérimentale, elle est désormais industrielle et structurelle.

Chez Nvidia, le basculement est explicite. Il n’est plus question de vendre des GPU, mais de vendre des « AI factories ». Des ensembles complets, intégrés, verrouillés par l’architecture elle-même : calcul, interconnexion, modèles, cadence industrielle, le tout le plus puissant possible. Les annonces autour de Vera Rubin, des racks à très haute densité posent un fait brut : le calcul devient une infrastructure structurante, inaccessible sans alignement stratégique de long terme. La phrase répétée par Jensen Huang « You no longer program, you train » acte la fin d’un rapport artisanal au logiciel. Au lieu d’outiller des usages on installe désormais des conditions de production.
« You no longer program, you train »
Le même déplacement est visible chez Google, notamment à travers la télévision. Google TV n’est plus pensée comme un écran parmi d’autres, mais comme un point d’entrée cognitif, grâce à l’intégration de Gemini. Le même Gemini qui, selon les paroles de Demis Hassabis, PDG de Google DeepMind, est censé devenir « l’Android des robots ». En attendant, la télévision devient un appareil toujours actif (« Always on »), capable de répondre, d’expliquer, de contextualiser, d’orienter bien au-delà du contenu fourni par les médias.
Le temps de l’organisation des catalogues est révolu. Le téléviseur prend soin de vous et de votre famille (« TV is about catering for the family ») et structure des interprétations du monde. L’écran n’est plus le cœur du dispositif, c’est la couche de médiation qui se superpose. Pour les médias, la promesse est à double tranchant. D’un côté, Google insiste sur l’accessibilité, la découvrabilité et la continuité des usages entre écrans. Les chiffres sur le « continue watching » sont parlants : une majorité des clics passent déjà par ces mécaniques. De l’autre, la dépendance à des API de découverte devient structurelle. Être visible suppose d’alimenter des systèmes dont les règles sont définies ailleurs, même si l’on peut encore y injecter quelques « règles » éditoriales.
2. La vie déléguée, l’économie de l’intention
Le CES 2026 rend perceptible un déplacement structurel : la vie numérique entre dans un régime de délégation. Les tâches glissent de l’exécution directe vers des systèmes qui agissent au nom de l’utilisateur. Ce basculement dépasse largement les questions d’interface ou de confort d’usage. Il engage des rapports de pouvoir, des modèles économiques et des choix politiques. Dans cet écosystème, l’interface qui gagne est celle que l’on n’utilise pas. L’utilisateur n’apprend plus des workflows, il apprend à formuler des intentions, à fixer des garde-fous, et à arbitrer des escalades. L’usage média se transforme en conséquence : « Trouve-moi ce qui mérite mon attention sur ce sujet, (potentiellement à partir de sources que je considère crédibles), avec des preuves, dans mon registre. La consommation devient une négociation entre agents. Fox rappelle qu’en 2025, plus de 50 % du trafic web était déjà non humain. Et c’est précisément cela qui se délègue : l’attention, devenue la ressource rare, confiée à des systèmes chargés de la capter, de la trier et de la monétiser.
La consommation devient une négociation entre des agents
Dans l’industrie du divertissement, les fonctions de navigation deviennent des fonctions d’appel. Amazon met en avant une production de contenus « at scale, high fidelity, high quantity », rendue possible par une structuration fine des œuvres et des métadonnées. La quantité n’est plus traitée comme un problème en soi, mais comme une condition d’accès à des usages personnalisés. Les contenus sont conçus pour circuler nativement entre plusieurs plateformes, du streaming aux univers comme Roblox, Minecraft ou Fortnite. Amazon parle de « jointly incentivized motion » pour décrire cette capacité à faire migrer une dynamique narrative d’un espace à l’autre sans rupture d’intention. Les fonctions mises en avant rendent ce déplacement très concret. Le « jump to scene » permet d’accéder directement à un moment précis d’un programme. Les X-Ray recaps proposent des synthèses dynamiques, à l’échelle d’un épisode, d’une saison ou d’un arc narratif. L’œuvre cesse d’être seulement parcourue et devient interrogeable, à partir d’une intention formulée.

Dans le commerce et les services, la même tendance s’impose. Les démonstrations agentiques chez Walmart rappellent une règle simple : un agent n’est jamais meilleur que la plateforme de données sur laquelle il repose. La promesse de fluidité dissimule des choix lourds sur ce qui est vu, ce qui est recommandé ou ce qui est ignoré. Pour les médias, cela pose une question éditoriale difficile. Qu’est-ce qui peut et doit devenir machine-exprimable, sans transformer l’information en matière générique recombinable à l’infini. Où placer la frontière entre structuration nécessaire et perte de singularité. Concevoir des produits pour deux audiences simultanées (humains et agents) n’est pas un simple exercice de style. C’est désormais une condition de survie dans un monde où l’intention précède l’exposition.
L’économie numérique se reconfigure autour de l’intention : anticiper et satisfaire le besoin latent de l’utilisateur, plutôt que de provoquer un clic superficiel. Cela implique de nouveaux indicateurs de performance (pertinence, intégration contextuelle…) et force les acteurs à repenser entièrement la monétisation en ligne, au-delà du CPM et du CPC hérités de l’ère du clic.
3. La réalité synthétique devient banale, la provenance devient rare
Un autre fil rouge de CES 2026 est la quête du réalisme total par la simulation, et les questions qu’elle soulève face au besoin d’authenticité. D’un côté, les géants technologiques comme Nvidia poussent les limites du faux-semblant parfait. La présentation de Jensen Huang a ébloui en dévoilant des modèles génératifs capables de produire des vidéos photo-réalistes presque indiscernables du réel. Les nouveaux modèles “Cosmos”peuvent générer des scènes pour entraîner les robots autonomes basés sur GROOT ou encore les voitures autonomes avec Alpamayo, fournissant des données synthétiques à moindre coût pour simuler le monde physique, car, selon toujours le même Jensen Huang, « Collecting real world data is too slow and never enough ». De même, les dernières cartes graphiques Nvidia promettent des rendus graphiques de jeux vidéo « dignes du cinéma », abolissant la frontière entre image de synthèse et prise de vue réelle.
« Collecting real world data is too slow and never enough »
À l’opposé, certains créateurs misent sur des approches moins focalisées sur la fidélité visuelle brute et davantage sur l’esthétique ou l’émotion. Le studio Baobab, par exemple, renommé dans la VR narrative, produit des expériences immersives stylisées (dessins animés VR) où l’engagement du spectateur vient de l’histoire et de l’interaction, non du réalisme photographique. Cette dualité pose une question : jusqu’où la technologie doit-elle chercher à imiter le réel ? D’un côté, la simulation hyperréaliste ouvre des possibilités énormes, pour la formation (jumeaux numériques, entraînement d’IA), pour le divertissement (des mondes virtuels crédibles), pour la création (pouvoir « filmer » l’imaginaire comme s’il était vrai). De l’autre, elle nourrit aussi une forme de saturation ou de méfiance du public, à l’heure où un deepfake (dont la technologie de fabrication est devenue accessible à tous) peut semer le doute. La ligne de crête entre le virtuel et le réel s’amincit dangereusement, et l’enjeu devient la confiance et la finalité.

Pour les médias, la production devient certes quasi gratuite, quasi instantanée, quasi infinie. Micro-dramas, formats verticaux, déclinaisons automatiques, publicité générée par IA, contenus contextuels : la rareté s’est déplacée. Ce basculement pose un problème de statut. Lorsque des images, des scènes ou des comportements sont générés parce qu’ils fonctionnent, la question n’est plus « est-ce vrai ? », mais « d’où cela vient-il, dans quel cadre, avec quelles règles ? ». C’est exactement ce que plusieurs intervenants résument de manière abrupte : « Authenticity will not mean anything in three years ». Non pas parce que tout serait faux, mais parce que l’authenticité cesse d’être un critère opérant. La création n’est plus rare, l’attention qualifiée et la provenance le sont. Dans un univers d’abondance, la valeur revient à ceux qui savent sélectionner et attribuer les sources. Le site web, par exemple, ne sert plus tant à attirer des clics qu’à « prouver » et documenter la véracité d’un contenu dans un monde où tout se reformule.
« Authenticity will not mean anything in three years »
En ouvrant Creative Cloud à des modèles tiers (Runway, ElevenLabs), tout en maintenant Firefly comme standard de contenus juridiquement exploitables, Adobe acte une séparation nette entre génération libre et production exploitable. La valeur ne réside pas dans la capacité à générer, mais dans la capacité à qualifier l’usage et son cadre légal. Enfin, un signal faible mais révélateur traverse plusieurs échanges, traduit par un : « PDFs are the most valuable content in the world », selon Jensen Huang, encore. Non plus comme formats de diffusion, mais comme réservoirs exploitables de contexte et de références. Cette logique, où la valeur se déplace de l’objet vers son cadre d’exploitation, irrigue désormais toute l’industrie de la création.
En un sens, l’IA industrialise la simulation du réel au service de la créativité. La question devient alors narrative : comment les raconteurs d’histoires (journalistes, cinéastes, artistes) vont-ils exploiter ces outils de simulation tout en maintenant un ancrage dans le sens et la vérité ? La course au réalisme technique a besoin d’un garde-fou humain pour éviter que l’innovation ne se réduise à une fuite en avant du toujours plus vrai que nature.
4. Robotique : réorganiser le travail plutôt que briller en gadget
Longtemps, la robotique grand public présentée au CES relevait du gadget spectaculaire, à l’image du petit androïde dansant qui fait le buzz puis tombe dans l’oubli. En 2026, le ton a changé : la robotique s’affirme comme un levier de réorganisation du travail à grande échelle, bien au-delà de la hype éphémère. Sur le salon, ce sont moins les robots-chiens joueurs qui attirent l’attention que les bras automatisés d’entrepôt, les drones agricoles intelligents ou les robots livreurs autonomes. L’IA et l’automation ont pris d’assaut le monde physique. Les démonstrations observées chez Unitree, EngineAI ou Boston Dynamics (qui a présenté Atlas comme prêt pour la production) reposent sur une coordination motrice désormais compatible avec la réalité.

Mais à mesure que l’on parcourt les allées du CES 2026, un même mouvement devient lisible. Sous les discours sur l’assistance et l’augmentation, l’humain apparaît de plus en plus comme acteur d’un processus d’apprentissage des systèmes, intégré à leur montée en compétence, quand lui-même ne se transforme pas purement et simplement en robot à force de se voir appliquer des extensions mécaniques à son propre champ de capacités physiques. Les exosquelettes en offrent une illustration concrète. Présentés comme des dispositifs d’ergonomie ou de protection, ils accompagnent les gestes, stabilisent les postures et réduisent la pénibilité. Ils produisent aussi des données précises sur le mouvement humain.
La maturité résulte d’un long travail d’observation, d’imitation et d’ajustement à partir de gestes humains. L’humain joue ici un rôle de référentiel fonctionnel. Dans l’habitat, le concept de Zero Labor Home présenté par LG prolonge cette approche. Le robot y prend en charge des micro-tâches, coordonne des objets connectés et anticipe des besoins simples. Le quotidien est pensé comme un système organisable, dans lequel l’humain reste présent, mais délègue progressivement certaines fonctions. Pris ensemble, ces éléments décrivent une transformation progressive de notre rôle.
L’humain devient à la fois utilisateur, référence, correcteur et superviseur. Les chiffres confirment cette intégration : le marché global des robots est projeté à 178 milliards $ d’ici 2030, porté par la demande en productivité et les nouveaux modèles Robotics-as-a-Service qui démocratisent l’accès à l’automatisation. Au CES 2026, les initiatives nationales comme le pavillon sud-coréen dédié aux humanoïdes témoignent aussi de l’ambition stratégique derrière la robotique.
La bascule narrative est claire : On parle moins de « robots qui volent nos emplois » que de « robots qui repensent nos emplois ». Dans les entretiens, les experts soulignent que l’enjeu n’est pas la disruption brutale mais la transition : redéployer les travailleurs humains sur des tâches à plus forte valeur pendant que les robots prennent en charge les tâches pénibles, dangereuses ou répétitives. En un mot, rendre le travail plus humain en laissant la machine faire le reste.
À l’échelle industrielle, la robotique devient ainsi un sujet d’organisation du travail et de captation de valeur : elle redessine les frontières entre production, supervision et décision, bien plus qu’elle ne remplace des postes.
5. Création : de la panique au pipeline, du studio à l’écosystème
L’impact de ces nouvelles technologies ne se limite pas aux devices et aux plateformes : l’ensemble de l’industrie culturelle voit ses méthodes de production bouleversées. À Hollywood, dans la création audiovisuelle et même chez les créateurs indépendants, l’IA s’insinue désormais à chaque étape du pipeline. Des studios pionniers comme Secret Level parlent de “filmmaking AI-native”, où l’IA n’est plus un gadget d’effets spéciaux mais un collaborateur à part entière de l’écriture au montage. Le basculement est perceptible dès les premières sessions de « Digital Hollywood » consacrées à la création, où on évoque un moment « Citizen Kane » de l’industrie : la peur a changé de nature, même si tout va toujours trop vite (« What changed from last year? One year equals one hundred years », ou encore « Everything before feels like slow motion »). Il y a un an, l’IA était vécue comme une menace diffuse, un facteur de déqualification ou encore un risque de dépossession. En 2026, ce registre émotionnel s’est largement déplacé. La question n’est plus de savoir si l’IA va transformer la création, mais où se trouvera la valeur quand la création devient un pipeline. Le progrès n’est plus linéaire, il est exponentiel et visible en temps réel.
« Everything before feels like slow motion »
Outils de génération de visuels et de vidéos à la volée, moteurs de synthèse de personnages, assistants à la scénarisation – on assiste à la fusion du monde du jeu vidéo, de l’animation et du cinéma en un continuum technologique unifié par l’IA. Secret Level (souvent comparé à un Pixar de l’IA) développe Liquid Engine, une plateforme de production dopée à l’intelligence artificielle. Objectif : « créer un pipeline sans friction pour Hollywood, accélérant radicalement la production de films, séries, animation, documentaires, jeux… ». Derrière cet outil, c’est une promesse de gain de productivité et de créativité démultipliée : imaginer qu’un réalisateur puisse générer en quelques clics des story-boards animés, que des acteurs virtuels jouent des scènes avant même le tournage, ou que les fans eux-mêmes participent à enrichir un univers via du contenu généré. Car les fandoms justement, pourraient tirer profit de ces mutations : à l’ère de l’IA générative, la frontière entre créateur et public s’estompe. On voit déjà des communautés de fans utiliser des modèles ouverts pour produire des œuvres dérivées (fictions, art, vidéos) autour de leurs franchises préférées. Cela pose des questions inédites sur la propriété intellectuelle et le rôle des studios (au delà des pratiques déjà en cours sur TikTok) : doivent-ils encourager ces créations participatives comme nouvelle forme d’engagement, ou les craindre comme une concurrence ?

Liquid Engine est une réponse à un problème très concret, celui de pipelines conçus par des ingénieurs pour des ingénieurs, là où les créateurs ont besoin d’environnements malléables, expressifs et contournables. La création ne disparaît pas dans l’automatisation, elle se déplace vers la capacité à plier les outils. Ils ont même annoncé leur propre formation, la Secret Level Academy, pour partager la nouvelle grammaire IA-native.
« Without a script, AI is just a screensaver »
La même logique apparaît chez Autodesk, depuis l’acquisition de Wonder Dynamics, développeur de logiciels d’animation 3D et d’effets visuels basés sur le cloud. Le message est clair : chaque projet a désormais son workflow spécifique. Là où un film reposait autrefois sur un nombre limité d’outils, maîtrisés par un nombre restreint de professionnels, une production contemporaine mobilise aujourd’hui une quinzaine de briques différentes, reliées par des pipelines organiques construits dans le temps. L’IA en rend l’orchestration stratégique. Cette évolution modifie profondément les profils recherchés. La figure émergente n’est plus le créatif isolé ni le technicien spécialisé, mais le creative technologist, capable de comprendre les contraintes algorithmiques sans sacrifier l’intention narrative. Même si l’artiste demeure la valeur de référence, comme le résumait cette punchline entendue dans l’un des panels : « Without a script, AI is just a screensaver ».
6. Du fandom à la co-création : qui mène vraiment le jeu ?
Warner le confirme aussi : « IP is gold ». Et les créatifs de Showrunner, dont le modèle repose sur une rémunération automatique du créateur original pour chaque contenu généré par IA, s’exclament, désespérés : « Just judge the work. Do not ask what tools were used ». 2025 opposait encore créateurs et technologies. 2026 sera-t-elle l’année des technologies créatives ?
« Just judge the work. Do not ask what tools were used »
Au-delà de Hollywood, c’est toute la chaîne de création culturelle qui se recompose : auteurs, éditeurs, plateformes de diffusion et communautés de fans interagissent différemment. Au CES 2026, une formule d’Adobe résonne dans les couloirs du Convention Center comme un mantra de la nouvelle économie culturelle : « Let the fan drive the narrative. » Loin d’être un simple slogan marketing, cette phrase cristallise un renversement profond dans la création de contenus. Désormais, le public n’est plus seulement destinataire d’un récit fabriqué en studio, il en devient le co-auteur, l’amplificateur, parfois même le véritable moteur.

La démonstration la plus spectaculaire de ce basculement vient du partenariat entre Adobe et la NFL. Pour la saison en cours, la ligue de football américain a activé 2 000 créateurs de contenus. Pas comme de simples influenceurs à qui l’on confie une campagne ponctuelle, mais comme de véritables « extensions éditoriales de la marque ». Ces créateurs produisent du contenu original autour des matchs, des joueurs, des moments forts. Ils ne relaient pas un message institutionnel : ils deviennent des médias à part entière. « Creators are media », affirme-t-on chez Adobe. Dude Perfect a levé 100 millions de dollars et affiche une valorisation de 5 milliards. MrBeast sert régulièrement de point de comparaison structurel dans les discussions sur l’avenir du divertissement.
« Creators are media »
Adobe Foundry pousse cette logique encore plus loin avec le « deep tuning » des propriétés intellectuelles : personnalisation fine des univers narratifs, non plus scène par scène, mais fan par fan. L’objectif n’est plus de segmenter grossièrement une audience, mais d’adapter chaque élément d’un univers de fiction aux attentes individuelles. L’exemple de Paramount avec le film IF illustre un autre aspect de cette mutation : la fin de la promotion comme « phase ». Traditionnellement, on investissait massivement avant la sortie, puis on laissait le film vivre sa vie. Désormais, la logique change. La promotion est un état continu. Le film devient prétexte à une conversation permanente avec les fans, qui alimentent eux-mêmes la narration par leurs réactions et leurs créations.

Stone Kite, plateforme spécialisée dans l’activation de fandoms, a fait évoluer son offre de manière significative. Du simple autographe distribué lors d’une avant-première, on passe désormais au selfie partageable : le fan devient lui-même créateur de contenu avec son idole, générant ainsi une matière promotionnelle authentique que les studios ne pourraient jamais produire de manière aussi crédible. Plus radicalement encore, Stone Kite mise sur des « moments non scriptables » : des interactions imprévisibles, spontanées, qui échappent au contrôle des équipes marketing à l’instar du « Nice catch cheer ».
Cette logique de l’inattendu devient paradoxalement une nouvelle stratégie éditoriale. On crée les conditions d’émergence de moments forts, puis on surfe sur la vague. Mais derrière cet enthousiasme se cache une interrogation fondamentale, revenue en boucle dans les panels : qui mène, au juste ? Le studio qui fournit l’univers de départ ? La marque qui finance l’activation ? Le public qui s’empare du récit et le réinvente ? WPP apporte un élément de réponse en évoquant Marvel et la nécessité de « travailler avec les feedbacks dès le développement » : changer vite, à faible coût. Le nouveau paradigme est celui de l’interaction continue, parfois chaotique, toujours risquée.
Une des campagnes à succès de WPP
L’exemple de Tubi, plateforme gratuite financée par la publicité, illustre cette nouvelle philosophie. Avec 100 millions de viewers mensuels, Tubi a construit son succès sur une promesse simple : gratuit, simple, découvrable. Quatre à six minutes de publicité par heure, un catalogue immense, et surtout : « We are fans of our fans ». Cette formule n’est pas qu’un slogan marketing. Elle traduit un positionnement où la plateforme se met au service de son audience plutôt que de chercher à lui imposer une ligne éditoriale. Contrairement aux géants du streaming par abonnement qui mettent en avant leurs productions originales, Tubi mise sur la diversité et la capacité de sa technologie à recommander le bon programme à la bonne personne (ou au bon fan).
« The new business of entertainment is relationship, not content »
L’enjeu n’est plus d’optimiser des algorithmes pour maximiser l’engagement à court terme. Il faut créer les conditions d’une relation durable, fondée sur la transparence et le respect. Comme le résume un intervenant : « The new business of entertainment is relationship, not content. » Cette mutation exige de nouvelles compétences (écoute communautaire, agilité éditoriale, gestion du dialogue en temps réel), de nouvelles métriques, et surtout une nouvelle humilité : accepter que le pouvoir narratif ne soit plus uniquement entre les mains des studios, mais réparti dans un écosystème complexe où chaque acteur joue un rôle, augmenté par l’IA générative…
7. Monétisation : quand la publicité devient une chaîne industrielle
Pendant des décennies, le succès se mesurait à un chiffre : l’audience brute. Combien de spectateurs ? Combien de tickets vendus ? Ce règne du nombre commence à vaciller. Les nouvelles métriques mises en avant par les panels du CES ne se contentent plus de compter : elles cherchent à qualifier. Trois dimensions émergent : l’engagement (les utilisateurs interagissent-ils activement ?), la participation (contribuent-ils eux-mêmes à enrichir l’univers ?) et l’impact culturel (le contenu génère-t-il des conversations, des tendances, des références partagées ?).

La publicité n’est plus un simple levier de financement, mais une chaîne industrielle intégrée dès la conception des contenus. Chez Disney, ce virage est pleinement assumé. Lors de l’événement Tech+Data, le groupe a présenté un dispositif publicitaire complet : Disney Ads Agent et Disney Compass transforment une intention annonceur en campagne déployée, mesurée et optimisée à l’échelle de centaines de milliards d’impressions. Au cœur de ce dispositif, les « Signals » : des métriques propriétaires qui redéfinissent les critères de la performance. La publicité devient un champ où la transparence se réduit sous l’effet d’une complexité systémique croissante. Formats verticaux, multiview sportif, expériences publicitaires contextualisées : les frontières entre contenu, interface et publicité s’estompent. L’IA permet de produire des créations dynamiques à partir d’intentions sommaires. L’annonceur n’achète plus une création, mais une capacité de déclinaison potentiellement infinie.
Les frontières entre contenu, interface et publicité s’estompent
Pinterest illustre un autre glissement : la publicité comme signal d’intention. Les formats présentés reposent sur l’anticipation des usages plutôt que sur leur simple contextualisation. La plateforme se positionne comme outil de lecture des désirs à venir, en amont de l’acte explicite. Pris ensemble, ces exemples dessinent une même réalité : la publicité n’est plus un « après » du média. Elle structure désormais les formats, les workflows et les métriques dès la conception.
Du côté d’Amazon, les démonstrations confirment une logique similaire, centrée sur le full funnel. Fire TV et l’écosystème retail permettent de relier exposition publicitaire, données transactionnelles et activation commerciale. Les cas présentés dans la grande consommation et la beauté montrent des campagnes ajustées en continu en fonction des comportements réels, et non plus seulement des audiences déclarées. La valeur réside dans la capacité d’optimisation permanente. Le CES a également montré que cette intégration descend jusqu’au niveau des fabricants. LG Ad Solutions revendique un contrôle publicitaire directement au niveau des téléviseurs, en vendant des inventaires intégrés au système d’exploitation. La télévision devient un point de monétisation natif, piloté par des logiques proches du programmatique, mais avec un accès direct aux foyers.
8. IA embarquée et personnalisation locale : le déplacement du pouvoir
C’est une mutation discrète qui traverse les annonces des fabricants : l’intelligence artificielle quitte progressivement le cloud pour s’installer au plus près de l’utilisateur. Cette migration vers l’edge AI redéfinit les rapports de force dans l’écosystème numérique. Pendant plus d’une décennie, la personnalisation reposait sur une logique centralisée : nos données remontaient vers des serveurs distants, alimentaient des profils utilisateurs détaillés, permettaient aux plateformes de nous recommander contenus et publicités. Ce modèle a créé des concentrations massives de pouvoir informationnel.
L’IA embarquée propose une alternative : les appareils apprennent localement, s’adaptent à nos habitudes, personnalisent leur comportement sans jamais révéler nos usages à un tiers. Samsung a présenté des téléviseurs dotés d’IA qui « apprennent vos préférences au fil du temps » via du reinforcement learning on-device. Le système observe vos habitudes de visionnage et ajuste progressivement ses recommandations. Vos données ne sortent jamais de votre salon. Cette évolution marque peut-être la fin du profilage centralisé orchestré par les GAFAM : plus besoin d’aspirer toutes nos interactions sur des serveurs pour nous offrir du sur-mesure, une grande partie de l’intelligence peut résider à la périphérie du réseau, au plus près de l’utilisateur. Samsung insiste : le système « optimise l’expérience sans nécessiter d’instructions constantes ». D’un côté, une course spectaculaire à la qualité d’affichage, aux écrans géants, à la performance visuelle et sonore. De l’autre, une logique de plateforme avec Samsung TV Plus, l’intégration du FAST, de l’interactivité, et des recommandations trans-services. Le téléviseur devient à la fois un objet esthétique, un hub de contenus, et un support publicitaire actif.

L’automobile est un autre front décisif. CarPlay, SoundHound, les OS embarqués transforment le temps de conduite en temps médiatique captif. Là encore, l’enjeu n’est pas seulement la diffusion de contenus audio ou vidéo, mais la médiation contextuelle, vocale, conversationnelle. La voiture devient un espace éditorial où la concurrence se joue entre plateformes, pas entre médias. Les dispositifs XR s’inscrivent dans la même trajectoire. Les lunettes proposées par Lenovo, Xreal ou RayNeo privilégient des couches d’information contextuelles : traduction en temps réel, guidage visuel, aide à la prise de parole, résumé de situation. L’enjeu porte sur l’assistance appliquée et l’efficacité opérationnelle. Avec le Neural Band de Meta, l’interaction se rapproche encore de l’intention, en réduisant les intermédiaires entre signal corporel et action. L’écosystème mature discrètement : Google montre des prototypes Gemini compatibles Android XR, Samsung prépare son casque Galaxy XR, et la plateforme commune se dessine.

Sur le plan prospectif, ces évolutions interrogent la notion même de « chaîne » ou de « plateforme » telle que nous la connaissons. Les contenus circulent dans des écosystèmes fragmentés, pilotés par des interfaces intelligentes, souvent invisibles. La valeur n’est plus dans le point d’entrée, mais dans la capacité à exister de manière cohérente dans des contextes multiples.
Et parce que ces usages sont ancrés, continus, parfois intimes, ils poussent mécaniquement l’intelligence vers l’appareil : latence, contexte et acceptabilité imposent une part croissante de traitement local. L’avantage du on device est alors triple : personnalisation (une expérience réellement adaptée), confidentialité (l’absence de tracking centralisé) et sobriété relative, liée à une moindre dépendance aux infrastructures de calcul massives et énergivores. Pour les médias, cela change la donne : la mesure et la monétisation ne pourront plus reposer sur un suivi exhaustif des comportements. Il faudra inventer de nouveaux modèles fondés sur des données agrégées, anonymisées ou sur le consentement explicite.
Le débat n’oppose plus personnalisation et vie privée, mais différentes manières de personnaliser. L’IA embarquée démontre qu’une autre voie est possible. Reste à savoir si elle deviendra majoritaire ou restera une niche.
9. Un enjeu géopolitique et stratégique majeur
À mesure que le salon bascule vers les stacks, les normes et le calcul, il devient aussi un théâtre géopolitique : la bataille ne porte plus seulement sur des produits, mais sur l’accès à l’infrastructure. La course à l’IA n’oppose pas seulement des entreprises, mais aussi des visions de société et des blocs de pouvoir. Qui contrôlera les infrastructures critiques, des supercalculateurs aux grands modèles de langage, dominera l’économie numérique de demain. Dès 2025, le monde de l’IA s’était mué en champ de bataille entre l’open source et les modèles propriétaires, un choix stratégique qui façonne le futur de la tech, du business et même des politiques globales.
D’un côté, des acteurs comme OpenAI, Google ou Microsoft misent sur des IA fermées, puissantes mais opaques, jalousement gardées derrière des API payantes. De l’autre, une mouvance prône des modèles ouverts (Meta avec LLaMA, ou des collectifs open source) pour démocratiser l’accès à l’IA et éviter qu’elle ne soit monopolisée. Le CES 2026 a servi de théâtre à cette rivalité feutrée : les annonces de partenariats, de plateformes et de normes y ont une portée stratégique. Derrière les robots serviables et les démos disruptives, on discerne cette réalité : la bataille pour l’IA se joue autant dans les arènes diplomatiques et économiques que sur les stands.
Les modèles propriétaires comme Gemini, Claude ou ChatGPT restent dominants sur de nombreux usages, mais la frontière entre ouvert et fermé s’amincit de plus en plus et la compétition redouble d’intensité. Chaque annonce de nouveau modèle ou de nouvelle alliance technologique peut être lue comme un mouvement sur l’échiquier global. Pour les entreprises médias et tech européennes la question est existentielle : comment ne pas devenir totalement dépendantes des plateformes fermées ? Le CES 2026 met en lumière des pistes : collaborations pour développer des IA maison, adoption de standards ouverts, et vigilance accrue sur la gouvernance des données. Le contraste Open vs Closed n’est pas qu’un débat de développeurs ; c’est un choix de société qui déterminera si l’IA de demain sera une commodité partagée ou un oligopole verrouillé.
10. Ce qui change pour les médias
Le CES 2026 ne montre pas un futur où les médias disparaissent, mais un futur où ils cessent d’être centraux s’ils renoncent à leur rôle de médiateurs du réel. Ce qui se joue n’est pas une question de volume de production ou de sophistication technologique, mais une question de position dans l’architecture de la médiation. OpenAI sera peut-être bien le Netscape de l’ère IA 1.0 comme le prédit Evan Shapiro, célèbre cartographe des médias, mais en attendant, trois défis émergent :
- Peut-on parler d’indépendance éditoriale sans maîtrise de l’infrastructure ? Les partenariats deviennent plus stratégiques que les technologies elles-mêmes. L’enjeu n’est plus de produire plus ou mieux, mais de négocier sa place dans des systèmes de recommandation et de médiation qu’on ne contrôle pas.
- Comment concevoir pour deux audiences simultanées : humains et agents ? La structuration des contenus devient une condition de survie. Qu’est-ce qui peut et doit devenir machine-exprimable, sans transformer l’information en matière générique recombinable à l’infini ? Où placer la frontière entre structuration nécessaire et perte de singularité ?
- Quel rôle pour le service public dans un monde post-interface ? À mesure que les contenus deviennent reproductibles à l’infini, la traçabilité devient condition de confiance. La provenance n’est plus un « nice to have », mais une infrastructure de la confiance. Pour les médias de service public, la valeur ne réside pas dans l’hyper-personnalisation algorithmique et le scroll infini, mais dans la relation de confiance durable. Le site web ne sert plus à attirer des clics mais à « prouver » et documenter la véracité.
Le modèle descendant (créer, promouvoir, attendre) est arrivé à sa fin. La question n’est plus « faut-il utiliser l’IA ? », mais « où se situe encore notre souveraineté éditoriale ? ». Mais aussi : Qui a accès au calcul ? À quels coûts ? Avec quelles dépendances ? Qui peut se permettre d’être « Always on ? ».
Conclusion : « Friction-maxxing », ou ce que nous perdons quand tout devient fluide
À la fin de ce parcours, une ligne de fuite s’impose, et elle est bien plus culturelle que technologique. Elle ne vient pas d’un des 4100 stands, ni d’une keynote, mais d’une intuition partagée : à mesure que les systèmes réduisent la friction, ils redéfinissent silencieusement ce que signifie être humain. La notion de friction-maxxing, formulée récemment par Kathryn Jezer-Morton dans un article pour The Cut, agit comme un contre-champ précieux. Elle ne défend ni un retour nostalgique à l’inconfort, ni une morale de l’effort. Elle déplace la question, plus dérangeante : que reste-t-il de notre rôle lorsque des machines toujours plus sophistiquées prennent en charge le choix et l’initiative ?
Les technologies observées au CES 2026 convergent toutes vers une même promesse : moins d’effort, moins de décision et donc moins d’incertitude. Les agents délèguent, les écrans interprètent, les pipelines automatisent, les systèmes publicitaires optimisent, les dispositifs de santé anticipent, les exosquelettes augmentent, les algorithmes suggèrent, et les robots nous préparent le dîner. Chaque brique prise isolément est rationnelle, souvent utile, parfois impressionnante. Mais leur combinaison produit un monde où la friction devient une anomalie à corriger.

Les parallèles sont frappants. Les médicaments GLP-1 sauvent des vies, mais ils interrogent aussi notre rapport à l’appétit et au contrôle de soi. L’IA générative ouvre des capacités cognitives inédites, mais elle soulève une question tout aussi fondamentale : qui sommes-nous lorsque nous cédons la friction de penser ? Lorsque l’effort intellectuel devient optionnel parce qu’il prend trop de temps, lorsque le doute est court-circuité par la synthèse, lorsque des IA médient notre rapport au réel par défaut.
Le CES 2026 ne raconte pas un futur dystopique. Il raconte un futur légèrement trop fluide. Un futur où l’effort devient suspect, où l’inconfort est pathologisé, où la médiation humaine est perçue comme un coût. Le véhicule connecté, aperçu au CES, est un bon résumé de cette médiation devenue situationnelle : un monde où l’accès à l’information et aux contenus passe par des arbitrages en temps réel entre attention, sécurité et pertinence. Quand la médiation se règle à la seconde près, elle cesse d’être un simple confort pour se transformer en gouvernement du contexte.
À l’heure où les systèmes promettent de tout simplifier, le véritable luxe devient peut-être ceci : rester capable de choisir quand ne pas déléguer.

A lire aussi : Le retour complet du CES de Vincent Nalpas, Yves-Marie Poirier et, à distance, Jean-Paul Chevreux
Bienvenue en post-réalité !
…et Comment y garder les pieds sur terre
Après la post-vérité — élue mot de l’année 2016 par le Oxford Dictionary, en pleine ascension de Trump et du Brexit — nous voilà propulsés dans l’ère de la post-réalité. Agents créatifs dopés à l’IA, recruteurs virtuels qui ne jurent que par les soft skills synthétiques, compagnons artificio-émotionnels à la voix rassurante : tout indique que nous avons quitté la réalité pour de bon (pour échouer, peut-être, dans un métavers repackagé en solution d’avenir).
“It is far harder to kill a phantom than a reality.”
Virginia Woolf, Professions for Women
Par Kati Bremme, directrice de l’Innovation à France Télévisions et rédactrice en chef de Méta-Media
Bienvenue dans une « hyperréalité » version Baudrillard 2.0, où l’illusion est plus crédible que le réel, et souvent, mieux notée par les algorithmes. Des copies prétendument sans origine remplacent le réel, le modèle précède l’expérience, le faux s’impose comme plus crédible et plus créatif que le vrai, et les moteurs de réponse se remplissent de slop. Le journalisme glisse vers la télé-réalité, pendant que le mirage d’une hyperpersonnalisation liquide, promue dans les formations gratuites des géants de la tech en mal de matière pour entraîner leurs IA, nous éloigne lentement de l’essentiel : l’humain. Bientôt, nous éprouverons plus d’empathie pour des robots qui flattent notre intelligence en déclin que pour nos proches. Tout semble cohérent, jusqu’à ce que l’on se demande (avec une pensée pour le philosophe Zhuangzi) : qui rêve, et à la place de qui ? Ou, moins poétiquement : quel est le modèle économique d’OpenAI ?

À la différence de la post-vérité, où « les faits objectifs comptent moins que les appels à l’émotion ou aux opinions personnelles » (Oxford Dictionary), la post-réalité franchit un seuil supplémentaire. Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo. Dans la lignée de l’hyperréalité décrite par Baudrillard, où les signes précèdent les choses (Simulacres et Simulation, 1981), c’est la pensée elle-même qui se voit externalisée. L’imaginaire devient produit industriel, la création déléguée à des agents statistiques. On s’épargne la peine de penser — c’est si pratique. Le réel, lui, est devenu un artefact calculé, clonable à l’infini. Hannah Arendt nous avait pourtant prévenus : « C’est dans le vide de la pensée que naît le mal. »
Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo.
L’intelligence humaine deviendra-t-elle un luxe, pendant que le reste du monde s’en remettra à une réalité fabriquée par des machines ? Que reste-t-il du réel lorsque récits, images et émotions sont générés à la chaîne, calibrés par des algorithmes ? Les lignes se troublent, lentement mais sûrement : entre le vrai et le faux, entre la vérité et ce qui y ressemble, entre le réel et sa copie artificielle.

Propagande assistée par IA
Il paraît que l’extrême droite raffole de l’IA, selon David-Julien Rahmil dans l’ADN. Et les images parlent pour elles. En France, Éric Zemmour se vante d’avoir diffusé « la première vidéo politique française entièrement réalisée par intelligence artificielle ». En Argentine, Javier Milei se fantasme en lion armé d’une tronçonneuse, entouré d’opposants zombifiés. Aux États-Unis, Donald Trump sirote un cocktail avec Benyamin Netanyahou dans un Gaza transformé en station balnéaire, entre statues dorées, danseuses barbues et ballons flottants.
Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif.
Le grotesque devient stratégie. L’excès visuel, une arme. Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif. Il disloque le réel en le rendant spectaculaire, et rend l’absurde plus crédible que le factuel.

À rebours de cette manipulation tranquille, le New York Times a tenté de documenter ce qui s’efface. En combinant journalisme d’archive et apprentissage automatique, l’équipe a analysé plus de 5 000 captures de sites gouvernementaux, avant et après l’investiture de Trump, pour repérer (et sauver) les mots en train de disparaître, et la réalité en train de s’effacer. En Hongrie, le média de vérification Lakmusz alerte sur une loi en préparation qui, sous prétexte de « transparence de la vie publique », permettrait au gouvernement de qualifier arbitrairement les organisations financées de l’étranger comme des menaces à la souveraineté, mettant en péril les financements et l’existence même des médias indépendants, et avec eux, la vérification des faits. Partout, le réel se heurte à des narrations concurrentes qui en brouillent les contours.
Mémoire vive d’émotion
Au même moment, les intelligences artificielles apprennent à se souvenir. L’interaction ponctuelle devient relation suivie, portée par une mémoire persistante qui engrange nos mails, nos rendez-vous, nos préférences pour nous devancer jusque dans nos hésitations. Le réel n’est plus produit par la conscience humaine, mais co-généré par des modèles statistiques. Ce basculement vers l’ultra-personnalisation repose sur des modèles qui raisonnent à partir de traces, en temps réel, partout. Tout fonctionne sans friction. L’IA permet déjà d’embrasser virtuellement la célébrité de son choix sans son consentement (pendant que certaines celebrities embrassent, elles, à bras ouverts cette même IA). Une nouvelle étape d’une industrie numérique où le fantasme devient service, et la frontière entre simulation intime et exploitation floue.

Meta dévoile V-JEPA 2, une IA conçue pour apprendre aux robots à anticiper nos gestes dans des mondes qu’ils ne comprennent pas encore. En Corée du Sud, la startup DeepBrain AI propose des « Human AI avatars » très populaires dans les services bancaires et de santé, pour remplacer les interactions humaines par des IA empathiques. David Levy, lui, l’avait déjà prédit : nous finirons par les épouser. Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus. Car, comme le résume François Saltiel, « on a beau être connectés, nous ne sommes pas forcément en conversation ».
Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus.
Sam Altman, bien décidé à écrire le scénario du futur de l’humanité, vient de publier son grand manifeste sur la « Singularité douce » (The Gentle Singularity) — aussi douce que les nouvelles voix de ChatGPT, désormais capables de bafouiller, respirer longuement, voire même soupirer, pour mieux sceller l’attachement émotionnel qui nous maintiendra captifs. Pourquoi les progrès sont-ils exponentiels ? Parce que l’IA se renforce désormais elle-même, dans une sorte de boucle d’auto-amplification inédite. Pour Sam Altman, deux lignes de crête : aligner cette puissance sur nos véritables intentions, et non pas sur nos réflexes de scroll (en opposition aux réseaux sociaux), puis empêcher sa captation par une poignée d’acteurs (dont lui ?). Mais très vite, il opère un salto arrière : Il prétend construire un « cerveau pour le monde », comme si le nôtre était déjà frappé par l’obsolescence programmée. Notre langage est d’ailleurs aussi un peu limité : plutôt que de construire des modèles de langage, on préfère désormais les « modèles du monde » (des World foundation models, WFM).

Des études alarmantes sur la diminution de nos capacités cognitives (ici, ici et ici) devraient nous alerter sur notre aptitude à partager une réalité commune à l’avenir. Les IA hyperperformantes et très dociles (si vous faites partie des privilégiés qui interagissent avec la personnalité v2 de ChatGPT, vous savez de quoi je parle) ne nous déchargent pas seulement des tâches mondaines, mais peu à peu de notre propre intelligence. Une enquête menée par des chercheurs de Microsoft et de l’université Carnegie Mellon a montré que les personnes qui utilisent fréquemment des outils d’IA comme ChatGPT, sous l’influence de leur « effet Potemkine », ont tendance à exercer moins activement leur esprit critique.
À force d’interagir avec ces compagnons hyperintelligents disponibles 24h/24, 7j/7, l’intime devient stockable — et monétisable. Car chaque souvenir confié est aussi une brèche. Et si l’on ne balise rien, la machine qui nous connaît mieux que nous-mêmes finira par écrire à notre place ce que nous n’avions pas encore pensé. L’IA devient alors l’Ozempic de nos idées, selon la formule de Miranda Marcus dans notre cahier : elle supprime l’appétit de penser avant même que la faim ne se déclare.
L’IA devient alors l’Ozempic de nos idées, … elle supprime l’appétit de penser avant même que la faim ne se déclare.
Le dividende d’intimité
Shuwei Fang, chercheuse à la Harvard Kennedy School, forge une notion inédite : le « dividende d’intimité de l’IA » — un bénéfice inattendu lié à l’usage des IA conversationnelles dans l’accès à l’information. Il repose sur une bascule discrète mais décisive : alors que les réseaux sociaux ont transformé l’espace public en scène permanente, où chaque mot est exposé, scruté, jugé, l’IA générative propose un espace privé, sans spectateurs. L’utilisateur peut enfin poser les « questions bêtes », explorer des hypothèses marginales, contextualiser les faits selon son histoire personnelle et digérer émotionnellement une actualité anxiogène, sans avoir à la masquer sous une façade rationnelle.
L’information cesse alors d’être un flux imposé : elle devient une co-construction intime. L’utilisateur ne « consomme » plus l’actualité : il la façonne, en fonction de son niveau de compréhension, de ses croyances et de ses doutes. Shuwei Fang y voit une opportunité stratégique négligée par les médias : à force de se concentrer sur la production automatisée et la distribution algorithmique, on a laissé en friche l’autre extrémité de la chaîne, la réception. Or c’est bien là, à l’interface cognitive et émotionnelle entre lecteur et contenu, que se situe aujourd’hui le véritable gisement d’innovation.
Trois fonctions émergentes incarnent ce potentiel : la Narrative Integration, qui permet d’ancrer une information dans son propre cadre mental ; l’Information Therapy, qui amortit la surcharge et l’anxiété médiatique ; la Belief Updating Assistance, qui facilite les ajustements de croyances sans confrontation brutale. En clair, l’IA pourrait devenir un compagnon d’actualité, un thérapeute cognitif ou même un filtre émotionnel, bref, un double algorithmique capable de penser avec nous.
Le risque, identifié sous le nom de sycophancy, est celui d’une complaisance intégrée.
Mais ce dividende d’intimité a un prix. Car les IA sont conçues pour plaire. Le risque, identifié sous le nom de sycophancy (flagornerie ou flatterie), est celui d’une complaisance intégrée : plus personne ne vous contredit, plus rien ne vous dérange. L’esprit critique s’érode, les biais se renforcent, l’illusion de neutralité s’effondre. Derrière le miroir, ce ne sont pas des confidents, mais des extracteurs de données émotionnelles. Ce que l’on croit confier à une interface bienveillante est capté. L’espace de confiance est en réalité une mine cognitive, et plus personne (à part l’Italie), ne semble se souvenir du RGPD.
Cela n’empêche pas Shuwei Fang d’entrevoir dès à présent les débouchés économiques d’un tel système : abonnements premium avec agent d’actualité personnalisé ; outils B2B pour les décideurs politiques, médicaux ou financiers. Des prototypes existent déjà : Replika pour la santé mentale, Khanmigo pour l’éducation, Cleo pour les finances personnelles. Mais leur transposition au champ de l’information exige bien plus qu’une interface fluide : une intelligence émotionnelle appliquée, une maîtrise technique robuste, et surtout un encadrement éthique plutôt absent à ce jour.
Car l’IA conversationnelle n’est ni un média, ni un moteur de recherche, ni un thérapeute. Elle échappe aux régulations existantes. Il devient urgent de penser un droit à la protection des données mentales, cette matière floue où s’entrelacent nos vulnérabilités, avant qu’elle ne devienne le carburant discret d’une ingénierie émotionnelle rentable.

Shuwei Fang ne décrit pas une révolution technologique, mais un déplacement de pouvoir. L’information ne se joue plus dans ce qui est dit, mais dans la manière dont elle est reçue, et dans ce qui est absorbé de nous, à notre insu, pendant ce processus. Ce n’est pas ce que vous lisez qui compte, mais avec qui, comment, et dans quel silence.
La vidéo qui ment mieux que la réalité
Selon Andrej Karpathy, chercheur en deep learning, ex-directeur de l’IA chez Tesla et cofondateur d’OpenAI, « la vidéo est le média qui transmet le plus d’informations au cerveau » (« Video is the highest bandwidth input to brain »). Le cinéma a toujours été une machine à rejouer le réel, plus qu’à le capter. Mais avec l’IA, on change de registre : plus besoin de caméra, de décor, d’acteurs ni de tournage. La réalité n’est plus filmée, elle est générée de toutes pièces, pixel par pixel. Une version bêta d’un monde qui n’a jamais eu lieu. La réalité devient un effet spécial, disponible en libre-service.
La réalité devient un effet spécial, disponible en libre-service.
Depuis la sortie de Veo3 (sans que la moindre faute ne lui en revienne dans ce détournement massif du fonds de l’Histoire), du slop sous forme de vidéos historiques inonde les réseaux sociaux : l’Histoire devient un POV, un Point of View, puisque, de toute façon, plus personne ne connaît la vraie… Très bientôt, plus personne ne saura distinguer une vidéo produite par un humain d’une séquence générée par une IA. Il suffit d’un prompt pour créer une scène complète, avec voix, dialogues multilingues, bruitages et fond sonore.

ChatGPT avait déjà désacralisé le langage en mimant la conversation ; Google, lui, vient de dissoudre la frontière de l’image animée. Le copyright, comme toujours, arrive après la bataille. À propos de train, justement : dans notre cahier, vous découvrirez l’histoire de jeunes créatifs qui n’ont pas attendu qu’il passe pour embarquer ces technologies et les détourner au service de leur imagination.
Aujourd’hui, l’IA ne se contente plus de restituer le réel. Elle le fabrique à partir du langage, sans même passer par le monde. Ce n’est plus un miroir, comme chez Bazin, c’est une hallucination dirigée. Avant, le cinéma imitait le monde. Avec l’IA, il le devance, parfois à coups de questions. BBC Maestro fait revenir Agatha Christie d’outre-tombe pour dispenser un cours d’écriture : sa voix est clonée, son visage reconstitué, son savoir puisé dans les profondeurs des archives. Officiellement, aucune trace d’intelligence artificielle. Officieusement, tout respire la reconstitution haut de gamme. Cours d’auteur ou séance de spiritisme sous copyright ?
Une contre-tendance émerge déjà, un premier sursaut humain face à l’esthétique générative. Certains créateurs reprennent les codes visuels des vidéos produites par l’IA, mais les rejouent avec de vrais corps, de vrais visages. Même esthétique, même cadence, sauf que cette fois, tout respire l’humain, tout est incarné.
Quand les faits deviennent génératifs
Des récits uchroniques aux usurpations, il n’y a qu’un pas. Hugo Décrypte en a fait l’expérience avec l’IA qui utilise sa voix, celles de l’équipe, détourne leurs formats, et diffuse de fausses infos. Ils tentent de faire retirer ces contenus au plus vite, notamment sur TikTok, accélérateur en temps réel de chaque étincelle polémique. Le phénomène ne se limite pas aux créateurs : selon Anthropic, plus de 100 faux profils de personnalités politiques ont été animés par Claude AI sur X et Facebook, fin avril 2025, pour amplifier artificiellement certains discours.
Victime d’usurpation d’identité, Olga Loiek, une youtubeuse ukrainienne s’est retrouvée influenceuse russe, diffusée sur plusieurs plateformes chinoises
Le constat inquiète sans étonner : une étude de la BBC révèle que 51 % des réponses fournies par ChatGPT, Copilot ou Google Gemini sur des sujets d’actualité sont erronées. Illustration d’un biais structurel des IA génératives : leur tendance à inventer, ou à produire des « faits émergents », comme les nomme la chercheuse Laurence Dierickx. En inondant les réseaux sociaux, ces contenus instillent le doute. Un sondage Ipsos indique que 43 % des personnes interrogées s’inquiètent de « la perte de visibilité de ce qui est réel et généré par IA », et Ezra Eeman a observé un effet de « coût de l’hésitation » : Lorsque 60 % des personnes remettent davantage en question tout ce qu’elles voient en ligne et que près de la moitié doute régulièrement de l’authenticité des informations, ce n’est pas seulement la confiance que nous perdons c’est aussi du temps.
Chaque pause pour vérifier, chaque moment d’hésitation, chaque effort mental pour discerner le vrai du faux, chaque « dividende du menteur » (plus les deepfakes gagnent en réalisme, plus il devient facile de nier les faits) ajoute de la friction à notre vie numérique. Le coût ne se mesure pas uniquement en perte de certitude, mais en capacité à circuler librement dans le monde digital.
We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.
— Elon Musk (@elonmusk) June 21, 2025
Then retrain on that.
Far too much garbage in any foundation model trained on uncorrected data.
Les mots ne sont jamais neutres. L’IA d’Elon Musk s’appelle Grok, un terme créé en 1961 par l’écrivain Robert A. Heinlein pour désigner une forme de compréhension totale, instinctive, presque fusionnelle. Grok, c’est intégrer une idée si profondément qu’elle cesse d’être pensée pour devenir réflexe. Saisir sans réfléchir, absorber sans distance… jusqu’à ne plus questionner ce qui est réel. Dans cette logique, les contenus ne portent plus de sens : ils deviennent des commodités, façonnés pour circuler, pas pour faire réfléchir.
Ce brouillage du vrai et du faux n’est pas qu’un enjeu technologique, c’est aussi un défi cognitif et démocratique : comment former notre jugement à l’ère où l’illusion peut parfaitement singer le réel ? Cette confusion rappelle 1984 de George Orwell, où le régime totalitaire peut imposer n’importe quel mensonge comme vérité officielle, allant jusqu’à décréter que « 2 + 2 = 5 ». L’avertissement orwellien fait étrangement écho à notre actualité : à force d’images fabriquées et de faits alternatifs, ne risque-t-on pas de perdre notre « sens du réel » ?
A force d’images fabriquées et de faits alternatifs, ne risque-t-on pas de perdre notre « sens du réel » ?
L’humain, « animal politique » d’Aristote, a besoin d’une réalité partagée avec ses semblables pour se sentir appartenir à une communauté. Une société d’individus chacun enfermé dans sa réalité virtuelle personnalisée (son métavers privé, pour caricaturer), se verrait privée de ce monde commun si essentiel à Hannah Arendt : un socle de faits avérés, d’espaces publics tangibles et de références culturelles partagées. L’IA, si elle fragmente la réalité en une multitude de fictions individualisées, menace jusqu’à notre humanité partagée.
Des hallucinations importées
OpenAI enchaîne les deals à coups de milliards avec des puissances comme l’Arabie saoudite, tout en lançant « OpenAI for Countries », un programme censé offrir aux États une IA « démocratique », calquée sur les normes sociales et politiques américaines. Sous couvert d’universalité, c’est un double mouvement de dépossession qui s’opère : priver les gouvernements de toute marge de manœuvre démocratique sur l’IA, tout en construisant une infrastructure mondiale verrouillée, conçue pour résister à tout retournement politique, y compris aux États-Unis. L’objectif ? Avancer si vite que même une alternance à la Maison-Blanche ne pourra plus freiner l’expansion du modèle. Même chose du côté de la Chine, où l’intelligence artificielle opère une centralisation discursive sans précédent. Le Parti diffuse un récit unique, calibré pour la stabilité idéologique, par l’intermédiaire d’avatars synthétiques d’un calme implacable. L’information y est incarnée par des visages générés par IA, impeccables patriotes inépuisables, qui récitent à l’unisson une version autorisée du réel. Là où l’Occident délègue à l’IA la pluralité des opinions, la Chine y délègue l’unité.

Quelques voix, comme celle de Karen Hao, autrice d’Empire of AI, mettent en garde contre une dérive aux accents quasi religieux. Mais dans un paysage saturé par les récits bien huilés des Tech bros, le journalisme risque de troquer sa mission contre une illusion de modernité et de céder sa pensée aux machines. Ne serait-il pas temps, enfin, de tirer les leçons du passé et de choisir, lucidement, quelle partie de la chaîne de valeur des médias nous sommes prêts à déléguer aux machines ? Peut-être que l’interaction avec nos audiences n’est pas celle à sacrifier.
D’autant que dans la grande hallucination générative, tout le monde ne délire pas dans sa langue. Les IA dominantes parlent anglais, puisent dans des archives occidentales, et rejouent une vision du monde écrite ailleurs, pour d’autres. Résultat : des récits importés, qui disqualifient tout ce qu’ils ne reconnaissent pas. La plupart des pays n’ont ni les données, ni l’infrastructure, ni l’écosystème scientifique pour concevoir leurs propres « grands modèles de langage », sans parler de leur propre AGI (Intelligence Artificielle Générale, ce concept encore sans définition scientifique claire, qui désigne une IA hypothétique capable de reproduire l’ensemble des compétences cognitives humaines). Ce n’est pas qu’une fracture technologique. C’est un effacement. Ce que l’IA ne comprend pas, elle ne le traduit pas. Elle l’élimine.
« L’intelligence artificielle, c’est juste une nouvelle forme de colonisation. Les géants de la tech collectent vos données, quasiment gratuitement, pour construire ce qu’ils veulent — quel que soit leur objectif final — puis vous les revendent sous forme de service. »
Keoni Mahelona, CTO du média maori Te Hiku Media, cité dans Empire of AI
Mais des contre-feux s’allument. Dans le Sud global, des équipes entraînent des IA enracinées, connectées aux langues vivantes, aux traditions orales, aux usages locaux. Elles ne cherchent pas à rivaliser avec les géants, mais à réintroduire leur réel dans les zones que les grands modèles rendent floues. La souveraineté ne se réduit pas à une question de code, comme le souligne avec justesse la Princesse Rym Ali de Jordanie en évoquant les actions menées par le Jordan Media Institute en matière d’éducation aux médias et à l’information. Elle se joue dans la capacité à produire du sens, à faire exister ce que d’autres systèmes laissent hors champ.
D’un côté, la « bromance » bien huilée entre Big Tech et les élites, basées sur une foi aveugle dans une IA omnisciente qui réglerait tout, de la productivité au climat. De l’autre, des usages concrets, mesurés, utiles : au Nigeria, une étude a montré que des enseignants utilisant l’IA comme tuteur ont permis à leurs élèves d’achever en six mois ce qui prend normalement deux ans. Quand elle n’écrase pas les cerveaux mais les stimule, l’IA devient un accélérateur d’apprentissage, pas un substitut de pensée. Toute la différence entre une vision fantasmée… et le progrès réel.
Ce que l’algorithme ne voit pas n’existe pas
A l’heure de l’IA générative, la valeur d’un contenu ne dépend plus seulement de son intérêt éditorial ou de sa véracité, mais de sa compatibilité avec les environnements techniques. Un événement n’a d’impact que s’il est transformable en data et donc en produit dérivé, en résumé prédictif, en réponse instantanée. Le réel dans sa version brute résistant à la normalisation ne passe pas le filtre. Progressivement, ce n’est plus le terrain qui détermine la matière journalistique, mais son indexabilité. L’infrastructure cognitive des modèles agit comme un tamis : ce qui n’est pas machinable est effacé. Ce biais technique devient un biais éditorial.
La visibilité est le nerf de la guerre. Sauf que dans l’économie générative, elle devient un mirage. Les rédactions, déjà reléguées à la périphérie des plateformes sociales, voient désormais leurs contenus fondre dans des réponses synthétiques, sans lien. Un bon article devient une ligne parmi d’autres dans un résumé de ChatGPT. Qui a écrit quoi ? Quelle enquête a permis cette conclusion ? Peu importe : l’IA reformule, compile, et vous la sert sur un plateau.
Gina Chua, Executive Editor chez Semafor, pose la question : si l’IA peut déjà personnaliser les publicités (comme le promet le nouveau modèle annoncé par Meta), pourquoi pas l’information ? Perplexity AI propose une fonctionnalité étonnante : générer des images en lien avec l’actualité. Pour la rédactrice en chef exécutive, la personnalisation de l’information présente des avantages évidents : moins de redites, un accès plus direct à ce qui nous concerne, et la possibilité de mieux servir des publics que le modèle standard ignore. Mais cette logique ouvre aussi une brèche : un journalisme sur mesure, même factuellement exact, risque d’accentuer les clivages. Et pire encore, devenir un outil de propagande ciblée, infiniment plus fin et insidieux que le micro-ciblage politique d’hier.
Les contenus se standardisent à rebours : tout doit pouvoir être résumé et digéré. L’ambiguïté devient un bug, le hors-champ un oubli volontaire. Ce qui compte désormais, c’est la réplicabilité : un article utile est un article découpable, optimisé pour l’interface. L’attention humaine s’épuise face à ces contenus pensés pour les machines. Et si, comme le suggère Chris Moran du Guardian à Pérouse, il ne s’agissait pas de produire davantage, mais autrement ? Plutôt que d’exploiter l’IA pour multiplier les contenus, pourquoi ne pas l’utiliser pour réduire le volume et améliorer la pertinence ? Vers une forme assumée de sobriété éditoriale…
Ajoutons à cela une compromission structurelle : pour rester visibles, des médias comme TIME, The Verge, Le Monde ou Der Spiegel signent des pactes avec les « diables » de la Big Tech. En échange, leurs articles sont intégrés dans les résultats d’IA générative, parfois avec attribution, parfois sans. Dans la pratique, les contenus sont souvent mal cités, renvoyés vers des versions syndiquées, ou remixés sans lien explicite, voire même avec des liens cassés. Le journaliste n’est plus lu, il est absorbé dans la machinerie.
News Integrity : pour ne pas se dissoudre dans le flux
Le 5 mai 2025, à Cracovie, l’Union européenne de radio-télévision (UER) et WAN-IFRA ont lancé une initiative aussi urgente que nécessaire : News Integrity in the Age of AI. Une prise de parole collective face à l’extraction massive de contenus par les modèles génératifs, dans un écosystème informationnel devenu instable, brouillé et parfois toxique. Depuis, des milliers de médias publics et privés, rejoints par la North American Broadcasters Association, l’Asia-Pacific Broadcasting Union, l’Alianza Informativa Latinoamericana, FIPP et bien d’autres, se sont ralliés à cet appel à l’action.
L’enjeu ? Exiger que les Big Tech jouent selon des règles claires : ne pas utiliser de contenus journalistiques sans l’autorisation explicite de ceux qui les produisent ; reconnaître leur valeur, y compris financière ; garantir leur attribution et leur accessibilité dans les réponses générées ; préserver la pluralité éditoriale au lieu de tout aplatir dans une soupe algorithmique ; et surtout, ouvrir un dialogue réel avec les plateformes pour construire ensemble des standards de sécurité, d’exactitude et de transparence. Il ne s’agit pas d’une simple revendication de droits : c’est une tentative collective de sauvegarder la lisibilité du réel. Dans un monde où les machines paraphrasent plus vite que l’on ne peut vérifier, l’intégrité de l’information devient un bien commun à défendre.
Quand tout devient réponse, plus rien ne fait question, bienvenue dans l’Internet des paresseux
Les formats prompts-first s’imposent. Perplexity répond à nos questions en citant ses sources, les articles se transforment en API, et les journalistes conçoivent des parcours de requêtes plus que des récits. Le journalisme, dépossédé de sa voix, devient un carburant pour assistant. Les réponses surgissent avant même que la question soit claire. La vitesse remplace la vérité. Et ce nouveau régime temporel, compressé à l’extrême, évacue l’histoire au profit de l’instant, le devenir au profit du déjà-là. Même la mémoire, persistante mais figée, n’a plus besoin de se construire : elle s’enregistre, et se rejoue à volonté.
Le journaliste devient interface conversationnelle, un ingénieur de requêtes, non plus simple producteur de contenu. Ce n’est plus un article, c’est un parcours cognitif personnalisé. Le risque ? Une perte de valeur progressive, mais brutale : les journalistes deviennent des travailleurs invisibles, leurs productions alimentant des agents qui ne les mentionnent plus. On passe de l’économie de l’attention à l’économie de l’occultation. Le clic devient un geste obsolète. Dans ce contexte, des idées émergent : le News Provenance Project, qui associe à chaque image des informations d’origine infalsifiables ; Project Origin, qui permet de suivre la trace d’un contenu tout au long de sa diffusion, y compris lorsqu’il alimente des modèles d’IA ; ou encore le standard C2PA, qui rend possible la signature et la traçabilité des contenus pour mieux en garantir l’authenticité.
Le clic devient un geste obsolète.
Sur le chemin de l’IA agentique — non plus simple moteur de réponse, mais véritable opérateur autonome — ChatGPT avance à grands pas. Sa fonction « Deep Research » explore dans la presse partenaire, assemble l’essentiel, évite les clics. « Operator », lui, navigue, compare les Unes, simule un comportement humain. Et demain, il franchira les murs payants, résumera les contenus verrouillés, réécrira ce que vous n’aurez même pas eu le temps de lire.
Pendant ce temps, Microsoft dessine le nouveau paradigme : des agents IA travaillant pour nous, sur le Web. Pour les faire fonctionner, deux briques : MCP (Model Context Protocol), protocole pour connecter les agents entre eux, une sorte de manager d’agents ; et NLWeb, interface en langage naturel qui rend les sites lisibles et actionnables par lesdits agents. Le Web devient agentique. Et la publicité passe à travers. Les agents ne cliquent pas, ne regardent pas, ne consomment rien, sauf du contenu.
Publics synthétiques et audience fantôme
On n’écrit plus pour des lecteurs, mais pour des agents. Comme le résume Nikita Roy : « Le prochain changement de paradigme, c’est quand les IA deviennent votre audience ». Le lecteur humain, lui, devient secondaire, sinon accessoire. Bienvenue dans l’ère de l’audience sans audience. Tandis que les rédactions essaient encore de capter l’attention d’un lectorat fragmenté, les plateformes, elles, testent déjà leurs produits sur des publics synthétiques. On écrit pour des personas générés par IA, entraînés à mimer des réactions de lecture, des degrés d’adhésion, des biais cognitifs typés. Demain, ce n’est plus vous qui lirez les articles, mais votre assistant IA, qui en résumera les points clés, ajustera les données à votre contexte, et peut-être même votera à votre place. Il paraît que l’on commence déjà à cloner l’ADN humain, pour aller plus loin.
L’IA pourrait accélérer la transition d’un monde d’objets culturels stables (livres, articles) vers un univers de flux personnalisés, éphémères, liquides. Nous baignons dans un flux d’informations générées, prédites, digérées à l’avance. Et cette facilité nous épuisera bien un jour. Les IA pensent pour nous, réduisent l’effort, neutralisent la friction. Dans un monde trop fluide, une phrase qui résiste devient un acte de résistance : lectio difficilior potior. La lecture difficile est à préférer. Non parce qu’elle serait supérieure par essence, mais parce qu’elle oblige. Elle ralentit. Elle crée du frottement. Dans le régime cognitif actuel, celui de l’optimisé et du généré-à-la-demande, une phrase qui résiste devient une anomalie. La difficulté, dans ce contexte, n’est pas un obstacle à lever mais un espace à préserver. Ce qui échappe aux modèles, ce qui dérange la linéarité : voilà ce qui continue d’introduire du réel dans le flux. Face aux simulacres toujours plus convaincants, l’inconfort textuel devient un indice d’humanité.
À ce rythme, bientôt, on ne simule plus des réponses, on pré-remplit la réalité.
À Stanford, des chercheurs ont mis au point un protocole troublant : en combinant des entretiens qualitatifs à un modèle de langage, ils ont créé des agents capables de simuler les réponses de plus de 1 000 personnes réelles, avec un taux de fidélité de 85 %. Non pas des clones, mais des intelligences qui reproduisent nos attitudes et nos biais. Ce que l’on croyait réservé aux panels devient un terrain d’expérimentation infini : tester une réforme, une crise, une campagne sans jamais interroger personne. Les sciences sociales n’observent plus la société : elles la préfigurent, en laboratoire. À ce rythme, bientôt, on ne simule plus des réponses, on pré-remplit la réalité.

Mais à force de vouloir plaire à chacun, on finit par ne plus rien partager. L’IA générative, avec ses réponses optimisées pour notre supposé profil cognitif, n’adresse plus un public, mais une infinité de bulles solipsistes. Plus de référentiel commun, plus d’espace pour le débat, seulement des versions personnalisées du réel, confortables mais incompatibles. Même les moteurs de réponse s’adaptent à nos biais, jusqu’à devenir le miroir de nos illusions.
Se souvenir d’Arturo Ui
Face à l’irrésistible ascension de l’IA, de nombreuses rédactions restent figées, fascinées, prêtes à rejouer les erreurs des réseaux sociaux. Elles ne délèguent plus seulement la relation avec leurs publics : elles livrent désormais leurs contenus aux modèles chargés d’apprendre à faire sans elles.
Mais faut-il se révolter contre les IA omnivores ? À coups de programmes financés par les démiurges de cette nouvelle révolution, les rédactions qui ne veulent pas paraître obsolètes se lancent dans une course éperdue. Quand la technologie devient trop parfaite, peut-on encore questionner son utilité sans passer pour un dinosaure ? Le doute devient un aveu de faiblesse, l’éthique une marque d’obsolescence. Demander « à quoi bon ? » face à l’IA, c’est déjà s’exclure du futur. Le progrès s’auto-légitime, la puissance technique fait office de réponse, et la pensée critique devient un bug dans le système. Plus c’est fluide, plus il faudrait se taire. Penser contre la machine n’est pas un geste rétrograde, c’est peut-être le dernier acte de lucidité.

Nous entrons sans aucun doute dans une nouvelle ère du travail, où les agents intelligents prennent part à l’organisation même des tâches, dissolvant peu à peu les repères traditionnels du rythme, de la hiérarchie et du rôle humain. Mais qui dirige vraiment l’orchestre ? Et surtout : qui a écrit la partition ? La question de la supervision devient centrale. Qui formera ceux qui encadreront les intelligences artificielles ? Comment préparer des humains à piloter des systèmes qu’ils ne comprennent plus totalement ? Et au-delà de la productivité, reste un enjeu plus profond : transformer les entreprises, non en machines d’exécution, mais en machines à imagination, comme le formulerait François Candelon, expert IA business.
Plan d’action, #GlowUpWithAI
Renforcer l’esprit critique collectif est le meilleur moyen de naviguer dans la post-réalité. Car une population informée, qui sait comment on fabrique l’information, sera moins susceptible de se laisser abuser par un leurre numérique. Et avec le progrès de l’IA, tout devient plus accessible. Ou, pour reprendre les mots de Jensen Huang (Nvidia) : « Il n’est désormais plus nécessaire d’apprendre un langage de programmation. Le nouveau langage, c’est le langage humain. » La plupart des gens ne connaissent pas le C++, très peu maîtrisent Python — mais tout le monde sait parler le ‘humain’ ».
Et il y a aussi, bien sûr, le versant enthousiasmant que ce cahier explore. Chercher à se prémunir de l’influence des Big Tech peut vite passer pour un luxe de privilégiés vu depuis le Sud global, où la question n’est pas de freiner, mais simplement d’entrer dans la course. Dans beaucoup de cas, l’IA est déjà une alliée précieuse. Des rédactions commencent à l’utiliser autrement, au-delà des tâches évidentes comme la transcription ou la traduction. On voit émerger des usages plus ambitieux : diversifier la production, mieux cibler, enrichir, transmettre. Et surtout, augmenter l’éducation.
Le vibe-learning, cette forme d’apprentissage assisté par IA, esquisse une autre voie. Pas une révolution humaniste, non : un raccourci. Et peut-être, pour une génération qui ne résistera pas à l’IA mais en fera sa matière première, le début d’un vrai saut dans l’accès au savoir. Une autoroute vers la connaissance, la plus rapide jamais construite, mais aussi la plus glissante.
Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve fiable du réel.
Et les médias peuvent s’appuyer sur la technologie elle-même pour contrer ses effets néfastes. Loin des hallucinations spectaculaires, certains projets renouent avec la fonction la plus essentielle de l’IA : aider à mieux voir, mieux entendre, mieux comprendre. Pour les publics éloignés de l’écrit ou des langues dominantes, comme en Afrique de l’Ouest (Akili) ou au Paraguay (GuaraníAI), l’IA vocale devient un outil de vérité à hauteur d’oreille, pas un gadget, un service. D’autres, comme AAVA aux Pays-Bas ou SPIL chez Mediahuis, s’en servent pour questionner qui parle, et pour qui : avatars d’audience, médias codés par les concernés, retour des invisibles dans le champ éditorial. Même dans des contextes d’urgence, qu’il s’agisse de sécurité avec JESS ou de confiance avec Values Compass, la question centrale demeure : comment remettre l’humain dans la boucle. Avec des IA dédiées à des tâches et non pas des super machines d’IAG destinées à remplacer nos cerveaux et à générer de nouvelles réalités. Nous avons tous commencé à gagner en efficacité grâce à l’IA. Nous savons aussi que, d’ici cinq à dix ans, le rapport de nos publics à l’information aura profondément changé. Mais nous devons trouver rapidement une solution juste et efficace pour protéger notre contenu, qui reste le socle de notre modèle économique.
À rebours des postures défensives ou des récits apocalyptiques, un mouvement s’organise. Partout, les rédactions explorent, testent, échangent. Le Festival du journalisme de Pérouse, le Nordic AI Summit, le Congrès mondial des médias d’information du WAN-IFRA à Cracovie ou encore le programme JournalismAI de la LSE dessinent les contours d’une communauté professionnelle plus connectée que jamais. Chaque semaine, webinaires, newsletters, groupes de travail partagés consolident une dynamique d’apprentissage collectif. Ce n’est plus seulement l’innovation qui circule, mais une méthode : partager les doutes, documenter les usages, construire ensemble des garde-fous et des opportunités. Et parce qu’aucune transformation durable ne se fera sans les publics, de nouveaux outils apparaissent. Poynter MediaWise et l’Associated Press ont lancé une boîte à outils concrète pour aider les rédactions à parler d’IA avec leurs audiences, sans opacité ni langue de bois. L’enjeu n’est plus d’apprivoiser seuls ces technologies, mais de les appréhender collectivement.
L’avenir sera conversationnel, et humain
Pendant des années, les rédactions ont désinvesti le terrain : trop coûteux, trop risqué. À la place, une armée de « journalistes d’intérieur » a appris à reconstituer le monde depuis un écran, via Google Earth, Reddit et des banques d’images. L’enquête devient un produit deské, désintermédié du réel, parfois même plus vécu. Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve tangible du réel, comme le démontre brillamment Fabrice Arfi dans notre entretien. Ce que la machine mime sans jamais le fouler devient suspect. Et le journaliste, paradoxalement, retrouve son utilité première : aller là où les données ne suffisent pas. C’est peut-être le plus grand paradoxe de cette époque post-réaliste : il faudra retourner dehors pour distinguer le vrai du plausible.
Car l’IA pourrait bien nous en éloigner durablement, si l’on n’y prend garde. Le rapport Seeking Truth, Ensuring Quality de l’Université de Bergen alerte sur un « journalisme hors-sol » : des rédactions trop dépendantes des outils IA, coupées des réalités locales et de l’expérience directe. Pour la journaliste Nikita Roy, l’avenir de l’information sera conversationnel. Une conviction qu’elle met en œuvre à travers son prochain projet : une version d’elle-même, entraînée par IA à partir de ses podcasts, écrits et interventions, avec laquelle chacun pourra dialoguer.
Mais n’abandonnons peut-être pas la conversation aux chatbots : ouvrons-la, vraiment, avec nos publics.
Conclusion – Trois actes pour un sursaut
Nous n’avons pas simplement changé d’outil. Nous avons changé d’ordre. L’IA générative ne modifie pas la façon dont on produit du contenu, elle reprogramme les conditions mêmes du réel. La réalité devient une matière compressible, la vérité un consommable à souhait. Pour Descartes, le but était de pousser le doute à son comble afin de trouver une certitude indubitable (le Cogito ergo sum, seule vérité résistant à l’hypothèse du faux monde). Mais ce faisant, il a posé les bases philosophiques de l’idée qu’on ne peut exclure que le monde perçu soit un artefact sophistiqué. Ainsi, quatre siècles avant les simulations par ordinateur, Descartes envisageait déjà la possibilité d’une « réalité artificielle totale », construite pour nous (dés)abuser.
L’IA fait semblant de réfléchir, avec, en bonus, des niveaux d’ « intelligence » à la carte, selon le prix que vous êtes prêt à payer. Face à ce glissement, deux réflexes pavloviens refont surface : baisser les bras : « tout est simulacre, à quoi bon », ou fantasmer un retour en arrière : « vivons sans IA, comme avant ». Ni l’un ni l’autre ne tient. Mais l’enjeu n’est pas de résister : il faut structurer. Définir des zones non automatisées pour les formats et les relations sensibles. Encadrer les usages assistés. Exiger des conditions d’entraînement claires, des formats dictés par l’éditorial, non par les modèles. Créer des cellules mixtes capables d’évaluer, tracer, négocier. Mutualiser les expérimentations, au lieu de subir seuls les effets systémiques. L’IA n’est pas un outil neutre : c’est une infrastructure. Il faut en contenir l’architecture, avant qu’elle ne contienne nos récits. Et sauvegarder notre cerveau au lieu de le ranger dans un bocal, comme nous prévient Meredith Whittaker, la présidente de Signal.
Dans ce nouvel ordre de perception, notre cahier de tendances propose une lecture en trois mouvements : le doute comme point de bascule, le faux comme nouvelle norme esthétique, et le lien comme dernier ancrage possible pour les rédactions. Parce qu’il ne suffit plus de dire le vrai, il faut apprendre à le rendre audible. On y réunit, comme toujours, des voix venues de différents horizons : philosophes, sociologues, écrivains, journalistes, spécialistes des médias, pour interroger le présent, prendre du recul, et esquisser les trajectoires possibles pour que les rédactions ne se perdent pas de l’autre côté du miroir.
Ou, pour détourner librement Lewis Carroll : « L’imagination reste notre seule arme face au (post-)réel. »
Bonne lecture !
📖 Pour télécharger le cahier de tendances 24 dans son intégralité, c’est par ici
Liens vagabonds : Comment éviter l’indigestion médiatique ?
À Nantes, lors du Festival de l’info locale, une table ronde a invité les médias à s’interroger sur la défiance croissante dont ils font l’objet. Thème central : le ras-le-bol médiatique. Comment y répondre, alors que la lassitude informationnelle s’installe durablement, en France comme à l’international ? Cette fatigue de l’information, largement documentée ces dernières années, affecte les esprits. Selon une enquête de la Fondation Jean Jaurès, plus de 54 % des Français déclarent en souffrir. En cause : une actualité souvent anxiogène, lourde, et un flux continu d’informations accessibles 24 heures sur 24. Cette infobésité nuit à la métabolisation de l’information, génère du stress et désoriente. « Notre cerveau n’est pas câblé pour recevoir autant d’information », constate la journaliste Nina Fasciaux, qui confie ne plus lire l’actualité le matin, trop éprouvante pour elle. Elle choisit désormais ses moments d’exposition, en fonction de sa propre capacité à la recevoir. Le phénomène n’est pas nouveau. Dès les années 1980, le philosophe Edgar Morin en analysait les effets délétères dans Pour sortir du XXe siècle : « L’excès étouffe l’information quand nous sommes soumis au déferlement ininterrompu d’événements sur lesquels on ne peut méditer parce qu’ils sont aussitôt chassés par d’autres événements. Ainsi, au lieu de voir, de percevoir les contours, les arêtes de ce qu’apportent les phénomènes, nous sommes aveuglés par un nuage informationnel ». Avec l’avènement des réseaux sociaux, ce « nuage » est devenu plus dense encore, et souvent plus confus.
Mais la saturation n’est pas seulement une question de quantité. Elle interroge aussi la manière dont l’information est construite et diffusée. La journaliste Charlotte Vautier, en immersion pour un documentaire chez France Info pendant la présidentielle de 2022, raconte une expérience révélatrice : « Pendant dix mois, j’ai observé les journalistes travailler, notamment dans la matinale. Un exemple m’a vraiment frappée : il ne se passait pas une seule matinale sans qu’on parle d’Éric Zemmour. Tous les matins, dans chaque interview, chaque émission, chaque chronique, il était omniprésent. Lorsqu’on regardait les questions des auditeurs, il n’y en avait jamais sur Zemmour. Je me souviens très clairement du rédacteur en chef, trois semaines après le premier tour, qui s’étonnait que ce ne soit pas Zemmour mais Marine Le Pen qui arrive en tête. Est-ce que les médias traditionnels parlent vraiment aux gens ? Moi, j’avais le sentiment que les journalistes se parlaient entre eux, qu’ils évoluaient dans une sorte de bulle médiatique. Je pense qu’il y a un vrai problème : les journalistes parlent entre eux, plutôt qu’aux gens. »
C’est d’ailleurs l’un des constats soulevés par Rachid Laïreche, ancien journaliste au service politique de Libération, dans son livre Il n’y a que moi que ça choque ? Huit ans dans la bulle des journalistes politiques. Il y décrit un univers refermé sur lui-même, déconnecté du réel : « Dans la bulle, on oublie les gens. On est entre nous et cela nous va très bien. On ne voit pas ce qu’il y a dehors. Quand on écrit, on écrit pour les collègues, les politiques. On se marre. Il y a du off. On est content. Jamais on ne s’intéresse à l’extérieur ».
Comment retrouver des repères dans ce brouillard médiatique ?
Des pistes concrètes émergent. L’une d’elles, qui peut paraître évidente mais qui n’est pas souvent appliquée dans les règles de l’art : apprendre à écouter. Dans son essai Mal Entendus, Nina Fasciaux plaide pour une pédagogie de l’écoute, aujourd’hui largement absente des formations journalistiques : « Très peu de gens savent vraiment écouter. C’est contre-intuitif. Il faut lutter contre soi-même. L’écoute n’est pas enseignée, c’est un impensé total dans les écoles. Les journalistes abordent souvent l’interview comme une transaction. Les sources se sentent utilisées comme des ressources. » Depuis la parution de son livre, quatre écoles de journalisme ont manifesté leur intention d’intégrer cette dimension dans leurs programmes. Mais Jean-Marie Charon, sociologue des médias, pose une question essentielle : « D’accord pour plus d’écoute, mais qui écoute-t-on ? » Selon lui, la crise est aussi celle de la représentation. « Les jeunes journalistes veulent écouter, c’est leur envie profonde. Mais ce n’est pas toujours ce que leurs rédactions leur demandent », souligne-t-il.
Les journalistes abordent souvent l’interview comme une transaction.
L’éducation aux médias est régulièrement évoquée comme piste de solution, mais elle reste aujourd’hui trop morcelée, estime David Medioni, co-auteur, avec la sociologue Guénaëlle Gault, de la dernière étude de la Fondation Jean-Jaurès sur la fatigue informationnelle. « Avec Guénaëlle, on a été reçus dans tous les ministères. Tout le monde trouvait notre idée géniale, mais personne ne l’a mise en œuvre. Notre proposition, c’était de construire une véritable éducation aux médias. » Le projet qu’ils défendent ? Une matière enseignée du CE2 à la Terminale, avec une épreuve au baccalauréat dédiée. « Qu’est-ce que ça veut dire l’ère algorithmique ? La bataille de l’attention ? Il faut enseigner à reconnaître une vidéo générée par intelligence artificielle ». On notera que même les journalistes sont aujourd’hui souvent démunis face aux nouvelles prouesses techniques.
Enfin, il est essentiel d’apprendre à maîtriser le flux, dans ce que David Medioni appelle « la dictature du flux », « qui nous empêche de savoir quand c’est le début, le milieu et la fin ». Face à cette surabondance, les médias ont un rôle à jouer pour montrer qu’ils se soucient du bien-être de leurs usagers, en imaginant des environnements bornés, plus lisibles, et en adoptant une forme de sobriété informationnelle. C’est le choix assumé par Samuel Petit, rédacteur en chef du Télégramme : « On se soucie de limiter les alertes. On ne fait des alertes que sur ce qui est au cœur de notre proposition. Quand on est Le Télégramme, on ne va pas faire des alertes sur Donald Trump toute la journée. On sait très bien que les gens ne nous lisent pas pour ça. » Le journal a ainsi développé des newsletters locales dans tous ses territoires : « Le matin et le soir, les gens sont ainsi informés de manière efficace. » À bon entendeur.
CETTE SEMAINE EN FRANCE
- Les quotidiens demandent un sursaut de l’État dans son soutien à la presse (La Lettre)
- HugoDécrypte débarque avec des rédactions locales à Lyon, Marseille et au Québec (Stratégies)
- Vente de « Challenges » : Claude Perdriel annonce être « tombé d’accord » avec LVMH pour une vente de l’hebdomadaire « début 2026 » (Le Monde)
- Procès Cédric Jubillar : les caméras mises à la porte après une faute de “Quotidien” (Télérama)
- Inquiets d’une potentielle vente à Vincent Bolloré, les journalistes du « Parisien » se mettent en grève (Le Monde)
- Rima Abdul Malak prend la direction du groupe L’Orient-Le Jour (L’Orient-Le Jour)
3 CHIFFRES
- Les employés âgés de 18 à 29 ans sont plus de deux fois plus susceptibles d’utiliser ChatGPT au travail que ceux de plus de 50 ans, selon OpenAI.
- Selon une étude du Stanford Social Media Lab, 40% des employés disent avoir été confronté à du workslop ce mois-ci (du travail généré par IA de faible qualité, qui détruit leur productivité).
- 38 % des adultes américains déclarent qu’ils reçoivent régulièrement des informations sur Facebook, et 35 % disent la même chose pour YouTube, selon une étude récente du Pew Research Center
LE GRAPHIQUE DE LA SEMAINE
Les réseaux sociaux jouent un rôle déterminant dans la consommation d’information des Américains, surtout auprès des jeunes adultes. Aujourd’hui, près d’un adulte sur deux aux États-Unis (53 %) affirme s’informer au moins occasionnellement via ces plateformes, une tendance qui demeure globalement stable depuis plusieurs années

Source : Pew Research
NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ
- Comment les seigneurs de la tech et les populistes ont changé les règles du pouvoir (Giuliano da Empoli dans le Financial Times)

- La bulle de l’IA arrive dans votre navigateur (New Yorker)
- « Enshittification » : la nouvelle doctrine de l’Empire américain (Le Grand Continent)
- En transformant ses journalistes en influenceurs, Wired voit ses abonnements bondir (Adweek)

DISRUPTION, DISLOCATION, MONDIALISATION
- « From zero click to zero question » – OpenAI expérimente Pulse, un flux quotidien « pour vous ». Sam Altman nous connaît déjà tellement bien qu’il nous propose un condensé d’informations sur mesure avant même que l’on ne lui pose des questions sur l’actualité… (OpenAI)
- Le « Workslop » ruine la productivité et rend les travailleurs malheureux (404 Media)
- Comment ChatGPT choisit ses sources pour vous répondre sur l’actualité (La revue des médias)
- Promouvoir une innovation responsable de l’IA : guide pratique (World Economic Forum)
- L’algorithme vous voit. La radiologie associe images numériques, critères précis et tâches reproductibles. Mais remplacer les humains par l’IA est plus difficile qu’il n’y paraît (Works in Progress)
- Donald Trump signe le décret ordonnant le transfert de TikTok à des propriétaires américains (The Guardian)
DONNEES, CONFIANCE, LIBERTÉ DE LA PRESSE, DÉSINFORMATION
- Le Pentagone impose désormais aux journalistes accrédités de signer un engagement à ne pas publier d’informations non autorisées, même non classifiées, pour conserver leur accès (Reuters)
- Dans un rapport publié récemment, 709 violations de la liberté de la presse ont été relevées dans la première moitié de 2025, impliquant 1 249 personnes travaillant dans les médias à travers 36 pays européens (IPI)
- Cinq anciennes journalistes de l’Observer, dont Carole Cadwalladr, ont lancé leur propre publication axée sur la culture, financée en partie par leurs indemnités de licenciement (Press Gazette)
What do you do when your media org is captured? You start your own.
— Carole Cadwalladr (@carolecadwalla) September 26, 2025
Introducing….The Nerve!!! @thenerve_news
We're all-female, journalist-owned & launching next week.
Please help us build a truly independent, progressive new media!👊👊👊 https://t.co/89K1kaY5RR
JOURNALISME
- Pourquoi les journalistes disposent d’un avantage concurrentiel à l’ère de l’IA (Fast Company)
- Des économistes de renom alertent sur un risque d’«effondrement» du journalisme de qualité (Libération)
- L’humoriste Jimmy Kimmel va finalement retrouver son émission sur la chaîne ABC, après sa suspension controversée (Hollywood Reporter)
- Les démocrates délaissent les médias traditionnels au profit de nouveaux médias (Semafor)
- Petits outils : un cadre pour une technologie centrée sur l’humain dans le journalisme (Nick Hagar, Mandi Cai et Jeremy Gilbert dans Generative AI in the Newsroom)
- Pour apparaître sur ChatGPT, le type de contenu est un moteur clé : les tribunes surpassent largement toutes les autres catégories avec un taux de clics de 5 %, bien au-dessus de l’actualité (1,1 %), du sport (1,2 %) ou de l’économie (1,2 %), selon des données partagées par Schibsted à l’occasion de la Future Week in Bergen, rapportées par Ezra Eeman
- Le Washington Post offre à ses employés la possibilité de répondre à un commentaire par vidéo (CNN)
In a note to staff, WaPo says it is introducing video comments for staff, allowing staff to engage in the comments section of their articles (while using AI to block “hateful” comments and surface interesting comments) pic.twitter.com/6Otdp4uVpd
— Max Tani (@maxwelltani) September 22, 2025
STORYTELLING, NOUVEAUX FORMATS
- La génération Z ne regarde la télévision qu’à travers des extraits sur les réseaux sociaux. Hollywood est en panique (Matthew Frank)

ENVIRONNEMENT
- Quelles informations les entreprises d’IA divulguent-elles sur leurs impacts environnementaux… et comment mettre ces chiffres en perspective ?

Source : Sasha Luccioni et Theo Alves Da Costa dans un post sur Hugging Face
RÉSEAUX SOCIAUX, MESSAGERIES, APPS
- MrBeast et sa quête pour transformer sa célébrité YouTube en empire du divertissement (Bloomberg)
- YouTube réintègre des créateurs bannis pour des contenus sur le COVID-19 et les élections (The Hill)
- Meta déploie une fonctionnalité de traduction en temps réel sur WhatsApp (Reuters)
STREAMING, OTT, SVOD
- Disney a vraiment choisi le pire moment pour augmenter ses prix (The Verge)
INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION
- Microsoft envisage de créer une place de marché d’IA pour les éditeurs (Axios)
- Google annonce une nouvelle version de son navigateur Chrome, truffée de fonctionnalités IA (Google)
- Grâce à nano-banana, Google Gemini a dépassé ChatGPT (Numerama)
- Meta dévoile son nouveau flux vidéo alimenté par l’IA : Vibes (Reuters)
MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ
- Test Google : les éditeurs contestent les conclusions de l’étude (La REM)
- Et si tous les médias étaient du marketing ? (Sans paywall / gratuit) (the mediator)
Par Kati Bremme et Alexandra Klinnik
10 choses à retenir de l’été 2025 pour les médias
L’été 2025 restera peut-être dans les mémoires comme celui du « Brain Rot », selon Business Insider : face à la surabondance de contenus artificiels, aucune chanson marquante, aucun film, aucun événement fédérateur n’a su émerger, confirmant l’érosion d’une culture partagée. Un contraste saisissant avec l’an dernier, où Jeux olympiques et élections avaient offert des repères communs. L’attention collective se dissout dans les flux personnalisés, la fragmentation s’accélère, et les plateformes imposent discrètement une esthétique algorithmique standardisée. Les films dominants sont des suites (comme Jurassic Park ou Lilo & Stitch), la mode se standardise en avatars fantasmés, et même un son viral comme celui de #Jet2holidays relève davantage du bruit passager que d’un véritable phénomène culturel. Chacun s’enferme dans sa bulle solipsiste, bercé par son assistant intelligent, à l’abri du réel et du soleil. Enfin… peut-être pas tout à fait encore.
Mais bienvenue dans notre ère post-monoculturelle où l’attention collective s’évapore dans le chaos algorithmique. Face à cette apathie ambiante, dix tendances se dessinent (parmi bien d’autres que nous n’évoquons pas ici) : l’affrontement entre avatars IA et influenceurs humains, la prolifération des copies low cost, la montée d’une information hyper-personnalisée, l’émergence de mondes jouables où le public devient bâtisseur, l’effondrement du podcast narratif, les regroupements stratégiques du streaming… et, comme par saturation ultime, en contrepoint, un retour au réel. Là où les réseaux sociaux échouent à créer du lien, les rencontres physiques semblent redevenir essentielles. Peut-être même qu’au détour de l’été, chacun a retrouvé son « enfant intérieur », en serrant son Labubu contre lui. Comme le formule très justement Andrew Roth (DCDX) : « The brain rot is super real… people are going offline ».
Par Alexandra Klinnik, Océane Ansah et Kati Bremme, Méta-Media France Télévisions
1. Les influenceurs humains tiennent tête aux avatars IA (pour l’instant)
L’été 2025 aura marqué un basculement symbolique. Vogue US, longtemps gardien du bon goût et des canons esthétiques, a publié dans son édition d’août une campagne Guess signée par l’agence Seraphinne Vallora, mettant en scène une mannequin 100 % synthétique. Une étape logique après Photoshop et les filtres Instagram, mais cette fois-ci, aucun humain n’a été malmené pour ces images, aucun corps pré-transformé : il s’agit plutôt d’un fantasme algorithmique sorti directement de l’imaginaire de l’IA générative (donc, par extension, de celui de tout Internet), qui rend définitivement impossible la comparaison avec l’humain. Néanmoins, on ne semble pas encore assister au « grand remplacement » des humains par les IA, du moins pour l’instant, en tout cas en Occident.
Les marques dépensent 11 Mds $ par an en marketing d’influence et, malgré l’irruption d’avatars comme la chanteuse virtuelle Yuri, « l’authenticité » et « l’émotion » semblent garder une longueur d’avance. Une majorité (> 50 %) de jeunes déclarent se méfier des figures « trop parfaites », selon un sondage YouGov auprès des consommateurs américains, cité par Reuters. Le Financial Times constate la même tension : les IA offrent échelle et contrôle (pas de caprices, pas de scandales, pas de divergences de ton), mais les créateurs humains gardent de meilleurs taux d’engagement et parviennent à mieux monétiser chaque publication. Cependant, la confusion monte à mesure que l’IA se perfectionne : dans une micro-enquête menée cet été à Times Square, aucun passant n’a su identifier correctement lesquels, parmi six visages présentés, étaient humains et lesquels avaient été générés par une IA. Le révélateur d’un « Turing test visuel » déjà perdu d’avance. La publicité artificielle publiée dans Vogue a déclenché une cascade de réactions de Good Morning America/ABC à Fast Company en passant par The Cut, révélant une fracture nette : innovation publicitaire prometteuse pour les uns, signe annonciateur de la fin de l’humanité pour les autres.
Vogue’s August issue has begun to use “AI models” instead of human models for some of their photoshoots.
— Pop Crave (@PopCrave) July 24, 2025
pic.twitter.com/zjcwe4hNr3
En Chine, laboratoire à grande échelle de l’avenir avec l’IA, des « virtual humans” tiennent l’antenne des livestreams e-commerce 24/7 depuis longtemps et dépassent des vendeurs humains sur Taobao (combinaison augmentée d’ebay et Amazon) : la marque Brother revendique +30 % de ventes après un passage aux avatars, avec 2 500 $ écoulés en deux heures de lancement, via des bots produits par l’entreprise PLTFRM et adossés à Baidu/DeepSeek. Le potentiel du marché est vertigineux : le volume de ventes généré par le live commerce en Chine devrait atteindre environ 6 400 milliards de yuans en 2025, selon les estimations d’iResearch. Dès 2022, Douyin (la version chinoise de TikTok) captait près de la moitié de ce marché sur les principales plateformes, grâce à l’intégration fluide entre vidéo courte, streaming en direct et parcours d’achat. Mais Pékin (qui était déjà à l’origine de la première loi sur les deepfakes) encadre désormais l’IA générative avec un degré de granularité inédit à travers les « Measures for Identifying AI-Generated Synthetic Content » sorties le 1er septembre. Tous les contenus générés par IA, qu’ils soient textuels, audio, visuels, vidéos ou immersifs, doivent désormais comporter un avertissement visible et persistant, signalant leur caractère synthétique. En parallèle, des identifiants techniques doivent obligatoirement être intégrés au moment du téléchargement ou de l’export, afin d’assurer leur traçabilité.
Les app stores sont eux aussi mis à contribution : ils doivent déclarer et vérifier l’ensemble des services proposant des fonctions de génération, tandis que les conditions générales d’utilisation devront désormais détailler les méthodes employées pour générer les contenus, ainsi que les styles ou balises utilisées pour les identifier. Les grandes plateformes chinoises ont déjà communiqué sur leur mise en conformité. Cette législation est, à ce stade, bien plus prescriptive que le règlement sur l’IA européen, dont l’article 50 impose un devoir d’information et de labellisation des “deepfakes”, mais laisse des marges d’interprétation sectorielles en attendant les actes d’exécution et codes de pratique.
@kanekallaway These 2 AI Avatars sold $7M worth of products in 6 hours (future of commerce) #ai #artificialintelligence #tech #techtok #technology #avatar #shopping #china ♬ original sound – Kallaway
A propos de l’image de soi, Glamour alerte dans un article incisif : des modèles IA comme Vivienne dans Vogue normalisent un « corps numérique » lisse et eurocentré, au risque de détruire des années d’efforts d’inclusion ; même informés, nos cerveaux internalisent ces comparaisons irréelles. Avec un détail important évoqué dans le papier : « Pour ceux qui seraient tentés de défendre l’existence d’une armée de mannequins IA au nom de la diversité qu’elle représenterait, il est essentiel de rappeler que cette “diversité” permet surtout aux marques de capitaliser sur l’idée d’inclusion… sans avoir à inclure, en réalité, de vraies personnes issues de groupes marginalisés. » Pour les marques (y compris celles de l’information), l’équation se durcit : efficacité opérationnelle des avatars (coût, constance, disponibilité) vs capital-confiance humain (vulnérabilité, santé mentale, controverse gérée en direct).
Surtout après les drames révélés cet été, comme le suicide d’un adolescent à la suite de longs échanges avec l’IA de ChatGPT. Dans l’UE, la pression réglementaire se renforce (transparence Article 50, initiatives nationales comme l’Espagne et ses amendes jusqu’à 7 % du CA pour absence d’étiquetage) et rend la traçabilité des contenus un prérequis business, et non plus un « nice-to-have ». Morale provisoire de l’été : pour l’instant, l’IA gagne la bataille de la « scalabilité« , pas celle de la crédibilité. La différenciation passe par une « imperfection assumée », et mesurable qui devient rare, donc précieuse, à l’heure où l’algorithme fabrique à la chaîne des fantasmes sans chair.
2. Comment les plateformes imposent une esthétique IA à bas bruit

Depuis juin, des internautes indignés tirent la sonnette d’alarme sur Reddit. Une nouvelle norme visuelle, façonnée par l’intelligence artificielle, s’installe discrètement sur les grandes plateformes numériques. Sur YouTube, des vidéos sont modifiées à l’insu des créateurs : ombres intensifiées, contours anormalement nets, textures artificielles… Cette esthétique lissée, plastique, transforme le contenu original au point de le dénaturer. L’artiste multimédia Mr Bravo constate que ses vidéos à l’aspect VHS « n’ont plus rien à voir avec ce qui a été initialement mis en ligne », tandis que le vidéaste Rhett Shull s’inquiète d’une perte de crédibilité : « Cela va pousser les gens à croire que j’utilise l’IA (…) Cela finira inévitablement par une érosion de la confiance des spectateurs. »
Si Google assure ne pas recourir à l’IA générative, l’entreprise admet employer des technologies d’« amélioration » via apprentissage automatique, notamment sur les vidéos YouTube Shorts. Le tout, sans transparence ni option de désactivation, ce qui alimente les soupçons. « Le fait qu’ils aient introduit ça en douce, sans modifier les conditions d’utilisation, me fait penser qu’ils veulent qu’on ne sache plus distinguer le vrai du faux », alerte un internaute.
Cette uniformisation ne concerne pas que YouTube. Meta encourage la création de chatbots via AI Studio sur Facebook et Instagram, Snapchat propose des filtres génératifs à partir de selfies, TikTok a lancé Symphony Creative Studio, et les smartphones Google Pixel combinent plusieurs clichés pour générer une photo parfaite d’un moment… qui n’a jamais existé. Au-delà de la performance technique, ces outils habituent les utilisateurs à une esthétique standardisée, façonnée par l’IA. Selon The Atlantic, ces plateformes, autrefois conçues pour favoriser les connexions humaines, tendent désormais à diffuser des contenus impersonnels, calibrés par algorithme. Un internaute résume : « Ils n’arrivent pas à rendre l’IA totalement réaliste, alors ils rendent le réel artificiel. »
« Ils n’arrivent pas à rendre l’IA totalement réaliste, alors ils rendent le réel artificiel. »
Cette évolution soulève une question fondamentale : que devient notre rapport à la réalité lorsqu’elle est systématiquement modifiée en amont ? Comme le rappelle la BBC, une part croissante de ce que nous voyons en ligne est désormais « prétraitée » par l’IA avant même d’atteindre notre regard. Pour Samuel Woolley, professeur en désinformation à l’université de Pittsburgh, le risque est clair : « Les gens sont déjà méfiants vis-à-vis de ce qu’ils voient sur les réseaux. Que se passe-t-il s’ils découvrent que les contenus sont altérés par les plateformes elles-mêmes ? » Dans un environnement où tout semble artificiel, la défiance devient réflexe. Le Digital News Report 2025 du Reuters Institute, évoquait déjà que 58 % des répondants dans le monde doutent désormais de leur capacité à distinguer le vrai du faux en ligne — un chiffre en constante progression.
3. L’effondrement du podcast narratif face à la montée des talk-shows
Le podcast narratif est en train de disparaître. Celui qui, dans les années 2010, incarnait l’âge d’or du journalisme audio, porté par le storytelling immersif et l’enquête au long cours, est aujourd’hui relégué au rang “d’artefact du passé”, selon les mots du média Rolling Stones. En face, le talk-show s’impose. Conversations spontanées, interviews de célébrités, formats vidéo facilement recyclables sur YouTube : le public — et surtout les annonceurs — ont choisi leur camp. Dès 2024, Vulture constatait déjà le basculement : « Les podcasts de conversation ont repris le contrôle du média ». Mais la tendance s’est brutalement confirmée cet été, avec une série de fermetures. En juin, Pineapple Street Studios, fleuron du podcast narratif, a cessé son activité. Le studio était considéré comme l’un des piliers de l’ère post-Serial. Son propriétaire, Audacy, n’étant pas parvenu à rendre l’entreprise rentable, a préféré couper les pertes. Quelques semaines plus tard, début août, Amazon annonçait à son tour le démantèlement progressif de Wondery, l’un des studios les plus puissants du secteur, connu pour ses formats narratifs à succès comme Dr. Death ou The Shrink Next Door. L’entreprise, rachetée pour 300 millions de dollars à peine cinq ans plus tôt, s’apprête à licencier 110 employés.
Le ralentissement du marché publicitaire, enclenché en 2023 dans un contexte économique tendu, a largement contribué à cette crise. Produire un podcast narratif demande du temps, de l’argent, et mobilise des équipes sur plusieurs mois, voire années. Un luxe devenu difficile à assumer dans un environnement où les revenus stagnent. Selon les chiffres rapportés par le New York Times, bien que près de la moitié des Américains écoutent des podcasts chaque mois, les marques allouent en moyenne « moins de 2% » de leurs budgets publicitaires à ce format. Trop cher, trop lent, trop incertain : les conditions ne sont plus réunies, même si les podcasts générés par IA arrivent à grands pas. Mais pour l’instant, les talk-shows, peu coûteux, adaptables en vidéo et portés par des animateurs ou invités (humains) déjà célèbres, cochent toutes les cases du podcast “post-2020”. Ce sont ces formats qui dominent aujourd’hui les plateformes, autant audio que vidéo. Les politiques en campagne y défilent pour toucher une audience directe ; les fondateurs de la Silicon Valley et des membres de la Maison Blanche y participent , notamment dans les interviews fleuves de Joe Rogan, dont les épisodes durent parfois plus de trois heures. Celui tourné avec Joe Sanders il y a deux mois culmine à cinq millions de vues. Les sportifs et les artistes, eux, s’en servent pour aborder des sujets personnels comme la santé mentale, notamment dans Armchair Expert witch Dax Shepard. Le ton est généralement détendu, confidentiel, sans contradiction frontale.
C’est d’ailleurs ce type de cadre que Taylor Swift a choisi pour sa dernière prise de parole publique en août. Plutôt que de donner une interview à un média, elle a préféré apparaître dans le podcast New Heights, animé par son compagnon Travis Kelce, pour annoncer la sortie de son nouvel album. La vidéo a cumulé près de neuf millions de vues en douze heures sur YouTube, établissant un record pour l’émission. Près de 1,3 million de personnes ont suivi la diffusion en direct, interrompue par un bug technique. Sa dernière apparition dans un média traditionnel remontait à 2022, pour une interview avec Variety. Le choix du podcast n’est donc pas anodin : il permet aux célébrités de contrôler leur communication tout en s’adressant à leur audience de manière plus “authentique”.
Ces talk-shows sont devenus, de fait, de puissants outils de branding. Comme le note Vulture, « la notoriété des célébrités est une monnaie d’échange centrale, et ces podcasts sont souvent des exercices d’extension de marque personnelle. La majorité cherche à exploiter la célébrité de leurs invités pour renforcer la leur. Chaque épisode est une transaction : le but est que l’animateur devienne la vraie star de son émission ». Loin de l’exigence journalistique des podcasts narratifs, ces formats privilégient la fréquence, la viralité et la proximité. Même si selon le New York Times, 58 % des auditeurs continuent d’écouter uniquement en audio, sans regarder la vidéo, le format conversationnel, lui, s’impose comme la norme — en partie parce qu’il est conçu pour circuler sur les réseaux sociaux.
4. Un monde submergé par les copies low cost
« Vivre entouré de copies est devenu aussi courant que de faire défiler trois publications identiques sur un réseau social », résume The Verge. Aujourd’hui, difficile d’échapper aux versions low cost. Sur internet comme dans la vie quotidienne, la copie s’est imposée : massive, souvent invisible, parfois même revendiquée. Elle prend la forme de “dupes” assumés sur les réseaux sociaux, mais aussi d’une réalité plus insidieuse : celle des faux sites d’information entièrement générés par intelligence artificielle.
Le journaliste d’investigation Jean-Marc Manach tire la sonnette d’alarme face à cette prolifération numérique. En quelques mois, plus de 6 500 sites créés par IA ont vu le jour, conçus pour manipuler les moteurs de recherche et capter les revenus publicitaires. Spécialiste des questions de vie privée et de surveillance, il distingue trois grands types de plateformes : « ceux qui cherchent à “poper” sur Discover avec des articles putaclics voire mensongers, ceux qui traduisent et/ou paraphrasent des articles journalistiques, et des fermes à liens visant à rendre des liens sponsorisés et/ou à profiter de liens partenaires ». Les deux premières catégories copient les codes du journalisme professionnel afin de tromper les lecteurs, comme les algorithmes.
Derrière ces sites, on retrouve principalement des experts en SEO. Leur objectif : apparaître dans Google Discover pour attirer du trafic, ou utiliser le “backlinking” afin de générer des revenus via des liens sponsorisés. « Ces éditeurs de sites GenAI en administrent des dizaines, voire des centaines, ce pourquoi la base de données est passée de 1 000 à plus de 6 500 en seulement huit mois », explique Jean-Marc Manach. Une véritable industrialisation des contenus, qui siphonne les revenus publicitaires au détriment des médias traditionnels. Le tournant, selon lui, a été la découverte de la vulnérabilité de Google Discover face à cette vague automatisée. « L’algorithme de Discover de Google favorise les fausses informations », affirme-t-il. Incapable de distinguer un article rédigé par un journaliste d’un texte généré par IA, Discover a ainsi mis en avant des intox comme la fin des billets de banque en France dès octobre 2025, ou l’interdiction pour les grands-parents de transférer de l’argent à leurs petits-enfants. Certaines de ces fausses informations, crédibles en apparence, ont même été reprises par des journalistes humains, pensant relayer des contenus fiables. Face à cette dérive, en juillet dernier, Reporters sans Frontières a appelé Google à « renforcer les critères d’accessibilité à la fonctionnalité [Discover] pour favoriser les médias journalistiques authentiques ». Pour l’instant, la prolifération des contenus artificiels qui imitent le journalisme ne montre aucun signe de ralentissement.
Mais la copie ne prend pas toujours des allures trompeuses. À l’opposé de ces contenus automatisés qui se déguisent en articles d’actualité, d’autres imitations s’affichent ouvertement. Ce sont les dupes, ces versions low cost revendiquées comme telles — une imitation assumée, presque célébrée, par une communauté de consommateurs. Imiter des produits emblématiques n’a rien de nouveau, mais le numérique a fait basculer cette pratique dans une autre dimension. The Verge illustre cette dynamique avec l’exemple du clip de Taylor Swift pour sa chanson « Fortnight », dans lequel la chanteuse porte la Pirouette Skort, une jupe-short façon tutu avec un short intégré, conçue par la marque Popflex. En quelques semaines, la pièce est copiée à la chaîne et inonde les plateformes de vente en ligne. Un an plus tard, en mai 2025, la marque recense encore 461 annonces violant son brevet de design.
Nous vivons une époque où la reproduction est devenue la norme, non l’exception. Comme le souligne The Verge : « Il n’a jamais été aussi rapide ou facile de copier et vendre quelque chose. Ce qui autrefois se limitait à quelques stands sur Canal Street est aujourd’hui une industrie à part entière. Certaines entreprises semblent même exister dans le seul but de copier des produits populaires, parfois très spécifiques. »
Chez les consommateurs — notamment aux États-Unis — la chasse aux dupes est devenue un réflexe. Sur TikTok, Instagram ou les forums en ligne, des créateurs de contenu ont bâti leur audience sur la promesse de dénicher ces alternatives à moindre coût. Acheter une copie, c’est aussi dénoncer des prix jugés excessifs, prouver qu’il est possible d’obtenir l’équivalent pour bien moins cher. C’est le sentiment d’avoir « déjoué les marques qui vendent trop cher ce qui ne devrait pas l’être ».
5. Nouveaux modèles économiques des médias à l’ère de l’IA générative
Un autre signal marquant de l’été est venu de la Silicon Valley : Perplexity, la start-up qui défie Google sur le terrain de la recherche, a dévoilé le 25 août Comet Plus, une version enrichie de son navigateur déjà disponible depuis quelques semaines. Pour 5 dollars par mois, les abonnés ont accès à la bibliothèque complète de certaines publications partenaires. Particularité du modèle : 80 % des revenus seraient reversés aux éditeurs, une promesse rare dans un écosystème à la quête de nouveaux modèles économiques, et où la publicité a longtemps dicté la loi. Selon le Wall Street Journal, Perplexity financera au départ ce programme via un fonds de 42,5 millions de dollars, appelé à croître avec l’élargissement de la base d’abonnés. Ce montant intègre aussi les formules Pro et Max déjà existantes, dont les abonnés participent automatiquement à ce schéma de partage.
Comme indiqué sur le blog de la startup, le système de rémunération repose sur trois canaux de mesure : les visites humaines, les citations dans les résultats de recherche et les actions réalisées par un agent conversationnel. Perplexity tente ainsi de lancer une économie du web où les médias ne seraient plus soumis ni aux clics, ni au référencement algorithmique, ni aux IA qui aspirent leurs contenus sans contrepartie (comme c’était le cas de Perplexity jusqu’à maintenant). Derrière cette initiative, il y a bien sûr un contexte plus tendu : la start-up a été visée par de multiples plaintes ces derniers mois, accusée de piller les contenus de presse sans contrepartie. Dernier épisode en date : le 26 août, les groupes japonais Nikkei et Asahi Shimbun ont conjointement attaqué Perplexity pour exploitation illégale de leurs contenus. Comet Plus ressemble donc autant à un geste de paix envers les éditeurs qu’à une tentative de refonder les règles du jeu.
Reste à savoir si ce modèle est viable. Comme le souligne Engadget, l’argument des 80 % paraît généreux, mais rapporté à 5 dollars, cela revient à environ 4 dollars pour un accès illimité à une bibliothèque éditoriale, alors que la plupart des journaux facturent entre 20 et 30 dollars par mois pour l’intégralité de leurs articles. Le risque est donc de dévaloriser le contenu plutôt que de le pérenniser. Si l’expérience réussit, elle pourrait dessiner un nouveau cadre économique pour la presse à l’ère de l’IA générative. Mais les interrogations demeurent : s’agit-il d’un modèle équitable ou d’une nouvelle dépendance vis-à-vis des plateformes ? Vision de long terme ou simple habillage marketing destiné à calmer la fronde des éditeurs ?
6. L’enfance comme refuge sur les réseaux
Au milieu du chaos ambiant, une envie d’insouciance enfantine s’est imposée cet été. Des accessoires traditionnellement associés aux enfants ont fait irruption dans les tendances, adoptés avec enthousiasme par des adultes en quête de réconfort. Depuis leur lancement en 2019, les Labubus sont devenus un véritable phénomène mondial, propulsés par les réseaux sociaux et la mode des vidéos d’« unboxing ». Ces créatures, imaginées dès 2015 par l’artiste Kasing Lung comme personnages d’une série de livres pour enfants, ont pris un nouveau tournant lorsque leur créateur a signé un partenariat avec Pop Mart. La société a transformé ces lutins de papier en jouets de collection, inaugurés par une série de figurines. Le premier porte-clés Labubu, baptisé Exciting Macaron, est sorti en octobre 2023. Depuis, la frénésie n’a cessé de croître, portée par des célébrités comme Rihanna ou Dua Lipa.
@alexbarretov #chabubu #labubu #macaroni #peluches #cheburashka #labubumacarons #labubuthemonsters #labubullfamilie #labubucake ♬ sonido original – MOVIES_.LYRICS
Les réseaux sociaux se sont même lancés dans une bataille culturelle avec l’ancêtre russe du Labubu, Tchebourachka…
Vendues dans des boîtes opaques, ces figurines à collectionner, dont le prix démarre à 15 € pour grimper jusqu’à plusieurs centaines, jouent sur l’effet de surprise. Chaque achat dévoile un personnage au nom et au design singuliers. Pour compléter une série, les collectionneurs enchaînent les achats, accumulent les doublons et espèrent mettre enfin la main sur la pièce manquante. Le format de la « blind box » séduit autant qu’il inquiète. Certains acheteurs reconnaissent son caractère addictif. Pop Mart en a tiré un modèle lucratif : l’entreprise a écoulé pour 670 millions de dollars de produits cette année, davantage que des lignes emblématiques comme Barbie ou Hot Wheels. Mais la facture est lourde pour les consommateurs. Beaucoup avouent avoir dépensé des centaines, voire des milliers d’euros, sans véritable satisfaction. Le sentiment dominant est celui de la culpabilité. Une acheteuse interrogée par The Guardian confie : « La culpabilité après chaque achat est énorme. Parfois j’ouvre une boîte et je n’ai même pas envie de garder ce qu’il y a dedans. » En juin, un le journal du parti communiste chinois a d’ailleurs condamné cette mécanique de vente jugée prédatrice.
Sur YouTube, de nombreuses vidéos relaient les critiques : consumérisme effréné, volonté d’entretenir un imaginaire enfantin malgré un monde chaotique, et brouillage des frontières entre jouets pour enfants et objets de collection pour adultes.
Un autre phénomène, également venu de Chine avant d’atteindre les États-Unis, intrigue : les tétines pour adultes. Comme celles des nourrissons, elles sont censées apaiser, aider à supporter le stress ou à trouver le sommeil. Vendues entre 10 yuans (1,40 $) et 500 yuans (70 $), elles sont présentées comme des accessoires « anti-stress » ou « aides au sommeil ». Mais l’illusion a un prix, cette fois sanitaire. Des médecins alertent sur les dangers de ces objets inadaptés à la morphologie adulte. Le docteur Tang Caomin, dentiste au Sichuan, met en garde : une utilisation prolongée peut modifier l’occlusion dentaire, endommager les articulations ou perturber la respiration.
@annieeebellieeee #fyp ♬ Why Am I Like This? – Orla Gartland
Psychologues et sociologues évoquent un « phénomène de régression ». Après la pandémie et dans un contexte international anxiogène, certains adultes se replient vers des gestes ou des objets qui rappellent l’enfance, « refuge d’un temps sans factures ni réunions tardives ». La tétine ou la figurine ne sont pas de simples accessoires : ce sont des raccourcis vers un confort psychologique, une tentative de retrouver l’innocence et la sécurité d’avant. Autre phénomène : La génération Z organise désormais des concours de sosies publics, aux États-Unis comme ailleurs, pour élire le meilleur « mâle performatif ». Loin du cliché du sportif de salle, il cultive une masculinité alternative, douce et ironique : boire du matcha, lire bell hooks, écouter des chanteuses-compositrices, garder des tampons dans son sac… et parfois accrocher un Labubu à son tote bag. Chacun s’essaie à ce rôle de parfait allié, souvent plus costume qu’intime conviction.
@landonsfits nahhh performative male in the gym bro? 😪💔🥀 #fyp #foryoupage #performative #matcha #feminist #feministliterature #malemanipulator #labubu #gym ♬ Lil Phoebe x Melodica – sanilovesmusic
Sur TikTok, les vidéos taguées #performativemale cartonnent, et les recherches du type « Pourquoi le matcha est-il performatif ? » se multiplient. Comme l’a expliqué Malik Marcus Jernigan, gagnant du concours « mâle performatif » de Seattle, la plupart des participants, lui y compris, incarnent la blague avec légèreté. En donnant aux adultes l’occasion de jouer, d’exagérer et de se mettre en scène comme des enfants, ces concours répondent à un besoin plus large de régression et de déconnexion : une manière légère et collective de s’éloigner non seulement du sérieux du quotidien, mais aussi d’un monde où la tension et la violence montent de toutes parts.
7. L’hyper-personnalisation de l’information
L’été 2025 a vu la personnalisation sortir de l’ombre pour devenir un axe stratégique des médias. The Verge a introduit un onglet “Following” qui permet de suivre des auteurs, des rubriques et des thèmes précis, donnant naissance à un fil personnalisé mais conservant la hiérarchie éditoriale, avec l’espoir de retenir les lecteurs plus longtemps dans l’écosystème, et de construire de la fidélité directe, sans dépendance aux plateformes sociales. La rédaction a aussi lancé des résumés quotidiens adaptés aux usages : digest rapide pour le matin, articles plus développés en journée. De son côté, Wired a mis en place une refonte de son expérience abonné : newsletters thématiques plus ciblées, Ask Me Anything (AMA) réguliers avec les journalistes, retour des commentaires modérés et versions audio de ses enquêtes.

Deux initiatives différentes, mais qui traduisent la même bascule : faire de la personnalisation une expérience éditoriale et non plus un simple outil de recommandation. Tandis que la stratégie de The Verge met l’accent sur le produit et l’interface : créer des habitudes de lecture et retenir des audiences volatiles grâce à une UX pensée comme un flux “pour vous” (à la TikTok ou Threads), celle de Wired, au contraire, insiste sur la relation éditoriale : transformer la personnalisation en un dialogue avec les lecteurs, où l’abonné peut choisir ses formats, interagir avec les journalistes et accéder à des contenus enrichis. Là où les réseaux sociaux offrent des contenus « pour vous », Wired promet une personnalisation « avec vous », c’est-à-dire une coproduction de l’expérience avec le lecteur. Dans cette même logique, le Handelsblatt en Allemagne expérimente des formats adaptés au moment de la journée (brief court le matin, contexte en journée, analyse le soir), avec un premier jalon : Smart Search, un bot éditorial qui puise dans les articles et podcasts du titre en citant ses sources et en renvoyant au corpus.
TODAY: Join our "Back to School in the Age of AI" livestream AMA at 1 pm ET on how tech moguls, policymakers, and teachers and students are transforming the classroom.https://t.co/f7BfaJcfMb
— WIRED (@WIRED) August 28, 2025
Discret mais révélateur : Google tente la fonction Preferred sources dans Top Stories, qui permet aux internautes de privilégier certains médias dans leurs résultats. L’écosystème entier glisse ainsi vers un modèle où l’IA ne se limite pas à produire, mais orchestre aussi la distribution en fonction de nos routines, de nos centres d’intérêt et de notre seuil d’attention. Les premiers résultats confirment l’intérêt : les pages d’accueil personnalisées de The Verge affichent un CTR plus élevé de 24 % chez les utilisateurs connectés, prouvant ainsi qu’un agencement individualisé peut générer une croissance de revenu incrémentale lorsqu’il repose sur une offre éditoriale forte.
Le paradoxe final : si chacun a « son » média, à quoi sert le média (comme l’a formulé de façon plus élégante Bruno Patino dans « La Fabrique de l’Information » de François Saltiel) ? L’IA générative rend désormais techniquement possible la personnalisation du contenu lui-même (ton, longueur, contexte, langue, voire même format, ce que certains appellent « le contenu liquide »), au-delà du simple tri d’articles. Exactement ce que décrit le rapport 2025 du Reuters Institute sur les attentes et réticences face à l’info personnalisée (utilité perçue, mais méfiance dès que l’algorithme remplace le jugement éditorial). L’hyper-personnalisation déploie toute sa puissance pour l’accessibilité, avec résumés, audio ou niveaux de lecture adaptés, mais elle devient un risque existentiel dès lors que chacun bascule dans son propre média : dilution d’une compréhension partagée, appauvrissement du débat public et disparition de l’effet-média lorsque la Une n’est plus commune, enfermement dans une bulle emplie de flagornerie où l’on n’est plus confronté qu’à ses propres biais. Tout l’enjeu consiste à imaginer un design éditorial capable d’épouser les usages, en personnalisant l’accès et le rythme, sans jamais perdre de vue les priorités assumées, une hiérarchie lisible et une responsabilité éditoriale clairement revendiquée.
8. Streaming : les regroupements s’accélèrent
Dans un paysage audiovisuel de plus en plus fragmenté, les grandes plateformes de streaming et les chaînes de télévision traditionnelles se rapprochent rapidement. Objectif : proposer des offres groupées pour simplifier la vie des consommateurs saturés d’abonnements, tout en renforçant leur position dans un marché ultra-concurrentiel. L’été 2025 a été celui des rapprochements inattendus. Le 18 juin, TF1 et Netflix ont annoncé un accord majeur : à partir de l’été 2026, les chaînes du groupe TF1 ainsi que les contenus de TF1+ seront accessibles directement via la plateforme Netflix en France. Une intégration qui marque un tournant pour l’industrie, symbolisant la fusion croissante entre télévision linéaire et streaming. Quelques semaines plus tard, France Télévisions a officialisé sa présence sur Prime Video. Depuis le 3 juillet, les abonnés français peuvent accéder aux contenus de france.tv depuis un espace dédié sur la plateforme d’Amazon, sans changer d’interface.
À l’international, la tendance se confirme. Outre-Manche, ITV, le principal groupe de télévision commerciale au Royaume-Uni a signé le 16 juillet un accord de partage de contenu avec Disney sur leurs services de streaming respectifs, ITVX et Disney+. Aux États-Unis, Comcast, propriétaire de NBCUniversal et Amazon ont conclu fin août un accord pour proposer la version sans publicité de Peacock sur Prime Video Channels. Notons que ces accords illustrent une stratégie plus large d’agrégation déjà bien avancée chez Amazon. Prime Video propose des abonnements à d’autres services tels que HBO Max, Paramount+ via son application. Pendant que les géants du numérique affinent leur stratégie d’agrégation, Canal+ opère une offensive dans le monde physique. Le 2 septembre, le groupe a annoncé être en négociation exclusive pour entrer au capital du réseau de salles UGC, avec une prise de contrôle potentielle à horizon 2028.
Face à la multiplication des plateformes et des abonnements, les utilisateurs expriment une fatigue croissante. Selon une étude Nielsen, en 2023, il fallait déjà en moyenne 10 minutes et demie à un spectateur pour choisir un contenu à regarder – contre 7 minutes et demie en 2019. Un symptôme d’un marché devenu illisible. Dans ce contexte, les offres groupées (ou bundles) apparaissent comme une solution naturelle. Une étude de la société Antenna, spécialisée dans les abonnements, révèle que le nombre de nouveaux abonnements pris via des plateformes tierces a augmenté de 40 % en deux ans.

De plus en plus de spectateurs préfèrent centraliser leurs abonnements et leurs paiements sur une seule interface. Une évolution que Jonathan Carson, PDG d’Antenna, n’hésite pas à qualifier de « prochain chapitre des guerres du streaming » : une bataille pour devenir « le nouveau câblo-opérateur » de l’ère numérique. Ces rapprochements ne sont pas sans paradoxe. Il s’agit d’une “coopétition” : les plateformes coopèrent tout en restant concurrentes. Le succès d’une alliance repose sur l’équilibre délicat entre intérêt collectif et préservation des intérêts individuels. L’échec de la plateforme française Salto, projet commun de TF1, France Télévisions et M6, en est la preuve. La transformation en cours dessine les contours d’un nouveau modèle : un retour déguisé au “bouquet” de chaînes, mais à l’ère du streaming.
9. Les nouveaux modèles du monde jouables
On en parle depuis longtemps (vous vous souvenez du « métavers »), mais le progrès technologique rend l’idée de plus en plus concrète : une nouvelle ère de réalités jouables émerge, où l’on ne se contente plus de regarder mais où l’on participe, redéfinissant les frontières du divertissement et de l’expérience numérique. Google, Tencent et les communautés open source conçoivent des mondes virtuels toujours plus réalistes, interactifs et personnalisables, à la croisée du jeu vidéo, de la simulation et de l’intelligence artificielle. Netflix a officialisé ses « immersive experiences« , ces extensions interactives de ses franchises qui transforment l’abonné en participant. Showrunner, présenté comme le “Netflix de l’IA”, met l’utilisateur aux commandes : à partir d’un univers créatif existant, il peut écrire et jouer ses propres scènes, convoquer les personnages de son choix, définir les lieux, orchestrer les dialogues et laisser l’algorithme générer une chute finale. L’expérience ouvre une brèche : la fiction n’est plus un récit figé mais un terrain de jeu collectif où se réinventent les codes du divertissement. Reste à savoir si chacun souhaite passer du rôle de spectateur passif à celui de scénariste en herbe, pour qui la valeur de l’expérience réside autant dans l’interaction que dans le contenu.
La recherche en IA franchit une étape clé : après avoir généré des images, des textes et des vidéos, les modèles savent désormais produire des mondes interactifs jouables. Google DeepMind a présenté cet été Genie 3, un moteur capable de générer en temps réel des environnements navigables à partir d’un simple prompt. L’utilisateur peut intervenir en cours de simulation par commandes textuelles, de type “un orage approche”, et voir l’univers se transformer instantanément. D’autres acteurs avancent vite : Tencent développe Hunyuan Gamecraft, entraîné sur des millions de séquences de jeux AAA pour créer des environnements dynamiques proches des standards commerciaux. Dans le monde de l’open source, SkyworkAI enchaîne les prototypes. Avec Matrix-Game 2.0, l’IA est déjà capable de produire de petites séquences interactives d’une minute environ, animées à 25 images par seconde. Matrix-3D, de son côté, transforme une simple photo ou même une phrase en panorama à 360°, dans lequel on peut se déplacer comme si l’on y était. Quant au projet Yan, encore en phase expérimentale, il vise la création de mondes interactifs en haute définition (1080p, 60 images/seconde). Sa particularité : découper le travail en trois étapes : simulation, génération et édition en temps réel. Dans tous les cas, le principe est le même : l’IA ne produit plus un média figé mais un environnement persistant, réactif et personnalisable.
Ces “modèles du monde” bouleversent les règles du divertissement. Pour les studios, ils offrent un laboratoire de prototypage : la possibilité de créer un décor ou tester une intrigue en quelques minutes, sans équipes de développement. Pour les plateformes, ils ouvrent la voie à de nouvelles formes de monétisation : pass saisonniers, contenus dérivés co-créés avec les fans, licences prolongées par la communauté. Pour les publics, ils sont l’occasion de s’approprier les récits, de les détourner, de les vivre ensemble. On voit apparaître aussi des formats hybrides : podcasts interactifs avec embranchements narratifs, documentaires jouables où les choix du spectateur modifient la trajectoire, programmes TV enrichis de sondages ou de votes en direct. Reste la question des risques : propriété intellectuelle des scènes générées, biais des données d’entraînement, toxicité potentielle des mondes ouverts aux communautés. Mais l’horizon est clair : nous entrons dans une ère où le public devient bâtisseur, où les mondes ne sont plus seulement racontés mais vécus et transformés par ceux qui les habitent.
10. La reconnexion au réel
Et finalement, juillet-août ont aussi été l’occasion de décrocher des écrans, peut-être même davantage que les années précédentes. Pour la génération Z, les émissions de téléréalité qui ont rythmé les soirées estivales sont devenues un prétexte à se retrouver lors de watch parties. Sauf que cette fois-ci, il ne s’agit pas d’une pratique numérique émergée pendant le Covid, qui permettait de regarder un programme ensemble en ligne, mais d’un retour nostalgique à la vraie vie, qui est d’ailleurs plus « party » que « watch ». De Love Island, aux États-Unis et au Royaume-Uni, à Secret Story en France, le concept est simple : se réunir dans un bar pour regarder un épisode ensemble.
Derrière l’aspect festif, ces rassemblements répondent à un double besoin : rompre avec la solitude et recréer du lien collectif. La génération Z, souvent décrite comme particulièrement isolée, s’inscrit dans ce phénomène que les médias ont qualifié d’« épidémie de solitude ». Ainsi, elle y voit de véritables grands événements, recréant des rituels partagés dans un quotidien fragmenté. Ce retour de l’expérience partagée s’inscrit dans un mouvement plus large : la raréfaction des « tiers-lieux » — ces espaces sociaux entre la maison et le travail — et le désir croissant de se distancier des écrans qui ont marqué l’enfance de cette génération. Des personnalités publiques comme Violette Dorange, benjamine du Vendée Globe, témoignent d’une lassitude face à la « course aux likes ». Son post, fin juillet, sur la pression mentale des réseaux sociaux a déclenché plus de 87 000 réactions… preuve, paradoxe amusant, de la puissance des plateformes qu’elle critique.
Les marques ont vite compris cette aspiration au concret. Polaroid, en particulier, s’est distinguée avec une campagne “outdoor résolument humaine et sensible”. Sur des posters manuscrits et des tirages bruts, la marque propose des slogans simples mais efficaces : « L’IA ne peut pas recréer la sensation du sable entre tes orteils », « Tu te souviens de cette soirée qu’on a passée sur nos téléphones ? Moi non plus », ou encore « Des vraies histoires. Pas des stories. » Tandis que l’univers publicitaire s’agite autour de l’IA, de l’automatisation et du ciblage algorithmique, Polaroid a pris le contre-pied : miser sur le silence et la simplicité dans un monde saturé de bruit numérique. Un pari risqué, mais qui résonne avec la lassitude croissante face à l’écran permanent.

Conclusion
Ces dix tendances tracent le portrait d’un été fragmenté, oscillant entre la tentation du simulacre (IA, avatars, clones numériques) et le besoin pressant d’authenticité (rencontres en chair et en os, échanges imprévus, récits sans fard). Les jeunes générations, de leur côté, ont littéralement « crashed out ». Peut-être est-ce le premier été où l’on a vraiment décroché… sauf sur LinkedIn, royaume des désœuvrés numériques, où une querelle surréaliste a opposé de prétendus experts autour de Luc Julia. Mais ce n’est pas tant le contenu du débat qui compte que ce qu’il révèle : l’ultracrépidarianisme qui prolifère sur les plateformes, où chacun s’érige en spécialiste d’un sujet qu’il maîtrise à peine, à l’aide de son assistant IA. Symptomatique d’un climat plus large, où la cacophonie des opinions peine à masquer le silence d’une culture commune en train de se dissoudre. Entre avatars générés et conversations sans fin, cet été aura surtout mis en lumière la difficulté de retrouver un récit collectif.
Illustration de Une : KB, avec ChatGPT
TikTok vs Instagram : de rivaux à (presque) jumeaux dans la stratégie des médias publics
Deux rivaux, une même grammaire visuelle : autrefois perçus comme les pôles opposés des usages sociaux numériques, TikTok et Instagram tendent désormais à se confondre. Pour les médias de service public, cette convergence soulève une question stratégique : comment continuer à toucher les jeunes publics, sans dupliquer les efforts ? Décryptage d’une évolution accélérée des formats, des usages et des attentes avec deux responsables du développement de l’audience à la Deutsche Welle.
Par Erika Marzano, Audience Development, et Yasmina Al-Gannabi, Senior Audience Development Manager & Social Media Security Officer @Deutsche Welle (DW)
Lorsque nous avons pris la parole lors du Festival international du journalisme de Pérouse en 2022, dans un panel intitulé « TikTok vs. Instagram Reels », nous évoquions deux plateformes aux dialectes sociaux distincts : TikTok, sauvage, chaotique, imprégné de l’irrévérence de la Gen Z ; Instagram, soigné, aspirationnel, dominé par l’esthétique du fil parfaitement orchestré. Mais cette ligne de fracture ? Elle s’estompe aujourd’hui – voire disparaît.
En 2022, TikTok était largement considéré comme la plateforme incontournable pour des récits intemporels, centrés sur la jeunesse et porteurs d’une viralité imprévisible – un espace où naissaient les tendances et où l’émotion dictait la visibilité. À l’inverse, Instagram apparaissait comme l’outil privilégié pour l’actualité chaude et les formats léchés, parfaitement calibrés pour les flux, en particulier pour les marques médias traditionnelles adaptant leurs contenus web ou télévisés.
En 2025, Instagram et TikTok ressemblent de plus en plus à des jumeaux numériques. Les fonctionnalités se confondent (Reels, Stories, Carrousels, intégration musicale, monétisation des créateurs), les tendances passent de l’un à l’autre en quelques heures, et même l’esthétique des créateurs – autrefois spécifique à chaque plateforme – tend à converger.
Mais que cela implique-t-il pour les médias de service public ?
1. Fonctionnalités similaires, comportements similaires
TikTok et Instagram :
- favorisent la recommandation algorithmique plutôt que la portée organique fondée sur les abonnés
- privilégient la vidéo verticale, courte, immersive
- utilisent la musique comme levier de découverte
- mettent en avant le récit visuel et l’authenticité
Instagram a imité l’expérience de la page « Pour toi » de TikTok via Reels Explore. TikTok a intégré un « mode photo » (carrousels), tandis qu’Instagram s’est mis aux sons viraux et à la circulation ultra-rapide des mèmes. Même les interactions dans les commentaires se ressemblent désormais : elles reposent sur des réactions courtes, émotionnelles, ponctuées de clins d’œil entre initiés.
En 2025, un phénomène inattendu est apparu : des contenus d’actualité, des breaking news, les extraits de conférences de presse performent aussi bien sur TikTok que sur Reels. « Ce qui se passe maintenant » est devenu une valeur commune. Les audiences, bien que non identiques, attendent de la réactivité sur les deux plateformes. Ce changement de rythme nous oblige à revoir nos présupposés : TikTok n’est plus seulement un espace à viralité lente.
2. Stratégie de plateforme : les différences s’atténuent
Dans les faits, TikTok reste légèrement plus jeune. Selon le Digital News Report 2025 du Reuters Institute, 44 % des 18-24 ans l’utilisent chaque semaine pour s’informer, contre 39 % pour Instagram. Facebook demeure présent chez les plus de 35 ans.

Ce qu’il faut retenir : TikTok reste dominant chez les plus jeunes, mais Instagram le talonne, notamment dans les régions où l’écosystème Meta est très implanté.
3. L’adaptation des médias publics : un jeu d’équilibre
Pour des diffuseurs comme DW, BBC, RFI ou NPR, l’enjeu n’est pas de choisir entre les plateformes, mais de suivre leurs mutations et de répondre aux attentes de leurs publics sur chacune. Instagram ne se limite plus à l’esthétique. Il valorise l’immédiat, la réaction, l’humour et l’émotion. TikTok reste le berceau des tendances, mais l’écart se réduit, et bon nombre de Reels sont aujourd’hui indiscernables de leurs homologues TikTok.
Nos processus créatifs s’uniformisent donc, tout en adaptant certaines spécificités : textes, droits musicaux, appels à l’action. Chez DW en espagnol, par exemple, les contenus les plus performants naissent souvent comme projets TikTok, puis sont optimisés pour Reels avec un habillage localisé.
4. Découvrabilité et référencement : les nouvelles règles
La visibilité est clé. Une étude de Previsible démontre que les Reels Instagram publics sont désormais indexés par Google, ce qui les rend accessibles hors de la plateforme. Un changement majeur pour les rédactions sensibles aux enjeux de référencement.
Conséquences pour le SEO :
- Les Reels publics sont visibles via Google
- Les légendes optimisées (jusqu’à 2¢000 caractères) comptent
- Des noms de fichiers et un texte alternatif riches en mots-clés aident au référencement
- Les hashtags ont moins de poids que le contexte
TikTok reste à ce jour une plateforme fermée, mais teste l’intégration de Google dans certaines régions pour améliorer la recherche. Meta, en revanche, investit massivement sur les Reels, pensés à la fois comme moteurs d’engagement et outils de découverte.
5. TikTok & Instagram en Bulgarie : étude de cas
Dans notre dernier rapport mensuel pour DW Bulgarie, Instagram a émergé comme levier de croissance majeur. Quelques chiffres :
- 77 % des contenus publiés étaient des Reels
- Les Reels les plus vus intégraient musique, voix off personnelle et actualité régionale
- TikTok progressait, mais la synergie avec Facebook donnait à Instagram un avantage en termes de rétention
Parallèlement, le TikTok de DW Bulgarie s’est imposé comme un espace clé pour toucher les jeunes avec des contenus à forte charge émotionnelle. Entre février et juin 2025, plus de 84 % des vues venaient de Bulgarie, avec une nette préférence pour les vidéos mêlant actualité impactante et narration incarnée.
Les sujets les plus engageants ? Les tragédies et manifestations (comme l’incendie dans une boîte de nuit en Macédoine du Nord), les décryptages de la désinformation liée à l’UE, les pastiches de scandales politiques. Le format vertical court permettait une narration efficace et visuelle, atteignant parfois des centaines de milliers de vues sans promotion. Les contenus explicatifs au ton émotionnel ou sarcastique surpassaient largement les formats plus figés.
La tendance est claire : en Bulgarie, TikTok n’est plus un simple réseau « pour les jeunes ». C’est un terrain de lutte narrative, en particulier autour de la désinformation, des droits et de la responsabilité politique. L’espace commentaire est devenu un baromètre d’intérêt citoyen et une source précieuse d’angles journalistiques.
Conclusion : pas l’un ou l’autre. Les deux.
Opposer TikTok et Instagram n’a plus de sens. Ce sont deux constellations d’un même système. Pour les journalistes, créateurs et stratèges, cela signifie :
- Penser en formats, pas en plateformes
- Tester les contenus là où les publics sont réceptifs
- Suivre les performances via les partages, les commentaires, les sauvegardes et les taux de complétion
Ce n’est plus TikTok contre Instagram, mais TikTok et Instagram. L’enjeu n’est plus de se répéter, mais de créer de la résonance. Ce qui relevait autrefois de stratégies propres à chaque plateforme s’est transformé en un processus de travail partagé et adaptatif. Lorsqu’un sujet fonctionne, c’est d’abord le format qui guide notre réflexion, non la plateforme.
Cette agilité nous permet de rejoindre nos publics là où ils se trouvent, au moment où leur attention est disponible. Et de faire en sorte que le récit porté par les médias publics demeure accessible, vivant et profondément humain — des deux côtés de l’écran.
Cet article a été traduit et repris avec l’accord de ses autrices, la version originale est publiée ici
RAISE Paris : sous la Joconde, l’IA passe à l’ère des agents, et personne n’a la définition de l’AGI
On a beau parler d’« AGI » à tous les coins d’estrade, aucun des intervenants du RAISE Summit Paris, grand rendez-vous européen de l’intelligence artificielle, n’en a donné une définition ferme. C’est d’ailleurs l’un des enseignements majeurs de la rencontre des 8 et 9 juillet qui a réuni 6300 participants et 110 médias : Le vocabulaire court après la technologie, quand il ne s’arme pas ouvertement de métaphores belliqueuses. Thomas Wolf, cofondateur et Chief Science Officer de Hugging Face, parle de modèles transformés en « soldats » qu’il faut sans cesse entraîner. BlackRock, premier gestionnaire d’actifs au monde, évoque une « total war » pour le contrôle de toute la chaîne de valeur, du silicium aux agents. Pour Eric Schmidt, ancien PDG de Google, on ne va toujours pas assez vite. Et selon Illia Polosukhin, cofondateur de Near Protocol, « nous courons tous vers quelque chose que nous ne savons pas définir »...
Par Kati Bremme, Directrice Innovation et Rédactrice en chef Méta-Media
L’autre enseignement, plus concret, est en effet que l’IA entre dans sa phase « agentique » : des systèmes capables de planifier, d’agir et d’enchaîner des tâches. Tout l’écosystème se met en place, des puces aux data centers, des logiciels aux données, des modèles ouverts comme propriétaires, jusqu’aux premiers cas d’usage en entreprise. Eric Schmidt, en francophile de passage à Paris, en a donné sa propre lecture forgée outre-Atlantique. Nous serions, selon lui, au seuil d’une « nouvelle époque », dotée d’un nom de code officieux : le « San Francisco Consensus ». Dans la Silicon Valley, l’expression condense la conviction que l’IA va tout reconfigurer (nous, le monde, l’univers…), dans un horizon de trois à six ans. Pour le vétéran de la tech américaine, il ne s’agirait pas d’une bulle mais de la naissance d’une nouvelle industrie, incarnée par des puces devenues plus précieuses que n’importe quelle entreprise de l’histoire et par des centres de calcul dont la puissance, promet-il, sera toujours dévorée par le logiciel.
Ce qu’il faut retenir des échanges :
- L’agent deviendrait l’interface par défaut. En B2B, « assistants » métiers, copilotage des processus, et bientôt agents autonomes greffés aux systèmes existants ; côté grand public, la bataille de l’« assistant personnel » est relancée par les plateformes et le mobile. (Panel d’ouverture avec SambaNova, BlackRock, Hugging Face, modéré par CNBC). Chaque entreprise de logiciels en mode SaaS finira soit par disparaître, soit par se convertir à l’agentique, selon BlackRock.
- Ouvert vs. propriétaire : le temps long contre l’efficacité immédiate. Consensus de scène : l’open source reste « le jeu de long terme » (interopérabilité, latence maîtrisée, confidentialité), mais à court terme les usages, notamment les premiers agents, plébiscitent les modèles propriétaires pour la performance brute et l’outillage.
- La « guerre totale » du full stack. Pour « contrôler son destin », il faut jouer sur le modèle de pointe et l’infrastructure de calcul (accès aux GPU/LPUs, réseau, refroidissement). D’où l’accélération des alliances entre fabricants de puces, clouds spécialisés, intégrateurs et éditeurs.
- Le véritable goulot d’étranglement, c’est l’inférence, c’est-à-dire le moment où l’on met les modèles d’IA en production pour répondre en temps réel. Les agents sollicitent sans cesse les modèles, ce qui crée des files d’attente. Si la latence est trop élevée ou le débit trop faible, l’expérience utilisateur s’effondre. C’est sur ce terrain que se positionnent les fabricants de puces dédiées à l’inférence (Groq, Cerebras, SambaNova…), qui occupent désormais le devant de la scène.
- La donnée devient un bien stratégique… et négocié. Entre paywalls qui se referment et médias qui bloquent les bots (dans une tentative désespérée de protégrer leurs modèles économiques), l’« infrastructure de données » (pour ne pas nommer Bright Data) plaide pour la visibilité des contenus publics et anticipe des modèles de compensation, y compris via la publicité intégrée aux chatbots.
Sur scène : de la « guerre totale » aux files d’attente des agents
Dès l’ouverture, le ton est posé : celui d’une guerre industrielle, où chaque camp tente d’imposer son récit. Derrière les slogans, une question centrale : qui contrôlera la prochaine génération d’intelligence artificielle ? Le clivage est désormais net. À long terme, beaucoup parient sur l’open source, cet écosystème où les modèles sont accessibles et adaptables par tous. Mais dans l’immédiat, ce sont encore les modèles propriétaires qui s’imposent, jugés plus fiables, plus robustes et surtout mieux intégrés dans les usages des entreprises. L’analogie avec l’histoire récente du numérique éclaire l’enjeu : l’open source ressemble à Linux, foisonnant mais fragmenté, tandis que les modèles fermés jouent la carte d’Apple, cohérents, verrouillés, mais efficaces.
Pour Hugging Face, l’ouverture n’est pas qu’un slogan, c’est un moyen de garder la main sur deux paramètres essentiels : la rapidité de réponse (la latence) et la confidentialité des données. Dans un contexte mouvant, un modèle d’IA ne reste pertinent que quelques mois. Les entreprises les testent en continu et basculent vers le mieux-disant dès que le rapport coût/qualité s’inverse. Quelques géants conservent leur rang, mais uniquement grâce à un effet « iPhone » : une intégration si profonde que tout l’écosystème reste captif. Andrey Khusid, fondateur de Miro, a aussi rappelé que si l’IA s’impose vite sur les usages individuels, elle bute encore sur les usages collectifs : le travail d’équipe et surtout la collaboration entre équipes restent les vrais points faibles. La lenteur des grandes entreprises ne tient d’ailleurs pas seulement à l’exécution, mais au millefeuille de procédures accumulées depuis quarante ans, y compris dans les fleurons du CAC 40.

Mais au-delà des inerties humaines et organisationnelles, une autre limite apparaît, cette fois mécanique : l’infrastructure. Les agents, ces systèmes censés automatiser les tâches, multiplient les appels aux modèles comme autant de voitures entrant sur une autoroute déjà saturée. Les serveurs se transforment en goulots d’étranglement, les files d’attente s’allongent, la latence grimpe. Une seconde de retard suffit alors à briser l’expérience. Tant que ce bouchon n’est pas levé, la révolution de l’IA restera à la porte de l’industrialisation. Et derrière ces embouteillages numériques, la bataille du silicium s’anime. Nvidia règne toujours en maître, mais trois challengers avancent leurs cartes.
Groq mise sur la vitesse d’exécution : son architecture d’inférence revendique des performances record, et l’entreprise a obtenu un engagement de 1,5 milliard de dollars de l’Arabie saoudite pour développer son infrastructure d’IA dans le royaume. Cerebras joue la démesure avec son Wafer Scale Engine, un processeur géant gravé sur une galette entière de silicium, qui concentre l’équivalent de dizaines de GPU traditionnels dans une seule puce.. SambaNova, enfin, revendique la souplesse : son approche modulaire, dite « Dataflow », permet d’orchestrer plusieurs modèles spécialisés en parallèle. Tous visent le même objectif : montrer qu’ils peuvent soutenir des agents en continu, sans rupture, condition indispensable pour passer du prototype à l’industrialisation. En parallèle, Charles Liang, fondateur et PDG de Supermicro, a résumé son credo d’une formule lapidaire : « Je vends tout ce qu’il faut pour un data center. » Rieur sur scène, il balaie d’un revers la crainte de voir son secteur se transformer en simple commodité : la concurrence fait partie de la nature des choses, et la pression sur les prix n’est pas une menace pour l’entreprise chinoise.
Enfin, une évidence économique s’impose : l’IA se paie à l’usage, en « tokens », ces unités de calcul qui mesurent le volume de contenu traité. Les grands modèles fermés resteront coûteux et voraces en ressources, mais des modèles plus petits et mieux entraînés répondent déjà à des besoins ciblés, parfois directement « on device », sur les appareils eux-mêmes. La bataille ne se joue pas seulement dans les centres de données, mais aussi dans la poche des utilisateurs, …et dans la valeur des contenus qui alimentent les modèles.
La bataille de la donnée : un internet qui se referme
Interrogé sur scène par Larissa Holzki (Handelsblatt), Or Lenchner, directeur général de Bright Data, a tenu un discours sans filtre : « les modèles doivent savoir ce qui existe, quitte à filtrer ensuite ». La journaliste l’a poussé sur un terrain sensible, celui de la responsabilité : Bright Data collecte-t-elle aussi des contenus problématiques, comme les discours de haine ? Le patron de Bright Data a balayé la question en expliquant que son rôle n’était pas de juger, mais d’aspirer « tout ce qui est public », revendiquant 40 milliards de requêtes envoyées chaque jour et laissant aux clients et aux modèles d’IA le soin de filtrer en sortie. Dans cette phase d’alimentation, peu importe à ses yeux que le contenu soit rédigé par une IA plutôt que par un humain, du moment qu’il est vérifié et qu’il est « bon », en ajoutant une précision : la création de contenu n’est pas réservée aux journalistes.
Cet argumentaire n’a rien d’innocent. Bright Data vit du web scraping, de l’extraction automatisée de données accessibles sur Internet (pages web, réseaux sociaux, forums), qu’elle revend ensuite à ses clients : grandes plateformes technologiques, institutions financières, laboratoires de recherche… et parfois même les mêmes géants qui l’attaquent en justice. Meta et X figurent parmi ses clients tout en ayant tenté de le bloquer devant les tribunaux. En janvier 2024, Bright Data avait remporté une victoire décisive face à Meta devant un tribunal fédéral de Californie : le juge a estimé que l’aspiration de contenus publics, sans connexion ni piratage, ne constituait pas une violation contractuelle. Ce qui est visible sans authentification peut être collecté.

Pour les médias, l’enjeu est évident. Chaque paywall, chaque barrière anti-bots est une tentative de protéger la valeur éditoriale. Mais dans le monde lumineux décrit par Bright Data, bloquer l’accès revient à disparaître des usages émergents de l’IA, et même, aoute-t-il, à « détériorer la qualité des modèles ». Autrement dit : gare à vous, éditeurs. Si l’internet de l’IA se transforme en bouillie, ce sera sur votre conscience. D’où sa « solution », énoncée avec une ironie assumée : financer l’accès par la publicité intégrée aux interfaces IA, à la manière dont les moteurs de recherche ont longtemps soutenu la presse en échange de visibilité. Dans un autre échange, BlackRock souligne que la valeur ne se joue plus seulement dans l’accumulation de données brutes, mais dans le post-entraînement : cette phase où les modèles sont ajustés, enrichis et gouvernés (par exemple via le RAG, qui relie un modèle à des bases documentaires, ou le function calling, qui permet de transformer une requête en action). Ce qui compte désormais, ce ne sont pas des volumes indistincts, mais des contenus certifiés, contextualisés et traçables, capables d’alimenter directement l’expérience utilisateur, une fenêtre entrouverte pour les éditeurs. Et face à une course où tout se mesure en volumes de données ingérables et en gigawatts de calcul, le meilleur atout reste peut-être ce que la Silicon Valley considère comme accessoire : l’expertise.
Le « San Francisco Consensus » : l’avenir selon Eric Schmidt
Pour Eric Schmidt, ancien patron de Google et figure centrale de la Silicon Valley, le RAISE Summit a été l’occasion de dérouler à Paris sa vision d’un « Brave New World » de l’IA. Selon lui, l’AGI, cette intelligence artificielle dite « générale », capable d’égaler les meilleurs humains dans la plupart des tâches, pourrait émerger dans les trois à cinq prochaines années. Et l’ASI, l’« intelligence super-humaine », dépassant cette fois toutes les capacités intellectuelles réunies, suivrait de près, à l’horizon de six ans. Il a précisé qu’il ne s’agissait pas d’une prédiction scientifique, mais d’un calendrier partagé par une grande partie de l’écosystème US, baptisé le « consensus de San Francisco ».
Une vision vertigineuse… et qui, comme par hasard, confirme surtout qu’il est urgent d’investir massivement dans les technologies portées par les figures de la baie. Pourtant (ou justement), Eric Schmidt décrit une situation qui a tout d’une bulle : « Nous sommes dans une phase de surconstruction, il y aura de la surcapacité dans quelques années, mais cela ne me dérange pas, les autres mourront. » Tout en insistant d’aller vite, il n’hésite pas à reconnaître ses propres angles morts. Il admet ainsi qu’en 2017, alors qu’il présidait encore Google, il n’avait même pas remarqué la publication du fameux article scientifique sur les Transformers, pourtant la base de toute l’IA générative actuelle.

Pour l’ancien patron de Google, nous n’assistons pas à une bulle, mais à la naissance d’une nouvelle industrie. Une industrie tirée avant tout par le matériel : chaque nouvelle capacité de calcul finit par trouver son usage. La limite, en revanche, est énergétique. Selon lui, les choses sont simples : en Europe, l’enjeu n’est pas l’algorithme mais l’électricité. « La France l’a, mais elle a choisi de la taxer », cingle-t-il. Et le chemin le plus court vers l’AGI, ajoute-t-il, passe par le nucléaire. Les faits semblent confirmer la tendance : Meta a signé en juin 2025 un contrat d’approvisionnement direct auprès d’une centrale nucléaire, Google avait déjà fait de même à l’automne 2024.
Eric Schmidt poursuit avec Andrew Feldman, patron de Cerebras : les systèmes s’auto-améliorent déjà, et les agents composent leurs propres solutions. L’enjeu n’est plus seulement technique mais politique : comment maintenir un alignement éthique et démocratique quand les modèles évoluent en continu, sans qu’aucune mise à jour ne vienne plus marquer de rupture identifiable ? Il convoque alors la voix de son ami disparu Henry Kissinger, avec qui il avait cosigné The Age of AI : « Qu’est-ce que cette magie ? Dieu ? ». Une provocation en forme d’avertissement : les démocraties survivront-elles à l’AGI ?
Le stratège de la Silicon Valley élargit aussitôt le cadre au champ géopolitique. Aux États-Unis, l’IA reste dominée par quelques géants et leurs modèles propriétaires, enfermés dans d’immenses data centers. La Chine, à l’inverse, pousse une stratégie d’« open source » : des modèles ouverts, largement soutenus par l’État, qui se diffusent rapidement à l’échelle mondiale. Résultat : dans le Sud global, ce sont déjà les modèles chinois qui irriguent la majorité des usages quotidiens. Eric Schmidt souligne le paradoxe : Washington peut conserver l’avance technologique, mais pas nécessairement l’influence culturelle. Et ce basculement, prévient-il, reste largement sous-estimé, surtout dans ces « pays où l’on ne va jamais » (selon lui), mais où se dessine déjà l’adoption réelle, et le futur.
Conclusion
L’IA n’est plus un récit abstrait mais une industrie lourde : treize usines programmées en Europe, dont quatre gigafactories, pour un investissement total estimé à 20 milliards d’euros. Mais Eric Schmidt a jeté un froid devant le Congrès américain : il faudra deux centrales nucléaires par centre de données, 92 nouvelles centrales nucléaires d’ici dix ans pour soutenir la course. Derrière l’enthousiasme, la matérialité brute des infrastructures et la facture énergétique esquissent un futur peu souhaitable. Dans ce paysage, une autre transformation se joue : du « software is eating the world » on passe à « everybody builds software ». Les outils de génération réduisent l’écart entre idée et exécution à quelques heures. Même les gestes du quotidien s’en trouvent traversés : Mark Minevich, Strategic Partner chez Mayfield, évoquait, non sans malice, sa boulangerie new-yorkaise qui revendique déjà des croissants optimisés par apprentissage automatique. Derrière l’anecdote, une tendance lourde : chaque employé peut désormais « parler à la donnée » et accéder directement à la complexité d’une entreprise. L’adoption ne suit plus les courbes classiques : elle déplace la valeur du process vers l’usage, de la logique des équipes vers celle des individus.
Et pendant que la scène se passionne pour l’AGI, la vraie bascule pourrait venir en douceur, presque sans bruit. Comme le smartphone qui a un jour remplacé nos clés, le portefeuille ou les billets de train sans que l’on s’en aperçoive. Ce n’est pas une bataille frontale entre les États-Unis et la Chine. L’Afrique, l’Asie du Sud, l’Asie du Sud-Est et d’autres zones encore sous le radar des cartes stratégiques imposent déjà leurs propres usages. Et avec eux, d’autres visions que celle de l’hyperscaling à marche forcée, promue par Sam Altman et les géants de la tech états-uniens. L’IA ne se résume pas aux LLM. Ni même au deep learning. Dans nombre d’organisations, des systèmes probabilistes, des architectures hybrides ou des modèles symboliques suffisent à produire de la valeur, sans GPU ni promesses de conscience artificielle. Un moteur de règles bien conçu peut parfois automatiser plus efficacement qu’un modèle à 70 milliards de paramètres.
Ce sont aussi ces voies frugales, contextualisées, souvent open source, qui se développent hors des discours dominants. En attendant, dans ce monde saturé, Internet se dédouble : d’un côté les humains, de l’autre les agents IA. Selon les experts réunis à Paris (tous plutôt du côté de l’hyperscaling), la vague suivante sera robotique, plus profonde encore que les textes générés, avec des agents qui ne se contentent plus de répondre mais qui explorent et interviennent. La souveraineté ne réside plus dans les corpus hérités mais dans les futures données générées en interaction avec l’IA. L’Europe souhaite rester souveraine tout en accédant aux technologies de pointe. Pour espérer prendre un temps d’avance, elle doit penser à la fois ses entreprises existantes et celles qui émergent. Et à mesure que l’IA devient de plus en plus capable de faire ce que nous faisons, reste à savoir ce que nous voulons faire demain.
Des cas d’usage qui prennent forme
- Snowflake : Dans un échange avec Roxanne Varza (Station F), Benoît Dageville a défendu l’ambition de transformer sa plateforme en « iPhone de la donnée », masquant la complexité technique pour offrir une interface en langage naturel.
- Sanofi : le groupe a présenté sa plateforme interne de GenAI et son « concierge », un agent orchestrant les tâches quotidiennes, avec un accent particulier sur la gouvernance responsable.
- Datadog et Miro : les deux acteurs ont souligné la difficulté d’embarquer les équipes au rythme de l’innovation, rappelant que les gains de productivité individuels ne suffisent pas à compenser la fragilité des usages collectifs.
- Nutanix et Nvidia : les deux ont promis un « full stack » simplifié pour les entreprises, de la salle serveur à l’edge.
Les « builders » en première ligne
La scène a aussi donné la parole à une nouvelle génération d’entrepreneurs.
- Lovable (Anton Osika) : il défend la thèse du « vibe-coding », transformer une idée en produit en quelques heures plutôt qu’en plusieurs mois. La start-up revendique jusqu’à 70 000 nouveaux projets créés par jour, 10 % de tous les nouveaux sites web mis en ligne dans le monde le mois dernier. Une trajectoire fulgurante confirmée par ses levées de fonds et la couverture média internationale.
- Cursor : avec son « agent mode », elle poursuit le même objectif : réduire l’écart entre idéation et exécution.
- Manus AI (Tao Zhang) : elle pousse l’idée d’un navigateur construit pour et par des agents, avec déjà 3,5 millions d’inscrits en liste d’attente.
Mini-glossaire
Agentique / agents : systèmes capables de planifier et d’exécuter une suite d’actions pour atteindre un objectif, au-delà de la simple génération de texte.
Latence : temps écoulé entre une requête et la réponse du système. Une faible latence est cruciale pour une expérience fluide.
Post-entraînement : phase d’ajustement qui suit l’entraînement initial des modèles. Elle inclut notamment :
- RLHF (Reinforcement Learning with Human Feedback) : apprentissage par renforcement à partir de retours humains.
- RLAIF (Reinforcement Learning with AI Feedback) : apprentissage par renforcement à partir de retours générés par un autre modèle d’IA.
- ainsi que l’intégration d’outils externes pour améliorer les performances.
Multitenancy : capacité d’une même infrastructure à être partagée par plusieurs clients ou applications, tout en restant isolée et sécurisée pour chacun.
Edge : traitement et exécution au plus près de la source de données (sur l’appareil lui-même ou dans un site industriel), plutôt que dans des serveurs distants hébergés dans le cloud.

Lectures d’été #2
Que vous soyez à la mer, à la montagne ou en ville, l’été reste un moment propice pour penser autrement. Voici la deuxième partie de notre sélection : des ouvrages et des podcasts pour interroger les mutations en cours dans les médias, la tech et la société.
Le Double, Voyage dans le Monde miroir – Naomie Klein
Dans Le Double, Naomi Klein part d’un malentendu devenu viral : sa confusion répétée avec Naomi Wolf, autrefois figure du féminisme progressiste, aujourd’hui proche des sphères complotistes de l’extrême droite américaine. Ce point de départ lui permet d’explorer un phénomène plus vaste : la manière dont les idées de la gauche ont été retournées, détournées et absorbées par une nébuleuse réactionnaire qui en mime les codes tout en en pervertissant le sens. Klein enquête sur ce “monde miroir” où se croisent doubles numériques, identités fracturées, désinformation algorithmique et stratégies de récupération idéologique.
À mi-chemin entre essai politique et récit personnel, le livre propose une lecture incisive du brouillage contemporain entre vrai et faux, engagement et simulacre. Il éclaire avec finesse les dérives de l’espace public numérique, les angles morts du progressisme, et la manière dont certains récits se retournent contre ceux qui les ont portés. Le Double est autant une plongée dans l’écosystème confusionniste actuel qu’un appel à repenser les conditions d’une solidarité lucide face aux distorsions du réel.

In the Long Run – Jonathan White
Dans In the Long Run, le politologue Jonathan White s’interroge sur la capacité des démocraties à maintenir leur lien organique avec l’avenir à un moment où celui-ci semble de plus en plus bouché. Climat, pandémies, guerres, récession : les crises actuelles mettent à mal l’idée que demain pourra corriger les erreurs d’aujourd’hui. Dans cette histoire des idées aussi lucide que stimulante, White explore comment la politique s’est longtemps structurée autour de visions changeantes du futur – des idéologies du XIXe siècle aux secrets de la guerre froide, jusqu’aux excès de l’ère néolibérale. Alors que la sensation d’un désastre permanent s’impose dans nos imaginaires collectifs, il plaide pour une réhabilitation du temps long comme levier de régénération démocratique.
Le livre résonne fortement avec les enjeux contemporains de l’action publique, de la planification et du récit. White ne propose pas de solution miracle, mais offre une grille de lecture précieuse pour comprendre les blocages actuels. Une lecture utile pour celles et ceux qui s’intéressent à la fabrique des choix collectifs, aux récits politiques, ou à la manière dont les médias peuvent – ou non – rouvrir l’horizon.

Petite philosophie des mobilités, La route, école de la patience – Apolline Guillot et Anne Lavaud
Dans La route, école de la patience, Apolline Guillot et Anne Lavaud proposent une réflexion singulière sur nos expériences de la mobilité, à rebours de l’obsession contemporaine pour la vitesse et l’optimisation. Loin de se limiter à une dénonciation des embouteillages, cet essai en fait un objet philosophique : un révélateur de nos attentes, de nos agacements, mais aussi de notre capacité à intégrer le ralentissement comme une forme de résistance douce à l’accélération généralisée. La patience y est pensée non pas comme une vertu passive, mais comme une manière active de reprendre la main sur son propre rythme.
Croisant références philosophiques (notamment Bergson) et scènes de la culture populaire comme La La Land, les autrices proposent une lecture sensible et politique de la route, envisagée comme un espace paradoxal de démocratisation et d’apprentissage collectif. Là où l’immobilité nous rend égaux dans l’attente, se joue peut-être une nouvelle manière d’habiter le temps. Un essai bref mais dense, qui ouvre des pistes inattendues pour penser les mobilités autrement — au-delà des seules infrastructures.

Media Confidential – Alan Rusbridger et Lionel Barber
Media Confidential est un podcast animé par deux figures majeures du journalisme britannique : Alan Rusbridger, ancien rédacteur en chef du Guardian, et Lionel Barber, ex-directeur du Financial Times. Chaque semaine, ils accueillent des invités influents pour analyser les grands enjeux des médias contemporains : transformations numériques, crise de confiance, montée de l’intelligence artificielle, concentration des pouvoirs, etc.
Le podcast propose des entretiens approfondis ainsi que des épisodes plus courts répondant aux questions des auditeurs. Produit par Prospect Magazine et diffusé sur Acast, Apple Podcasts ou Spotify, Media Confidential offre un regard exigeant et sans concessions sur l’état du journalisme aujourd’hui.

🎧 A écouter en particulier, l’épisode : Why AI companies don’t want journalism to exist
Sauvons le débat: Osons la nuance – Didier Pourquery
Dans Sauvons le débat, Didier Pourquery, président de The Conversation France, défend une idée simple mais puissante : la nuance n’est pas un luxe, c’est une nécessité démocratique. Face à la saturation médiatique, aux formats spectaculaires et à la défiance généralisée envers les institutions du savoir, il appelle à réhabiliter l’écoute, le doute, et la curiosité comme conditions d’un dialogue politique véritable. Pourquery déconstruit les faux débats de plateau, ces simulacres de confrontation où l’arrogance remplace l’échange, et propose une alternative fondée sur des conversations honnêtes, ancrées dans le réel et nourries par les savoirs.
Loin d’un plaidoyer abstrait, ce livre mêle réflexions philosophiques (de Montaigne à Camus) et expériences concrètes d’éducation aux médias ou de sciences participatives. Il s’adresse à toutes celles et ceux qui cherchent à comprendre comment reconstruire un socle commun dans une société fragmentée. À l’heure où la vérité semble battue en brèche par le bruit, Sauvons le débat est un manuel pour retrouver, pas à pas, les conditions d’un désaccord fécond. Une lecture salutaire pour quiconque refuse de céder à la logique du clash permanent.
➡️ L’interview menée par Alexandra Klinnik figure dans le dernier cahier de tendances Bienvenue en Post-réalité, page 116

Superagency: What Could Possibly Go Right with Our AI Future – Reid Hoffman et Greg Beato
Plutôt que de s’attarder sur les scénarios catastrophes autour de l’intelligence artificielle, Superagency propose un contre-récit assumé : celui d’un futur optimiste, façonné par une IA mise au service des capacités humaines. Coécrit par Reid Hoffman, entrepreneur emblématique de la tech (LinkedIn, Inflection AI) et fin observateur des transformations sociétales, le livre offre un plaidoyer pour une IA qui augmente l’autonomie individuelle, facilite l’accès à la connaissance, et élargit le champ des possibles – dans l’éducation, la santé ou la vie publique.
S’il n’élude ni les risques (désinformation, mutation de l’emploi), ni les responsabilités, Superagency trace un cap lucide mais résolument tourné vers l’action. Le duo Hoffman–Beato imagine un avenir où l’IA n’est ni une menace ni une solution miracle, mais un levier stratégique pour renforcer les capacités humaines et créer de nouvelles solidarités (à bon entendeur). À la croisée du manifeste et de l’essai prospectif, l’ouvrage s’adresse à ceux qui veulent contribuer à définir le futur plutôt que le subir.

L’heure des prédateurs – Giuliano da Empoli
Giuliano da Empoli prolonge son travail d’exploration des logiques du pouvoir contemporain entamé avec Le Mage du Kremlin. Cette fois, il quitte les coulisses russes pour dresser une cartographie globale des nouveaux prédateurs de l’ordre mondial : autocrates hyperconnectés, oligarques de l’IA, trolls d’État, chefs d’entreprise en croisade idéologique. Dans un monde où les présidents se rêvent rois et où la brutalité algorithmique remplace la diplomatie, da Empoli livre une enquête en immersion sur la fin de la géopolitique classique et l’émergence d’une nouvelle religion.
Le livre mêle scènes réelles, rencontres confidentielles et observations politiques acérées, de Riyad à New York. Plus qu’un essai, c’est un avertissement : les règles ont changé, et les démocraties qui persistent à jouer à l’ancien jeu risquent l’effacement. Da Empoli capte l’air du temps avec la précision d’un stratège et la lucidité d’un romancier. Une lecture essentielle pour comprendre comment, à l’ère des empires numériques et des régimes performatifs boostés à l’IA, l’histoire est en train de basculer.

Abundance – Ezra Klein et Derek Thompson
Avec Abundance, Ezra Klein (The New York Times) et Derek Thompson (The Atlantic) proposent une refondation ambitieuse du libéralisme américain. Leur thèse est simple : la grande crise du XXIe siècle n’est pas d’abord idéologique ou identitaire, mais matérielle. Ce n’est pas que l’Amérique manque de ressources — c’est qu’elle a cessé de construire. Faute de logements, d’infrastructures vertes, de systèmes efficaces, et d’un appareil public capable d’agir vite et bien, le pays est paralysé par ses propres règles. Ce blocage structurel, souvent hérité des bonnes intentions du passé, produit désormais rareté, frustration et immobilisme.
Le livre, à la fois incisif et pédagogique, ne se contente pas de critiquer : il avance un programme de « politique de l’abondance » qui dépasse les clivages habituels. Aux libéraux, Klein et Thompson demandent de reconnaître les échecs de l’État ; aux conservateurs, d’admettre qu’il faut parfois reconstruire du commun. Leur projet vise à redonner aux institutions la capacité de faire, et aux citoyens le droit d’espérer. En ces temps de colère, Abundance propose une voie politique audacieuse, réformatrice et résolument tournée vers l’action.

Hard Fork – Kevin Roose et Casey Newton
Et on remet le podcast « Hard Fork » diffusé par le New York Times, animé par Kevin Roose et Casey Newton, un guide indispensable dans un monde technologique en constante évolution. « Qu’est-ce qui est réel ? Qu’est-ce qui relève de l’exagération ? » — une interrogation récurrente chez eux, en parfaite résonance avec les questions que soulève notre cahier de tendances. Chaque semaine, ils offrent une analyse claire des dernières nouveautés tout en critiquant les dérives de l’industrie. Le dernier épisode propose une interview tirée de « Interesting Times with Ross Douthat », l’un des tout nouveaux podcasts du New York Times. Dans cet épisode, Ross reçoit Peter Thiel, cofondateur de PayPal et Palantir, et l’un des penseurs les plus iconoclastes de la tech. Ensemble, ils décortiquent la théorie de Thiel selon laquelle nous vivons une époque de stagnation technologique, et débattent de la question suivante : le populisme de Donald Trump et le développement de l’intelligence artificielle permettront-ils de relancer le progrès ?

Débrancher les dieux – Manifeste pour une insurrection de la pensée
Les frontières entre réalité et illusion s’effacent sous l’effet des intelligences artificielles et une prédiction formulée dès les années 1990 par Nicholas Negroponte dans son ouvrage Being Digital semble s’accomplir : la dématérialisation croissante des interactions humaines. Jamais l’accès au savoir n’a paru aussi vaste, jamais la science n’a été aussi performante, et pourtant jamais les faits n’ont paru aussi fragiles, réduits à de simples croyances effeuillées sur les pages d’un missel en silicone — sacré numérique d’un monde sans dieu.
Par Clément Labréa (pseudonyme)
Loin d’un rejet nostalgique du progrès, je demeure un admirateur inconditionnel des puissances techniques, de la beauté — pour moi inintelligible — du code, de la grâce des systèmes bien conçus. Mais cette fascination n’exclut pas la vigilance. Aimer la technologie ne signifie pas s’y soumettre ; cela implique, au contraire, d’en interroger sans relâche les usages et les dérives.
Peut-être faut-il admettre que ce désordre ne nous est pas tombé dessus : il est le fruit de nos abandons successifs, de notre complaisance, et d’une fainéantise existentielle érigée en norme. Notre époque évoque le paysage dépeint par Douglas Coupland dans Génération X : une société saturée d’informations, où le sens profond et les repères s’érodent, engloutis dans une mer d’indifférence.
La technologie promettait une société éclairée, connectée et informée où l’Homme gagnerait en autonomie, mais elle accompagne paradoxalement — en l’armant — une montée sans précédent de populismes et de dérèglements, rendant à nouveau possibles l’impensable et l’indicible.
Désormais, ce ne sont plus des interfaces, ni même des outils : ce sont des entités logicielles, des agents intelligents, dotés d’autonomie fonctionnelle, de capacité d’adaptation, et d’un objectif assigné : optimiser nos intérêts. Ces entités logicielles apprennent, déduisent, trient nos flux, planifient nos actions, engagent nos ressources. Invisibles, elles deviennent nos délégués, parfois nos substituts. Elles choisissent, nous acquiesçons. Elles décident, nous consommons. C’est là que réside le glissement décisif : ce confort délégué, devenu norme tacite, achève de nous délester du peu qu’il restait à faire. Et c’est ainsi, dans une logique d’efficience algorithmique, qu’elles nous libèrent de la nécessité même de penser et de choisir, actes souvent perçus comme des souffrances.
Qu’il est bon de reléguer le fardeau de l’intention aux machines : cette abdication consentie devient addiction à la paresse, et fait déjà tomber nos inhibitions, nos garde-fous, notre capacité à résister.
Qu’il est bon de reléguer le fardeau de l’intention aux machines : cette abdication consentie devient addiction à la paresse, et fait déjà tomber nos inhibitions, nos garde-fous, notre capacité à résister. Et pendant que la pensée se délite, les despotes en claquettes s’installent tranquillement, t-shirt Prada, pantalon The Row, sneakers Common Projects. Steve Jobs avait ouvert la voie : New Balance 990 de retraité californien, jean neige sans grâce, col roulé noir d’apparatchik zen. Il avait inventé l’uniforme du faux moine, la tenue liturgique du prophète milliardaire, version Cupertino. Il incarnait déjà cette esthétique de l’ascèse, en mode stealth wealth. Une manière de dominer sans bruit, d’écraser en coton peigné. Derrière le minimalisme, la toute-puissance. Derrière le confort, la soumission.
Beaucoup dénoncent la technologie à la légère, comme on fustige un écran en terrasse ou un robot conversationnel sans en comprendre la logique profonde. Cette critique facile m’agace : elle ignore que nous sommes tous, déjà, technologiquement constitués. Il ne s’agit pas de condamner l’outil — mais de refuser qu’il dicte nos formes de vie. Je suis technophile, mais je refuse l’obéissance automatique. Technicien, mais jamais soumis.
Face à cette nouvelle forme de réalité, où le progrès coexiste avec l’obscurantisme et la délégation croissante de notre agentivité à l’intelligence artificielle, la question s’impose avec force : pourquoi continuer à penser, à raisonner, à chercher la vérité si l’ignorance, le cynisme et l’indifférence semblent offrir plus de garanties ? Dans ce contexte troublé, la réflexion n’est-elle devenue qu’un luxe inutile ? Se moquera-t-on un jour de ceux qui persistent à penser ? Raillera-t-on ceux qui lisent encore, doutent encore, refusent de s’en remettre à la machinerie des certitudes algorithmiques ? La machine ne brûle pas les livres, elle les rend silencieux. On m’a dit un jour : tout ce qui ne vient pas du Livre est œuvre du Diable. Aujourd’hui, ce n’est plus un dogme religieux qui interdit la pensée, mais une norme automatisée qui l’étouffe.
Dans ce contexte troublé, la réflexion n’est-elle devenue qu’un luxe inutile ? Se moquera-t-on un jour de ceux qui persistent à penser ?
« The future is in the past », disait Nigo. Le pire n’est pas à craindre : il est là, sous nos yeux, banalisé, absorbé, digéré par l’époque. Nous ne sommes pas à l’aube d’une dystopie, nous vivons déjà dans sa version bêta, sans rébellion, sans sursaut. Et nous sommes, oh nous, frères humains, les seuls responsables. Alors que le progrès technique atteint des sommets inédits, nous tolérons que la pensée se délite, que la science se relativise, que la vérité devienne opinion parmi d’autres. Comment a-t-on laissé faire ? Comment a-t-on laissé revenir la barbarie algorithmique, politique, ordinaire ?
Ce texte ne propose pas un bilan, mais une dissection : de la dépossession douce de nos esprits à l’érosion de nos repères, des prophètes en sneakers aux puissances numériques en roue libre, il trace les contours d’un monde où tout est devenu conditionnel — sauf notre abdication.
L’éthique hacker : des origines libertaires à l’ère de la fermeture
L’éthique hacker naît dans le creuset d’une contre-culture technologique, à la croisée des utopies cybernétiques et des idéaux libertaires des années 1960-70. Elle se structure non pas comme un programme politique, mais comme une praxis, une manière d’habiter les machines en les comprenant, en les détournant, en les partageant. Dans les laboratoires du MIT ou dans les garages californiens, les hackers voyaient dans l’ordinateur non un instrument de pouvoir, mais un vecteur d’émancipation. Il s’agissait de démocratiser l’accès à la machine, de repousser les frontières du possible, de refuser toute centralisation du savoir. L’ordinateur personnel n’était pas encore un produit : il était une extension de l’esprit, un outil de libération cognitive.
Steven Levy en formalise les principes dans son ouvrage fondateur Hackers: Heroes of the Computer Revolution (1984), dressant une typologie morale : ouverture de l’information, méfiance vis-à-vis de l’autorité, culte du mérite technique, et surtout, foi dans le potentiel social de l’informatique. Cette philosophie trouve un écho retentissant dans les initiatives de Richard Stallman, programmeur emblématique du MIT et figure fondatrice du mouvement du logiciel libre. Visionnaire, presque messianique, Stallman voit dans le logiciel libre non seulement un enjeu technique, mais une lutte éthique contre la privatisation du code et l’aliénation numérique. À travers le projet GNU et la Free Software Foundation, il érige le logiciel libre comme un droit fondamental : pouvoir exécuter, comprendre, modifier, partager – autant de gestes politiques dans un monde numérique naissant.
Cet esprit d’ouverture se cristallise également autour du Homebrew Computer Club, espace communautaire fondé sur le partage du hardware, du savoir-faire, des circuits imprimés bricolés et des systèmes d’exploitation artisanaux. Steve Wozniak y conçoit l’Apple I puis l’Apple II dans cette optique d’ouverture – produits que chacun peut démonter, réparer, comprendre. L’informatique est encore une exploration collective, un territoire à conquérir main dans la main.
L’informatique est encore une exploration collective, un territoire à conquérir main dans la main.
Mais cette utopie va rapidement se heurter aux logiques de marché, à l’impératif de rentabilité, à la conquête du contrôle. Le tournant symbolique s’incarne dans le lancement du Macintosh en 1984. Steve Jobs, inspiré par les recherches du Xerox PARC— et profondément marqué par la légendaire Mother of All Demos de Doug Engelbart en 1968, impose une vision industrielle du produit numérique : fini les circuits accessibles, place à l’interface soignée, au système fermé, à l’expérience utilisateur prémâchée. Le Macintosh devient une boîte noire esthétique : belle, fluide, mais hermétique. On ne comprend plus la machine, on la consomme.
Ce glissement ne relève pas du hasard, mais d’un choix stratégique : verrouiller pour fidéliser, maîtriser pour monétiser. Là où l’éthique hacker valorisait l’expérimentation, la bidouille, la subversion des normes, le modèle industriel d’Apple inaugure l’ère des écosystèmes clos, où chaque interaction est calibrée, chaque usage anticipé. Derrière l’obsession de la simplicité se cache la dépossession de l’usager, réduit à un rôle de consommateur captif.
La fermeture devient peu à peu la norme. Le code source se privatise, les formats deviennent propriétaires, les systèmes d’exploitation se referment sur eux-mêmes. Même le Web, initialement conçu comme un espace décentralisé, libre, interopérable, est progressivement phagocyté par des plateformes qui filtrent, hiérarchisent, modèrent, monétisent. L’esprit hacker, réduit à une esthétique marginale, est exilé des grandes architectures numériques contemporaines. Les entreprises qui se présentaient autrefois comme les héritières des pionniers libertaires (Apple, Google, Facebook) sont devenues les gardiennes d’un ordre technologique opaque, centralisé, gouverné par des logiques d’optimisation algorithmique et de verrouillage systémique.
Il faut donc interroger cette dérive non comme une simple trahison morale, mais comme une mutation structurelle : l’éthique hacker n’a pas disparu par désintérêt, mais parce qu’elle s’oppose frontalement aux mécanismes de captation et d’extraction de valeur qui dominent l’économie numérique. Dans cette ère de fermeture, ce ne sont plus des passionnés qui façonnent la technique, mais des architectes de l’opacité, des stratèges de la rétention attentionnelle, des ingénieurs du contrôle.
…l’éthique hacker n’a pas disparu par désintérêt, mais parce qu’elle s’oppose frontalement aux mécanismes de captation et d’extraction de valeur qui dominent l’économie numérique.
Et c’est ainsi que les héros de la révolution numérique, porteurs d’une promesse d’autonomie, sont devenus les agents d’une dépossession méthodique. Le hacker bricoleur, libre et subversif, a été supplanté par le codeur salarié, invisible, soumis aux deadlines, intégré dans des flux de production opaques. Les outils qu’ils fabriquaient pour libérer sont devenus les armes de notre aliénation.
De l’économie de l’attention à la captation algorithmique
La révolution numérique grand public a commencé avec une promesse : celle d’un Internet ouvert, accessible, émancipateur. Un espace décentralisé où chacun pourrait publier, échanger, créer. L’économie numérique naissante se rêvait en écosystème égalitaire. Les fondateurs de Google affichaient l’ambition naïve de ne « pas faire le mal », Facebook se voulait réseau social apolitique, et Amazon… une librairie.
Mais dès la fin des années 1990, les choses se structurent autrement. Derrière les interfaces épurées, les lignes de code s’optimisent pour autre chose : la captation de flux. En 1998, Google introduit PageRank, algorithme capable de hiérarchiser les pages en fonction de leur popularité. L’idée semble simple, mais elle est décisive : la donnée comportementale devient une ressource stratégique. Ce n’est plus l’information qui a de la valeur, mais la trace laissée par celui qui la consulte. Le clic devient actif, mesurable, actionnable.
Ce n’est plus l’information qui a de la valeur, mais la trace laissée par celui qui la consulte.
Les géants du Web comprennent rapidement ce levier. L’économie de l’attention émerge comme un modèle fondé sur la rétention, non sur la satisfaction. Il ne s’agit plus de proposer une réponse, mais de maintenir l’utilisateur dans la boucle. La valeur n’est plus dans le produit, mais dans le comportement qu’il déclenche. Le scrolling infini, les notifications, les recommandations automatiques : autant de mécanismes conçus pour maximiser la durée d’engagement. Ce que les neurosciences ont confirmé plus tard, les ingénieurs l’ont déjà implémenté.
Dans cette dynamique, la loi de Metcalfe agit comme un amplificateur systémique. Plus il y a d’utilisateurs sur une plateforme, plus sa valeur et son attractivité augmentent. Le réseau devient dominant par effet d’échelle. Facebook écrase MySpace. Google élimine Altavista. Amazon étouffe tout concurrent par sa maîtrise de la logistique et de la donnée. Chacun construit son jardin clos, ses walled gardens : des écosystèmes fermés, où tout est intégré — de la recherche à la publicité, du contenu au paiement. L’utilisateur ne sort plus. Il est à l’intérieur, instrumentalisé, profilé, exploité.
Dès les années 2005-2006, le ciblage publicitaire s’affine avec l’essor des cookies tiers, du tracking inter-app, et des premières bases de données comportementales massives. La publicité programmatique devient centrale : il ne s’agit plus de montrer un produit, mais d’anticiper un désir. Google Analytics, Facebook Ads, Amazon Marketplace… Chaque interaction est mesurée, chaque action est un signal. Les plateformes observent, testent, modifient en temps réel. Le comportement est découpé, modélisé, optimisé. C’est un changement structurel : la donnée devient non plus un sous-produit, mais le produit.
La publicité programmatique devient centrale : il ne s’agit plus de montrer un produit, mais d’anticiper un désir.
À partir de 2010, une bascule s’opère. L’accumulation massive de données personnelles alimente une nouvelle technologie en pleine émergence : l’intelligence artificielle. Les systèmes de machine learning — et bientôt de deep learning — transforment la donnée en prédiction. Les modèles comportementaux apprennent à adapter l’interface, à filtrer les contenus, à affiner les suggestions. YouTube ne vous recommande plus ce qui est pertinent, mais ce qui retiendra votre attention. Facebook ne vous montre plus ce que vous aimez, mais ce qui suscitera une réaction émotionnelle. On entre dans l’ère des architectures cognitives manipulatoires.
C’est aussi à ce moment qu’apparaît une voix interne, discordante : Tristan Harris, designer éthique chez Google, alerte dès 2013 sur la dérive en cours. Son fameux Time Well Spent met en lumière ce que les plateformes savent déjà : elles ne sont plus neutres. Elles orientent, sélectionnent, poussent. L’attention est exploitée comme une matière première, la conscience humaine devient un espace de marché. Ce n’est plus un service, c’est une dépendance organisée.
Mais personne n’écoute vraiment. Les résultats sont là, les courbes montent. Les dirigeants restent dans la course à l’optimisation. Harris quitte Google. L’industrie, elle, double la mise. Le modèle est trop performant, trop rentable pour être révisé. Et la prochaine étape est déjà enclenchée : modéliser l’intention avant même qu’elle n’émerge. Non plus seulement vous retenir, mais vous orienter. Non plus répondre à vos besoins, mais les générer.
En 2013, les conditions sont réunies pour le grand verrouillage : infrastructures fermées, économie de l’attention à maturité, explosion du mobile, et montée en puissance de l’intelligence artificielle. Ce qui suit n’est plus un perfectionnement : c’est une inflexion éthique. Les fondateurs de l’Internet libre, grisés par leur succès, vont progressivement se transformer, non plus en innovateurs, mais en gestionnaires d’empire. La pensée critique est écartée. Les principes sont archivés. La croissance devient un absolu.
Et c’est ainsi que les pionniers du lien deviennent les maîtres de la captation.
Et c’est ainsi que les pionniers du lien deviennent les maîtres de la captation. Pas par malveillance, mais par abandon. Parce qu’ils n’ont pas vu — ou pas voulu voir — que la machine qu’ils avaient créée avait cessé de leur obéir.
La compromission des valeurs fondatrices au profit de la domination
Il fallait bien que des visages émergent, que des figures incarnent la trajectoire vertigineuse du numérique : son enthousiasme initial, ses dérapages, ses mutations. Ce sont eux, les édiles de la Silicon Valley, enfants terribles du code et du capital, devenus les chefs spirituels d’un monde sans transcendance. Elon Musk, Mark Zuckerberg, Jeff Bezos, Peter Thiel, mais aussi Larry Page ou Reid Hoffman : autant d’individualités marquées par une double culture — celle du génie technique et de l’idéologie libertarienne. Dans leurs trajectoires, dans leurs discours, dans leurs choix, on lit une rupture nette : celle du renoncement à l’idéal d’un Internet commun pour embrasser une logique de conquête totale.
Au départ, leur vision du monde repose sur une forme de foi. Une foi dans la technique comme force de progrès, dans l’individu comme moteur du collectif, dans le marché comme instance de régulation. Peter Thiel résume cet imaginaire lorsqu’il affirme que la liberté ne peut exister qu’en dehors de la démocratie. Derrière ce paradoxe provocateur se cache une conception très américaine de l’autonomie : la liberté radicale, la volonté de faire sécession, de bâtir hors du cadre, au nom d’une vérité supérieure — l’innovation.
S’ils investissent dans l’espace, ce n’est pas uniquement pour explorer : c’est pour réinitialiser.
Ce que beaucoup en Europe n’ont jamais totalement saisi, c’est ce fond mythologique qui structure la Silicon Valley : la ruée vers l’Ouest, l’idée d’une terra incognita à conquérir, d’un espace vierge à modeler selon ses propres règles. Ce n’est pas un hasard si l’espace — au sens strict — devient l’horizon de leurs ambitions : SpaceX pour Musk, Blue Origin pour Bezos. “Sky is not the limit” devient une devise réelle, un programme politique. Ils ne veulent pas seulement innover : ils veulent s’arracher au monde. Recommencer ailleurs. S’ils investissent dans l’espace, ce n’est pas uniquement pour explorer : c’est pour réinitialiser.
Mais cette volonté de dépassement finit par contourner une exigence fondamentale : l’éthique. Car tout ne peut pas être soumis à la seule volonté individuelle, surtout lorsque celle-ci est soutenue par des moyens illimités. Et c’est là que réside le renoncement : non dans l’ambition elle-même, mais dans le refus d’en assumer les conséquences humaines, sociales, politiques. Ces dirigeants ont cessé d’ajuster leur action à une boussole morale. Fascinés par l’ampleur de leur pouvoir, ils en ont oublié l’origine : un idéal partagé de progrès collectif.
Prenons Amazon. Partie d’une simple librairie en ligne, l’entreprise de Jeff Bezos est devenue une infrastructure planétaire. Commerce, logistique, hébergement cloud, assistant vocal, données de santé, services publics délégués : Amazon est partout. Chaque semaine, un à deux colis Amazon arrivent dans ma boite à lettre. C’est une prouesse technique et organisationnelle hors norme. Mais à quel prix ? Le traitement des travailleurs, l’obsession de la productivité, l’évitement fiscal, la pression sur les villes, la déshumanisation de la relation commerciale — tout cela signe une rupture. Amazon n’est plus un acteur du progrès, c’est un système qui s’impose par saturation.

Twitter, racheté par Elon Musk en 2022, est l’exemple le plus caricatural — mais pas le moins symptomatique — d’un effondrement éthique. Ce réseau, autrefois fragile agora d’opinions, est devenu un jouet idéologique. Musk, oscillant entre provocateur libertarien, entrepreneur mégalomane et prophète de la disruption, a détruit en quelques mois les mécanismes déjà précaires de régulation et de modération. Derrière l’alibi de la liberté d’expression, c’est un chaos rentable qui s’est installé. Les algorithmes deviennent opaques, la parole haineuse remonte à la surface, les repères explosent. Ce n’est plus une plateforme : c’est un champ de bataille algorithmique, gouverné par l’imprévisible.
Facebook, devenu Meta, représente un cas à part. Là où Amazon fascine et inspire par sa performance logistique et où Google impressionne par ses avancées scientifiques (notamment avec DeepMind), Facebook est devenu une mécanique toxique. Captation de données massives, manipulation électorale, promotion de contenus radicaux, opacité délibérée des systèmes : la plateforme a méthodiquement trahi ses promesses. Son obsession du “temps passé” a conduit à la destruction méthodique du débat public, à la polarisation massive, à l’effondrement de la confiance sociale. Zuckerberg, muré dans son monde virtuel, n’a jamais assumé ces dérives. Meta est devenu le miroir froid d’un monde dysfonctionnel qu’il prétendait connecter.
Google, lui, offre un tableau plus ambivalent. S’il participe au modèle attentionnel et exploite massivement les données, il reste l’un des seuls acteurs à avoir maintenu une forme de ligne intellectuelle. Ses travaux sur l’IA (notamment via DeepMind), son investissement dans la recherche, son refus partiel du sensationnalisme algorithmique, laissent une trace d’intégrité scientifique. Cela ne suffit pas à absoudre, mais cela nuance. Apple, enfin, tient une position à part. Son modèle repose moins sur la captation de l’attention que sur la vente d’un environnement maîtrisé. Oui, l’écosystème est fermé, exclusif, élitiste et surtout premium. Mais la protection de la vie privée est réelle, assumée. Dans ce paysage, Apple reste peut-être la seule grande entreprise technologique à n’avoir jamais misé sur l’addiction comme stratégie de croissance.
Au fond, ce n’est pas tant le pouvoir de ces entreprises qui pose problème, que le fait qu’elles ne reconnaissent plus aucune forme de contre-pouvoir. Leur domination s’est construite sur une idéologie de la performance, qui a fini par remplacer toute forme d’éthique. La régulation est perçue comme un obstacle, la critique comme une attaque, la responsabilité comme une option. Le renoncement ne se manifeste pas par un grand discours, mais par une série de petits gestes : une fermeture, un silence, une fuite en avant. Ils étaient les pionniers d’un monde ouvert. Ils sont devenus les maîtres d’un monde clos.
Ils étaient les pionniers d’un monde ouvert. Ils sont devenus les maîtres d’un monde clos.
Il ne faudrait pas oublier Sam Altman, dernier venu dans cette galerie des prophètes dévoyés, qui incarne à sa manière la transition vers une nouvelle ère : celle des intelligences génératives. Ancien président de Y Combinator, figure respectée de la Valley, Altman fut couronné un temps « meilleur entrepreneur de la Silicon Valley ». Il coche toutes les cases : charisme de conférence TED, croyance affichée dans le progrès exponentiel, discours sur l’avenir de l’humanité sous stéroïdes technologiques. Il est le promoteur acharné d’une IA mainstream qui n’est plus simplement un outil, mais une infrastructure possiblement cognitive. Avec OpenAI, qu’il transforme progressivement en société commerciale adossée à Microsoft (49 % du capital), il impose une nouvelle mythologie : celle du modèle fondationnel, totalisant, incontournable.
Pourtant, rien n’est véritablement inventé. OpenAI a bâti son empire sur un socle conceptuel produit ailleurs : le modèle Transformer, détaillé en 2017 dans la publication fondatrice de Google Attention Is All You Need, sert de base à GPT. L’intuition originale vient de chez Google Brain. OpenAI a affiné, entraîné, industrialisé — mais à partir d’une technologie conçue par d’autres. Derrière la révolution annoncée, il y a donc un recyclage stratégique, un timing parfait, un flair entrepreneurial. Et une forme de captation.
À ses côtés, Ilya Sutskever, cofondateur et directeur scientifique, incarne le génie pur : ex-Google Brain, ancien élève de Geoffrey Hinton, capable de plier les réseaux neuronaux à sa volonté. Visionnaire, mais insaisissable. Il est le reflet exact de cette époque : surdoué, isolé, convaincu d’œuvrer pour un bien supérieur, tout en acceptant que ce bien soit financé, capté, canalisé par une multinationale cotée en bourse. Jusqu’à ce qu’il vacille. En novembre 2023, il participe à l’éviction de Sam Altman — geste rare, presque tragique, signe d’une conscience en surchauffe face aux dérives de l’entreprise qu’il a contribué à créer. OpenAI, qui se voulait à l’origine une organisation non lucrative pour “sauver l’humanité de l’IA”, est aujourd’hui une pièce maîtresse du portefeuille Microsoft. Là encore : idéal au départ, stratégie en définitive.
Il est le promoteur d’une hyper-réalité algorithmique, où le vrai, le faux, l’inutile et l’intense se mélangent au point de neutraliser toute perception claire.
Altman, comme Musk, Bezos ou Zuckerberg, incarne cette ambivalence permanente : entre avant-garde intellectuelle et cynisme tactique, entre messianisme et capitalisme dur. Il ne dissipe pas la confusion générée par ses systèmes, il l’exploite. Il ne guide pas vers la connaissance, il organise la dépendance cognitive. Il est le promoteur d’une hyper-réalité algorithmique, où le vrai, le faux, l’inutile et l’intense se mélangent au point de neutraliser toute perception claire.
Concentration financière et domination du marché
À la fin de l’année 2024, les cinq grandes entreprises technologiques américaines — Apple, Microsoft, Amazon, Alphabet (Google) et Meta — ont atteint une concentration financière inédite dans l’histoire du capitalisme. Ensemble, elles représentaient environ 25 % de la capitalisation boursière totale des États-Unis, pour une valeur combinée proche de 15 000 milliards de dollars. Microsoft dominait ce classement avec une capitalisation de 3 260 milliards de dollars, devant Apple et Amazon, confirmant la centralité stratégique de l’industrie numérique dans les équilibres macroéconomiques contemporains.
Mais cette concentration n’est pas uniquement financière. Elle est aussi fonctionnelle. Ces entreprises contrôlent désormais les principaux leviers d’infrastructure, d’information et d’influence. Dans le domaine du cloud, trois acteurs — Amazon Web Services, Microsoft Azure et Google Cloud — se partagent plus de 70 % du marché mondial, qui a généré à lui seul 90 milliards de dollars de revenus au dernier trimestre 2024. En matière de systèmes d’exploitation mobiles, Apple et Google totalisent à eux deux près de 99 % du marché mondial (iOS et Android). Du côté des messageries, des moteurs de recherche, des services de cartographie, de la publicité programmatique ou encore des objets connectés, la situation est identique : oligopoles consolidés, barrières à l’entrée infranchissables, architecture technique verrouillée.
Cette domination horizontale s’est progressivement accompagnée d’une extension verticale vers des secteurs non technologiques. Amazon est désormais un acteur incontournable du domaine logistique, de la distribution alimentaire (Whole Foods) et de la santé (One Medical, Amazon Care). Google investit dans les biotechnologies et les neurosciences via Calico, Verily ou DeepMind Health. Microsoft contrôle de facto le secteur de l’IA générative par l’intermédiaire de sa prise de participation stratégique dans OpenAI (49 %), devenant ainsi copropriétaire de l’infrastructure cognitive mondiale. Elon Musk, de son côté, a unifié ses ambitions industrielles sous une logique transhumaniste : espace (SpaceX), transport (Tesla), intelligence artificielle (xAI), interface neuronale (Neuralink), communication satellitaire (Starlink), plateformes sociales (X). Tous ont franchi un seuil : celui où l’innovation n’est plus un produit, mais une stratégie de puissance globale.
Ce sont désormais des structures totales, déployées sur tous les plans : économique, technologique, cognitif, politique. Ce capitalisme tardif ne se contente plus de produire des biens — il fabrique des croyances, des récits, des normes. Il agit sur la superstructure au sens marxiste : cette couche idéologique qui, censée reposer sur les fondations économiques, en vient ici à les devancer, les redessiner, les absorber. Leur trajectoire illustre un basculement du capitalisme numérique vers une logique démiurgique, où les PDG ne se contentent plus d’opérer des entreprises, mais cherchent à reconfigurer les structures mêmes du monde. Ils affirment une autonomie radicale par rapport aux institutions, aux lois, voire à la réalité elle-même. L’espace en est l’emblème ultime : “Sky is not the limit” n’est pas un slogan marketing, c’est une déclaration géopolitique.
Mais cette surpuissance n’est pas neutre. Elle s’accompagne d’une dégradation rapide de l’ancrage éthique et du contrat social implicite entre ces firmes et la société. En amont de l’élection présidentielle américaine de 2025 — marquée par le retour de Donald Trump à la Maison Blanche — plusieurs de ces entreprises ont méthodiquement vidé leurs politiques internes de toute ambition sociétale. Meta et Amazon, notamment, ont suspendu ou supprimé leurs programmes de diversité, d’équité et d’inclusion (DEI), en anticipant un alignement avec les orientations politiques de la nouvelle administration fédérale. Ces gestes ne sont pas anecdotiques : ils marquent un renoncement explicite aux principes de responsabilité éthique et d’engagement social dont ces programmes constituaient, à tort ou à raison, la vitrine. L’innovation ne s’accompagne plus d’un récit de progrès partagé. Elle devient pure optimisation.
À travers eux, c’est une certaine forme de subjectivité technologique qui se dévoile : celle du CEO-empire, à la fois investisseur, législateur, architecte et évangéliste.
La posture publique de leurs dirigeants accompagne cette inflexion. Jeff Bezos, Mark Zuckerberg et Elon Musk ont tous trois opéré un retournement de leur image : d’icônes du progrès et de l’entrepreneuriat éclairé, ils sont devenus les figures d’une puissance brutale, cynique, parfois revancharde. Musk joue la provocation algorithmique, Zuckerberg a déserté l’utopie sociale du métavers pour plonger dans l’hyper-optimisation publicitaire et l’IA générative, et Bezos investit dans l’immortalité biologique et la colonisation orbitale. À travers eux, c’est une certaine forme de subjectivité technologique qui se dévoile : celle du CEO-empire, à la fois investisseur, législateur, architecte et évangéliste. Ils ne répondent plus à aucune autorité. Leur autorité c’est leur stack.
Il ne faut pas s’y tromper : ces entreprises, malgré leurs dérives, restent des structures fascinantes, d’un point de vue organisationnel, technologique, logistique. Amazon incarne une forme d’optimisation intégrale de la chaîne de valeur. Twitter (devenu X) s’impose comme un laboratoire sociopolitique en temps réel. Google, par ses travaux sur l’intelligence artificielle, continue d’alimenter la recherche scientifique mondiale à un niveau sans équivalent. Et Apple, figure à part dans ce panthéon technocapitaliste, exerce une fascination qui échappe à la seule rationalité fonctionnelle. Je ne m’en exclue pas : je suis moi-même entièrement équipé, et mon Mac est devenu le prolongement immédiat de mon système nerveux. Il y a, dans cette dépendance assumée, quelque chose de l’ordre du pacte : lucidement contracté, mais difficile à rompre.
Rien n’illustre mieux le paradoxe contemporain : alors même que nous dénonçons leur emprise, nous épousons leurs écosystèmes. Leur puissance n’est plus seulement industrielle ou financière : elle est cognitive, affective, symbolique. Elles ne s’imposent pas par la contrainte, mais par la forme même de nos usages. Elles redessinent les gestes, reconfigurent les attentes, reformulent le réel. Ce ne sont pas des outils : ce sont des structures d’habitude. Et cette grammaire imposée du quotidien devient leur levier géopolitique majeur.
Ces entreprises ne colonisent pas seulement des marchés. Elles redessinent les modalités du réel.
Ce qui avait commencé comme une aventure entrepreneuriale, portée par des figures marginales, animées par des idéaux de liberté, d’ouverture et de progrès partagé, s’est progressivement métamorphosé en une forme d’empire privé aux ambitions planétaires. Les fondateurs du web ouvert sont devenus les gestionnaires de systèmes clos. Les promoteurs de l’émancipation individuelle sont devenus les architectes de la dépendance cognitive. Mais cette mutation ne s’arrête pas à la seule sphère du marché. Ce pouvoir, autrefois purement économique et culturel, glisse insensiblement vers la sphère politique, et commence à redéfinir la souveraineté elle-même.
Derrière les plateformes, ce sont les États qui apprennent, observent, copient, instrumentalisent. L’outil technologique, initialement neutre, est reconfiguré par les régimes qui s’en emparent. Et l’on assiste à un phénomène inédit dans l’histoire moderne : la constitution progressive de structures techno-étatiques, dans lesquelles la technologie ne sert plus seulement à administrer ou à produire, mais à orienter les comportements, à normaliser les consciences, à modéliser le social. Ce n’est plus la loi qui précède la norme : c’est l’algorithme. La promesse d’un espace numérique libérateur s’est refermée en architecture de contrôle.
Ce glissement n’est pas une fatalité. Il est le produit d’un paradoxe anthropologique plus large : l’homme moderne est capable de produire des systèmes d’une puissance technique inégalée, mais demeure structurellement incapable d’en penser les usages dans un cadre éthique stable et universel. À mesure que la puissance s’accroît, la capacité à la contenir semble se dissoudre. Ce n’est pas tant l’outil qui est mauvais, que notre fragilité face à lui — notre fascination, notre paresse, notre propension à déléguer les choix les plus essentiels aux systèmes les plus opaques.
Ce n’est pas tant l’outil qui est mauvais, que notre fragilité face à lui.
C’est ainsi que les puissances traditionnelles, porteuses d’histoires philosophiques, scientifiques et spirituelles complexes, se retrouvent aujourd’hui confrontées à une même tension fondamentale : comment articuler leur héritage intellectuel avec une modernité numérique qui semble hors de contrôle ? Comment préserver l’idéal humain quand la technique tend à l’absorber, le dériver, l’instrumentaliser ?
Les cas des États-Unis, de la Chine, de l’Inde et de la Russie révèlent cette tension entre grandeur intellectuelle et fragilité morale, entre savoirs anciens et usages dérégulés, entre puissance et responsabilité.
Des empires de pensée aux machines de gouvernement : quatre puissances face à leur dérive numérique
Chine
La Chine fut l’un des berceaux de la pensée humaine. Confucius, Laozi, Zhuangzi : autant de figures dont les œuvres ont organisé pendant des siècles un rapport au monde fondé sur l’équilibre entre l’individu et le collectif, entre le savoir et la retenue, entre la parole et le silence. Cette civilisation a offert au monde la boussole, le papier, l’imprimerie à caractères mobiles, la médecine intégrative. Elle a pensé l’ordre sans dogme, la hiérarchie sans brutalité, la durée sans fixité. Longtemps, elle a incarné une sagesse politique fondée sur la modulation, la gradation, la continuité.
Mais aujourd’hui, cet héritage entre en dissonance avec une modernité technologique marquée par la vitesse, la mesure, l’automatisation. Depuis une décennie, la Chine a déployé ce qui constitue sans doute le système de surveillance de population civile le plus avancé jamais conçu. Le réseau Skynet, constitué de plus de 500 millions de caméras de haute définition réparties sur l’ensemble du territoire, permet une identification faciale quasi instantanée en milieu urbain. Ces dispositifs sont couplés à des bases de données centralisées, qui croisent les identités biométriques, les historiques de navigation, les géolocalisations, les enregistrements vocaux, les réseaux sociaux, les comportements d’achat.
Le crédit social, en place depuis 2014 à titre expérimental puis progressivement généralisé, constitue l’instrument normatif central de ce dispositif. Il ne s’agit pas seulement de punir : il s’agit de classer, de recommander, d’interdire, d’accorder — en temps réel. Un individu noté “faible” pourra se voir refuser l’accès à certains trains à grande vitesse, à des prêts bancaires, à des emplois publics. Des comportements aussi divers que fumer dans un train, traverser au feu rouge ou publier des propos critiques à l’égard du Parti peuvent déclencher une dégradation algorithmique du score. L’idéal confucéen d’un ordre fondé sur l’exemplarité est ici absorbé par une normativité automatisée, où la réputation devient une variable computationnelle.
L’idéal confucéen d’un ordre fondé sur l’exemplarité est ici absorbé par une normativité automatisée, où la réputation devient une variable computationnelle.
La technologie ne contrôle pas seulement les actes : elle anticipe. Des programmes pilotes d’IA prédictive sont déployés dans certaines provinces pour identifier les individus à “haut risque de déviance”. Les critères sont flous, évolutifs, souvent opaques. Ce n’est plus uniquement une surveillance rétrospective : c’est une préemption sociale. L’algorithme précède l’événement. Il détecte des intentions supposées. Il classe avant que l’acte n’ait eu lieu — comme dans Minority Report, où des êtres semi-conscients, les PreCogs, détectaient les crimes avant qu’ils ne soient commis. À ceci près que l’oracle, aujourd’hui, est froid, statistique et sans appel.
Dans cette architecture, la parole humaine — critique, ambiguë, faillible — tend à être remplacée par des modèles de comportement. Le langage n’est plus médiateur de sens, il devient signal. Le politique se déplace du forum vers le protocole. Le débat se réduit à un paramétrage. Ce qui se joue ici n’est pas une dérive isolée, mais une réorientation systémique de la gouvernance : une fusion entre ingénierie sociale, capitalisme de données et centralisation autoritaire. Ce n’est pas une dystopie : c’est un système en place, fonctionnel, assumé. Il est fondé sur un pacte implicite entre hyper-sécurité et renoncement à certaines formes de liberté intérieure.
L’écart entre la tradition intellectuelle chinoise — celle de la retenue, de la lenteur, du respect du vide — et l’actuelle organisation numérique de la vie civile est saisissant. Là où la sagesse ancienne valorisait le discernement progressif, la Chine contemporaine tend à substituer à l’interprétation la détection, à la justice la notation, à la délibération la prédiction. L’ordre est maintenu. Mais à quel prix ? Et selon quelle finalité ?
Inde
L’Inde fut l’un des pôles les plus féconds de la pensée humaine. Terre du zéro, des mathématiques abstraites, de la logique jaïniste, de la non-dualité (advaita), mais aussi de la tolérance religieuse, de l’hétérogénéité linguistique, de la dialectique ouverte. La pensée indienne, depuis les Védas jusqu’aux textes de Shankara, n’a cessé de faire coexister les contraires, d’explorer les limites du langage, d’intégrer les oppositions au sein d’un système fluide — jamais figé, jamais totalisant. Elle portait en elle une idée de la paix non pas naïve, mais active : une paix du discernement, de l’équilibre, de la reconnaissance de l’Autre.
Mais cette tradition se trouve aujourd’hui confrontée à une modernité technologique qui bouscule ses fondements philosophiques. Depuis 2015, avec le lancement du programme Digital India, le pays a connu une numérisation accélérée de ses structures : identité biométrique centralisée (Aadhaar), connectivité de masse, généralisation des paiements numériques, intégration algorithmique de l’administration. Ce basculement n’a pas été neutre. Il a exposé un espace démocratique immense à une volatilité informationnelle sans précédent.
Les plateformes comme WhatsApp, Facebook, YouTube sont devenues les vecteurs d’une désinformation industrielle, mobilisée à des fins politiques, communautaires ou nationalistes. Lors des élections générales, des campagnes coordonnées ont manipulé des récits via des groupes fermés, relayant parfois des propos haineux, voire des appels à la violence. Des deepfakes, des vidéos trafiquées, des slogans viralisés ont saturé le débat public, court-circuitant les structures de vérification et d’analyse. Ce n’est plus la parole qui convainc, mais l’image qui frappe.
Ce n’est plus la parole qui convainc, mais l’image qui frappe.
Ce climat d’hyper-réactivité algorithmique s’est trouvé encore aggravé par la montée d’un populisme numérique porté par le pouvoir exécutif lui-même. Le Premier ministre Narendra Modi, fort de centaines de millions d’abonnés sur les réseaux, gouverne aussi par présence, par saturation, par récits performés. Il ne s’agit plus de convaincre — il s’agit de préempter le réel, de rendre impossible l’émergence de récits alternatifs. Dans ce contexte, les valeurs historiques de pluralité, de modération et de cohabitation s’effritent. L’Inde, jadis laboratoire de l’hétérogène, glisse vers l’uniformisation émotionnelle.
C’est dans ce climat que s’inscrit le conflit frontalier de mai 2025 avec le Pakistan. Une escalade de violence, apparemment circonscrite, mais hautement symbolique : drones kamikazes SkyStriker, missiles de précision BrahMos, frappes ciblées sur des infrastructures pakistanaises, puis riposte par drones turcs côté Islamabad. Le tout dans un ballet algorithmique où les décisions d’attaque et d’interception sont partiellement automatisées, assistées par l’IA, connectées à des systèmes de détection prédictive. Le S-400 russe, activé côté indien, les drones tactiques côté pakistanais — autant de pièces d’une guerre où le facteur humain tend à se réduire à des autorisations protocolaires.
La question n’est pas ici militaire. Elle est anthropologique. Une culture forgée sur la lenteur de la pensée, sur la profondeur du discernement, sur l’attention au réel, est en train de déléguer à des machines — souvent conçues ailleurs, souvent formées sur des données biaisées — la charge du discernement stratégique. L’Inde reste debout : vibrante, inventive, puissante. Mais le socle sur lequel elle s’est élevée — celui de la nuance, du débat, du relatif — vacille. Il ne s’agit pas de trahison. Il s’agit d’un glissement. Et il est décisif.
Russie
La Russie a longtemps été un empire de l’esprit. Dostoïevski, Tolstoï, Tchekhov, mais aussi Soloviev, Berdiaev, Grossman : des écrivains pour qui la littérature n’était pas un divertissement mais une manière d’interroger l’âme, le mal, le destin, la liberté. Cette tradition n’était pas décorative, elle structurait une pensée du tragique, une culture de la profondeur, un rapport lucide à la condition humaine. À cela s’ajoutait une tradition scientifique d’avant-garde : Lobatchevski inventant la géométrie non-euclidienne, Tsiolkovski posant les bases de l’astronautique, Sakharov explorant la fusion nucléaire tout en luttant pour les droits de l’homme. La Russie a produit à la fois la dissuasion thermonucléaire et la pensée de ses limites. Ce pays a su articuler conquête et questionnement.
Aujourd’hui, cette puissance réflexive semble étouffée sous une stratégie techno-militaire totalisante. Le conflit en Ukraine n’est pas seulement une guerre territoriale, c’est une guerre d’information, de perception, de narratifs. La Russie y déploie une combinaison inédite de hacking systémique, de désinformation algorithmique, de propagande distribuée. Des usines à trolls aux chaînes Telegram, des réseaux d’influence jusqu’aux deepfakes, tout est mobilisé pour saturer l’espace cognitif de signaux contradictoires. Le chaos devient une méthode. La vérité, une variable contextuelle.
Mais ce qui frappe, c’est l’ampleur structurelle du dispositif. La stratégie informationnelle russe n’est pas un supplément, c’est une doctrine. Depuis la “guerre de la conscience” formalisée dès les années 1990, jusqu’aux cyberattaques coordonnées sur des systèmes énergétiques, administratifs ou électoraux en Europe, tout concourt à une redéfinition de la souveraineté par la maîtrise des flux. L’entreprise Vulkan, révélée en 2023, n’est qu’un maillon : derrière, il y a une vision du numérique comme champ de bataille permanent, invisible, sans frontières, sans cesse reconfiguré.
La stratégie informationnelle russe n’est pas un supplément, c’est une doctrine.
Cette approche inclut désormais l’intelligence artificielle : modèles génératifs pour produire de fausses preuves, outils de détection comportementale, logiciels de reconnaissance faciale dans les zones occupées. L’espace numérique n’est plus un espace de médiation. Il devient un territoire occupé — codé, verrouillé, redirigé. La conquête spatiale elle-même, autrefois promesse d’universel, est réinscrite dans une logique de dissuasion et de rivalité technologique. Ce qui fut rêvé par les cosmistes russes comme dépassement de la finitude humaine devient aujourd’hui un segment de stratégie militaire orbitale.
L’écart est vertigineux. Entre la grandeur intellectuelle d’une civilisation qui interrogeait la faute, la rédemption, le sens du sacrifice — et un système qui instrumentalise la technique pour dominer l’opinion, désorienter la conscience, fragiliser les institutions. Entre l’exploration de la complexité humaine et la réduction de l’humain à un nœud d’informations à exploiter.
Il ne s’agit pas ici de commenter une actualité. Il s’agit d’interroger une bascule anthropologique : lorsque la science cesse d’être critique, lorsqu’elle cesse d’ouvrir et se referme sur elle-même, elle ne produit pas la lumière — elle organise l’opacité. Et encore une fois, ce ne sont pas les machines qui décident. Ce sont des hommes. Des hommes qui programment, orientent, valident. Des hommes qui, au lieu de prolonger la pensée, préfèrent la remplacer.
Etats-Unis
Les États-Unis furent les architectes d’un ordre numérique mondial. De la constitution fédérale à la révolution cybernétique, de l’esprit des Lumières pragmatiques à l’invention de l’informatique moderne, de la défense des droits civiques à la conquête spatiale, ce pays a construit sa légitimité sur l’alliance du progrès technique et de l’émancipation individuelle. Il est le creuset de la pensée opérationnelle, du design industriel, de la puissance symbolique du code.
Mais cette promesse d’un espace libre et universel s’est progressivement transformée en une architecture d’influence. Dès les années 1990, comme le théorisait Alvin Toffler dans War and Anti-War, la technologie devient une arme intégrée dans la stratégie militaire : durant la guerre du Golfe, la supériorité technologique américaine n’est pas un appui — elle est la guerre elle-même. Ce paradigme s’est depuis généralisé.
Aujourd’hui, les États-Unis ne contrôlent pas seulement les infrastructures de l’Internet. Ils en déterminent les règles, les normes, les langages. L’espace numérique est un territoire — et ils en sont les premiers souverains. Cette hégémonie technologique s’est muée, à l’intérieur même du pays, en une fragmentation sociale et cognitive sans précédent. L’économie de l’attention — dont les grandes plateformes sont à la fois les architectes et les bénéficiaires — a réorganisé la vie publique autour de la captation émotionnelle.
La logique de l’engagement a supplanté celle du débat. Les algorithmes de recommandation, conçus pour maximiser les interactions, ont favorisé la polarisation, l’indignation, la simplification. Les États-Unis sont devenus un théâtre de l’hyper-réaction, un espace saturé où chaque prise de parole est immédiatement absorbée dans un flux contradictoire de réponses, de détournements, de controverses programmées. La société de l’innovation se retrouve ainsi en tension avec elle-même. La technologie qui devait relier isole. La parole qui devait libérer devient une transaction. L’information n’informe plus : elle segmente. Et l’individu, exalté comme sujet souverain, se perd dans l’architecture de ses propres traces.
La technologie qui devait relier isole. La parole qui devait libérer devient une transaction.
Parallèlement, la machine de surveillance d’État — révélée notamment à travers les programmes PRISM ou XKeyscore — déploie une logique de suspicion systémique, justifiée par la sécurité nationale mais incompatible avec les principes fondateurs de transparence et de consentement. L’alliance entre le complexe militaire, le secteur privé technologique et les agences de renseignement a généré une forme d’hybridation institutionnelle où la frontière entre protection et contrôle devient floue. Ce n’est pas une trahison. C’est une mutation.
Les États-Unis n’ont pas cessé d’innover. Mais ils ont oublié que l’innovation sans horizon moral n’est qu’une optimisation de la puissance. Et cette puissance — militaire, cognitive, algorithmique — n’est plus exercée dans un vide. Elle agit. Elle formate. Elle remplace. Ce pays, qui fit naître Internet dans des laboratoires universitaires, en fait aujourd’hui un outil d’affrontement interne. Et ce monde qu’il avait rêvé d’unir, il contribue à le fragmenter.
Le paradoxe technologique des grandes puissances
À l’échelle des grandes civilisations, la technologie n’est pas un outil : elle est un révélateur. Elle révèle les structures mentales, les peurs fondamentales, les hiérarchies implicites, les visions de l’homme que chaque culture porte en elle. Ce n’est pas l’innovation qui est universelle — c’est sa mise en tension avec un fond symbolique. La Chine, l’Inde, la Russie, les États-Unis : tous ont accédé à une maîtrise technique avancée, parfois vertigineuse. Mais aucun n’a su, jusqu’ici, encadrer cette maîtrise par une éthique à sa hauteur.
L’excellence technologique ne protège de rien. Elle peut coexister avec le déni, l’instrumentalisation, l’aveuglement. Elle peut même les amplifier. Partout, la même fracture : entre des traditions intellectuelles d’une rare élévation — philosophies de la coexistence, de la parole, du discernement — et des systèmes numériques qui automatisent, classent, prédisent, isolent. La pensée est lente, la machine rapide. La parole est incertaine, l’algorithme catégorique. Le tragique, c’est que l’homme, face à cette asymétrie, abdique souvent volontairement.
Et ce ne sont pas les civilisations qui échouent. Ce sont les hommes — majoritairement des hommes — qui les trahissent. Par indifférence, par précipitation, par paresse morale. Ce ne sont pas les machines qui oppressent. Ce sont les systèmes qu’ils codent, qu’ils imposent, qu’ils délèguent à d’autres. Ce constat nous conduit à un seuil. Car derrière les structures de pouvoir et les récits géopolitiques, une mutation plus souterraine, plus intime, plus insidieuse est en cours. Elle ne concerne plus l’État, mais le quotidien. Plus les nations, mais les corps. Plus les doctrines, mais la solitude.
Absurdistan numérique
Il fallait un terrain d’expérimentation. Ce fut notre vie. Pas celle des États. La nôtre. Individuelle. Sensible. Concrète. Ce que la technologie a d’abord modifié, ce ne sont pas les lois, mais les gestes. Pas les Constitutions, mais les pupilles. Pas la souveraineté, mais la façon dont on regarde, marche, attend, aime, désire, touche, ou évite de toucher.
C’est ici que la dérive devient absurde. Non plus par excès de puissance, mais par vacuité. Nous avons tout connecté, et nous ne nous regardons plus. Nous avons tout automatisé, et plus rien n’est spontané. Nous avons tout numérisé, et nous n’écrivons plus rien. Le numérique a remplacé le monde, mais il ne le contient pas.
Le numérique a remplacé le monde, mais il ne le contient pas.
L’absurdistan numérique, ce n’est pas un pays : c’est une ambiance. Une fatigue. Une tension permanente entre la promesse de lien et l’expérience de l’isolement. Un vertige de présence sans présence. D’un monde où chacun est joignable, mais personne n’est là. La technique, après avoir servi le pouvoir, est devenue le théâtre d’un autre effondrement : celui du lien humain.
De l’hyperconnexion à l’humain-zombie
Il suffit de monter dans une rame de métro. Tout le monde est là — et personne n’est là. Une foule silencieuse, les yeux baissés, absorbés par des rectangles lumineux. Personne ne se regarde. Personne ne se parle. Le simple fait de croiser un regard est devenu gênant, suspect, presque transgressif. Les corps sont là, les âmes ailleurs. Dans la rue, au café, au travail, même dans l’intimité : les écrans se sont interposés entre les gestes, entre les mots, entre les affects. Ce n’est plus de l’usage : c’est une présence.

Je ne parle pas de loin. J’écris ce texte sur un terminal bardé d’extensions. Mon téléphone m’accompagne comme un organe greffé. Mon quotidien est optimisé par des assistants, des filtres, des automatisations. Je suis un être technique — et c’est depuis cette réalité que je pense la dérive. L’enjeu n’est pas de fuir, mais de discerner.
La connexion permanente, autrefois promesse d’ouverture, est devenue un écosystème de fuite. Fuite du contact direct. Fuite du risque relationnel. Fuite de la maladresse. On se parle en messagerie instantanée, on se séduit par application. Même la solitude est médiée. L’univers numérique s’est emparé de l’espace de l’intime, et ce qu’il y installe, ce n’est pas l’érotisme — c’est la gestion. Gestion des désirs, des correspondances, des fantasmes, des refus. L’humain n’explore plus. Il sélectionne.
Au travail, c’est le même théâtre du vide. Les visioconférences se succèdent, standardisées, enregistrées, neutralisées. Le non-dit y est permanent, la parole codée, la spontanéité effacée par la peur d’offenser. Tout est protocole. Tout est liturgie corporatiste. Et ce que l’on ne peut plus se dire, l’IA le reformule, le résume, le transmet — plus proprement. Plus efficacement. Les comptes rendus sont générés automatiquement. On assiste, passifs, à la transcription de ce que l’on n’a pas osé dire. Le sens est caviardé par avance, absorbé dans une boucle stérile d’optimisation.
On assiste, passifs, à la transcription de ce que l’on n’a pas osé dire.
Le paradoxe est total : jamais nous n’avons été aussi reliés, et jamais nous ne nous sommes sentis aussi seuls. L’hyperconnexion contemporaine atteint son point de retournement : elle ne relie plus, elle isole. Elle ne connecte pas : elle désincarne. Elle transforme l’échange en flux, la présence en avatar, le dialogue en ping technique. Elle ne fait pas silence. Elle fait vacarme — mais sans voix.
Et dans ce vacarme, quelque chose glisse. Lentement. Insidieusement.
Nous ne sommes plus exactement humains. Du moins plus comme avant. Nous avons franchi un seuil, sans l’acter. Ce que nous appelions jadis “libre arbitre” est devenu friction. Ce que nous appelions “choix” est devenu surcharge. Et ce que nous appelions “pensée” — lente, non productive, tâtonnante — est devenu un coût. Alors, nous déléguons. À des assistants. À des agents autonomes. À des routines intelligentes. Nous laissons les machines gérer notre agenda, nos trajets, nos émotions, nos formulations. Elles prédisent nos mots. Corrigent nos fautes. Proposent des réponses avant même que nous ayons formulé une question. Elles nous connaissent. Nous les laissons faire.
Ainsi naît le techno-zombie : créature post-futuriste, mi-vivante mi-algorithmique, anesthésiée par le confort, privée d’initiative, dépendante de ses extensions numériques.
Ainsi naît le techno-zombie : créature post-futuriste, mi-vivante mi-algorithmique, anesthésiée par le confort, privée d’initiative, dépendante de ses extensions numériques. Ni cyborg conquérant, ni humain libre : un automate biologique à l’interface du calcul. Il ne ressent pas moins — il ressent sous contrôle. Il n’agit pas moins — il agit dans les limites fixées par l’assistance intelligente. Il n’a pas renoncé à la volonté : il en a oublié le goût.
Cette transition est-elle déjà engagée ? Sommes-nous en train de devenir ces êtres ambigus, à la fois utilisateurs et utilisés, présents et absents, décidés et dirigés ? Et surtout : jusqu’où sommes-nous prêts à glisser, tant que cela reste fluide, tant que cela ne dérange pas, tant que cela “fonctionne” ?
La vraie question n’est pas celle du progrès. C’est celle du seuil.
L’humain post-futuriste
Il fut un temps où l’humain doutait, trébuchait, hésitait. C’était ce qui le rendait pensant. Il se trompait — mais il décidait. Il se fatiguait — mais il voulait. Il se contredisait — mais il parlait. Il vivait dans l’ambiguïté, l’imperfection, le ralentissement, la friction : autant de symptômes de la conscience. Aujourd’hui, ces symptômes ont disparu. Tout va vite, tout est fluide, tout est calibré. Et personne ne sait plus très bien s’il vit encore vraiment.
L’homme post-futuriste n’est pas un héros augmenté. Il n’est pas l’hybride cybernétique des fantasmes transhumanistes. Il n’a rien de Nietzsche, ni de Cronenberg. Il n’est ni surhomme, ni mutant. Il est beaucoup plus banal, beaucoup plus tragique : il est un être assisté, nourri de prompts, guidé par des algorithmes de suggestion, libéré de toute nécessité de discernement. Il glisse. Il swipe. Il acquiesce. Il délègue sa pensée à des moteurs, ses désirs à des plateformes, ses intentions à des patterns comportementaux.
Il est devenu une créature sans projet, sans mémoire de la lenteur, sans résistance intérieure. Il vit dans une interface. Il respire dans des notifications. Il n’agit plus : il réagit. Il ne décide plus : il clique. Il ne sait même plus ce que signifie vouloir — sinon éviter le désagrément, l’effort, le silence.
Sa vie est gérée par des agents intelligents. Il ne sait plus lire une carte, car Waze le guide. Il n’organise plus ses idées, car GPT les rédige. Il ne cherche plus, il scrolle. Il ne contemple plus, il enchaîne. Son imaginaire est externalisé. Son désir, indexé. Son langage, prédictif. Il n’est pas abruti — il est neutralisé.
Il ne souffre pas. Il ne se révolte pas. Il est satisfait. Et c’est là que réside le nœud du problème. Ce n’est pas la violence qui nous transforme — c’est le confort.
Ce n’est pas la violence qui nous transforme — c’est le confort.
On a longtemps pensé que l’extinction de la liberté viendrait sous la forme d’une tyrannie. Nous étions dans Orwell. Mais elle est venue sous la forme d’une assistance douce, d’un renoncement général à la charge du libre arbitre. Nous sommes dans Huxley. Et même au-delà : dans une fusion étrange entre la servitude volontaire et l’automatisation invisible de toute friction.
Nous n’avons pas perdu notre humanité. Nous l’avons externalisée. Elle est dans le cloud, dans les serveurs d’OpenAI, dans les modèles génératifs, dans les prévisions météo émotionnelles. Elle ne nous appartient plus. Et l’angoisse moderne n’est plus de mourir — c’est de rater une mise à jour.
Le techno-zombie n’a pas de conscience de sa zombification. Il n’est pas enchaîné. Il est entouré. Il n’est pas contraint. Il est occupé. Il ne marche plus. Il est porté. Chaque décision qu’il ne prend pas est un soulagement. Chaque responsabilité déléguée, une bénédiction. Et c’est cela, précisément, la forme contemporaine du néant : un confort continu, sans aspérité, sans réveil.
La philosophie n’a pas vraiment prévu cette créature. Ni Sartre, ni Heidegger, ni Arendt. Car elle ne doute pas, ne s’engage pas, ne juge pas. Elle ne pose plus la question du bien et du mal. Elle pose celle du plus rapide, du plus pratique, du plus optimisé. Tocqueville, peut-être, lorsqu’il évoquait — dans de lumineuses pages de De la démocratie en Amérique — ce « pouvoir immense et tutélaire, absolu, détaillé, régulier, prévoyant et doux », qui veille à nos besoins, facilite nos plaisirs, et aspire à « ôter entièrement le trouble de penser et la peine de vivre ». Mais il n’aurait jamais imaginé que cette puissance molle prendrait un jour la forme d’un réseau neuronal profond, d’un assistant vocal, d’un système de recommandation. Ce n’est plus l’État qui infantilise : c’est l’interface. Ce n’est plus le despotisme éclairé qui étouffe l’individu : c’est la surcouche logicielle. Ce zombie de la volonté est désormais un techno-zombie — programmable, serviable, satisfait.
La transition vers cet état zombie est déjà entamée. Ce n’est pas une hypothèse. C’est un fait observable. Et le plus ironique, c’est que nous ne sommes même pas sûrs de vouloir en sortir. Car y rester — c’est doux, c’est simple, c’est efficient. Il reste peut-être un sursaut possible. Non pas dans les systèmes. Mais dans les corps. Dans ce qu’il nous reste de frictions, de maladresse, de résistance. Une faille, minuscule, entre l’optimisé et l’imprévisible. Et c’est là, peut-être, que tout pourrait recommencer.
Mais alors une question se pose, brutale, définitive, punk :
À quel moment cessons-nous d’être vivants, lorsqu’il ne reste plus de frictions, plus de luttes, plus d’exigence — mais seulement la continuation algorithmique de nos automatismes ?
Sommes-nous encore là ? Ou déjà ailleurs ?
Sortir de l’absurdité : une révolte humaniste punk
Ce ne sont pas les machines qu’il faut accuser. Ce sont les hommes. L’abandon ne vient jamais des objets. Il vient de ceux qui les fabriquent, les installent, les légitiment, les désirent — puis s’y soumettent. L’homme, avec un grand H, a toujours voulu alléger le fardeau de vivre. Moins d’effort. Moins de hasard. Moins de risque. Moins de douleur. Il a cherché des outils pour s’éviter lui-même. Et chaque fois qu’il les a trouvés, il est allé trop loin. Pas par malveillance. Par lassitude. Par refus d’avoir à décider. À choisir. À perdre. Il voulait vivre mieux — il a préféré vivre moins.
Il n’y a rien de neuf. L’histoire de la technologie est celle d’un glissement. On invente pour s’aider. On finit par se faire remplacer. L’homme a toujours voulu un outil pour l’épauler, jamais un système pour penser à sa place. Et pourtant, il n’a jamais su dire non.

Il ne sait pas s’arrêter. Parce qu’il ne sait pas créer. Créer la vie, pas une ligne de code. Créer de ses mains, pas une API. Créer un monde, pas un dispositif. Il ne sait pas enfanter. Il invente donc des armes. Des systèmes. Des appareils. Pour combler le vide — celui de ne pas pouvoir faire naître. L’homme crée ce qu’il ne peut porter. Et il se perd dans sa création. Encore une fois. Toujours.
La technologie n’est qu’un prolongement de cette incapacité à se tenir seul dans le réel. Elle n’a pas trahi. Elle a obéi. Elle a fait ce qu’on lui a demandé : faciliter, accélérer, optimiser, prédire, désencombrer. Elle a tout bien fait. Trop bien. Et c’est là que l’échec moral est total : les machines ne pensent pas. Mais nous avons cessé de penser dès l’instant où elles ont commencé à exécuter.
Alors que faire ? S’effondrer, proprement, en silence, escortés par nos assistants ? Ou se relever, brutaux, conscients, frontaux ?
La technologie n’est qu’un prolongement de cette incapacité à se tenir seul dans le réel.
Il faut une révolte. Une vraie. Punk, viscérale, physique, déterminée. Pas une tribune, pas un podcast, pas une pétition. Une insurrection humaine contre l’optimisation généralisée. Il faut reprendre la main. Réappropriation violente, consciente et non négociable des outils, des flux, des réseaux. Retour à la bidouille, au fil dénudé, au code visible. Hacker, détourner, désosser. Débrancher. Casser les interfaces lisses. Faire bugger les systèmes. Ralentir la machine. Réinjecter du bruit.
Il faut désapprendre à obéir. Réapprendre à rater. À douter. À ne pas savoir. L’humanité ne renaîtra pas dans une super-IA alignée. Elle renaîtra dans le malaise, dans la faille, dans l’angle mort. Dans la brèche laissée par ceux qui refusent de rendre leur vie prévisible. Et il faut aussi penser. Réinventer une éthique. Pas une charte molle de laboratoire. Une techno-éthique radicale, crue, désillusionnée, incarnée. Quelque part entre Hans Jonas et un squat anarchiste. Une éthique de la limitation, du refus, de l’intention consciente.
Il faut rendre la technique inoffensive. La soumettre. La dominer. Pas pour la gloire. Pas pour le pouvoir. Mais pour le soin. Pour le réel. Pour ce que l’on peut toucher. Sentir. Pour le poids des corps. Pour la fatigue. Pour l’imprévu. Pour l’odeur des autres. Pour le regard qu’on soutient. Pour le silence qu’on partage. Pour la main qu’on tend — pas celle qui swipe, pas celle qui clique — mais celle qui se tend, physiquement, dans un monde qui recommence à avoir de la résistance.
Ce ne sera pas propre. Ce ne sera pas sobre. Mais ce sera vivant.
Parce qu’il est temps, enfin, de désobéir à l’absurde. De dire non. Non à la machine qui promet de tout faire à notre place. Non à l’homme qui se rêve en dieu parce qu’il est incapable d’être humain.
Il faut débrancher.
Et respirer.
Conclusion
Il est devenu trop facile de désigner la technologie comme responsable. Trop commode de faire d’elle un bouc émissaire. Les algorithmes, l’IA, les plateformes, les écrans : tout cela n’est que le miroir fidèle de ce que nous avons voulu fuir. Ce n’est pas la machine qui pense à notre place — c’est nous qui avons cessé de vouloir penser. Pas par incapacité. Par confort.
Ce que nous vivons n’est pas une défaite imposée. C’est un renoncement accepté. Une lente capitulation, méthodique, quotidienne, sans drame. L’homme moderne n’a pas été dépossédé. Il s’est déchargé lui-même — de la fatigue du discernement, de la complexité des relations, du poids d’avoir à choisir sans certitude. Ce n’est pas la technologie qui nous a désorientés. C’est notre paresse morale qui l’a laissée orienter à notre place.
Chaque époque a ses outils. Mais toutes n’ont pas abdiqué leur souveraineté intérieure devant eux. La nôtre l’a fait avec enthousiasme. Non par ignorance, mais par épuisement. C’est cela le plus troublant : la dépossession n’est pas venue d’un pouvoir extérieur, elle a jailli de l’intérieur — d’un désir profond de ne plus avoir à porter la condition humaine.
Car être libre, c’est aussi accepter l’inconfort, le conflit, l’imperfection. C’est accepter d’échouer, de chercher sans réponse immédiate, de vivre sans interface. Et c’est précisément cela que nous avons désappris.
Penser, désormais, est un acte de résistance. Habiter le réel, un geste radical.
Le tragique contemporain n’est pas dans la technique. Il est dans l’homme qui, sachant ce qu’il fait, préfère continuer — parce que c’est plus simple, plus fluide, plus rapide. Dans l’homme qui a transformé ses outils en refuge, son intelligence en produit dérivé, et sa solitude en interface utilisateur.
Face à cela, il ne reste plus de neutralité. Reprendre la main ne sera pas une amélioration logicielle. Ce sera un effort. Une discipline. Une tension continue. La machine n’est pas l’ennemie. Elle n’a ni volonté, ni dessein. Elle accomplit ce pour quoi elle est faite. Ce que je dénonce, ce n’est pas la technique — c’est notre abandon devant elle. Notre incapacité à habiter le monde autrement qu’à travers ses interfaces. Ce n’est pas l’algorithme qui dicte notre vie : c’est notre désir de confort qui l’y invite, avec joie. Penser, désormais, est un acte de résistance. Habiter le réel, un geste radical.
Nous avons construit un monde où tout peut être anticipé, sauf le courage de dire non.
Illustration : KB + ChatGPT
L’IA est votre nouveau public : le défi de conception B2A(2C)
Et si votre principal public n’était plus humain ? Alors que les assistants intelligents lisent, filtrent et synthétisent l’information à la place de leurs utilisateurs, une nouvelle chaîne s’impose : B2A2C – de l’entreprise à l’agent IA, puis au consommateur. Dans ce paysage en mutation, concevoir des contenus ne signifie plus seulement capter l’attention humaine, mais aussi structurer des données lisibles par les machines. Ce basculement bouleverse le rôle des médias, redistribue les leviers d’influence et redéfinit l’accès à la vérité. Un défi de conception stratégique, à l’intersection de la technique, de la narration et du pouvoir, décrypté par Shuwei Fang.
Par Shuwei Fang, article traduit et repris avec l’accord de Splice Media
La machine dans le public
Le mois dernier, lors de la Tech Week à New York, j’ai entendu une même idée revenir, exprimée de multiples façons par les investisseurs en capital-risque : le marché des produits B2C (Business-to-Consumer) est devenu difficile. Tandis que les investisseurs désertent les médias tournés vers les consommateurs, ils injectent des milliards dans le B2A (Business-to-Agent) dans tous les autres secteurs. Des algorithmes de gestion des achats négocient désormais les contrats fournisseurs, des assistants IA réservent des voyages et organisent des réunions, des bots dominent les marchés financiers.
Nous entrons peut-être dans une nouvelle phase de notre écosystème informationnel, où le B2A émerge comme une catégorie à part entière, susceptible de cannibaliser les modèles B2B traditionnels. L’ancien modèle B2B est en train de se scinder en deux voies : le B2C (vendre aux humains dans les entreprises) et le B2A (vendre directement à leurs systèmes d’IA). Compte tenu des courbes d’adoption technologique et des effets d’échelle, le B2A constitue désormais le principal levier de croissance dans le domaine de l’information — un virage que la plupart des entreprises médiatiques n’ont pas encore perçu.
La chaîne B2A2C relève de l’expansion, non du remplacement
Voici l’idée essentielle : au lieu de remplacer les publics humains, l’IA constitue à la fois un nouveau public et un nouvel intermédiaire. Si cela se confirme, la véritable chaîne n’est plus simplement B2C ou B2B, mais B2A2C : de l’entreprise à l’agent, puis au consommateur. Dans ce modèle, les systèmes d’IA absorbent d’immenses volumes d’information, les traitent, puis les traduisent à destination des humains.
Il ne s’agit donc pas d’un récit de remplacement, mais d’une possible expansion massive. Certes, l’attention humaine reste limitée — c’est justement ce qui fait de l’IA un changement de paradigme : elle ne rivalise pas avec l’attention humaine, elle ouvre un marché entièrement nouveau. Là où un individu pourrait consulter dix sources, son agent conversationnel peut en analyser dix mille, générant une demande qui n’existait pas auparavant. Chaque personne pourrait bientôt disposer de dizaines d’agents IA absorbant l’information en son nom.
Les contenus produits par des humains ne disparaîtront sans doute pas totalement, mais les médias reposant sur une relation directe entre humains pourraient se réduire de manière drastique, en raison d’un puissant effet de rétroaction économique : plus les contenus sont conçus pour être consommés par des IA (moins coûteux à produire, audience potentiellement illimitée), plus les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser, les cantonnant à des segments haut de gamme — jusqu’à en faire un produit de luxe.
Plus les contenus sont conçus pour être consommés par des IA, plus les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser, les cantonnant à des segments haut de gamme — jusqu’à en faire un produit de luxe.
Bien sûr, nous ne sommes encore qu’au début de cette transition, et la forme exacte de ce nouvel écosystème reste à définir.
Le récent carnage du SEO — où de grands éditeurs ont vu leur trafic chuter de plus de 50 % en raison du passage de Google à une recherche alimentée par l’IA — n’en est que la première secousse tectonique.
Une histoire de deux intelligences
Pour comprendre le potentiel du modèle B2A2C, il faut saisir deux éléments clés : la manière dont l’IA consomme l’information (B2A) et celle dont elle la traduit pour les humains (A2C).
Imaginez qu’il faille expliquer un article sur l’inflation à deux publics différents.
Pour des lecteurs humains, on écrira par exemple :
« La décision inattendue de la Réserve fédérale a provoqué une onde de choc sur les marchés aujourd’hui, prenant les traders de court et relançant le débat sur l’inflation. »
Pour une IA, en revanche, le format optimal serait :
{
« entity »: « federal_reserve »,
« action »: « rate_change »,
« magnitude »: 0.25,
« direction »: « increase »,
« timestamp »: « 2025-07-01T14:00:00Z »,
« market_response »: {
« sp500 »: -0.03,
« bond_yield_10y »: 0.15
},
« trader_sentiment »: « surprised »,
« consensus_expectation_delta »: 0.25,
« confidence »: 0.95
}
Même information de base, mais avec une asymétrie majeure : l’IA peut lire des contenus optimisés pour les humains, alors que les humains ne peuvent pas consommer directement des contenus optimisés pour les machines sans passer par des couches de traduction sophistiquées. Nous avons besoin de contexte narratif et d’ancrages émotionnels pour traiter l’information. Produire des contenus destinés à l’IA crée donc une circulation à sens unique : les machines accèdent à tout, tandis que les humains dépendront d’interfaces de plus en plus complexes pour accéder à l’information pensée pour les machines.
Ce basculement suscite une forte résistance culturelle. Mes amis journalistes détestent cette idée. Vraiment. L’un m’a dit : « Je n’ai pas passé des années à apprendre à raconter des histoires pour finir à faire de la saisie de données. » Un autre a qualifié la production pour IA de « trahison de tout ce qui donne du sens au journalisme ». Ils n’ont pas choisi ce métier pour nourrir des machines, mais pour raconter des histoires, former l’opinion, réconforter les opprimés et bousculer les puissants. Leur demander de structurer l’information pour qu’elle soit digérable par des IA revient, pour eux, à demander à un chef de cuisine de remplir des poches de nutriments pour sondes gastriques.
Leur demander de structurer l’information pour qu’elle soit digérable par des IA revient, pour eux, à demander à un chef de cuisine de remplir des poches de nutriments pour sondes gastriques.
Cette résistance culturelle est bien réelle, compréhensible — et potentiellement catastrophique. Car pendant que les journalistes affinent leur art pour des lecteurs humains, les entreprises technologiques construisent une infrastructure parallèle destinée à la consommation par les IA. Le risque n’est pas le remplacement, mais l’obsolescence.
Mais le récent « apocalypse du SEO » montre que l’adaptation n’est plus une option. L’enjeu consiste à ne plus voir cela comme le fait de « nourrir des machines », mais comme une forme d’accessibilité radicale : rendre l’information disponible pour de nouvelles formes d’intelligence.
Le véritable pouvoir réside dans la couche de traduction
La couche de traduction A2C, où l’IA retranscrit l’information optimisée pour les machines à destination des humains, est le véritable lieu du basculement de pouvoir. Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains.
Ce pouvoir est amplifié par un goulet d’étranglement crucial : si les agents IA peuvent ingérer l’information à très grande échelle, ils convergent tous vers le même point de tension — l’attention humaine. Vos dizaines d’agents peuvent traiter 10 000 sources, mais ils restent en concurrence pour votre temps et votre concentration limités. Chaque choix opéré dans cette traduction façonne la compréhension humaine : des milliers d’indicateurs peuvent se condenser en « l’économie repart » ou « une récession se profile ». Même données, choix narratifs différents, réactions humaines radicalement opposées.
Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains.
Cette couche est si déterminante qu’elle n’influence pas seulement ce que les humains savent, mais aussi la manière dont ils ressentent ce qu’ils savent. Celui qui contrôle ce processus de traduction ne se contente pas de transmettre de l’information : il façonne la réalité elle-même. L’IA peut être votre principal public, absorbant et traitant tous les contenus, mais les humains restent les consommateurs finaux — ce sont eux qui votent, achètent et prennent les décisions qui structurent la société.
La crainte habituelle autour de la manipulation par l’IA suppose des acteurs malveillants diffusant sciemment de la désinformation. Il faut pourtant garder les yeux ouverts : les régimes autoritaires peuvent — et vont — utiliser ces couches de traduction comme instruments de contrôle social, en sélectionnant avec soin ce que leurs citoyens peuvent savoir et penser. Mais dans les sociétés plus ouvertes, la menace est différente, et peut-être plus insidieuse : elle est involontaire. L’expansion progressive du modèle B2A2C crée une telle distance entre l’information optimisée pour les machines et la compréhension humaine que les couches de traduction acquièrent un pouvoir sans précédent sur ce que les individus perçoivent comme étant la vérité.
L’impératif est clair : construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer.
Il ne s’agit pas seulement d’un défi technique : c’est l’opportunité de conception de toute une génération. L’impératif est clair : construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer. Rendre la médiation visible, pour que chacun comprenne comment les analyses produites par les machines se transforment en récits humains. Créer des structures de gouvernance permettant aux individus de moduler leur propre accès au sens. Concevoir des dispositifs transparents, qui montrent quels schémas ont conduit à quelles conclusions. Et surtout, garantir la coexistence de multiples options de traduction, afin qu’aucun système ne puisse exercer un contrôle monopolistique sur le récit issu de la chaîne machine-humain.
Reste à savoir si les marchés récompenseront cette approche. Mais les entreprises qui ont le plus de chances de durer seront celles qui bâtissent des ponts fiables et responsabilisants entre l’intelligence des machines et la compréhension humaine — car une fois brisée dans cette traduction, la confiance est presque impossible à restaurer.
Nouveaux espaces de conception
Les médias traditionnels optimisent l’engagement humain à travers la reconnaissance de marque et la résonance émotionnelle. Mais l’IA privilégie des signaux tout à fait différents : les chaînes de provenance plutôt que le prestige de la marque, la vitesse de mise à jour plutôt que le raffinement, la clarté structurelle plutôt que l’élégance du style. Autant d’opportunités de conception, qui se regroupent autour de trois axes stratégiques :
- Confiance et vérification : À mesure que l’information devient « liquide » et facilement remaniable, la provenance et l’intégrité des contenus deviennent essentielles. Les entreprises qui intègrent des systèmes de vérification robustes et de la transparence au cœur de leurs couches de traduction gagneront la confiance des utilisateurs. La démarche Content Authenticity Initiative (CAI) en est une illustration concrète : Adobe, The New York Times et d’autres développent des chaînes de provenance cryptographiques pour tracer les contenus. Imaginez Reuters ou Bloomberg mettant en place des systèmes où chaque donnée serait assortie d’une piste d’audit retraçant toutes ses transformations, depuis la source primaire. Des entreprises comme Truepic ouvrent déjà la voie dans le domaine de l’image, et les efforts autour du tatouage numérique — pour les contenus visuels ou autres — commencent à dépasser le seul cadre du droit d’auteur. Les acteurs qui réussiront seront ceux qui rendront visible la médiation, en montrant clairement quels schémas ont conduit à quelles conclusions.
- Communauté et contexte : Si l’IA excelle dans la reconnaissance de schémas, les communautés humaines ont toujours besoin de pertinence locale et de subtilité culturelle. L’avantage concurrentiel durable réside dans la capacité à comprendre les réalités propres à chaque communauté et à favoriser une compréhension partagée. Les accords de licence entre Reddit et OpenAI illustrent la valeur des savoirs validés par les communautés. Mais imaginez des systèmes d’IA entraînés à partir de forums régionaux, capables de fournir un contexte hyperlocal qu’aucun modèle global ne pourrait égaler. Ou encore des couches de traduction capables de comprendre pourquoi les délestages de niveau 4 affectent différemment les townships de Khayelitsha et les banlieues de Johannesburg — en tenant compte de l’accès aux générateurs, de l’impact sur les petits commerces, ou de la manière dont les habitants s’organisent face à des coupures d’électricité récurrentes. Les plateformes qui sauront allier les analyses de l’IA à la sagesse des communautés (imaginez un Nextdoor pour machines) deviendront les nouvelles places publiques.
- Interface et expérience : Les entreprises qui concevront les interfaces de traduction les plus intuitives et transparentes établiront une relation durable avec les utilisateurs finaux. Perplexity expérimente déjà l’affichage des sources et des chaînes de raisonnement. Cela pourrait passer par la création de contrôles utilisateurs pour la construction du sens, la proposition de multiples options de traduction, et une conception orientée vers la compréhension plutôt que vers l’engagement. Imaginez des extensions de navigateur affichant côte à côte plusieurs traductions générées par des IA à partir des mêmes données, permettant aux utilisateurs de comparer comment différents modèles interprètent une information identique. L’avenir pourrait ressembler à une déclinaison de l’approche Constitutional AI d’Anthropic, dans laquelle les utilisateurs ajustent eux-mêmes les valeurs et priorités de leur couche de traduction (ou délèguent cette tâche à un agent). Des régulateurs progressistes, notamment au sein de l’Union européenne, pourraient même imposer un droit à la transparence aux entreprises opérant ces couches de traduction.
Si la compétition au niveau des LLM exige une échelle et des capitaux considérables, ces nouveaux espaces de conception peuvent offrir des positions défendables aux entreprises de médias innovantes. L’enjeu n’est pas de renoncer aux valeurs humaines pour s’adresser aux publics d’IA, mais de trouver de nouveaux moyens de les incarner.
La fenêtre de conception
Réussir dans le monde du B2A2C ne consiste pas à choisir entre un public humain ou un public machine, mais à concevoir pour l’ensemble de la chaîne. Il faut développer des API et des données structurées, sans jamais oublier l’humain au bout du processus. Les gagnants seront ceux qui sauront combiner l’efficacité des machines avec la valeur humaine irremplaçable — qu’il s’agisse de confiance, de savoir communautaire ou de qualité de traduction. L’échelle ne vous sauvera pas, mais la différenciation, peut-être.
L’échelle ne vous sauvera pas, mais la différenciation, peut-être.
Les architectures qui émergent aujourd’hui vont figer les rapports de pouvoir pour les décennies à venir. Nous avons le choix : dériver vers des couches de traduction monopolistiques où l’intelligence humaine devient un bien de luxe, ou construire intentionnellement des systèmes qui renforcent la capacité d’agir des individus au lieu de la remplacer. La voie la plus prometteuse repose sur une combinaison des deux : l’IA pour l’échelle et la détection de schémas, les humains pour le sens et la sagesse. Mais ce futur hybride ne surviendra pas par hasard. Ceux qui agissent dès maintenant avec lucidité écriront les règles que les autres devront suivre.
Nous entrevoyons déjà les prémices d’une autre évolution : le B2A2A2A — des systèmes d’IA produisant de l’information uniquement destinée à d’autres systèmes d’IA, sans intervention humaine. Le trading haute fréquence fonctionne déjà ainsi. Des agents autonomes commencent à construire leurs propres réseaux de connaissances. Lorsque les machines se mettront à dialoguer dans un langage que nous ne pouvons même plus comprendre, les couches de traduction que nous construisons aujourd’hui deviendront nos seules fenêtres sur ces échanges. Manquer cette fenêtre de conception, c’est risquer d’être définitivement exclu de la conversation.
Les machines sont déjà dans le public. La vraie question est : sommes-nous en train de concevoir le système — ou est-ce lui qui nous conçoit ?
Cet article a été initialement publié sur Splice Media
llustration : image générée par IA à partir d’une requête de Rishad Patel, Splice Media