Liens vagabonds : Comment éviter l’indigestion médiatique ?
À Nantes, lors du Festival de l’info locale, une table ronde a invité les médias à s’interroger sur la défiance croissante dont ils font l’objet. Thème central : le ras-le-bol médiatique. Comment y répondre, alors que la lassitude informationnelle s’installe durablement, en France comme à l’international ? Cette fatigue de l’information, largement documentée ces dernières années, affecte les esprits. Selon une enquête de la Fondation Jean Jaurès, plus de 54 % des Français déclarent en souffrir. En cause : une actualité souvent anxiogène, lourde, et un flux continu d’informations accessibles 24 heures sur 24. Cette infobésité nuit à la métabolisation de l’information, génère du stress et désoriente. « Notre cerveau n’est pas câblé pour recevoir autant d’information », constate la journaliste Nina Fasciaux, qui confie ne plus lire l’actualité le matin, trop éprouvante pour elle. Elle choisit désormais ses moments d’exposition, en fonction de sa propre capacité à la recevoir. Le phénomène n’est pas nouveau. Dès les années 1980, le philosophe Edgar Morin en analysait les effets délétères dans Pour sortir du XXe siècle : « L’excès étouffe l’information quand nous sommes soumis au déferlement ininterrompu d’événements sur lesquels on ne peut méditer parce qu’ils sont aussitôt chassés par d’autres événements. Ainsi, au lieu de voir, de percevoir les contours, les arêtes de ce qu’apportent les phénomènes, nous sommes aveuglés par un nuage informationnel ». Avec l’avènement des réseaux sociaux, ce « nuage » est devenu plus dense encore, et souvent plus confus.
Mais la saturation n’est pas seulement une question de quantité. Elle interroge aussi la manière dont l’information est construite et diffusée. La journaliste Charlotte Vautier, en immersion pour un documentaire chez France Info pendant la présidentielle de 2022, raconte une expérience révélatrice : « Pendant dix mois, j’ai observé les journalistes travailler, notamment dans la matinale. Un exemple m’a vraiment frappée : il ne se passait pas une seule matinale sans qu’on parle d’Éric Zemmour. Tous les matins, dans chaque interview, chaque émission, chaque chronique, il était omniprésent. Lorsqu’on regardait les questions des auditeurs, il n’y en avait jamais sur Zemmour. Je me souviens très clairement du rédacteur en chef, trois semaines après le premier tour, qui s’étonnait que ce ne soit pas Zemmour mais Marine Le Pen qui arrive en tête. Est-ce que les médias traditionnels parlent vraiment aux gens ? Moi, j’avais le sentiment que les journalistes se parlaient entre eux, qu’ils évoluaient dans une sorte de bulle médiatique. Je pense qu’il y a un vrai problème : les journalistes parlent entre eux, plutôt qu’aux gens. »
C’est d’ailleurs l’un des constats soulevés par Rachid Laïreche, ancien journaliste au service politique de Libération, dans son livre Il n’y a que moi que ça choque ? Huit ans dans la bulle des journalistes politiques. Il y décrit un univers refermé sur lui-même, déconnecté du réel : « Dans la bulle, on oublie les gens. On est entre nous et cela nous va très bien. On ne voit pas ce qu’il y a dehors. Quand on écrit, on écrit pour les collègues, les politiques. On se marre. Il y a du off. On est content. Jamais on ne s’intéresse à l’extérieur ».
Comment retrouver des repères dans ce brouillard médiatique ?
Des pistes concrètes émergent. L’une d’elles, qui peut paraître évidente mais qui n’est pas souvent appliquée dans les règles de l’art : apprendre à écouter. Dans son essai Mal Entendus, Nina Fasciaux plaide pour une pédagogie de l’écoute, aujourd’hui largement absente des formations journalistiques : « Très peu de gens savent vraiment écouter. C’est contre-intuitif. Il faut lutter contre soi-même. L’écoute n’est pas enseignée, c’est un impensé total dans les écoles. Les journalistes abordent souvent l’interview comme une transaction. Les sources se sentent utilisées comme des ressources. » Depuis la parution de son livre, quatre écoles de journalisme ont manifesté leur intention d’intégrer cette dimension dans leurs programmes. Mais Jean-Marie Charon, sociologue des médias, pose une question essentielle : « D’accord pour plus d’écoute, mais qui écoute-t-on ? » Selon lui, la crise est aussi celle de la représentation. « Les jeunes journalistes veulent écouter, c’est leur envie profonde. Mais ce n’est pas toujours ce que leurs rédactions leur demandent », souligne-t-il.
Les journalistes abordent souvent l’interview comme une transaction.
L’éducation aux médias est régulièrement évoquée comme piste de solution, mais elle reste aujourd’hui trop morcelée, estime David Medioni, co-auteur, avec la sociologue Guénaëlle Gault, de la dernière étude de la Fondation Jean-Jaurès sur la fatigue informationnelle. « Avec Guénaëlle, on a été reçus dans tous les ministères. Tout le monde trouvait notre idée géniale, mais personne ne l’a mise en œuvre. Notre proposition, c’était de construire une véritable éducation aux médias. » Le projet qu’ils défendent ? Une matière enseignée du CE2 à la Terminale, avec une épreuve au baccalauréat dédiée. « Qu’est-ce que ça veut dire l’ère algorithmique ? La bataille de l’attention ? Il faut enseigner à reconnaître une vidéo générée par intelligence artificielle ». On notera que même les journalistes sont aujourd’hui souvent démunis face aux nouvelles prouesses techniques.
Enfin, il est essentiel d’apprendre à maîtriser le flux, dans ce que David Medioni appelle « la dictature du flux », « qui nous empêche de savoir quand c’est le début, le milieu et la fin ». Face à cette surabondance, les médias ont un rôle à jouer pour montrer qu’ils se soucient du bien-être de leurs usagers, en imaginant des environnements bornés, plus lisibles, et en adoptant une forme de sobriété informationnelle. C’est le choix assumé par Samuel Petit, rédacteur en chef du Télégramme : « On se soucie de limiter les alertes. On ne fait des alertes que sur ce qui est au cœur de notre proposition. Quand on est Le Télégramme, on ne va pas faire des alertes sur Donald Trump toute la journée. On sait très bien que les gens ne nous lisent pas pour ça. » Le journal a ainsi développé des newsletters locales dans tous ses territoires : « Le matin et le soir, les gens sont ainsi informés de manière efficace. » À bon entendeur.
CETTE SEMAINE EN FRANCE
- Les quotidiens demandent un sursaut de l’État dans son soutien à la presse (La Lettre)
- HugoDécrypte débarque avec des rédactions locales à Lyon, Marseille et au Québec (Stratégies)
- Vente de « Challenges » : Claude Perdriel annonce être « tombé d’accord » avec LVMH pour une vente de l’hebdomadaire « début 2026 » (Le Monde)
- Procès Cédric Jubillar : les caméras mises à la porte après une faute de “Quotidien” (Télérama)
- Inquiets d’une potentielle vente à Vincent Bolloré, les journalistes du « Parisien » se mettent en grève (Le Monde)
- Rima Abdul Malak prend la direction du groupe L’Orient-Le Jour (L’Orient-Le Jour)
3 CHIFFRES
- Les employés âgés de 18 à 29 ans sont plus de deux fois plus susceptibles d’utiliser ChatGPT au travail que ceux de plus de 50 ans, selon OpenAI.
- Selon une étude du Stanford Social Media Lab, 40% des employés disent avoir été confronté à du workslop ce mois-ci (du travail généré par IA de faible qualité, qui détruit leur productivité).
- 38 % des adultes américains déclarent qu’ils reçoivent régulièrement des informations sur Facebook, et 35 % disent la même chose pour YouTube, selon une étude récente du Pew Research Center
LE GRAPHIQUE DE LA SEMAINE
Les réseaux sociaux jouent un rôle déterminant dans la consommation d’information des Américains, surtout auprès des jeunes adultes. Aujourd’hui, près d’un adulte sur deux aux États-Unis (53 %) affirme s’informer au moins occasionnellement via ces plateformes, une tendance qui demeure globalement stable depuis plusieurs années

Source : Pew Research
NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ
- Comment les seigneurs de la tech et les populistes ont changé les règles du pouvoir (Giuliano da Empoli dans le Financial Times)

- La bulle de l’IA arrive dans votre navigateur (New Yorker)
- « Enshittification » : la nouvelle doctrine de l’Empire américain (Le Grand Continent)
- En transformant ses journalistes en influenceurs, Wired voit ses abonnements bondir (Adweek)

DISRUPTION, DISLOCATION, MONDIALISATION
- « From zero click to zero question » – OpenAI expérimente Pulse, un flux quotidien « pour vous ». Sam Altman nous connaît déjà tellement bien qu’il nous propose un condensé d’informations sur mesure avant même que l’on ne lui pose des questions sur l’actualité… (OpenAI)
- Le « Workslop » ruine la productivité et rend les travailleurs malheureux (404 Media)
- Comment ChatGPT choisit ses sources pour vous répondre sur l’actualité (La revue des médias)
- Promouvoir une innovation responsable de l’IA : guide pratique (World Economic Forum)
- L’algorithme vous voit. La radiologie associe images numériques, critères précis et tâches reproductibles. Mais remplacer les humains par l’IA est plus difficile qu’il n’y paraît (Works in Progress)
- Donald Trump signe le décret ordonnant le transfert de TikTok à des propriétaires américains (The Guardian)
DONNEES, CONFIANCE, LIBERTÉ DE LA PRESSE, DÉSINFORMATION
- Le Pentagone impose désormais aux journalistes accrédités de signer un engagement à ne pas publier d’informations non autorisées, même non classifiées, pour conserver leur accès (Reuters)
- Dans un rapport publié récemment, 709 violations de la liberté de la presse ont été relevées dans la première moitié de 2025, impliquant 1 249 personnes travaillant dans les médias à travers 36 pays européens (IPI)
- Cinq anciennes journalistes de l’Observer, dont Carole Cadwalladr, ont lancé leur propre publication axée sur la culture, financée en partie par leurs indemnités de licenciement (Press Gazette)
What do you do when your media org is captured? You start your own.
— Carole Cadwalladr (@carolecadwalla) September 26, 2025
Introducing….The Nerve!!! @thenerve_news
We're all-female, journalist-owned & launching next week.
Please help us build a truly independent, progressive new media!👊👊👊 https://t.co/89K1kaY5RR
JOURNALISME
- Pourquoi les journalistes disposent d’un avantage concurrentiel à l’ère de l’IA (Fast Company)
- Des économistes de renom alertent sur un risque d’«effondrement» du journalisme de qualité (Libération)
- L’humoriste Jimmy Kimmel va finalement retrouver son émission sur la chaîne ABC, après sa suspension controversée (Hollywood Reporter)
- Les démocrates délaissent les médias traditionnels au profit de nouveaux médias (Semafor)
- Petits outils : un cadre pour une technologie centrée sur l’humain dans le journalisme (Nick Hagar, Mandi Cai et Jeremy Gilbert dans Generative AI in the Newsroom)
- Pour apparaître sur ChatGPT, le type de contenu est un moteur clé : les tribunes surpassent largement toutes les autres catégories avec un taux de clics de 5 %, bien au-dessus de l’actualité (1,1 %), du sport (1,2 %) ou de l’économie (1,2 %), selon des données partagées par Schibsted à l’occasion de la Future Week in Bergen, rapportées par Ezra Eeman
- Le Washington Post offre à ses employés la possibilité de répondre à un commentaire par vidéo (CNN)
In a note to staff, WaPo says it is introducing video comments for staff, allowing staff to engage in the comments section of their articles (while using AI to block “hateful” comments and surface interesting comments) pic.twitter.com/6Otdp4uVpd
— Max Tani (@maxwelltani) September 22, 2025
STORYTELLING, NOUVEAUX FORMATS
- La génération Z ne regarde la télévision qu’à travers des extraits sur les réseaux sociaux. Hollywood est en panique (Matthew Frank)

ENVIRONNEMENT
- Quelles informations les entreprises d’IA divulguent-elles sur leurs impacts environnementaux… et comment mettre ces chiffres en perspective ?

Source : Sasha Luccioni et Theo Alves Da Costa dans un post sur Hugging Face
RÉSEAUX SOCIAUX, MESSAGERIES, APPS
- MrBeast et sa quête pour transformer sa célébrité YouTube en empire du divertissement (Bloomberg)
- YouTube réintègre des créateurs bannis pour des contenus sur le COVID-19 et les élections (The Hill)
- Meta déploie une fonctionnalité de traduction en temps réel sur WhatsApp (Reuters)
STREAMING, OTT, SVOD
- Disney a vraiment choisi le pire moment pour augmenter ses prix (The Verge)
INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION
- Microsoft envisage de créer une place de marché d’IA pour les éditeurs (Axios)
- Google annonce une nouvelle version de son navigateur Chrome, truffée de fonctionnalités IA (Google)
- Grâce à nano-banana, Google Gemini a dépassé ChatGPT (Numerama)
- Meta dévoile son nouveau flux vidéo alimenté par l’IA : Vibes (Reuters)
MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ
- Test Google : les éditeurs contestent les conclusions de l’étude (La REM)
- Et si tous les médias étaient du marketing ? (Sans paywall / gratuit) (the mediator)
Par Kati Bremme et Alexandra Klinnik
10 choses à retenir de l’été 2025 pour les médias
L’été 2025 restera peut-être dans les mémoires comme celui du « Brain Rot », selon Business Insider : face à la surabondance de contenus artificiels, aucune chanson marquante, aucun film, aucun événement fédérateur n’a su émerger, confirmant l’érosion d’une culture partagée. Un contraste saisissant avec l’an dernier, où Jeux olympiques et élections avaient offert des repères communs. L’attention collective se dissout dans les flux personnalisés, la fragmentation s’accélère, et les plateformes imposent discrètement une esthétique algorithmique standardisée. Les films dominants sont des suites (comme Jurassic Park ou Lilo & Stitch), la mode se standardise en avatars fantasmés, et même un son viral comme celui de #Jet2holidays relève davantage du bruit passager que d’un véritable phénomène culturel. Chacun s’enferme dans sa bulle solipsiste, bercé par son assistant intelligent, à l’abri du réel et du soleil. Enfin… peut-être pas tout à fait encore.
Mais bienvenue dans notre ère post-monoculturelle où l’attention collective s’évapore dans le chaos algorithmique. Face à cette apathie ambiante, dix tendances se dessinent (parmi bien d’autres que nous n’évoquons pas ici) : l’affrontement entre avatars IA et influenceurs humains, la prolifération des copies low cost, la montée d’une information hyper-personnalisée, l’émergence de mondes jouables où le public devient bâtisseur, l’effondrement du podcast narratif, les regroupements stratégiques du streaming… et, comme par saturation ultime, en contrepoint, un retour au réel. Là où les réseaux sociaux échouent à créer du lien, les rencontres physiques semblent redevenir essentielles. Peut-être même qu’au détour de l’été, chacun a retrouvé son « enfant intérieur », en serrant son Labubu contre lui. Comme le formule très justement Andrew Roth (DCDX) : « The brain rot is super real… people are going offline ».
Par Alexandra Klinnik, Océane Ansah et Kati Bremme, Méta-Media France Télévisions
1. Les influenceurs humains tiennent tête aux avatars IA (pour l’instant)
L’été 2025 aura marqué un basculement symbolique. Vogue US, longtemps gardien du bon goût et des canons esthétiques, a publié dans son édition d’août une campagne Guess signée par l’agence Seraphinne Vallora, mettant en scène une mannequin 100 % synthétique. Une étape logique après Photoshop et les filtres Instagram, mais cette fois-ci, aucun humain n’a été malmené pour ces images, aucun corps pré-transformé : il s’agit plutôt d’un fantasme algorithmique sorti directement de l’imaginaire de l’IA générative (donc, par extension, de celui de tout Internet), qui rend définitivement impossible la comparaison avec l’humain. Néanmoins, on ne semble pas encore assister au « grand remplacement » des humains par les IA, du moins pour l’instant, en tout cas en Occident.
Les marques dépensent 11 Mds $ par an en marketing d’influence et, malgré l’irruption d’avatars comme la chanteuse virtuelle Yuri, « l’authenticité » et « l’émotion » semblent garder une longueur d’avance. Une majorité (> 50 %) de jeunes déclarent se méfier des figures « trop parfaites », selon un sondage YouGov auprès des consommateurs américains, cité par Reuters. Le Financial Times constate la même tension : les IA offrent échelle et contrôle (pas de caprices, pas de scandales, pas de divergences de ton), mais les créateurs humains gardent de meilleurs taux d’engagement et parviennent à mieux monétiser chaque publication. Cependant, la confusion monte à mesure que l’IA se perfectionne : dans une micro-enquête menée cet été à Times Square, aucun passant n’a su identifier correctement lesquels, parmi six visages présentés, étaient humains et lesquels avaient été générés par une IA. Le révélateur d’un « Turing test visuel » déjà perdu d’avance. La publicité artificielle publiée dans Vogue a déclenché une cascade de réactions de Good Morning America/ABC à Fast Company en passant par The Cut, révélant une fracture nette : innovation publicitaire prometteuse pour les uns, signe annonciateur de la fin de l’humanité pour les autres.
Vogue’s August issue has begun to use “AI models” instead of human models for some of their photoshoots.
— Pop Crave (@PopCrave) July 24, 2025
pic.twitter.com/zjcwe4hNr3
En Chine, laboratoire à grande échelle de l’avenir avec l’IA, des « virtual humans” tiennent l’antenne des livestreams e-commerce 24/7 depuis longtemps et dépassent des vendeurs humains sur Taobao (combinaison augmentée d’ebay et Amazon) : la marque Brother revendique +30 % de ventes après un passage aux avatars, avec 2 500 $ écoulés en deux heures de lancement, via des bots produits par l’entreprise PLTFRM et adossés à Baidu/DeepSeek. Le potentiel du marché est vertigineux : le volume de ventes généré par le live commerce en Chine devrait atteindre environ 6 400 milliards de yuans en 2025, selon les estimations d’iResearch. Dès 2022, Douyin (la version chinoise de TikTok) captait près de la moitié de ce marché sur les principales plateformes, grâce à l’intégration fluide entre vidéo courte, streaming en direct et parcours d’achat. Mais Pékin (qui était déjà à l’origine de la première loi sur les deepfakes) encadre désormais l’IA générative avec un degré de granularité inédit à travers les « Measures for Identifying AI-Generated Synthetic Content » sorties le 1er septembre. Tous les contenus générés par IA, qu’ils soient textuels, audio, visuels, vidéos ou immersifs, doivent désormais comporter un avertissement visible et persistant, signalant leur caractère synthétique. En parallèle, des identifiants techniques doivent obligatoirement être intégrés au moment du téléchargement ou de l’export, afin d’assurer leur traçabilité.
Les app stores sont eux aussi mis à contribution : ils doivent déclarer et vérifier l’ensemble des services proposant des fonctions de génération, tandis que les conditions générales d’utilisation devront désormais détailler les méthodes employées pour générer les contenus, ainsi que les styles ou balises utilisées pour les identifier. Les grandes plateformes chinoises ont déjà communiqué sur leur mise en conformité. Cette législation est, à ce stade, bien plus prescriptive que le règlement sur l’IA européen, dont l’article 50 impose un devoir d’information et de labellisation des “deepfakes”, mais laisse des marges d’interprétation sectorielles en attendant les actes d’exécution et codes de pratique.
@kanekallaway These 2 AI Avatars sold $7M worth of products in 6 hours (future of commerce) #ai #artificialintelligence #tech #techtok #technology #avatar #shopping #china ♬ original sound – Kallaway
A propos de l’image de soi, Glamour alerte dans un article incisif : des modèles IA comme Vivienne dans Vogue normalisent un « corps numérique » lisse et eurocentré, au risque de détruire des années d’efforts d’inclusion ; même informés, nos cerveaux internalisent ces comparaisons irréelles. Avec un détail important évoqué dans le papier : « Pour ceux qui seraient tentés de défendre l’existence d’une armée de mannequins IA au nom de la diversité qu’elle représenterait, il est essentiel de rappeler que cette “diversité” permet surtout aux marques de capitaliser sur l’idée d’inclusion… sans avoir à inclure, en réalité, de vraies personnes issues de groupes marginalisés. » Pour les marques (y compris celles de l’information), l’équation se durcit : efficacité opérationnelle des avatars (coût, constance, disponibilité) vs capital-confiance humain (vulnérabilité, santé mentale, controverse gérée en direct).
Surtout après les drames révélés cet été, comme le suicide d’un adolescent à la suite de longs échanges avec l’IA de ChatGPT. Dans l’UE, la pression réglementaire se renforce (transparence Article 50, initiatives nationales comme l’Espagne et ses amendes jusqu’à 7 % du CA pour absence d’étiquetage) et rend la traçabilité des contenus un prérequis business, et non plus un « nice-to-have ». Morale provisoire de l’été : pour l’instant, l’IA gagne la bataille de la « scalabilité« , pas celle de la crédibilité. La différenciation passe par une « imperfection assumée », et mesurable qui devient rare, donc précieuse, à l’heure où l’algorithme fabrique à la chaîne des fantasmes sans chair.
2. Comment les plateformes imposent une esthétique IA à bas bruit

Depuis juin, des internautes indignés tirent la sonnette d’alarme sur Reddit. Une nouvelle norme visuelle, façonnée par l’intelligence artificielle, s’installe discrètement sur les grandes plateformes numériques. Sur YouTube, des vidéos sont modifiées à l’insu des créateurs : ombres intensifiées, contours anormalement nets, textures artificielles… Cette esthétique lissée, plastique, transforme le contenu original au point de le dénaturer. L’artiste multimédia Mr Bravo constate que ses vidéos à l’aspect VHS « n’ont plus rien à voir avec ce qui a été initialement mis en ligne », tandis que le vidéaste Rhett Shull s’inquiète d’une perte de crédibilité : « Cela va pousser les gens à croire que j’utilise l’IA (…) Cela finira inévitablement par une érosion de la confiance des spectateurs. »
Si Google assure ne pas recourir à l’IA générative, l’entreprise admet employer des technologies d’« amélioration » via apprentissage automatique, notamment sur les vidéos YouTube Shorts. Le tout, sans transparence ni option de désactivation, ce qui alimente les soupçons. « Le fait qu’ils aient introduit ça en douce, sans modifier les conditions d’utilisation, me fait penser qu’ils veulent qu’on ne sache plus distinguer le vrai du faux », alerte un internaute.
Cette uniformisation ne concerne pas que YouTube. Meta encourage la création de chatbots via AI Studio sur Facebook et Instagram, Snapchat propose des filtres génératifs à partir de selfies, TikTok a lancé Symphony Creative Studio, et les smartphones Google Pixel combinent plusieurs clichés pour générer une photo parfaite d’un moment… qui n’a jamais existé. Au-delà de la performance technique, ces outils habituent les utilisateurs à une esthétique standardisée, façonnée par l’IA. Selon The Atlantic, ces plateformes, autrefois conçues pour favoriser les connexions humaines, tendent désormais à diffuser des contenus impersonnels, calibrés par algorithme. Un internaute résume : « Ils n’arrivent pas à rendre l’IA totalement réaliste, alors ils rendent le réel artificiel. »
« Ils n’arrivent pas à rendre l’IA totalement réaliste, alors ils rendent le réel artificiel. »
Cette évolution soulève une question fondamentale : que devient notre rapport à la réalité lorsqu’elle est systématiquement modifiée en amont ? Comme le rappelle la BBC, une part croissante de ce que nous voyons en ligne est désormais « prétraitée » par l’IA avant même d’atteindre notre regard. Pour Samuel Woolley, professeur en désinformation à l’université de Pittsburgh, le risque est clair : « Les gens sont déjà méfiants vis-à-vis de ce qu’ils voient sur les réseaux. Que se passe-t-il s’ils découvrent que les contenus sont altérés par les plateformes elles-mêmes ? » Dans un environnement où tout semble artificiel, la défiance devient réflexe. Le Digital News Report 2025 du Reuters Institute, évoquait déjà que 58 % des répondants dans le monde doutent désormais de leur capacité à distinguer le vrai du faux en ligne — un chiffre en constante progression.
3. L’effondrement du podcast narratif face à la montée des talk-shows
Le podcast narratif est en train de disparaître. Celui qui, dans les années 2010, incarnait l’âge d’or du journalisme audio, porté par le storytelling immersif et l’enquête au long cours, est aujourd’hui relégué au rang “d’artefact du passé”, selon les mots du média Rolling Stones. En face, le talk-show s’impose. Conversations spontanées, interviews de célébrités, formats vidéo facilement recyclables sur YouTube : le public — et surtout les annonceurs — ont choisi leur camp. Dès 2024, Vulture constatait déjà le basculement : « Les podcasts de conversation ont repris le contrôle du média ». Mais la tendance s’est brutalement confirmée cet été, avec une série de fermetures. En juin, Pineapple Street Studios, fleuron du podcast narratif, a cessé son activité. Le studio était considéré comme l’un des piliers de l’ère post-Serial. Son propriétaire, Audacy, n’étant pas parvenu à rendre l’entreprise rentable, a préféré couper les pertes. Quelques semaines plus tard, début août, Amazon annonçait à son tour le démantèlement progressif de Wondery, l’un des studios les plus puissants du secteur, connu pour ses formats narratifs à succès comme Dr. Death ou The Shrink Next Door. L’entreprise, rachetée pour 300 millions de dollars à peine cinq ans plus tôt, s’apprête à licencier 110 employés.
Le ralentissement du marché publicitaire, enclenché en 2023 dans un contexte économique tendu, a largement contribué à cette crise. Produire un podcast narratif demande du temps, de l’argent, et mobilise des équipes sur plusieurs mois, voire années. Un luxe devenu difficile à assumer dans un environnement où les revenus stagnent. Selon les chiffres rapportés par le New York Times, bien que près de la moitié des Américains écoutent des podcasts chaque mois, les marques allouent en moyenne « moins de 2% » de leurs budgets publicitaires à ce format. Trop cher, trop lent, trop incertain : les conditions ne sont plus réunies, même si les podcasts générés par IA arrivent à grands pas. Mais pour l’instant, les talk-shows, peu coûteux, adaptables en vidéo et portés par des animateurs ou invités (humains) déjà célèbres, cochent toutes les cases du podcast “post-2020”. Ce sont ces formats qui dominent aujourd’hui les plateformes, autant audio que vidéo. Les politiques en campagne y défilent pour toucher une audience directe ; les fondateurs de la Silicon Valley et des membres de la Maison Blanche y participent , notamment dans les interviews fleuves de Joe Rogan, dont les épisodes durent parfois plus de trois heures. Celui tourné avec Joe Sanders il y a deux mois culmine à cinq millions de vues. Les sportifs et les artistes, eux, s’en servent pour aborder des sujets personnels comme la santé mentale, notamment dans Armchair Expert witch Dax Shepard. Le ton est généralement détendu, confidentiel, sans contradiction frontale.
C’est d’ailleurs ce type de cadre que Taylor Swift a choisi pour sa dernière prise de parole publique en août. Plutôt que de donner une interview à un média, elle a préféré apparaître dans le podcast New Heights, animé par son compagnon Travis Kelce, pour annoncer la sortie de son nouvel album. La vidéo a cumulé près de neuf millions de vues en douze heures sur YouTube, établissant un record pour l’émission. Près de 1,3 million de personnes ont suivi la diffusion en direct, interrompue par un bug technique. Sa dernière apparition dans un média traditionnel remontait à 2022, pour une interview avec Variety. Le choix du podcast n’est donc pas anodin : il permet aux célébrités de contrôler leur communication tout en s’adressant à leur audience de manière plus “authentique”.
Ces talk-shows sont devenus, de fait, de puissants outils de branding. Comme le note Vulture, « la notoriété des célébrités est une monnaie d’échange centrale, et ces podcasts sont souvent des exercices d’extension de marque personnelle. La majorité cherche à exploiter la célébrité de leurs invités pour renforcer la leur. Chaque épisode est une transaction : le but est que l’animateur devienne la vraie star de son émission ». Loin de l’exigence journalistique des podcasts narratifs, ces formats privilégient la fréquence, la viralité et la proximité. Même si selon le New York Times, 58 % des auditeurs continuent d’écouter uniquement en audio, sans regarder la vidéo, le format conversationnel, lui, s’impose comme la norme — en partie parce qu’il est conçu pour circuler sur les réseaux sociaux.
4. Un monde submergé par les copies low cost
« Vivre entouré de copies est devenu aussi courant que de faire défiler trois publications identiques sur un réseau social », résume The Verge. Aujourd’hui, difficile d’échapper aux versions low cost. Sur internet comme dans la vie quotidienne, la copie s’est imposée : massive, souvent invisible, parfois même revendiquée. Elle prend la forme de “dupes” assumés sur les réseaux sociaux, mais aussi d’une réalité plus insidieuse : celle des faux sites d’information entièrement générés par intelligence artificielle.
Le journaliste d’investigation Jean-Marc Manach tire la sonnette d’alarme face à cette prolifération numérique. En quelques mois, plus de 6 500 sites créés par IA ont vu le jour, conçus pour manipuler les moteurs de recherche et capter les revenus publicitaires. Spécialiste des questions de vie privée et de surveillance, il distingue trois grands types de plateformes : « ceux qui cherchent à “poper” sur Discover avec des articles putaclics voire mensongers, ceux qui traduisent et/ou paraphrasent des articles journalistiques, et des fermes à liens visant à rendre des liens sponsorisés et/ou à profiter de liens partenaires ». Les deux premières catégories copient les codes du journalisme professionnel afin de tromper les lecteurs, comme les algorithmes.
Derrière ces sites, on retrouve principalement des experts en SEO. Leur objectif : apparaître dans Google Discover pour attirer du trafic, ou utiliser le “backlinking” afin de générer des revenus via des liens sponsorisés. « Ces éditeurs de sites GenAI en administrent des dizaines, voire des centaines, ce pourquoi la base de données est passée de 1 000 à plus de 6 500 en seulement huit mois », explique Jean-Marc Manach. Une véritable industrialisation des contenus, qui siphonne les revenus publicitaires au détriment des médias traditionnels. Le tournant, selon lui, a été la découverte de la vulnérabilité de Google Discover face à cette vague automatisée. « L’algorithme de Discover de Google favorise les fausses informations », affirme-t-il. Incapable de distinguer un article rédigé par un journaliste d’un texte généré par IA, Discover a ainsi mis en avant des intox comme la fin des billets de banque en France dès octobre 2025, ou l’interdiction pour les grands-parents de transférer de l’argent à leurs petits-enfants. Certaines de ces fausses informations, crédibles en apparence, ont même été reprises par des journalistes humains, pensant relayer des contenus fiables. Face à cette dérive, en juillet dernier, Reporters sans Frontières a appelé Google à « renforcer les critères d’accessibilité à la fonctionnalité [Discover] pour favoriser les médias journalistiques authentiques ». Pour l’instant, la prolifération des contenus artificiels qui imitent le journalisme ne montre aucun signe de ralentissement.
Mais la copie ne prend pas toujours des allures trompeuses. À l’opposé de ces contenus automatisés qui se déguisent en articles d’actualité, d’autres imitations s’affichent ouvertement. Ce sont les dupes, ces versions low cost revendiquées comme telles — une imitation assumée, presque célébrée, par une communauté de consommateurs. Imiter des produits emblématiques n’a rien de nouveau, mais le numérique a fait basculer cette pratique dans une autre dimension. The Verge illustre cette dynamique avec l’exemple du clip de Taylor Swift pour sa chanson « Fortnight », dans lequel la chanteuse porte la Pirouette Skort, une jupe-short façon tutu avec un short intégré, conçue par la marque Popflex. En quelques semaines, la pièce est copiée à la chaîne et inonde les plateformes de vente en ligne. Un an plus tard, en mai 2025, la marque recense encore 461 annonces violant son brevet de design.
Nous vivons une époque où la reproduction est devenue la norme, non l’exception. Comme le souligne The Verge : « Il n’a jamais été aussi rapide ou facile de copier et vendre quelque chose. Ce qui autrefois se limitait à quelques stands sur Canal Street est aujourd’hui une industrie à part entière. Certaines entreprises semblent même exister dans le seul but de copier des produits populaires, parfois très spécifiques. »
Chez les consommateurs — notamment aux États-Unis — la chasse aux dupes est devenue un réflexe. Sur TikTok, Instagram ou les forums en ligne, des créateurs de contenu ont bâti leur audience sur la promesse de dénicher ces alternatives à moindre coût. Acheter une copie, c’est aussi dénoncer des prix jugés excessifs, prouver qu’il est possible d’obtenir l’équivalent pour bien moins cher. C’est le sentiment d’avoir « déjoué les marques qui vendent trop cher ce qui ne devrait pas l’être ».
5. Nouveaux modèles économiques des médias à l’ère de l’IA générative
Un autre signal marquant de l’été est venu de la Silicon Valley : Perplexity, la start-up qui défie Google sur le terrain de la recherche, a dévoilé le 25 août Comet Plus, une version enrichie de son navigateur déjà disponible depuis quelques semaines. Pour 5 dollars par mois, les abonnés ont accès à la bibliothèque complète de certaines publications partenaires. Particularité du modèle : 80 % des revenus seraient reversés aux éditeurs, une promesse rare dans un écosystème à la quête de nouveaux modèles économiques, et où la publicité a longtemps dicté la loi. Selon le Wall Street Journal, Perplexity financera au départ ce programme via un fonds de 42,5 millions de dollars, appelé à croître avec l’élargissement de la base d’abonnés. Ce montant intègre aussi les formules Pro et Max déjà existantes, dont les abonnés participent automatiquement à ce schéma de partage.
Comme indiqué sur le blog de la startup, le système de rémunération repose sur trois canaux de mesure : les visites humaines, les citations dans les résultats de recherche et les actions réalisées par un agent conversationnel. Perplexity tente ainsi de lancer une économie du web où les médias ne seraient plus soumis ni aux clics, ni au référencement algorithmique, ni aux IA qui aspirent leurs contenus sans contrepartie (comme c’était le cas de Perplexity jusqu’à maintenant). Derrière cette initiative, il y a bien sûr un contexte plus tendu : la start-up a été visée par de multiples plaintes ces derniers mois, accusée de piller les contenus de presse sans contrepartie. Dernier épisode en date : le 26 août, les groupes japonais Nikkei et Asahi Shimbun ont conjointement attaqué Perplexity pour exploitation illégale de leurs contenus. Comet Plus ressemble donc autant à un geste de paix envers les éditeurs qu’à une tentative de refonder les règles du jeu.
Reste à savoir si ce modèle est viable. Comme le souligne Engadget, l’argument des 80 % paraît généreux, mais rapporté à 5 dollars, cela revient à environ 4 dollars pour un accès illimité à une bibliothèque éditoriale, alors que la plupart des journaux facturent entre 20 et 30 dollars par mois pour l’intégralité de leurs articles. Le risque est donc de dévaloriser le contenu plutôt que de le pérenniser. Si l’expérience réussit, elle pourrait dessiner un nouveau cadre économique pour la presse à l’ère de l’IA générative. Mais les interrogations demeurent : s’agit-il d’un modèle équitable ou d’une nouvelle dépendance vis-à-vis des plateformes ? Vision de long terme ou simple habillage marketing destiné à calmer la fronde des éditeurs ?
6. L’enfance comme refuge sur les réseaux
Au milieu du chaos ambiant, une envie d’insouciance enfantine s’est imposée cet été. Des accessoires traditionnellement associés aux enfants ont fait irruption dans les tendances, adoptés avec enthousiasme par des adultes en quête de réconfort. Depuis leur lancement en 2019, les Labubus sont devenus un véritable phénomène mondial, propulsés par les réseaux sociaux et la mode des vidéos d’« unboxing ». Ces créatures, imaginées dès 2015 par l’artiste Kasing Lung comme personnages d’une série de livres pour enfants, ont pris un nouveau tournant lorsque leur créateur a signé un partenariat avec Pop Mart. La société a transformé ces lutins de papier en jouets de collection, inaugurés par une série de figurines. Le premier porte-clés Labubu, baptisé Exciting Macaron, est sorti en octobre 2023. Depuis, la frénésie n’a cessé de croître, portée par des célébrités comme Rihanna ou Dua Lipa.
@alexbarretov #chabubu #labubu #macaroni #peluches #cheburashka #labubumacarons #labubuthemonsters #labubullfamilie #labubucake ♬ sonido original – MOVIES_.LYRICS
Les réseaux sociaux se sont même lancés dans une bataille culturelle avec l’ancêtre russe du Labubu, Tchebourachka…
Vendues dans des boîtes opaques, ces figurines à collectionner, dont le prix démarre à 15 € pour grimper jusqu’à plusieurs centaines, jouent sur l’effet de surprise. Chaque achat dévoile un personnage au nom et au design singuliers. Pour compléter une série, les collectionneurs enchaînent les achats, accumulent les doublons et espèrent mettre enfin la main sur la pièce manquante. Le format de la « blind box » séduit autant qu’il inquiète. Certains acheteurs reconnaissent son caractère addictif. Pop Mart en a tiré un modèle lucratif : l’entreprise a écoulé pour 670 millions de dollars de produits cette année, davantage que des lignes emblématiques comme Barbie ou Hot Wheels. Mais la facture est lourde pour les consommateurs. Beaucoup avouent avoir dépensé des centaines, voire des milliers d’euros, sans véritable satisfaction. Le sentiment dominant est celui de la culpabilité. Une acheteuse interrogée par The Guardian confie : « La culpabilité après chaque achat est énorme. Parfois j’ouvre une boîte et je n’ai même pas envie de garder ce qu’il y a dedans. » En juin, un le journal du parti communiste chinois a d’ailleurs condamné cette mécanique de vente jugée prédatrice.
Sur YouTube, de nombreuses vidéos relaient les critiques : consumérisme effréné, volonté d’entretenir un imaginaire enfantin malgré un monde chaotique, et brouillage des frontières entre jouets pour enfants et objets de collection pour adultes.
Un autre phénomène, également venu de Chine avant d’atteindre les États-Unis, intrigue : les tétines pour adultes. Comme celles des nourrissons, elles sont censées apaiser, aider à supporter le stress ou à trouver le sommeil. Vendues entre 10 yuans (1,40 $) et 500 yuans (70 $), elles sont présentées comme des accessoires « anti-stress » ou « aides au sommeil ». Mais l’illusion a un prix, cette fois sanitaire. Des médecins alertent sur les dangers de ces objets inadaptés à la morphologie adulte. Le docteur Tang Caomin, dentiste au Sichuan, met en garde : une utilisation prolongée peut modifier l’occlusion dentaire, endommager les articulations ou perturber la respiration.
@annieeebellieeee #fyp ♬ Why Am I Like This? – Orla Gartland
Psychologues et sociologues évoquent un « phénomène de régression ». Après la pandémie et dans un contexte international anxiogène, certains adultes se replient vers des gestes ou des objets qui rappellent l’enfance, « refuge d’un temps sans factures ni réunions tardives ». La tétine ou la figurine ne sont pas de simples accessoires : ce sont des raccourcis vers un confort psychologique, une tentative de retrouver l’innocence et la sécurité d’avant. Autre phénomène : La génération Z organise désormais des concours de sosies publics, aux États-Unis comme ailleurs, pour élire le meilleur « mâle performatif ». Loin du cliché du sportif de salle, il cultive une masculinité alternative, douce et ironique : boire du matcha, lire bell hooks, écouter des chanteuses-compositrices, garder des tampons dans son sac… et parfois accrocher un Labubu à son tote bag. Chacun s’essaie à ce rôle de parfait allié, souvent plus costume qu’intime conviction.
@landonsfits nahhh performative male in the gym bro? 😪💔🥀 #fyp #foryoupage #performative #matcha #feminist #feministliterature #malemanipulator #labubu #gym ♬ Lil Phoebe x Melodica – sanilovesmusic
Sur TikTok, les vidéos taguées #performativemale cartonnent, et les recherches du type « Pourquoi le matcha est-il performatif ? » se multiplient. Comme l’a expliqué Malik Marcus Jernigan, gagnant du concours « mâle performatif » de Seattle, la plupart des participants, lui y compris, incarnent la blague avec légèreté. En donnant aux adultes l’occasion de jouer, d’exagérer et de se mettre en scène comme des enfants, ces concours répondent à un besoin plus large de régression et de déconnexion : une manière légère et collective de s’éloigner non seulement du sérieux du quotidien, mais aussi d’un monde où la tension et la violence montent de toutes parts.
7. L’hyper-personnalisation de l’information
L’été 2025 a vu la personnalisation sortir de l’ombre pour devenir un axe stratégique des médias. The Verge a introduit un onglet “Following” qui permet de suivre des auteurs, des rubriques et des thèmes précis, donnant naissance à un fil personnalisé mais conservant la hiérarchie éditoriale, avec l’espoir de retenir les lecteurs plus longtemps dans l’écosystème, et de construire de la fidélité directe, sans dépendance aux plateformes sociales. La rédaction a aussi lancé des résumés quotidiens adaptés aux usages : digest rapide pour le matin, articles plus développés en journée. De son côté, Wired a mis en place une refonte de son expérience abonné : newsletters thématiques plus ciblées, Ask Me Anything (AMA) réguliers avec les journalistes, retour des commentaires modérés et versions audio de ses enquêtes.

Deux initiatives différentes, mais qui traduisent la même bascule : faire de la personnalisation une expérience éditoriale et non plus un simple outil de recommandation. Tandis que la stratégie de The Verge met l’accent sur le produit et l’interface : créer des habitudes de lecture et retenir des audiences volatiles grâce à une UX pensée comme un flux “pour vous” (à la TikTok ou Threads), celle de Wired, au contraire, insiste sur la relation éditoriale : transformer la personnalisation en un dialogue avec les lecteurs, où l’abonné peut choisir ses formats, interagir avec les journalistes et accéder à des contenus enrichis. Là où les réseaux sociaux offrent des contenus « pour vous », Wired promet une personnalisation « avec vous », c’est-à-dire une coproduction de l’expérience avec le lecteur. Dans cette même logique, le Handelsblatt en Allemagne expérimente des formats adaptés au moment de la journée (brief court le matin, contexte en journée, analyse le soir), avec un premier jalon : Smart Search, un bot éditorial qui puise dans les articles et podcasts du titre en citant ses sources et en renvoyant au corpus.
TODAY: Join our "Back to School in the Age of AI" livestream AMA at 1 pm ET on how tech moguls, policymakers, and teachers and students are transforming the classroom.https://t.co/f7BfaJcfMb
— WIRED (@WIRED) August 28, 2025
Discret mais révélateur : Google tente la fonction Preferred sources dans Top Stories, qui permet aux internautes de privilégier certains médias dans leurs résultats. L’écosystème entier glisse ainsi vers un modèle où l’IA ne se limite pas à produire, mais orchestre aussi la distribution en fonction de nos routines, de nos centres d’intérêt et de notre seuil d’attention. Les premiers résultats confirment l’intérêt : les pages d’accueil personnalisées de The Verge affichent un CTR plus élevé de 24 % chez les utilisateurs connectés, prouvant ainsi qu’un agencement individualisé peut générer une croissance de revenu incrémentale lorsqu’il repose sur une offre éditoriale forte.
Le paradoxe final : si chacun a « son » média, à quoi sert le média (comme l’a formulé de façon plus élégante Bruno Patino dans « La Fabrique de l’Information » de François Saltiel) ? L’IA générative rend désormais techniquement possible la personnalisation du contenu lui-même (ton, longueur, contexte, langue, voire même format, ce que certains appellent « le contenu liquide »), au-delà du simple tri d’articles. Exactement ce que décrit le rapport 2025 du Reuters Institute sur les attentes et réticences face à l’info personnalisée (utilité perçue, mais méfiance dès que l’algorithme remplace le jugement éditorial). L’hyper-personnalisation déploie toute sa puissance pour l’accessibilité, avec résumés, audio ou niveaux de lecture adaptés, mais elle devient un risque existentiel dès lors que chacun bascule dans son propre média : dilution d’une compréhension partagée, appauvrissement du débat public et disparition de l’effet-média lorsque la Une n’est plus commune, enfermement dans une bulle emplie de flagornerie où l’on n’est plus confronté qu’à ses propres biais. Tout l’enjeu consiste à imaginer un design éditorial capable d’épouser les usages, en personnalisant l’accès et le rythme, sans jamais perdre de vue les priorités assumées, une hiérarchie lisible et une responsabilité éditoriale clairement revendiquée.
8. Streaming : les regroupements s’accélèrent
Dans un paysage audiovisuel de plus en plus fragmenté, les grandes plateformes de streaming et les chaînes de télévision traditionnelles se rapprochent rapidement. Objectif : proposer des offres groupées pour simplifier la vie des consommateurs saturés d’abonnements, tout en renforçant leur position dans un marché ultra-concurrentiel. L’été 2025 a été celui des rapprochements inattendus. Le 18 juin, TF1 et Netflix ont annoncé un accord majeur : à partir de l’été 2026, les chaînes du groupe TF1 ainsi que les contenus de TF1+ seront accessibles directement via la plateforme Netflix en France. Une intégration qui marque un tournant pour l’industrie, symbolisant la fusion croissante entre télévision linéaire et streaming. Quelques semaines plus tard, France Télévisions a officialisé sa présence sur Prime Video. Depuis le 3 juillet, les abonnés français peuvent accéder aux contenus de france.tv depuis un espace dédié sur la plateforme d’Amazon, sans changer d’interface.
À l’international, la tendance se confirme. Outre-Manche, ITV, le principal groupe de télévision commerciale au Royaume-Uni a signé le 16 juillet un accord de partage de contenu avec Disney sur leurs services de streaming respectifs, ITVX et Disney+. Aux États-Unis, Comcast, propriétaire de NBCUniversal et Amazon ont conclu fin août un accord pour proposer la version sans publicité de Peacock sur Prime Video Channels. Notons que ces accords illustrent une stratégie plus large d’agrégation déjà bien avancée chez Amazon. Prime Video propose des abonnements à d’autres services tels que HBO Max, Paramount+ via son application. Pendant que les géants du numérique affinent leur stratégie d’agrégation, Canal+ opère une offensive dans le monde physique. Le 2 septembre, le groupe a annoncé être en négociation exclusive pour entrer au capital du réseau de salles UGC, avec une prise de contrôle potentielle à horizon 2028.
Face à la multiplication des plateformes et des abonnements, les utilisateurs expriment une fatigue croissante. Selon une étude Nielsen, en 2023, il fallait déjà en moyenne 10 minutes et demie à un spectateur pour choisir un contenu à regarder – contre 7 minutes et demie en 2019. Un symptôme d’un marché devenu illisible. Dans ce contexte, les offres groupées (ou bundles) apparaissent comme une solution naturelle. Une étude de la société Antenna, spécialisée dans les abonnements, révèle que le nombre de nouveaux abonnements pris via des plateformes tierces a augmenté de 40 % en deux ans.

De plus en plus de spectateurs préfèrent centraliser leurs abonnements et leurs paiements sur une seule interface. Une évolution que Jonathan Carson, PDG d’Antenna, n’hésite pas à qualifier de « prochain chapitre des guerres du streaming » : une bataille pour devenir « le nouveau câblo-opérateur » de l’ère numérique. Ces rapprochements ne sont pas sans paradoxe. Il s’agit d’une “coopétition” : les plateformes coopèrent tout en restant concurrentes. Le succès d’une alliance repose sur l’équilibre délicat entre intérêt collectif et préservation des intérêts individuels. L’échec de la plateforme française Salto, projet commun de TF1, France Télévisions et M6, en est la preuve. La transformation en cours dessine les contours d’un nouveau modèle : un retour déguisé au “bouquet” de chaînes, mais à l’ère du streaming.
9. Les nouveaux modèles du monde jouables
On en parle depuis longtemps (vous vous souvenez du « métavers »), mais le progrès technologique rend l’idée de plus en plus concrète : une nouvelle ère de réalités jouables émerge, où l’on ne se contente plus de regarder mais où l’on participe, redéfinissant les frontières du divertissement et de l’expérience numérique. Google, Tencent et les communautés open source conçoivent des mondes virtuels toujours plus réalistes, interactifs et personnalisables, à la croisée du jeu vidéo, de la simulation et de l’intelligence artificielle. Netflix a officialisé ses « immersive experiences« , ces extensions interactives de ses franchises qui transforment l’abonné en participant. Showrunner, présenté comme le “Netflix de l’IA”, met l’utilisateur aux commandes : à partir d’un univers créatif existant, il peut écrire et jouer ses propres scènes, convoquer les personnages de son choix, définir les lieux, orchestrer les dialogues et laisser l’algorithme générer une chute finale. L’expérience ouvre une brèche : la fiction n’est plus un récit figé mais un terrain de jeu collectif où se réinventent les codes du divertissement. Reste à savoir si chacun souhaite passer du rôle de spectateur passif à celui de scénariste en herbe, pour qui la valeur de l’expérience réside autant dans l’interaction que dans le contenu.
La recherche en IA franchit une étape clé : après avoir généré des images, des textes et des vidéos, les modèles savent désormais produire des mondes interactifs jouables. Google DeepMind a présenté cet été Genie 3, un moteur capable de générer en temps réel des environnements navigables à partir d’un simple prompt. L’utilisateur peut intervenir en cours de simulation par commandes textuelles, de type “un orage approche”, et voir l’univers se transformer instantanément. D’autres acteurs avancent vite : Tencent développe Hunyuan Gamecraft, entraîné sur des millions de séquences de jeux AAA pour créer des environnements dynamiques proches des standards commerciaux. Dans le monde de l’open source, SkyworkAI enchaîne les prototypes. Avec Matrix-Game 2.0, l’IA est déjà capable de produire de petites séquences interactives d’une minute environ, animées à 25 images par seconde. Matrix-3D, de son côté, transforme une simple photo ou même une phrase en panorama à 360°, dans lequel on peut se déplacer comme si l’on y était. Quant au projet Yan, encore en phase expérimentale, il vise la création de mondes interactifs en haute définition (1080p, 60 images/seconde). Sa particularité : découper le travail en trois étapes : simulation, génération et édition en temps réel. Dans tous les cas, le principe est le même : l’IA ne produit plus un média figé mais un environnement persistant, réactif et personnalisable.
Ces “modèles du monde” bouleversent les règles du divertissement. Pour les studios, ils offrent un laboratoire de prototypage : la possibilité de créer un décor ou tester une intrigue en quelques minutes, sans équipes de développement. Pour les plateformes, ils ouvrent la voie à de nouvelles formes de monétisation : pass saisonniers, contenus dérivés co-créés avec les fans, licences prolongées par la communauté. Pour les publics, ils sont l’occasion de s’approprier les récits, de les détourner, de les vivre ensemble. On voit apparaître aussi des formats hybrides : podcasts interactifs avec embranchements narratifs, documentaires jouables où les choix du spectateur modifient la trajectoire, programmes TV enrichis de sondages ou de votes en direct. Reste la question des risques : propriété intellectuelle des scènes générées, biais des données d’entraînement, toxicité potentielle des mondes ouverts aux communautés. Mais l’horizon est clair : nous entrons dans une ère où le public devient bâtisseur, où les mondes ne sont plus seulement racontés mais vécus et transformés par ceux qui les habitent.
10. La reconnexion au réel
Et finalement, juillet-août ont aussi été l’occasion de décrocher des écrans, peut-être même davantage que les années précédentes. Pour la génération Z, les émissions de téléréalité qui ont rythmé les soirées estivales sont devenues un prétexte à se retrouver lors de watch parties. Sauf que cette fois-ci, il ne s’agit pas d’une pratique numérique émergée pendant le Covid, qui permettait de regarder un programme ensemble en ligne, mais d’un retour nostalgique à la vraie vie, qui est d’ailleurs plus « party » que « watch ». De Love Island, aux États-Unis et au Royaume-Uni, à Secret Story en France, le concept est simple : se réunir dans un bar pour regarder un épisode ensemble.
Derrière l’aspect festif, ces rassemblements répondent à un double besoin : rompre avec la solitude et recréer du lien collectif. La génération Z, souvent décrite comme particulièrement isolée, s’inscrit dans ce phénomène que les médias ont qualifié d’« épidémie de solitude ». Ainsi, elle y voit de véritables grands événements, recréant des rituels partagés dans un quotidien fragmenté. Ce retour de l’expérience partagée s’inscrit dans un mouvement plus large : la raréfaction des « tiers-lieux » — ces espaces sociaux entre la maison et le travail — et le désir croissant de se distancier des écrans qui ont marqué l’enfance de cette génération. Des personnalités publiques comme Violette Dorange, benjamine du Vendée Globe, témoignent d’une lassitude face à la « course aux likes ». Son post, fin juillet, sur la pression mentale des réseaux sociaux a déclenché plus de 87 000 réactions… preuve, paradoxe amusant, de la puissance des plateformes qu’elle critique.
Les marques ont vite compris cette aspiration au concret. Polaroid, en particulier, s’est distinguée avec une campagne “outdoor résolument humaine et sensible”. Sur des posters manuscrits et des tirages bruts, la marque propose des slogans simples mais efficaces : « L’IA ne peut pas recréer la sensation du sable entre tes orteils », « Tu te souviens de cette soirée qu’on a passée sur nos téléphones ? Moi non plus », ou encore « Des vraies histoires. Pas des stories. » Tandis que l’univers publicitaire s’agite autour de l’IA, de l’automatisation et du ciblage algorithmique, Polaroid a pris le contre-pied : miser sur le silence et la simplicité dans un monde saturé de bruit numérique. Un pari risqué, mais qui résonne avec la lassitude croissante face à l’écran permanent.

Conclusion
Ces dix tendances tracent le portrait d’un été fragmenté, oscillant entre la tentation du simulacre (IA, avatars, clones numériques) et le besoin pressant d’authenticité (rencontres en chair et en os, échanges imprévus, récits sans fard). Les jeunes générations, de leur côté, ont littéralement « crashed out ». Peut-être est-ce le premier été où l’on a vraiment décroché… sauf sur LinkedIn, royaume des désœuvrés numériques, où une querelle surréaliste a opposé de prétendus experts autour de Luc Julia. Mais ce n’est pas tant le contenu du débat qui compte que ce qu’il révèle : l’ultracrépidarianisme qui prolifère sur les plateformes, où chacun s’érige en spécialiste d’un sujet qu’il maîtrise à peine, à l’aide de son assistant IA. Symptomatique d’un climat plus large, où la cacophonie des opinions peine à masquer le silence d’une culture commune en train de se dissoudre. Entre avatars générés et conversations sans fin, cet été aura surtout mis en lumière la difficulté de retrouver un récit collectif.
Illustration de Une : KB, avec ChatGPT
TikTok vs Instagram : de rivaux à (presque) jumeaux dans la stratégie des médias publics
Deux rivaux, une même grammaire visuelle : autrefois perçus comme les pôles opposés des usages sociaux numériques, TikTok et Instagram tendent désormais à se confondre. Pour les médias de service public, cette convergence soulève une question stratégique : comment continuer à toucher les jeunes publics, sans dupliquer les efforts ? Décryptage d’une évolution accélérée des formats, des usages et des attentes avec deux responsables du développement de l’audience à la Deutsche Welle.
Par Erika Marzano, Audience Development, et Yasmina Al-Gannabi, Senior Audience Development Manager & Social Media Security Officer @Deutsche Welle (DW)
Lorsque nous avons pris la parole lors du Festival international du journalisme de Pérouse en 2022, dans un panel intitulé « TikTok vs. Instagram Reels », nous évoquions deux plateformes aux dialectes sociaux distincts : TikTok, sauvage, chaotique, imprégné de l’irrévérence de la Gen Z ; Instagram, soigné, aspirationnel, dominé par l’esthétique du fil parfaitement orchestré. Mais cette ligne de fracture ? Elle s’estompe aujourd’hui – voire disparaît.
En 2022, TikTok était largement considéré comme la plateforme incontournable pour des récits intemporels, centrés sur la jeunesse et porteurs d’une viralité imprévisible – un espace où naissaient les tendances et où l’émotion dictait la visibilité. À l’inverse, Instagram apparaissait comme l’outil privilégié pour l’actualité chaude et les formats léchés, parfaitement calibrés pour les flux, en particulier pour les marques médias traditionnelles adaptant leurs contenus web ou télévisés.
En 2025, Instagram et TikTok ressemblent de plus en plus à des jumeaux numériques. Les fonctionnalités se confondent (Reels, Stories, Carrousels, intégration musicale, monétisation des créateurs), les tendances passent de l’un à l’autre en quelques heures, et même l’esthétique des créateurs – autrefois spécifique à chaque plateforme – tend à converger.
Mais que cela implique-t-il pour les médias de service public ?
1. Fonctionnalités similaires, comportements similaires
TikTok et Instagram :
- favorisent la recommandation algorithmique plutôt que la portée organique fondée sur les abonnés
- privilégient la vidéo verticale, courte, immersive
- utilisent la musique comme levier de découverte
- mettent en avant le récit visuel et l’authenticité
Instagram a imité l’expérience de la page « Pour toi » de TikTok via Reels Explore. TikTok a intégré un « mode photo » (carrousels), tandis qu’Instagram s’est mis aux sons viraux et à la circulation ultra-rapide des mèmes. Même les interactions dans les commentaires se ressemblent désormais : elles reposent sur des réactions courtes, émotionnelles, ponctuées de clins d’œil entre initiés.
En 2025, un phénomène inattendu est apparu : des contenus d’actualité, des breaking news, les extraits de conférences de presse performent aussi bien sur TikTok que sur Reels. « Ce qui se passe maintenant » est devenu une valeur commune. Les audiences, bien que non identiques, attendent de la réactivité sur les deux plateformes. Ce changement de rythme nous oblige à revoir nos présupposés : TikTok n’est plus seulement un espace à viralité lente.
2. Stratégie de plateforme : les différences s’atténuent
Dans les faits, TikTok reste légèrement plus jeune. Selon le Digital News Report 2025 du Reuters Institute, 44 % des 18-24 ans l’utilisent chaque semaine pour s’informer, contre 39 % pour Instagram. Facebook demeure présent chez les plus de 35 ans.

Ce qu’il faut retenir : TikTok reste dominant chez les plus jeunes, mais Instagram le talonne, notamment dans les régions où l’écosystème Meta est très implanté.
3. L’adaptation des médias publics : un jeu d’équilibre
Pour des diffuseurs comme DW, BBC, RFI ou NPR, l’enjeu n’est pas de choisir entre les plateformes, mais de suivre leurs mutations et de répondre aux attentes de leurs publics sur chacune. Instagram ne se limite plus à l’esthétique. Il valorise l’immédiat, la réaction, l’humour et l’émotion. TikTok reste le berceau des tendances, mais l’écart se réduit, et bon nombre de Reels sont aujourd’hui indiscernables de leurs homologues TikTok.
Nos processus créatifs s’uniformisent donc, tout en adaptant certaines spécificités : textes, droits musicaux, appels à l’action. Chez DW en espagnol, par exemple, les contenus les plus performants naissent souvent comme projets TikTok, puis sont optimisés pour Reels avec un habillage localisé.
4. Découvrabilité et référencement : les nouvelles règles
La visibilité est clé. Une étude de Previsible démontre que les Reels Instagram publics sont désormais indexés par Google, ce qui les rend accessibles hors de la plateforme. Un changement majeur pour les rédactions sensibles aux enjeux de référencement.
Conséquences pour le SEO :
- Les Reels publics sont visibles via Google
- Les légendes optimisées (jusqu’à 2¢000 caractères) comptent
- Des noms de fichiers et un texte alternatif riches en mots-clés aident au référencement
- Les hashtags ont moins de poids que le contexte
TikTok reste à ce jour une plateforme fermée, mais teste l’intégration de Google dans certaines régions pour améliorer la recherche. Meta, en revanche, investit massivement sur les Reels, pensés à la fois comme moteurs d’engagement et outils de découverte.
5. TikTok & Instagram en Bulgarie : étude de cas
Dans notre dernier rapport mensuel pour DW Bulgarie, Instagram a émergé comme levier de croissance majeur. Quelques chiffres :
- 77 % des contenus publiés étaient des Reels
- Les Reels les plus vus intégraient musique, voix off personnelle et actualité régionale
- TikTok progressait, mais la synergie avec Facebook donnait à Instagram un avantage en termes de rétention
Parallèlement, le TikTok de DW Bulgarie s’est imposé comme un espace clé pour toucher les jeunes avec des contenus à forte charge émotionnelle. Entre février et juin 2025, plus de 84 % des vues venaient de Bulgarie, avec une nette préférence pour les vidéos mêlant actualité impactante et narration incarnée.
Les sujets les plus engageants ? Les tragédies et manifestations (comme l’incendie dans une boîte de nuit en Macédoine du Nord), les décryptages de la désinformation liée à l’UE, les pastiches de scandales politiques. Le format vertical court permettait une narration efficace et visuelle, atteignant parfois des centaines de milliers de vues sans promotion. Les contenus explicatifs au ton émotionnel ou sarcastique surpassaient largement les formats plus figés.
La tendance est claire : en Bulgarie, TikTok n’est plus un simple réseau « pour les jeunes ». C’est un terrain de lutte narrative, en particulier autour de la désinformation, des droits et de la responsabilité politique. L’espace commentaire est devenu un baromètre d’intérêt citoyen et une source précieuse d’angles journalistiques.
Conclusion : pas l’un ou l’autre. Les deux.
Opposer TikTok et Instagram n’a plus de sens. Ce sont deux constellations d’un même système. Pour les journalistes, créateurs et stratèges, cela signifie :
- Penser en formats, pas en plateformes
- Tester les contenus là où les publics sont réceptifs
- Suivre les performances via les partages, les commentaires, les sauvegardes et les taux de complétion
Ce n’est plus TikTok contre Instagram, mais TikTok et Instagram. L’enjeu n’est plus de se répéter, mais de créer de la résonance. Ce qui relevait autrefois de stratégies propres à chaque plateforme s’est transformé en un processus de travail partagé et adaptatif. Lorsqu’un sujet fonctionne, c’est d’abord le format qui guide notre réflexion, non la plateforme.
Cette agilité nous permet de rejoindre nos publics là où ils se trouvent, au moment où leur attention est disponible. Et de faire en sorte que le récit porté par les médias publics demeure accessible, vivant et profondément humain — des deux côtés de l’écran.
Cet article a été traduit et repris avec l’accord de ses autrices, la version originale est publiée ici
RAISE Paris : sous la Joconde, l’IA passe à l’ère des agents, et personne n’a la définition de l’AGI
On a beau parler d’« AGI » à tous les coins d’estrade, aucun des intervenants du RAISE Summit Paris, grand rendez-vous européen de l’intelligence artificielle, n’en a donné une définition ferme. C’est d’ailleurs l’un des enseignements majeurs de la rencontre des 8 et 9 juillet qui a réuni 6300 participants et 110 médias : Le vocabulaire court après la technologie, quand il ne s’arme pas ouvertement de métaphores belliqueuses. Thomas Wolf, cofondateur et Chief Science Officer de Hugging Face, parle de modèles transformés en « soldats » qu’il faut sans cesse entraîner. BlackRock, premier gestionnaire d’actifs au monde, évoque une « total war » pour le contrôle de toute la chaîne de valeur, du silicium aux agents. Pour Eric Schmidt, ancien PDG de Google, on ne va toujours pas assez vite. Et selon Illia Polosukhin, cofondateur de Near Protocol, « nous courons tous vers quelque chose que nous ne savons pas définir »...
Par Kati Bremme, Directrice Innovation et Rédactrice en chef Méta-Media
L’autre enseignement, plus concret, est en effet que l’IA entre dans sa phase « agentique » : des systèmes capables de planifier, d’agir et d’enchaîner des tâches. Tout l’écosystème se met en place, des puces aux data centers, des logiciels aux données, des modèles ouverts comme propriétaires, jusqu’aux premiers cas d’usage en entreprise. Eric Schmidt, en francophile de passage à Paris, en a donné sa propre lecture forgée outre-Atlantique. Nous serions, selon lui, au seuil d’une « nouvelle époque », dotée d’un nom de code officieux : le « San Francisco Consensus ». Dans la Silicon Valley, l’expression condense la conviction que l’IA va tout reconfigurer (nous, le monde, l’univers…), dans un horizon de trois à six ans. Pour le vétéran de la tech américaine, il ne s’agirait pas d’une bulle mais de la naissance d’une nouvelle industrie, incarnée par des puces devenues plus précieuses que n’importe quelle entreprise de l’histoire et par des centres de calcul dont la puissance, promet-il, sera toujours dévorée par le logiciel.
Ce qu’il faut retenir des échanges :
- L’agent deviendrait l’interface par défaut. En B2B, « assistants » métiers, copilotage des processus, et bientôt agents autonomes greffés aux systèmes existants ; côté grand public, la bataille de l’« assistant personnel » est relancée par les plateformes et le mobile. (Panel d’ouverture avec SambaNova, BlackRock, Hugging Face, modéré par CNBC). Chaque entreprise de logiciels en mode SaaS finira soit par disparaître, soit par se convertir à l’agentique, selon BlackRock.
- Ouvert vs. propriétaire : le temps long contre l’efficacité immédiate. Consensus de scène : l’open source reste « le jeu de long terme » (interopérabilité, latence maîtrisée, confidentialité), mais à court terme les usages, notamment les premiers agents, plébiscitent les modèles propriétaires pour la performance brute et l’outillage.
- La « guerre totale » du full stack. Pour « contrôler son destin », il faut jouer sur le modèle de pointe et l’infrastructure de calcul (accès aux GPU/LPUs, réseau, refroidissement). D’où l’accélération des alliances entre fabricants de puces, clouds spécialisés, intégrateurs et éditeurs.
- Le véritable goulot d’étranglement, c’est l’inférence, c’est-à-dire le moment où l’on met les modèles d’IA en production pour répondre en temps réel. Les agents sollicitent sans cesse les modèles, ce qui crée des files d’attente. Si la latence est trop élevée ou le débit trop faible, l’expérience utilisateur s’effondre. C’est sur ce terrain que se positionnent les fabricants de puces dédiées à l’inférence (Groq, Cerebras, SambaNova…), qui occupent désormais le devant de la scène.
- La donnée devient un bien stratégique… et négocié. Entre paywalls qui se referment et médias qui bloquent les bots (dans une tentative désespérée de protégrer leurs modèles économiques), l’« infrastructure de données » (pour ne pas nommer Bright Data) plaide pour la visibilité des contenus publics et anticipe des modèles de compensation, y compris via la publicité intégrée aux chatbots.
Sur scène : de la « guerre totale » aux files d’attente des agents
Dès l’ouverture, le ton est posé : celui d’une guerre industrielle, où chaque camp tente d’imposer son récit. Derrière les slogans, une question centrale : qui contrôlera la prochaine génération d’intelligence artificielle ? Le clivage est désormais net. À long terme, beaucoup parient sur l’open source, cet écosystème où les modèles sont accessibles et adaptables par tous. Mais dans l’immédiat, ce sont encore les modèles propriétaires qui s’imposent, jugés plus fiables, plus robustes et surtout mieux intégrés dans les usages des entreprises. L’analogie avec l’histoire récente du numérique éclaire l’enjeu : l’open source ressemble à Linux, foisonnant mais fragmenté, tandis que les modèles fermés jouent la carte d’Apple, cohérents, verrouillés, mais efficaces.
Pour Hugging Face, l’ouverture n’est pas qu’un slogan, c’est un moyen de garder la main sur deux paramètres essentiels : la rapidité de réponse (la latence) et la confidentialité des données. Dans un contexte mouvant, un modèle d’IA ne reste pertinent que quelques mois. Les entreprises les testent en continu et basculent vers le mieux-disant dès que le rapport coût/qualité s’inverse. Quelques géants conservent leur rang, mais uniquement grâce à un effet « iPhone » : une intégration si profonde que tout l’écosystème reste captif. Andrey Khusid, fondateur de Miro, a aussi rappelé que si l’IA s’impose vite sur les usages individuels, elle bute encore sur les usages collectifs : le travail d’équipe et surtout la collaboration entre équipes restent les vrais points faibles. La lenteur des grandes entreprises ne tient d’ailleurs pas seulement à l’exécution, mais au millefeuille de procédures accumulées depuis quarante ans, y compris dans les fleurons du CAC 40.

Mais au-delà des inerties humaines et organisationnelles, une autre limite apparaît, cette fois mécanique : l’infrastructure. Les agents, ces systèmes censés automatiser les tâches, multiplient les appels aux modèles comme autant de voitures entrant sur une autoroute déjà saturée. Les serveurs se transforment en goulots d’étranglement, les files d’attente s’allongent, la latence grimpe. Une seconde de retard suffit alors à briser l’expérience. Tant que ce bouchon n’est pas levé, la révolution de l’IA restera à la porte de l’industrialisation. Et derrière ces embouteillages numériques, la bataille du silicium s’anime. Nvidia règne toujours en maître, mais trois challengers avancent leurs cartes.
Groq mise sur la vitesse d’exécution : son architecture d’inférence revendique des performances record, et l’entreprise a obtenu un engagement de 1,5 milliard de dollars de l’Arabie saoudite pour développer son infrastructure d’IA dans le royaume. Cerebras joue la démesure avec son Wafer Scale Engine, un processeur géant gravé sur une galette entière de silicium, qui concentre l’équivalent de dizaines de GPU traditionnels dans une seule puce.. SambaNova, enfin, revendique la souplesse : son approche modulaire, dite « Dataflow », permet d’orchestrer plusieurs modèles spécialisés en parallèle. Tous visent le même objectif : montrer qu’ils peuvent soutenir des agents en continu, sans rupture, condition indispensable pour passer du prototype à l’industrialisation. En parallèle, Charles Liang, fondateur et PDG de Supermicro, a résumé son credo d’une formule lapidaire : « Je vends tout ce qu’il faut pour un data center. » Rieur sur scène, il balaie d’un revers la crainte de voir son secteur se transformer en simple commodité : la concurrence fait partie de la nature des choses, et la pression sur les prix n’est pas une menace pour l’entreprise chinoise.
Enfin, une évidence économique s’impose : l’IA se paie à l’usage, en « tokens », ces unités de calcul qui mesurent le volume de contenu traité. Les grands modèles fermés resteront coûteux et voraces en ressources, mais des modèles plus petits et mieux entraînés répondent déjà à des besoins ciblés, parfois directement « on device », sur les appareils eux-mêmes. La bataille ne se joue pas seulement dans les centres de données, mais aussi dans la poche des utilisateurs, …et dans la valeur des contenus qui alimentent les modèles.
La bataille de la donnée : un internet qui se referme
Interrogé sur scène par Larissa Holzki (Handelsblatt), Or Lenchner, directeur général de Bright Data, a tenu un discours sans filtre : « les modèles doivent savoir ce qui existe, quitte à filtrer ensuite ». La journaliste l’a poussé sur un terrain sensible, celui de la responsabilité : Bright Data collecte-t-elle aussi des contenus problématiques, comme les discours de haine ? Le patron de Bright Data a balayé la question en expliquant que son rôle n’était pas de juger, mais d’aspirer « tout ce qui est public », revendiquant 40 milliards de requêtes envoyées chaque jour et laissant aux clients et aux modèles d’IA le soin de filtrer en sortie. Dans cette phase d’alimentation, peu importe à ses yeux que le contenu soit rédigé par une IA plutôt que par un humain, du moment qu’il est vérifié et qu’il est « bon », en ajoutant une précision : la création de contenu n’est pas réservée aux journalistes.
Cet argumentaire n’a rien d’innocent. Bright Data vit du web scraping, de l’extraction automatisée de données accessibles sur Internet (pages web, réseaux sociaux, forums), qu’elle revend ensuite à ses clients : grandes plateformes technologiques, institutions financières, laboratoires de recherche… et parfois même les mêmes géants qui l’attaquent en justice. Meta et X figurent parmi ses clients tout en ayant tenté de le bloquer devant les tribunaux. En janvier 2024, Bright Data avait remporté une victoire décisive face à Meta devant un tribunal fédéral de Californie : le juge a estimé que l’aspiration de contenus publics, sans connexion ni piratage, ne constituait pas une violation contractuelle. Ce qui est visible sans authentification peut être collecté.

Pour les médias, l’enjeu est évident. Chaque paywall, chaque barrière anti-bots est une tentative de protéger la valeur éditoriale. Mais dans le monde lumineux décrit par Bright Data, bloquer l’accès revient à disparaître des usages émergents de l’IA, et même, aoute-t-il, à « détériorer la qualité des modèles ». Autrement dit : gare à vous, éditeurs. Si l’internet de l’IA se transforme en bouillie, ce sera sur votre conscience. D’où sa « solution », énoncée avec une ironie assumée : financer l’accès par la publicité intégrée aux interfaces IA, à la manière dont les moteurs de recherche ont longtemps soutenu la presse en échange de visibilité. Dans un autre échange, BlackRock souligne que la valeur ne se joue plus seulement dans l’accumulation de données brutes, mais dans le post-entraînement : cette phase où les modèles sont ajustés, enrichis et gouvernés (par exemple via le RAG, qui relie un modèle à des bases documentaires, ou le function calling, qui permet de transformer une requête en action). Ce qui compte désormais, ce ne sont pas des volumes indistincts, mais des contenus certifiés, contextualisés et traçables, capables d’alimenter directement l’expérience utilisateur, une fenêtre entrouverte pour les éditeurs. Et face à une course où tout se mesure en volumes de données ingérables et en gigawatts de calcul, le meilleur atout reste peut-être ce que la Silicon Valley considère comme accessoire : l’expertise.
Le « San Francisco Consensus » : l’avenir selon Eric Schmidt
Pour Eric Schmidt, ancien patron de Google et figure centrale de la Silicon Valley, le RAISE Summit a été l’occasion de dérouler à Paris sa vision d’un « Brave New World » de l’IA. Selon lui, l’AGI, cette intelligence artificielle dite « générale », capable d’égaler les meilleurs humains dans la plupart des tâches, pourrait émerger dans les trois à cinq prochaines années. Et l’ASI, l’« intelligence super-humaine », dépassant cette fois toutes les capacités intellectuelles réunies, suivrait de près, à l’horizon de six ans. Il a précisé qu’il ne s’agissait pas d’une prédiction scientifique, mais d’un calendrier partagé par une grande partie de l’écosystème US, baptisé le « consensus de San Francisco ».
Une vision vertigineuse… et qui, comme par hasard, confirme surtout qu’il est urgent d’investir massivement dans les technologies portées par les figures de la baie. Pourtant (ou justement), Eric Schmidt décrit une situation qui a tout d’une bulle : « Nous sommes dans une phase de surconstruction, il y aura de la surcapacité dans quelques années, mais cela ne me dérange pas, les autres mourront. » Tout en insistant d’aller vite, il n’hésite pas à reconnaître ses propres angles morts. Il admet ainsi qu’en 2017, alors qu’il présidait encore Google, il n’avait même pas remarqué la publication du fameux article scientifique sur les Transformers, pourtant la base de toute l’IA générative actuelle.

Pour l’ancien patron de Google, nous n’assistons pas à une bulle, mais à la naissance d’une nouvelle industrie. Une industrie tirée avant tout par le matériel : chaque nouvelle capacité de calcul finit par trouver son usage. La limite, en revanche, est énergétique. Selon lui, les choses sont simples : en Europe, l’enjeu n’est pas l’algorithme mais l’électricité. « La France l’a, mais elle a choisi de la taxer », cingle-t-il. Et le chemin le plus court vers l’AGI, ajoute-t-il, passe par le nucléaire. Les faits semblent confirmer la tendance : Meta a signé en juin 2025 un contrat d’approvisionnement direct auprès d’une centrale nucléaire, Google avait déjà fait de même à l’automne 2024.
Eric Schmidt poursuit avec Andrew Feldman, patron de Cerebras : les systèmes s’auto-améliorent déjà, et les agents composent leurs propres solutions. L’enjeu n’est plus seulement technique mais politique : comment maintenir un alignement éthique et démocratique quand les modèles évoluent en continu, sans qu’aucune mise à jour ne vienne plus marquer de rupture identifiable ? Il convoque alors la voix de son ami disparu Henry Kissinger, avec qui il avait cosigné The Age of AI : « Qu’est-ce que cette magie ? Dieu ? ». Une provocation en forme d’avertissement : les démocraties survivront-elles à l’AGI ?
Le stratège de la Silicon Valley élargit aussitôt le cadre au champ géopolitique. Aux États-Unis, l’IA reste dominée par quelques géants et leurs modèles propriétaires, enfermés dans d’immenses data centers. La Chine, à l’inverse, pousse une stratégie d’« open source » : des modèles ouverts, largement soutenus par l’État, qui se diffusent rapidement à l’échelle mondiale. Résultat : dans le Sud global, ce sont déjà les modèles chinois qui irriguent la majorité des usages quotidiens. Eric Schmidt souligne le paradoxe : Washington peut conserver l’avance technologique, mais pas nécessairement l’influence culturelle. Et ce basculement, prévient-il, reste largement sous-estimé, surtout dans ces « pays où l’on ne va jamais » (selon lui), mais où se dessine déjà l’adoption réelle, et le futur.
Conclusion
L’IA n’est plus un récit abstrait mais une industrie lourde : treize usines programmées en Europe, dont quatre gigafactories, pour un investissement total estimé à 20 milliards d’euros. Mais Eric Schmidt a jeté un froid devant le Congrès américain : il faudra deux centrales nucléaires par centre de données, 92 nouvelles centrales nucléaires d’ici dix ans pour soutenir la course. Derrière l’enthousiasme, la matérialité brute des infrastructures et la facture énergétique esquissent un futur peu souhaitable. Dans ce paysage, une autre transformation se joue : du « software is eating the world » on passe à « everybody builds software ». Les outils de génération réduisent l’écart entre idée et exécution à quelques heures. Même les gestes du quotidien s’en trouvent traversés : Mark Minevich, Strategic Partner chez Mayfield, évoquait, non sans malice, sa boulangerie new-yorkaise qui revendique déjà des croissants optimisés par apprentissage automatique. Derrière l’anecdote, une tendance lourde : chaque employé peut désormais « parler à la donnée » et accéder directement à la complexité d’une entreprise. L’adoption ne suit plus les courbes classiques : elle déplace la valeur du process vers l’usage, de la logique des équipes vers celle des individus.
Et pendant que la scène se passionne pour l’AGI, la vraie bascule pourrait venir en douceur, presque sans bruit. Comme le smartphone qui a un jour remplacé nos clés, le portefeuille ou les billets de train sans que l’on s’en aperçoive. Ce n’est pas une bataille frontale entre les États-Unis et la Chine. L’Afrique, l’Asie du Sud, l’Asie du Sud-Est et d’autres zones encore sous le radar des cartes stratégiques imposent déjà leurs propres usages. Et avec eux, d’autres visions que celle de l’hyperscaling à marche forcée, promue par Sam Altman et les géants de la tech états-uniens. L’IA ne se résume pas aux LLM. Ni même au deep learning. Dans nombre d’organisations, des systèmes probabilistes, des architectures hybrides ou des modèles symboliques suffisent à produire de la valeur, sans GPU ni promesses de conscience artificielle. Un moteur de règles bien conçu peut parfois automatiser plus efficacement qu’un modèle à 70 milliards de paramètres.
Ce sont aussi ces voies frugales, contextualisées, souvent open source, qui se développent hors des discours dominants. En attendant, dans ce monde saturé, Internet se dédouble : d’un côté les humains, de l’autre les agents IA. Selon les experts réunis à Paris (tous plutôt du côté de l’hyperscaling), la vague suivante sera robotique, plus profonde encore que les textes générés, avec des agents qui ne se contentent plus de répondre mais qui explorent et interviennent. La souveraineté ne réside plus dans les corpus hérités mais dans les futures données générées en interaction avec l’IA. L’Europe souhaite rester souveraine tout en accédant aux technologies de pointe. Pour espérer prendre un temps d’avance, elle doit penser à la fois ses entreprises existantes et celles qui émergent. Et à mesure que l’IA devient de plus en plus capable de faire ce que nous faisons, reste à savoir ce que nous voulons faire demain.
Des cas d’usage qui prennent forme
- Snowflake : Dans un échange avec Roxanne Varza (Station F), Benoît Dageville a défendu l’ambition de transformer sa plateforme en « iPhone de la donnée », masquant la complexité technique pour offrir une interface en langage naturel.
- Sanofi : le groupe a présenté sa plateforme interne de GenAI et son « concierge », un agent orchestrant les tâches quotidiennes, avec un accent particulier sur la gouvernance responsable.
- Datadog et Miro : les deux acteurs ont souligné la difficulté d’embarquer les équipes au rythme de l’innovation, rappelant que les gains de productivité individuels ne suffisent pas à compenser la fragilité des usages collectifs.
- Nutanix et Nvidia : les deux ont promis un « full stack » simplifié pour les entreprises, de la salle serveur à l’edge.
Les « builders » en première ligne
La scène a aussi donné la parole à une nouvelle génération d’entrepreneurs.
- Lovable (Anton Osika) : il défend la thèse du « vibe-coding », transformer une idée en produit en quelques heures plutôt qu’en plusieurs mois. La start-up revendique jusqu’à 70 000 nouveaux projets créés par jour, 10 % de tous les nouveaux sites web mis en ligne dans le monde le mois dernier. Une trajectoire fulgurante confirmée par ses levées de fonds et la couverture média internationale.
- Cursor : avec son « agent mode », elle poursuit le même objectif : réduire l’écart entre idéation et exécution.
- Manus AI (Tao Zhang) : elle pousse l’idée d’un navigateur construit pour et par des agents, avec déjà 3,5 millions d’inscrits en liste d’attente.
Mini-glossaire
Agentique / agents : systèmes capables de planifier et d’exécuter une suite d’actions pour atteindre un objectif, au-delà de la simple génération de texte.
Latence : temps écoulé entre une requête et la réponse du système. Une faible latence est cruciale pour une expérience fluide.
Post-entraînement : phase d’ajustement qui suit l’entraînement initial des modèles. Elle inclut notamment :
- RLHF (Reinforcement Learning with Human Feedback) : apprentissage par renforcement à partir de retours humains.
- RLAIF (Reinforcement Learning with AI Feedback) : apprentissage par renforcement à partir de retours générés par un autre modèle d’IA.
- ainsi que l’intégration d’outils externes pour améliorer les performances.
Multitenancy : capacité d’une même infrastructure à être partagée par plusieurs clients ou applications, tout en restant isolée et sécurisée pour chacun.
Edge : traitement et exécution au plus près de la source de données (sur l’appareil lui-même ou dans un site industriel), plutôt que dans des serveurs distants hébergés dans le cloud.

Lectures d’été #2
Que vous soyez à la mer, à la montagne ou en ville, l’été reste un moment propice pour penser autrement. Voici la deuxième partie de notre sélection : des ouvrages et des podcasts pour interroger les mutations en cours dans les médias, la tech et la société.
Le Double, Voyage dans le Monde miroir – Naomie Klein
Dans Le Double, Naomi Klein part d’un malentendu devenu viral : sa confusion répétée avec Naomi Wolf, autrefois figure du féminisme progressiste, aujourd’hui proche des sphères complotistes de l’extrême droite américaine. Ce point de départ lui permet d’explorer un phénomène plus vaste : la manière dont les idées de la gauche ont été retournées, détournées et absorbées par une nébuleuse réactionnaire qui en mime les codes tout en en pervertissant le sens. Klein enquête sur ce “monde miroir” où se croisent doubles numériques, identités fracturées, désinformation algorithmique et stratégies de récupération idéologique.
À mi-chemin entre essai politique et récit personnel, le livre propose une lecture incisive du brouillage contemporain entre vrai et faux, engagement et simulacre. Il éclaire avec finesse les dérives de l’espace public numérique, les angles morts du progressisme, et la manière dont certains récits se retournent contre ceux qui les ont portés. Le Double est autant une plongée dans l’écosystème confusionniste actuel qu’un appel à repenser les conditions d’une solidarité lucide face aux distorsions du réel.

In the Long Run – Jonathan White
Dans In the Long Run, le politologue Jonathan White s’interroge sur la capacité des démocraties à maintenir leur lien organique avec l’avenir à un moment où celui-ci semble de plus en plus bouché. Climat, pandémies, guerres, récession : les crises actuelles mettent à mal l’idée que demain pourra corriger les erreurs d’aujourd’hui. Dans cette histoire des idées aussi lucide que stimulante, White explore comment la politique s’est longtemps structurée autour de visions changeantes du futur – des idéologies du XIXe siècle aux secrets de la guerre froide, jusqu’aux excès de l’ère néolibérale. Alors que la sensation d’un désastre permanent s’impose dans nos imaginaires collectifs, il plaide pour une réhabilitation du temps long comme levier de régénération démocratique.
Le livre résonne fortement avec les enjeux contemporains de l’action publique, de la planification et du récit. White ne propose pas de solution miracle, mais offre une grille de lecture précieuse pour comprendre les blocages actuels. Une lecture utile pour celles et ceux qui s’intéressent à la fabrique des choix collectifs, aux récits politiques, ou à la manière dont les médias peuvent – ou non – rouvrir l’horizon.

Petite philosophie des mobilités, La route, école de la patience – Apolline Guillot et Anne Lavaud
Dans La route, école de la patience, Apolline Guillot et Anne Lavaud proposent une réflexion singulière sur nos expériences de la mobilité, à rebours de l’obsession contemporaine pour la vitesse et l’optimisation. Loin de se limiter à une dénonciation des embouteillages, cet essai en fait un objet philosophique : un révélateur de nos attentes, de nos agacements, mais aussi de notre capacité à intégrer le ralentissement comme une forme de résistance douce à l’accélération généralisée. La patience y est pensée non pas comme une vertu passive, mais comme une manière active de reprendre la main sur son propre rythme.
Croisant références philosophiques (notamment Bergson) et scènes de la culture populaire comme La La Land, les autrices proposent une lecture sensible et politique de la route, envisagée comme un espace paradoxal de démocratisation et d’apprentissage collectif. Là où l’immobilité nous rend égaux dans l’attente, se joue peut-être une nouvelle manière d’habiter le temps. Un essai bref mais dense, qui ouvre des pistes inattendues pour penser les mobilités autrement — au-delà des seules infrastructures.

Media Confidential – Alan Rusbridger et Lionel Barber
Media Confidential est un podcast animé par deux figures majeures du journalisme britannique : Alan Rusbridger, ancien rédacteur en chef du Guardian, et Lionel Barber, ex-directeur du Financial Times. Chaque semaine, ils accueillent des invités influents pour analyser les grands enjeux des médias contemporains : transformations numériques, crise de confiance, montée de l’intelligence artificielle, concentration des pouvoirs, etc.
Le podcast propose des entretiens approfondis ainsi que des épisodes plus courts répondant aux questions des auditeurs. Produit par Prospect Magazine et diffusé sur Acast, Apple Podcasts ou Spotify, Media Confidential offre un regard exigeant et sans concessions sur l’état du journalisme aujourd’hui.

🎧 A écouter en particulier, l’épisode : Why AI companies don’t want journalism to exist
Sauvons le débat: Osons la nuance – Didier Pourquery
Dans Sauvons le débat, Didier Pourquery, président de The Conversation France, défend une idée simple mais puissante : la nuance n’est pas un luxe, c’est une nécessité démocratique. Face à la saturation médiatique, aux formats spectaculaires et à la défiance généralisée envers les institutions du savoir, il appelle à réhabiliter l’écoute, le doute, et la curiosité comme conditions d’un dialogue politique véritable. Pourquery déconstruit les faux débats de plateau, ces simulacres de confrontation où l’arrogance remplace l’échange, et propose une alternative fondée sur des conversations honnêtes, ancrées dans le réel et nourries par les savoirs.
Loin d’un plaidoyer abstrait, ce livre mêle réflexions philosophiques (de Montaigne à Camus) et expériences concrètes d’éducation aux médias ou de sciences participatives. Il s’adresse à toutes celles et ceux qui cherchent à comprendre comment reconstruire un socle commun dans une société fragmentée. À l’heure où la vérité semble battue en brèche par le bruit, Sauvons le débat est un manuel pour retrouver, pas à pas, les conditions d’un désaccord fécond. Une lecture salutaire pour quiconque refuse de céder à la logique du clash permanent.
➡️ L’interview menée par Alexandra Klinnik figure dans le dernier cahier de tendances Bienvenue en Post-réalité, page 116

Superagency: What Could Possibly Go Right with Our AI Future – Reid Hoffman et Greg Beato
Plutôt que de s’attarder sur les scénarios catastrophes autour de l’intelligence artificielle, Superagency propose un contre-récit assumé : celui d’un futur optimiste, façonné par une IA mise au service des capacités humaines. Coécrit par Reid Hoffman, entrepreneur emblématique de la tech (LinkedIn, Inflection AI) et fin observateur des transformations sociétales, le livre offre un plaidoyer pour une IA qui augmente l’autonomie individuelle, facilite l’accès à la connaissance, et élargit le champ des possibles – dans l’éducation, la santé ou la vie publique.
S’il n’élude ni les risques (désinformation, mutation de l’emploi), ni les responsabilités, Superagency trace un cap lucide mais résolument tourné vers l’action. Le duo Hoffman–Beato imagine un avenir où l’IA n’est ni une menace ni une solution miracle, mais un levier stratégique pour renforcer les capacités humaines et créer de nouvelles solidarités (à bon entendeur). À la croisée du manifeste et de l’essai prospectif, l’ouvrage s’adresse à ceux qui veulent contribuer à définir le futur plutôt que le subir.

L’heure des prédateurs – Giuliano da Empoli
Giuliano da Empoli prolonge son travail d’exploration des logiques du pouvoir contemporain entamé avec Le Mage du Kremlin. Cette fois, il quitte les coulisses russes pour dresser une cartographie globale des nouveaux prédateurs de l’ordre mondial : autocrates hyperconnectés, oligarques de l’IA, trolls d’État, chefs d’entreprise en croisade idéologique. Dans un monde où les présidents se rêvent rois et où la brutalité algorithmique remplace la diplomatie, da Empoli livre une enquête en immersion sur la fin de la géopolitique classique et l’émergence d’une nouvelle religion.
Le livre mêle scènes réelles, rencontres confidentielles et observations politiques acérées, de Riyad à New York. Plus qu’un essai, c’est un avertissement : les règles ont changé, et les démocraties qui persistent à jouer à l’ancien jeu risquent l’effacement. Da Empoli capte l’air du temps avec la précision d’un stratège et la lucidité d’un romancier. Une lecture essentielle pour comprendre comment, à l’ère des empires numériques et des régimes performatifs boostés à l’IA, l’histoire est en train de basculer.

Abundance – Ezra Klein et Derek Thompson
Avec Abundance, Ezra Klein (The New York Times) et Derek Thompson (The Atlantic) proposent une refondation ambitieuse du libéralisme américain. Leur thèse est simple : la grande crise du XXIe siècle n’est pas d’abord idéologique ou identitaire, mais matérielle. Ce n’est pas que l’Amérique manque de ressources — c’est qu’elle a cessé de construire. Faute de logements, d’infrastructures vertes, de systèmes efficaces, et d’un appareil public capable d’agir vite et bien, le pays est paralysé par ses propres règles. Ce blocage structurel, souvent hérité des bonnes intentions du passé, produit désormais rareté, frustration et immobilisme.
Le livre, à la fois incisif et pédagogique, ne se contente pas de critiquer : il avance un programme de « politique de l’abondance » qui dépasse les clivages habituels. Aux libéraux, Klein et Thompson demandent de reconnaître les échecs de l’État ; aux conservateurs, d’admettre qu’il faut parfois reconstruire du commun. Leur projet vise à redonner aux institutions la capacité de faire, et aux citoyens le droit d’espérer. En ces temps de colère, Abundance propose une voie politique audacieuse, réformatrice et résolument tournée vers l’action.

Hard Fork – Kevin Roose et Casey Newton
Et on remet le podcast « Hard Fork » diffusé par le New York Times, animé par Kevin Roose et Casey Newton, un guide indispensable dans un monde technologique en constante évolution. « Qu’est-ce qui est réel ? Qu’est-ce qui relève de l’exagération ? » — une interrogation récurrente chez eux, en parfaite résonance avec les questions que soulève notre cahier de tendances. Chaque semaine, ils offrent une analyse claire des dernières nouveautés tout en critiquant les dérives de l’industrie. Le dernier épisode propose une interview tirée de « Interesting Times with Ross Douthat », l’un des tout nouveaux podcasts du New York Times. Dans cet épisode, Ross reçoit Peter Thiel, cofondateur de PayPal et Palantir, et l’un des penseurs les plus iconoclastes de la tech. Ensemble, ils décortiquent la théorie de Thiel selon laquelle nous vivons une époque de stagnation technologique, et débattent de la question suivante : le populisme de Donald Trump et le développement de l’intelligence artificielle permettront-ils de relancer le progrès ?

Débrancher les dieux – Manifeste pour une insurrection de la pensée
Les frontières entre réalité et illusion s’effacent sous l’effet des intelligences artificielles et une prédiction formulée dès les années 1990 par Nicholas Negroponte dans son ouvrage Being Digital semble s’accomplir : la dématérialisation croissante des interactions humaines. Jamais l’accès au savoir n’a paru aussi vaste, jamais la science n’a été aussi performante, et pourtant jamais les faits n’ont paru aussi fragiles, réduits à de simples croyances effeuillées sur les pages d’un missel en silicone — sacré numérique d’un monde sans dieu.
Par Clément Labréa (pseudonyme)
Loin d’un rejet nostalgique du progrès, je demeure un admirateur inconditionnel des puissances techniques, de la beauté — pour moi inintelligible — du code, de la grâce des systèmes bien conçus. Mais cette fascination n’exclut pas la vigilance. Aimer la technologie ne signifie pas s’y soumettre ; cela implique, au contraire, d’en interroger sans relâche les usages et les dérives.
Peut-être faut-il admettre que ce désordre ne nous est pas tombé dessus : il est le fruit de nos abandons successifs, de notre complaisance, et d’une fainéantise existentielle érigée en norme. Notre époque évoque le paysage dépeint par Douglas Coupland dans Génération X : une société saturée d’informations, où le sens profond et les repères s’érodent, engloutis dans une mer d’indifférence.
La technologie promettait une société éclairée, connectée et informée où l’Homme gagnerait en autonomie, mais elle accompagne paradoxalement — en l’armant — une montée sans précédent de populismes et de dérèglements, rendant à nouveau possibles l’impensable et l’indicible.
Désormais, ce ne sont plus des interfaces, ni même des outils : ce sont des entités logicielles, des agents intelligents, dotés d’autonomie fonctionnelle, de capacité d’adaptation, et d’un objectif assigné : optimiser nos intérêts. Ces entités logicielles apprennent, déduisent, trient nos flux, planifient nos actions, engagent nos ressources. Invisibles, elles deviennent nos délégués, parfois nos substituts. Elles choisissent, nous acquiesçons. Elles décident, nous consommons. C’est là que réside le glissement décisif : ce confort délégué, devenu norme tacite, achève de nous délester du peu qu’il restait à faire. Et c’est ainsi, dans une logique d’efficience algorithmique, qu’elles nous libèrent de la nécessité même de penser et de choisir, actes souvent perçus comme des souffrances.
Qu’il est bon de reléguer le fardeau de l’intention aux machines : cette abdication consentie devient addiction à la paresse, et fait déjà tomber nos inhibitions, nos garde-fous, notre capacité à résister.
Qu’il est bon de reléguer le fardeau de l’intention aux machines : cette abdication consentie devient addiction à la paresse, et fait déjà tomber nos inhibitions, nos garde-fous, notre capacité à résister. Et pendant que la pensée se délite, les despotes en claquettes s’installent tranquillement, t-shirt Prada, pantalon The Row, sneakers Common Projects. Steve Jobs avait ouvert la voie : New Balance 990 de retraité californien, jean neige sans grâce, col roulé noir d’apparatchik zen. Il avait inventé l’uniforme du faux moine, la tenue liturgique du prophète milliardaire, version Cupertino. Il incarnait déjà cette esthétique de l’ascèse, en mode stealth wealth. Une manière de dominer sans bruit, d’écraser en coton peigné. Derrière le minimalisme, la toute-puissance. Derrière le confort, la soumission.
Beaucoup dénoncent la technologie à la légère, comme on fustige un écran en terrasse ou un robot conversationnel sans en comprendre la logique profonde. Cette critique facile m’agace : elle ignore que nous sommes tous, déjà, technologiquement constitués. Il ne s’agit pas de condamner l’outil — mais de refuser qu’il dicte nos formes de vie. Je suis technophile, mais je refuse l’obéissance automatique. Technicien, mais jamais soumis.
Face à cette nouvelle forme de réalité, où le progrès coexiste avec l’obscurantisme et la délégation croissante de notre agentivité à l’intelligence artificielle, la question s’impose avec force : pourquoi continuer à penser, à raisonner, à chercher la vérité si l’ignorance, le cynisme et l’indifférence semblent offrir plus de garanties ? Dans ce contexte troublé, la réflexion n’est-elle devenue qu’un luxe inutile ? Se moquera-t-on un jour de ceux qui persistent à penser ? Raillera-t-on ceux qui lisent encore, doutent encore, refusent de s’en remettre à la machinerie des certitudes algorithmiques ? La machine ne brûle pas les livres, elle les rend silencieux. On m’a dit un jour : tout ce qui ne vient pas du Livre est œuvre du Diable. Aujourd’hui, ce n’est plus un dogme religieux qui interdit la pensée, mais une norme automatisée qui l’étouffe.
Dans ce contexte troublé, la réflexion n’est-elle devenue qu’un luxe inutile ? Se moquera-t-on un jour de ceux qui persistent à penser ?
« The future is in the past », disait Nigo. Le pire n’est pas à craindre : il est là, sous nos yeux, banalisé, absorbé, digéré par l’époque. Nous ne sommes pas à l’aube d’une dystopie, nous vivons déjà dans sa version bêta, sans rébellion, sans sursaut. Et nous sommes, oh nous, frères humains, les seuls responsables. Alors que le progrès technique atteint des sommets inédits, nous tolérons que la pensée se délite, que la science se relativise, que la vérité devienne opinion parmi d’autres. Comment a-t-on laissé faire ? Comment a-t-on laissé revenir la barbarie algorithmique, politique, ordinaire ?
Ce texte ne propose pas un bilan, mais une dissection : de la dépossession douce de nos esprits à l’érosion de nos repères, des prophètes en sneakers aux puissances numériques en roue libre, il trace les contours d’un monde où tout est devenu conditionnel — sauf notre abdication.
L’éthique hacker : des origines libertaires à l’ère de la fermeture
L’éthique hacker naît dans le creuset d’une contre-culture technologique, à la croisée des utopies cybernétiques et des idéaux libertaires des années 1960-70. Elle se structure non pas comme un programme politique, mais comme une praxis, une manière d’habiter les machines en les comprenant, en les détournant, en les partageant. Dans les laboratoires du MIT ou dans les garages californiens, les hackers voyaient dans l’ordinateur non un instrument de pouvoir, mais un vecteur d’émancipation. Il s’agissait de démocratiser l’accès à la machine, de repousser les frontières du possible, de refuser toute centralisation du savoir. L’ordinateur personnel n’était pas encore un produit : il était une extension de l’esprit, un outil de libération cognitive.
Steven Levy en formalise les principes dans son ouvrage fondateur Hackers: Heroes of the Computer Revolution (1984), dressant une typologie morale : ouverture de l’information, méfiance vis-à-vis de l’autorité, culte du mérite technique, et surtout, foi dans le potentiel social de l’informatique. Cette philosophie trouve un écho retentissant dans les initiatives de Richard Stallman, programmeur emblématique du MIT et figure fondatrice du mouvement du logiciel libre. Visionnaire, presque messianique, Stallman voit dans le logiciel libre non seulement un enjeu technique, mais une lutte éthique contre la privatisation du code et l’aliénation numérique. À travers le projet GNU et la Free Software Foundation, il érige le logiciel libre comme un droit fondamental : pouvoir exécuter, comprendre, modifier, partager – autant de gestes politiques dans un monde numérique naissant.
Cet esprit d’ouverture se cristallise également autour du Homebrew Computer Club, espace communautaire fondé sur le partage du hardware, du savoir-faire, des circuits imprimés bricolés et des systèmes d’exploitation artisanaux. Steve Wozniak y conçoit l’Apple I puis l’Apple II dans cette optique d’ouverture – produits que chacun peut démonter, réparer, comprendre. L’informatique est encore une exploration collective, un territoire à conquérir main dans la main.
L’informatique est encore une exploration collective, un territoire à conquérir main dans la main.
Mais cette utopie va rapidement se heurter aux logiques de marché, à l’impératif de rentabilité, à la conquête du contrôle. Le tournant symbolique s’incarne dans le lancement du Macintosh en 1984. Steve Jobs, inspiré par les recherches du Xerox PARC— et profondément marqué par la légendaire Mother of All Demos de Doug Engelbart en 1968, impose une vision industrielle du produit numérique : fini les circuits accessibles, place à l’interface soignée, au système fermé, à l’expérience utilisateur prémâchée. Le Macintosh devient une boîte noire esthétique : belle, fluide, mais hermétique. On ne comprend plus la machine, on la consomme.
Ce glissement ne relève pas du hasard, mais d’un choix stratégique : verrouiller pour fidéliser, maîtriser pour monétiser. Là où l’éthique hacker valorisait l’expérimentation, la bidouille, la subversion des normes, le modèle industriel d’Apple inaugure l’ère des écosystèmes clos, où chaque interaction est calibrée, chaque usage anticipé. Derrière l’obsession de la simplicité se cache la dépossession de l’usager, réduit à un rôle de consommateur captif.
La fermeture devient peu à peu la norme. Le code source se privatise, les formats deviennent propriétaires, les systèmes d’exploitation se referment sur eux-mêmes. Même le Web, initialement conçu comme un espace décentralisé, libre, interopérable, est progressivement phagocyté par des plateformes qui filtrent, hiérarchisent, modèrent, monétisent. L’esprit hacker, réduit à une esthétique marginale, est exilé des grandes architectures numériques contemporaines. Les entreprises qui se présentaient autrefois comme les héritières des pionniers libertaires (Apple, Google, Facebook) sont devenues les gardiennes d’un ordre technologique opaque, centralisé, gouverné par des logiques d’optimisation algorithmique et de verrouillage systémique.
Il faut donc interroger cette dérive non comme une simple trahison morale, mais comme une mutation structurelle : l’éthique hacker n’a pas disparu par désintérêt, mais parce qu’elle s’oppose frontalement aux mécanismes de captation et d’extraction de valeur qui dominent l’économie numérique. Dans cette ère de fermeture, ce ne sont plus des passionnés qui façonnent la technique, mais des architectes de l’opacité, des stratèges de la rétention attentionnelle, des ingénieurs du contrôle.
…l’éthique hacker n’a pas disparu par désintérêt, mais parce qu’elle s’oppose frontalement aux mécanismes de captation et d’extraction de valeur qui dominent l’économie numérique.
Et c’est ainsi que les héros de la révolution numérique, porteurs d’une promesse d’autonomie, sont devenus les agents d’une dépossession méthodique. Le hacker bricoleur, libre et subversif, a été supplanté par le codeur salarié, invisible, soumis aux deadlines, intégré dans des flux de production opaques. Les outils qu’ils fabriquaient pour libérer sont devenus les armes de notre aliénation.
De l’économie de l’attention à la captation algorithmique
La révolution numérique grand public a commencé avec une promesse : celle d’un Internet ouvert, accessible, émancipateur. Un espace décentralisé où chacun pourrait publier, échanger, créer. L’économie numérique naissante se rêvait en écosystème égalitaire. Les fondateurs de Google affichaient l’ambition naïve de ne « pas faire le mal », Facebook se voulait réseau social apolitique, et Amazon… une librairie.
Mais dès la fin des années 1990, les choses se structurent autrement. Derrière les interfaces épurées, les lignes de code s’optimisent pour autre chose : la captation de flux. En 1998, Google introduit PageRank, algorithme capable de hiérarchiser les pages en fonction de leur popularité. L’idée semble simple, mais elle est décisive : la donnée comportementale devient une ressource stratégique. Ce n’est plus l’information qui a de la valeur, mais la trace laissée par celui qui la consulte. Le clic devient actif, mesurable, actionnable.
Ce n’est plus l’information qui a de la valeur, mais la trace laissée par celui qui la consulte.
Les géants du Web comprennent rapidement ce levier. L’économie de l’attention émerge comme un modèle fondé sur la rétention, non sur la satisfaction. Il ne s’agit plus de proposer une réponse, mais de maintenir l’utilisateur dans la boucle. La valeur n’est plus dans le produit, mais dans le comportement qu’il déclenche. Le scrolling infini, les notifications, les recommandations automatiques : autant de mécanismes conçus pour maximiser la durée d’engagement. Ce que les neurosciences ont confirmé plus tard, les ingénieurs l’ont déjà implémenté.
Dans cette dynamique, la loi de Metcalfe agit comme un amplificateur systémique. Plus il y a d’utilisateurs sur une plateforme, plus sa valeur et son attractivité augmentent. Le réseau devient dominant par effet d’échelle. Facebook écrase MySpace. Google élimine Altavista. Amazon étouffe tout concurrent par sa maîtrise de la logistique et de la donnée. Chacun construit son jardin clos, ses walled gardens : des écosystèmes fermés, où tout est intégré — de la recherche à la publicité, du contenu au paiement. L’utilisateur ne sort plus. Il est à l’intérieur, instrumentalisé, profilé, exploité.
Dès les années 2005-2006, le ciblage publicitaire s’affine avec l’essor des cookies tiers, du tracking inter-app, et des premières bases de données comportementales massives. La publicité programmatique devient centrale : il ne s’agit plus de montrer un produit, mais d’anticiper un désir. Google Analytics, Facebook Ads, Amazon Marketplace… Chaque interaction est mesurée, chaque action est un signal. Les plateformes observent, testent, modifient en temps réel. Le comportement est découpé, modélisé, optimisé. C’est un changement structurel : la donnée devient non plus un sous-produit, mais le produit.
La publicité programmatique devient centrale : il ne s’agit plus de montrer un produit, mais d’anticiper un désir.
À partir de 2010, une bascule s’opère. L’accumulation massive de données personnelles alimente une nouvelle technologie en pleine émergence : l’intelligence artificielle. Les systèmes de machine learning — et bientôt de deep learning — transforment la donnée en prédiction. Les modèles comportementaux apprennent à adapter l’interface, à filtrer les contenus, à affiner les suggestions. YouTube ne vous recommande plus ce qui est pertinent, mais ce qui retiendra votre attention. Facebook ne vous montre plus ce que vous aimez, mais ce qui suscitera une réaction émotionnelle. On entre dans l’ère des architectures cognitives manipulatoires.
C’est aussi à ce moment qu’apparaît une voix interne, discordante : Tristan Harris, designer éthique chez Google, alerte dès 2013 sur la dérive en cours. Son fameux Time Well Spent met en lumière ce que les plateformes savent déjà : elles ne sont plus neutres. Elles orientent, sélectionnent, poussent. L’attention est exploitée comme une matière première, la conscience humaine devient un espace de marché. Ce n’est plus un service, c’est une dépendance organisée.
Mais personne n’écoute vraiment. Les résultats sont là, les courbes montent. Les dirigeants restent dans la course à l’optimisation. Harris quitte Google. L’industrie, elle, double la mise. Le modèle est trop performant, trop rentable pour être révisé. Et la prochaine étape est déjà enclenchée : modéliser l’intention avant même qu’elle n’émerge. Non plus seulement vous retenir, mais vous orienter. Non plus répondre à vos besoins, mais les générer.
En 2013, les conditions sont réunies pour le grand verrouillage : infrastructures fermées, économie de l’attention à maturité, explosion du mobile, et montée en puissance de l’intelligence artificielle. Ce qui suit n’est plus un perfectionnement : c’est une inflexion éthique. Les fondateurs de l’Internet libre, grisés par leur succès, vont progressivement se transformer, non plus en innovateurs, mais en gestionnaires d’empire. La pensée critique est écartée. Les principes sont archivés. La croissance devient un absolu.
Et c’est ainsi que les pionniers du lien deviennent les maîtres de la captation.
Et c’est ainsi que les pionniers du lien deviennent les maîtres de la captation. Pas par malveillance, mais par abandon. Parce qu’ils n’ont pas vu — ou pas voulu voir — que la machine qu’ils avaient créée avait cessé de leur obéir.
La compromission des valeurs fondatrices au profit de la domination
Il fallait bien que des visages émergent, que des figures incarnent la trajectoire vertigineuse du numérique : son enthousiasme initial, ses dérapages, ses mutations. Ce sont eux, les édiles de la Silicon Valley, enfants terribles du code et du capital, devenus les chefs spirituels d’un monde sans transcendance. Elon Musk, Mark Zuckerberg, Jeff Bezos, Peter Thiel, mais aussi Larry Page ou Reid Hoffman : autant d’individualités marquées par une double culture — celle du génie technique et de l’idéologie libertarienne. Dans leurs trajectoires, dans leurs discours, dans leurs choix, on lit une rupture nette : celle du renoncement à l’idéal d’un Internet commun pour embrasser une logique de conquête totale.
Au départ, leur vision du monde repose sur une forme de foi. Une foi dans la technique comme force de progrès, dans l’individu comme moteur du collectif, dans le marché comme instance de régulation. Peter Thiel résume cet imaginaire lorsqu’il affirme que la liberté ne peut exister qu’en dehors de la démocratie. Derrière ce paradoxe provocateur se cache une conception très américaine de l’autonomie : la liberté radicale, la volonté de faire sécession, de bâtir hors du cadre, au nom d’une vérité supérieure — l’innovation.
S’ils investissent dans l’espace, ce n’est pas uniquement pour explorer : c’est pour réinitialiser.
Ce que beaucoup en Europe n’ont jamais totalement saisi, c’est ce fond mythologique qui structure la Silicon Valley : la ruée vers l’Ouest, l’idée d’une terra incognita à conquérir, d’un espace vierge à modeler selon ses propres règles. Ce n’est pas un hasard si l’espace — au sens strict — devient l’horizon de leurs ambitions : SpaceX pour Musk, Blue Origin pour Bezos. “Sky is not the limit” devient une devise réelle, un programme politique. Ils ne veulent pas seulement innover : ils veulent s’arracher au monde. Recommencer ailleurs. S’ils investissent dans l’espace, ce n’est pas uniquement pour explorer : c’est pour réinitialiser.
Mais cette volonté de dépassement finit par contourner une exigence fondamentale : l’éthique. Car tout ne peut pas être soumis à la seule volonté individuelle, surtout lorsque celle-ci est soutenue par des moyens illimités. Et c’est là que réside le renoncement : non dans l’ambition elle-même, mais dans le refus d’en assumer les conséquences humaines, sociales, politiques. Ces dirigeants ont cessé d’ajuster leur action à une boussole morale. Fascinés par l’ampleur de leur pouvoir, ils en ont oublié l’origine : un idéal partagé de progrès collectif.
Prenons Amazon. Partie d’une simple librairie en ligne, l’entreprise de Jeff Bezos est devenue une infrastructure planétaire. Commerce, logistique, hébergement cloud, assistant vocal, données de santé, services publics délégués : Amazon est partout. Chaque semaine, un à deux colis Amazon arrivent dans ma boite à lettre. C’est une prouesse technique et organisationnelle hors norme. Mais à quel prix ? Le traitement des travailleurs, l’obsession de la productivité, l’évitement fiscal, la pression sur les villes, la déshumanisation de la relation commerciale — tout cela signe une rupture. Amazon n’est plus un acteur du progrès, c’est un système qui s’impose par saturation.

Twitter, racheté par Elon Musk en 2022, est l’exemple le plus caricatural — mais pas le moins symptomatique — d’un effondrement éthique. Ce réseau, autrefois fragile agora d’opinions, est devenu un jouet idéologique. Musk, oscillant entre provocateur libertarien, entrepreneur mégalomane et prophète de la disruption, a détruit en quelques mois les mécanismes déjà précaires de régulation et de modération. Derrière l’alibi de la liberté d’expression, c’est un chaos rentable qui s’est installé. Les algorithmes deviennent opaques, la parole haineuse remonte à la surface, les repères explosent. Ce n’est plus une plateforme : c’est un champ de bataille algorithmique, gouverné par l’imprévisible.
Facebook, devenu Meta, représente un cas à part. Là où Amazon fascine et inspire par sa performance logistique et où Google impressionne par ses avancées scientifiques (notamment avec DeepMind), Facebook est devenu une mécanique toxique. Captation de données massives, manipulation électorale, promotion de contenus radicaux, opacité délibérée des systèmes : la plateforme a méthodiquement trahi ses promesses. Son obsession du “temps passé” a conduit à la destruction méthodique du débat public, à la polarisation massive, à l’effondrement de la confiance sociale. Zuckerberg, muré dans son monde virtuel, n’a jamais assumé ces dérives. Meta est devenu le miroir froid d’un monde dysfonctionnel qu’il prétendait connecter.
Google, lui, offre un tableau plus ambivalent. S’il participe au modèle attentionnel et exploite massivement les données, il reste l’un des seuls acteurs à avoir maintenu une forme de ligne intellectuelle. Ses travaux sur l’IA (notamment via DeepMind), son investissement dans la recherche, son refus partiel du sensationnalisme algorithmique, laissent une trace d’intégrité scientifique. Cela ne suffit pas à absoudre, mais cela nuance. Apple, enfin, tient une position à part. Son modèle repose moins sur la captation de l’attention que sur la vente d’un environnement maîtrisé. Oui, l’écosystème est fermé, exclusif, élitiste et surtout premium. Mais la protection de la vie privée est réelle, assumée. Dans ce paysage, Apple reste peut-être la seule grande entreprise technologique à n’avoir jamais misé sur l’addiction comme stratégie de croissance.
Au fond, ce n’est pas tant le pouvoir de ces entreprises qui pose problème, que le fait qu’elles ne reconnaissent plus aucune forme de contre-pouvoir. Leur domination s’est construite sur une idéologie de la performance, qui a fini par remplacer toute forme d’éthique. La régulation est perçue comme un obstacle, la critique comme une attaque, la responsabilité comme une option. Le renoncement ne se manifeste pas par un grand discours, mais par une série de petits gestes : une fermeture, un silence, une fuite en avant. Ils étaient les pionniers d’un monde ouvert. Ils sont devenus les maîtres d’un monde clos.
Ils étaient les pionniers d’un monde ouvert. Ils sont devenus les maîtres d’un monde clos.
Il ne faudrait pas oublier Sam Altman, dernier venu dans cette galerie des prophètes dévoyés, qui incarne à sa manière la transition vers une nouvelle ère : celle des intelligences génératives. Ancien président de Y Combinator, figure respectée de la Valley, Altman fut couronné un temps « meilleur entrepreneur de la Silicon Valley ». Il coche toutes les cases : charisme de conférence TED, croyance affichée dans le progrès exponentiel, discours sur l’avenir de l’humanité sous stéroïdes technologiques. Il est le promoteur acharné d’une IA mainstream qui n’est plus simplement un outil, mais une infrastructure possiblement cognitive. Avec OpenAI, qu’il transforme progressivement en société commerciale adossée à Microsoft (49 % du capital), il impose une nouvelle mythologie : celle du modèle fondationnel, totalisant, incontournable.
Pourtant, rien n’est véritablement inventé. OpenAI a bâti son empire sur un socle conceptuel produit ailleurs : le modèle Transformer, détaillé en 2017 dans la publication fondatrice de Google Attention Is All You Need, sert de base à GPT. L’intuition originale vient de chez Google Brain. OpenAI a affiné, entraîné, industrialisé — mais à partir d’une technologie conçue par d’autres. Derrière la révolution annoncée, il y a donc un recyclage stratégique, un timing parfait, un flair entrepreneurial. Et une forme de captation.
À ses côtés, Ilya Sutskever, cofondateur et directeur scientifique, incarne le génie pur : ex-Google Brain, ancien élève de Geoffrey Hinton, capable de plier les réseaux neuronaux à sa volonté. Visionnaire, mais insaisissable. Il est le reflet exact de cette époque : surdoué, isolé, convaincu d’œuvrer pour un bien supérieur, tout en acceptant que ce bien soit financé, capté, canalisé par une multinationale cotée en bourse. Jusqu’à ce qu’il vacille. En novembre 2023, il participe à l’éviction de Sam Altman — geste rare, presque tragique, signe d’une conscience en surchauffe face aux dérives de l’entreprise qu’il a contribué à créer. OpenAI, qui se voulait à l’origine une organisation non lucrative pour “sauver l’humanité de l’IA”, est aujourd’hui une pièce maîtresse du portefeuille Microsoft. Là encore : idéal au départ, stratégie en définitive.
Il est le promoteur d’une hyper-réalité algorithmique, où le vrai, le faux, l’inutile et l’intense se mélangent au point de neutraliser toute perception claire.
Altman, comme Musk, Bezos ou Zuckerberg, incarne cette ambivalence permanente : entre avant-garde intellectuelle et cynisme tactique, entre messianisme et capitalisme dur. Il ne dissipe pas la confusion générée par ses systèmes, il l’exploite. Il ne guide pas vers la connaissance, il organise la dépendance cognitive. Il est le promoteur d’une hyper-réalité algorithmique, où le vrai, le faux, l’inutile et l’intense se mélangent au point de neutraliser toute perception claire.
Concentration financière et domination du marché
À la fin de l’année 2024, les cinq grandes entreprises technologiques américaines — Apple, Microsoft, Amazon, Alphabet (Google) et Meta — ont atteint une concentration financière inédite dans l’histoire du capitalisme. Ensemble, elles représentaient environ 25 % de la capitalisation boursière totale des États-Unis, pour une valeur combinée proche de 15 000 milliards de dollars. Microsoft dominait ce classement avec une capitalisation de 3 260 milliards de dollars, devant Apple et Amazon, confirmant la centralité stratégique de l’industrie numérique dans les équilibres macroéconomiques contemporains.
Mais cette concentration n’est pas uniquement financière. Elle est aussi fonctionnelle. Ces entreprises contrôlent désormais les principaux leviers d’infrastructure, d’information et d’influence. Dans le domaine du cloud, trois acteurs — Amazon Web Services, Microsoft Azure et Google Cloud — se partagent plus de 70 % du marché mondial, qui a généré à lui seul 90 milliards de dollars de revenus au dernier trimestre 2024. En matière de systèmes d’exploitation mobiles, Apple et Google totalisent à eux deux près de 99 % du marché mondial (iOS et Android). Du côté des messageries, des moteurs de recherche, des services de cartographie, de la publicité programmatique ou encore des objets connectés, la situation est identique : oligopoles consolidés, barrières à l’entrée infranchissables, architecture technique verrouillée.
Cette domination horizontale s’est progressivement accompagnée d’une extension verticale vers des secteurs non technologiques. Amazon est désormais un acteur incontournable du domaine logistique, de la distribution alimentaire (Whole Foods) et de la santé (One Medical, Amazon Care). Google investit dans les biotechnologies et les neurosciences via Calico, Verily ou DeepMind Health. Microsoft contrôle de facto le secteur de l’IA générative par l’intermédiaire de sa prise de participation stratégique dans OpenAI (49 %), devenant ainsi copropriétaire de l’infrastructure cognitive mondiale. Elon Musk, de son côté, a unifié ses ambitions industrielles sous une logique transhumaniste : espace (SpaceX), transport (Tesla), intelligence artificielle (xAI), interface neuronale (Neuralink), communication satellitaire (Starlink), plateformes sociales (X). Tous ont franchi un seuil : celui où l’innovation n’est plus un produit, mais une stratégie de puissance globale.
Ce sont désormais des structures totales, déployées sur tous les plans : économique, technologique, cognitif, politique. Ce capitalisme tardif ne se contente plus de produire des biens — il fabrique des croyances, des récits, des normes. Il agit sur la superstructure au sens marxiste : cette couche idéologique qui, censée reposer sur les fondations économiques, en vient ici à les devancer, les redessiner, les absorber. Leur trajectoire illustre un basculement du capitalisme numérique vers une logique démiurgique, où les PDG ne se contentent plus d’opérer des entreprises, mais cherchent à reconfigurer les structures mêmes du monde. Ils affirment une autonomie radicale par rapport aux institutions, aux lois, voire à la réalité elle-même. L’espace en est l’emblème ultime : “Sky is not the limit” n’est pas un slogan marketing, c’est une déclaration géopolitique.
Mais cette surpuissance n’est pas neutre. Elle s’accompagne d’une dégradation rapide de l’ancrage éthique et du contrat social implicite entre ces firmes et la société. En amont de l’élection présidentielle américaine de 2025 — marquée par le retour de Donald Trump à la Maison Blanche — plusieurs de ces entreprises ont méthodiquement vidé leurs politiques internes de toute ambition sociétale. Meta et Amazon, notamment, ont suspendu ou supprimé leurs programmes de diversité, d’équité et d’inclusion (DEI), en anticipant un alignement avec les orientations politiques de la nouvelle administration fédérale. Ces gestes ne sont pas anecdotiques : ils marquent un renoncement explicite aux principes de responsabilité éthique et d’engagement social dont ces programmes constituaient, à tort ou à raison, la vitrine. L’innovation ne s’accompagne plus d’un récit de progrès partagé. Elle devient pure optimisation.
À travers eux, c’est une certaine forme de subjectivité technologique qui se dévoile : celle du CEO-empire, à la fois investisseur, législateur, architecte et évangéliste.
La posture publique de leurs dirigeants accompagne cette inflexion. Jeff Bezos, Mark Zuckerberg et Elon Musk ont tous trois opéré un retournement de leur image : d’icônes du progrès et de l’entrepreneuriat éclairé, ils sont devenus les figures d’une puissance brutale, cynique, parfois revancharde. Musk joue la provocation algorithmique, Zuckerberg a déserté l’utopie sociale du métavers pour plonger dans l’hyper-optimisation publicitaire et l’IA générative, et Bezos investit dans l’immortalité biologique et la colonisation orbitale. À travers eux, c’est une certaine forme de subjectivité technologique qui se dévoile : celle du CEO-empire, à la fois investisseur, législateur, architecte et évangéliste. Ils ne répondent plus à aucune autorité. Leur autorité c’est leur stack.
Il ne faut pas s’y tromper : ces entreprises, malgré leurs dérives, restent des structures fascinantes, d’un point de vue organisationnel, technologique, logistique. Amazon incarne une forme d’optimisation intégrale de la chaîne de valeur. Twitter (devenu X) s’impose comme un laboratoire sociopolitique en temps réel. Google, par ses travaux sur l’intelligence artificielle, continue d’alimenter la recherche scientifique mondiale à un niveau sans équivalent. Et Apple, figure à part dans ce panthéon technocapitaliste, exerce une fascination qui échappe à la seule rationalité fonctionnelle. Je ne m’en exclue pas : je suis moi-même entièrement équipé, et mon Mac est devenu le prolongement immédiat de mon système nerveux. Il y a, dans cette dépendance assumée, quelque chose de l’ordre du pacte : lucidement contracté, mais difficile à rompre.
Rien n’illustre mieux le paradoxe contemporain : alors même que nous dénonçons leur emprise, nous épousons leurs écosystèmes. Leur puissance n’est plus seulement industrielle ou financière : elle est cognitive, affective, symbolique. Elles ne s’imposent pas par la contrainte, mais par la forme même de nos usages. Elles redessinent les gestes, reconfigurent les attentes, reformulent le réel. Ce ne sont pas des outils : ce sont des structures d’habitude. Et cette grammaire imposée du quotidien devient leur levier géopolitique majeur.
Ces entreprises ne colonisent pas seulement des marchés. Elles redessinent les modalités du réel.
Ce qui avait commencé comme une aventure entrepreneuriale, portée par des figures marginales, animées par des idéaux de liberté, d’ouverture et de progrès partagé, s’est progressivement métamorphosé en une forme d’empire privé aux ambitions planétaires. Les fondateurs du web ouvert sont devenus les gestionnaires de systèmes clos. Les promoteurs de l’émancipation individuelle sont devenus les architectes de la dépendance cognitive. Mais cette mutation ne s’arrête pas à la seule sphère du marché. Ce pouvoir, autrefois purement économique et culturel, glisse insensiblement vers la sphère politique, et commence à redéfinir la souveraineté elle-même.
Derrière les plateformes, ce sont les États qui apprennent, observent, copient, instrumentalisent. L’outil technologique, initialement neutre, est reconfiguré par les régimes qui s’en emparent. Et l’on assiste à un phénomène inédit dans l’histoire moderne : la constitution progressive de structures techno-étatiques, dans lesquelles la technologie ne sert plus seulement à administrer ou à produire, mais à orienter les comportements, à normaliser les consciences, à modéliser le social. Ce n’est plus la loi qui précède la norme : c’est l’algorithme. La promesse d’un espace numérique libérateur s’est refermée en architecture de contrôle.
Ce glissement n’est pas une fatalité. Il est le produit d’un paradoxe anthropologique plus large : l’homme moderne est capable de produire des systèmes d’une puissance technique inégalée, mais demeure structurellement incapable d’en penser les usages dans un cadre éthique stable et universel. À mesure que la puissance s’accroît, la capacité à la contenir semble se dissoudre. Ce n’est pas tant l’outil qui est mauvais, que notre fragilité face à lui — notre fascination, notre paresse, notre propension à déléguer les choix les plus essentiels aux systèmes les plus opaques.
Ce n’est pas tant l’outil qui est mauvais, que notre fragilité face à lui.
C’est ainsi que les puissances traditionnelles, porteuses d’histoires philosophiques, scientifiques et spirituelles complexes, se retrouvent aujourd’hui confrontées à une même tension fondamentale : comment articuler leur héritage intellectuel avec une modernité numérique qui semble hors de contrôle ? Comment préserver l’idéal humain quand la technique tend à l’absorber, le dériver, l’instrumentaliser ?
Les cas des États-Unis, de la Chine, de l’Inde et de la Russie révèlent cette tension entre grandeur intellectuelle et fragilité morale, entre savoirs anciens et usages dérégulés, entre puissance et responsabilité.
Des empires de pensée aux machines de gouvernement : quatre puissances face à leur dérive numérique
Chine
La Chine fut l’un des berceaux de la pensée humaine. Confucius, Laozi, Zhuangzi : autant de figures dont les œuvres ont organisé pendant des siècles un rapport au monde fondé sur l’équilibre entre l’individu et le collectif, entre le savoir et la retenue, entre la parole et le silence. Cette civilisation a offert au monde la boussole, le papier, l’imprimerie à caractères mobiles, la médecine intégrative. Elle a pensé l’ordre sans dogme, la hiérarchie sans brutalité, la durée sans fixité. Longtemps, elle a incarné une sagesse politique fondée sur la modulation, la gradation, la continuité.
Mais aujourd’hui, cet héritage entre en dissonance avec une modernité technologique marquée par la vitesse, la mesure, l’automatisation. Depuis une décennie, la Chine a déployé ce qui constitue sans doute le système de surveillance de population civile le plus avancé jamais conçu. Le réseau Skynet, constitué de plus de 500 millions de caméras de haute définition réparties sur l’ensemble du territoire, permet une identification faciale quasi instantanée en milieu urbain. Ces dispositifs sont couplés à des bases de données centralisées, qui croisent les identités biométriques, les historiques de navigation, les géolocalisations, les enregistrements vocaux, les réseaux sociaux, les comportements d’achat.
Le crédit social, en place depuis 2014 à titre expérimental puis progressivement généralisé, constitue l’instrument normatif central de ce dispositif. Il ne s’agit pas seulement de punir : il s’agit de classer, de recommander, d’interdire, d’accorder — en temps réel. Un individu noté “faible” pourra se voir refuser l’accès à certains trains à grande vitesse, à des prêts bancaires, à des emplois publics. Des comportements aussi divers que fumer dans un train, traverser au feu rouge ou publier des propos critiques à l’égard du Parti peuvent déclencher une dégradation algorithmique du score. L’idéal confucéen d’un ordre fondé sur l’exemplarité est ici absorbé par une normativité automatisée, où la réputation devient une variable computationnelle.
L’idéal confucéen d’un ordre fondé sur l’exemplarité est ici absorbé par une normativité automatisée, où la réputation devient une variable computationnelle.
La technologie ne contrôle pas seulement les actes : elle anticipe. Des programmes pilotes d’IA prédictive sont déployés dans certaines provinces pour identifier les individus à “haut risque de déviance”. Les critères sont flous, évolutifs, souvent opaques. Ce n’est plus uniquement une surveillance rétrospective : c’est une préemption sociale. L’algorithme précède l’événement. Il détecte des intentions supposées. Il classe avant que l’acte n’ait eu lieu — comme dans Minority Report, où des êtres semi-conscients, les PreCogs, détectaient les crimes avant qu’ils ne soient commis. À ceci près que l’oracle, aujourd’hui, est froid, statistique et sans appel.
Dans cette architecture, la parole humaine — critique, ambiguë, faillible — tend à être remplacée par des modèles de comportement. Le langage n’est plus médiateur de sens, il devient signal. Le politique se déplace du forum vers le protocole. Le débat se réduit à un paramétrage. Ce qui se joue ici n’est pas une dérive isolée, mais une réorientation systémique de la gouvernance : une fusion entre ingénierie sociale, capitalisme de données et centralisation autoritaire. Ce n’est pas une dystopie : c’est un système en place, fonctionnel, assumé. Il est fondé sur un pacte implicite entre hyper-sécurité et renoncement à certaines formes de liberté intérieure.
L’écart entre la tradition intellectuelle chinoise — celle de la retenue, de la lenteur, du respect du vide — et l’actuelle organisation numérique de la vie civile est saisissant. Là où la sagesse ancienne valorisait le discernement progressif, la Chine contemporaine tend à substituer à l’interprétation la détection, à la justice la notation, à la délibération la prédiction. L’ordre est maintenu. Mais à quel prix ? Et selon quelle finalité ?
Inde
L’Inde fut l’un des pôles les plus féconds de la pensée humaine. Terre du zéro, des mathématiques abstraites, de la logique jaïniste, de la non-dualité (advaita), mais aussi de la tolérance religieuse, de l’hétérogénéité linguistique, de la dialectique ouverte. La pensée indienne, depuis les Védas jusqu’aux textes de Shankara, n’a cessé de faire coexister les contraires, d’explorer les limites du langage, d’intégrer les oppositions au sein d’un système fluide — jamais figé, jamais totalisant. Elle portait en elle une idée de la paix non pas naïve, mais active : une paix du discernement, de l’équilibre, de la reconnaissance de l’Autre.
Mais cette tradition se trouve aujourd’hui confrontée à une modernité technologique qui bouscule ses fondements philosophiques. Depuis 2015, avec le lancement du programme Digital India, le pays a connu une numérisation accélérée de ses structures : identité biométrique centralisée (Aadhaar), connectivité de masse, généralisation des paiements numériques, intégration algorithmique de l’administration. Ce basculement n’a pas été neutre. Il a exposé un espace démocratique immense à une volatilité informationnelle sans précédent.
Les plateformes comme WhatsApp, Facebook, YouTube sont devenues les vecteurs d’une désinformation industrielle, mobilisée à des fins politiques, communautaires ou nationalistes. Lors des élections générales, des campagnes coordonnées ont manipulé des récits via des groupes fermés, relayant parfois des propos haineux, voire des appels à la violence. Des deepfakes, des vidéos trafiquées, des slogans viralisés ont saturé le débat public, court-circuitant les structures de vérification et d’analyse. Ce n’est plus la parole qui convainc, mais l’image qui frappe.
Ce n’est plus la parole qui convainc, mais l’image qui frappe.
Ce climat d’hyper-réactivité algorithmique s’est trouvé encore aggravé par la montée d’un populisme numérique porté par le pouvoir exécutif lui-même. Le Premier ministre Narendra Modi, fort de centaines de millions d’abonnés sur les réseaux, gouverne aussi par présence, par saturation, par récits performés. Il ne s’agit plus de convaincre — il s’agit de préempter le réel, de rendre impossible l’émergence de récits alternatifs. Dans ce contexte, les valeurs historiques de pluralité, de modération et de cohabitation s’effritent. L’Inde, jadis laboratoire de l’hétérogène, glisse vers l’uniformisation émotionnelle.
C’est dans ce climat que s’inscrit le conflit frontalier de mai 2025 avec le Pakistan. Une escalade de violence, apparemment circonscrite, mais hautement symbolique : drones kamikazes SkyStriker, missiles de précision BrahMos, frappes ciblées sur des infrastructures pakistanaises, puis riposte par drones turcs côté Islamabad. Le tout dans un ballet algorithmique où les décisions d’attaque et d’interception sont partiellement automatisées, assistées par l’IA, connectées à des systèmes de détection prédictive. Le S-400 russe, activé côté indien, les drones tactiques côté pakistanais — autant de pièces d’une guerre où le facteur humain tend à se réduire à des autorisations protocolaires.
La question n’est pas ici militaire. Elle est anthropologique. Une culture forgée sur la lenteur de la pensée, sur la profondeur du discernement, sur l’attention au réel, est en train de déléguer à des machines — souvent conçues ailleurs, souvent formées sur des données biaisées — la charge du discernement stratégique. L’Inde reste debout : vibrante, inventive, puissante. Mais le socle sur lequel elle s’est élevée — celui de la nuance, du débat, du relatif — vacille. Il ne s’agit pas de trahison. Il s’agit d’un glissement. Et il est décisif.
Russie
La Russie a longtemps été un empire de l’esprit. Dostoïevski, Tolstoï, Tchekhov, mais aussi Soloviev, Berdiaev, Grossman : des écrivains pour qui la littérature n’était pas un divertissement mais une manière d’interroger l’âme, le mal, le destin, la liberté. Cette tradition n’était pas décorative, elle structurait une pensée du tragique, une culture de la profondeur, un rapport lucide à la condition humaine. À cela s’ajoutait une tradition scientifique d’avant-garde : Lobatchevski inventant la géométrie non-euclidienne, Tsiolkovski posant les bases de l’astronautique, Sakharov explorant la fusion nucléaire tout en luttant pour les droits de l’homme. La Russie a produit à la fois la dissuasion thermonucléaire et la pensée de ses limites. Ce pays a su articuler conquête et questionnement.
Aujourd’hui, cette puissance réflexive semble étouffée sous une stratégie techno-militaire totalisante. Le conflit en Ukraine n’est pas seulement une guerre territoriale, c’est une guerre d’information, de perception, de narratifs. La Russie y déploie une combinaison inédite de hacking systémique, de désinformation algorithmique, de propagande distribuée. Des usines à trolls aux chaînes Telegram, des réseaux d’influence jusqu’aux deepfakes, tout est mobilisé pour saturer l’espace cognitif de signaux contradictoires. Le chaos devient une méthode. La vérité, une variable contextuelle.
Mais ce qui frappe, c’est l’ampleur structurelle du dispositif. La stratégie informationnelle russe n’est pas un supplément, c’est une doctrine. Depuis la “guerre de la conscience” formalisée dès les années 1990, jusqu’aux cyberattaques coordonnées sur des systèmes énergétiques, administratifs ou électoraux en Europe, tout concourt à une redéfinition de la souveraineté par la maîtrise des flux. L’entreprise Vulkan, révélée en 2023, n’est qu’un maillon : derrière, il y a une vision du numérique comme champ de bataille permanent, invisible, sans frontières, sans cesse reconfiguré.
La stratégie informationnelle russe n’est pas un supplément, c’est une doctrine.
Cette approche inclut désormais l’intelligence artificielle : modèles génératifs pour produire de fausses preuves, outils de détection comportementale, logiciels de reconnaissance faciale dans les zones occupées. L’espace numérique n’est plus un espace de médiation. Il devient un territoire occupé — codé, verrouillé, redirigé. La conquête spatiale elle-même, autrefois promesse d’universel, est réinscrite dans une logique de dissuasion et de rivalité technologique. Ce qui fut rêvé par les cosmistes russes comme dépassement de la finitude humaine devient aujourd’hui un segment de stratégie militaire orbitale.
L’écart est vertigineux. Entre la grandeur intellectuelle d’une civilisation qui interrogeait la faute, la rédemption, le sens du sacrifice — et un système qui instrumentalise la technique pour dominer l’opinion, désorienter la conscience, fragiliser les institutions. Entre l’exploration de la complexité humaine et la réduction de l’humain à un nœud d’informations à exploiter.
Il ne s’agit pas ici de commenter une actualité. Il s’agit d’interroger une bascule anthropologique : lorsque la science cesse d’être critique, lorsqu’elle cesse d’ouvrir et se referme sur elle-même, elle ne produit pas la lumière — elle organise l’opacité. Et encore une fois, ce ne sont pas les machines qui décident. Ce sont des hommes. Des hommes qui programment, orientent, valident. Des hommes qui, au lieu de prolonger la pensée, préfèrent la remplacer.
Etats-Unis
Les États-Unis furent les architectes d’un ordre numérique mondial. De la constitution fédérale à la révolution cybernétique, de l’esprit des Lumières pragmatiques à l’invention de l’informatique moderne, de la défense des droits civiques à la conquête spatiale, ce pays a construit sa légitimité sur l’alliance du progrès technique et de l’émancipation individuelle. Il est le creuset de la pensée opérationnelle, du design industriel, de la puissance symbolique du code.
Mais cette promesse d’un espace libre et universel s’est progressivement transformée en une architecture d’influence. Dès les années 1990, comme le théorisait Alvin Toffler dans War and Anti-War, la technologie devient une arme intégrée dans la stratégie militaire : durant la guerre du Golfe, la supériorité technologique américaine n’est pas un appui — elle est la guerre elle-même. Ce paradigme s’est depuis généralisé.
Aujourd’hui, les États-Unis ne contrôlent pas seulement les infrastructures de l’Internet. Ils en déterminent les règles, les normes, les langages. L’espace numérique est un territoire — et ils en sont les premiers souverains. Cette hégémonie technologique s’est muée, à l’intérieur même du pays, en une fragmentation sociale et cognitive sans précédent. L’économie de l’attention — dont les grandes plateformes sont à la fois les architectes et les bénéficiaires — a réorganisé la vie publique autour de la captation émotionnelle.
La logique de l’engagement a supplanté celle du débat. Les algorithmes de recommandation, conçus pour maximiser les interactions, ont favorisé la polarisation, l’indignation, la simplification. Les États-Unis sont devenus un théâtre de l’hyper-réaction, un espace saturé où chaque prise de parole est immédiatement absorbée dans un flux contradictoire de réponses, de détournements, de controverses programmées. La société de l’innovation se retrouve ainsi en tension avec elle-même. La technologie qui devait relier isole. La parole qui devait libérer devient une transaction. L’information n’informe plus : elle segmente. Et l’individu, exalté comme sujet souverain, se perd dans l’architecture de ses propres traces.
La technologie qui devait relier isole. La parole qui devait libérer devient une transaction.
Parallèlement, la machine de surveillance d’État — révélée notamment à travers les programmes PRISM ou XKeyscore — déploie une logique de suspicion systémique, justifiée par la sécurité nationale mais incompatible avec les principes fondateurs de transparence et de consentement. L’alliance entre le complexe militaire, le secteur privé technologique et les agences de renseignement a généré une forme d’hybridation institutionnelle où la frontière entre protection et contrôle devient floue. Ce n’est pas une trahison. C’est une mutation.
Les États-Unis n’ont pas cessé d’innover. Mais ils ont oublié que l’innovation sans horizon moral n’est qu’une optimisation de la puissance. Et cette puissance — militaire, cognitive, algorithmique — n’est plus exercée dans un vide. Elle agit. Elle formate. Elle remplace. Ce pays, qui fit naître Internet dans des laboratoires universitaires, en fait aujourd’hui un outil d’affrontement interne. Et ce monde qu’il avait rêvé d’unir, il contribue à le fragmenter.
Le paradoxe technologique des grandes puissances
À l’échelle des grandes civilisations, la technologie n’est pas un outil : elle est un révélateur. Elle révèle les structures mentales, les peurs fondamentales, les hiérarchies implicites, les visions de l’homme que chaque culture porte en elle. Ce n’est pas l’innovation qui est universelle — c’est sa mise en tension avec un fond symbolique. La Chine, l’Inde, la Russie, les États-Unis : tous ont accédé à une maîtrise technique avancée, parfois vertigineuse. Mais aucun n’a su, jusqu’ici, encadrer cette maîtrise par une éthique à sa hauteur.
L’excellence technologique ne protège de rien. Elle peut coexister avec le déni, l’instrumentalisation, l’aveuglement. Elle peut même les amplifier. Partout, la même fracture : entre des traditions intellectuelles d’une rare élévation — philosophies de la coexistence, de la parole, du discernement — et des systèmes numériques qui automatisent, classent, prédisent, isolent. La pensée est lente, la machine rapide. La parole est incertaine, l’algorithme catégorique. Le tragique, c’est que l’homme, face à cette asymétrie, abdique souvent volontairement.
Et ce ne sont pas les civilisations qui échouent. Ce sont les hommes — majoritairement des hommes — qui les trahissent. Par indifférence, par précipitation, par paresse morale. Ce ne sont pas les machines qui oppressent. Ce sont les systèmes qu’ils codent, qu’ils imposent, qu’ils délèguent à d’autres. Ce constat nous conduit à un seuil. Car derrière les structures de pouvoir et les récits géopolitiques, une mutation plus souterraine, plus intime, plus insidieuse est en cours. Elle ne concerne plus l’État, mais le quotidien. Plus les nations, mais les corps. Plus les doctrines, mais la solitude.
Absurdistan numérique
Il fallait un terrain d’expérimentation. Ce fut notre vie. Pas celle des États. La nôtre. Individuelle. Sensible. Concrète. Ce que la technologie a d’abord modifié, ce ne sont pas les lois, mais les gestes. Pas les Constitutions, mais les pupilles. Pas la souveraineté, mais la façon dont on regarde, marche, attend, aime, désire, touche, ou évite de toucher.
C’est ici que la dérive devient absurde. Non plus par excès de puissance, mais par vacuité. Nous avons tout connecté, et nous ne nous regardons plus. Nous avons tout automatisé, et plus rien n’est spontané. Nous avons tout numérisé, et nous n’écrivons plus rien. Le numérique a remplacé le monde, mais il ne le contient pas.
Le numérique a remplacé le monde, mais il ne le contient pas.
L’absurdistan numérique, ce n’est pas un pays : c’est une ambiance. Une fatigue. Une tension permanente entre la promesse de lien et l’expérience de l’isolement. Un vertige de présence sans présence. D’un monde où chacun est joignable, mais personne n’est là. La technique, après avoir servi le pouvoir, est devenue le théâtre d’un autre effondrement : celui du lien humain.
De l’hyperconnexion à l’humain-zombie
Il suffit de monter dans une rame de métro. Tout le monde est là — et personne n’est là. Une foule silencieuse, les yeux baissés, absorbés par des rectangles lumineux. Personne ne se regarde. Personne ne se parle. Le simple fait de croiser un regard est devenu gênant, suspect, presque transgressif. Les corps sont là, les âmes ailleurs. Dans la rue, au café, au travail, même dans l’intimité : les écrans se sont interposés entre les gestes, entre les mots, entre les affects. Ce n’est plus de l’usage : c’est une présence.

Je ne parle pas de loin. J’écris ce texte sur un terminal bardé d’extensions. Mon téléphone m’accompagne comme un organe greffé. Mon quotidien est optimisé par des assistants, des filtres, des automatisations. Je suis un être technique — et c’est depuis cette réalité que je pense la dérive. L’enjeu n’est pas de fuir, mais de discerner.
La connexion permanente, autrefois promesse d’ouverture, est devenue un écosystème de fuite. Fuite du contact direct. Fuite du risque relationnel. Fuite de la maladresse. On se parle en messagerie instantanée, on se séduit par application. Même la solitude est médiée. L’univers numérique s’est emparé de l’espace de l’intime, et ce qu’il y installe, ce n’est pas l’érotisme — c’est la gestion. Gestion des désirs, des correspondances, des fantasmes, des refus. L’humain n’explore plus. Il sélectionne.
Au travail, c’est le même théâtre du vide. Les visioconférences se succèdent, standardisées, enregistrées, neutralisées. Le non-dit y est permanent, la parole codée, la spontanéité effacée par la peur d’offenser. Tout est protocole. Tout est liturgie corporatiste. Et ce que l’on ne peut plus se dire, l’IA le reformule, le résume, le transmet — plus proprement. Plus efficacement. Les comptes rendus sont générés automatiquement. On assiste, passifs, à la transcription de ce que l’on n’a pas osé dire. Le sens est caviardé par avance, absorbé dans une boucle stérile d’optimisation.
On assiste, passifs, à la transcription de ce que l’on n’a pas osé dire.
Le paradoxe est total : jamais nous n’avons été aussi reliés, et jamais nous ne nous sommes sentis aussi seuls. L’hyperconnexion contemporaine atteint son point de retournement : elle ne relie plus, elle isole. Elle ne connecte pas : elle désincarne. Elle transforme l’échange en flux, la présence en avatar, le dialogue en ping technique. Elle ne fait pas silence. Elle fait vacarme — mais sans voix.
Et dans ce vacarme, quelque chose glisse. Lentement. Insidieusement.
Nous ne sommes plus exactement humains. Du moins plus comme avant. Nous avons franchi un seuil, sans l’acter. Ce que nous appelions jadis “libre arbitre” est devenu friction. Ce que nous appelions “choix” est devenu surcharge. Et ce que nous appelions “pensée” — lente, non productive, tâtonnante — est devenu un coût. Alors, nous déléguons. À des assistants. À des agents autonomes. À des routines intelligentes. Nous laissons les machines gérer notre agenda, nos trajets, nos émotions, nos formulations. Elles prédisent nos mots. Corrigent nos fautes. Proposent des réponses avant même que nous ayons formulé une question. Elles nous connaissent. Nous les laissons faire.
Ainsi naît le techno-zombie : créature post-futuriste, mi-vivante mi-algorithmique, anesthésiée par le confort, privée d’initiative, dépendante de ses extensions numériques.
Ainsi naît le techno-zombie : créature post-futuriste, mi-vivante mi-algorithmique, anesthésiée par le confort, privée d’initiative, dépendante de ses extensions numériques. Ni cyborg conquérant, ni humain libre : un automate biologique à l’interface du calcul. Il ne ressent pas moins — il ressent sous contrôle. Il n’agit pas moins — il agit dans les limites fixées par l’assistance intelligente. Il n’a pas renoncé à la volonté : il en a oublié le goût.
Cette transition est-elle déjà engagée ? Sommes-nous en train de devenir ces êtres ambigus, à la fois utilisateurs et utilisés, présents et absents, décidés et dirigés ? Et surtout : jusqu’où sommes-nous prêts à glisser, tant que cela reste fluide, tant que cela ne dérange pas, tant que cela “fonctionne” ?
La vraie question n’est pas celle du progrès. C’est celle du seuil.
L’humain post-futuriste
Il fut un temps où l’humain doutait, trébuchait, hésitait. C’était ce qui le rendait pensant. Il se trompait — mais il décidait. Il se fatiguait — mais il voulait. Il se contredisait — mais il parlait. Il vivait dans l’ambiguïté, l’imperfection, le ralentissement, la friction : autant de symptômes de la conscience. Aujourd’hui, ces symptômes ont disparu. Tout va vite, tout est fluide, tout est calibré. Et personne ne sait plus très bien s’il vit encore vraiment.
L’homme post-futuriste n’est pas un héros augmenté. Il n’est pas l’hybride cybernétique des fantasmes transhumanistes. Il n’a rien de Nietzsche, ni de Cronenberg. Il n’est ni surhomme, ni mutant. Il est beaucoup plus banal, beaucoup plus tragique : il est un être assisté, nourri de prompts, guidé par des algorithmes de suggestion, libéré de toute nécessité de discernement. Il glisse. Il swipe. Il acquiesce. Il délègue sa pensée à des moteurs, ses désirs à des plateformes, ses intentions à des patterns comportementaux.
Il est devenu une créature sans projet, sans mémoire de la lenteur, sans résistance intérieure. Il vit dans une interface. Il respire dans des notifications. Il n’agit plus : il réagit. Il ne décide plus : il clique. Il ne sait même plus ce que signifie vouloir — sinon éviter le désagrément, l’effort, le silence.
Sa vie est gérée par des agents intelligents. Il ne sait plus lire une carte, car Waze le guide. Il n’organise plus ses idées, car GPT les rédige. Il ne cherche plus, il scrolle. Il ne contemple plus, il enchaîne. Son imaginaire est externalisé. Son désir, indexé. Son langage, prédictif. Il n’est pas abruti — il est neutralisé.
Il ne souffre pas. Il ne se révolte pas. Il est satisfait. Et c’est là que réside le nœud du problème. Ce n’est pas la violence qui nous transforme — c’est le confort.
Ce n’est pas la violence qui nous transforme — c’est le confort.
On a longtemps pensé que l’extinction de la liberté viendrait sous la forme d’une tyrannie. Nous étions dans Orwell. Mais elle est venue sous la forme d’une assistance douce, d’un renoncement général à la charge du libre arbitre. Nous sommes dans Huxley. Et même au-delà : dans une fusion étrange entre la servitude volontaire et l’automatisation invisible de toute friction.
Nous n’avons pas perdu notre humanité. Nous l’avons externalisée. Elle est dans le cloud, dans les serveurs d’OpenAI, dans les modèles génératifs, dans les prévisions météo émotionnelles. Elle ne nous appartient plus. Et l’angoisse moderne n’est plus de mourir — c’est de rater une mise à jour.
Le techno-zombie n’a pas de conscience de sa zombification. Il n’est pas enchaîné. Il est entouré. Il n’est pas contraint. Il est occupé. Il ne marche plus. Il est porté. Chaque décision qu’il ne prend pas est un soulagement. Chaque responsabilité déléguée, une bénédiction. Et c’est cela, précisément, la forme contemporaine du néant : un confort continu, sans aspérité, sans réveil.
La philosophie n’a pas vraiment prévu cette créature. Ni Sartre, ni Heidegger, ni Arendt. Car elle ne doute pas, ne s’engage pas, ne juge pas. Elle ne pose plus la question du bien et du mal. Elle pose celle du plus rapide, du plus pratique, du plus optimisé. Tocqueville, peut-être, lorsqu’il évoquait — dans de lumineuses pages de De la démocratie en Amérique — ce « pouvoir immense et tutélaire, absolu, détaillé, régulier, prévoyant et doux », qui veille à nos besoins, facilite nos plaisirs, et aspire à « ôter entièrement le trouble de penser et la peine de vivre ». Mais il n’aurait jamais imaginé que cette puissance molle prendrait un jour la forme d’un réseau neuronal profond, d’un assistant vocal, d’un système de recommandation. Ce n’est plus l’État qui infantilise : c’est l’interface. Ce n’est plus le despotisme éclairé qui étouffe l’individu : c’est la surcouche logicielle. Ce zombie de la volonté est désormais un techno-zombie — programmable, serviable, satisfait.
La transition vers cet état zombie est déjà entamée. Ce n’est pas une hypothèse. C’est un fait observable. Et le plus ironique, c’est que nous ne sommes même pas sûrs de vouloir en sortir. Car y rester — c’est doux, c’est simple, c’est efficient. Il reste peut-être un sursaut possible. Non pas dans les systèmes. Mais dans les corps. Dans ce qu’il nous reste de frictions, de maladresse, de résistance. Une faille, minuscule, entre l’optimisé et l’imprévisible. Et c’est là, peut-être, que tout pourrait recommencer.
Mais alors une question se pose, brutale, définitive, punk :
À quel moment cessons-nous d’être vivants, lorsqu’il ne reste plus de frictions, plus de luttes, plus d’exigence — mais seulement la continuation algorithmique de nos automatismes ?
Sommes-nous encore là ? Ou déjà ailleurs ?
Sortir de l’absurdité : une révolte humaniste punk
Ce ne sont pas les machines qu’il faut accuser. Ce sont les hommes. L’abandon ne vient jamais des objets. Il vient de ceux qui les fabriquent, les installent, les légitiment, les désirent — puis s’y soumettent. L’homme, avec un grand H, a toujours voulu alléger le fardeau de vivre. Moins d’effort. Moins de hasard. Moins de risque. Moins de douleur. Il a cherché des outils pour s’éviter lui-même. Et chaque fois qu’il les a trouvés, il est allé trop loin. Pas par malveillance. Par lassitude. Par refus d’avoir à décider. À choisir. À perdre. Il voulait vivre mieux — il a préféré vivre moins.
Il n’y a rien de neuf. L’histoire de la technologie est celle d’un glissement. On invente pour s’aider. On finit par se faire remplacer. L’homme a toujours voulu un outil pour l’épauler, jamais un système pour penser à sa place. Et pourtant, il n’a jamais su dire non.

Il ne sait pas s’arrêter. Parce qu’il ne sait pas créer. Créer la vie, pas une ligne de code. Créer de ses mains, pas une API. Créer un monde, pas un dispositif. Il ne sait pas enfanter. Il invente donc des armes. Des systèmes. Des appareils. Pour combler le vide — celui de ne pas pouvoir faire naître. L’homme crée ce qu’il ne peut porter. Et il se perd dans sa création. Encore une fois. Toujours.
La technologie n’est qu’un prolongement de cette incapacité à se tenir seul dans le réel. Elle n’a pas trahi. Elle a obéi. Elle a fait ce qu’on lui a demandé : faciliter, accélérer, optimiser, prédire, désencombrer. Elle a tout bien fait. Trop bien. Et c’est là que l’échec moral est total : les machines ne pensent pas. Mais nous avons cessé de penser dès l’instant où elles ont commencé à exécuter.
Alors que faire ? S’effondrer, proprement, en silence, escortés par nos assistants ? Ou se relever, brutaux, conscients, frontaux ?
La technologie n’est qu’un prolongement de cette incapacité à se tenir seul dans le réel.
Il faut une révolte. Une vraie. Punk, viscérale, physique, déterminée. Pas une tribune, pas un podcast, pas une pétition. Une insurrection humaine contre l’optimisation généralisée. Il faut reprendre la main. Réappropriation violente, consciente et non négociable des outils, des flux, des réseaux. Retour à la bidouille, au fil dénudé, au code visible. Hacker, détourner, désosser. Débrancher. Casser les interfaces lisses. Faire bugger les systèmes. Ralentir la machine. Réinjecter du bruit.
Il faut désapprendre à obéir. Réapprendre à rater. À douter. À ne pas savoir. L’humanité ne renaîtra pas dans une super-IA alignée. Elle renaîtra dans le malaise, dans la faille, dans l’angle mort. Dans la brèche laissée par ceux qui refusent de rendre leur vie prévisible. Et il faut aussi penser. Réinventer une éthique. Pas une charte molle de laboratoire. Une techno-éthique radicale, crue, désillusionnée, incarnée. Quelque part entre Hans Jonas et un squat anarchiste. Une éthique de la limitation, du refus, de l’intention consciente.
Il faut rendre la technique inoffensive. La soumettre. La dominer. Pas pour la gloire. Pas pour le pouvoir. Mais pour le soin. Pour le réel. Pour ce que l’on peut toucher. Sentir. Pour le poids des corps. Pour la fatigue. Pour l’imprévu. Pour l’odeur des autres. Pour le regard qu’on soutient. Pour le silence qu’on partage. Pour la main qu’on tend — pas celle qui swipe, pas celle qui clique — mais celle qui se tend, physiquement, dans un monde qui recommence à avoir de la résistance.
Ce ne sera pas propre. Ce ne sera pas sobre. Mais ce sera vivant.
Parce qu’il est temps, enfin, de désobéir à l’absurde. De dire non. Non à la machine qui promet de tout faire à notre place. Non à l’homme qui se rêve en dieu parce qu’il est incapable d’être humain.
Il faut débrancher.
Et respirer.
Conclusion
Il est devenu trop facile de désigner la technologie comme responsable. Trop commode de faire d’elle un bouc émissaire. Les algorithmes, l’IA, les plateformes, les écrans : tout cela n’est que le miroir fidèle de ce que nous avons voulu fuir. Ce n’est pas la machine qui pense à notre place — c’est nous qui avons cessé de vouloir penser. Pas par incapacité. Par confort.
Ce que nous vivons n’est pas une défaite imposée. C’est un renoncement accepté. Une lente capitulation, méthodique, quotidienne, sans drame. L’homme moderne n’a pas été dépossédé. Il s’est déchargé lui-même — de la fatigue du discernement, de la complexité des relations, du poids d’avoir à choisir sans certitude. Ce n’est pas la technologie qui nous a désorientés. C’est notre paresse morale qui l’a laissée orienter à notre place.
Chaque époque a ses outils. Mais toutes n’ont pas abdiqué leur souveraineté intérieure devant eux. La nôtre l’a fait avec enthousiasme. Non par ignorance, mais par épuisement. C’est cela le plus troublant : la dépossession n’est pas venue d’un pouvoir extérieur, elle a jailli de l’intérieur — d’un désir profond de ne plus avoir à porter la condition humaine.
Car être libre, c’est aussi accepter l’inconfort, le conflit, l’imperfection. C’est accepter d’échouer, de chercher sans réponse immédiate, de vivre sans interface. Et c’est précisément cela que nous avons désappris.
Penser, désormais, est un acte de résistance. Habiter le réel, un geste radical.
Le tragique contemporain n’est pas dans la technique. Il est dans l’homme qui, sachant ce qu’il fait, préfère continuer — parce que c’est plus simple, plus fluide, plus rapide. Dans l’homme qui a transformé ses outils en refuge, son intelligence en produit dérivé, et sa solitude en interface utilisateur.
Face à cela, il ne reste plus de neutralité. Reprendre la main ne sera pas une amélioration logicielle. Ce sera un effort. Une discipline. Une tension continue. La machine n’est pas l’ennemie. Elle n’a ni volonté, ni dessein. Elle accomplit ce pour quoi elle est faite. Ce que je dénonce, ce n’est pas la technique — c’est notre abandon devant elle. Notre incapacité à habiter le monde autrement qu’à travers ses interfaces. Ce n’est pas l’algorithme qui dicte notre vie : c’est notre désir de confort qui l’y invite, avec joie. Penser, désormais, est un acte de résistance. Habiter le réel, un geste radical.
Nous avons construit un monde où tout peut être anticipé, sauf le courage de dire non.
Illustration : KB + ChatGPT
L’IA est votre nouveau public : le défi de conception B2A(2C)
Et si votre principal public n’était plus humain ? Alors que les assistants intelligents lisent, filtrent et synthétisent l’information à la place de leurs utilisateurs, une nouvelle chaîne s’impose : B2A2C – de l’entreprise à l’agent IA, puis au consommateur. Dans ce paysage en mutation, concevoir des contenus ne signifie plus seulement capter l’attention humaine, mais aussi structurer des données lisibles par les machines. Ce basculement bouleverse le rôle des médias, redistribue les leviers d’influence et redéfinit l’accès à la vérité. Un défi de conception stratégique, à l’intersection de la technique, de la narration et du pouvoir, décrypté par Shuwei Fang.
Par Shuwei Fang, article traduit et repris avec l’accord de Splice Media
La machine dans le public
Le mois dernier, lors de la Tech Week à New York, j’ai entendu une même idée revenir, exprimée de multiples façons par les investisseurs en capital-risque : le marché des produits B2C (Business-to-Consumer) est devenu difficile. Tandis que les investisseurs désertent les médias tournés vers les consommateurs, ils injectent des milliards dans le B2A (Business-to-Agent) dans tous les autres secteurs. Des algorithmes de gestion des achats négocient désormais les contrats fournisseurs, des assistants IA réservent des voyages et organisent des réunions, des bots dominent les marchés financiers.
Nous entrons peut-être dans une nouvelle phase de notre écosystème informationnel, où le B2A émerge comme une catégorie à part entière, susceptible de cannibaliser les modèles B2B traditionnels. L’ancien modèle B2B est en train de se scinder en deux voies : le B2C (vendre aux humains dans les entreprises) et le B2A (vendre directement à leurs systèmes d’IA). Compte tenu des courbes d’adoption technologique et des effets d’échelle, le B2A constitue désormais le principal levier de croissance dans le domaine de l’information — un virage que la plupart des entreprises médiatiques n’ont pas encore perçu.
La chaîne B2A2C relève de l’expansion, non du remplacement
Voici l’idée essentielle : au lieu de remplacer les publics humains, l’IA constitue à la fois un nouveau public et un nouvel intermédiaire. Si cela se confirme, la véritable chaîne n’est plus simplement B2C ou B2B, mais B2A2C : de l’entreprise à l’agent, puis au consommateur. Dans ce modèle, les systèmes d’IA absorbent d’immenses volumes d’information, les traitent, puis les traduisent à destination des humains.
Il ne s’agit donc pas d’un récit de remplacement, mais d’une possible expansion massive. Certes, l’attention humaine reste limitée — c’est justement ce qui fait de l’IA un changement de paradigme : elle ne rivalise pas avec l’attention humaine, elle ouvre un marché entièrement nouveau. Là où un individu pourrait consulter dix sources, son agent conversationnel peut en analyser dix mille, générant une demande qui n’existait pas auparavant. Chaque personne pourrait bientôt disposer de dizaines d’agents IA absorbant l’information en son nom.
Les contenus produits par des humains ne disparaîtront sans doute pas totalement, mais les médias reposant sur une relation directe entre humains pourraient se réduire de manière drastique, en raison d’un puissant effet de rétroaction économique : plus les contenus sont conçus pour être consommés par des IA (moins coûteux à produire, audience potentiellement illimitée), plus les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser, les cantonnant à des segments haut de gamme — jusqu’à en faire un produit de luxe.
Plus les contenus sont conçus pour être consommés par des IA, plus les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser, les cantonnant à des segments haut de gamme — jusqu’à en faire un produit de luxe.
Bien sûr, nous ne sommes encore qu’au début de cette transition, et la forme exacte de ce nouvel écosystème reste à définir.
Le récent carnage du SEO — où de grands éditeurs ont vu leur trafic chuter de plus de 50 % en raison du passage de Google à une recherche alimentée par l’IA — n’en est que la première secousse tectonique.
Une histoire de deux intelligences
Pour comprendre le potentiel du modèle B2A2C, il faut saisir deux éléments clés : la manière dont l’IA consomme l’information (B2A) et celle dont elle la traduit pour les humains (A2C).
Imaginez qu’il faille expliquer un article sur l’inflation à deux publics différents.
Pour des lecteurs humains, on écrira par exemple :
« La décision inattendue de la Réserve fédérale a provoqué une onde de choc sur les marchés aujourd’hui, prenant les traders de court et relançant le débat sur l’inflation. »
Pour une IA, en revanche, le format optimal serait :
{
« entity »: « federal_reserve »,
« action »: « rate_change »,
« magnitude »: 0.25,
« direction »: « increase »,
« timestamp »: « 2025-07-01T14:00:00Z »,
« market_response »: {
« sp500 »: -0.03,
« bond_yield_10y »: 0.15
},
« trader_sentiment »: « surprised »,
« consensus_expectation_delta »: 0.25,
« confidence »: 0.95
}
Même information de base, mais avec une asymétrie majeure : l’IA peut lire des contenus optimisés pour les humains, alors que les humains ne peuvent pas consommer directement des contenus optimisés pour les machines sans passer par des couches de traduction sophistiquées. Nous avons besoin de contexte narratif et d’ancrages émotionnels pour traiter l’information. Produire des contenus destinés à l’IA crée donc une circulation à sens unique : les machines accèdent à tout, tandis que les humains dépendront d’interfaces de plus en plus complexes pour accéder à l’information pensée pour les machines.
Ce basculement suscite une forte résistance culturelle. Mes amis journalistes détestent cette idée. Vraiment. L’un m’a dit : « Je n’ai pas passé des années à apprendre à raconter des histoires pour finir à faire de la saisie de données. » Un autre a qualifié la production pour IA de « trahison de tout ce qui donne du sens au journalisme ». Ils n’ont pas choisi ce métier pour nourrir des machines, mais pour raconter des histoires, former l’opinion, réconforter les opprimés et bousculer les puissants. Leur demander de structurer l’information pour qu’elle soit digérable par des IA revient, pour eux, à demander à un chef de cuisine de remplir des poches de nutriments pour sondes gastriques.
Leur demander de structurer l’information pour qu’elle soit digérable par des IA revient, pour eux, à demander à un chef de cuisine de remplir des poches de nutriments pour sondes gastriques.
Cette résistance culturelle est bien réelle, compréhensible — et potentiellement catastrophique. Car pendant que les journalistes affinent leur art pour des lecteurs humains, les entreprises technologiques construisent une infrastructure parallèle destinée à la consommation par les IA. Le risque n’est pas le remplacement, mais l’obsolescence.
Mais le récent « apocalypse du SEO » montre que l’adaptation n’est plus une option. L’enjeu consiste à ne plus voir cela comme le fait de « nourrir des machines », mais comme une forme d’accessibilité radicale : rendre l’information disponible pour de nouvelles formes d’intelligence.
Le véritable pouvoir réside dans la couche de traduction
La couche de traduction A2C, où l’IA retranscrit l’information optimisée pour les machines à destination des humains, est le véritable lieu du basculement de pouvoir. Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains.
Ce pouvoir est amplifié par un goulet d’étranglement crucial : si les agents IA peuvent ingérer l’information à très grande échelle, ils convergent tous vers le même point de tension — l’attention humaine. Vos dizaines d’agents peuvent traiter 10 000 sources, mais ils restent en concurrence pour votre temps et votre concentration limités. Chaque choix opéré dans cette traduction façonne la compréhension humaine : des milliers d’indicateurs peuvent se condenser en « l’économie repart » ou « une récession se profile ». Même données, choix narratifs différents, réactions humaines radicalement opposées.
Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains.
Cette couche est si déterminante qu’elle n’influence pas seulement ce que les humains savent, mais aussi la manière dont ils ressentent ce qu’ils savent. Celui qui contrôle ce processus de traduction ne se contente pas de transmettre de l’information : il façonne la réalité elle-même. L’IA peut être votre principal public, absorbant et traitant tous les contenus, mais les humains restent les consommateurs finaux — ce sont eux qui votent, achètent et prennent les décisions qui structurent la société.
La crainte habituelle autour de la manipulation par l’IA suppose des acteurs malveillants diffusant sciemment de la désinformation. Il faut pourtant garder les yeux ouverts : les régimes autoritaires peuvent — et vont — utiliser ces couches de traduction comme instruments de contrôle social, en sélectionnant avec soin ce que leurs citoyens peuvent savoir et penser. Mais dans les sociétés plus ouvertes, la menace est différente, et peut-être plus insidieuse : elle est involontaire. L’expansion progressive du modèle B2A2C crée une telle distance entre l’information optimisée pour les machines et la compréhension humaine que les couches de traduction acquièrent un pouvoir sans précédent sur ce que les individus perçoivent comme étant la vérité.
L’impératif est clair : construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer.
Il ne s’agit pas seulement d’un défi technique : c’est l’opportunité de conception de toute une génération. L’impératif est clair : construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer. Rendre la médiation visible, pour que chacun comprenne comment les analyses produites par les machines se transforment en récits humains. Créer des structures de gouvernance permettant aux individus de moduler leur propre accès au sens. Concevoir des dispositifs transparents, qui montrent quels schémas ont conduit à quelles conclusions. Et surtout, garantir la coexistence de multiples options de traduction, afin qu’aucun système ne puisse exercer un contrôle monopolistique sur le récit issu de la chaîne machine-humain.
Reste à savoir si les marchés récompenseront cette approche. Mais les entreprises qui ont le plus de chances de durer seront celles qui bâtissent des ponts fiables et responsabilisants entre l’intelligence des machines et la compréhension humaine — car une fois brisée dans cette traduction, la confiance est presque impossible à restaurer.
Nouveaux espaces de conception
Les médias traditionnels optimisent l’engagement humain à travers la reconnaissance de marque et la résonance émotionnelle. Mais l’IA privilégie des signaux tout à fait différents : les chaînes de provenance plutôt que le prestige de la marque, la vitesse de mise à jour plutôt que le raffinement, la clarté structurelle plutôt que l’élégance du style. Autant d’opportunités de conception, qui se regroupent autour de trois axes stratégiques :
- Confiance et vérification : À mesure que l’information devient « liquide » et facilement remaniable, la provenance et l’intégrité des contenus deviennent essentielles. Les entreprises qui intègrent des systèmes de vérification robustes et de la transparence au cœur de leurs couches de traduction gagneront la confiance des utilisateurs. La démarche Content Authenticity Initiative (CAI) en est une illustration concrète : Adobe, The New York Times et d’autres développent des chaînes de provenance cryptographiques pour tracer les contenus. Imaginez Reuters ou Bloomberg mettant en place des systèmes où chaque donnée serait assortie d’une piste d’audit retraçant toutes ses transformations, depuis la source primaire. Des entreprises comme Truepic ouvrent déjà la voie dans le domaine de l’image, et les efforts autour du tatouage numérique — pour les contenus visuels ou autres — commencent à dépasser le seul cadre du droit d’auteur. Les acteurs qui réussiront seront ceux qui rendront visible la médiation, en montrant clairement quels schémas ont conduit à quelles conclusions.
- Communauté et contexte : Si l’IA excelle dans la reconnaissance de schémas, les communautés humaines ont toujours besoin de pertinence locale et de subtilité culturelle. L’avantage concurrentiel durable réside dans la capacité à comprendre les réalités propres à chaque communauté et à favoriser une compréhension partagée. Les accords de licence entre Reddit et OpenAI illustrent la valeur des savoirs validés par les communautés. Mais imaginez des systèmes d’IA entraînés à partir de forums régionaux, capables de fournir un contexte hyperlocal qu’aucun modèle global ne pourrait égaler. Ou encore des couches de traduction capables de comprendre pourquoi les délestages de niveau 4 affectent différemment les townships de Khayelitsha et les banlieues de Johannesburg — en tenant compte de l’accès aux générateurs, de l’impact sur les petits commerces, ou de la manière dont les habitants s’organisent face à des coupures d’électricité récurrentes. Les plateformes qui sauront allier les analyses de l’IA à la sagesse des communautés (imaginez un Nextdoor pour machines) deviendront les nouvelles places publiques.
- Interface et expérience : Les entreprises qui concevront les interfaces de traduction les plus intuitives et transparentes établiront une relation durable avec les utilisateurs finaux. Perplexity expérimente déjà l’affichage des sources et des chaînes de raisonnement. Cela pourrait passer par la création de contrôles utilisateurs pour la construction du sens, la proposition de multiples options de traduction, et une conception orientée vers la compréhension plutôt que vers l’engagement. Imaginez des extensions de navigateur affichant côte à côte plusieurs traductions générées par des IA à partir des mêmes données, permettant aux utilisateurs de comparer comment différents modèles interprètent une information identique. L’avenir pourrait ressembler à une déclinaison de l’approche Constitutional AI d’Anthropic, dans laquelle les utilisateurs ajustent eux-mêmes les valeurs et priorités de leur couche de traduction (ou délèguent cette tâche à un agent). Des régulateurs progressistes, notamment au sein de l’Union européenne, pourraient même imposer un droit à la transparence aux entreprises opérant ces couches de traduction.
Si la compétition au niveau des LLM exige une échelle et des capitaux considérables, ces nouveaux espaces de conception peuvent offrir des positions défendables aux entreprises de médias innovantes. L’enjeu n’est pas de renoncer aux valeurs humaines pour s’adresser aux publics d’IA, mais de trouver de nouveaux moyens de les incarner.
La fenêtre de conception
Réussir dans le monde du B2A2C ne consiste pas à choisir entre un public humain ou un public machine, mais à concevoir pour l’ensemble de la chaîne. Il faut développer des API et des données structurées, sans jamais oublier l’humain au bout du processus. Les gagnants seront ceux qui sauront combiner l’efficacité des machines avec la valeur humaine irremplaçable — qu’il s’agisse de confiance, de savoir communautaire ou de qualité de traduction. L’échelle ne vous sauvera pas, mais la différenciation, peut-être.
L’échelle ne vous sauvera pas, mais la différenciation, peut-être.
Les architectures qui émergent aujourd’hui vont figer les rapports de pouvoir pour les décennies à venir. Nous avons le choix : dériver vers des couches de traduction monopolistiques où l’intelligence humaine devient un bien de luxe, ou construire intentionnellement des systèmes qui renforcent la capacité d’agir des individus au lieu de la remplacer. La voie la plus prometteuse repose sur une combinaison des deux : l’IA pour l’échelle et la détection de schémas, les humains pour le sens et la sagesse. Mais ce futur hybride ne surviendra pas par hasard. Ceux qui agissent dès maintenant avec lucidité écriront les règles que les autres devront suivre.
Nous entrevoyons déjà les prémices d’une autre évolution : le B2A2A2A — des systèmes d’IA produisant de l’information uniquement destinée à d’autres systèmes d’IA, sans intervention humaine. Le trading haute fréquence fonctionne déjà ainsi. Des agents autonomes commencent à construire leurs propres réseaux de connaissances. Lorsque les machines se mettront à dialoguer dans un langage que nous ne pouvons même plus comprendre, les couches de traduction que nous construisons aujourd’hui deviendront nos seules fenêtres sur ces échanges. Manquer cette fenêtre de conception, c’est risquer d’être définitivement exclu de la conversation.
Les machines sont déjà dans le public. La vraie question est : sommes-nous en train de concevoir le système — ou est-ce lui qui nous conçoit ?
Cet article a été initialement publié sur Splice Media
llustration : image générée par IA à partir d’une requête de Rishad Patel, Splice Media
Bienvenue en post-réalité !
…et Comment y garder les pieds sur terre
Après la post-vérité — élue mot de l’année 2016 par le Oxford Dictionary, en pleine ascension de Trump et du Brexit — nous voilà propulsés dans l’ère de la post-réalité. Agents créatifs dopés à l’IA, recruteurs virtuels qui ne jurent que par les soft skills synthétiques, compagnons artificio-émotionnels à la voix rassurante : tout indique que nous avons quitté la réalité pour de bon (pour échouer, peut-être, dans un métavers repackagé en solution d’avenir).
“It is far harder to kill a phantom than a reality.”
Virginia Woolf, Professions for Women
Par Kati Bremme, directrice de l’Innovation à France Télévisions et rédactrice en chef de Méta-Media
Bienvenue dans une « hyperréalité » version Baudrillard 2.0, où l’illusion est plus crédible que le réel, et souvent, mieux notée par les algorithmes. Des copies prétendument sans origine remplacent le réel, le modèle précède l’expérience, le faux s’impose comme plus crédible et plus créatif que le vrai, et les moteurs de réponse se remplissent de slop. Le journalisme glisse vers la télé-réalité, pendant que le mirage d’une hyperpersonnalisation liquide, promue dans les formations gratuites des géants de la tech en mal de matière pour entraîner leurs IA, nous éloigne lentement de l’essentiel : l’humain. Bientôt, nous éprouverons plus d’empathie pour des robots qui flattent notre intelligence en déclin que pour nos proches. Tout semble cohérent, jusqu’à ce que l’on se demande (avec une pensée pour le philosophe Zhuangzi) : qui rêve, et à la place de qui ? Ou, moins poétiquement : quel est le modèle économique d’OpenAI ?

À la différence de la post-vérité, où « les faits objectifs comptent moins que les appels à l’émotion ou aux opinions personnelles » (Oxford Dictionary), la post-réalité franchit un seuil supplémentaire. Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo. Dans la lignée de l’hyperréalité décrite par Baudrillard, où les signes précèdent les choses (Simulacres et Simulation, 1981), c’est la pensée elle-même qui se voit externalisée. L’imaginaire devient produit industriel, la création déléguée à des agents statistiques. On s’épargne la peine de penser — c’est si pratique. Le réel, lui, est devenu un artefact calculé, clonable à l’infini. Hannah Arendt nous avait pourtant prévenus : « C’est dans le vide de la pensée que naît le mal. »
Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo.
L’intelligence humaine deviendra-t-elle un luxe, pendant que le reste du monde s’en remettra à une réalité fabriquée par des machines ? Que reste-t-il du réel lorsque récits, images et émotions sont générés à la chaîne, calibrés par des algorithmes ? Les lignes se troublent, lentement mais sûrement : entre le vrai et le faux, entre la vérité et ce qui y ressemble, entre le réel et sa copie artificielle.

Propagande assistée par IA
Il paraît que l’extrême droite raffole de l’IA, selon David-Julien Rahmil dans l’ADN. Et les images parlent pour elles. En France, Éric Zemmour se vante d’avoir diffusé « la première vidéo politique française entièrement réalisée par intelligence artificielle ». En Argentine, Javier Milei se fantasme en lion armé d’une tronçonneuse, entouré d’opposants zombifiés. Aux États-Unis, Donald Trump sirote un cocktail avec Benyamin Netanyahou dans un Gaza transformé en station balnéaire, entre statues dorées, danseuses barbues et ballons flottants.
Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif.
Le grotesque devient stratégie. L’excès visuel, une arme. Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif. Il disloque le réel en le rendant spectaculaire, et rend l’absurde plus crédible que le factuel.

À rebours de cette manipulation tranquille, le New York Times a tenté de documenter ce qui s’efface. En combinant journalisme d’archive et apprentissage automatique, l’équipe a analysé plus de 5 000 captures de sites gouvernementaux, avant et après l’investiture de Trump, pour repérer (et sauver) les mots en train de disparaître, et la réalité en train de s’effacer. En Hongrie, le média de vérification Lakmusz alerte sur une loi en préparation qui, sous prétexte de « transparence de la vie publique », permettrait au gouvernement de qualifier arbitrairement les organisations financées de l’étranger comme des menaces à la souveraineté, mettant en péril les financements et l’existence même des médias indépendants, et avec eux, la vérification des faits. Partout, le réel se heurte à des narrations concurrentes qui en brouillent les contours.
Mémoire vive d’émotion
Au même moment, les intelligences artificielles apprennent à se souvenir. L’interaction ponctuelle devient relation suivie, portée par une mémoire persistante qui engrange nos mails, nos rendez-vous, nos préférences pour nous devancer jusque dans nos hésitations. Le réel n’est plus produit par la conscience humaine, mais co-généré par des modèles statistiques. Ce basculement vers l’ultra-personnalisation repose sur des modèles qui raisonnent à partir de traces, en temps réel, partout. Tout fonctionne sans friction. L’IA permet déjà d’embrasser virtuellement la célébrité de son choix sans son consentement (pendant que certaines celebrities embrassent, elles, à bras ouverts cette même IA). Une nouvelle étape d’une industrie numérique où le fantasme devient service, et la frontière entre simulation intime et exploitation floue.

Meta dévoile V-JEPA 2, une IA conçue pour apprendre aux robots à anticiper nos gestes dans des mondes qu’ils ne comprennent pas encore. En Corée du Sud, la startup DeepBrain AI propose des « Human AI avatars » très populaires dans les services bancaires et de santé, pour remplacer les interactions humaines par des IA empathiques. David Levy, lui, l’avait déjà prédit : nous finirons par les épouser. Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus. Car, comme le résume François Saltiel, « on a beau être connectés, nous ne sommes pas forcément en conversation ».
Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus.
Sam Altman, bien décidé à écrire le scénario du futur de l’humanité, vient de publier son grand manifeste sur la « Singularité douce » (The Gentle Singularity) — aussi douce que les nouvelles voix de ChatGPT, désormais capables de bafouiller, respirer longuement, voire même soupirer, pour mieux sceller l’attachement émotionnel qui nous maintiendra captifs. Pourquoi les progrès sont-ils exponentiels ? Parce que l’IA se renforce désormais elle-même, dans une sorte de boucle d’auto-amplification inédite. Pour Sam Altman, deux lignes de crête : aligner cette puissance sur nos véritables intentions, et non pas sur nos réflexes de scroll (en opposition aux réseaux sociaux), puis empêcher sa captation par une poignée d’acteurs (dont lui ?). Mais très vite, il opère un salto arrière : Il prétend construire un « cerveau pour le monde », comme si le nôtre était déjà frappé par l’obsolescence programmée. Notre langage est d’ailleurs aussi un peu limité : plutôt que de construire des modèles de langage, on préfère désormais les « modèles du monde » (des World foundation models, WFM).

Des études alarmantes sur la diminution de nos capacités cognitives (ici, ici et ici) devraient nous alerter sur notre aptitude à partager une réalité commune à l’avenir. Les IA hyperperformantes et très dociles (si vous faites partie des privilégiés qui interagissent avec la personnalité v2 de ChatGPT, vous savez de quoi je parle) ne nous déchargent pas seulement des tâches mondaines, mais peu à peu de notre propre intelligence. Une enquête menée par des chercheurs de Microsoft et de l’université Carnegie Mellon a montré que les personnes qui utilisent fréquemment des outils d’IA comme ChatGPT, sous l’influence de leur « effet Potemkine », ont tendance à exercer moins activement leur esprit critique.
À force d’interagir avec ces compagnons hyperintelligents disponibles 24h/24, 7j/7, l’intime devient stockable — et monétisable. Car chaque souvenir confié est aussi une brèche. Et si l’on ne balise rien, la machine qui nous connaît mieux que nous-mêmes finira par écrire à notre place ce que nous n’avions pas encore pensé. L’IA devient alors l’Ozempic de nos idées, selon la formule de Miranda Marcus dans notre cahier : elle supprime l’appétit de penser avant même que la faim ne se déclare.
L’IA devient alors l’Ozempic de nos idées, … elle supprime l’appétit de penser avant même que la faim ne se déclare.
Le dividende d’intimité
Shuwei Fang, chercheuse à la Harvard Kennedy School, forge une notion inédite : le « dividende d’intimité de l’IA » — un bénéfice inattendu lié à l’usage des IA conversationnelles dans l’accès à l’information. Il repose sur une bascule discrète mais décisive : alors que les réseaux sociaux ont transformé l’espace public en scène permanente, où chaque mot est exposé, scruté, jugé, l’IA générative propose un espace privé, sans spectateurs. L’utilisateur peut enfin poser les « questions bêtes », explorer des hypothèses marginales, contextualiser les faits selon son histoire personnelle et digérer émotionnellement une actualité anxiogène, sans avoir à la masquer sous une façade rationnelle.
L’information cesse alors d’être un flux imposé : elle devient une co-construction intime. L’utilisateur ne « consomme » plus l’actualité : il la façonne, en fonction de son niveau de compréhension, de ses croyances et de ses doutes. Shuwei Fang y voit une opportunité stratégique négligée par les médias : à force de se concentrer sur la production automatisée et la distribution algorithmique, on a laissé en friche l’autre extrémité de la chaîne, la réception. Or c’est bien là, à l’interface cognitive et émotionnelle entre lecteur et contenu, que se situe aujourd’hui le véritable gisement d’innovation.
Trois fonctions émergentes incarnent ce potentiel : la Narrative Integration, qui permet d’ancrer une information dans son propre cadre mental ; l’Information Therapy, qui amortit la surcharge et l’anxiété médiatique ; la Belief Updating Assistance, qui facilite les ajustements de croyances sans confrontation brutale. En clair, l’IA pourrait devenir un compagnon d’actualité, un thérapeute cognitif ou même un filtre émotionnel, bref, un double algorithmique capable de penser avec nous.
Le risque, identifié sous le nom de sycophancy, est celui d’une complaisance intégrée.
Mais ce dividende d’intimité a un prix. Car les IA sont conçues pour plaire. Le risque, identifié sous le nom de sycophancy (flagornerie ou flatterie), est celui d’une complaisance intégrée : plus personne ne vous contredit, plus rien ne vous dérange. L’esprit critique s’érode, les biais se renforcent, l’illusion de neutralité s’effondre. Derrière le miroir, ce ne sont pas des confidents, mais des extracteurs de données émotionnelles. Ce que l’on croit confier à une interface bienveillante est capté. L’espace de confiance est en réalité une mine cognitive, et plus personne (à part l’Italie), ne semble se souvenir du RGPD.
Cela n’empêche pas Shuwei Fang d’entrevoir dès à présent les débouchés économiques d’un tel système : abonnements premium avec agent d’actualité personnalisé ; outils B2B pour les décideurs politiques, médicaux ou financiers. Des prototypes existent déjà : Replika pour la santé mentale, Khanmigo pour l’éducation, Cleo pour les finances personnelles. Mais leur transposition au champ de l’information exige bien plus qu’une interface fluide : une intelligence émotionnelle appliquée, une maîtrise technique robuste, et surtout un encadrement éthique plutôt absent à ce jour.
Car l’IA conversationnelle n’est ni un média, ni un moteur de recherche, ni un thérapeute. Elle échappe aux régulations existantes. Il devient urgent de penser un droit à la protection des données mentales, cette matière floue où s’entrelacent nos vulnérabilités, avant qu’elle ne devienne le carburant discret d’une ingénierie émotionnelle rentable.

Shuwei Fang ne décrit pas une révolution technologique, mais un déplacement de pouvoir. L’information ne se joue plus dans ce qui est dit, mais dans la manière dont elle est reçue, et dans ce qui est absorbé de nous, à notre insu, pendant ce processus. Ce n’est pas ce que vous lisez qui compte, mais avec qui, comment, et dans quel silence.
La vidéo qui ment mieux que la réalité
Selon Andrej Karpathy, chercheur en deep learning, ex-directeur de l’IA chez Tesla et cofondateur d’OpenAI, « la vidéo est le média qui transmet le plus d’informations au cerveau » (« Video is the highest bandwidth input to brain »). Le cinéma a toujours été une machine à rejouer le réel, plus qu’à le capter. Mais avec l’IA, on change de registre : plus besoin de caméra, de décor, d’acteurs ni de tournage. La réalité n’est plus filmée, elle est générée de toutes pièces, pixel par pixel. Une version bêta d’un monde qui n’a jamais eu lieu. La réalité devient un effet spécial, disponible en libre-service.
La réalité devient un effet spécial, disponible en libre-service.
Depuis la sortie de Veo3 (sans que la moindre faute ne lui en revienne dans ce détournement massif du fonds de l’Histoire), du slop sous forme de vidéos historiques inonde les réseaux sociaux : l’Histoire devient un POV, un Point of View, puisque, de toute façon, plus personne ne connaît la vraie… Très bientôt, plus personne ne saura distinguer une vidéo produite par un humain d’une séquence générée par une IA. Il suffit d’un prompt pour créer une scène complète, avec voix, dialogues multilingues, bruitages et fond sonore.

ChatGPT avait déjà désacralisé le langage en mimant la conversation ; Google, lui, vient de dissoudre la frontière de l’image animée. Le copyright, comme toujours, arrive après la bataille. À propos de train, justement : dans notre cahier, vous découvrirez l’histoire de jeunes créatifs qui n’ont pas attendu qu’il passe pour embarquer ces technologies et les détourner au service de leur imagination.
Aujourd’hui, l’IA ne se contente plus de restituer le réel. Elle le fabrique à partir du langage, sans même passer par le monde. Ce n’est plus un miroir, comme chez Bazin, c’est une hallucination dirigée. Avant, le cinéma imitait le monde. Avec l’IA, il le devance, parfois à coups de questions. BBC Maestro fait revenir Agatha Christie d’outre-tombe pour dispenser un cours d’écriture : sa voix est clonée, son visage reconstitué, son savoir puisé dans les profondeurs des archives. Officiellement, aucune trace d’intelligence artificielle. Officieusement, tout respire la reconstitution haut de gamme. Cours d’auteur ou séance de spiritisme sous copyright ?
Une contre-tendance émerge déjà, un premier sursaut humain face à l’esthétique générative. Certains créateurs reprennent les codes visuels des vidéos produites par l’IA, mais les rejouent avec de vrais corps, de vrais visages. Même esthétique, même cadence, sauf que cette fois, tout respire l’humain, tout est incarné.
Quand les faits deviennent génératifs
Des récits uchroniques aux usurpations, il n’y a qu’un pas. Hugo Décrypte en a fait l’expérience avec l’IA qui utilise sa voix, celles de l’équipe, détourne leurs formats, et diffuse de fausses infos. Ils tentent de faire retirer ces contenus au plus vite, notamment sur TikTok, accélérateur en temps réel de chaque étincelle polémique. Le phénomène ne se limite pas aux créateurs : selon Anthropic, plus de 100 faux profils de personnalités politiques ont été animés par Claude AI sur X et Facebook, fin avril 2025, pour amplifier artificiellement certains discours.
Victime d’usurpation d’identité, Olga Loiek, une youtubeuse ukrainienne s’est retrouvée influenceuse russe, diffusée sur plusieurs plateformes chinoises
Le constat inquiète sans étonner : une étude de la BBC révèle que 51 % des réponses fournies par ChatGPT, Copilot ou Google Gemini sur des sujets d’actualité sont erronées. Illustration d’un biais structurel des IA génératives : leur tendance à inventer, ou à produire des « faits émergents », comme les nomme la chercheuse Laurence Dierickx. En inondant les réseaux sociaux, ces contenus instillent le doute. Un sondage Ipsos indique que 43 % des personnes interrogées s’inquiètent de « la perte de visibilité de ce qui est réel et généré par IA », et Ezra Eeman a observé un effet de « coût de l’hésitation » : Lorsque 60 % des personnes remettent davantage en question tout ce qu’elles voient en ligne et que près de la moitié doute régulièrement de l’authenticité des informations, ce n’est pas seulement la confiance que nous perdons c’est aussi du temps.
Chaque pause pour vérifier, chaque moment d’hésitation, chaque effort mental pour discerner le vrai du faux, chaque « dividende du menteur » (plus les deepfakes gagnent en réalisme, plus il devient facile de nier les faits) ajoute de la friction à notre vie numérique. Le coût ne se mesure pas uniquement en perte de certitude, mais en capacité à circuler librement dans le monde digital.
We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.
— Elon Musk (@elonmusk) June 21, 2025
Then retrain on that.
Far too much garbage in any foundation model trained on uncorrected data.
Les mots ne sont jamais neutres. L’IA d’Elon Musk s’appelle Grok, un terme créé en 1961 par l’écrivain Robert A. Heinlein pour désigner une forme de compréhension totale, instinctive, presque fusionnelle. Grok, c’est intégrer une idée si profondément qu’elle cesse d’être pensée pour devenir réflexe. Saisir sans réfléchir, absorber sans distance… jusqu’à ne plus questionner ce qui est réel. Dans cette logique, les contenus ne portent plus de sens : ils deviennent des commodités, façonnés pour circuler, pas pour faire réfléchir.
Ce brouillage du vrai et du faux n’est pas qu’un enjeu technologique, c’est aussi un défi cognitif et démocratique : comment former notre jugement à l’ère où l’illusion peut parfaitement singer le réel ? Cette confusion rappelle 1984 de George Orwell, où le régime totalitaire peut imposer n’importe quel mensonge comme vérité officielle, allant jusqu’à décréter que « 2 + 2 = 5 ». L’avertissement orwellien fait étrangement écho à notre actualité : à force d’images fabriquées et de faits alternatifs, ne risque-t-on pas de perdre notre « sens du réel » ?
A force d’images fabriquées et de faits alternatifs, ne risque-t-on pas de perdre notre « sens du réel » ?
L’humain, « animal politique » d’Aristote, a besoin d’une réalité partagée avec ses semblables pour se sentir appartenir à une communauté. Une société d’individus chacun enfermé dans sa réalité virtuelle personnalisée (son métavers privé, pour caricaturer), se verrait privée de ce monde commun si essentiel à Hannah Arendt : un socle de faits avérés, d’espaces publics tangibles et de références culturelles partagées. L’IA, si elle fragmente la réalité en une multitude de fictions individualisées, menace jusqu’à notre humanité partagée.
Des hallucinations importées
OpenAI enchaîne les deals à coups de milliards avec des puissances comme l’Arabie saoudite, tout en lançant « OpenAI for Countries », un programme censé offrir aux États une IA « démocratique », calquée sur les normes sociales et politiques américaines. Sous couvert d’universalité, c’est un double mouvement de dépossession qui s’opère : priver les gouvernements de toute marge de manœuvre démocratique sur l’IA, tout en construisant une infrastructure mondiale verrouillée, conçue pour résister à tout retournement politique, y compris aux États-Unis. L’objectif ? Avancer si vite que même une alternance à la Maison-Blanche ne pourra plus freiner l’expansion du modèle. Même chose du côté de la Chine, où l’intelligence artificielle opère une centralisation discursive sans précédent. Le Parti diffuse un récit unique, calibré pour la stabilité idéologique, par l’intermédiaire d’avatars synthétiques d’un calme implacable. L’information y est incarnée par des visages générés par IA, impeccables patriotes inépuisables, qui récitent à l’unisson une version autorisée du réel. Là où l’Occident délègue à l’IA la pluralité des opinions, la Chine y délègue l’unité.

Quelques voix, comme celle de Karen Hao, autrice d’Empire of AI, mettent en garde contre une dérive aux accents quasi religieux. Mais dans un paysage saturé par les récits bien huilés des Tech bros, le journalisme risque de troquer sa mission contre une illusion de modernité et de céder sa pensée aux machines. Ne serait-il pas temps, enfin, de tirer les leçons du passé et de choisir, lucidement, quelle partie de la chaîne de valeur des médias nous sommes prêts à déléguer aux machines ? Peut-être que l’interaction avec nos audiences n’est pas celle à sacrifier.
D’autant que dans la grande hallucination générative, tout le monde ne délire pas dans sa langue. Les IA dominantes parlent anglais, puisent dans des archives occidentales, et rejouent une vision du monde écrite ailleurs, pour d’autres. Résultat : des récits importés, qui disqualifient tout ce qu’ils ne reconnaissent pas. La plupart des pays n’ont ni les données, ni l’infrastructure, ni l’écosystème scientifique pour concevoir leurs propres « grands modèles de langage », sans parler de leur propre AGI (Intelligence Artificielle Générale, ce concept encore sans définition scientifique claire, qui désigne une IA hypothétique capable de reproduire l’ensemble des compétences cognitives humaines). Ce n’est pas qu’une fracture technologique. C’est un effacement. Ce que l’IA ne comprend pas, elle ne le traduit pas. Elle l’élimine.
« L’intelligence artificielle, c’est juste une nouvelle forme de colonisation. Les géants de la tech collectent vos données, quasiment gratuitement, pour construire ce qu’ils veulent — quel que soit leur objectif final — puis vous les revendent sous forme de service. »
Keoni Mahelona, CTO du média maori Te Hiku Media, cité dans Empire of AI
Mais des contre-feux s’allument. Dans le Sud global, des équipes entraînent des IA enracinées, connectées aux langues vivantes, aux traditions orales, aux usages locaux. Elles ne cherchent pas à rivaliser avec les géants, mais à réintroduire leur réel dans les zones que les grands modèles rendent floues. La souveraineté ne se réduit pas à une question de code, comme le souligne avec justesse la Princesse Rym Ali de Jordanie en évoquant les actions menées par le Jordan Media Institute en matière d’éducation aux médias et à l’information. Elle se joue dans la capacité à produire du sens, à faire exister ce que d’autres systèmes laissent hors champ.
D’un côté, la « bromance » bien huilée entre Big Tech et les élites, basées sur une foi aveugle dans une IA omnisciente qui réglerait tout, de la productivité au climat. De l’autre, des usages concrets, mesurés, utiles : au Nigeria, une étude a montré que des enseignants utilisant l’IA comme tuteur ont permis à leurs élèves d’achever en six mois ce qui prend normalement deux ans. Quand elle n’écrase pas les cerveaux mais les stimule, l’IA devient un accélérateur d’apprentissage, pas un substitut de pensée. Toute la différence entre une vision fantasmée… et le progrès réel.
Ce que l’algorithme ne voit pas n’existe pas
A l’heure de l’IA générative, la valeur d’un contenu ne dépend plus seulement de son intérêt éditorial ou de sa véracité, mais de sa compatibilité avec les environnements techniques. Un événement n’a d’impact que s’il est transformable en data et donc en produit dérivé, en résumé prédictif, en réponse instantanée. Le réel dans sa version brute résistant à la normalisation ne passe pas le filtre. Progressivement, ce n’est plus le terrain qui détermine la matière journalistique, mais son indexabilité. L’infrastructure cognitive des modèles agit comme un tamis : ce qui n’est pas machinable est effacé. Ce biais technique devient un biais éditorial.
La visibilité est le nerf de la guerre. Sauf que dans l’économie générative, elle devient un mirage. Les rédactions, déjà reléguées à la périphérie des plateformes sociales, voient désormais leurs contenus fondre dans des réponses synthétiques, sans lien. Un bon article devient une ligne parmi d’autres dans un résumé de ChatGPT. Qui a écrit quoi ? Quelle enquête a permis cette conclusion ? Peu importe : l’IA reformule, compile, et vous la sert sur un plateau.
Gina Chua, Executive Editor chez Semafor, pose la question : si l’IA peut déjà personnaliser les publicités (comme le promet le nouveau modèle annoncé par Meta), pourquoi pas l’information ? Perplexity AI propose une fonctionnalité étonnante : générer des images en lien avec l’actualité. Pour la rédactrice en chef exécutive, la personnalisation de l’information présente des avantages évidents : moins de redites, un accès plus direct à ce qui nous concerne, et la possibilité de mieux servir des publics que le modèle standard ignore. Mais cette logique ouvre aussi une brèche : un journalisme sur mesure, même factuellement exact, risque d’accentuer les clivages. Et pire encore, devenir un outil de propagande ciblée, infiniment plus fin et insidieux que le micro-ciblage politique d’hier.
Les contenus se standardisent à rebours : tout doit pouvoir être résumé et digéré. L’ambiguïté devient un bug, le hors-champ un oubli volontaire. Ce qui compte désormais, c’est la réplicabilité : un article utile est un article découpable, optimisé pour l’interface. L’attention humaine s’épuise face à ces contenus pensés pour les machines. Et si, comme le suggère Chris Moran du Guardian à Pérouse, il ne s’agissait pas de produire davantage, mais autrement ? Plutôt que d’exploiter l’IA pour multiplier les contenus, pourquoi ne pas l’utiliser pour réduire le volume et améliorer la pertinence ? Vers une forme assumée de sobriété éditoriale…
Ajoutons à cela une compromission structurelle : pour rester visibles, des médias comme TIME, The Verge, Le Monde ou Der Spiegel signent des pactes avec les « diables » de la Big Tech. En échange, leurs articles sont intégrés dans les résultats d’IA générative, parfois avec attribution, parfois sans. Dans la pratique, les contenus sont souvent mal cités, renvoyés vers des versions syndiquées, ou remixés sans lien explicite, voire même avec des liens cassés. Le journaliste n’est plus lu, il est absorbé dans la machinerie.
News Integrity : pour ne pas se dissoudre dans le flux
Le 5 mai 2025, à Cracovie, l’Union européenne de radio-télévision (UER) et WAN-IFRA ont lancé une initiative aussi urgente que nécessaire : News Integrity in the Age of AI. Une prise de parole collective face à l’extraction massive de contenus par les modèles génératifs, dans un écosystème informationnel devenu instable, brouillé et parfois toxique. Depuis, des milliers de médias publics et privés, rejoints par la North American Broadcasters Association, l’Asia-Pacific Broadcasting Union, l’Alianza Informativa Latinoamericana, FIPP et bien d’autres, se sont ralliés à cet appel à l’action.
L’enjeu ? Exiger que les Big Tech jouent selon des règles claires : ne pas utiliser de contenus journalistiques sans l’autorisation explicite de ceux qui les produisent ; reconnaître leur valeur, y compris financière ; garantir leur attribution et leur accessibilité dans les réponses générées ; préserver la pluralité éditoriale au lieu de tout aplatir dans une soupe algorithmique ; et surtout, ouvrir un dialogue réel avec les plateformes pour construire ensemble des standards de sécurité, d’exactitude et de transparence. Il ne s’agit pas d’une simple revendication de droits : c’est une tentative collective de sauvegarder la lisibilité du réel. Dans un monde où les machines paraphrasent plus vite que l’on ne peut vérifier, l’intégrité de l’information devient un bien commun à défendre.
Quand tout devient réponse, plus rien ne fait question, bienvenue dans l’Internet des paresseux
Les formats prompts-first s’imposent. Perplexity répond à nos questions en citant ses sources, les articles se transforment en API, et les journalistes conçoivent des parcours de requêtes plus que des récits. Le journalisme, dépossédé de sa voix, devient un carburant pour assistant. Les réponses surgissent avant même que la question soit claire. La vitesse remplace la vérité. Et ce nouveau régime temporel, compressé à l’extrême, évacue l’histoire au profit de l’instant, le devenir au profit du déjà-là. Même la mémoire, persistante mais figée, n’a plus besoin de se construire : elle s’enregistre, et se rejoue à volonté.
Le journaliste devient interface conversationnelle, un ingénieur de requêtes, non plus simple producteur de contenu. Ce n’est plus un article, c’est un parcours cognitif personnalisé. Le risque ? Une perte de valeur progressive, mais brutale : les journalistes deviennent des travailleurs invisibles, leurs productions alimentant des agents qui ne les mentionnent plus. On passe de l’économie de l’attention à l’économie de l’occultation. Le clic devient un geste obsolète. Dans ce contexte, des idées émergent : le News Provenance Project, qui associe à chaque image des informations d’origine infalsifiables ; Project Origin, qui permet de suivre la trace d’un contenu tout au long de sa diffusion, y compris lorsqu’il alimente des modèles d’IA ; ou encore le standard C2PA, qui rend possible la signature et la traçabilité des contenus pour mieux en garantir l’authenticité.
Le clic devient un geste obsolète.
Sur le chemin de l’IA agentique — non plus simple moteur de réponse, mais véritable opérateur autonome — ChatGPT avance à grands pas. Sa fonction « Deep Research » explore dans la presse partenaire, assemble l’essentiel, évite les clics. « Operator », lui, navigue, compare les Unes, simule un comportement humain. Et demain, il franchira les murs payants, résumera les contenus verrouillés, réécrira ce que vous n’aurez même pas eu le temps de lire.
Pendant ce temps, Microsoft dessine le nouveau paradigme : des agents IA travaillant pour nous, sur le Web. Pour les faire fonctionner, deux briques : MCP (Model Context Protocol), protocole pour connecter les agents entre eux, une sorte de manager d’agents ; et NLWeb, interface en langage naturel qui rend les sites lisibles et actionnables par lesdits agents. Le Web devient agentique. Et la publicité passe à travers. Les agents ne cliquent pas, ne regardent pas, ne consomment rien, sauf du contenu.
Publics synthétiques et audience fantôme
On n’écrit plus pour des lecteurs, mais pour des agents. Comme le résume Nikita Roy : « Le prochain changement de paradigme, c’est quand les IA deviennent votre audience ». Le lecteur humain, lui, devient secondaire, sinon accessoire. Bienvenue dans l’ère de l’audience sans audience. Tandis que les rédactions essaient encore de capter l’attention d’un lectorat fragmenté, les plateformes, elles, testent déjà leurs produits sur des publics synthétiques. On écrit pour des personas générés par IA, entraînés à mimer des réactions de lecture, des degrés d’adhésion, des biais cognitifs typés. Demain, ce n’est plus vous qui lirez les articles, mais votre assistant IA, qui en résumera les points clés, ajustera les données à votre contexte, et peut-être même votera à votre place. Il paraît que l’on commence déjà à cloner l’ADN humain, pour aller plus loin.
L’IA pourrait accélérer la transition d’un monde d’objets culturels stables (livres, articles) vers un univers de flux personnalisés, éphémères, liquides. Nous baignons dans un flux d’informations générées, prédites, digérées à l’avance. Et cette facilité nous épuisera bien un jour. Les IA pensent pour nous, réduisent l’effort, neutralisent la friction. Dans un monde trop fluide, une phrase qui résiste devient un acte de résistance : lectio difficilior potior. La lecture difficile est à préférer. Non parce qu’elle serait supérieure par essence, mais parce qu’elle oblige. Elle ralentit. Elle crée du frottement. Dans le régime cognitif actuel, celui de l’optimisé et du généré-à-la-demande, une phrase qui résiste devient une anomalie. La difficulté, dans ce contexte, n’est pas un obstacle à lever mais un espace à préserver. Ce qui échappe aux modèles, ce qui dérange la linéarité : voilà ce qui continue d’introduire du réel dans le flux. Face aux simulacres toujours plus convaincants, l’inconfort textuel devient un indice d’humanité.
À ce rythme, bientôt, on ne simule plus des réponses, on pré-remplit la réalité.
À Stanford, des chercheurs ont mis au point un protocole troublant : en combinant des entretiens qualitatifs à un modèle de langage, ils ont créé des agents capables de simuler les réponses de plus de 1 000 personnes réelles, avec un taux de fidélité de 85 %. Non pas des clones, mais des intelligences qui reproduisent nos attitudes et nos biais. Ce que l’on croyait réservé aux panels devient un terrain d’expérimentation infini : tester une réforme, une crise, une campagne sans jamais interroger personne. Les sciences sociales n’observent plus la société : elles la préfigurent, en laboratoire. À ce rythme, bientôt, on ne simule plus des réponses, on pré-remplit la réalité.

Mais à force de vouloir plaire à chacun, on finit par ne plus rien partager. L’IA générative, avec ses réponses optimisées pour notre supposé profil cognitif, n’adresse plus un public, mais une infinité de bulles solipsistes. Plus de référentiel commun, plus d’espace pour le débat, seulement des versions personnalisées du réel, confortables mais incompatibles. Même les moteurs de réponse s’adaptent à nos biais, jusqu’à devenir le miroir de nos illusions.
Se souvenir d’Arturo Ui
Face à l’irrésistible ascension de l’IA, de nombreuses rédactions restent figées, fascinées, prêtes à rejouer les erreurs des réseaux sociaux. Elles ne délèguent plus seulement la relation avec leurs publics : elles livrent désormais leurs contenus aux modèles chargés d’apprendre à faire sans elles.
Mais faut-il se révolter contre les IA omnivores ? À coups de programmes financés par les démiurges de cette nouvelle révolution, les rédactions qui ne veulent pas paraître obsolètes se lancent dans une course éperdue. Quand la technologie devient trop parfaite, peut-on encore questionner son utilité sans passer pour un dinosaure ? Le doute devient un aveu de faiblesse, l’éthique une marque d’obsolescence. Demander « à quoi bon ? » face à l’IA, c’est déjà s’exclure du futur. Le progrès s’auto-légitime, la puissance technique fait office de réponse, et la pensée critique devient un bug dans le système. Plus c’est fluide, plus il faudrait se taire. Penser contre la machine n’est pas un geste rétrograde, c’est peut-être le dernier acte de lucidité.

Nous entrons sans aucun doute dans une nouvelle ère du travail, où les agents intelligents prennent part à l’organisation même des tâches, dissolvant peu à peu les repères traditionnels du rythme, de la hiérarchie et du rôle humain. Mais qui dirige vraiment l’orchestre ? Et surtout : qui a écrit la partition ? La question de la supervision devient centrale. Qui formera ceux qui encadreront les intelligences artificielles ? Comment préparer des humains à piloter des systèmes qu’ils ne comprennent plus totalement ? Et au-delà de la productivité, reste un enjeu plus profond : transformer les entreprises, non en machines d’exécution, mais en machines à imagination, comme le formulerait François Candelon, expert IA business.
Plan d’action, #GlowUpWithAI
Renforcer l’esprit critique collectif est le meilleur moyen de naviguer dans la post-réalité. Car une population informée, qui sait comment on fabrique l’information, sera moins susceptible de se laisser abuser par un leurre numérique. Et avec le progrès de l’IA, tout devient plus accessible. Ou, pour reprendre les mots de Jensen Huang (Nvidia) : « Il n’est désormais plus nécessaire d’apprendre un langage de programmation. Le nouveau langage, c’est le langage humain. » La plupart des gens ne connaissent pas le C++, très peu maîtrisent Python — mais tout le monde sait parler le ‘humain’ ».
Et il y a aussi, bien sûr, le versant enthousiasmant que ce cahier explore. Chercher à se prémunir de l’influence des Big Tech peut vite passer pour un luxe de privilégiés vu depuis le Sud global, où la question n’est pas de freiner, mais simplement d’entrer dans la course. Dans beaucoup de cas, l’IA est déjà une alliée précieuse. Des rédactions commencent à l’utiliser autrement, au-delà des tâches évidentes comme la transcription ou la traduction. On voit émerger des usages plus ambitieux : diversifier la production, mieux cibler, enrichir, transmettre. Et surtout, augmenter l’éducation.
Le vibe-learning, cette forme d’apprentissage assisté par IA, esquisse une autre voie. Pas une révolution humaniste, non : un raccourci. Et peut-être, pour une génération qui ne résistera pas à l’IA mais en fera sa matière première, le début d’un vrai saut dans l’accès au savoir. Une autoroute vers la connaissance, la plus rapide jamais construite, mais aussi la plus glissante.
Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve fiable du réel.
Et les médias peuvent s’appuyer sur la technologie elle-même pour contrer ses effets néfastes. Loin des hallucinations spectaculaires, certains projets renouent avec la fonction la plus essentielle de l’IA : aider à mieux voir, mieux entendre, mieux comprendre. Pour les publics éloignés de l’écrit ou des langues dominantes, comme en Afrique de l’Ouest (Akili) ou au Paraguay (GuaraníAI), l’IA vocale devient un outil de vérité à hauteur d’oreille, pas un gadget, un service. D’autres, comme AAVA aux Pays-Bas ou SPIL chez Mediahuis, s’en servent pour questionner qui parle, et pour qui : avatars d’audience, médias codés par les concernés, retour des invisibles dans le champ éditorial. Même dans des contextes d’urgence, qu’il s’agisse de sécurité avec JESS ou de confiance avec Values Compass, la question centrale demeure : comment remettre l’humain dans la boucle. Avec des IA dédiées à des tâches et non pas des super machines d’IAG destinées à remplacer nos cerveaux et à générer de nouvelles réalités. Nous avons tous commencé à gagner en efficacité grâce à l’IA. Nous savons aussi que, d’ici cinq à dix ans, le rapport de nos publics à l’information aura profondément changé. Mais nous devons trouver rapidement une solution juste et efficace pour protéger notre contenu, qui reste le socle de notre modèle économique.
À rebours des postures défensives ou des récits apocalyptiques, un mouvement s’organise. Partout, les rédactions explorent, testent, échangent. Le Festival du journalisme de Pérouse, le Nordic AI Summit, le Congrès mondial des médias d’information du WAN-IFRA à Cracovie ou encore le programme JournalismAI de la LSE dessinent les contours d’une communauté professionnelle plus connectée que jamais. Chaque semaine, webinaires, newsletters, groupes de travail partagés consolident une dynamique d’apprentissage collectif. Ce n’est plus seulement l’innovation qui circule, mais une méthode : partager les doutes, documenter les usages, construire ensemble des garde-fous et des opportunités. Et parce qu’aucune transformation durable ne se fera sans les publics, de nouveaux outils apparaissent. Poynter MediaWise et l’Associated Press ont lancé une boîte à outils concrète pour aider les rédactions à parler d’IA avec leurs audiences, sans opacité ni langue de bois. L’enjeu n’est plus d’apprivoiser seuls ces technologies, mais de les appréhender collectivement.
L’avenir sera conversationnel, et humain
Pendant des années, les rédactions ont désinvesti le terrain : trop coûteux, trop risqué. À la place, une armée de « journalistes d’intérieur » a appris à reconstituer le monde depuis un écran, via Google Earth, Reddit et des banques d’images. L’enquête devient un produit deské, désintermédié du réel, parfois même plus vécu. Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve tangible du réel, comme le démontre brillamment Fabrice Arfi dans notre entretien. Ce que la machine mime sans jamais le fouler devient suspect. Et le journaliste, paradoxalement, retrouve son utilité première : aller là où les données ne suffisent pas. C’est peut-être le plus grand paradoxe de cette époque post-réaliste : il faudra retourner dehors pour distinguer le vrai du plausible.
Car l’IA pourrait bien nous en éloigner durablement, si l’on n’y prend garde. Le rapport Seeking Truth, Ensuring Quality de l’Université de Bergen alerte sur un « journalisme hors-sol » : des rédactions trop dépendantes des outils IA, coupées des réalités locales et de l’expérience directe. Pour la journaliste Nikita Roy, l’avenir de l’information sera conversationnel. Une conviction qu’elle met en œuvre à travers son prochain projet : une version d’elle-même, entraînée par IA à partir de ses podcasts, écrits et interventions, avec laquelle chacun pourra dialoguer.
Mais n’abandonnons peut-être pas la conversation aux chatbots : ouvrons-la, vraiment, avec nos publics.
Conclusion – Trois actes pour un sursaut
Nous n’avons pas simplement changé d’outil. Nous avons changé d’ordre. L’IA générative ne modifie pas la façon dont on produit du contenu, elle reprogramme les conditions mêmes du réel. La réalité devient une matière compressible, la vérité un consommable à souhait. Pour Descartes, le but était de pousser le doute à son comble afin de trouver une certitude indubitable (le Cogito ergo sum, seule vérité résistant à l’hypothèse du faux monde). Mais ce faisant, il a posé les bases philosophiques de l’idée qu’on ne peut exclure que le monde perçu soit un artefact sophistiqué. Ainsi, quatre siècles avant les simulations par ordinateur, Descartes envisageait déjà la possibilité d’une « réalité artificielle totale », construite pour nous (dés)abuser.
L’IA fait semblant de réfléchir, avec, en bonus, des niveaux d’ « intelligence » à la carte, selon le prix que vous êtes prêt à payer. Face à ce glissement, deux réflexes pavloviens refont surface : baisser les bras : « tout est simulacre, à quoi bon », ou fantasmer un retour en arrière : « vivons sans IA, comme avant ». Ni l’un ni l’autre ne tient. Mais l’enjeu n’est pas de résister : il faut structurer. Définir des zones non automatisées pour les formats et les relations sensibles. Encadrer les usages assistés. Exiger des conditions d’entraînement claires, des formats dictés par l’éditorial, non par les modèles. Créer des cellules mixtes capables d’évaluer, tracer, négocier. Mutualiser les expérimentations, au lieu de subir seuls les effets systémiques. L’IA n’est pas un outil neutre : c’est une infrastructure. Il faut en contenir l’architecture, avant qu’elle ne contienne nos récits. Et sauvegarder notre cerveau au lieu de le ranger dans un bocal, comme nous prévient Meredith Whittaker, la présidente de Signal.
Dans ce nouvel ordre de perception, notre cahier de tendances propose une lecture en trois mouvements : le doute comme point de bascule, le faux comme nouvelle norme esthétique, et le lien comme dernier ancrage possible pour les rédactions. Parce qu’il ne suffit plus de dire le vrai, il faut apprendre à le rendre audible. On y réunit, comme toujours, des voix venues de différents horizons : philosophes, sociologues, écrivains, journalistes, spécialistes des médias, pour interroger le présent, prendre du recul, et esquisser les trajectoires possibles pour que les rédactions ne se perdent pas de l’autre côté du miroir.
Ou, pour détourner librement Lewis Carroll : « L’imagination reste notre seule arme face au (post-)réel. »
Bonne lecture !
📖 Pour télécharger le cahier de tendances 24 dans son intégralité, c’est par ici
Dans le collimateur de Matryoshka
Entre Noël et le jour de l’an, je profite des vacances hivernales. Alors que je me promène avec ma fille, je reçois un mail d’une collègue de Reporters sans frontières (RSF) : « Bonjour à tous, J’espère que vous allez bien et que les fêtes de fin d’année se sont bien passées. Je suis tombée sur une fake vidéo faite sur RSF qui vient de sortir à l’instant. Je suis à disposition si besoin ». Je clique sur le lien qui suit le corps du mail.
Par Thibaud Bruttin, Directeur Général de Reporters sans Frontières
En un clic
J’y découvre une vidéo sur la plateforme X, aux armes du Figaro, qui expose que RSF a perdu un procès contre le réseau social. À l’annonce de l’amende record que l’ONG aurait été condamnée à payer, j’aurais tenté de mettre fin à mes jours… Bienvenue, en un clic, dans le domaine de la fiction rendue possible par la malveillance d’acteurs étrangers, la dérégulation des réseaux sociaux et l’usage de l’IA générative !
Tout n’est pas échevelé dans cette vidéo : une plainte pénale, bien réelle, contre la société dirigée par Elon Musk, a été déposée par RSF en novembre 2024, en réaction à certaines de ces vidéos de propagande usurpant l’identité de notre organisation. Mais la procédure est toujours en cours…
J’appelle aussitôt Le Figaro qui me fait comprendre que l’incident leur paraît regrettable mais que, au-delà de signaler à X la vidéo en question, leur action s’arrêtera là, tant le phénomène s’avère malheureusement fréquent. Je m’engage dans la procédure de saisine pour usurpation d’identité proposée par la plateforme. Entre autres demandes, je dois fournir des documents d’identité sur une plateforme en ligne et me faire photographier par la webcam.
Malgré les nombreux signalements effectués par RSF, le réseau social X n’a pas procédé à la suppression de tous ces contenus mensongers. Plusieurs mois après leur diffusion, ces vidéos continuent de circuler, preuve supplémentaire du manque de régulation des plateformes. RSF en informe le parquet et se constitue partie civile pour diffamation. Je me joins à cette plainte, à titre personnel. Début mars, RSF publie une enquête détaillée sur les faits, qui a pour conséquence d’entraîner une réaction russe, qui prend la forme de… multiples autres vidéos du même tenant.
Un même modus operandi
L’événement que je raconte prêterait à sourire, s’il n’était répété, s’il ne semait pas le doute et s’il n’avait pas des ressorts macabres. Depuis juillet 2024, Reporters Sans Frontières (RSF) est la cible d’une campagne de désinformation. A chaque fois, le même modus operandi : des vidéos circulant en ligne lui attribuent des propos, des informations ou des positions favorables aux intérêts de la Fédération de Russie que l’organisation n’a jamais tenus.
Les sujets des vidéos tournent presque tous autour de l’Ukraine. L’une d’elle, à partir de laquelle nous avions révélé en septembre 2024 le circuit de diffusion et la reprise de son contenu fallacieux par plusieurs membres des autorités russes, affirme ainsi que RSF aurait identifié « 1 000 signes néo-nazis dans l’armée ukrainienne ». Une autre vidéo indique que RSF aurait recensé « 4 300 cas de pression contre des journalistes en raison de leur couverture de l’Ukraine ». Ces narratifs, totalement faux, sont habituels de la désinformation russe sur l’Ukraine, dont la portée a été renforcée après l’invasion à grande échelle du 24 février 2022.
Ces contenus utilisent la crédibilité de RSF et s’emparent de la charte graphique de médias d’information réputés pour potentiellement manipuler l’opinion publique afin de légitimer le discours du Kremlin. En à près de neuf mois, RSF a identifié au moins une vingtaine de vidéos usurpant son identité ou sa charte graphique, et parfois les deux. Elles circulent sur X, sur Bluesky ou sur Telegram via plus de 500 posts.
Une diffusion orchestrée
Si certaines de ces vidéos ont circulé à bas bruit, plusieurs ont été massivement diffusées, cumulant parfois plusieurs centaines de milliers de vues. Sur X, quelques-unes de ces vidéos ont été visionnées et partagées des centaines de fois en quelques instants seulement par des bots, créant ainsi une fausse impression de viralité et de crédibilité. Pire encore, certains de ces contenus ont été repris au plus haut niveau de l’État russe. La porte-parole du ministère des Affaires étrangères, Maria Zakharova, a ainsi relayé le 28 août 2024 la prétendue étude de RSF sur les penchants nazis de militaires ukrainiens lors d’un point presse, donnant à cette fausse information une légitimité supplémentaire.
Parallèlement, des influenceurs pro-russes sur Telegram participent à la diffusion de ces contenus. Dernier exemple en date : le canal “Ucraniando”, qui compte plus de 29 000 abonnés, a notamment contribué à diffuser une vidéo affirmant que RSF se réjouissait du gel des subventions octroyées par l’Agence des États-Unis pour le développement international (USAID). Derrière ce compte, une femme se faisant appeler Lisa Vukovic partage du contenu sur l’Ukraine en reproduisant le narratif pro-russe à destination du public hispanophone.
Portal Kombat et Matriochka
À peine une heure après sa publication, la vidéo est reprise sur la version espagnole du portail News Pravda, qui mentionne cette chaîne Telegram comme source. Ce site de propagande fait partie d’un vaste réseau structuré identifié par VIGINUM, l’agence française chargée de la vigilance et de la protection contre les ingérences numériques étrangères. Baptisé “Portal Kombat”, il compte 193 portails d’information et défend l’invasion russe en Ukraine.
VIGINUM a repéré une autre campagne, dans laquelle s’inscrit cette vague de désinformation contre RSF. Intitulée “Matriochka”, son mode opératoire implique la diffusion de faux contenus usurpant l’identité de médias principalement occidentaux, dont RSF. Considérée comme une ingérence numérique malveillante par l’agence, Matriochka témoigne de l’ampleur et du caractère structuré de ces campagnes d’ingérence, qui ne se limitent pas à RSF mais ciblent de nombreux médias et organisations à l’échelle internationale. Par l’usurpation d’identités crédibles et la diffusion massive de faux contenus, ces manœuvres cherchent à saper la confiance dans l’information et à remodeler la perception des événements au profit du narratif du Kremlin.
En un sens, l’acharnement de la propagande russe est un témoignage de l’efficacité de RSF. Ma conviction demeure que les contenus mensongers et trompeurs, qui utilisent la réputation de l’organisation pour propager de fausses informations, illustrent non seulement les dangers de la désinformation russe, mais aussi les conséquences de l’inaction des plateformes comme X, l’ineffectivité de la lutte contre les ingérences informationnelles et la passivité dangereuse des médias d’information quand ils sont attaqués.
La mise en œuvre de loi SREN et du DSA paraissent bien timides au regard de l’exigence de maintien d’un débat public de qualité alors que les plateformes tech plaident, avec le concours du gouvernement américain, une dérégulation au nom du free speech. L’actualité met à l’agenda la notion d’ingérences étrangères mais la volonté politique peine à se transformer en politique publique efficace.
A l’issue d’une intervention publique, une haut fonctionnaire européenne, au printemps 2025, me demande s’il n’est pas trop tard, si nous n’avons pas perdu la guerre de l’information. Mais avons-nous seulement commencé à combattre?
Illustration : KB
IA dans les rédactions : Attention ! Digital is The New Print !
🤖 Les représentants de la presse américaine, venus à Copenhague cette semaine, l’ont tous répété : en matière d’IA dans les rédactions, les Scandinaves ont plusieurs années d’avance*.
De la puissance des changements aux peurs d’être à nouveau désintermédiés, des contenus liquides aux agents IA, en passant par l’hyper-personnalisation, voici ce que j’ai retenu de ce troisième Sommet Nordique de l’IA dans les Médias :
💣 « Digital/Online is The New Print!” Que changer dans les rédactions pour profiter au mieux de l’IA ? Tout !
L’IA va tout écraser sur son passage et remodeler les médias, estime le journal norvégien VG du groupe Schibsted. Après le numérique, et « alors qu’on n’a même pas encore résolu nos problèmes avec les réseaux sociaux, tout est à refaire !». « L’IA transforme tout ce que nous faisons et comment notre audience réagit » estime la télé publique suédoise SVT. « Par sa nature et sa vitesse, c’est une révolution à 360°», estime un responsable finlandais.
Pour la BBC, ce changement d’infrastructure constitue probablement la plus grande opportunité de se transformer, alors même que la première disruption numérique n’a pas été suffisamment prise au sérieux.

Les bouleversements dans l’organisation du travail ne devront pas être faits palier par palier, mais de manière radicale. Selon la BBC, il faudra aller plus vite et être plus courageux qu’avant. Et surtout tenter de résoudre les problèmes de l’avenir, pas ceux du passé.
En d’autres termes, ne surtout pas ajouter de l’IA à ce que nous faisons déjà, mais l’intégrer partout au cœur des process, et en faire l’outil de la métamorphose, estime VG. Et aller vite, sinon en quelques années c’est la faillite, prédit Gard Steiro, son redchef-pdg.
« Ceux qui tardent à s’adapter se retrouveront à se battre pour des miettes d’attention dans un écosystème transformé », résume l’expert canadien Florent Daudens de Hugging Face.

« Pour les journalistes, la fenêtre d’opportunité pour reprendre un peu de contrôle est étroite. C’est maintenant le bon moment, mais pour répondre aux besoins du public pour une information de confiance, il faudra repartir de zéro et une réinvention complète des formats avec les technologies d’aujourd’hui », estime Nikita Roy qui produit le podcast « Newsroom Robots ».
…C’est maintenant le bon moment, mais pour répondre aux besoins du public pour une information de confiance, il faudra repartir de zéro et une réinvention complète des formats avec les technologies d’aujourd’hui.
Nikita Roy, Newsroom Robots
Une opportunité aussi pour réengager les gens dans l’actualité et toucher plus de monde, car l’IA, devenue matière première, est très bientôt à la portée de tous : des Big Tech comme des start-ups, mais aussi … du public.

📰 Arrivée des agents IA : mort de l’article, de la pub digitale, des sites web et peut être d’Internet.

La multi-modalité de contenus d’infos devenus fluides, liquides, ultra-personnalisés, et traités par IA est telle que l’article risque de disparaître, tout comme la pub numérique associée, pour être remplacé par des agents qui vont faire le travail.
L’information quitte donc en ce moment l’article pour se transformer en de multiples formats, souvent combinés, qui sont en train de gagner la bataille de l’attention.

Ces agents IA très autonomes, nouveaux formats déjà en activité, proposent au public un mix de raisonnements et d’actions en fonction d’un contexte et d’un objectif, explique l’expert britannique David Caswell. Agissant en notre nom, ils sont en mesure de chercher et de découvrir les infos pour les proposer eux-mêmes à un public avide d’expériences fluides. Et ils font de moins en moins d’erreurs.
Exemples d’agent IA :
- Réponse à la question du matin : quelles sont les 5 grandes infos de la nuit ?
- Sur cette info, donnez-moi la position des progressistes et des conservateurs
- Etc…
Les gens vont arrêter de naviguer sur Internet, qui risque bien de disparaître, tout comme les sites web, avertit Florent Daudens. Ces agents, qui vont se parler entre eux, sont bien meilleurs et beaucoup plus rapides que les journalistes pour traiter, synthétiser l’info et accomplir des tâches.
A terme, ces agents pourraient bien devenir l’audience des médias, les journalistes devenir des éditeurs de contenus pour agents d’IA ou des redchefs d’agents.

✍️ A-t-on alors encore besoin des journalistes** ?
Il y a un an, tout le monde le martelait : il faudra toujours un humain (lire : un journaliste) dans la boucle des process éditoriaux d’IA. On entend désormais : « ils sont tellement ennuyeux, lents (…), ils ralentissent tout ».
Pourra-t-on s’en passer quand l’IA sera meilleure que les journalistes, fera moins d’erreurs qu’eux, sera plus claire, moins partiale, favorisera davantage l’esprit critique et permettra une personnalisation très fine avec empathie, interroge un éditeur allemand ? D’autant que les faits ne sont pas protégés par le droit d’auteur.
Si on insiste à vouloir coûte que coûte garder des humains dans la boucle, on risque de rater le train. Au pire, ne garder que des experts, estime Fabian Heckenberger de la Süddeutsche Zeitung.
« Il faut automatiser le journalisme de masse et renforcer le journalisme artisanal »… « Mais écrire ne sera bientôt plus une compétence clé du journalisme ».
Erja Tläjärvi, Helsingin Sanomat
« Il faut automatiser le journalisme de masse et renforcer le journalisme artisanal », estime Sanomat. « Mais écrire ne sera bientôt plus une compétence clé du journalisme ».
Mais attention, avertissent les éditeurs, curiosité, jugement éditorial et rapports humains, seront difficiles à remplacer. De même que l’enquête ou le goût et le talent pour raconter des histoires. Quid aussi de l’intuition des journalistes ? (le soi-disant « gut feeling »), s’interroge le norvégien Stavanger Aftenblad.
Des pistes se dessinent : se concentrer sur ce que l’IA fait mal (contacts personnels, complexité internationale, reportage de terrain, authenticité humaine,…) ; écouter vraiment le public ; utiliser ses infos vérifiées comme données de base de systèmes d’IA.
👨💼 Les redchefs doivent vite se mettre à l’IA et les journalistes arrêter le « copy & paste » !
Autant ces dernières années, les rédacteurs-en-chef n’avaient pas besoin de se salir les mains en data-journalisme, autant cette fois, ils seront vite dépassés tant les changements sont rapides et profonds dans l’organisation du travail, les attentes du public et les potentialités de cette techno.
Nous entrons dans un nouveau système de l’information. « Personne ne peut y échapper (…) Si vous ne pensez pas à l’IA dans votre propre travail, puis dans le flux de travail, les systèmes et les processus de votre équipe, vous resterez à la traîne », assure Erja Tläjärvi, la redchef du journal finlandais Helsingin Sanomat.
De nouveaux formats devront être rapidement proposés pour ne pas laisser la main aux Big Tech qui réinventent la manière dont l’info est produite et consommée, et qui proposent de nouveaux compagnons pour le public. Avec nos contenus, mais pas forcément en ligne avec nos valeurs.
Sous leur action, l’expérience de consommation d’information est en train de radicalement changer. L’IA transforme déjà l’info en une conversation : nous ne faisons pas que lire, écouter ou regarder de l’info, nous pouvons lui parler et elle nous répond ! Et l’IA adaptera vite cette conversation à notre niveau de compréhension.
Les journalistes vont devoir élever leur niveau de jeu, remonter dans la chaîne de valeur. En évidemment abandonner le « copy & paste ». « Nous ne sommes plus pertinents. La prochaine génération de journalistes et d’utilisateurs vont se moquer de nous si nous ne changeons pas radicalement », estime le redchef de VG.
👩💼 Ecoutez les experts !

Or nous nous posons souvent les mauvaises questions, estime Nikita Roy :

Mais les Big tech se posent les bonnes :

🤔 Questions de fond :
Comment donc repenser les fondamentaux du journalisme ? Sommes-nous en train de résoudre de vieux problèmes ?
Quels sont les besoins que nous essayons de satisfaire ? Quelle est la valeur et la fonction des journalistes dans la société ? Qu’attend vraiment d’eux le public ? De l’info ou des réponses ? Quels sont les problèmes qu’il souhaite que nous résolvions ? Pourquoi penser que nos audiences sont correctement informées aujourd’hui ? Protégeons-nous un journalisme de qualité ou des emplois ?
Que feriez-vous si vous disposiez gratuitement de 20.000 journalistes supplémentaires qui produiraient de l’audio et de la vidéo, et que tous vos concurrents faisaient pareil ? interroge un expert britannique.
Comment préparer nos rédactions à cette révolution tout en gardant nos valeurs ? Comment nous réorganiser ? Qui amener autour de la table ? Qui embaucher ?


🛠️ Quels nouveaux outils et usages ?
Ne pas se focaliser sur les tout derniers outils ; ils seront tous vite disponibles d’une manière ou d’une autre sur l’étagère. Mais chercher à résoudre les problèmes du public.
Exemples :
- Proposer au lecteur ce qui est important depuis sa dernière visite (VG)
- Transformer des articles en vidéos (VG)
- Créer son propre LLM (Politiken, Danemark)
- Outil d’aide aux journalistes pour chercher dans les documents institutionnels locaux (Stavanger Aftenblad, Norvège)
- Détecteur de deep fakes (BBC)
- Faire apparaître ses propres contenus quand l’utilisateur navigue sur d’autres sites (The Atlantic)
- Sur chaque article, un bot répond à des questions contextuelles (Bonnier, Suède)
- Proposer son propre moteur de réponses (Bild, Fortune, Washington Post, Wired, …)
- Un bot de réponse sur l’info grâce au vaste bassin de données de l’UER (SVT, Suède)
Mais les Big Tech vont plus vite :
- Latest news de Grok
- Google Daily Listen : un podcast personnalisé quotidien de 5 mn
- Application Bespoke de Google
- Copilot qui peut créer un podcast sur n’importe quel contenu
- Confluence AI
- Chat GPT Deep Search et GPT Operator.
- Spotify Daylist
- Particle.news, Regenai.ai, Grammarly, ElevenLabs, Manus AI, …
- …

💹 Au lieu de surveiller l’audience, intégrez-la !
Et personnalisez ! Donnez davantage au public de ce qu’il aime, plaide la BBC.
Impliquez tout le monde dans votre média. Favorisez les discussions dans vos organisations, travaillez sur des scénarios, soyez ouverts à l’incertitude et partagez !
💪 Ensemble plus forts pour protéger les affaires et la démocratie ? Pas sûr !
Les médias danois, qui avaient donné mandat à leur Association professionnelle de négocier collectivement pour eux avec les Big Tech, se sont fait envoyer promener. Le gouvernement avait même nommé un médiateur, rejeté par Open IA, qui assure ne pas entraîner ses machines au Danemark. Une action en justice se prépare.
👯 Faut-il alors s’associer aux Big Tech ?
Le groupe norvégien Schibsted espère apprendre de son deal non exclusif de deux ans avec OpenAI et avoir son mot à dire sur la manière dont ses contenus sont exposés sur ChatGPT.
L’agence américaine AP refuse pour l’instant de se prononcer sur ses accords de licence avec OpenAI et Gemini pour l’info en temps réel. En tous cas, ajoute-t-elle, ce ne sont pas des partenariats.
The Economist passera un accord seulement s’il sait comment ses contenus seront présentés.
La télé publique suédoise SVT produit déjà plus de la moitié de son animation par IA et n’estime pas utile de le dire à son audience.

🎯 En résumé, avec l’IA, il faudra aller encore plus vite et plus au fond que lors de la précédente disruption.

ES
*Peu de diversité d’origine dans la salle, et très rare mention d’outils non-américains, comme le chinois Deepseek.
**« A-t-on encore besoin des journalistes ?» (PUF – 2011)