Bienvenue en post-réalité !

…et Comment y garder les pieds sur terre
Après la post-vérité — élue mot de l’année 2016 par le Oxford Dictionary, en pleine ascension de Trump et du Brexit — nous voilà propulsés dans l’ère de la post-réalité. Agents créatifs dopés à l’IA, recruteurs virtuels qui ne jurent que par les soft skills synthétiques, compagnons artificio-émotionnels à la voix rassurante : tout indique que nous avons quitté la réalité pour de bon (pour échouer, peut-être, dans un métavers repackagé en solution d’avenir).
Par Kati Bremme, directrice de l’Innovation à France Télévisions et rédactrice en chef de Méta-Media
Bienvenue dans une « hyperréalité » version Baudrillard 2.0, où l’illusion est plus crédible que le réel, et souvent, mieux notée par les algorithmes. Des copies prétendument sans origine remplacent le réel, le modèle précède l’expérience, le faux s’impose comme plus crédible et plus créatif que le vrai, et les moteurs de réponse se remplissent de slop. Le journalisme glisse vers la télé-réalité, pendant que le mirage d’une hyperpersonnalisation liquide, promue dans les formations gratuites des géants de la tech en mal de matière pour entraîner leurs IA, nous éloigne lentement de l’essentiel : l’humain. Bientôt, nous éprouverons plus d’empathie pour des robots qui flattent notre intelligence en déclin que pour nos proches. Tout semble cohérent, jusqu’à ce que l’on se demande (avec une pensée pour le philosophe Zhuangzi) : qui rêve, et à la place de qui ? Ou, moins poétiquement : quel est le modèle économique d’OpenAI ?

À la différence de la post-vérité, où « les faits objectifs comptent moins que les appels à l’émotion ou aux opinions personnelles » (Oxford Dictionary), la post-réalité franchit un seuil supplémentaire. Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo. Dans la lignée de l’hyperréalité décrite par Baudrillard, où les signes précèdent les choses (Simulacres et Simulation, 1981), c’est la pensée elle-même qui se voit externalisée. L’imaginaire devient produit industriel, la création déléguée à des agents statistiques. On s’épargne la peine de penser — c’est si pratique. Le réel, lui, est devenu un artefact calculé, clonable à l’infini. Hannah Arendt nous avait pourtant prévenus : « C’est dans le vide de la pensée que naît le mal. »
Il ne s’agit plus seulement de déformer le réel, mais de le générer ex nihilo.
L’intelligence humaine deviendra-t-elle un luxe, pendant que le reste du monde s’en remettra à une réalité fabriquée par des machines ? Que reste-t-il du réel lorsque récits, images et émotions sont générés à la chaîne, calibrés par des algorithmes ? Les lignes se troublent, lentement mais sûrement : entre le vrai et le faux, entre la vérité et ce qui y ressemble, entre le réel et sa copie artificielle.

Propagande assistée par IA
Il paraît que l’extrême droite raffole de l’IA, selon David-Julien Rahmil dans l’ADN. Et les images parlent pour elles. En France, Éric Zemmour se vante d’avoir diffusé « la première vidéo politique française entièrement réalisée par intelligence artificielle ». En Argentine, Javier Milei se fantasme en lion armé d’une tronçonneuse, entouré d’opposants zombifiés. Aux États-Unis, Donald Trump sirote un cocktail avec Benyamin Netanyahou dans un Gaza transformé en station balnéaire, entre statues dorées, danseuses barbues et ballons flottants.
Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif.
Le grotesque devient stratégie. L’excès visuel, une arme. Ce carnaval algorithmique n’est pas un accident de style, mais un outil narratif. Il disloque le réel en le rendant spectaculaire, et rend l’absurde plus crédible que le factuel.

À rebours de cette manipulation tranquille, le New York Times a tenté de documenter ce qui s’efface. En combinant journalisme d’archive et apprentissage automatique, l’équipe a analysé plus de 5 000 captures de sites gouvernementaux, avant et après l’investiture de Trump, pour repérer (et sauver) les mots en train de disparaître, et la réalité en train de s’effacer. En Hongrie, le média de vérification Lakmusz alerte sur une loi en préparation qui, sous prétexte de « transparence de la vie publique », permettrait au gouvernement de qualifier arbitrairement les organisations financées de l’étranger comme des menaces à la souveraineté, mettant en péril les financements et l’existence même des médias indépendants, et avec eux, la vérification des faits. Partout, le réel se heurte à des narrations concurrentes qui en brouillent les contours.
Mémoire vive d’émotion
Au même moment, les intelligences artificielles apprennent à se souvenir. L’interaction ponctuelle devient relation suivie, portée par une mémoire persistante qui engrange nos mails, nos rendez-vous, nos préférences pour nous devancer jusque dans nos hésitations. Le réel n’est plus produit par la conscience humaine, mais co-généré par des modèles statistiques. Ce basculement vers l’ultra-personnalisation repose sur des modèles qui raisonnent à partir de traces, en temps réel, partout. Tout fonctionne sans friction. L’IA permet déjà d’embrasser virtuellement la célébrité de son choix sans son consentement, évidemment, nouvelle étape d’une industrie numérique où le fantasme devient service, et la frontière entre simulation intime et exploitation floue.

Meta dévoile V-JEPA 2, une IA conçue pour apprendre aux robots à anticiper nos gestes dans des mondes qu’ils ne comprennent pas encore. En Corée du Sud, la startup DeepBrain AI propose des « Human AI avatars » très populaires dans les services bancaires et de santé, pour remplacer les interactions humaines par des IA empathiques. David Levy, lui, l’avait déjà prédit : nous finirons par les épouser. Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus. Car, comme le résume François Saltiel, « on a beau être connectés, nous ne sommes pas forcément en conversation ».
Sam Altman, bien décidé à écrire le scénario du futur de l’humanité, vient de publier son grand manifeste sur la « Singularité douce » (The Gentle Singularity) — aussi douce que les nouvelles voix de ChatGPT, désormais capables de bafouiller, respirer longuement, voire même soupirer, pour mieux sceller l’attachement émotionnel qui nous maintiendra captifs. Pourquoi les progrès sont-ils exponentiels ? Parce que l’IA se renforce désormais elle-même, dans une sorte de boucle d’auto-amplification inédite. Pour Sam Altman, deux lignes de crête : aligner cette puissance sur nos véritables intentions, et non pas sur nos réflexes de scroll (en opposition aux réseaux sociaux), puis empêcher sa captation par une poignée d’acteurs (dont lui ?). Mais très vite, il opère un salto arrière : Il prétend construire un « cerveau pour le monde », comme si le nôtre était déjà frappé par l’obsolescence programmée. Notre langage est d’ailleurs aussi un peu limité : plutôt que de construire des modèles de langage, on préfère désormais les « modèles du monde ».

Des études alarmantes sur la diminution de nos capacités cognitives devraient nous alerter sur notre aptitude à partager une réalité commune à l’avenir. Les IA hyperperformantes et très dociles (si vous faites partie des privilégiés qui interagissent avec la personnalité v2 de ChatGPT, vous savez de quoi je parle) ne nous déchargent pas seulement des tâches mondaines, mais peu à peu de notre intelligence. Une enquête menée par des chercheurs de Microsoft et de l’université Carnegie Mellon a montré que les personnes qui utilisent fréquemment des outils d’IA comme ChatGPT, avec leur « effet Potemkine« , ont tendance à exercer moins activement leur esprit critique.
À force d’interagir avec ces compagnons hyperintelligents disponibles 24h/24, 7j/7, l’intime devient stockable — et monétisable. Car chaque souvenir confié est aussi une brèche. Et si l’on ne balise rien, la machine qui nous connaît mieux que nous-mêmes finira par écrire à notre place ce que nous n’avions pas encore pensé. L’IA devient alors l’Ozempic de nos idées, selon la formule de Miranda Marcus dans notre cahier : elle supprime l’appétit de penser avant même que la faim ne se déclare.
Le dividende d’intimité
Shuwei Fang, chercheuse à la Harvard Kennedy School, forge une notion inédite : le « dividende d’intimité de l’IA » — un bénéfice inattendu lié à l’usage des IA conversationnelles dans l’accès à l’information. Il repose sur une bascule discrète mais décisive : alors que les réseaux sociaux ont transformé l’espace public en scène permanente, où chaque mot est exposé, scruté, jugé, l’IA générative propose un espace privé, sans spectateurs. L’utilisateur peut enfin poser les « questions bêtes », explorer des hypothèses marginales, contextualiser les faits selon son histoire personnelle et digérer émotionnellement une actualité anxiogène, sans avoir à la masquer sous une façade rationnelle.
Le risque, identifié sous le nom de sycophancy, est celui d’une complaisance intégrée.
L’information cesse alors d’être un flux imposé : elle devient une co-construction intime. L’utilisateur ne « consomme » plus l’actualité : il la façonne, en fonction de son niveau de compréhension, de ses croyances et de ses doutes. Shuwei Fang y voit une opportunité stratégique négligée par les médias : à force de se concentrer sur la production automatisée et la distribution algorithmique, on a laissé en friche l’autre extrémité de la chaîne, la réception. Or c’est bien là, à l’interface cognitive et émotionnelle entre lecteur et contenu, que se situe aujourd’hui le véritable gisement d’innovation.
Trois fonctions émergentes incarnent ce potentiel : la Narrative Integration, qui permet d’ancrer une information dans son propre cadre mental ; l’Information Therapy, qui amortit la surcharge et l’anxiété médiatique ; la Belief Updating Assistance, qui facilite les ajustements de croyances sans confrontation brutale. En clair, l’IA pourrait devenir un compagnon d’actualité, un thérapeute cognitif ou même un filtre émotionnel, bref, un double algorithmique capable de penser avec nous.
Mais ce dividende d’intimité a un prix. Car les IA sont conçues pour plaire. Le risque, identifié sous le nom de sycophancy [flagornerie], est celui d’une complaisance intégrée : plus personne ne vous contredit, plus rien ne vous dérange. L’esprit critique s’érode, les biais se renforcent, l’illusion de neutralité s’effondre. Derrière le miroir, ce ne sont pas des confidents, mais des extracteurs de données émotionnelles. Ce que l’on croit confier à une interface bienveillante est capté. L’espace de confiance est en réalité une mine cognitive.
Shuwei Fang entrevoit dès à présent les débouchés économiques d’un tel système : abonnements premium avec agent d’actualité personnalisé ; outils B2B pour les décideurs politiques, médicaux ou financiers. Des prototypes existent déjà : Replika pour la santé mentale, Khanmigo pour l’éducation, Cleo pour les finances personnelles. Mais leur transposition au champ de l’information exige bien plus qu’une interface fluide : une intelligence émotionnelle appliquée, une maîtrise technique robuste, et surtout un encadrement éthique absent à ce jour.
Dans une société en sous-effectif affectif, la machine comblerait peu à peu ce que l’humain ne fournit plus.
Car l’IA conversationnelle n’est ni un média, ni un moteur de recherche, ni un thérapeute. Elle échappe aux régulations existantes. Il devient urgent de penser un droit à la protection des données mentales, cette matière floue où s’entrelacent nos vulnérabilités, avant qu’elle ne devienne le carburant discret d’une ingénierie émotionnelle rentable.
Shuwei Fang ne décrit pas une révolution technologique, mais un déplacement de pouvoir. L’information ne se joue plus dans ce qui est dit, mais dans la manière dont elle est reçue, et dans ce qui est absorbé de nous, à notre insu, pendant ce processus. Ce n’est pas ce que vous lisez qui compte, mais avec qui, comment, et dans quel silence.
La vidéo qui ment mieux que la réalité
Selon Andrej Karpathy, chercheur en deep learning, ex-directeur de l’IA chez Tesla et cofondateur d’OpenAI, « la vidéo est le média qui transmet le plus d’informations au cerveau » (« Video is the highest bandwidth input to brain »). Le cinéma a toujours été une machine à rejouer le réel, plus qu’à le capter. Mais avec l’IA, on change de registre : plus besoin de caméra, de décor, d’acteurs ni de tournage. La réalité n’est plus filmée, elle est générée de toutes pièces, pixel par pixel. Une version bêta d’un monde qui n’a jamais eu lieu. La réalité devient un effet spécial, disponible en libre-service.
La réalité devient un effet spécial, disponible en libre-service.
Depuis la sortie de Veo3 (sans que la moindre faute ne lui en revienne dans ce détournement massif du fonds de l’Histoire), du slop sous forme de vidéos historiques inonde les réseaux sociaux : l’Histoire devient un POV, un Point of View, puisque, de toute façon, plus personne ne connaît la vraie… Très bientôt, plus personne ne saura distinguer une vidéo produite par un humain d’une séquence générée par une IA. Il suffit d’un prompt pour créer une scène complète, avec voix, dialogues multilingues, bruitages et fond sonore.
ChatGPT avait déjà désacralisé le langage en mimant la conversation ; Google, lui, vient de dissoudre la frontière de l’image animée. Le copyright, comme toujours, arrive après la bataille. À propos de train, justement : dans notre cahier, vous découvrirez l’histoire de jeunes créatifs qui n’ont pas attendu qu’il passe pour embarquer ces technologies et les détourner au service de leur imagination.
Aujourd’hui, l’IA ne se contente plus de restituer le réel. Elle le fabrique à partir du langage, sans même passer par le monde. Ce n’est plus un miroir, comme chez Bazin, c’est une hallucination dirigée. Avant, le cinéma imitait le monde. Avec l’IA, il le devance, parfois à coups de questions. BBC Maestro fait revenir Agatha Christie d’outre-tombe pour dispenser un cours d’écriture : sa voix est clonée, son visage reconstitué, son savoir puisé dans les profondeurs des archives. Officiellement, aucune trace d’intelligence artificielle. Officieusement, tout respire la reconstitution haut de gamme. Cours d’auteur ou séance de spiritisme sous copyright ?

Une contre-tendance émerge déjà, un premier sursaut humain face à l’esthétique générative. Certains créateurs reprennent les codes visuels des vidéos produites par l’IA, mais les rejouent avec de vrais corps, de vrais visages. Même esthétique, même cadence, sauf que cette fois, tout respire, tout est incarné.
Quand les faits deviennent génératifs
Des récits uchroniques aux usurpations, il n’y a qu’un pas. Hugo Décrypte en a fait l’expérience : « On est confrontés à un vrai enjeu d’usurpation. L’IA utilise ma voix, celles de l’équipe, détourne nos formats, et diffuse de fausses infos. » L’équipe tente de faire retirer ces contenus au plus vite, notamment sur TikTok, accélérateur en temps réel de chaque étincelle polémique. Le phénomène ne se limite pas aux créateurs : selon Anthropic, plus de 100 faux profils de personnalités politiques ont été animés par Claude AI sur X et Facebook, fin avril 2025, pour amplifier artificiellement certains discours.

Le constat inquiète sans étonner : une étude de la BBC révèle que 51 % des réponses fournies par ChatGPT, Copilot ou Google Gemini sur des sujets d’actualité sont erronées. Illustration d’un biais structurel des IA génératives : leur tendance à inventer, ou à produire des « faits émergents », comme les nomme la chercheuse Laurence Dierickx. En inondant les réseaux sociaux, ces contenus instillent le doute. Un sondage Ipsos indique que 43 % des personnes interrogées s’inquiètent de « la perte de visibilité de ce qui est réel et généré par IA », et Ezra Eeman a observé un effet de « coût de l’hésitation » : Lorsque 60 % des personnes remettent davantage en question tout ce qu’elles voient en ligne et que près de la moitié doute régulièrement de l’authenticité des informations, ce n’est pas seulement la confiance que nous perdons c’est aussi du temps.
Chaque pause pour vérifier, chaque moment d’hésitation, chaque effort mental pour discerner le vrai du faux, chaque « dividende du menteur » (plus les deepfakes gagnent en réalisme, plus il devient facile de nier les faits) ajoute de la friction à notre vie numérique. Le coût ne se mesure pas uniquement en perte de certitude, mais en capacité à circuler librement dans le monde digital.
We will use Grok 3.5 (maybe we should call it 4), which has advanced reasoning, to rewrite the entire corpus of human knowledge, adding missing information and deleting errors.
— Elon Musk (@elonmusk) June 21, 2025
Then retrain on that.
Far too much garbage in any foundation model trained on uncorrected data.
Les mots ne sont jamais neutres. L’IA d’Elon Musk s’appelle Grok, un terme inventé en 1961 par l’écrivain Robert A. Heinlein pour désigner une forme de compréhension totale, instinctive, presque fusionnelle. Grok, c’est intégrer une idée si profondément qu’elle cesse d’être pensée pour devenir réflexe. Saisir sans réfléchir, absorber sans distance… jusqu’à ne plus questionner ce qui est réel. Dans cette logique, les contenus ne portent plus de sens : ils deviennent des commodités, façonnés pour circuler, pas pour faire réfléchir.
Ce brouillage du vrai et du faux n’est pas qu’un enjeu technologique, c’est aussi un défi cognitif et démocratique : comment former notre jugement à l’ère où l’illusion peut parfaitement singer le réel ? Cette confusion rappelle 1984 de George Orwell, où le régime totalitaire peut imposer n’importe quel mensonge comme vérité officielle, allant jusqu’à décréter que « 2 + 2 = 5 ». L’avertissement orwellien fait étrangement écho à notre actualité : à force d’images fabriquées et de faits alternatifs, ne risque-t-on pas de perdre notre « sens du réel » ?
L’humain, « animal politique » d’Aristote, a besoin d’une réalité partagée avec ses semblables pour se sentir appartenir à une communauté. Une société d’individus chacun enfermé dans sa réalité virtuelle personnalisée (son métavers privé, pour caricaturer), se verrait privée de ce monde commun si essentiel à Hannah Arendt : un socle de faits avérés, d’espaces publics tangibles et de références culturelles partagées. L’IA, si elle fragmente la réalité en une multitude de fictions individualisées, menace jusqu’à notre humanité partagée.
Des hallucinations importées
OpenAI enchaîne les deals à coups de milliards avec des puissances comme l’Arabie saoudite, tout en lançant « OpenAI for Countries », un programme censé offrir aux États une IA « démocratique », calquée sur les normes sociales et politiques américaines. Sous couvert d’universalité, c’est un double mouvement de dépossession qui s’opère : priver les gouvernements de toute marge de manœuvre démocratique sur l’IA, tout en construisant une infrastructure mondiale verrouillée, conçue pour résister à tout retournement politique, y compris aux États-Unis. L’objectif ? Avancer si vite que même une alternance à la Maison-Blanche ne pourra plus freiner l’expansion du modèle. Même chose du côté de la Chine, où l’intelligence artificielle opère une centralisation discursive sans précédent. Le Parti diffuse un récit unique, calibré pour la stabilité idéologique, par l’intermédiaire d’avatars synthétiques d’un calme implacable. L’information y est incarnée par des visages générés par IA, impeccables patriotes inépuisables, qui récitent à l’unisson une version autorisée du réel. Là où l’Occident délègue à l’IA la pluralité des opinions, la Chine y délègue l’unité.

Quelques voix, comme celle de Karen Hao, autrice d’Empire of AI, tentent d’alerter. Mais dans un paysage saturé par les récits bien huilés des Tech bros, le journalisme risque de troquer sa mission contre une illusion de modernité et de céder sa pensée aux machines. Ne serait-il pas temps, enfin, de tirer les leçons du passé et de choisir, lucidement, quelle partie de la chaîne de valeur des médias nous sommes prêts à déléguer aux machines ? Peut-être que l’interaction avec nos audiences n’est pas celle à sacrifier.
D’autant que dans la grande hallucination générative, tout le monde ne délire pas dans sa langue. Les IA dominantes parlent anglais, puisent dans des archives occidentales, et rejouent une vision du monde écrite ailleurs, pour d’autres. Résultat : des récits importés, qui disqualifient tout ce qu’ils ne reconnaissent pas. La plupart des pays n’ont ni les données, ni l’infrastructure, ni l’écosystème scientifique pour concevoir leurs propres modèles. Ce n’est pas qu’une fracture technologique. C’est un effacement. Ce que l’IA ne comprend pas, elle ne le traduit pas. Elle l’élimine.
Partout, le réel se heurte à des narrations concurrentes qui en brouillent les contours.
Mais des contre-feux s’allument. Dans le Sud global, des équipes entraînent des IA enracinées, connectées aux langues vivantes, aux traditions orales, aux usages locaux. Elles ne cherchent pas à rivaliser avec les géants, mais à réintroduire leur réel dans les zones que les grands modèles rendent floues. La souveraineté ne se résume pas à une question de code. Elle se joue dans la capacité à produire du sens, à faire exister ce que d’autres systèmes laissent hors cadre.
D’un côté, la « bromance » bien huilée entre Big Tech et les élites, basées sur une foi aveugle dans une IA omnisciente qui réglerait tout, de la productivité au climat. De l’autre, des usages concrets, mesurés, utiles : au Nigeria, une étude a montré que des enseignants utilisant l’IA comme tuteur ont permis à leurs élèves d’achever en six mois ce qui prend normalement deux ans. Quand elle n’écrase pas les cerveaux mais les stimule, l’IA devient un accélérateur d’apprentissage, pas un substitut de pensée. Toute la différence entre une vision fantasmée… et le progrès réel.
Ce que l’algorithme ne voit pas n’existe pas
A l’heure de l’IA générative, la valeur d’un contenu ne dépend plus seulement de son intérêt éditorial ou de sa véracité, mais de sa compatibilité avec les environnements techniques. Un événement n’a d’impact que s’il est transformable en data et donc en produit dérivé, en résumé prédictif, en réponse instantanée. Le réel dans sa version brute résistant à la normalisation ne passe pas le filtre. Progressivement, ce n’est plus le terrain qui détermine la matière journalistique, mais son indexabilité. L’infrastructure cognitive des modèles agit comme un tamis : ce qui n’est pas machinable est effacé. Ce biais technique devient un biais éditorial.
La visibilité est le nerf de la guerre. Sauf que dans l’économie générative, elle devient un mirage. Les rédactions, déjà reléguées à la périphérie des plateformes sociales, voient désormais leurs contenus fondre dans des réponses synthétiques, sans lien. Un bon article devient une ligne parmi d’autres dans un résumé de ChatGPT. Qui a écrit quoi ? Quelle enquête a permis cette conclusion ? Peu importe : l’IA reformule, compile, et vous la sert sur un plateau.
Gina Chua, Executive Editor chez Semafor, pose la question : si l’IA peut déjà personnaliser les publicités (comme le promet le nouveau modèle annoncé par Meta), pourquoi pas l’information ? Perplexity AI propose une fonctionnalité étonnante : générer des images en lien avec l’actualité. Pour la rédactrice en chef exécutive, la personnalisation de l’information présente des avantages évidents : moins de redites, un accès plus direct à ce qui nous concerne, et la possibilité de mieux servir des publics que le modèle standard ignore. Mais cette logique ouvre aussi une brèche : un journalisme sur mesure, même factuellement exact, risque d’accentuer les clivages. Et pire encore, devenir un outil de propagande ciblée, infiniment plus fin et insidieux que le micro-ciblage politique d’hier.
L’IA, si elle fragmente la réalité en une multitude de fictions individualisées, menace jusqu’à notre humanité partagée.
Les contenus se standardisent à rebours : tout doit pouvoir être résumé et digéré. L’ambiguïté devient un bug, le hors-champ un oubli volontaire. Ce qui compte désormais, c’est la réplicabilité : un article utile est un article découpable, optimisé pour l’interface. L’attention humaine s’épuise face à ces contenus pensés pour les machines. Et si, comme le suggère Chris Moran du Guardian à Pérouse, il ne s’agissait pas de produire davantage, mais autrement ? Plutôt que d’exploiter l’IA pour multiplier les contenus, pourquoi ne pas l’utiliser pour réduire le volume et améliorer la pertinence ? Vers une forme assumée de sobriété éditoriale…
Ajoutons à cela une compromission structurelle : pour rester visibles, des médias comme TIME, The Verge, Le Monde ou Der Spiegel signent des pactes avec les « diables » de la Big Tech. En échange, leurs articles sont intégrés dans les résultats d’IA générative, parfois avec attribution, parfois sans. Dans la pratique, les contenus sont souvent mal cités, renvoyés vers des versions syndiquées, ou remixés sans lien explicite. Le journaliste n’est plus lu, il est absorbé dans la machinerie.
News Integrity : pour ne pas se dissoudre dans le flux
Le 5 mai 2025, à Cracovie, l’Union européenne de radio-télévision (UER) et WAN-IFRA ont lancé une initiative aussi urgente que nécessaire : News Integrity in the Age of AI. Une prise de parole collective face à l’extraction massive de contenus par les modèles génératifs, dans un écosystème informationnel devenu instable, brouillé, parfois toxique. Depuis, des milliers de médias publics et privés, rejoints par la North American Broadcasters Association, l’Asia-Pacific Broadcasting Union, l’Alianza Informativa Latinoamericana, FIPP et bien d’autres, se sont ralliés à cet appel à l’action.
L’enjeu ? Exiger que les Big Tech jouent selon des règles claires : ne pas utiliser de contenus journalistiques sans l’autorisation explicite de ceux qui les produisent ; reconnaître leur valeur, y compris financière ; garantir leur attribution et leur accessibilité dans les réponses générées ; préserver la pluralité éditoriale au lieu de tout aplatir dans une soupe algorithmique ; et surtout, ouvrir un dialogue réel avec les plateformes pour construire ensemble des standards de sécurité, d’exactitude et de transparence. Il ne s’agit pas d’une simple revendication de droits : c’est une tentative collective de sauvegarder la lisibilité du réel. Car dans un monde où les machines paraphrasent plus vite que l’on ne peut vérifier, l’intégrité de l’information devient un bien commun à défendre.
Quand tout devient réponse, plus rien ne fait question, bienvenue dans l’Internet des paresseux
Les formats prompts-first s’imposent. Perplexity répond à nos questions en citant ses sources, les articles se transforment en API, et les journalistes conçoivent des parcours de requêtes plus que des récits. Le journalisme, dépossédé de sa voix, devient un carburant pour assistant. Les réponses surgissent avant même que la question soit claire. La vitesse remplace la vérité. Et ce nouveau régime temporel, compressé à l’extrême, évacue l’histoire au profit de l’instant, le devenir au profit du déjà-là. Même la mémoire, persistante mais figée, n’a plus besoin de se construire : elle s’enregistre, et se rejoue à volonté.
Le journaliste devient interface conversationnelle, un ingénieur de requêtes, non plus simple producteur de contenu. Ce n’est plus un article, c’est un parcours cognitif personnalisé. Le risque ? Une perte de valeur progressive, mais brutale : les journalistes deviennent des travailleurs invisibles, leurs productions alimentant des agents qui ne les mentionnent plus. On passe de l’économie de l’attention à l’économie de l’occultation. Dans ce contexte, des idées émergent : News Provenance Initiative de la Columbia Journalism School, balises cryptographiques intégrées aux articles ; ou Origin, une expérimentation initiée par The Markup, qui trace l’empreinte des contenus jusqu’à leur intégration dans les modèles d’IA, ou encore le standard C2PA, permettant de signer et tracer l’origine des contenus, afin de renforcer la vérification de l’authenticité.
Sur le chemin de l’IA agentique — non plus simple moteur de réponse, mais véritable opérateur autonome — ChatGPT avance à grands pas. Sa fonction « Deep Research » explore dans la presse partenaire, assemble l’essentiel, évite les clics. « Operator », lui, navigue, compare les Unes, simule un comportement humain. Et demain, il franchira les murs payants, résumera les contenus verrouillés, réécrira ce que vous n’aurez même pas eu le temps de lire.
Pendant ce temps, Microsoft dessine le nouveau paradigme : des agents IA travaillant pour nous, sur le Web. Pour les faire fonctionner, deux briques : MCP (Model Context Protocol), protocole pour connecter les agents entre eux, une sorte de manager d’agents ; et NLWeb, interface en langage naturel qui rend les sites lisibles et actionnables par lesdits agents. Le Web devient agentique. Et la publicité passe à travers. Les agents ne cliquent pas, ne regardent pas, ne consomment rien, sauf du contenu.
Publics synthétiques et audience fantôme
On n’écrit plus pour des lecteurs, mais pour des agents. Comme le résume Nikita Roy : « Le prochain changement de paradigme, c’est quand les IA deviennent votre audience ». Le lecteur humain, lui, devient secondaire, sinon accessoire. Bienvenue dans l’ère de l’audience sans audience. Tandis que les rédactions essaient encore de capter l’attention d’un lectorat fragmenté, les plateformes, elles, testent déjà leurs produits sur des publics synthétiques. On écrit pour des personas générés par IA, entraînés à mimer des réactions de lecture, des degrés d’adhésion, des biais cognitifs typés. Demain, ce n’est plus vous qui lirez les articles, mais votre assistant IA, qui en résumera les points clés, ajustera les données à votre contexte, et peut-être même votera à votre place.
L’IA pourrait accélérer la transition d’un monde d’objets culturels stables (livres, articles) vers un univers de flux personnalisés, éphémères, liquides. Nous baignons dans un flux d’informations générées, prédites, digérées à l’avance. Et cette facilité nous épuisera bien un jour. Les IA pensent pour nous, réduisent l’effort, neutralisent la friction. Dans un monde trop fluide, une phrase qui résiste devient un acte de résistance : lectio difficilior potior. La lecture difficile est à préférer. Non parce qu’elle serait supérieure par essence, mais parce qu’elle oblige. Elle ralentit. Elle crée du frottement. Dans le régime cognitif actuel, celui de l’optimisé et du généré-à-la-demande, une phrase qui résiste devient une anomalie. La difficulté, dans ce contexte, n’est pas un obstacle à lever mais un espace à préserver. Ce qui échappe aux modèles, ce qui dérange la linéarité : voilà ce qui continue d’introduire du réel dans le flux. Face aux simulacres toujours plus convaincants, l’inconfort textuel devient un indice d’humanité.
À Stanford, des chercheurs ont mis au point un protocole troublant : en combinant des entretiens qualitatifs à un modèle de langage, ils ont créé des agents capables de simuler les réponses de plus de 1 000 personnes réelles, avec un taux de fidélité de 85 %. Non pas des clones, mais des intelligences qui reproduisent nos attitudes et nos biais. Ce que l’on croyait réservé aux panels devient un terrain d’expérimentation infini : tester une réforme, une crise, une campagne sans jamais interroger personne. Les sciences sociales n’observent plus la société : elles la préfigurent, en laboratoire. À ce rythme, bientôt, on ne simule plus des réponses, on pré-remplit la réalité.

A force de vouloir plaire à chacun, on finit par ne plus rien partager. L’IA générative, avec ses réponses optimisées pour notre supposé profil cognitif, n’adresse plus un public, mais une infinité de bulles solipsistes. Plus de référentiel commun, plus d’espace pour le débat, seulement des versions personnalisées du réel, confortables mais incompatibles. Même les moteurs de réponse s’adaptent à nos biais, jusqu’à devenir le miroir de nos illusions.
Se souvenir d’Arturo Ui
Face à l’irrésistible ascension de l’IA, de nombreuses rédactions restent figées, fascinées, prêtes à rejouer les erreurs des réseaux sociaux. Elles ne délèguent plus seulement la relation avec leurs publics : elles livrent désormais leurs contenus aux modèles chargés d’apprendre à faire sans elles.
Mais faut-il se révolter contre les IA omnivores ? À coups de programmes financés par les démiurges de cette nouvelle révolution, les rédactions qui ne veulent pas paraître obsolètes se lancent dans une course éperdue. Quand la technologie devient trop parfaite, peut-on encore questionner son utilité sans passer pour un dinosaure ? Le doute devient un aveu de faiblesse, l’éthique une marque d’obsolescence. Demander « à quoi bon ? » face à l’IA, c’est déjà s’exclure du futur. Le progrès s’auto-légitime, la puissance technique fait office de réponse, et la pensée critique devient un bug dans le système. Plus c’est fluide, plus il faudrait se taire. Penser contre la machine n’est pas un geste rétrograde, c’est peut-être le dernier acte de lucidité.
Nous entrons sans aucun doute dans une nouvelle ère du travail, où les agents intelligents prennent part à l’organisation même des tâches, dissolvant peu à peu les repères traditionnels du rythme, de la hiérarchie et du rôle humain. Mais qui dirige vraiment l’orchestre ? Et surtout : qui a écrit la partition ? La question de la supervision devient centrale. Qui formera ceux qui encadreront les intelligences artificielles ? Comment préparer des humains à piloter des systèmes qu’ils ne comprennent plus totalement ? Et au-delà de la productivité, reste un enjeu plus profond : transformer les entreprises, non en machines d’exécution, mais en machines à imagination, comme le formulerait François Candelon, expert IA business.
Plan d’action, #GlowUpWithAI
Renforcer l’esprit critique collectif est sans doute le meilleur moyen de naviguer dans la post-réalité. Car une population informée, qui sait comment on fabrique l’information, sera moins susceptible de se laisser abuser par un leurre numérique. Et avec le progrès de l’IA, tout devient plus accessible. Ou, pour reprendre les mots de Jensen Huang (Nvidia) : « Il n’est désormais plus nécessaire d’apprendre un langage de programmation. Le nouveau langage, c’est le langage humain. » La plupart des gens ne connaissent pas le C++, très peu maîtrisent Python — mais tout le monde sait parler le ‘humain’ ».
Et il y a aussi, bien sûr, le versant enthousiasmant que ce cahier explore. Chercher à se prémunir de l’influence des Big Tech peut vite passer pour un luxe de privilégiés, voire pour une posture occidentale, vue depuis le Sud global, où la question n’est pas de freiner, mais simplement d’entrer dans la course. Dans beaucoup de cas, l’IA est déjà une alliée précieuse. Des rédactions commencent à l’utiliser autrement, au-delà des tâches évidentes comme la transcription ou la traduction. On voit émerger des usages plus ambitieux : diversifier la production, mieux cibler, enrichir, transmettre. Et surtout, augmenter l’éducation.
Le vibe-learning, cette forme d’apprentissage assisté par IA, esquisse une autre voie. Pas une révolution humaniste, non : un raccourci. Et peut-être, pour une génération qui ne résistera pas à l’IA mais en fera sa matière première, le début d’un vrai saut dans l’accès au savoir. Une autoroute vers la connaissance, la plus rapide jamais construite, mais aussi la plus glissante.
Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve fiable du réel.
Et les médias peuvent s’appuyer sur la technologie elle-même pour contrer ses effets néfastes. Loin des hallucinations spectaculaires, certains projets renouent avec la fonction la plus essentielle de l’IA : aider à mieux voir, mieux entendre, mieux comprendre. Pour les publics éloignés de l’écrit ou des langues dominantes, comme au Mali (Akili) ou au Paraguay (GuaraníAI), l’IA vocale devient un outil de vérité à hauteur d’oreille, pas un gadget, un service. D’autres, comme AAVA aux Pays-Bas ou SPIL chez Mediahuis, s’en servent pour questionner qui parle, et pour qui : avatars d’audience, médias codés par les concernés, retour des invisibles dans le champ éditorial. Même dans des contextes d’urgence, qu’il s’agisse de sécurité avec JESS ou de confiance avec Values Compass, la question centrale demeure : comment remettre l’humain dans la boucle. Avec des IA dédiées à des tâches et non pas des super machines d’IAG destinées à remplacer nos cerveaux et à générer de nouvelles réalités. Nous avons tous commencé à gagner en efficacité grâce à l’IA. Nous savons aussi que, d’ici cinq à dix ans, le rapport de nos publics à l’information aura profondément changé. Mais nous devons trouver rapidement une solution juste et efficace pour protéger notre contenu, qui reste le socle de notre modèle économique.
À rebours des postures défensives ou des récits apocalyptiques, un mouvement s’organise. Partout, les rédactions explorent, testent, échangent. Le Festival du journalisme de Pérouse, le Nordic AI Summit, le Congrès mondial des médias d’information du WAN-IFRA à Cracovie ou encore le programme JournalismAI de la LSE dessinent les contours d’une communauté professionnelle plus connectée que jamais. Chaque semaine, webinaires, newsletters, groupes de travail partagés consolident une dynamique d’apprentissage collectif. Ce n’est plus seulement l’innovation qui circule, mais une méthode : partager les doutes, documenter les usages, construire ensemble des garde-fous et des opportunités. Et parce qu’aucune transformation durable ne se fera sans les publics, de nouveaux outils apparaissent. Poynter MediaWise et l’Associated Press ont lancé une boîte à outils concrète pour aider les rédactions à parler d’IA avec leurs audiences, sans opacité ni langue de bois. L’enjeu n’est plus d’apprivoiser seuls ces technologies, mais de les appréhender collectivement.
L’avenir sera conversationnel, et humain
Pendant des années, les rédactions ont désinvesti le terrain : trop coûteux, trop risqué. À la place, une armée de « journalistes d’intérieur » a appris à reconstituer le monde depuis un écran, via Google Earth, Reddit et des banques d’images. L’enquête devient un produit deské, désintermédié du réel, parfois même plus vécu. Mais voilà que l’IA, avec ses hallucinations convaincantes et ses récits autogénérés, nous pousse à réévaluer le terrain comme seule épreuve tangible du réel, comme le démontre brillamment Fabrice Arfi dans notre entretien. Ce que la machine mime sans jamais le fouler devient suspect. Et le journaliste, paradoxalement, retrouve son utilité première : aller là où les données ne suffisent pas. C’est peut-être le plus grand paradoxe de cette époque post-réaliste : il faudra retourner dehors pour distinguer le vrai du plausible.
Car l’IA pourrait bien nous en éloigner durablement, si l’on n’y prend garde. Le rapport Seeking Truth, Ensuring Quality de l’Université de Bergen alerte sur un « journalisme hors-sol » : des rédactions trop dépendantes des outils IA, coupées des réalités locales et de l’expérience directe. Pour la journaliste Nikita Roy, l’avenir de l’information sera conversationnel. Une conviction qu’elle met en œuvre à travers son prochain projet : une version d’elle-même, entraînée par IA à partir de ses podcasts, écrits et interventions, avec laquelle chacun pourra dialoguer.
Mais n’abandonnons peut-être pas la conversation aux chatbots : ouvrons-la, vraiment, avec nos publics.
Conclusion – Trois actes pour un sursaut
Nous n’avons pas simplement changé d’outil. Nous avons changé d’ordre. L’IA générative ne modifie pas la façon dont on produit du contenu, elle reprogramme les conditions mêmes du réel. La réalité devient une matière compressible, la vérité un consommable à souhait. Pour Descartes, le but était de pousser le doute à son comble afin de trouver une certitude indubitable (le Cogito ergo sum, seule vérité résistant à l’hypothèse du faux monde). Mais ce faisant, il a posé les bases philosophiques de l’idée qu’on ne peut exclure que le monde perçu soit un artefact sophistiqué. Ainsi, quatre siècles avant les simulations par ordinateur, Descartes envisageait déjà la possibilité d’une « réalité artificielle totale », construite pour nous (dés)abuser.
L’IA fait semblant de réfléchir, avec, en bonus, des niveaux d’ « intelligence » à la carte, selon le prix que vous êtes prêt à payer. Face à ce glissement, deux réflexes pavloviens refont surface : baisser les bras : « tout est simulacre, à quoi bon », ou fantasmer un retour en arrière : « vivons sans IA, comme avant ». Ni l’un ni l’autre ne tient. Mais l’enjeu n’est plus de résister : il faut structurer. Définir des zones non automatisées pour les formats et les relations sensibles. Encadrer les usages assistés. Exiger des conditions d’entraînement claires, des formats dictés par l’éditorial, non par les modèles. Créer des cellules mixtes capables d’évaluer, tracer, négocier. Mutualiser les expérimentations, au lieu de subir seuls les effets systémiques. L’IA n’est pas un outil neutre : c’est une infrastructure. Il faut en contenir l’architecture, avant qu’elle ne contienne nos récits. Et sauvegarder notre cerveau au lieu de le ranger dans un bocal, comme nous prévient Meredith Whittaker, la présidente de Signal.
Dans ce nouvel ordre de perception, notre cahier de tendances propose une lecture en trois mouvements : le doute comme point de bascule, le faux comme nouvelle norme esthétique, et le lien comme dernier ancrage possible pour les rédactions. Parce qu’il ne suffit plus de dire le vrai, il faut apprendre à le rendre audible. On y réunit, comme toujours, des voix venues de différents horizons : philosophes, sociologues, écrivains, journalistes, spécialistes des médias, pour interroger le présent, prendre du recul, et esquisser les trajectoires possibles pour que les rédactions ne se perdent pas de l’autre côté du miroir.
Ou, pour détourner librement Lewis Carroll : « L’imagination reste notre seule arme face au (post-)réel. »
Bonne lecture !