EBU News Report: Diriger une rédaction à l’ère de l’intelligence artificielle générative

Ce n’est pas la première fois que les médias affrontent une révolution technologique. Mais cette fois, le cœur même du métier est en jeu. L’essor de l’intelligence artificielle générative bouscule la production, la hiérarchisation, la distribution et même la légitimité de l’information. Derrière les expérimentations techniques menées dans les rédactions européennes, un changement de paradigme s’opère : l’IA ne se contente pas d’automatiser, elle redéfinit les rôles, déplace le pouvoir, et interroge la place du journaliste dans l’espace public.

Résumé par Kati Bremme, Rédactrice en chef Méta-Media

Le News Report 2025 de l’UER Leading Newsrooms in the Age of Generative AI dirigé par la journaliste Alexandra Borchardt offre une photographie précieuse de la manière dont les rédactions européennes – et au-delà – expérimentent, régulent et questionnent l’IA générative. Fruit de 20 entretiens approfondis, il met en lumière à la fois les avancées concrètes, les impasses stratégiques et l’urgence d’un dialogue équilibré avec les géants de la tech.

« If we lose control of the news, we are toast. »

Un membre du comité exécutif de l’UER cité dans l’introduction du rapport

Le journaliste comme créateur de sens

Après l’enthousiasme initial suscité par ChatGPT et ses pairs, les rédactions ont ralenti. Selon le rapport, la phase actuelle est marquée par « un esprit de réalisme ». Comme le résume Jyri Kivimäki de Yle : « Très souvent, mon travail consiste à trouver un juste équilibre entre les attentes et la réalité. » Les usages se sont stabilisés autour de la traduction, de la transcription, du sous-titrage ou encore de la personnalisation de contenus. Mais les ambitions plus créatives ou éditoriales restent limitées. Les craintes liées à l’exactitude, à l’opacité des modèles et à l’impact sur la confiance des audiences freinent des projets exposés au grand public.

L’émergence de modèles capables de générer des textes, de synthétiser des discours ou de reformuler des dépêches remet en question la légitimité du journaliste comme producteur exclusif de contenus. Cette automatisation, loin de le rendre obsolète, impose une requalification de sa mission. Désormais, ce n’est plus tant la création de contenu qui définit sa valeur que la capacité à en extraire du sens, à articuler les faits, à poser un regard critique. Le journaliste deviendrait alors “créateur de sens”. L’IA générative ne remplace les journalistes, elle les déplace. Elle les pousse hors de leur zone d’exclusivité – la production de contenu – pour les recentrer sur une fonction plus complexe, plus stratégique : la fabrique de sens.

Cette inflexion se vérifie dans les pratiques internes des rédactions les plus avancées. Chez CBC, par exemple, l’AI Project Accelerator a permis de tester des outils non pas pour remplacer les journalistes, mais pour enrichir leur processus de raisonnement. L’IA devient ici un catalyseur d’analyse, un outil pour questionner la structure d’un récit ou simuler des hypothèses. Même logique en Suisse, où la RTS a conçu « BakerStreet », un assistant capable, entre autres, de suggérer des angles alternatifs à partir d’une actualité brute. Utilisé au quotidien par les journalistes, l’outil est perçu non comme une menace, mais comme un levier d’enrichissement éditorial. À Sveriges Radio, son équivalent suédois a été rebaptisé « Vinkelkompisen », l’ami des angles éditoriaux et de la diversité d’opinions. Et la NPO, aux Pays-Bas, utilise un « focus group d’avatars » pour s’assurer que son journalisme intègre une large diversité de points de vue.

« (…) Nous allons devoir passer du rôle de créateurs et de curateurs de contenus à celui de créateurs de sens. Il nous faut devenir plus constructifs et encourager la confiance et l’optimisme. »

Anne Lagercrantz, directrice générale de la SVT

Cette évolution ne se résume pas à un changement d’outil : elle transforme le positionnement professionnel. Dans toutes les rédactions interrogées, ce glissement est palpable. Les journalistes ne sont plus seuls à résumer un événement, formuler un titre ou proposer une accroche. Les outils génératifs le font en quelques secondes, souvent avec une qualité suffisante pour un usage interne. Le rôle du journaliste glisse vers celui de curateur intelligent, capable de sélectionner des données générées, de détecter des biais, de contextualiser une information dans un paysage mouvant. Comme le résume Minna Mustakallio, responsable de l’IA responsable à Yle : « Les gens ne se préoccupent pas réellement de l’IA. Ils réclament un meilleur journalisme, de meilleurs médias, quelque chose qui améliore leur vie. Nous devons donc prendre du recul et réfléchir à ce qui a réellement du sens. »

La désintermédiation de l’actualité par les moteurs IA

Pour la première fois dans l’histoire, les moteurs de recherche eux-mêmes sont en train de devenir des producteurs éditoriaux, prolongeant en partie le mouvement amorcé par les réseaux sociaux, passés du partage à la création de contenus. Les outils comme Perplexity ou la Search Generative Experience de Google construisent des réponses, synthétisent les sources, éditorialisent l’information sans intervention humaine, bouleversant le rôle classique du journaliste comme intermédiaire entre le savoir et le public.

Cette rupture est identifiée par plusieurs responsables interrogés. La dynamique d’accès à l’information bascule : l’utilisateur ne cherche plus une source fiable, mais une réponse synthétique à une requête formulée en langage naturel. Non seulement les contenus y sont exposés à des risques d’appropriation, mais leur origine devient de moins en moins visible pour l’utilisateur final. Un phénomène qui compromet la découvrabilité des contenus produits, mais aussi la capacité à contextualiser, éditorialiser et hiérarchiser l’information. Il représente une menace existentielle pour le rôle social du journalisme.

« Nous devons redoubler d’efforts pour défendre la cause du vrai journalisme. »

Olle Zachrison, SR

Dans ce nouveau contexte, les rédactions doivent repenser leur stratégie de visibilité. Produire pour des moteurs IA ? Adapter les formats à la recherche générative ? Ou réaffirmer la spécificité d’une expérience éditoriale humaine, construite dans la durée ? Aucun choix n’est neutre, tous impliquent des concessions. En parallèle, les journalistes doivent aussi « éduquer le public » à l’IA et plaider pour une information fiable. Pour reprendre les mots d’Olle Zachrison (SR) : « Nous devons redoubler d’efforts pour défendre la cause du vrai journalisme. »

L’apparition des agents autonomes et la menace sur le jugement éditorial

L’automatisation ne se limite plus à la génération de contenus. L’apparition d’agents IA capables d’agir selon des objectifs autonomes, de hiérarchiser l’information, de publier sans intervention humaine, marque un tournant plus profond encore. Ce sont les mécanismes de sélection, de timing, de titrage, de scénarisation qui pourraient être externalisés. Ce basculement appelle une réflexion de fond sur la souveraineté éditoriale. Qui contrôle la hiérarchie de l’information ? Comment garantir qu’un outil optimisé pour l’engagement ne devienne pas un accélérateur de biais ou de bulles de confirmation ? À l’échelle locale, certains outils d’automatisation du sport ou de la météo ont déjà montré leurs limites. Et à l’échelle politique ou sociétale, le risque est d’autant plus élevé.

« We don’t have to simplify everything for everybody”

Pattie Maes, Professor, MIT Media Lab

C’est pourquoi la quasi-totalité des rédactions interrogées insistent sur le maintien du « human in the loop ». Non comme simple superviseur technique, mais comme gardien d’un jugement éditorial collectif, ancré dans une culture, une éthique, une temporalité propre au journalisme. Mais avec un bémol que Felix Simon évoquait dans un article pour le Reuters Institute, cité dans le rapport: « La promesse des approches de type « humain dans la boucle » s’accorde difficilement avec l’argument central de l’IA : l’évolutivité. L’idée qu’un humain doive valider ou intervenir à chaque décision contredit fondamentalement le principe d’accélération ou de mise à l’échelle des tâches. »

Une dépendance stratégique aux fournisseurs d’IA qui fragilise les rédactions

La domination des GAFAM, renforcée par les batailles géopolitiques (Trump/Musk aux États-Unis, Xi/Alibaba en Chine), inquiète. Le lancement du modèle chinois DeepSeek a ravivé la compétition mondiale. L’UER appelle à des règles claires et à une régulation proactive. Elle propose un code de bonnes pratiques, basé sur 5 principes dont :

  • Le Consentement explicite pour l’usage de contenus journalistiques dans les modèles.
  • La Reconnaissance de la valeur des contenus d’actualité.
  • La Transparence sur les sources générées.

Charlie Beckett, professeur à la LSE pose la question : « Si votre entreprise dépend de l’IA générative, que ferez-vous si, soudainement, son prix est multiplié par cinq ou si ses fonctionnalités changent du jour au lendemain ? » Anne Lagercrantz, directrice générale de la SVT (Suède), constate : « Nous gagnons en efficacité individuelle et en créativité, mais nous ne faisons aucune économie. En ce moment, tout est plus cher. » En effet, contrairement à certaines espérances initiales, le déploiement d’outils d’IA générative ne réduit pas les coûts opérationnels dans les rédactions. Pire : il génère souvent des dépenses supplémentaires (licences logicielles, formation, intégration, cybersécurité). Autrement dit : beaucoup d’efforts pour peu de retours mesurés. Faute de KPIs solides, les investissements IA ne sont pas encore des leviers stratégiques fiables, notamment dans les rédactions des médias de service public.

Kasper Lindskow, du groupe JP/Politikens Media, qui propose à ces rédactions un « clone de ChatGPT » ultracomplet, identifie trois groupes d’adoption de l’IA : entre 10 et 15 % du personnel qui sont des enthousiastes expérimentant de leur propre initiative, un autre petit groupe totalement désintéressé, et la majorité (entre 70 et 80 %) qui s’intéresse à l’IA et est prête à l’essayer. « De notre point de vue, l’élément le plus important pour déployer l’IA est de concevoir des outils adaptés à ce groupe, afin de garantir une adoption plus large », explique-t-il. Dans cette organisation d’environ 3 000 personnes, 11 personnes travaillent actuellement à temps plein sur le développement de l’IA au sein d’une unité centrale dédiée, en plus de deux doctorants. Robert Amlung, responsable de la stratégie numérique à la ZDF, déclare : « Le plus grand risque est que ceux qui utilisent l’IA ne sachent pas ce qu’ils font. (…) Ce que je crains le plus, c’est que les utilisateurs deviennent trop paresseux pour réfléchir. »

Repenser la connexion avec les audiences dans un univers intermédié par l’IA – en toute transparence ?

L’IA a démultiplié la capacité à produire du contenu. Cette abondance menace désormais de saturer les espaces informationnels et d’épuiser l’attention des audiences. Plusieurs responsables de rédaction observent une forme de lassitude chez leurs utilisateurs face à un flux ininterrompu d’informations parfois peu différenciées. La bonne idée serait donc de comprimer et synthétiser l’information ? Mais si tout est résumé de la même manière, on perd les nuances qui donnent du sens aux récits. C’est toute la construction d’une relation de confiance qui est en jeu.

Le lien entre journalistes et publics repose historiquement sur cette relation de confiance et de proximité. L’IA, en interposant des interfaces et en filtrant les contenus selon des logiques de pertinence algorithmique, risque d’affaiblir ce lien essentiel. Les audiences ne sont pas hostiles à l’IA, à condition qu’elle reste en coulisses. Les recherches du Reuters Institute montrent que les usagers tolèrent l’automatisation pour les résumés ou les traductions, mais refusent des avatars pour traiter de sujets politiques. Parfois même avec des réactions quelque peu virulentes : Jyri Kivimäki, de Yle, explique qu’ils ont dû repenser leur politique de transparence : « Nous avons commencé à étiqueter les résumés produits par l’IA, en indiquant aux utilisateurs que le contenu avait été créé avec l’aide de l’IA et vérifié par un humain. Et cela met nos lecteurs en colère. Si nous mentionnons l’IA, ils réagissent en disant : “bande de paresseux, faites votre travail. Peu m’importe ce que vous utilisez pour cela. »

Se réinventer sans se renier

En filigrane du rapport, une ligne de fracture traverse le monde des médias : instrumentaliser l’IA pour plus d’efficacité ou la mettre au service d’un renouveau éditorial ? Le choix ne pourra plus être évité. L’UER insiste : l’IA doit rester un outil au service d’une ambition plus vaste – renforcer la relation avec les publics. Peter Archer (BBC) résume la ligne rouge : « What AI doesn’t change is who we are and what we’re here to do. » L’IA impose aux rédactions de revoir leurs fondamentaux : pourquoi publions-nous ? Pour qui ? Avec quelle plus-value spécifique face à des machines capables de synthétiser en quelques secondes ce que des journalistes mettaient des heures à produire ?

« Avec l’explosion de l’intelligence artificielle, nous assistons non seulement à une révolution technologique — la plus puissante de notre histoire — mais aussi à un tournant majeur dans l’histoire de l’humanité »

Eric Scherer, directeur du News MediaLab et des Affaires internationales à France Télévisions et président du News Committee de l’UER

Loin d’être une menace fatale, l’IA générative pourrait donc être une opportunité historique de recentrer le journalisme sur sa mission première : apporter du sens, créer du lien, et défendre la démocratie dans un environnement informationnel saturé.

Pour télécharger le rapport complet : Leading Newsrooms in the Age of Generative AI

Et pour finir, les points les plus saillants du rapport (selon l’avis de NotebookLM de Google, et on est plutôt d’accord avec la sélection) :

  • La transformation fondamentale du rôle du journaliste, passant de créateur et curateur de contenu à « créateur de sens » (« meaning makers« ). Cette évolution suggère une redéfinition profonde de la profession face à la capacité croissante de l’IA à générer et distribuer de l’information.
  • La possibilité que les moteurs de recherche basés sur l’IA diminuent le rôle des journalistes en tant qu’intermédiaires entre les experts et le public, en privilégiant potentiellement les sources académiques et éducatives au détriment des sources d’information traditionnelles.
  • L’émergence des Agents IA capables de prendre des décisions autonomes pour atteindre des objectifs d’information. Cette évolution technologique pourrait potentiellement transformer la manière dont l’information est agrégée et présentée aux utilisateurs, remettant en question le contrôle éditorial traditionnel.
  • La dépendance croissante des médias vis-à-vis des grandes entreprises technologiques pour les outils d’IA, soulevant des inquiétudes face aux augmentations de prix soudaines ou aux changements de fonctionnalités qui pourraient impacter leurs opérations. Cette dépendance pourrait impacter radicalement les modèles économiques des médias.
  • Le risque que l’abondance de contenu généré par l’IA conduit à une (encore plus grande) « fatigue de l’information » et à un évitement de l’actualité par le public. Si le volume d’informations devient trop important et difficile à distinguer, cela pourrait éroder l’engagement du public.
  • La perspective que dans un avenir proche, une grande partie du public pourrait s’informer directement via des plateformes d’IA comme Google AI Overview ou Perplexity, contournant potentiellement les sites web et applications d’actualités traditionnels, une menace existentielle pour la visibilité et la distribution du journalisme.
  • Le défi de maintenir des liens solides entre les journalistes et leur public dans un monde où la distribution de l’information pourrait être de plus en plus intermédiée par l’IA, avec le risque d’une aliénation et d’une perte de contact avec les besoins spécifiques des différentes audiences.
  • La remise en question du modèle économique actuel du journalisme par le fait que l’investissement dans l’IA augmente les coûts sans nécessairement générer des économies immédiates, tout en menaçant potentiellement la visibilité du contenu de qualité.
  • La nécessité pour les médias de repenser fondamentalement leurs stratégies en mettant l’accent sur un journalisme de qualité et leurs audiences spécifiques plutôt que de se laisser uniquement guider par les avancées technologiques. Cela implique un changement de mentalité et de priorités.
  • Le potentiel que l’accès à des assistants super-intelligents alimentés par l’IA soit limité aux personnes aisées en raison des modèles de tarification, ce qui pourrait exacerber les inégalités en matière d’accès à l’information de qualité et nuire à la démocratie.

Illustrations : KB

franceinfo à propos des médias

Voir plus sur franceinfo