NPDJ : l’IA, un atout pour les médias ?

L’IA générative est-elle davantage une évolution ou une rupture  pour les rédactions ? A l’heure où l’IA générative devient un sujet “sexy”, l’école de journalisme de Sciences Po a dédié son édition des Nouvelles pratiques du journalisme au big bang de l’IA et son impact sur les médias. 

Par Alexandra Klinnik du MediaLab de l'Information de France Télévisions

En voici les principaux points :

Que doivent faire les organismes de presse de l’IA générative ?  

L’union fait la force - Quand j’étais journaliste, je ne collaborais pas avec mes collègues. Si j’avais un bon contact, je le gardais pour moi. Cette pratique doit cesser avec l’avènement de l’IA générative”, avance Charlie Beckett, passé par BBC News. C’est dans cet esprit que le directeur de Polis, le think-thank de la London School of Economics, a partagé ses dernières réflexions et travaux sur l’utilisation de l’IA par les journalistes. Dernièrement, son département a ainsi recensé en ligne 120 cas d’utilisation de l’IA en rédaction, triés par pays et par usage (investigation, production de contenu, fact-checking…) 

Charlie Beckett, directeur de Polis et Alice Antheaume, directrice exécutive de l’Ecole de journalisme de Sciences Po 

Les points clés :  

  • Les défis sont nombreux : l’utilisateur doit faire face à la nature opaque des systèmes d’IA et l’impact du biais algorithmique. Les systèmes d’IA sont considérés comme des “boîtes noires” : il est difficile de comprendre comment les décisions sont prises. Ce fonctionnement entraîne des problèmes de transparence et de responsabilité. “L’IA ne respecte pas la propriété intellectuelle, n’a pas de notion de droit. Quand on utilise une IA générative, qui détient quoi ?”, s’interroge-t-il. Les systèmes d’IA reproduisent également des biais humains, avec un impact négatif sur les groupes marginalisés.  
  • La dépendance technologique est un risque majeur. Les médias en expérimentent déjà les revers, avec leur dépendance aux réseaux sociaux. Facebook s’est ainsi éloigné de l’actualité depuis un certain temps, réduisant le pourcentage d’articles de presse sur les fils d’actu : 3% selon les dernières données de l’entreprise en 2023. Il génère ainsi beaucoup moins de trafic vers les sites d’actualité. 
  • La désintermédiation pose également problème : “Si vous pouvez avoir une réponse en rédigeant un simple prompt, pourquoi consulter les médias ? Qui a encore besoin de journalisme si nous avons ces larges modèles ?”, avertit Charlie Beckett, la façon d’y répondre sera extrêmement importante”. Pour cet ancien journaliste, l’essor de l’IA générative est un moyen pour “l’humain” de prouver sa valeur et son talent : “L’IA ne sait rien. Elle n’a pas de morale, de valeurs, de capacité d’analyse ou de sens de l’injustice. C’est sur ces points que les journalistes doivent se démarquer.”.
  • Dans un contexte de désinformation massive, les rédactions doivent absolument prendre le train en marche. “Ma préoccupation première concerne le fait que les médias ne prennent pas les choses en main”, s’inquiète le professeur. “Les mauvaises personnes sont déjà en train de prendre tout l’espace” et manient les subtilités de l'outil, à grande échelle.  
  • Les médias doivent convenir d’une stratégie IA : s’informer, élargir sa culture IA (c’est-à-dire s’informer perpétuellement sur ses limites, ses opportunités, son potentiel), attribuer des responsabilités (“ne pensez pas qu’il suffit simplement de brancher et de jouer”), tester, répéter, élaborer des lignes directrices, collaborer et créer des réseaux. Il faut implémenter la culture tech dans les rédactions. Plutôt que d’essayer d’inventer la roue dans son coin, il faut collaborer entre les silos mais aussi à l’extérieur, comme je le fais lors de cette conférence à Sciences Po”, insiste-t-il. 
  • La transparence est clé, aussi bien dans les rédactions qu’auprès de l’audience. Faire des guidelines dans les rédactions, communiquer ouvertement sur ses peurs et ses espoirs : les conditions doivent être définies clairement. Les médias doivent aussi indiquer les contenus créés avec l’aide de l’IA. Néanmoins, cette pratique est à double tranchant.  Selon un article du NiemanLab, la plupart des lecteurs souhaitent que les éditeurs étiquettent les articles générés par l’IA, mais ils font moins confiance aux médias lorsqu’ils le font. Un paradoxe à avoir en tête. 
  • L’intelligence artificielle ouvre la voie à de nombreuses opportunités visant à renforcer le journalisme de qualité : d’énormes gains d’efficacité (par exemple, la programmation), de nouveaux outils pour autonomiser les journalistes (la traduction, le reformatage), des produits d’informations et de services pour les audiences (par exemple, des chatbots de personnalisation), des ressources libérées pour permettre un journalisme plus “humain”, tels que les enquêtes spécialisées, les reportages dans “le monde réel”.
  • En France, le média Big Whale utilise déjà l’IA depuis un certain temps, notamment pour des traductions (“On fait le choix de proposer des contenus en anglais, en plus du français à notre audience. Avant, on avait un traducteur “humain” mais il fallait souvent traduire nos articles la veille au soir pour le lendemain matin. Ce n’était pas tenable. C’est une histoire de temps plus que d’argent”, nous a ainsi expliqué Grégory Raymond, co-fondateur de The Big Whale). L’IA leur est utile également pour faire un travail de secrétaire de rédaction : corriger la syntaxe, la grammaire. “Ça m’embête qu’on menace certains corps de métiers, mais il faut être pragmatique. Mais avec les économies réalisées sur ces postes, on recrute des développeurs, d’autres journalistes. C’est ce que l’on appelle la destruction créatrice”, analyse-t-il, faisant référence à l’expression de l’économiste Joseph Schumpeter. 

 L’organisation des rédactions avec l’intégration de l’intelligence artificielle 

L’IA générative, davantage une évolution qu’une rupture ? Pas sûr ! Depuis de nombreuses années, les journalistes utilisent des outils d’automatisation, dans le domaine de la collecte, du traitement et de la diffusion d’informations : résultats sportifs, électoraux, météo… L’IA générative ne fait que rendre ces outils plus accessibles et plus puissants. C’est sur cette avancée qu’ont échangé Sylvain Parasie, sociologue au médialab de Sciences Po, Marion Solletty, directrice de la rédaction Politico France et Bruno Patino, directeur d’Arte. 

De gauche à droite : Sylvain Parasie, Marion Sollety et Bruno Patino 

Les points clés :  

  • Politico utilise l’IA depuis plusieurs années. Le média, spécialisé dans les politiques publiques au niveau européen, recourt à plusieurs outils automatisés : une plateforme de suivi législatif et de données publiques à destination des professionnels de la politique, qui “scrap” une variété de documents. “Cet outil permet aux professionnels de se créer des alertes sur l’adoption d’amendements législatifs par exemple”, explique Marion Sollety. 
  • Depuis trois ans, Politico utilise également un outil de tagging automatique dans le CMS basé sur une analyse sémantique des articles. Cette pratique est soumise à une vérification. “Tous nos outils ont une échelle de contrôle humain au sein de la rédaction”, précise la direction de la rédaction de Politico France. 
  • La traduction automatique n’a pas été une expérience concluante, avec des résultats très aléatoires. Si les résultats pouvaient être bluffants, ils pouvaient également présenter de graves contre-sens. Or, la vigilance est de mise : “On couvre une actualité géopolitique complexe. Les mots comptent dans le jargon européen. Un mot peut déclencher une tempête et un coup de fil de l’Elysée dans les cinq minutes”, considère Marion Solletty.  
  • Pour Sylvain Parisie, chercheur au médialab de Sciences Po, l’arrivée de l’IA générative a permis une diminution des coûts d’accès à l’automatisation, et ainsi rendu plus accessible des technologies et pratiques jusqu’alors réservés à des “endroits d’exception”. Il cite ainsi Associated Press, et le Los Angeles Times.  
  • Bruno Patino n’est pas du même avis : “Mais ce qu’il faut retenir, c’est que depuis des années, le secteur informationnel s’est donné comme objectif la réduction des barrières à l’entrée des acteurs, la réalité, c’est que si on souhaite utiliser l’IA comme outil journalistique, il faut pouvoir le payer, et ça tous les médias ne pourront pas se l’offrir”. Pour lui, cette utilisation va “créer une asymétrie très forte entre les médias et créer une rupture encore plus grande entre les contenus”. 
  • Chez Arte, l’équipe n’a pas publié pour l’heure de guidelines sur l’utilisation de l’IA. Chez Politico, l’approche du sujet a été positive, sous l’impulsion de l’actionnaire Axel Springer. “Il faut être volontariste, sinon on va se faire renverser par la vague. Politico s’est construit sur un côté entrepreneurial avec une volonté d’être innovant et disruptif dans l’approche du journalisme politique”, met en contexte Marion Solletty. 
  • Un groupe transversal (“pas seulement éditorial”) de personnes est ainsi chargé d'identifier, d’explorer les opportunités offertes par l’IA. Cette réflexion s’articule autour de trois points : l’identification de cas d’utilisations intéressants, soit “une approche pragmatique”, une grande attention portée à la sensibilisation et la formation en interne, la formalisation et la rédaction des guidelines, avec une attention portée à la propriétée intellectuelle. Pour l’heure, les lignes directrices ne sont pas finalisées. Les individus testent l’outil à l’échelle individuelle. “On ne publie rien qui soit 100% généré ou édité par l’IA. Le facteur humain est toujours présent”, avertit Marion Solletty.