Reuters Institute : IA générative, entre enthousiasme général et méfiance pour l’info
Son usage explose : 61 % déclarent avoir déjà utilisé une IA générative, contre 40 % l’an passé. Entre adoption massive, réponses d’IA dans les moteurs de recherche, attentes ambivalentes et méfiance sur son intégration dans les rédactions, le Generative AI and News Report 2025 du Reuters Institute révèle un monde qui apprend encore à cohabiter avec l’intelligence artificielle.
Par Loïc de Boisvilliers, MediaLab de l’Information
ChatGPT, Gemini ou Copilot, ces noms familiers s’imposent comme de nouveaux réflexes : utilisés certes pour créer du contenu, ils servent désormais surtout à chercher de l’information. Un constat univoque appuyé par une progression exponentielle : en l’espace d’un an, l’usage hebdomadaire de l’IA générative a presque doublé (de 18 % à 34 %). Un développement qui tend à rappeler celui d’internet dans les années 1990-2000, précise le rapport.
Dans les six pays étudiés, les réponses d’IA intégrées dans les navigateurs de recherche sont utilisées couramment. En matière d’information, les 18-24 ans utilisent aussi ces outils pour « naviguer dans l’actu », avec des aides à la synthèse ou au résumé, un usage plus courant que chez les 55 ans et plus qui souhaitent plutôt obtenir les dernières nouvelles. Le rapport précise que la consultation de l’actualité demeure toutefois un usage minoritaire — bien que cette consommation hebdomadaire ait doublé par rapport à l’an dernier (de 3 % à 6 %).
C’est avant tout l’enjeu des liens qui est mis en avant : près de 54 % ont déjà observé des recherches générées par l’IA. Cependant, seulement près d’un tiers d’entre eux affirme cliquer sur les sources proposées. Si une majorité des utilisateurs n’ont pas ce réflexe, ce sont les jeunes générations qui sont les plus enclines à approfondir leur recherche en cliquant sur les liens.
La connaissance progresse, la confiance fluctue
Pour l’IA générative, seules quelques marques concentrent la confiance des utilisateurs. En tête figure ChatGPT (29 %), suivi de Gemini (18 %), Copilot (12 %) et Meta AI (12 %). La plupart des autres entreprises peinent à dépasser les 10 %, souvent en raison d’un manque de notoriété, selon le Reuters Institute.
À noter que, concernant les réponses générées par l’IA, vues ou utilisées par les participants lors des recherches en ligne – toutes marques confondues -, près la moitié d’entre eux (50 %) déclarent faire confiance aux résultats obtenus.
Selon l’étude, la plupart des sondés connaissent ces technologies, mais ne savent pas encore si elles leur inspirent confiance. À noter que des variations géographiques importantes persistent entre les pays étudiés : l’Argentine et le Japon sont bien moins réticents que les États-Unis, le Danemark, la France et le Royaume-Uni.
Néanmoins, les optimistes surpassent les pessimistes en ce qui concerne les possibilités offertes par ces outils. Si une majorité des répondants ont l’impression que l’IA est omniprésente dans tous les secteurs d’activité, son appréciation fluctue énormément d’un secteur à l’autre.
Les médias, un traitement à part en quête de transparence
C’est notamment le cas pour les médias, qui, contrairement aux avantages perçus dans la science ou la santé, voient l’application de l’IA dans le journalisme comme risquée, avec une compartimentation précise des missions que l’on peut confier à l’IA, et une préférence pour le back office.
Le grand point positif de l’étude : le « confort gap » ou écart de confort entre l’IA et l’humain qui reste important, bien que plus faible en Argentine et au Japon. Les répondants font davantage confiance et se sentent plus à l’aise lorsque des journalistes humains sont aux commandes (62 %) plutôt que face à des contenus rédigés par l’intelligence artificielle (12 %). À noter que l’idée d’un contenu écrit majoritairement par les journalistes avec l’aide de l’IA est en progression de deux points depuis l’année dernière.
La traduction ou la correction d’orthographe sont plus acceptées, tandis que la réécriture pour une autre audience ou la création d’images réalistes à partir de rien le sont beaucoup moins. Si de plus en plus de répondants pensent que les rédactions utilisent l’IA, une minorité (15 %) estime que les médias le font sans le dire explicitement.
Ainsi, c’est avant tout un enjeu de transparence qui se dégage du rapport. Bien qu’ils soient de plus en plus exposés à l’IA, 60 % d’entre eux affirment qu’ils ne voient pas encore de fonctionnalité IA sur les sites d’informations. Toutefois, 43 % des participants anticipent de fortes disparités dans les pratiques des médias intégrant l’IA dans les rédactions. Si seuls 28 % pensent que les différences seront minimes, le besoin éthique et de clarté dans les contenus produits par ces outils semble essentiel.
Notamment parce qu’un enjeu stratégique se dessine pour les médias : celui où le public donne un avantage à la production humaine et une occasion de creuser l’écart de confiance avec la machine grâce à la plus-value de leurs productions.
Telles sont les conclusions de cette enquête menée auprès de 12 000 personnes dans six pays (Argentine, Danemark, France, Japon, Royaume-Uni, États-Unis), réalisée via les données de la plateforme YouGov.
Assistants IA : le grand désarroi de la presse

Plus récemment, une étude de l’EBU, en partenariat avec la BBC et 21 médias de service public, apporte plusieurs pistes pour évaluer la fiabilité des réponses proposées par les assistants d’IA. Parmi les plus de 3 000 réponses analysées, près de la moitié (45 %) présentaient au moins une erreur significative.
Le principal problème vient du sourçage, souvent hasardeux : certaines réponses s’appuient sur des sources invérifiables, incorrectes ou tout simplement absentes. Parmi les assistants étudiés, Gemini est de loin celui qui commet le plus d’erreurs de sources (72 %), suivi de ChatGPT (24 %), puis Copilot et Perplexity (15 %), une tendance à l’erreur pour l’outil de Google qui se confirme pour l’ensemble des types d’erreurs observées.
Par ailleurs, près de 20 % des prompts présentent des problèmes d’exactitude et 14 % un manque de contexte. L’étude témoigne également de la confiance excessive dans les réponses proposées par ces outils : les chercheurs notent que : « Les assistants d’IA imitent l’autorité journalistique sans en avoir la rigueur. » Selon eux, ces outils répondent certes avec assurance, mais se trompent régulièrement.
Et comme le souligne le Reuters Institute, l’usage de ces outils est exponentiel. Une autre étude conjointe de la BBC et d’Ipsos révèle qu’un tiers de la population britannique déclare faire confiance aux résumés générés par l’IA. Pourtant, ces déformations de l’information touchent de plein fouet les médias : 42 % des adultes affirment qu’ils feraient moins confiance à une source d’information si un résumé produit par une IA contenait des erreurs. Une double condamnation à la fois pour les fournisseurs d’IA et surtout pour les marques de presse.
Un constat lourd de conséquences, qui menace directement la crédibilité des journalistes et l’intégrité de l’information, construite patiemment au fil des années. Ainsi, l’étude de l’EBU rappelle à quel point ces assistants représentent un enjeu critique : non seulement pour la fiabilité des outils eux-mêmes, mais principalement pour la confiance du public envers les organes de presse.
12 choses à retenir du Generative AI and News Report 2025 – Reuters Institute for the Study of Journalism 👇
1️⃣ Près de 90 % des personnes interrogées connaissent au moins un outil d’intelligence artificielle, ChatGPT restant de loin la marque la plus reconnue.
2️⃣ L’usage hebdomadaire des IA génératives a doublé en un an, passant de 18 % en 2024 à 34 % en 2025.
3️⃣ Ces outils séduisent surtout les jeunes : 59 % des 18-24 ans les ont utilisés la semaine dernière, contre 20 % des 55 ans et plus. L’écart se réduit quand l’IA est intégrée à des outils grand public, comme les moteurs de recherche.
4️⃣ La recherche d’information devient l’usage principal, devant la génération de contenu, tandis que la consultation de l’actualité reste marginale (6 %).
5️⃣ 54 % des utilisateurs ont rencontré des réponses générées par l’IA la semaine passée sur les navigateurs de recherche. Seuls un tiers d’entre eux clique systématiquement sur les sources et la confiance dans ses résumés reste modérée (50 %)
6️⃣ Dans les six pays, l’IA perçue comme omniprésente dans tous les secteurs : 51 % pensent qu’elle est toujours ou souvent utilisée dans les médias d’actualité, 67 % dans les moteurs de recherche et 68 % sur les réseaux sociaux.
7️⃣ En moyenne, les optimistes l’emportent sur les pessimistes concernant les possibilités qu’offrent l’IA générative : les avis sont plus favorables pour la santé, la science et les moteurs de recherche, mais plus négatifs pour les médias, le gouvernement et la politique.
8️⃣ L’écart de confort entre IA et Humain persiste : seuls 12 % des sondés se disent à l’aise avec des informations produites entièrement par l’IA, contre 62 % pour celles créées par des humains, même si l’acceptation augmente lorsque l’IA agit sous supervision humaine.
9️⃣ Pour les médias d’informations, l’utilisation de l’IA en back office (traduction, correction orthographique) est plus tolérée que les usages côté public.
🔟 60 % remarquent peu l’IA sur les sites ou applications d’information, et seulement 15 % pensent que les médias l’utilisent sans le signaler.
1️⃣1️⃣ On observe de fortes disparités géographiques dans l’appréciation de l’IA : les répondants du Japon et d’Argentine sont globalement plus favorables que ceux du Danemark, de France, du Royaume-Uni et des États-Unis.
1️⃣2️⃣ En France, le public reste partagé sur la manière dont les médias utiliseront l’IA de façon responsable.
Photo d’illustration : Solen Feyissa, Unsplash