RSL : Vers un nouveau standard mondial pour la rémunération des contenus face à l’IA

L’ère du « grand compromis » entre éditeurs et moteurs de recherche touche à sa fin. Avec l’essor de l’intelligence artificielle générative, les modèles répondent directement aux utilisateurs en s’appuyant sur la valeur produite par les médias, tandis que le trafic sortant s’effondre. Face à ce constat de « faillite du marché », une solution émerge : le Really Simple Licensing (RSL).

Par Alexandra Klinnik, MediaLab de l’Information de France Télévisions

Cette norme ouverte et lisible par machine permet aux éditeurs et aux créateurs de définir les conditions de licence et de rémunération pour l’utilisation de leurs contenus par les entreprises d’IA. Lors d’une session organisée par la WAN-IFRA, l’association mondiale des éditeurs de médias d’information, Ezra Eeman (Strategy and Innovation Director at NPO et Lead AI in Media WAN-IFRA), Kevin Anderson (Director of the Digital Revenue Network, WAN-IFRA) et John Boyden (Head of Partnership de RSL Collective US) ont détaillé comment cette norme ambitionne de devenir le socle d’une rémunération équitable et “scalable”.

Le constat : un modèle économique rompu

Le pacte historique avec les moteurs de recherche,  indexation contre trafic, ne fonctionne plus à l’ère de l’IA. Pour la grande majorité des créateurs et des médias, qui n’ont pas le poids nécessaire pour conclure des accords bilatéraux avec les géants de la Silicon Valley, la rémunération est aujourd’hui «pratiquement nulle ». « Sans un nouveau modèle capable de remplacer la publicité ou l’abonnement, ce résultat de « rémunération zéro » devient par défaut la norme pour le web ouvert. C’est une perspective effrayante », avertit John Boyden.

« Ce qui nous manque, c’est un standard commun sur la manière dont le contenu peut être utilisé, licencié et rémunéré à grande échelle. Et je pense que les deux parties le recherchent », renchérit Ezra Eeman. Le RSL se veut une réponse à cette impasse.

« Avec robots.txt, vous pouviez dire à Google s’il pouvait ou non explorer votre site : c’était binaire. Ce que fait RSL, c’est vous permettre d’articuler vos droits de manière beaucoup plus nuancée »

Un standard technique “lisible par machine”

Le RSL est à la fois un outil technique et organisationnel, reposant sur deux piliers. D’abord, un standard technique. Concrètement, il s’appuie sur une quinzaine de lignes de code intégrées à la structure des sites, bien plus sophistiquées que le traditionnel fichier robots.txt. Là où ce dernier proposait une réponse binaire, autoriser ou bloquer, le RSL permet d’exprimer des droits de manière fine.

« Vous pouvez dire à un robot d’indexation d’IA ce qu’il est autorisé à faire ou non avec votre contenu. C’est bien plus robuste que le fichier robots.txt. Avec robots.txt, vous pouviez dire à Google s’il pouvait ou non explorer votre site : c’était binaire. Ce que fait RSL, c’est vous permettre d’articuler vos droits de manière beaucoup plus nuancée », estime John Boyden. Les éditeurs peuvent ainsi communiquer, dans un format lisible par machine, des conditions de licence détaillées : exigences d’attribution, limites de réutilisation… Comme le résume John Boyden, ce standard trace une véritable « ligne rouge » numérique : « Voici exactement ce que l’IA peut ou ne peut pas faire avec mon contenu». 

En s’appuyant sur des acteurs majeurs de l’infrastructure comme Cloudflare ou Akamai, le RSL vise à transformer chaque page web en un espace conditionné par ces règles. « Pour finir, nous ne comptons pas uniquement sur la bonté d’âme des entreprises d’IA. Nous travaillons avec Cloudflare, Akamai et Fastly, qui ont accepté d’utiliser le standard RSL pour authentifier les robots d’indexation. C’est comme un videur à l’entrée d’un bar qui vérifie les cartes d’identité », explique John Boyden.

Une gestion collective

L’enjeu est aussi structurel. Jusqu’ici, les entreprises d’IA ont souvent justifié l’exploitation des contenus par l’impossibilité logistique de négocier avec des millions de détenteurs de droits. En effet, ceux-ci sont fragmentés : « le contenu appartient à des millions d’éditeurs sans mécanisme unifié pour accorder ou gérer les permissions ». « Leur réponse à cela est : « Bon, on n’a qu’à le voler », et cela ne convient à personne », dénonce John Boyden.

Le collectif RSL se positionne comme une organisation de gestion collective à but non lucratif, offrant aux entreprises d’IA une solution « efficace et évolutive » pour obtenir des licences. En rejoignant ce collectif, des acteurs majeurs comme The Guardian ou l’Associated Press, mais aussi des médias locaux, délèguent la négociation de conditions de marché équitables. L’objectif est de lever l’argument de la complexité administrative.

« Elles n’ont pas besoin de signer 100 000 accords séparés. Elles peuvent passer un seul accord avec le collectif, et nous gérons le reste. En tant qu’organisation à but non lucratif, nous reversons les revenus aux éditeurs. Nous ne conservons qu’un faible pourcentage pour couvrir nos frais. Nous n’avons pas d’actionnaires ni d’investisseurs en capital-risque. Notre allégeance va aux éditeurs », explique John Boyden. Le dispositif reste flexible : l’adhésion est non exclusive et permet à chaque membre de négocier en parallèle ses propres accords (s’ils le souhaitent).

« En tant qu’organisation à but non lucratif, nous reversons les revenus aux éditeurs. Nous ne conservons qu’un faible pourcentage pour couvrir nos frais. Nous n’avons pas d’actionnaires ni d’investisseurs en capital-risque. »

« Pay-per-inference » : rémunérer l’usage, pas seulement l’accès

L’innovation majeure du RSL réside dans son modèle économique. Il propose de passer du pay-per-scrape (payer pour accéder au contenu) au pay-per-inference (payer lorsque le contenu contribue à une réponse). La rémunération est ainsi liée à la valeur réelle apportée à la réponse générée par l’IA.

« Si une réponse de ChatGPT cite votre contenu trois fois et celui de quelqu’un d’autre une fois, vous devriez être payé trois fois plus ». Ce système, fondé sur des « pools » de redevances, valorise également la qualité de l’information. Un contenu médical ou financier utilisé dans un modèle spécialisé générera davantage de revenus qu’un contenu de divertissement. « Si vous êtes un petit éditeur, vous n’avez pas à craindre d’obtenir un moins bon accord qu’un grand, car ce n’est pas la taille de votre catalogue qui compte, mais la manière dont votre contenu est réellement utilisé pour produire un résultat. Même sans une équipe juridique coûteuse, vous obtenez exactement le même accord que de grands groupes comme USA Today. »

Une norme juridique en devenir

Pour l’instant fondé sur une logique de collaboration, le RSL pourrait acquérir une véritable portée juridique s’il est largement adopté, à l’image du robots.txt. «Une fois qu’une pratique devient une norme généralement acceptée dans l’industrie, elle prend une signification juridique. Un bon exemple est robots.txt. Il n’a jamais été légiféré ni formellement imposé, mais, une fois devenu la norme pour signaler les permissions d’accès aux crawlers, les tribunaux l’ont considéré comme juridiquement significatif », expliquait Doug Leeds, le co-fondateur de RSL dans les colonnes de Press Gazette.

Le RSL ambitionne de suivre la même trajectoire et de devenir un standard de référence pour la licence des contenus à l’ère de l’IA : « RSL joue un rôle similaire pour la licence IA. Notre objectif est d’embarquer l’ensemble de l’écosystème, et nous sommes enthousiastes de voir à quelle vitesse il est adopté. »  Pour l’heure, plus de  1500 organisations et plateformes, dont Reddit, Yahoo, USA Today et Wikipédia soutiennent la norme.

« Une fois qu’une pratique devient une norme généralement acceptée dans l’industrie, elle prend une signification juridique. »

Entre incitation et rapport de force

Si les géants de l’IA ont déjà multiplié les approches, le collectif RSL garde la maîtrise du calendrier. « Elles nous ont contactés à plusieurs reprises, mais nous leur avons dit que nous n’étions pas encore prêts à discuter », confie John Boyden. L’objectif est de se présenter à la table des négociations avec un cadre de licence et un modèle économique parfaitement finalisés. L’approche se veut délibérément incitative : « Notre stratégie, c’est la carotte plutôt que le bâton

La stratégie de la main tendue n’exclut pas une certaine fermeté. Face à l’éventualité d’un pillage continu des données, le collectif rappelle une évidence de marché : aucune entreprise ne peut sérieusement envisager une introduction en bourse avec l’épée de Damoclès « de milliers de poursuites judiciaires au-dessus de la tête.» Pour le collectif, la survie même des modèles d’IA dépend de la santé de leurs fournisseurs : si l’écosystème du contenu s’assèche, les machines n’auront plus de matière première à traiter.

Trois façons différentes de reprendre la main face aux IA

Trois approches coexistent aujourd’hui pour encadrer l’usage des contenus par les IA, mais elles interviennent à des niveaux très différents. La première relève du cadre juridique et de la protection des droits : avec le TDM Reservation Protocol (tdmRep), mis en avant notamment par Le Geste en France, les éditeurs peuvent exprimer une réservation de droits lisible par machine. Ce signal n’est pas strictement binaire (il peut intégrer une certaine granularité selon les usages ou les périmètres) mais il reste fondamentalement conçu pour s’opposer ou restreindre l’exploitation, dans une logique d’opt-out inscrite dans le droit européen du text and data mining. À l’inverse, des standards comme Really Simple Licensing (RSL, standard technique de licence machine-readable), les signaux de Creative Commons ou encore ai.txt porté par Spawning déplacent la logique : il ne s’agit plus seulement de refuser, mais de décrire précisément les conditions d’usage, dans un format directement exploitable par les systèmes.

Une troisième approche se situe sur le terrain économique. Des acteurs comme Defined.ai, Human Native ou Protege, ainsi que des initiatives comme le Microsoft Publisher Content Marketplace (dans une logique de plateforme consommatrice / organisatrice du marché), cherchent à structurer un modèle d’accès aux contenus. Ici, les données ne sont plus simplement protégées ou encadrées : elles sont organisées comme des actifs négociables, avec des licences, des flux et des revenus associés. En somme, le tdmRep permet de formaliser une réserve de droits, RSL organise ces droits dans une logique opérationnelle, et les marketplaces tentent de les convertir en valeur économique.

Ces approches renvoient à des positionnements stratégiques distincts (protection, standardisation, monétisation) sans pour autant s’exclure. Elles tendent au contraire à s’articuler au sein de stratégies combinées, où le droit, la technique et le marché deviennent complémentaires. Dans un paysage encore mouvant, où standards, équilibres de pouvoir et modèles économiques se redéfinissent en continu, l’enjeu ne réside plus dans le choix d’un modèle unique, mais dans la capacité à orchestrer ces leviers de manière cohérente.

Face à la menace d’un « Internet à zéro clic » où les utilisateurs ne visiteraient plus les sites sources, le RSL propose un pacte de croissance partagée. En liant contractuellement les redevances aux revenus des entreprises d’IA, le standard assure aux créateurs une part du gâteau, peu importe l’évolution des usages. Le RSL ambitionne ainsi de devenir bien plus qu’une simple ligne de code : une infrastructure vitale pour l’ère de l’intelligence artificielle. En combinant langage machine, gestion collective et rémunération à la valeur réelle, il pose les jalons d’un nouveau contrat social numérique.

Illustration : KB + ChatGPT

franceinfo à propos des médias

Voir plus sur franceinfo