Le fait émergent, ou (re)penser ce qui fait le fait

Génération n’est pas vérification. Si ce principe est fondamental pour comprendre les limites des modèles d’IA génératives, leur capacité à produire des contenus plausibles remet en question notre rapport à la factualité. Dès lors, évaluer ces productions nécessite de repenser ce qui constitue le fait et de définir un nouveau cadre d’analyse adapté à ces systèmes complexes. Laurence Dierickx propose une réflexion sur la notion de «fait émergent», pour mieux saisir ce que ces systèmes fabriquent sous couvert de vérité.

Par Laurence Dierickx, maître de conférence à l’Université Libre de Bruxelles (ULB)

Bien avant le lancement de ChatGPT le 30 novembre 2022, plusieurs travaux de recherche avaient déjà souligné l’un des domaines dans lequel les grands modèles de langage (LLMs) excellent : leur capacité à générer du bruit sémantique. Ce phénomène fait référence à toutes les formes de distorsion ou d’interférence qui altèrent le sens d’un message, incluant le contenu fabriqué (ce que l’on appelle communément « hallucinations »), les erreurs factuelles et les omissions. L’objectif de ces modèles est de produire une réponse cohérente et plausible. Comme le soulignait une équipe de chercheuses en 2021, ils n’ont pas une compréhension intrinsèque des faits ni de mécanismes internes pour évaluer la véracité de leurs générations.

En finir (ou pas) avec les hallucinations

Le phénomène des « hallucinations artificielles », largement reconnu dans le domaine des LLMs, demeure une limitation fondamentale et pratiquement impossible à surmonter. Ce problème découle des caractéristiques intrinsèques de ces modèles, formés sur des données parfois biaisées, incomplètes ou obsolètes, ce qui peut les amener à combler les lacunes avec des informations erronées ou inventées. De plus, leurs limites théoriques, telles que leur tendance à surajuster — lorsque le modèle apprend trop précisément les détails des données d’entraînement, cela diminue sa capacité à performer sur de nouvelles données — ou à généraliser de manière excessive, ainsi que leur manque de compréhension contextuelle, exacerbent ce phénomène.

Pour autant, il serait incorrect de qualifier de fiction les hallucinations des modèles d’IA génératives. Elles ne résultent pas d’une volonté de créer ou de produire des récits imaginaires, comme c’est le cas dans le processus humain de fiction. Au contraire, ce sont des erreurs générées par des mécanismes de prévision et de génération basés sur des données, ce qui rend le phénomène très différent de la fiction humaine, qui repose sur des processus cognitifs, émotionnels et narratifs qui sont intentionnels. 

Bien que certaines méthodes permettent d’atténuer la fréquence de ces erreurs, leur élimination est compliquée en raison de la nature même de ces modèles. On retrouve, dans ces techniques, le fine-tuning, qui consiste à affiner le modèle en l’entraînant sur des ensembles de données plus spécifiques ou de meilleure qualité ; le RAG (Retrieval-Augmented Generation), qui permet au système de puiser dans des sources externes pour améliorer la précision de ses réponses ; et les techniques de prompt engineering qui, derrière l’écran de l’utilisateur, visent à concevoir des invites (prompt) adaptées afin de guider au mieux le modèle vers des réponses pertinentes et fables. 

Ces méthodes ne sont pas sans inconvénients. Le fine-tuning peut améliorer la précision, mais il nécessite des ressources considérables et peut introduire des biais si les données d’entraînement ne sont pas soigneusement sélectionnées. Le RAG améliore la fiabilité en accédant à des informations externes, mais dépend de la qualité et de la pertinence des sources consultées. Quant au prompt engineering, bien qu’il permette de guider le système vers des réponses plus appropriées, il reste sensible à la formulation des requêtes et ne garantit pas toujours une réponse optimale. Les discussions sur les erreurs des LLMs s’étendent au-delà de ces aspects techniques. Elles portent notamment sur le concept de « vérité algorithmique » et sur la terminologie appropriée. Le terme « hallucination », souvent employé, est critiqué pour son anthropomorphisme, suggérant une perception erronée plutôt qu’un défaut de conception. D’autres chercheurs considèrent ces erreurs sous l’angle du « bullshit » car les LLMs, bien que dépourvus de compréhension sémantique, génèrent des énoncés plausibles sans intention de tromper.

Définir ce qui fait le fait

Les discussions sur les erreurs des modèles génératifs, qu’elles soient d’ordre technique ou philosophique, ont mis en lumière les défis liés à l’évaluation de la factualité des sorties générées par ces modèles. Cependant, en l’absence d’une définition claire de ce qu’est une sortie « correcte », il est difficile d’établir des critères précis de qualité en lien avec le concept de véracité. Cela soulève donc une question fondamentale: comment évaluer objectivement une sortie dans un environnement où la générativité repose sur des probabilités et des modèles internes, et non sur une représentation directe de la réalité ? 

La correspondance probabiliste entre la sortie générée et l’invite de l’utilisateur ne peut, à elle seule, garantir la véracité des résultats produits, et cela d’autant plus qu’il faut considérer la variabilité des réponses générées. Cette variabilité ne découle pas seulement des instructions de l’utilisateur et des connaissances préalablement intégrées dans le modèle, mais aussi d’une interprétation probabiliste distincte des données disponibles. Nous ne nous trouvons donc pas dans le domaine des faits au sens strict du terme, mais dans un domaine distinct, bien que proche du fait, où la précision et la cohérence avec les données disponibles prévalent sur une vérité objective.

Définir ce qui constitue un fait est une tâche aussi complexe que fondamentale, d’autant plus que le concept de factualité s’inscrit dans des cadres théoriques aussi variés qu’ils sont complémentaires. D’un point de vue positiviste, un fait repose sur des preuves. Sa véracité est donc conditionnée par sa vérifiabilité. Selon cette approche, les faits sont considérés comme objectifs, indépendants de la perception humaine, et doivent pouvoir être confirmés par des méthodes rigoureuses. L’approche positiviste reconnaît toutefois que les faits ne sont pas gravés dans le marbre et peuvent évoluer à mesure que de nouvelles données viennent infirmer ou affiner les connaissances existantes. L’exemple des exoplanètes illustre bien cette dynamique, car la découverte de ces planètes au-delà de notre système solaire a révisé notre compréhension de l’univers. Aussi, dans une approche positiviste, un fait cesse d’être un fait lorsqu’il est contredit par des preuves démontrant qu’il ne correspond plus à une réalité véritable.

À l’inverse, une approche interprétative, fondée dans les théories du constructivisme social, considère que les faits ne sont pas simplement observés mais socialement construits. Un cas d’école est la manière dont les partis politiques interprètent leurs résultats respectifs au lendemain des élections : c’est un peu comme à l’école des fans où tout le monde a gagné. Ici, les faits sont donc façonnés par l’interprétation qui en est faite, et qui est elle-même influencée par une conjugaison de biais humains et de perceptions sociales. Ce n’est pas regarder le monde tel qu’il est mais tel que nous sommes, pour paraphraser Peter Berger et Thomas Luckmann. Dans cette perspective, toute activité impliquant des choix, ne peut jamais être considérée comme « objective » au sens positiviste du terme. Lors d’une analyse de données, par exemple, l’interprétation des résultats dépend largement de la manière dont les questions sont formulées, des éléments mis en avant ou, au contraire, passés sous silence. C’est par exemple le cas du paradoxe de Simpson où des tendances observées à l’échelle globale peuvent disparaître, voire s’inverser, à l’analyse de sous-groupes de données. 

Enfin, l’approche institutionnelle met en avant le rôle des conventions sociales: certains faits, comme l’existence de la monnaie ou des frontières, résultent d’accords collectifs et de règles établies. Les normes en matière de pollution atmosphérique sont un autre exemple de fait institutionnel, en cela qu’elles sont le fruit d’un compromis entre considérations sanitaires, politiques et économiques. Aussi, les faits institutionnels coexistent avec des faits considérés comme objectifs (comme la composition chimique de l’eau) et des faits intersubjectifs, reconnus et légitimés par des groupes spécifiques en fonction de croyances ou de valeurs partagées. Cette tension entre objectivité, interprétation et construction sociale souligne que les faits sont souvent le résultat d’un équilibre fragile entre consensus, conventions et réalités empiriques.

Un cadre pour l’évaluation des faits émergents

Si l’approche positiviste considère les faits comme des éléments véritables et indépendants des perceptions humaines, les approches constructivistes et institutionnelles rappellent qu’ils sont souvent le produit d’une construction sociale, influencée par des biais cognitifs, des choix méthodologiques et des normes établies par des groupes ou des institutions. Pour autant, aucune de ces perspectives ne permet d’appréhender pleinement la notion de factualité dans le contexte des modèles d’IA génératives puisque nous nous trouvons ici dans le registre de la possibilité. Un modèle d’IA générative incarne toutes les caractéristiques d’un système complexe. Il est constitué de nombreux éléments interconnectés, tels que les réseaux de neurones artificiels, les algorithmes d’apprentissage qui permettent l’acquisition de connaissances à partir des données d’entraînement, les mécanismes de régulation assurant la stabilité du système, ainsi que les fonctions de coût et d’optimisation qui guident le processus d’apprentissage. Ces différents éléments s’organisent en couches de traitement successives, collaborant pour générer des résultats qui semblent cohérents. 

Leurs interactions opèrent de manière non linéaire, ce qui signifie que les effets de chaque composant ne peuvent pas simplement être prédits par l’addition des comportements individuels. L’aspect dynamique du modèle se manifeste dans son processus d’apprentissage: il s’adapte en permanence aux nouvelles données et peut modifier son comportement en fonction des conditions initiales. Ainsi, un même modèle peut générer des réponses très différentes selon la manière dont il a été entraîné, les données qu’il a rencontrées, ou même la formulation de la question posée. Comme tout système complexe, un modèle d’IA générative est particulièrement sensible aux variations subtiles de son environnement. Un léger changement dans les données d’entrée ou dans le prompt peut entraîner des différences significatives dans les résultats produits, ce qu’on peut désigner par « sensibilité aux conditions initiales ». 

Un système complexe génère des résultats émergents et dynamiques: dans le cas des modèles d’IA génératives, la dynamique résulte non seulement des données d’entraînement du modèle, mais aussi de son processus probabiliste et du prompt utilisé. Cette dynamique trouve un parallèle avec la théorie de l’émergence en philosophie, selon laquelle des propriétés nouvelles se manifestent à partir d’un ensemble d’éléments simples, sans pouvoir être réduites à la somme de ses éléments. L’émergence désigne ainsi des phénomènes qui échappent à une explication fondée uniquement sur les composants individuels, mais qui se manifestent à travers leurs interactions. 

Dans cette perspective, nous pouvons penser aux générations produites par les modèles d’IA génératives en tant que faits émergents. Ceux-ci peuvent être définis de la manière suivante: Les faits émergents sont le résultat d’interactions dynamiques entre les données d’apprentissage, les processus du modèle et les instructions de l’utilisateur. Il ne s’agit pas de vérités préexistantes, mais de résultats calculés qui reflètent des modèles probabilistes et des inférences contextuelles. Les faits émergents se caractérisent par leur dépendance à une invite spécifique (ou prompt), la variabilité des connaissances du modèle et la nature stochastique du modèle. Ils sont plausibles mais non vérifiés, adaptatifs au contexte, hautement variables et sont issus d’un processus opaque.

Cette approche permet d’aborder la question de l’évaluation d’une sortie dans un environnement où la générativité repose sur des probabilités et des modèles internes, en établissant un cadre de référence adapté à leurs caractéristiques intrinsèques. Dans ce cadre, nous proposons quatre indicateurs fondamentaux: l’exactitude, qui mesure le degré d’alignement du fait généré avec des faits établis et vérités; la vérifiabilité, qui évalue la facilité avec laquelle le fait émergent peut être confirmé à l’aide de sources indépendantes et crédibles ; la pertinence contextuelle, qui évalue l’adéquation entre le fait émergent et le prompt; et la cohérence, qui vérifie l’alignement de la génération avec d’autres faits avérés du même domaine, afin d’éviter les contradictions.

Ce cadre d’évaluation a été conçu comme un outil empirique pouvant être utilisé non seulement dans la recherche en sciences informatiques, mais aussi dans d’autres disciplines où l’évaluation de contenus générés est essentielle. Il sert également de guide pratique pour analyser la fiabilité des productions des grands modèles de langage, tout en offrant un cadre clair pour mieux comprendre leur fonctionnement et leur lien intrinsèque avec le concept d’émergence. En intégrant une dimension critique qui croise et superpose différents niveaux d’évaluation, il contribue à renforcer la littératie en intelligence artificielle, permettant ainsi aux utilisateurs, quel que soit leur domaine, d’aborder de manière critique les contenus générés par des modèles d’IA avancés.

Cet article s’appuie sur une recherche menée sur le concept de factualité à l’Université de Bergen, dans le cadre de NORDIS, l’Observatoire nordique des médias numériques et des troubles informationnels.

franceinfo à propos des médias

Voir plus sur franceinfo