Lasana Harris « Un psychologue dirait sans doute que nous n’avons jamais vraiment été capables de construire une réalité cohérente »

Dans un monde saturé d’images truquées, de contenus générés par l’IA et d’algorithmes qui façonnent nos perceptions, avons-nous perdu notre emprise sur la réalité ? Pour Lasana Harris, professeur de neuroscience sociale à l’University College London, cette confusion n’a rien de nouveau : la réalité, rappelle-t-il, est d’abord une construction sociale et mentale.

Propos recueillis par Océane Ansah, MediaLab de l’Information de France Télévisions

En tant que neuroscientifique social, vous étudiez la manière dont l’esprit construit la réalité. Dans une époque marquée par les deepfakes, les contenus générés par l’intelligence artificielle et les bulles de filtres, sommes-nous en train de perdre la capacité de distinguer la perception des faits ? Ou bien n’avonsnous jamais réellement possédé cette capacité ?

Un psychologue dirait sans doute que nous n’avons jamais vraiment été capables de construire une réalité cohérente. Les illusions d’optique, très connues en psychologie, en sont de parfaits exemples : une ligne peut paraître plus longue ou plus courte selon ce qui l’entoure. Autrement dit, nos perceptions ne reflètent pas fidèlement la réalité – quelle qu’elle soit. Ce qui nous permet de partager une certaine idée commune de la réalité, c’est que nous avons tendance à être d’accord avec notre entourage. De nombreuses expériences classiques menées en psychologie dans les années 1940, 50 et 60 montrent que des individus sont prêts à dire qu’ils voient la même chose que les autres, même si cela contredit ce qu’ils perçoivent réellement. La réalité est donc toujours une construction : à la fois mentale, à partir des informations sensorielles que nous recevons, mais aussi sociale, fondée sur les interactions et les jugements de ceux qui nous entourent. Chercher la vérité est en soi déjà difficile. Cela l’est d’autant plus lorsque l’on dépend des autres pour savoir ce qui est vrai.

Dans un monde saturé de fausses informations et de contenus synthétiques, que se passe-t-il lorsque nous commençons à nous souvenir de choses qui ne se sont jamais produites ? Assiste-t-on à une forme d’adaptation du cerveau  à une réalité déformée ?

La mémoire ne fonctionne pas comme un tiroir dans lequel on rangerait des fichiers. La mémoire humaine fonctionne tout autrement : elle se reconstruit à chaque rappel. [Un peu comme un modèle de langage génératif qui produit une réponse légèrement différente à chaque requête identique, NDLR]. Autrement dit, ce n’est pas l’événement en tant que tel qui est stocké dans notre cerveau, mais une version très appauvrie de cet événement. Et lorsque nous faisons remonter ce souvenir à la surface, nous comblons les vides. Nos souvenirs ne sont pas toujours factuels. Ils sont influencés par nos idées, nos objectifs, et tout un tas d’autres facteurs contextuels. Les chercheurs spécialisés dans la mémoire ont tiré parti de cette particularité au fil des dernières décennies pour développer de nouvelles approches thérapeutiques, notamment dans le traitement du trouble de stress post-traumatique (TSPT). La mémoire a donc cette malléabilité, qui facilite la création de faux souvenirs – surtout dans un environnement où la technologie peut produire de faux contenus de manière très convaincante.

Comment l’exposition répétée à des contenus générés par des algorithmes f init par remodeler nos circuits neuronaux ? Et, dans cette perspective, en quoi peut-on dire que les personnes exposées à des algorithmes différents sur les réseaux sociaux finissent par vivre dans des réalités différentes, plutôt que de simplement percevoir le monde autrement ?

La plupart des plateformes de réseaux sociaux conçoivent leurs algorithmes pour proposer des contenus susceptibles de capter l’attention de l’utilisateur. Ces algorithmes sont donc très restrictifs : au lieu de vous montrer la diversité des contenus disponibles, ils vous exposent uniquement à ceux qui sont susceptibles de provoquer une réaction émotionnelle chez vous, pour vous inciter à rester. Ce qui signifie que nous n’avons jamais une vision complète de ce qui existe en ligne. C’est l’un des grands paradoxes d’internet. L’internet, présenté comme une autoroute de l’information, devient en pratique un tunnel étroit.  Seule une fraction du web est visible. Le cerveau humain est un formidable mécanisme d’apprentissage : plus il est confronté à une information, plus celle-ci devient familière, plus elle est perçue comme normale, comme évidente, comme réelle. Si vous êtes sans cesse exposé à un certain type de contenu, à une interprétation particulière d’un événement ou à une même vision du monde, vous finissez par l’adopter comme votre propre réalité. 

Quelles sont les conséquences, sur le plan émotionnel et social, de s’attacher de plus en plus à des amis virtuels générés par l’IA plutôt qu’à de vraies personnes ?

Si l’on se place du point de vue des plateformes sociales, qui génèrent du contenu pour capter votre attention et vous maintenir engagé, alors l’une des premières conséquences, c’est une augmentation de votre interaction avec ces plateformes. Sur le plus long terme, les effets concernent précisément ce dont nous parlons ici : notre rapport à la réalité. Si toutes vos informations sur les comportements humains, sur les autres, vous parviennent via du contenu généré par l’IA, ce n’est plus un reflet f idèle du monde réel. Ce n’est pas ce qui se passe véritablement autour de vous. Vous finissez donc par développer une perception de la réalité différente de celle de quelqu’un qui n’est pas confronté à ce type de contenu. Nous n’avons pas encore assez été exposés à ces contenus (générés par l’IA) pour développer une capacité à les distinguer. Le cerveau lui-même ne sait pas encore faire la différence. Il traite ces contenus de la même façon que ceux créés par des humains, car ils activent les mêmes zones cérébrales. 

Avant les bulles de filtre sur Internet, nous avions accès à davantage d’informations, ou en tout cas à des informations plus diversifiées. Pensez-vous que des applications sociales sans algorithmes pourraient être plus intéressantes pour les utilisateurs, dans la mesure où elles offriraient cette possibilité ?

C’est un équilibre intéressant. Les individus ont tendance à préférer ce qui leur est familier, ce qui conforte leurs opinions. Il reste souvent difficile d’accepter des informations qui vont à l’encontre de ces convictions. Les entreprises d’IA l’ont bien compris : elles misent sur cette appétence pour proposer toujours plus de contenus alignés avec ces préférences.  Pourtant, le monde n’a pas toujours fonctionné ainsi. Il reste donc une incertitude. Peut-être que dans 5, 10 ou 15 ans, la diversité redeviendra désirable. L’uniformité ambiante pourrait finir par redonner de la valeur à ce qui détonne. Mais jusqu’ici, aucune preuve scientifique ne permet de l’affirmer.

Et concernant l’actualité, en quoi les contenus sélectionnés par l’IA nuisent-ils à la capacité de se concentrer sur des sujets complexes, et quels risques cela pose-t-il pour le débat démocratique ?

Oui, par définition, une histoire complexe ou un débat ne peut pas se résumer à un seul point de vue. Or, si l’IA génère les contenus dans le but de capter l’attention, elle ne proposera qu’une vision très limitée d’un événement ou d’un débat. Résultat : les individus ne sont plus exposés à des opinions divergentes comme ils pouvaient l’être auparavant. Ne pas être confronté à d’autres points de vue, ne pas avoir à y réfléchir, conduit à les rejeter lorsqu’ils finissent par surgir. Ces idées apparaissent alors comme des anomalies, incompatibles avec la perception qu’on s’est forgée du monde. Je pense que ces technologies nuisent gravement à la démocratie et au débat, car elles désaccoutument les individus à considérer des perspectives différentes de la leur. 

A mesure que les médias adoptent l’IA générative, comment les équipes éditoriales peuvent-elles se prémunir contre le renforcement des biais intégrés à ces technologies ?

On ne peut pas, c’est la réponse courte. L’IA fonctionne en absorbant une quantité massive d’informations, puis en les reproduisant. Et il y a un adage bien connu en statistiques, aujourd’hui repris dans le domaine de l’IA : « garbage in, garbage out ». Si les contenus utilisés pour entraîner l’IA sont biaisés ou partiels, les résultats qu’elle produira le seront aussi. Donc, à moins qu’une rédaction ait elle-même formé son IA et veillé à ce qu’elle ait été exposée à un véritable éventail d’informations équilibrées, l’IA ne fera que reproduire les biais. Or, les rédactions ne contrôlent pas les modèles, elles les utilisent via des tiers. Pour entraîner une IA de manière équilibrée, il faudrait disposer d’autant de données provenant de tous les points de vue – néanmoins ce n’est pas comme cela que le monde est structuré. Des recherches récentes montrent, par exemple, que tous les grands modèles de langage, comme ChatGPT, intègrent des biais occidentaux. 

Vous vous intéressez à ce que pourrait être une culture de l’IA. Si ces systèmes construisent leur vision du monde à partir de nos biais — notamment occidentaux, comme vous l’avez souligné —, ne risquons-nous pas de créer un miroir qui ne fait qu’amplifier nos travers, plutôt que d’inventer quelque chose de réellement nouveau et porteur de sens ?

Absolument. Les entreprises qui développent l’IA ont déjà mis en place certaines restrictions. Par exemple, il est impossible de faire dire des choses odieuses à ces grands modèles de langage. Elles ont donc prouvé qu’il était possible de fixer des limites à ce que l’IA peut faire. Mais elles ne vont pas assez loin. Si elles ont instauré ces limites, c’est parce qu’elles pensent que des dérives pourraient faire fuir les utilisateurs. Je pense que la pression doit venir des usagers eux-mêmes. Donc le problème dépasse largement les technologies de l’IA. Il nous renvoie à une question plus large, que nous devons nous poser collectivement : dans quel type de société voulons-nous vivre ? Et croyons-nous réellement qu’il est possible d’améliorer notre société sur ces sujets-là ? Aujourd’hui, personne ne mène ce débat. Il n’y a donc pas de pression suffisante pour pousser les entreprises d’IA à corriger leurs algorithmes et à les rendre moins biaisés. 

Dans un monde comme celui-ci, quels outils cognitifs ou culturels pourraient nous aider à restaurer un cadre de référence commun ?

Mon outil préféré, c’est la pensée critique. Il faut être capable d’évaluer l’information de manière indépendante, c’est-à-dire réfléchir à sa validité, se demander pourquoi elle le serait ou non. Ce qui peut nous aider à penser de manière critique, c’est la capacité à adopter d’autres points de vue, à imaginer le monde tel qu’il est vu par quelqu’un d’autre. Or ces deux processus sont cognitivement très exigeants. Cela nous place donc dans une situation très difficile à l’échelle de la société, car si les gens ne sont pas incités à s’engager dans ce travail exigeant, on en vient à dépendre de l’éthique de sociétés privées, motivées par le profit, pour faire « ce qu’il faut ». À mes yeux, c’est un peu comme le changement climatique : nous avons toutes les réponses, mais nous n’avons pas la volonté collective de les appliquer. Le problème, c’est que nos sociétés, structurées autour du capitalisme, ne créent pas d’incitation réelle à adopter ces comportements. Il nous faut donc repenser nos systèmes d’incitation, pour que les individus aient plus de raisons de s’engager dans ces efforts, et que les entreprises soient davantage poussées à agir de manière responsable.

Avant Internet, bien avant des réseaux comme TikTok, nous avions moins conscience de l’ampleur de la population mondiale. D’un certain point de vue, ne serait-il pas plus facile aujourd’hui d’exercer sa capacité à adopter d’autres perspectives, justement parce que nous savons — du moins en théorie — combien de réalités différentes coexistent ?

 Absolument. Aujourd’hui encore, si l’on regarde son fil d’actualité, on ne voit pas surgir des informations de chaque région du globe. Il faut les chercher activement, mais combien prennent cette peine ? Elles ne nous parviennent ni par la télévision, ni par notre téléphone, ni par aucun autre média, car tous sont désormais calibrés pour ne nous montrer que ce que nous « aimons ». Ainsi, notre vision du monde reste limitée, et nous n’avons même plus le désir d’en explorer le reste. La plupart d’entre nous restons prisonniers de nos bulles, sans même nous en rendre compte. 

Comment la consommation compulsive sur ces plateformes perturbe-t-elle non seulement notre perception de la vérité, mais aussi notre propre sens de l’identité ?

Je pense que l’identité se forme pendant l’adolescence. C’est à ce moment-là, avec les grands changements développementaux, que l’on traverse de nombreux bouleversements concernant notre sens de soi et la façon dont on se perçoit en tant qu’être humain dans le monde. Donc, un autre conseil que je donne, c’est que nous devons vraiment nous concentrer sur les enfants. Sur les jeunes, car ils sont plus malléables. Bien que les gens soient ce qu’ils sont, les jeunes ne sont pas encore ce qu’ils seront. Le défi, c’est que les identités se forgent souvent au contact de personnes différentes. Or, il est rare de croiser des formes d’humanité qui ne soient pas humaines. L’intelligence artificielle pourrait changer cela. À mesure qu’elle adopte des comportements plus humains, elle peut pousser à revaloriser ce qui fait l’essence de l’identité humaine. Si cette prise de conscience émerge, elle pourrait encourager à percevoir les autres autrement — et à chercher à mieux comprendre ceux qui ne partagent pas les mêmes repères.

Dans ce sens, diriez-vous que des pays comme l’Australie, qui ont décidé d’interdire les réseaux sociaux aux adolescents, font un bon choix ?

Ce qui compte, c’est l’éducation à l’esprit critique. Il faut préserver la capacité des adolescents à construire leur propre identité sans l’influence des réseaux sociaux, parce que cette influence peut être très limitante. Les réseaux sociaux permettent de créer des liens qu’on ne pourrait pas établir autrement. Encore une fois, tout dépend de l’usage. Les interdictions peuvent avoir des effets positifs, mais aussi des effets négatifs. Au lieu d’interdire, il faudrait plutôt apprendre aux jeunes à s’en servir intelligemment. On ne laisse pas quelqu’un prendre le volant sans formation ni entraînement. Il faudrait en faire autant avec les réseaux sociaux : les former, leur expliquer ce qu’est un algorithme, comment il fonctionne, comment il sélectionne les contenus qu’ils voient. Il faut promouvoir les valeurs jugées importantes, pour qu’ils puissent utiliser ces technologies à leur avantage, plutôt que de les laisser devenir une source supplémentaire de mal-être. Mais personne ne le fait vraiment. Le débat se résume à une alternative brutale : interdire ou laisser faire. Il n’y a pas de position intermédiaire, plus nuancée. Cela en dit long sur l’époque. La nuance semble avoir disparu. Il devient difficile de tenir ensemble deux points de vue ou de chercher un équilibre.

franceinfo à propos des médias

Voir plus sur franceinfo