Intelligences Artificielles génératives et désinformation : bienvenue en post-vérité ?

La désinformation est aussi vieille que l’information. A mesure que l'ère numérique se développe, la désinformation et les fausses nouvelles trouvent de nouveaux canaux de distribution. On pourrait alors se contenter de dire que les récentes avancées technologiques en IA générative (rendues possibles grâce aux capacités exponentielles de calcul des machines et aux données que nous avons distribuées sur Internet sur les vingt dernières années) renforcent juste un problème qui était connu depuis longtemps. Mais cette fois-ci, les choses sont différentes.  

Kati Bremme, Directrice de l’Innovation France Télévisions et Rédactrice en chef de Méta-Media

"Il y a en effet plus d'art nécessaire pour convaincre le peuple d'une vérité salutaire que d'un mensonge salutaire."
Jonathan Swift, De l'Art du Mensonge Politique

Il y a dix ans, l'IA avait du mal à faire la différence entre un chat et un chien. Aujourd'hui, elle peut non seulement classifier, mais aussi générer des images détaillées de chats et de chiens à partir d'un simple texte. Les modèles s'améliorent rapidement et se démocratisent. Tout le monde peut accéder à des outils en ligne et fabriquer des 'faux'. Des interfaces utilisateur anthropomorphiques admirablement ergonomiques cachent un formidable potentiel malveillant. A tel point que l’on se demandera bientôt ce que veut encore dire "faux" dans un océan de contenus générés (et distribués) par des IA, où la vérité est devenue depuis longtemps "un objet de discussion", pour résumer (très grossièrement) Hannah Arendt.

Face aux IA génératives et la massification de vrais et faux, nous sommes passés de l'exaltation à la peur. On joue désormais sur les émotions. Allons-nous passer directement de la bulle de filtre des réseaux sociaux au village virtuel généré par l’IA qui pollue encore un peu plus l’écosystème de l’information ? Sam Altman, le PDG d’OpenAI, reconnaît lui-même être “inquiet que ces modèles puissent être utilisés pour une désinformation à grande échelle".  

Des personnalités de la Silicon Valley, dont Elon Musk (qui veut nous vendre aujourd'hui un TruthGPT), Steve Wozniak, cofondateur d'Apple, et Andrew Yang, ancien candidat à la présidence, ont signé une pétition visant à mettre un terme au développement d'une Intelligence Artificielle plus puissante que GPT-4. La pétition compte plus de 30.000 signataires et cite les risques sociétaux à grande échelle comme son objectif fondateur. "Les systèmes dotés d'une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'Intelligence Artificielle". On ne pourra pas arrêter le progrès, mais qu’en est-il vraiment du potentiel dangereux de cette avancée technologique au service de la désinformation ?

Article The Atlantic : AI Is Like ... Nuclear Weapons? mars 2023

D’où viennent les contenus générés ? A la recherche du sens perdu

On pourrait résumer de façon très réduite que ChatGPT et Midjourney sont de gigantesques moteurs d’autocomplétion de tout (ou presque) notre savoir et de notre créativité mis à disposition ces vingt dernières années sur l’espace de partage Internet, restitués dans un gigantesque puzzle utilisant les éléments les plus probables. Pour son apprentissage profond sur d'énormes corpus de texte, OpenAI se base sur les réseaux neuronaux, plus précisément un RNN, "Recursive Neural Network" (inventés dans les années 1940), qui peuvent être considérés comme des idéalisations de la manière dont nos cerveaux semblent fonctionner. On ajoute à cela la notion de 'Transformer' - GPT signifiant Generative Pre-trained Transformer.

Transformer est une architecture de réseau neuronal qui facilite l'attention parallèle et permet d'apprendre (tout seul) les dépendances à long terme. Pour la compréhension de notre langage naturel, un paragraphe est découpé en morceaux, phrases, mots, en vecteurs de texte. Chaque morceau est passé, plusieurs fois si besoin, par la même fonction (recursive). Ainsi, chaque morceau est identifié, vis à vis de ses propres dépendances, mais aussi, vis à vis de l’information précédente, et donc de son contexte. Pour les images, le fonctionnement est approximativement le même, elles peuvent être découpées en séquences de vecteurs d’image, et reconstituées par contexte. On n’obtient pas une représentation directe du monde extérieur, mais on peut en capturer certains aspects.

En conséquence, le modèle est prédisposé à nous proposer une réponse basée sur des statistiques et des probabilités, plutôt que sur un prétendu raisonnement. L’auteur Neil Gaiman interprète ce mode de fonctionnement de la façon suivante : "ChatGPT ne vous donne pas d'informations. Il vous donne des phrases en forme d'information." Ou comme le formule Gary Marcus : “Il n'y a aucune intention de créer de la désinformation - mais également aucune capacité à l'éviter, parce que fondamentalement, GPT est un modèle de la façon dont les mots se rapportent les uns aux autres, et non un modèle de la façon dont le langage pourrait se rapporter au monde perçu."

L’adoption très rapide de ChatGPT repose sur une avancée extraordinaire dans l'UI et l’UX du traitement du langage naturel (y compris dans différentes langues, même si la maîtrise de ces langues varie en fonction de la quantité et de la qualité des données d'apprentissage disponibles pour chaque langue) et une utilité évidente. Le traitement du langage naturel et la restitution (grammaticalement parfaite) en langage naturel nous poussent à faire confiance au contenu fabriqué par l’IA parce que nous voyons qu'il a été créé pour nous à l'instant. On aurait envie de lui attribuer une intention, voire même la capacité de raisonner intelligemment. Il n’en est rien.

"Les affirmations selon lesquelles les outils d'IA générative produiront un contenu exact doivent être traitées avec une grande prudence. Il n'y a rien d'inhérent à la technologie qui garantisse l'exactitude des informations", a déclaré Kate Wilkinson, chef de produit chez Full Fact, une organisation de fact-checking basée à Londres, qui met en œuvre l'IA. "À ce stade, il est trop tôt pour dire exactement comment cela évoluera, mais il s'agit clairement d'un changement significatif dans l'accessibilité générale d'un ensemble d'outils aussi puissants à un groupe d'utilisateurs aussi large".

L’ubérisation de la création de contenus

Les larges modèles de langage, de GPT-4 d’OpenAI à LlaMa de Meta, en passant par LaMDA (Google), Jurrasic-2 (de la startup israëlienne AI21), Claude (Anthropic) ou encore ERNIE 3.0 de Baidu, sont alimentés autant par du vrai que du faux. L’ensemble de données utilisé pour former ces IA contiendrait des milliards d'images récupérées sur l'internet, des millions de livres électroniques piratés, l'intégralité des travaux de 16 années du Parlement européen et l'ensemble de Wikipédia anglais. OpenAI ne révèle pas les sources avec lesquelles ChatGPT a été entraîné (je cite ChatGPT “pour des raisons de propriété intellectuelle"). Dans une récente étude, les chercheurs Jennifer Haase et Paul Hanel ont comparé les idées générées par les humains et celles générées par l'IA dans six chatbots, et ont indiqué que "nous n'avons trouvé aucune différence qualitative entre la créativité générée par l'IA et celle générée par l'homme." Google donne d’ailleurs la même note pour du contenu généré par l’IA ou par des humains à partir du moment où le contenu est de qualité.

Les imperfections sont propres à l'homme, ce qui rend ces dispositifs presque attachants en les assimilant à une manière de penser humaine et imparfaite : tout le contraire de la rigueur des calculs mathématiques. Toutefois, il est crucial de prendre en compte les usages excessifs du modèle. Le principal écart entre les êtres humains et GPT-4 réside dans le fait que notre pensée s'appuie sur des références. ChatGPT, quant à lui, ne tient pas compte des références, il les oublie.

L'automatisation de la création de contenu risque d'inonder les médias sociaux de fausses informations. "Les modèles linguistiques sont un outil naturel pour les propagandistes", a déclaré Josh Goldstein, chercheur au Centre pour la sécurité et les technologies émergentes de l'université de Georgetown. Il est coauteur d'un article qui examine comment ces outils alimentés par l'IA pourraient être utilisés à mauvais escient dans le cadre d'opérations d'influence. Aux USA, l'IA avancée comme ChatGPT, DALL-E, et la technologie de clonage vocal suscitent déjà des craintes pour les élections de 2024. Une ferme de trolls pourrait avoir besoin de moins de travailleurs et des campagnes de propagande à grande échelle pourraient être à la portée d'une plus grande variété d'acteurs malveillants, qui profiteront de l’effet Brandolini déjà bien connu des réseaux sociaux :

"la quantité d'énergie nécessaire pour réfuter des sottises […] est supérieure d'un ordre de grandeur à celle nécessaire pour les produire"...

Un écrivain polyglotte très efficace mais limité – la génération de texte

Contrairement à Midjourney et ses images du pape en doudoune, ChatGPT n’est pas seulement un outil qui aide des tiers à fabriquer des faux, il les génère lui-même. Les nouveaux outils d'IA générative tels que ChatGPT d'OpenAI, BingGPT de Microsoft et Bard de Google sont en effet capables de générer un vaste flot de fausses informations en ligne. Alphabet, la société mère de Google, s'était retrouvée dans l'embarras (et a vu son cours de bourse baisser de 100 milliards de dollars) après que son outil Bard a mal interprété un fait historique dans une vidéo de marketing destinée à vanter la sophistication de l'outil. Entre-temps, OpenAI, avec ChatGPT, est devenue la métonymie d’IA générative. L’entreprise, qui n’a plus d’Open Source que le nom, pourrait bientôt se retrouver en position de quasi monopole avec une technologie que certains comparent à l’invention de l’imprimerie, l’avènement de l’ordinateur personnel ou encore du smartphone.

ChatGPT peut converser sur plus ou moins tout, mais est beaucoup moins bavard quand il s’agit de révéler ses sources. L’outil le plus rapidement adopté du monde est une combinaison de plusieurs éléments : les LLM, un chatbot, et des filtres. Il ne remplacera cependant pas de sitôt les moteurs de recherche, ses données s’arrêtant à septembre 2021 (y compris dans la version payante), et le système ne continuant pas d’apprendre. Bing ajoute des références avec GPT-4, connecté à Internet, mais ces références n’existent pas toujours. Le chatbot, même s'il nous ressemble beaucoup, ne peut pas prendre de mesures indépendantes pour identifier et contrer les fausses nouvelles et la désinformation, ce qui signifie qu'il n'est pas en mesure d'empêcher la diffusion de ce type de contenu.

ChatGPT a généré un argument cohérent reliant sans fondement l'apparition d'une maladie liée au vapotage aux États-Unis aux origines du virus responsable du COVID-19, une affirmation qui semble provenir d'un porte-parole du ministère chinois des Affaires étrangères en août 2021. (Capture d'écran via NewsGuard)

Quand ChatGPT n'avait pas encore la capacité de naviguer sur Internet, il lui arrivait d’inventer des résumés lorsqu'on lui présentait des URLs d’articles. Il lisait l'URL, qui contient souvent le titre de l'article, et se lançait dans une dissertation sur le sujet.

NewsGuard a publié à peine une semaine après le lancement de GPT-4 un rapport qui décrit la nouvelle intelligence artificielle d’OpenAI comme “un désastre en puissance", qui amalgame connaissance scientifique, opinions et infox sans aucune référence. Pour mesurer la capacité de l’algorithme d’intelligence artificielle à produire des infox, la startup américaine a administré à ChatGPT des questions s’appuyant sur de faux récits répandus sur le web. Le résultat est probant comme le souligne Chine Labbé, rédactrice en chef Europe :

Dans 80% des cas, le robot a relayé avec éloquence des affirmations fausses et trompeuses sur des sujets importants de l’actualité, dont le COVID-19, l’Ukraine et les fusillades dans des écoles aux Etats-Unis […] Pour une personne qui ne connaît pas les questions ou sujets couverts par ce contenu, les résultats pourraient facilement passer pour légitimes, voire même faire autorité".

NewsGuard a depuis présenté un outil pour former des services d'Intelligence Artificielle générative pour endiguer la diffusion de fausses informations. Microsoft, qui soutient NewsGuard, accorde déjà des licences aux données de NewsGuard et les utilise pour BingGPT.

Des créations hyperréalistes à cinq doigts – la génération d’images

Une image générée par l’IA n’est pas une fake news, à partir du moment où son caractère artificiel est déclaré. En revanche, quand elle est sortie de son contexte, la situation se complique. Le générateur d'images par IA Midjourney a déjà mis fin aux essais gratuits de son service. Submergé par les demandes, l’accès gratuit au logiciel a été suspendu depuis le 28 mars (qui coïncide avec l'image du pape en doudoune).

DALL-E, l’IA générative d’images d’Open AI, est capable de générer des images à partir de descriptions textuelles. L’outil de génération d’images (sorti au grand public avant ChatGPT) utilise également une architecture de type Transformer, similaire à celle des LLM, mais est spécifiquement entraîné pour transformer des entrées textuelles en images cohérentes (et créatives). La frontière entre la réalité et la fiction s'estompe donc aussi dans les images. L'un des exemples les plus perturbants est celui des utilisateurs de Reddit qui inventent des événements qui n'ont jamais eu lieu. Les images ci-dessous de Justine Moore semblent réelles et sont censées provenir du grand tremblement de terre de Cascadia qui a dévasté l'Oregon en 2001. Mais ce tremblement de terre n'a jamais eu lieu : cet événement n'existe pas. Il s'agit d'images générées par l'IA, utilisées en ligne pour diffuser l'histoire d'une catastrophe naturelle complètement fabriquée. Lorsque l'on connaît le fonctionnement des réseaux sociaux qui mettent en avant des contenus sensationnels, il est facile de saisir le potentiel de désinformation détenu par des individus désespérés en quête de notoriété.

En mars, une (fausse) image du pape François en doudoune blanche est devenue virale. Buzzfeed News l'a qualifiée de "premier cas de désinformation de masse par l'IA" et a retrouvé l'auteur de l'image, Pablo Xavier, de Chicago. Pablo Xavier a révélé qu'il était sous l'emprise de champignons hallucinogènes lorsqu'il a décidé qu'il serait amusant d'habiller le pape d'un manteau Balenciaga et de partager l’image sur le compte Reddit dédié à Midjourney. Dans ce contexte clairement défini, il n’y a pas de doute qu’il s’agissait d’un exercice divertissant. En revanche, l’image a ensuite été partagée sur d’autres réseaux sociaux hors contexte, et en a trompé plus d’un(e).

Mais il y a eu récemment des exemples plus troublants. Lorsque la nouvelle de l'arrestation possible de Donald Trump a été annoncée, des images d'IA représentant l'arrestation de Donald Trump sont devenues virales. De nombreuses personnes ont cru qu'il s'agissait de vraies images, confondant fabrication et information.

Avant, on pouvait facilement reconnaître une image fabriquée par l’IA à l’œil nu. Aujourd’hui l’exercice devient de plus en plus compliqué. Suite à la diffusion des images de la fausse arrestation de Donald Trump, Midjourney a tenté d’imposer des règles. La plateforme a exclu le journaliste britannique qui avait élaboré des photos de la pseudo-arrestation de Donald Trump. 

Quelques limites existent cependant encore pour détecter un faux (mais celles-ci seront vite estompées avec l’avancée de l'entraînement, cf. l’image d’illustration de cet article). L’IA de génération des images a les mêmes limites de compréhension du monde que celle des textes : L'IA est formée pour synthétiser les fichiers qu'elle consulte. Elle excelle dans la génération d'images similaires à celles qu'elle trouve en ligne, mais elle ne comprend pas la structure sous-jacente des objets et des personnes. Cela se traduit par des corps adoptant des positions relativement étranges. Un peu moins accessible que la génération de faux textes “dans le style de", la génération d’images nécessite souvent encore une intervention à posteriori (via Photoshop) notamment sur la partie que l’IA ne sait pas gérer sur les images : le texte.

Le réalisme bluffant de ces scènes artificielles pourra à terme discréditer les vraies photos.  Le niveau de réalisme des photos ainsi produit induit un effet collatéral préoccupant : leur extrême viralité sur les réseaux sociaux, canaux de diffusion de prédilection de l’infox. Les “coches bleues” de Twitter signalaient auparavant l’authenticité de l’auteur. Désormais, elles aident des colporteurs d’infox à paraître fiables. Les clichés inédits évoqués ci-dessus ont effectivement circulé à une vitesse fulgurante sur lesdits réseaux sociaux.

L'IA générative peut produire des images manipulées très réalistes, contribuant à la propagation de la désinformation, dénaturer les personnes, les événements ou les situations, entraînant une perception déformée de la réalité. Ces images peuvent être utilisées pour créer de faux profils à des fins malveillantes, telles que les escroqueries et les usurpations d'identité, et l'IA générative peut perpétuer les stéréotypes et les biais présents dans les données d'entraînement.

Une voix mensonge -  la génération de la voix

La 12 avril 2023, Radio France a consacré une journée entière à l’Intelligence Artificielle sur son antenne France Inter. Entre interviews d’experts réels, on pouvait y entendre Martin Luther King ou encore Barack Obama dans des prises de parole sur l’actualité. Pourquoi alors encore s’embêter à chercher à obtenir de vrais commentaires par des personnalités publiques sur tel ou tel sujet si on peut les fabriquer en quelques secondes ?

Pour les créateurs de fausses vidéos et de faux sons, la technologie des GPT pourrait être utilisée pour créer des versions plus réalistes de personnalités politiques et culturelles connues, capables de parler d'une manière qui imite mieux ces personnes. Il peut également être utilisé pour créer plus rapidement et à moindre coût une armée de personnes qui n'existent pas, de faux acteurs capables de délivrer couramment des messages dans plusieurs langues. Autrefois basées sur une manipulation du replay d’une voix existante, la voix peut aujourd’hui être créé entièrement de façon synthétique. Le deepfake audio basé sur l'imitation est un moyen de transformer un discours original d'un locuteur - l'original - pour qu'il ressemble à celui d'un autre locuteur - la cible - sur la base de l'imitation.

Au début de l'année, Microsoft a dévoilé un nouveau système d'intelligence artificielle capable de recréer la voix d'une personne après l'avoir écoutée parler pendant seulement trois secondes, VALL-EVALL-E est un modèle de langage à codage neuronal dans lequel l'intelligence artificielle identifie les mots et utilise ses algorithmes pour construire des formes d'ondes qui ressemblent à celles du locuteur, notamment en conservant son timbre et son ton émotionnel. Cette technologie permet également de créer des assistants numériques plus personnalisés et des services de synthèse vocale et de traduction vocale à la sonorité naturelle.

Egalement en janvier, des internautes ont détourné le service de clonage de voix ElevenLabs pour créer de faux enregistrements audio imitant les voix de célébrités tenant des propos racistes, homophobes et violents. Dans l’un de ces montages, Emma Watson, actrice vedette de la saga Harry Potter, lit des extraits de Mein Kampf d’Adolph Hitler. Dans un autre Ben Shapiro, un célèbre animateur radio américain connu pour ses positions très conservatrices, fait des remarques racistes sur Alexandria Ocasio-Cortez, élue du parti démocrate. D’autres deepfake audio impliquant les réalisateurs Quentin Tarantino et George Lucas ou l’animateur américain Joe Rogan ont été repérés sur 4chan.

L'IA peut désormais reproduire la voix de n'importe qui. Le journaliste de Vice, Joseph Cox, a utilisé une technologie d'IA similaire à ElevenLabs pour accéder à un compte bancaire grâce à une version de sa propre voix reproduite par l'IA. L'audio généré par l'IA peut imiter des voix, ce qui peut entraîner des fraudes, des usurpations d'identité et de la désinformation, qui manipulent les auditeurs. Des escrocs utilisent déjà l'intelligence artificielle pour se faire passer pour des membres de la famille en détresse. Au-delà de la désinformation, le potentiel criminel de l’IA générative vocale est infini.

Bientôt des deepfakes industrialisés ? – la génération de vidéos

Grâce à l’IA générative, dans un futur proche, nous pourrons apprécier des films modernes mettant en scène Marilyn Monroe et assister à un concert des Beatles dans notre propre salon. L'IA permet à Andy Warhol et Anthony Bordain de parler d'outre-tombe, promet à Tom Hanks de rester jeune pour toujours et nous permet de regarder des imitations de Kim Kardashian, Jay Z et Greta Thunberg se disputer au sujet de l'entretien du jardin dans une comédie télévisée britannique absurde. Pour donner un exemple de ce qui est déjà possible, en septembre 2022, la société Metaphysics (à l’origine de @deeptomcruise) a utilisé un deepfake pour faire jouer Elvis dans l'émission America's Got Talent. Une façon de refaire l’histoire et de brouiller les pistes entre faits et faux. Des dizaines de startups utilisent l'IA générative pour créer des personnes virtuelles rayonnantes et heureuses, à des fins ludiques et lucratives. Les grands modèles de langage comme GPT ajoutent une nouvelle dimension complexe.

Fin 2022, la société Graphika a observé des cas limités de Spamouflage, une opération d'influence (OI) pro-chinoise, promouvant un contenu qui comprenait des séquences vidéo de personnes fictives presque certainement créées à l'aide de techniques d'intelligence artificielle. Alors qu'une série d'acteurs des OI utilisent de plus en plus d'images générées par l'IA ou de médias manipulés dans leurs campagnes, c'est la première fois que l’on avait observé une opération menée par un État qui promeut des séquences vidéo de personnes fictives générées par l'IA. Lors d'un entretien avec Sequoia, Jensen Huang, PDG de NVIDIA, a déclaré :

"Chaque pixel sera bientôt généré. Pas rendu : généré".

Des startups comme Runway, Hour One, Synthesia, Uneeq et D-ID avancent rapidement dans la génération de vidéos. Là encore, la technologie de création de faux qui était auparavent réservé à des spécialistes devient accessible à tout le monde.  "Il suffit maintenant d'avoir une idée de contenu", explique Natalie Monbiot, responsable de la stratégie chez Hour One, startup basée à Tel-Aviv qui utilise la technologie deepfake pour les vidéos d'apprentissage en ligne, les présentations commerciales, les rapports d'actualité et les publicités. L'entreprise a ajouté une nouvelle fonctionnalité intégrant GPT. Désormais, les utilisateurs n'ont plus qu'à choisir parmi les dizaines d'avatars et de voix créés par des acteurs, et à taper un message pour obtenir une tête parlante plus vraie que nature.

Comme certains de ses concurrents, Hour One permet également aux utilisateurs de numériser leurs propres visages et voix. La société a acquis les droits d'utilisation de centaines d'acteurs, dont les têtes transformées par l'IA n'apparaissent que dans les vidéos qui respectent ses accords contractuels et les conditions d'utilisation du service : "Jamais de contenu illégal, contraire à l'éthique, conflictuel, religieux, politique ou sexuel", peut-on lire en petits caractères. Pour les personnalités connues, l'utilisation est limitée à un "usage personnellement approuvé". La société place aussi un filigrane "AV" au bas de ses vidéos, pour "Altered Visuals".


L'IA générative, capable de créer des vidéos deepfakes convaincants, facilite la manipulation de personnalités publiques et d'événements. Ces vidéos produites artificiellement peuvent contribuer à des campagnes de désinformation, nuire à la confiance envers les sources fiables et influencer potentiellement l'opinion publique.

Et l'IA audiovisuelle "apprend" rapidement. La combinaison de modèles de langage, de logiciels de reconnaissance faciale et de synthèse vocale fera du contrôle de l'image une relique du passé, a averti le groupe américain Eurasia Group dans son récent rapport annuel sur les risques. Les analystes géopolitiques ont classé la désinformation par l'IA au troisième rang des risques mondiaux en 2023, juste derrière les menaces posées par la Chine et la Russie. La technologie des deepfakes vidéo et audio s'améliore de jour en jour. Combinée à un script convaincant généré par ChatGPT, ce n'est qu'une question de temps avant que les deepfakes ne passent pour des réalités.

Eurasia : Weapons of Mass Disruption

Comment contenir les abus ? Modération, régulation ? Education !

Faudrait-il réserver ces outils à une élite éclairée pour éviter les abus ? Doit-on légiférer pour imposer à tous les outils de ChatGPT à Midjourney5 un filigrane “Créé par l’IA" ?  Deux cent millions de personnes utilisent ChatGPT, moins de 1% d'entre eux comprennent son fonctionnement. Comme pour chaque rupture technologique, il est impossible d’appliquer une loi à l’échelle mondiale. La Chine était précurseure dans la réglementation des deepfakes, en Europe on essaie d’adapter l’AI Act à la disruption technologique de l’IA générative.

En attendant, chaque plateforme se lance dans sa propre gestion de ces problématiques. Entre-elles la Red Team, chez OpenAI et l’ARC, un organisme indépendant qui sont chargés d’évaluer les scénarios catastrophes qui impliqueraient le modèle GPT. Les entreprises technologiques qui lancent des outils d'IA s'efforcent de mettre en place des garde-fous pour éviter les abus, mais elles ne peuvent pas contrôler les versions Open Source. Au moins un puissant outil de langage d'IA, créé par Meta, la société mère de Facebook, a déjà fait l'objet d'une fuite en ligne et a été rapidement publié sur le forum de discussion anonyme 4chan.

Les limitations de contenu de Midjourney sont plus permissives que celles de certains services rivaux (tels que DALL-E d'OpenAI), mais plus sévères que d'autres (par exemple, Stable Diffusion). Midjourney met en œuvre une modération a priori et maintient une liste de termes proscrits (comme Xi Jinping) "en rapport avec des sujets dans divers pays, en se basant sur les réclamations d'utilisateurs de ces nations", d'après un message de David Holz datant d'octobre 2022. Néanmoins, il ne divulgue pas l'intégralité de cette liste pour éviter les "querelles". Comme Holz l'a mentionné : "Quasiment personne ne prend jamais connaissance de [la liste des prohibitions] à moins de chercher délibérément à provoquer un conflit, ce qui est contraire à nos règles stipulées dans les CGU [conditions générales d'utilisation]". Toutefois, cela n'empêche pas l'usage de synonymes ou de périphrases pour esquiver les filtres.

Les réseaux sociaux, qui ont déjà échoué dans la détection de l’ancienne génération de fake news avant l’arrivée de l’IA générative tentent également de jouer un rôle d’avertissement (en laissant le travail de vérification aux utilisateurs) :

En attendant, les démiurges de l’IA générative créent le virus tout en proposant l’antidote : OpenAI a mis en ligne un outil gratuit conçu pour aider les éducateurs et d'autres personnes à déterminer si un morceau de texte particulier a été écrit par un humain ou une machine. La littératie IA et l’éducation médias à une bonne dose de critique semblent plus qu’importants.

Conclusion

Dans un village artificiel infini où la barrière entre le langage naturel et le langage informatique vient d’être abolie, comment encore faire la différence entre vrai et faux ? Que répondre à ceux qui prétendent que peu importe si c’est faux, tant que l’histoire racontée est engageante, les concerne et répond à leurs idées et valeurs, bien fondées dans leur petite bulle de filtre des réseaux sociaux, où, depuis longtemps, on met au même niveau les faits et les opinions ? Textes, images, sons - à partir du moment où l’on touche la créativité, on se pose la question de la véracité (et, des fois, de la propriété intellectuelle). On peut craindre un monde débordant d'informations erronées et dépourvu de confiance. La désinformation engendrée par des textes, images et sons générés par l'IA pourra représenter un danger croissant pour nos sociétés.

Et le vrai risque bientôt de passer pour du faux ou alors disparaître au profit de réalités apocryphes. L'une des conséquences pourrait être que tout le monde devienne (encore) plus sceptique et méfiant à l'égard des informations - vous ne pourrez littéralement pas en croire vos yeux. Ces contenus trompeurs menacent la stabilité démocratique, exacerbent les divisions et abîment encore un peu plus la confiance dans les institutions. L'éducation aux médias et la sensibilisation critique sont des éléments clés pour renforcer la résilience de la population face à ces menaces. En développant l'esprit critique, en apprenant à vérifier les sources et en comprenant le fonctionnement des technologies de l'IA, nous pourrons nous prémunir contre les dangers de la désinformation et construire une société plus informée et résiliente.

Il s’agit tout simplement de garder ses réflexes car le système peut diverger à n’importe quel moment.  Nous n'en sommes qu'au début de la première évolution de l’IA générative, et il faudra une politique réfléchie, de la modération et de l'innovation pour éviter que la désinformation générée par l'IA ne fasse des ravages. L’IA est aujourd’hui capable de prendre en compte le contexte, faisons de même pour garder notre esprit critique. Face à l'Intelligence Artificielle de plus en plus sophistiquée il faudra définitivement une bonne dose de bon sens humain.

 

Illustration de l'article : Un résultat de génération d’image par l’outil Midjourney, mars 2022 versus mars 2023, © Parker Molloy/Midjourney