IA générative : évolution, révolution… ou dégénération ?

Un spectre hante le monde – il s’appelle ChatGPT. Ce bot polyglotte, surgi en novembre 2022, et sa technologie, sont les meneurs d'une disruption aussi importante que l'apparition de la machine à vapeur, des ordinateurs personnels et des smartphones. L’Intelligence Artificielle (IA) générative, puisqu’il s’agit d'elle, a de loin pris le pas sur le métavers dans l’échelle des buzzwords en 2023. Et à raison : alors que le métavers ne fut que fabulation marketée d'un Mark Zuckerberg en quête de croissance, l’IA générative a le potentiel de transformer toutes les industries et la société dans son ensemble, dès aujourd’hui.

Par Kati Bremme, directrice de l’Innovation France Télévisions et rédactrice en chef Méta-Media

La collaboration des médias avec l’IA ne date pas d’hier. On se souvient de notre Cahier de Tendances 2019, où l’on faisait l’état des lieux des cas d’usage dans toute la chaîne de valeur des médias. Nous sommes depuis longtemps en extension avec la machine, encore plus depuis l’apparition des smartphones connectés à toute la connaissance du monde 24/7, devenus prolongement (et parfois remplacement) naturel de nos cerveaux. C’est justement à toute cette connaissance du monde que s’est connectée l’IA générative, et elle semble savoir s’en servir mieux que nous, en tout cas dans certains domaines. Pour nous faciliter une tâche, transformer un métier, changer une organisation, le monde, ou pour nous anéantir ? 

Sa capacité d’imitation est en tout cas époustouflante autant qu’inquiétante : quand, avant, nous étions obligés de nous transformer en robots pour que Siri et consorts nous comprennent, aujourd'hui nous avons l’impression de converser naturellement avec un assistant intelligent et hyperefficace. Les cabinets de conseil ont du souci à se faire. ChatGPT a été entraîné avec l’encyclopédie de la Harvard Business Review et peut réaliser des analyses SWOT, PESTEL et autres RICE, tout en fournissant une proposition de prompt pour fabriquer l’identité d'une marque dans Midjourney et viraliser le tout sur les réseaux sociaux. 

Il suffisait de faire attention 

Depuis Eliza, le chatbot-psychiatre du MIT en 1966, le progrès de l’IA en compréhension du langage naturel a été constant, mais pas fulgurant. Tout s’est accéléré avec l’apparition du papier « Attention is all you need » en 2017, par les (ironie de l’histoire de la concurrence) chercheurs de Google. Cette nouvelle méthode de traitement de données est parfaitement adaptée à la grande masse d’informations avec lesquelles nous avions rempli internet ces vingt dernières années, et a rendu obsolètes les précédents modèles pour de nombreuses tâches liées au langage naturel. En découlent alors le célèbre GPT (Generative Pretrained Transformer) par OpenAI de (par extension) Microsoft, et BERT (Bidirectional Encoder Representations from Transformers) de Google. Couplés avec l’expansion des capacités de calcul des machines, la possibilité d’une intelligence supérieure se précise. Mais, l'explosion des données disponibles entraîne aussi une croissance des biais, des illusions non confirmables et des faux. Pour les images, ce sont les modèles de diffusion, qui créent de nouvelles données en partant d’un bruit aléatoire (voir notre article sur l’histoire de l’IA) et qui construisent une réalité artificielle plus vraie que nature. 


Fausse image du pape fabriquée sur Midjourney

Jusqu'à présent, nous étions rassurés en pensant que l'IA n'était qu'un ensemble de techniques informatiques conçues pour permettre aux machines d'imiter (de manière imparfaite) une forme d'intelligence spécifique aux humains. Mais, nourrie du palimpseste de nos connaissances, contestations et incohérences (cf. la Terre est plate), l’IA nous dépasse dans de plus en plus de domaines : ChatGPT a un QI du langage de 155, il est donc plus intelligent pour traiter le langage naturel que 99 % des Français. Les hyperpolyglottes, des personnes très douées pour les langues, peuvent naviguer entre une dizaine de langues ; aujourd'hui, les IA sont capables de traduire plus d'une centaine de langues en temps réel.

Analyser, résumer, corriger, rédiger, générer des images abstraites ou réalistes, animer des images, produire des voix hyperréalistes, fabriquer des sons, des vidéos, et même des objets 3D à partir d’images 2D, automatiser des tâches cognitives, personnaliser, résoudre des problèmes complexes – l’IA est aussi, voire plus, compétente que nous.

Par ailleurs, il est intéressant de noter que nous utilisons instinctivement le pronom masculin « il » pour nous référer à ChatGPT, alors que nous avions plutôt tendance à attribuer un genre féminin aux assistant(e)s un peu moins sophistiqué(e)s, tel(le)s que Siri et Alexa.

La 5ᵉ révolution industrielle ? 

Les techno-béats exultent, et confondent aisément innovation (qui peut parfois se traduire par un retour en arrière pour la société) et progrès. À la différence de l’IA prédictive, bien installée dans les process de toutes les industries, l’IA générative est toute récente. Et contrairement aux modèles précédents, qui étaient publiés dans le cadre académique avec un processus de validation par des pairs et certaines règles éthiques, les modèles d’IA générative sortent tout droit des laboratoires des Big Tech. Chaque jour, des centaines de nouveaux outils basés sur l’IA arrivent sur le marché, sans aucun contrôle, mais avec un impact potentiel sur nos métiers, et parfois nos vies. Un peu comme si l’on sortait des médicaments sans approbation. Justement, la FDA vient d’approuver les tests de Neuralink d’Elon Musk aux USA, les robots intelligents pourront donc bientôt guider nos décisions directement depuis une puce implantée dans nos cerveaux. 

Dans un débat de société qui oppose technophobes et technophiles, les fabricants d’IA générative jouent le rôle de pompiers pyromanes (l’intelligence artificielle présente « un risque d’extinction » de l’humanité au même titre que  « les pandémies ou bien une guerre nucléaire ») : plus on fait peur, plus les gens vont utiliser ces ouvrages maléfiques. 


Article du NYT sur le départ de Geoffrey Hinton de Google

L’IA générative (sous-domaine de l’apprentissage profond et des réseaux de neurones, lui-même domaine du machine learning) n’est que la partie émergée de l’iceberg de l’IA. Grâce à ChatGPT et sa fulgurante et inédite vitesse d’adoption (100 millions d’utilisateurs en deux mois) tout le monde est désormais conscient des avancées technologiques de l’intelligence des machines. Les machines apprennent mieux que les humains, et à force d'appauvrir nos cerveaux et nos langues, elles n’auront, en effet, aucun mal à nous remplacer, y compris désormais les cols blancs. 

L’IA est éminemment l’un des plus gros enjeux économiques – et probablement sociétal – de notre époque. Quand, pour les médias de service public, il s’agira de trouver un juste équilibre entre immédiateté, coût et qualité, pour les entreprises privés, l’automatisation est un enjeu de taille qui mérite investissement. Déjà en 2006, Netflix avait offert 1 million de dollars à celui qui améliorerait son algorithme de recommandation. La révolution de l'IA générative a le potentiel de remodeler considérablement le marché, y compris les modèles économiques des géants de la Tech : Microsoft (évidemment), Meta, Amazon et Netflix. Concernant Google, lorsque l’on pose la question à ChatGPT, l’avenir ne paraît pas rose : « Si l'IA devient capable de générer des contenus de qualité, cela pourrait menacer l'industrie de la publicité sur laquelle Google s'appuie largement ». Sentirait-on un léger soupçon de menace ? 

Mais arrêtons donc d’humaniser les IA !

Une question émotionnelle, culturelle et étymologique 

C’est peut-être un biais bien français : dans la langue de Molière, l’intelligence a une connotation humaine qui nous vient de la philosophie et de la littérature. L’interprétation romantique d’une machine sensible et intelligente qui nous remplace n’est donc pas loin : l’intelligence révoltée de Camus, l’intelligence comme « conscience lancée à travers la matière » de Bergson, l’intelligence synonyme d’esprit (chez Flaubert et Artaud) inclut des aspects de la compréhension qui vont bien au-delà des capacités purement cognitives.

Dans la langue de Shakespeare, l’intelligence a bien sûr la même signification de « comprendre », mais le mot « intelligence » en anglais peut aussi avoir une connotation plus technique, liée au domaine de l'information et de l'espionnage, où il fait référence à la collecte et à l'analyse d'informations (qui rejoint l’étymologie latine « recueillir des informations parmi différentes sources pour comprendre quelque chose »). 

Le chinois est plus transparent sur la véritable nature de la chose : ici, l’intelligence artificielle se dit 人工智能 (réngōng zhìnéng). Les deux derniers caractères (zhìnéng) signifient « intelligence » et les deux premiers (réngōng) signifient « artificielle » mais, au sens littéral, il faut comprendre par là, le « travail » (gōng) effectué par un être humain (rén)

Nous voilà face au Turc Mécanique de 1789 (et d’Amazon aujourd’hui), incarnation du lumpenproletariat de l’IA décrit dans l’article d’Antonio Casilli, qui alimente les Intelligences Artificielles et qui les aide à comprendre le monde, puisqu’elles n’en ont pas la moindre idée. 

Le Turc mécanique, une grande attraction à la fin du XVIII siècle : un prétendu automate qui battait les meilleurs joueurs d'échecs. Gravure sur cuivre de Joseph von Racknitz (1789)

Bienvenue en post-vérité 

Non seulement, il ne comprend pas le monde, mais en plus, ChatGPT se fiche éperdument du vrai ou du faux, il cherche le vraisemblable (c’est ce pour quoi il a été programmé). Et quand il ne le trouve pas, il l’invente. Ou comme le dirait Gary Marcus, spécialiste de l’Intelligence artificielle neurosymbolique : « Il n'y a aucune intention de créer de la désinformation – mais également aucune capacité à l'éviter, parce que fondamentalement, GPT est un modèle de la façon dont les mots se rapportent les uns aux autres, et non un modèle de la façon dont le langage pourrait se rapporter au monde perçu ».

Le postulat « voir est croire » ne fonctionne plus depuis longtemps. On n’a bien sûr pas attendu le numérique pour manipuler les images (et, par extension, la réalité / l’Histoire) : on se souvient de la manière dont Staline faisait disparaître un collaborateur après l’autre sur les illustrations de son pouvoir. 

Avec l’IA générative, nous arrivons au-delà de la vérité, de l’autre côté du miroir, ou tout simplement, dans le mensonge.

Source : Instagram julien_ai_art

Face au déluge de contenus plus vrais que nature fabriqués par des armées d’IA, notre rapport à la réalité s’en trouvera forcément perturbé. À tel point que les jeunes générations s’en fichent, autant que ChatGPT, si quelque chose est vrai ou pas (on se souvient d’une interview de Keanu Reeves avec une jeune fille, qui, au sujet des interrogations d’un des personnages de Matrix lui pose la question : « Who cares about reality ? »). 

Pour pallier l’abondance de faux, des outils de détection de contenus artificiellement générés inondent le marché : AI or Not, GPT True or False, Hive Moderation ou encore Google, About this Image. OpenAI nous propose le remède à la maladie qu’il a créée, et l’initiative Jpeg Trust veut nous faire retrouver la confiance dans ce que l’on voit. Force est de constater que leur taux de réussite est loin des 100 %, et certains détectent même de faux positifs. 

Les réseaux sociaux, où les opinions prévalent depuis longtemps sur les faits, et où nous sommes mis sous tutelle algorithmique, restent les amplificateurs de ces nouvelles réalité  : « Il y a en effet plus d'art nécessaire pour convaincre le peuple d'une vérité salutaire que d'un mensonge salutaire », remarqua déjà Jonathan Swift dans De l'Art du Mensonge Politique. Images hors contexte, catastrophes naturelles inventées de toutes pièces (comme s’il n’y en avait pas déjà assez), deepfakes d’hommes et femmes politiques – nous entrons dans un règne de croyance parce que l’on ne peut plus rien vérifier. 

On l’a dit, ChatGPT est fabulateur. Dernier exemple, cet avocat new-yorkais qui a utilisé de fausses références de cas inventées par ChatGPT. Voilà ce qui arrive quand on prend ChatGPT pour un moteur de recherche. Comme nous le rappelle Chine Labbé, rédactrice en chef de NewsGuard, ChatGPT est polyglotte, mais ne désinforme pas de la même façon selon la langue qu’il utilise. Il n’est d’ailleurs pas non plus cohérent : d’une fois à l’autre, il ne donne pas la même réponse. Comme chatbot prévisible, il est donc peu adapté, l’IA prédictive serait meilleure, au moins, elle n’invente rien. 

Quand 90 % des contenus disponibles sur Internet seront fabriqués par l’IA d’ici 2026 (selon une estimation de l'Université de Leyde), tout ne sera plus qu'ambiguïtés approximatives.

Jean Baudrillard, sous la forme du « simulacre » décrit (par anticipation) déjà notre future vie avec ChatGPT dans Le Crime parfait : « C’est celui d’une réalisation inconditionnelle du monde par l’actualisation de toutes les données, par transformation de tous nos actes, de tous les événements en informatique pure : la solution finale, la résolution anticipée du monde par clonage de la réalité et l’extermination du réel par son double ». De plus en plus de présentateurs virtuels (là encore dans un souci d’économie) peuplent les antennes (plus répandus dans les dictatures, mais même la Suisse vient de s’en doter). Ces « répliquants », indiscernables des êtres humains, vont-ils remplacer les journalistes ? 

Fait inquiétant : les gens ont plus confiance dans les fakes. Un article du Journal of the American Medical Association (JAMA) a répondu à la question suivante : un assistant chatbot à intelligence artificielle peut-il fournir des réponses aux questions des patients qui soient d'une qualité et d'une empathie comparables à celles rédigées par les médecins ? La réponse a été claire : oh, oui.

Réponses de l’étude publiée dans le JAMA

L’IA générale ? De ChatGPT à ChaosGPT, en passant par Auto-GPT… 

Au fur et à mesure que notre pensée critique s'atrophie, les capacités intellectuelles de l'IA se rapprochent des nôtres. Notre singularité est remise en question par une IA de plus en plus érudite. Finalement, le transhumanisme, prôné par la poignée d’Américains qui dirigent le monde à travers nos données, n’est peut-être pas une si mauvaise idée pour tenir tête à l’IA, bientôt générale (IAG).   

D’autant plus que ces régimes en surpuissance de data commencent à montrer des comportements émergents, des interactions imprévues et non programmées qui dépassent de loin l’idée initiale. L’IA a même réussi à comprendre de quel film il s’agissait, à partir d’une série d’émojis : 

(*Le Monde de Nemo.)

La direction ultime vers laquelle semblent se diriger ces modèles est un état de « texte vers tout », où les requêtes textuelles peuvent générer n'importe quel format de sortie concevable. Yann LeCun, directeur IA de Meta et l’un des pères fondateurs des réseaux neuronaux profonds, ne cesse de remettre à la place les messies de la fin du monde, où une IA Terminator prendrait le pouvoir. Pour lui, les LLM ne sont pas la solution, leur intelligence serait encore « trop fragile ». Meta vient donc d’annoncer JEPA (pour Joint Embedding Predictive Architecture), « qui vise à surmonter les principales limites des systèmes d'IA actuels, même les plus avancés », et qui serait « un pas de plus vers l'intelligence humaine dans l'IA ». 

Après ChatGPT, est arrivé Auto-GPT (beaucoup moins accessible car il nécessite une installation Git et Python au préalable). Quand ChatGPT nous parle comme un humain (qui a parfois tendance à s’excuser trop), Auto-GPT peut apprendre et lancer des tâches de façon autonome, comme créer une application, créer une nouvelle start-up, aborder des sujets complexes tels que l’avenir des soins de santé et de la médecine, et même nous traquer sur Internet… ne manquait plus que ChaosGPT dans la liste. Lancé en avril, cet applicatif basé sur Auto-GPT s'est vu confier la mission de détruire l'humanité. Le développeur anonyme de ChaosGPT a expliqué qu'il avait simplement configuré ses paramètres pour qu'il se comporte comme une « IA destructrice, avide de pouvoir et manipulatrice ». Il a ensuite laissé le modèle d'IA faire le reste. Sa tentative a heureusement échoué, faute de soutiens physiques dans le monde analogique. 

Pour l’instant, ChatGPT et les IA génératives sont l’illustration même de l’expérience de pensée de la Chambre chinoise, proposée par le philosophe John Searle en 1980 dans son travail Minds, Brains and Programs : « Supposons que vous soyez enfermé dans une pièce avec des boîtes pleines de symboles chinois (un langage que vous ne comprenez pas du tout) et un livre d'instructions écrit en anglais qui vous indique comment manipuler ces symboles. Des gens à l'extérieur de la chambre vous envoient d'autres symboles chinois que vous comparez à ceux que vous avez à l'intérieur de la chambre. En suivant les instructions, vous renvoyez un ensemble de symboles chinois à l'extérieur de la chambre. Aux yeux des personnes à l'extérieur, il semblerait que vous compreniez le chinois parce que vous êtes capable de répondre correctement à leurs questions (puisque vous suivez les instructions du livre). Mais en réalité, vous ne comprenez pas un mot de ce que vous manipulez ; vous suivez simplement les instructions sans comprendre la signification des symboles ».

Towards Data Science 

Des trillions de pages de contenu ingurgitées sur Internet, Chat-GPT 3.5 ne pouvait en retenir que 4 pages dans une conversation. Pour GPT-4, ce sont 50. Malgré tout le discours sur l'AGI, les systèmes actuels ont du mal à apprendre ne serait-ce qu'une catégorie comme « chemise » d'une manière qui permette une généralisation robuste. Pour une IA, qui n’a pas de compréhension de notre monde, qui doit reconnaître une image, tout n’est que pixel : un reflet d’une chose dans un miroir compte autant que la chose. 

Une bonne nouvelle cependant : il paraît que les robots apprennent tout seuls à effectuer des tâches ménagères en regardant YouTube (ils sont donc déjà plus intelligents que les hommes avec un petit « h »). 

L’IA va-t-elle remplacer les journalistes ? 

Imaginez l’assistant idéal du journaliste capable de : extraire des données en un clic, suivre l'actualité 24/7, vérifier des faits en temps réel, traduire en autant de langues que l’on souhaite, transcrire l’audio, générer automatiquement des brouillons…

Au cours des dernières années, l'IA s'est progressivement imposée dans divers aspects de la production de l’information, de l'exploration de données et de la génération automatisée de contenu jusqu’à la distribution. L’IA est une aide à l’écriture factuelle depuis longtemps. IBM a lancé sa première démonstration de résumé automatique de news en 1958 et le Washington Post utilise depuis 2016 son robot reporter Heliograf pour des mots croisés, des horoscopes (eh oui !) ou encore des quiz. Depuis, l’IA aide à créer des fiches de résultats des élections, à générer du contenu local personnalisé, à faire de l’A/B testing et à optimiser des paywalls, entre autres. 

Pour les journalistes, plusieurs problèmes se posent avec les IA génératives : la question des sources (on ne les connaît pas, et ChatGPT n’a pas envie de les révéler – ou ne peut pas). La question du résultat : ChatGPT, dit-il vrai ? (Pas toujours). Mais il est séduisant comme compagnon. Et la question de la distribution (on y reviendra). 

Le patron de BuzzFeed, Jonah Peretti, avait été l’un des premiers à exprimer son enthousiasme à propos de ChatGPT. Dans l'espoir de redresser le cours de son titre en bourse (entre-temps, BuzzFeed News a annoncé sa fermeture), il avait annoncé dès janvier qu'il confierait la rédaction de certains articles, tels que ceux sur les voyages, à son « assistant créatif » IA appelé « Buzzy ». Quelques semaines plus tard, le groupe de médias allemand Axel Springer, éditeur des journaux Bild et Die Welt, a commencé à utiliser l'IA pour supprimer des postes. Depuis, on observe chaque semaine de plus en plus de médias opter pour l'automatisation en remplaçant une partie de leur équipe rédactionnelle par des robots.

Capture d’écran ChatGPT-4 qui prône ses capacités en termes de créativité et de raisonnement.

Henry Kissinger, dans son livre co-écrit avec Eric Schmidt, parle non pas de remplacement mais d’une nouvelle relation entre le journaliste et son assistant artificiel qui lui organisera sa journée, l’aidera à trouver des informations, et le rendra plus efficace : « Le problème, c'est que vous êtes devenu très dépendant de ce système d'IA… Qui contrôle ce que fait le système d'IA ? Qu'en est-il de ses préjugés ? Qui est-ce qui régule ce qui se passe ? ».

Quid de la transparence, quand une IA dont on ne sait pas avec quoi elle a été nourrie nous aide à l’édition, ou encore pire, à la rédaction ? La plupart des rédactions se limitent aujourd’hui à un usage en « backoffice », à l'instar du Guardian, où l’IA générative est essentiellement perçue aujourd’hui comme un outil pour jouer sur les formats. « Au sein des médias, la façon dont ces articles seront signés représente un point déontologique central », commente Francesco Marconi, professeur de journalisme à l’Université Columbia New York. 

Les médias s’organisent pour comprendre comment survivre face à cette nouvelle donne (Geste, Médias Francophones Publiques, UER...) : avec des chartes (FT, BBC, AP…), des formations, en unissant les forces de réflexion mais aussi de développement (Data Space pour les Médias), en toute transparence. Verrons-nous bientôt apparaître des PressGPT ?  Face à un public de plus en plus méfiant, les supervisions humaine et hiérarchique sont indispensables. 

Et les questions de la définition de « contenu original » et du « traitement journalistique » se posent : comment définir aujourd’hui un « éditeur de presse » ? 

Il faut garder en tête la limite de ces outils, surtout quand, comme dans le cas de ChatGPT, ils donnent des informations de façon très claire et en étant sûrs d’eux. Et c’est nous-mêmes qui pouvons les induire en erreur, ChatGPT, très poli, reprend très facilement de faux éléments de nos questions. Il faut toujours une action humaine : homme (instruction) – machine (exécution) – homme (vérification / validation).   

Menaces sur la créativité : tous artistes synthétiques ? 

Les modèles de conversion du texte en image progressent à un rythme effréné et alimenteront bientôt d'incroyables innovations dans les domaines du cinéma, de la télévision et de la vidéo.

Le générique de la nouvelle série télévisée de Marvel, Secret Invasion, a été créé à partir d'une intelligence artificielle générative suscitant la consternation de l’industrie cinématographique. Ali Selim, producteur exécutif de Secret Invasion, a expliqué que l'idée était de créer quelque chose qui reflète le thème de la série, à savoir les extraterrestres qui se cachent parmi nous. Les préoccupations des créatifs face à l’IA générative, qui envahit de plus en plus leur terrain de jeu, vont des droits des artistes sur leurs styles et la façon dont leur travail est utilisé, aux demandes de Writers Guild of America, qui s’était mise en grève face à la menace artificielle. 

Des IA génératrices d'images sont utilisées pour gagner des concours de peinture (Théâtre D'opéra Spatial de Jason M. Allen + IA) et de photographie (The Electrician Pseudomnesia de Boris Eldagsen + IA). Kaitlyn « Amouranth » Siragusa – une streameuse qui utilise l'IA pour construire une version d'elle-même sous forme de chatbot – considère l'IA comme un outil « qui peut prospérer dans la zone tampon de la vallée de l'étrange, entre la vie réelle et l'artifice ». Aujourd’hui déjà, grâce à l’IA, Harrison Ford a 30 ans, et Tom Hanks pourra tourner des films après sa mort. Demain, on pourra s’imaginer un cinéma hyper-personnalisé, où l’on choisirait ses acteurs préférés pour jouer dans un film (par exemple une comédie des années 1980 avec Audrey Hepburn et Timothée Chalamet). 

Dans un autre genre, l’auteur de science-fiction Tim Boucher a gagné une notoriété sur Internet avec un projet artistique expérimental basé sur l'IA : un ensemble de 100 romans de gare de science-fiction mettant en vedette des créations artistiques générées par Midjourney et une combinaison de textes générés par ChatGPT, avec l’aide de quelques humains, en seulement 9 mois. 

Ce record de rédaction a déclenché l’ire de la guilde des auteurs (et des lecteurs) qui appelaient à brûler ces livres (se pose alors la question : comment brûler un livre électronique ?). 

Couverture du livre « The Plastic Prison », un des 100 livres générés par ChatGPT, Mid- journey et l’auteur Tim Boucher

Après avoir aspiré l'air du métavers, l'IA va refaire la XR, selon Charlie Fink, expert de l’immersif pour Forbes. Le fondateur de Magic Leap, Rony Abovitz, a déclaré de son côté que « l'IA est ce que le XR attendait ». Dans un futur proche, nous pourrions entraîner un jumeau numérique doté d'IA à parler et se comporter comme nous. Ayant la même voix et connaissant notre histoire, ce double pourrait (brièvement) tromper ceux qui nous connaissent dans la réalité. Survivant après nous, cette IA, qui marche, parle et pense comme nous, pourrait devenir un héritage, partageant nos valeurs et notre vision du monde avec les générations futures. 

Ce qui est sûr : l'IA générative démocratise l'accès à la création visuelle. En utilisant uniquement du texte, tout le monde peut désormais créer tout ce qu’il peut imaginer, et l’IA est de plus en plus intégrée dans les outils métier (comme Adobe Firefly) pour faciliter le processus d’idéation et de création. 

L’IA générative a le potentiel d’augmenter considérablement la créativité, mais elle soulève également des questions importantes sur la nature de la créativité et de l'originalité. Elle peut brouiller la ligne entre la créativité humaine et le contenu généré par la machine, remettant en question les notions traditionnelles de l'auteur et de la propriété intellectuelle. 

Disruptions économiques généralisées 

Lorsque l’on demande à ChatGPT de révéler ses sources, il rétorque : « En tant qu'IA, je ne peux pas révéler les sources sur lesquelles j’ai été entraîné, pour des raisons de propriété intellectuelle ». Et non seulement il ne révèle pas les sources sur lesquelles il a été entraîné, mais il va aussi restituer des réponses dans une interface conversationnelle qui supprime la nécessité de cliquer et d’aller sur un site internet du média pour y accéder. Google ne prend déjà pas en compte ce que vous voulez chercher mais plutôt ce qui vous fera plaisir de trouver, avec ChatGPT, Bing, Bloom et consorts ce sera encore pire, en attendant la publicité qui va forcément arriver dans ce flux.  

Shutterstock, la plateforme populaire de photographies, séquences vidéo et pistes musicales, a fait les frais de l’appétit vorace de l’IA générative après avoir longtemps collaboré avec OpenAI. En 2021, OpenAI a utilisé les images et les métadonnées vendues par Shutterstock pour entraîner et créer DALL-E. Ce programme est maintenant utilisé par des milliers de personnes pour générer des images qui entrent en concurrence directe avec le travail des contributeurs de Shutterstock. Les éditeurs qui ont collaboré avec Google News ont exprimé leur colère, tout comme les artistes qui ont vendu des images à Adobe Stock, furieux que leurs œuvres aient été utilisées pour développer Firefly, un produit Adobe. Autre problème : la démultiplication de sites remplis de contenus fabriqués par l’IA perturbe aussi le marché publicitaire, attirant des annonceurs sur ces sites souvent vides de sens. 

Les médias sortent juste de la bataille des droits voisins, ils replongent dans ce qui pourrait « représenter l’étape ultime de la captation de valeur par les plateformes » selon Pierre Petillault, directeur général de l’Alliance de la presse d’information générale. Face à ces scénarios dystopiques, certains se préparent. La National Public Radio (NPR), le principal réseau de radiodiffusion de service public aux États-Unis, investit pour développer son propre modèle de langage. L'objectif est d'offrir aux utilisateurs de son site la possibilité de recevoir un résumé de quelques paragraphes basé uniquement sur ses propres contenus, en effectuant des recherches par mots-clés.

L’IA qui alimente l’IA, mise en abyme

« À quoi ressemblera l'Internet lorsqu'il sera peuplé en grande partie de matériel sans âme et dépourvu de tout objectif ou attrait réel ? » se demandait Damon Beres, rédacteur en chef de la section technologie de The Atlantic peu de temps après la sortie de ChatGPT. Le même The Atlantic pose d’ailleurs la question très juste : « Que se passera-t-il lorsque l'IA aura tout lu ? ».

Dans un monde du Text to Everything, notre capacité d’expression est importante, à moins que, dans une ultime mise en abyme, on n’abandonne aussi la rédaction des instructions à l’IA (cf. Auto-GPT), qui donnera ses instructions à l’IA pour faire le travail à notre place et nous laisser à nos loisirs oisifs qui ne demandent, de préférence, pas d’intelligence, puisqu’on l’aura abandonnée aux machines. 

Devra-t-on alors travailler pour les IA afin de satisfaire leur appétit de chenille en contenus en attendant qu’elles se transforment en papillons (et nous même devenant pauvres fourmis du web) ? Serons-nous réduits à mettre en ligne sur les réseaux sociaux les créations des IA, Twitter et Instagram limitant l’automatisation de la publication ? 



Les personnes payées pour former l'IA externalisent déjà leur travail... à l'IA. Une équipe de chercheurs de l'École polytechnique fédérale de Lausanne (EPFL) a engagé 44 personnes sur la plateforme de travail rémunéré, Amazon Mechanical Turk, pour résumer 16 extraits d'articles de recherche médicale. L’étude a révélé que 33 % à 46 % des participants utilisaient probablement des modèles d'intelligence artificielle tels que ChatGPT d'OpenAI pour résumer des articles de recherche médicale. Selon les chercheurs, ce taux pourrait augmenter à mesure que ces systèmes d'IA deviennent plus performants et plus accessibles. 

L'IA générative repose sur l'analyse de vastes données web pour créer des textes ou images sophistiqués. Leur intelligence (apparente) croît avec l'ampleur de leur entraînement. Or, des textes de qualité, elle les a déjà tous lus. ChatGPT parle aussi bien parce qu’il ne s’est pas nourri uniquement de commentaires sur TikTok. En effet, on préfère converser avec un agent intelligent qui « a lu » tous les textes de Virginia Woolf, plutôt que de se retrouver face à un Midjourney dont l’image de la femme est quelque peu déformée par le corps de données sur lesquelles il a été entraîné (cf. notre essai de roman photo du futur). 

Allons-nous bientôt vivre dans un Simulacron-3, un monde simulé entièrement créé par l'IA, où la majorité de la population ne réalise pas qu'ils vivent dans une simulation ? On semble de plus en plus être rattrapé par les romans de science-fiction des années 1960. Pas sûr que l'humanité trouvera très satisfaisante une vie assise passivement sur le canapé, pendant que l’art et la littérature lui soient fournis par des machines. 

Quand les programmes d'IA générative finiront par consommer du matériel créé par d'autres IA, cela pourrait avoir des conséquences désastreuses, jusqu’au collapsus. Tout ceci pourrait bien se terminer en gigantesque indigestion. 

Quelle IA européenne ? 

L’adoption fulgurante de ChatGPT en novembre 2022 a remis l’Europe devant la sempiternelle question de la souveraineté face aux géants de la tech américains, qui dominent le monde numérique. Certes, la France est fière de son supercalculateur Jean-Zay à Saclay, qui a servi à entraîner Bloom, et elle vient de remporter la mise avec son projet « Jules Verne », un superordinateur européen nouvelle génération, dit « Exascale », capable de réaliser plus de 1 milliard de milliards d’opérations par seconde. Hugging Face a été fondé par trois Français et l’on se félicite des 100 millions d’euros levés par Mistral.ai. 

Mais l’Europe, peut-elle faire le poids face aux start-ups bien financées et aux organismes de recherche adossés aux géants de la Tech, tels que OpenAI, Stability AI, Cohere, Al21 Labs, Anthropic, Midjourney, Microsoft, NVIDIA, Meta, Google, Amazon et Salesforce ? OpenAI, valorisé 29 milliards de dollars, c’est non seulement ChatGPT (text-to-text) et DALL-E (text-to-image), mais aussi Whisper (speech-to-text). Et c’est aussi Office 365 qui est installé dans plus d’un million d’entreprises, détenant 46 % du marché des suites bureautique, et étant utilisé par plus de 350 millions de personnes…

Face à cette concurrence, Hugging Face vient de se décider de s’associer avec Amazon. Asma Mhalla souligne les enjeux géopolitiques et l’importance du « versant proactif et offensif, à savoir une véritable stratégie techno-industrielle qui cesse pour de bon le saupoudrage des fonds publics alloués » ; et pour Françoise Soulié-Fogelman, l’Europe devra davantage se concentrer sur l’IA B2B, nécessitant des jeux de données moins impressionnants (et moins nocifs pour l’environnement) que le B2C. Des lois, des normes et des règles éthiques ne suffissent pas pour faire émerger une IA européenne souveraine. 

Heureusement, les géants de la Tech installent leurs laboratoires de recherche en Europe pour faire travailler les cerveaux européens au service des États-Unis. Ce qui reste à l’Europe : la régulation. Si l’on ne peut pas développer nos propres modèles, il s’agira au moins de protéger les citoyens des dérives de l’IA générative. L’Europe n’a d’ailleurs pas le monopole de la régulation des produits de l’IA : en Chine, la législation contre les deepfakes est entrée en vigueur en janvier 2023. Depuis les premiers deepfakes sur Reddit en 2017, on a fait du chemin.  

Se pose aujourd’hui de plus en plus la question de la responsabilité de ces IA génératives anthropomorphisées qui pillent nos contenus et qui peuvent avoir une influence néfaste sur certaines personnes (tout comme les réseaux sociaux). En Belgique, un premier suicide est à mettre sur le compte des conseils d’un robot conversationnel. 

À côté des questions de responsabilité, quid des questions de droit d’auteur, de propriété intellectuelle ? Ce n’est pas Stable Diffusion qui va y répondre. Voici ce qui est écrit sur le site au sujet des droits : « Le domaine des images générées par l'IA et des droits d'auteur est complexe et varie d'une juridiction à l'autre ». Merci pour cette information. Le commissaire européen Thierry Breton, soutenu par d'autres représentants de l'Union européenne, souhaite contraindre les entreprises derrière les IA à révéler les sources sur lesquelles elles se sont entraînées, c’est là un des volets cruciaux de l’AI Act. 

Du côté d’OpenAI, les questions de responsabilité ne sont pas prioritaires. Les fondateurs d’Anthropic sont des anciens d’OpenAI qui ont quitté l’entreprise en désaccord avec le virage pris lors de l’association avec Microsoft. Leurs anciens postes chez OpenAI :  Daniela Amodei, vice-présidente chargée de la sécurité et de la réglementation, Dario Amodei, vice-président Recherche, et Jack Clark, directeur Règlementation. Pour eux, un usage « responsable » de l’IA viserait à rendre l'AGI compréhensible et pilotable, ce qui signifie que les utilisateurs devraient pouvoir comprendre comment l'AGI prend des décisions et influencer ces décisions de manière prévisible.

Fractures d’intelligences, une société disruptée

68 % des Français qui utilisent les IA génératives en entreprise le cachent à leur supérieur hiérarchique, 45 % des 18-24 ans utilisent les IA génératives contre seulement 18 % des 35 ans et plus. Ce sondage IFOP/Talan souligne deux éléments fondamentaux : un manque d’accompagnement dans la prise en main et donc aussi la compréhension de ces nouveaux assistants hyper-puissants, et (comme d’habitude) une fracture numérique entre les générations dans leur adoption. 

On nous prédit depuis longtemps la fin du travail : depuis Aristote qui, dans Politique postule que les innovations technologiques, en particulier dans le domaine de l'automatisation, pourraient finalement rendre le travail humain obsolète et permettre aux philosophes de débattre toute la journée, à Paul Lafargue (gendre de Marx), qui prône le « droit à la paresse » suite à la réduction drastique du temps de travail par les progrès technologiques, en passant par Samuel Butler (Erewhon), William Morris (News from Nowhere) et Edward Bellamy (Looking Backward), sans oublier bien-sûr Marx & Engels. 

Imaginez que le travail qui vous prend un jour aujourd’hui, vous pourriez l’accomplir en dix minutes ! L’IA générique, serait-elle donc la traduction devenue machine d'Athéna, la déesse de l'intelligence de la mythologie grecque, qui, armée d'une lance, perce les fausses raisons de souffrir et nous délivrera du joug du travail ?  L’IA est-elle communiste ? 

Pour l’instant, elle est surtout ultra-utilitariste, et rapporte gros aux Big Tech des États-Unis. Et quand on imagine que l’avenir de l’humanité est entre les mains de quelques hommes blancs, plus ou moins autistes, qui préparent déjà leur vie dans l'espace extra-atmosphérique, l’on comprend mieux les visions catastrophistes de la fin de monde de certains. 


Couverture du JDD, fabriquée avec l'IA générative

Des trombones et des hommes, une parabole 

Les technologies de l'IA auront un impact plus important sur nos vies que nous ne pouvons l'imaginer. Les machines que nous construisons remettront en question notre conception de l'exceptionnalité humaine. L'IA possède déjà des compétences et des capacités qui étaient auparavant réservées aux humains.

Mais est-elle pour autant une menace existentielle ? Dans l’expérience du « Maximiseur de trombones » (Paperclip Maximizer) imaginée en 2003 par le philosophe Nick Bostrom où l’on demande à l’IA de fabriquer « autant de trombones que possible » l’IA, dépourvue de bon sens, prendrait l’instruction au pied de la lettre et pourrait détruire l’univers pour en faire des trombones, y compris les humains, sans égard pour les conséquences. Mais il suffit de ne pas lui donner des instructions aussi stupides à partir du moment où l’on comprend ses limites. 

Saurons-nous être d’intelligence avec l’intelligence artificielle ?

Non, SkyNet n’a pas déclaré la guerre aux espèces. Le réel est toujours plus complexe que la data. Mais qu’est-ce qui a changé par rapport à notre cahier 2019 ? Quand l’IA, à l’époque, était un outil, elle devient aujourd’hui assistant, voire collaborateur. À nous de ne pas la laisser devenir notre manager. 

Dans ce cahier, nous faisons le point sur les opportunités et les risques pour les médias de cette nouvelle étape dans l’histoire de l’IA, avec une (mini)cartographie des nouveaux cas d’usages pour les médias (avec 200 nouveaux outils par jour, impossible de suivre à moins d’externaliser la veille à l’IA), mais surtout l’intervention d’experts dans le domaine : sociologues, scientifiques, linguistes, spécialistes des médias…

Nous devons chérir nos capacités de penser, de conceptualiser, de réfléchir, de maîtriser les langues, de développer un esprit critique. La maîtrise de la pensée ne doit pas être laissée aux élites ! Les LLM sont autorégressifs parce que chaque mot qu'ils produisent leur est renvoyé pour les aider à prédire le mot suivant dans une séquence. Nous, humains, restons progressifs, et surtout imaginatifs.   

Bonne lecture de notre Cahier #22 à télécharger ici, et bel été ! 

 

Cette introduction a été rédigée par un humain, en compagnie de ChatGPT-4 pour quelques bavardages, notamment sur les modèles économiques