IA générative : refermer la boîte de Pandore ou saisir les opportunités pour un journalisme de qualité ?

Dans la mythologie grecque, Pandore, première femme humaine, a été dotée de tous les plus beaux attributs par plusieurs dieux qui lui conféraient l’esthétique, le charme et la voix. Connue pour avoir ouvert la fameuse boîte avec laquelle elle était arrivée sur terre et qui contenait tous les maux de l’Humanité, l’on oublie parfois que lorsque la boîte maléfique a été refermée, c’est aussi l'espérance qui y est restée coincée. Face à l’explosion des outils de génération de contenu par l'IA et les craintes émergentes de ceux qui les ont créés, l'humanité semble se retrouver devant un dilemme semblable : refermer la boîte des possibles de l'IA générative ou l'adopter malgré ses biais ? Comment se positionner en tant que média pour amorcer ce tournant et endosser un rôle responsable face aux IA ?

Par Myriam Hammad, MediaLab de l'Information

L’irruption du faux dans la réalité : des outils de plus en plus perfectionnés

Depuis quelques jours, les exemples de deepfakes à l’instar du pape en doudoune Balenciaga, de l'arrestation de Donald Trump  ou bien encore d’ Emmanuel Macron poursuivi par des CRS en plein Paris, connaissent un succès viral sur les réseaux sociaux. Elles sont le résultat de photos de plus en plus réalistes générées par la version 5 de Midjourney. Le 30 mars dernier, le laboratoire de recherche a d’ailleurs annoncé avoir mis fin à la génération gratuite d’images par IA en raison d’”abus extraordinaires. Auparavant, chacun pouvait générer près de 25 images/photos avant de payer un montant équivalent à 10 dollars/mois. Un modèle également partagé par Dall-E d’OpenAI.

Chaque jour, les IA génératives s’améliorent. On retrouve désormais même des guides pour pouvoir perfectionner ses prompts, et donc ses créations, peu importe le domaine concerné. Depuis le 1er mars 2023, l’API de ChatGPT est ouverte. Toutes les heures, on voit apparaître de nouveaux plugins, extensions et fonctionnalités. Newsletters et comptes Twitter spécialisés relaient en quasi temps réel ces développements.

Quand Midjourney 4 permettait encore facilement de détecter des deepfake, Midjourney 5 a corrigé presque toutes les erreurs...

Quand Midjourney 4 permettait encore facilement de détecter des deepfake, Midjourney 5 a corrigé presque toutes les erreurs...

Lorsqu’on y regarde de plus près, on observe que tous les secteurs professionnels sont concernés : assistance administrative, création de vidéos à partir de textes, création de morceaux de musique, design de sites internet, IA pour générer des formules Excel et Google Sheet, ou bien encore écriture d’articles dans des styles “académiques”.

“Deus ex Machina” : des titans de la Tech qui partagent leurs inquiétudes

Dans une lettre ouverte publiée le 29 mars 2023, signée à date par près de 1800 experts de l’intelligence artificielle, ces derniers appellent à une pause de six mois avant de poursuivre de futurs développements concernant les larges modèles de langage sur lesquels est basé, entre-autres, GPT-4, pour en examiner les possibilités et les risques et en tirer les conclusions nécessaires pour protéger la société d’impacts dangereux. L’on retrouve parmi les signataires Elon Musk, Emad Mostaque fondateur de Stability AI, Steve Wozniak co-fondateur d’Apple, ou bien encore des universitaires à l’instar de Gary Marcus. 

L’annonce n’a pas laissé indifférents les nombreux commentateurs : si certains y voient des intérêts stratégiques pour des acteurs qui n’auraient pas encore eu le temps de développer des technologies similaires - et donc l’occasion de pouvoir se “mettre à niveau” -, d’autres pensent la démarche réellement sincère et appellent à une véritable réflexion concertée sur l’éthique à adopter au regard du potentiel disruptif de l’intelligence artificielle. L’absence de Samuel Altman co-fondateur d’OpenAI parmi les signataires est également remarquée : l’entreprise appelait pourtant en février 2023 dans un communiqué à la nécessité d’avis indépendants pour penser l'éthique du développement de l’intelligence artificielle et de la super intelligence artificielle (AGI).

L’UNESCO a aussi appelé l’ensemble des pays à adopter le plus rapidement possible ses recommandations sur l’intelligence artificielle. En France, le gouvernement avait annoncé au début du mois de mars sa stratégie nationale pour l’IA. Plusieurs programmes de recherche sont en cours sur les manières d’utiliser l’IA, dont le programme national de recherche en intelligence artificielle avec l'INRIA. La Commission européenne met également à disposition son guide éthique pour une IA de confiance à destination des organisations et des entreprises pour appréhender l’utilisation de l’intelligence artificielle sur le portail ALTAI, et le parcours d'adoption d'une législation européenne, le European AI Act, avait été lancé avant l'arrivée de ChatGPT.

Mais comme il était souligné à l'occasion d’une conférence tenue par Digimind le 29 mars dernier à la Banque Publique d’Investissement (BPI) nous sommes face à un tournant : celui des entreprises qui vont embrayer sur le virage de l'IA et celles qui ne le feront pas. Bien sûr, ces nouveaux outils doivent faire l’objet de formations et d’accompagnements. Un besoin très présent auquel les médias sont confrontés ces derniers jours.

L’opportunité de signer un journalisme de qualité ?

De par le potentiel exponentiel ouvert par ces IA à la désinformation, le positionnement des médias apparaît comme un rempart premier, un repère pour les citoyens à l’ère où l’on ne peut véritablement plus savoir de ce qui est de l’ordre de l’Humain ou de la machine. 

Les rédactions endossent alors un double rôle : celui de montrer la voie sur les bonnes pratiques et les usages de ces nouveaux outils, et celui d’être un “phare dans la nuit” - notamment en décryptant les images et les textes issus des réseaux sociaux et en poursuivant un travail de qualité en continuant de démontrer et de décortiquer les sources utilisées. Récemment, Wired et le New York Times ont partagé leurs politiques utilisations de l’IA en se fixant certains principes et en expliquant les justifications : 

  • Ne pas publier de papiers rédigés à l’aide de l’IA (sauf si l'analyse de l’IA est l’objectif de l’article) - auquel cas, la partie textuelle concernée sera signifiée ;
  • Ne pas utiliser d’illustrations générées à partir de l’IA - le modèle de nombreux photographes et illustrateurs continue d’être celui de la revente de leurs oeuvres à des bibliothèques d’archives dédiées ;
  • Utiliser l’IA pour approfondir les recherches sur un sujet donné - notamment à travers les extensions qui peuvent être ajoutées sur les moteurs de recherche ;
  • Brainstormer avec les IA pour trouver de l’inspiration dans la rédaction de posts sur les réseaux sociaux ou bien encore pour d’éventuelles histoires à raconter ;

Mais surtout : être transparent dans leurs utilisations pour donner confiance, inspirer et sensibiliser l’ensemble des créateurs de contenus à faire de même.