Les multiples visages de la désinformation à l’ère 2.0

Comment la désinformation opère-t-elle son industrialisation ? De quelle manière le réseau social Twitter est-il devenu une “arène inclusive pour la liberté d’expression”, sous l’ère Elon Musk ? Pourquoi certaines figures politiques constituent-elles les cibles privilégiées des diffuseurs de fake news ? Tour des tendances qui agitent le monde des fake news.

Par Alexandra Klinnik, Medialab de l’Information  

A l’heure où Twitter se retire du code européen contre la désinformation en ligne – un accord dédié entre autres à une meilleure coopération avec les fact-checkers et à la mise en place de sanctions de privation de publicité pour les sites diffusant des intox, une étude lancée par France Télévisions dans le cadre du projet “A European Prospective”, explore la mutation accélérée des fausses nouvelles, dans un paysage médiatique morcelé. Voici le cinquième article de notre série dédiée au rapport Trends and patterns on disinformation. 

1L’industrialisation de la désinformation

En 2016, les tactiques de désinformation pouvaient se résumer à de simples opérations individuelles, menées entre autres par des spammeurs macédoniens diffusant des fake news pro-Trump et des trolls russes. Aujourd’hui, la donne a changé. Une industrie mondiale d’entreprises de relations publiques d’un nouveau genre émerge. Des agences de marketing et de communication offrent de façon décomplexée et à grande échelle des services de diffusion de fake news. Ses clients ? Des politiciens, partis, gouvernements, heureux de profiter de ces entreprises à l’aura respectable en apparence, dont la promesse initiale est de modifier la réalité selon les souhaits de leurs clients. Pour soigner sa façade et attirer les clients, ces firmes emploient le jargon du secteur de la com’ afin de neutraliser la stigmatisation du véritable travail de désinformation qu’elles effectuent. Chez eux, on ne dit pas “troll rémunéré”, mais “travailleur de soutien numérique”. Il s’agit avant tout de s’éloigner de l’image de transactions louches, opérés clandestinement sur un marché noir.  

Par le biais de faux comptes, de récits tronqués, de pseudo-sites d’information, et à l’aide de l’intelligence artificielle et de l’automatisation, ces entreprises qui valent des millions de dollars proposent ainsi des campagnes sophistiquées à destination du grand public. Les équipes composées de hackers et d’hacktivistes créent des tendances sur Twitter, inondent le web d’informations contradictoires et de théories du complot, pratiquent le blanchiment narratif. Cette technique consiste à “faire passer un certain récit de ses origines étatiques à l’écosystème médiatique au sens largedéveloppe l’Observatoire de l’internet de Stanford. En d’autres termes, l’objectif est de promouvoir des informations provenant de mandataires ou de sources non vérifiées sur les réseaux sociaux pour qu’elles se répandent ensuite dans les médias grand publics. Il s’agit avant tout de brouiller la source de l’info pour imprégner davantage les cerveaux.  

 Des campagnes de désinformation de plus en plus nombreuses

D’après les informations de BuzzFeed, qui a dévoilé l’existence de ce marché juteux début 2020, 27 campagnes de désinformation ont été menées depuis 2011 et leur nombre n’a cessé de croître. Parmi ces opérations, 19 se sont produites au cours de la seule année 2019. Ces méthodes aujourd’hui ont fait le tour de la planète et constituent une arme géopolitique redoutable. Une autre étude réalisée par l’Université d’Oxford en 2020 a comptabilisé plus de 60 millions de dollars de contrats.  Les tactiques de désinformation suivent le cours du marché et s’industrialisent. Pour Nathaniel Gleicher, responsable de la sécurité chez Méta, “la professionnalisation de la tromperie” incarne une menace croissante, qui avance à bas bruit. “Au cours des dernières années, nous avons vu se développer des entreprises qui construisent essentiellement leur modèle commercial autour de la tromperie”, alertait-il déjà en janvier 2020. 

L’un des acteurs les plus connus de cette industrie ? Vulkan, la “cyberamurerie des services russes”, d’après le Monde. Cette société privée, soit un cabinet de conseil en cybersécurité ordinaire à première vue, fournit des armes numériques aux services de sécurité russe et est à l’origine d’outils dédiés à des campagnes de désinformation menées en Ukraine ou en Arménie. Soit une puissante arme nocive pour la démocratie. Et elle avance masquée, empruntant les codes de la normalité. Son activité tranche ainsi avec sa vie de bureau. D’après un article du Guardian, la culture d’entreprise de Vulkan tient davantage de la Silicon Valley que de l’agence d’espionnage, avec l’existence d’une équipe de football au sein de l’entreprise, des célébrations d’anniversaire pour les employés…  

S’armer contre ces menaces 

Dans un monde où on ne sait plus qui sert quoi, les journalistes devaient déjà faire face aux éléments de langage des agences de com’ traditionnelles. Ils doivent aujourd’hui déjouer de nouveaux adversaires. Avec l’expansion rapide de l’IA générative et les nouvelles possibilités de créer des avatars réalistes, des images, des vidéos et des sons, cette nouvelle industrie de l’ombre gagnera certainement davantage de terrain. Il devient donc essentiel de favoriser la collaboration au sein de l’écosystème de vérification des faits pour remporter des batailles dans la lutte contre la désinformation. Il s’agit par exemple de s’allier à des entreprises de cybersécurité et des spécialistes dans des domaines spécifiques, de se former et sensibiliser à la cybersécurité en permanence, créer des normes communes.  

2Twitter : libre cours à la désinformation à l’ère d’Elon Musk ?

 

Twitter, une porte ouverte à la désinformation ? Dernièrement, le réseau social s’est retiré du code de pratique de l’UE en matière de désinformation, dans un contexte où l’entreprise doit être contrôlée par les régulateurs européens dans le courant du mois de juin.  Un signal qui a été précédé de plusieurs initiatives délétères. Elon Musk, ce “Citizen Kane du numérique”, dont l’objectif est d’avoir un Twitter qui fonctionne comme il l’utilise, c’est-à-dire sans retenue, a en effet désactivé le centre de presse et procédé à des licenciements massifs des modérateurs de contenus. 

Par ailleurs, Ella Irwin, responsable de la confiance et de la sécurité chez Twitter, considéré comme l’un des principaux lieutenants d’Elon Musk, a démissionné ce 2 juin. Son départ serait lié aux récentes critiques du patron de Tesla concernant la décision de l’entreprise de modérer le contenu du site d’information conservateur The Daily Wire.  

 

Depuis le rachat de Twitter, Elon Musk a également réactivé près de 12 000 comptes suspendus pour des propos antisémites, racistes, misogynes, transphobes (Donald Trump, Andrew Anglin, Patrick Casey, Andrew Tate, Kanye West…) donnant à Twitter “des petits airs de Gotham City”, d’après le Monde.  

Ces licenciements et autres changements ont été faits dans le but de “rationaliser” l’entreprise et la rendre plus attrayante aux yeux des annonceurs. Les critiques ont souligné que l’accent mis par Musk sur la monétisation de la plateforme pourrait conduire à donner la priorité à la publicité au détriment de la sécurité des utilisateurs 

 Un “rédacteur en chef” qui tweete à tout va 

Outre ces changements majeurs, Elon Musk est devenu plus actif avec son compte personnel – 141 millions d’abonnés au compteur – et une source plus puissante de diffusion de désinformation. Ce phénomène devient un vrai sujet de préoccupation chez les journalistes. Depuis l’acquisition, son compte est devenu le profil le plus consulté. Un article de NPR a souligné que les tweets de Musk sont souvent très appréciés et peuvent influencer l’opinion publique. Il diffuse des théories de complot – il a notamment minimisé la sévérité du Covid-19 et soutenu la propagande de Vladimir Poutine – et discrédite ses opposants, traque des personnes et des organisations avec lesquelles il est en désaccord. 

Dernièrement, il a choisi comme cible Alexandria Ocasio-Cortez. Le propriétaire de Twitter a ainsi interagi avec un compte parodique usurpant l’identité de la représentante du Congrès américain. “Pour info, il y a un faux compte qui se fait passer pour moi et qui devient viral. Le PDG de Twitter a interagi, augmentant ainsi sa visibilité”, a déploré AOC. “Il publie de fausses déclarations politiques et se répand”.  

Partir ou rester ? 

Dans ce cadre, comment Twitter et l’information de qualité peuvent-ils avoir un avenir commun ? Faut-il quitter Twitter pour Mastodon et laisser des centaines de millions d’abonnés sous l’emprise de nombreux conspirationnistes ? Les plus optimistes choisiront de rester, pour continuer le travail d’information et d’enquête, en attendant une régulation forte de la part des autorités compétentes.  

3Des profils privilégiés par les diffuseurs de fake news

                                     

La diffusion de fausses nouvelles ciblant une personne est devenue une arme courante à l’ère numérique. Pour qu’une fake news fasse son chemin, il faut viser un visage connu et influent, qui permet à la fake news de se propager plus rapidement. Elle prend de l’ampleur parce que les médias la relaient également. En bref, avant d’être démentie, elle a fait suffisamment parler d’elle pour avoir fait le mal voulu. Certaines personnalités sont plus visées que d’autres, à l’image d’Angela Merkel, qui a ainsi subi plus de 2500 attaques différentes, enregistrées par la Task Force Strat pendant la saison électorale allemande de 2017.  

Bill Gates est également un morceau de choix : il est devenu une cible constante des fake news et des théories du complot. On l’a ainsi accusé de vouloir implanter des puces électroniques chez les patients par le biais d’un vaccin. Il a aussi été visé par une rumeur d’arrestation par l’armée américaine pour trafic sexuel d’enfants. “L’armée arrête Bill Gates”, lit-on dans un article publié le 1er août, par le site Real Raw News, qui compte plus de 12 000 interactions sur Facebook.  

4Dark web : la nourrice des fake news

Des services et outils, destinés à construire des campagnes de désinformation, se développent sur le dark web, partie de l’internet qui n’est pas indexée ou accessible par les moteurs de recherche type Google. Même s’il peut être utilisé à des fins légitimes, comme la protection de la vie privée, et la sécurité des journalistes, le dark web est aussi souvent associé à des activités illicites. On y retrouve différents services  qui permettent la diffusion rapide des fakes news, vendus pour une somme dérisoire sur des forum clandestins : fake news, faux sites web à moindre coût, faux comptes.  

                                         

Conclusion 

Les défis sont nombreux pour les journalistes qui doivent œuvrer pour lutter contre le fléau de la désinformation. Il convient avant tout de connaître le visage de ses adversaires, qui avancent de plus en plus masqués, pour les contrer efficacement. A une époque où les lecteurs sont méfiants face aux médias, cette bataille reste un sport de combat.  

➡️ Retrouvez l’étude complète (en anglais) ici  

 

Une année de désinformation : des stratégies de communication très établies

Quels ont été les principaux sujets de désinformation ces douze derniers mois ? Quelles nouvelles méthodes sont apparues pour amplifier la portée des fausses nouvelles ? Une étude menée par France Télévisions examine entre autres les stratégies de communication des acteurs de la désinformation.

Par Alexandra Klinnik, MediaLab de l’Information

D’après NewsGuard, une start-up qui lutte contre les fake news, 20% des vidéos partagées sur TikTok contenaient des informations erronées en 2022. 40% des sujets de désinformation sont diffusés par l’intermédiaire de Facebook, ajoute l’EDMO (European Digital Media Observatory). Une étude menée par France Télévisions dans le cadre du projet “A European Perspective”, initiative soutenue par la Commission européenne, met en avant ces chiffres alarmants. Et explore les multiples visages de la désinformation au cours des douze derniers mois. L’objectif de l’enquête ? Fournir une vue synthétique de l’écosystème de la désinformation et proposer des solutions pour contrer ce phénomène insidieux. Voici le quatrième article de notre série consacrée au rapport Trends and patterns on disinformation.

1Cinq grand thèmes dans les sujets de désinformation en Europe

 

Depuis ces douze derniers mois, cinq grands thèmes émergent parmi les sujets de désinformation en Europe : la guerre en Ukraine, la pandémie Covid-19, les élections nationales et régionales, la crise énergétique et le changement climatique. Autour de ces sujets gravitent également dans l’espace médiatique de la désinformation : l’islamisation de l’Occident, les discours anti-migrants ou encore le séisme en Turquie. 

                                 

2La guerre en Ukraine, principal sujet de désinformation en Europe

 

Depuis février 2022, la guerre en Ukraine est rapidement devenue le principal sujet de désinformation en Europe. A ce titre, elle est d’ailleurs appelée par les médias « guerre de l’information », en raison de la diffusion à grande échelle de la propagande sur les réseaux sociaux. « La guerre en Ukraine n’est pas seulement menée par les soldats sur le champ de bataille ; elle l’est aussi dans le champ informationnel afin de gagner les cœurs et les esprits des populations », estimait en février 2023 le chef de la diplomatie européenne Josep Borrell. Sur ce terrain de l’information, plusieurs camps s’affrontent. 

D’abord, les pro-russes. Ils prennent pour cible en priorité Volodymyr Zelensky, le président de l’Ukraine, le gouvernement ukrainien, la population ukrainienne ainsi que les forces du pays. Leur stratégie de communication s’articule autour de plusieurs axes : dégrader l’image publique de Zelensky, ternir l’image des Ukrainiens, discréditer les médias occidentaux. Ils propagent plusieurs idées : ce ne sont pas les Russes qui commettent les attentats, mais les Ukrainiens, les médias occidentaux diffusent de fausses nouvelles sur la guerre ou encore les Ukrainiens sont majoritairement corrompus et des pro-nazis. 

Depuis le début de l’invasion, Vladimir Poutine justifie ainsi l’envahissement de la Russie en Ukraine par une volonté de « dénazifier l’Ukraine et le régime de Kiev », et a évoqué des « néonazis qui se sont installés à Kiev et ont pris en otage l’ensemble du peuple ukrainien ». Cet argument fallacieux a été rapidement dénoncé par Joe Biden, en mars 2022 : « Poutine a le culot de dire qu’il “dé-nazifie” l’Ukraine. C’est un mensonge ».

                                     

Si cette propagande mensongère, diffusée sur les réseaux sociaux, a été pointée du doigt par différents gouvernements et historiens, les affirmations répétées de Vladimir Poutine et d’autres responsables russes ont tout de même atteint leurs cibles. Au moins un politicien américain a ainsi remis en question l’aide apportée à l’Ukraine, rapporte le média Factcheck.org. « Il est choquant de voir que le Congrès est prêt à envoyer 14 milliards de dollars d’équipement militaire en Ukraine, et qu’il faille se demander si cet argent et cet équipement militaire ne tombent pas entre les mains des nazis en Ukraine », a ainsi déclaré en mars 2022 la députée Marjorie Taylor Greene. 

Dans le contexte de l’invasion, les anti-UE ont également une stratégie de communication très établie. Ce groupe vise à atteindre l’OTAN et ses partisans, les institutions et les gouvernements de l’UE. Ils entendent insister sur les conséquences négatives de la guerre et minimisent l’impact négatif des sanctions sur l’économie de la Russie. Leur discours ? Les sanctions contre la Russie et les aides militaires sont inutiles ou détournées, les migrants sont mieux traités que les nationaux, ou encore que la guerre en Ukraine provoque de graves difficultés financières pour la population européenne.

Ainsi, au mois de septembre 2022, sur Telegram et Facebook, sont apparus de fausses informations sur un prétendu détournement de l’aide européenne à l’Ukraine. « Presque toute l’aide de l’UE finit apparemment sur le marché noir », pouvait-on ainsi lire sur les réseaux sociaux. Ces affirmations s’appuyaient sur un prétendu rapport du Groupe d’Etats contre la corruption (Greco)… qui n’existait pas ! Le Greco et la Commission européenne ont tous deux démenti auprès de l’AFP que la majeure partie de l’aide ait disparu en Ukraine. 

Enfin, les pro-Ukraine sont également très actifs sur le terrain médiatique. Ils visent à déstabiliser Vladimir Poutine et le gouvernement russe. Leur stratégie de communication se définit par une exagération des abus commis par les Russes en Ukraine, et par une désinformation autour de la stratégie nucléaire russe. 

3Le Covid-19, un sujet toujours au centre de la désinformation

 

Le Covid-19 a monopolisé la sphère de la désinformation et a persisté malgré un recentrage sur la guerre en Ukraine. Différents acteurs se sont emparés du sujet. 

D’abord, les anti-vax dont la rhétorique persistante vise à atteindre l’OMS, les gouvernements, et les grands acteurs de l’industrie pharmaceutique communément appelé Big Pharma. Leur stratégie de communication ambitionne de susciter la méfiance à l’égard de l’expertise scientifique, d’alimenter les théories du complot et de nier les avantages des vaccins. Ils ne cessent de répéter que le vaccin est mortel, qu’il est dangereux pour la grossesse et l’allaitement, que les tests sur les vaccins ne sont pas fiables, et le Covid-19/monkey pox des canulars.

                                 

On peut ainsi citer une vidéo d’Alex Jones, publiée en juin 2020, où l’animateur d’extrême droite et conspirationniste américain notoire affirme que l’épidémie de coronavirus est un “canular”. « Il s’agit de créer la peur et de tester l’obéissance et le contrôle de la population afin de détruire l’économie et d’instaurer un gouvernement planétaire basé sur la tyrannie médicale », affirmait-il sans ambages. Une prise de parole vue plus d’un million de fois à l’époque, rapporte l’AFP.

Les anti-systèmes occupent également la sphère médiatique. Ils cherchent à atteindre les élites, les personnalités de premier plan (Bill Gates…), l’OMS, les grandes firmes pharmaceutiques. Leur stratégie repose sur l’alimentation des théories du complot, et l’accusation d’utilisation instrumentale des vaccins à des fins spécifiques. Ils soutiennent notamment que les mesures déployées sont inutiles.

4De nouvelles méthodes pour étendre la portée des fausses nouvelles

 

Cette guerre de propagande ne repose plus seulement sur les moyens de communication classiques – c’est-à-dire les vidéos et les réseaux sociaux. Depuis les derniers mois, de nouvelles méthodes émergent pour assurer une portée encore plus grande aux fausses nouvelles. 

Les sites web de désinformation sur le changement climatique se répandent désormais sur Twitter 

 

L’ONG EU DisinfoLab, a repéré plus de 30 sites web spécialisés dans la désinformation climatique, tels que Klimaat Gek ou Climat ETC, produisant du contenu en plusieurs langues. Ces sites souhaitent retarder les politiques de protection de l’environnement. Ils connaissent une grande portée, de 5 000 à plus de 139 000 visites mensuelles. Une autre étude de l’Institute for Strategic Dialogue a pointé une augmentation significative des mentions de ces sites webs marginaux sur Twitter depuis le début de 2022, pouvant atteindre jusqu’à 10 000 mentions par jour.

Une armée de clones médiatiques dans le cadre d’une propagande russe

La propagande russe prend un nouveau visage et joue sur la crédibilité des médias traditionnels. Depuis mai 2022, de multiples clones de médias authentiques ont ainsi été identifiés, par EU DisinfoLab qui s’est associé pour l’occasion à la fondation suédoise à but non lucratif Qurium Media Foundation, fournisseurs de solutions de sécurité numérique et des enquêtes judiciaires aux médias indépendants et aux organisations de défense des droits de l’homme. La particularité des sites identifiés ? Des noms de domaine très similaires à ceux d’origine (Bildeu.com, spiegelco.com, 20minuts.com…) et un design identique. A l’aide de services de traduction automatique, ils diffusent de faux articles, vidéos et sondages sur la guerre en Ukraine et les diffusent sur les réseaux sociaux.

« Nos conclusions montrent que les acteurs de la désinformation à l’origine de cette campagne ont mis en œuvre une stratégie sophistiquée et cohérente de reproduction et d’usurpation de l’identité de médias authentiques, explique le EU DisinfoLab, cette stratégie implique, entre autres, l’usurpation de noms de domaine ou la création de vidéos faussement attribuées à des médias légitimes. Elle comprend également des techniques astucieuses telles que les redirections intelligentes ou le géoblocage des utilisateurs en fonction de leur localisation ». 

Telegram, un amplificateur de désinformation à grande échelle 

Telegram devient un canal de désinformation à grande échelle, grâce à son niveau de cryptage et à sa fonction de partage avancées. De nombreux utilisateurs sont également attirés par l’approche relativement non interventionniste de la plateforme en matière de modération de contenu par rapport à ses homologues plus importants, tels WhatsApp. En Allemagne, en 2020, une cellule d’investigation journalistique,Correctiv, a découvert une campagne de désinformation à grande échelle sur le Covid-19 organisée par un réseau d’environ 650 groupes Telegram répartis dans tout le pays. 

Conclusion

Entre stratégies de communication bien rodées et mutation pernicieuse des fausses nouvelles, il convient au lecteur d’être particulièrement vigilant à l’heure où la liberté de la presse est « noyée » sous la désinformation. Les « capacités de manipulation inédites sont utilisées pour fragiliser celles et ceux qui incarnent le journalisme de qualité, en même temps qu’elles affaiblissent le journalisme lui-même », rappelle le 21e classement annuel de Reporters sans frontières (RSF), publié mercredi 3 mai. 

➡️ Retrouvez l’étude complète (en anglais) ici

« Notre cerveau aime la désinformation »

Dit de cette manière cela paraît effrayant n’est-ce pas ? Avez-vous déjà entendu parler des biais cognitifs ? Je ne suis pas docteure en psychologie et ma définition ne sera pas très scientifique mais voici ce que j’en comprends : les biais cognitifs sont notre manière de rester vivants en accord avec nos besoins, nos vérités, notre monde. Cela veut dire que nous sommes capables de nous mentir à nous-mêmes pour bien dormir la nuit. 

Par Nathalie Gallet, MediaLab de l’information 

Nous recevons une information et nous la comprenons comme elle nous arrange. Ainsi, notre vie est plus facile. Nous prenons moins de responsabilités. Nous faisons parfois les autruches. Malheureusement, cela permet à certaines personnes de nous manipuler à l’envie pour nous faire aimer une mode. Ou nous désinformer. Et cela fonctionne !

Tout se joue à l’âge tendre

Notre cerveau est en construction jusqu’à l’âge de 25 ans ! Nous nous construisons avec notre entourage, nos possibilités d’accéder à la culture, aux discussions ouvertes, aux apprentissages. Le chemin est long et notre cerveau crée et modifie les connexions en fonction de ce que nous vivons.

Dans l’adolescence, nous traversons ce moment de prise d’autonomie si important pour notre construction d’adulte et nous sommes encore plus sensibles à notre environnement car nous allons devoir prendre des décisions. Faire des choix. L’adolescent est fragile car il veut paraître sûr de lui alors qu’il est en pleine évolution, apprentissage. Comme un funambule qui doit passer sur ce fil au-dessus de 1000 mètres entre deux montagnes.

Les adolescents sont particulièrement vulnérables à la désinformation. Une des raisons principales est leur perception du vrai et du faux, influencée par les biais cognitifs. Des études, telles que celles menées par Pennycook et Rand (2019), ou encore les travaux de Grégoire Borst et ses équipes (depuis 2016 et jusqu’à aujourd’hui), ont démontré que les adolescents sont susceptibles de tomber dans le piège de la désinformation en raison de biais cognitifs tels que la crédulité, l‘effet de confirmation ou l’ancrage mental.

Les travaux de Grégoire Borst (Professeur de psychologie du développement et de neurosciences cognitives de l’éducation à l’Université de Paris ) et son équipe ont mis en évidence l’importance de la crédulité chez les adolescents lorsqu’ils sont exposés à des informations douteuses. Le manque d’expérience et de pensée critique développée les rend plus enclins à accepter des informations sans les remettre en question.

L’étude de Pennycook et Rand de 2019 sur la propagation de la désinformation sur les réseaux sociaux va dans le même sens puisqu’elle met en exergue les difficultés des adolescents à discerner la crédibilité des sources en ligne. Ils s’appuieraient souvent sur des indices superficiels comme la conception du site Web ou le nombre de likes/partages pour déterminer la fiabilité des informations.

De plus, l’effet de confirmation, qui consiste à rechercher et à privilégier les informations qui confirment leurs croyances préexistantes, peut renforcer l’adhésion aux fausses informations. Les adolescents peuvent être davantage influencés par des contenus alignés avec leurs opinions, même s’ils sont inexacts ou trompeurs.

L’ancrage mental, quant à lui, joue un rôle dans la persistance de la désinformation chez les adolescents. Une fois exposés à une information erronée, ils peuvent avoir tendance à s’y accrocher, même en présence de preuves contradictoires. Les recherches de Grégoire Borst et son équipe ont également souligné la réticence des adolescents à remettre en question leurs croyances initiales, ce qui les rend vulnérables à la désinformation persistante.

Parce que la pensée critique trouve ses bases à ces âges, il est indispensable que ce socle de formation de connaissance de soi soit le plus solide possible avant de rentrer dans la phase adulte. Cela ne réglera pas tout, non, mais le jeune sera mieux préparé – s’il est conscient de ces biais cognitifs et si il a un bon libre arbitre -, à affronter la désinformation et à délibérer plus justement sur le vrai du faux.

Les biais cognitifs les plus handicapants dans la lutte contre la désinformation

Les biais cognitifs qui nous régissent sont trop nombreux pour les citer tous. Certains s’y essaient et tentent de rendre la chose moins triviale comme par exemple le codex de John Manoogian III réalisé grâce au travail de Buster Benson en septembre 2016 . 

Le Codex des biais cognitifs 

Buster Benson sépare les biais en 4 catégories :
1 – Trop d’information
2 – Pas assez de sens
3 – Besoin d’agir vite
4 – De quoi devons-nous nous rappeler ?

Toutes ces notions sont totalement engagées dans notre besoin de gérer l’information et de déterminer si nous sommes face à de la désinformation ou non. Elles prennent en compte notre quotidien, et tentent d’expliquer le fonctionnement de notre cerveau pour réagir aux situations auxquelles nous faisons face.

Lors de notre étude réalisée en mars/avril 2023, Manel Belarbi a pu “sélectionner” les principaux biais engagés dans notre appétence à croire les fausses nouvelles.

En voici 6 qui sont faciles à comprendre et essentiels pour nous aider à décrypter notre fonctionnement face aux informations (mais aussi face à nos réactions dans la vie de tous les jours).

1Biais de réceptivité de “baratin” :

Plus une déclaration est complexe et plus nous pensons qu’elle est réelle. Nous imaginons peut-être qu’il serait fou d’élaborer un mensonge avec tant de détails ou d’argumentation ?

2Biais d’effet de vérité illusoire :

Plus nous sommes exposés à une information et plus nous la pensons vraie. Nous nous rappelons l’avoir vue ou lue alors nous faisons un raccourci en la cataloguant comme vraie.
À noter que les algorithmes des moteurs de recherche qui font remonter une information très partagée ne nous aident pas sur ce sujet.

3Biais d’influence sociale :

Le fameux effet de groupe. À plusieurs, nous sommes influencés et nous cherchons la validation de nos pairs. Sans un libre arbitre confiant, il y a des chances que nos croyances suivent celles du groupe sans trop nous poser de questions.

4Biais émotionnel :

Les émotions agissent comme un écran, une barrière. Plus nos émotions seront fortes (négatives ou positives) plus nous aurons du mal à détecter les fausses nouvelles. Les créateurs de désinformations le savent et ils utilisent les émotions très majoritairement pour tromper leur public.

5Biais de confirmation :

Confirmer une croyance. Nous accepterons plus facilement de croire une affirmation qui va dans notre sens. Nous chercherons même à donner le sens qui correspond à nos convictions en écoutant parler quelqu’un. Et si nous entendons l’inverse de ce que nous croyons, il y a de fortes chances pour que nous allions chercher ailleurs pour trouver quelqu’un qui ira dans notre sens.

6Biais de croyance :

C’est différent du biais de confirmation même s’il fait appel à des notions complémentaires. Le biais de croyance met en jeu notre logique contre nos croyances profondes. Cela signifie que même si une information sort de toute logique, si elle correspond à nos croyances nous la penserons juste.

Comme je vous le disais en titre : Nous ne sommes pas naturellement aidés pour éviter de croire aux fake news ! Mais ne soyons pas négatifs, l’intérêt de prendre conscience de tout cela est de pouvoir s’en rappeler au moment où nous allons décrypter une actualité. Découvrir une vidéo sur un réseau social. Lire un article. Entendre une déclaration, etc…

Grégoire Borst définit 3 systèmes selon des études neuroéconomiques :

Le système 1 : La base
Celui qui engage les biais cognitifs. Animal. Reptilien.
C’est rapide, instinctif. On n’engage pas d’effort.

Le système 2 : Rationnel
On analyse, on réfléchit, on délibère

Le système 3 : Le contrôle cognitif
C’est l’utilisation des systèmes 1 et 2 en fonction de la situation. L’idée serait que ce système 3 pourrait aider à freiner les velléités du système 1 pour engager le 2 et ainsi résister à la désinformation.

“Notre défi est de faire en sorte que les gens activent davantage leur contrôle cognitif et engagent leur raisonnement rationnel” (Grégoire Borst)

Le terme de défi semble bien choisi. Personne n’a la clé de détection de la désinformation pour une population mondiale constituée de ses milliards “d’uniques”. La recette n’existe pas et n’existera vraisemblablement jamais car nous serons toujours tous différents. Cela ne doit pas empêcher de vouloir éclairer chacun(e) sur ce qu’il peut faire pour lui(elle)-même.

Lutter contre la désinformation grâce aux études sur les biais cognitifs

En tant qu’acteur luttant contre la désinformation comment faire mieux pour “armer” le public contre la désinformation ?
Professeurs, journalistes, chercheurs…- tous ont intérêt à aider les populations à pouvoir distinguer le vrai du faux.

Ils le font en enquêtant sur les fausses informations, en publiant des articles et reportages, en apportant de la transparence sur leurs méthodes de travail, en mettant en place des labels correspondant à des chartes éthiques complètes selon lesquelles ils agissent. Cependant, la capacité du public à recevoir l’information n’est pas encore assez prise en compte. Nous devons replacer notre nature humaine au centre de notre façon de comprendre et de décider.

En ce sens, nous pouvons tirer au moins deux enseignements des différentes études sur les biais cognitifs par rapport à la désinformation.
Deux propositions qui ne sont pas encore assez présentes dans l’environnement de la lutte contre la désinformation.

1Éducation aux médias adaptées aux jeunes :

Si je reprends les notions de cet article, il y a, en priorité, un travail important à réaliser en termes d’éducation aux médias pour le jeune public. Et ce, en prenant en compte le fait que ces jeunes sont souvent très émotifs, en pleine construction de leurs croyances, de leur fonctionnement face à la réception et au traitement des informations auxquelles ils font face. Il ne s’agit pas de leur donner des leçons mais de les initier à leur propre fonctionnement naturel (le système 1), pour qu’ils puissent être en capacité de mettre en place leur raisonnement rationnel (système 2) à chaque fois que cela pourra leur être utile. Prendre en compte leur fragilité dans ces moments veut aussi dire que cette éducation aux médias doit bénéficier d’un suivi jusqu’au moins à la fin des années lycée.

2Activation de la rationalité du public en expliquant les biais cognitifs :

Nous devrions tous être initiés à la métacognition : le monde des biais cognitifs. Les acteurs de la lutte contre la désinformation doivent davantage être formés à la compréhension des biais cognitifs. En ayant plus de connaissance dans ce domaine ils pourront aider le public à comprendre à quelles émotions il est soumis devant les informations qu’il reçoit. Il serait par exemple intéressant d’intégrer, dans des articles de vérification, des explications sur les biais cognitifs auxquels les lecteurs ont été exposés quand ils ont pris connaissance de l’information vérifiée. Cela pourrait permettre d’activer une réflexion rationnelle sur cette fausse information et mettre en place un système récurrent de cette activation à chaque fois que la personne est face à une information.

Avec plus de rationalité la désinformation devrait pouvoir être déjouée plus souvent par plus de citoyens. Mieux se connaître permet d’être moins crédules. Là encore il n’est pas question de proposer des articles “donneurs de leçon” mais de fournir les éléments nécessaires à chacun pour décider de ce en quoi il veut croire. Nous ne ferons pas disparaître nos biais cognitifs. Notre cerveau sera toujours complexe et c’est bien ce qui fait la richesse de l’humanité. L’objet est toujours et encore de mettre dans les mains de chacun ces savoirs et connaissances pour être en pleine capacité de prendre ses propres décisions dans le tri de l’information.

Nous resterons toujours seuls devant nos choix.

Conclusion

Vous est-il arrivé d’écouter un discours et de vous apercevoir en débattant avec des amis que vous n’aviez pas du tout compris la même chose ? Chacun a simplement vu midi à sa porte. Merci les biais cognitifs ! Alors qu’en pensez-vous ? Cela ne vaut-il pas la peine de prendre un peu de recul, de poser les choses à plat en prenant en compte ce qui peut nous faire tordre la réalité et ainsi d’avoir plus de chance de prendre la bonne décision ? De comprendre les choses correctement ? D’être moins influencé par de la désinformation ou du moins d’avoir les cartes en main pour décider ce que l’on veut croire ou non et pourquoi. En conscience.

Regardez (si ce n’est pas déjà fait) le film satirique “Déni Cosmique” ( “Don’t look Up”) de Adam McKay de fin 2021. Il y a de grandes chances que vous vous y retrouviez quelque part. Cela pourrait vous faire réfléchir… 🙂

 

 

Cet article fait partie d’une série de papiers issue de l’étude « Trends and patterns on disinformation » parue dans le cadre de l’initiative « A European Perspective »

Retrouvez les articles déjà publiés :

et l’étude complète (en anglais)

 

Lutte contre la désinformation : Tendances et modèles d’aujourd’hui

La définition du terme désinformation, nous n’avons plus besoin de vous la donner bien sûr. Ou bien… malheureusement devrais-je dire. La pratique s’est tellement popularisée avec internet, et les canaux pour communiquer à l’échelle mondiale sont si simples d’utilisation que nous en sommes recouverts. Plus personne ne sait à quel saint se vouer. Notre libre arbitre se réduit par l’épuisement d’avoir à traiter un flot d’informations continu et notre cerveau finit par buguer. 

Par Nathalie Gallet, MediaLab de l’information 

Dans le cadre du projet « A European Perspective » France Télévisions a pu réaliser un document qui donne une idée précise des formes que cette désinformation prend aujourd’hui.  Nous vous proposons une série de 6 articles dans les prochaines semaines : De la carte simplifiée qui vous donnera l’occasion de (re)poser tranquillement les acteurs de cet écosystème, à des articles sur les tendances et modèles actuels de cet outil de manipulation, nous vous partagerons ce dossier en le déclinant par thématiques. 

L’écosystème de la désinformation 

Globalement on pourrait résumer la problématique en disant que l’on est tous plus ou moins cibles et diffuseurs de la désinformation. Que ce soit volontaire ou involontaire. Que ce soit à des fins personnelles ou une échelle plus grande, l’objectif est le même pour le producteur : obtenir ce qu’il veut. Pour cela il s’appuie sur des diffuseurs et des cibles. 

La désinformation c’est utiliser une information vraie ou fausse pour manipuler, faire croire, désorienter, mettre de la confusion dans l’esprit d’une à des millions de personnes en même temps. Ainsi vous créez des groupes de pensées qui s’opposent et souvent se déchirent. Une sorte de guerre d’abord basée sur les idées qui peut aller jusqu’aux armes comme le prouve la guerre en Ukraine. 

L’écosystème de la désinformation 

L’écosystème de la désinformation fonctionne parce qu’il y a des prédateurs et des proies qui, selon un cycle naturel, sont parfois l’un ou parfois l’autre. Ce « jeu » créé une spirale d’influence et de pouvoir des uns sur les autres. À grande échelle, les défenseurs de l’information de qualité emploient tous les moyens pour que les populations aient accès à une information juste et surtout, soient capables de se faire leur propre idée sur une question. Cette éducation que nous devrions tous avoir, est l’une des clés pour démêler le vrai du faux. Malheureusement elle n’est pas toujours accessible à tout le monde. 

Le cycle de la désinformation se tient parce que l’homme (humain) ne peut se satisfaire d’être simplement heureux et positif. Il fonctionne parce que le besoin de domination animal est ancré dans l’humanité. La propagation réussit parce que le cerveau a besoin d’être nourri par des émotions, des réflexions et de la rumination.  La désinformation se sont des humains qui « jouent » avec les autres humains pour faire dominer leur propre pensée. Peu leur importe si elle est vraie ou fausse. Ils la considèrent vraie pour eux et s’emploient donc à redéfinir la vérité auprès du plus grand nombre pour pouvoir redessiner le monde à leur image. 

En toute honnêteté, l’éradiquer totalement semble impossible. On peut au mieux apprendre à la reconnaître. 

Les producteurs de Fake News 

Attachons-nous à parler de la désinformation qui touche un public à grande échelle.
Elle fonctionne en entonnoir. Un producteur crée une Fake News et utilise une masse d’individus, réels ou artificiels (bots), pour relayer sa fausse information et la rendre « vraie » aux yeux du plus grand nombre. 

Un producteur, cela peut être un gouvernement, une entreprise, certains médias ou des individus.
Leurs motivations sont le pouvoir et l’influence.
Ils utilisent deux types de propagations :

1-Intentionnelle : manipulation, propagande, conspiration ou intimidation pour des intérêts politiques, financiers ou de réputation.
2-Non intentionnelle : ignorance, croyances / excès de confiance, réaction émotionnelle ou erreur / inattention…

Par exemple, la personne à l’origine de la fausse information la crée et la diffuse à l’aide de centaines de bots. L’information est alors référencée et remonte dans les notifications de citoyens que le sujet intéresse. Elle fait naître une émotion qui fait appel à une croyance chez cette personne qui finit par partager cette fausse nouvelle la pensant vraie.
Au fur et à mesure cela touche des milliers voire des millions de personnes. 

Un gouvernement pourra asseoir une politique, une entreprise pourra dénigrer un concurrent, gagner de l’argent. Plusieurs études montrent clairement que beaucoup de ces organes utilisent aujourd’hui la désinformation pour arriver à leurs fins.

Afin de ne pas se « salir » les mains, les producteurs délèguent de plus en plus les campagnes de désinformation à des entreprises spécialisées très discrètes.  
En attendant notre article sur l’industrialisation de la désinformation vous pouvez vous intéresser aux enquêtes du collectif Forbidden Stories. Ce sont des journalistes de plusieurs pays qui réalisent des enquêtes collaboratives pour tenter de faire contrepoids aux campagnes de désinformation. Ils les dénichent et les dénoncent. 

Les types de Fake News 

Les outils à la disposition des producteurs de fausses informations se multiplient avec les nouvelles technologies, l’IA et le nombre croissant de réseaux sociaux.
Ces outils sont de plus en plus faciles à utiliser. Ils sont de plus en plus élaborés et permettent une propagation efficace et rapide de la fausse information.  

Voici les types que nous avons recensés :

1Le contenu fabriqué  :

Cela peut être un discours avec un mélange de vraies et de fausses informations. Si vous avez connaissance des vraies, vous pensez que les fausses sont aussi vraies puisque le discours vous avance des arguments que vous reconnaissez comme réels.

Technologiquement, le contenu fabriqué peut aussi être une image ou une vidéo créée artificiellement. Deepfake ou image créée à partir d’un contexte réel mais sur une situation précise fausse comme les images d’IA générative qui ont tant fait parler quand Midjourney a été découvert par tout le monde, avec ces images qui ont trompé une partie de la population.  

source : https://www.francetvinfo.fr/internet/vrai-ou-fake-macron-en-eboueur-pape-en-doudoune-trump-en-etat-d-arrestation-comment-reperer-les-images-generees-par-l-intelligence-artificielle_5741834.html

C’est un exemple concret récent de la puissance des outils qui arrivent dans les mains de tout un chacun. Cela pose forcément de nombreuses questions quant à l’accélération de la diffusion de fausses informations, leur volume qui va augmenter de façon exponentielle et les conséquences possibles sur la société. 

2Le contenu manipulé  :

C’est un discours, une image authentique prise et découpée, recadrée, pour lui donner un autre sens que celui d’origine.  
Dans une interview Bill Gates parlait de la corruption en Ukraine. Son interview a été découpée pour changer le sens de son propos. Dû à son statut de personne en vue sur la scène internationale, cette vidéo a été vue des millions de fois. Mais cette partie d’interview n’était pas le reflet de ce que disait Bill Gates qui évoquait le fonctionnement de l’Ukraine avant la guerre et qui expliquait que le pays avait bien changé positivement ces derniers temps.

3Le contenu imposteur  :

Vous avez pu déjà voir une vidéo de CNN qui ne provenait pas en réalité de la chaine américaine ? Le « contenu imposteur » c’est la création d’un faux contenu avec la « signature » d’un acteur reconnu comme fiable. Si le résultat est bien fait. Il faudra certainement un œil expert pour ne pas tomber dans le panneau et sans cela il est probable que vous partagerez le contenu. 

4Le contenu trompeur  :

C’est une question d’interprétation. Le discours, l’image, sera présenté avec des arguments totalement faux et qui semblent être cohérents.  

5Faux contexte  :

Une phrase ou une image réelle peut être détournée de son contexte. Par exemple une vidéo de l’explosion du port au Liban du 4 août 2020 a été reprise pour illustrer le tremblement de terre en Turquie du 6 février 2023. Ce type d’utilisation d’un vrai contenu dans le mauvais contexte est certainement le plus utilisé dans le monde de la désinformation. Il n’y a besoin d’aucune technologie. C’est donc très facile à réaliser et en général les contenus choisis sont spectaculaires et crééent une émotion positive ou négative forte. C’est ce qui aide à faire croire à leur véracité dans le contexte pour lequel le contenu est détourné.

6Satire et parodie  :

Une imitation bien faite, une information présentée de manière humoristique. Même si c’est annoncé comme étant faux cela peut troubler l’esprit. Tout est dans la méthode. 

7Les contenus sponsorisés  :

Ce sont le plus souvent des publicités trompeuses mises en évidences au milieu de contenus que vous regardez parce que vous suivez tel ou tel compte. Ces publicités sont engageantes et vous amènent à les partager. 

Toutes ces méthodes fonctionnent parce que notre cerveau est sensible à la sollicitation surprenante. C’est une vraie machine à croire les Fake News.  
Nous en parlerons dans notre prochain article sur les biais cognitifs. Avec l’éducation du libre arbitre de chacun, la connaissance du fonctionnement de notre cerveau est une clé importante pour savoir réagir et réfléchir devant un contenu qui nous interpelle et avoir une chance de ne pas se tromper.

Outils et ressources utilisées pour créer des Fake News  

Afin de créer ces fausses informations une batterie d’outils et de techniques sont à la disposition de chacun. Plus ou moins compliqués. Plus ou moins demandeurs de ressources sophistiquées comme un ordinateur puissant ou du savoir-faire en programmation. Tout le monde peut avoir accès à un minimum de possibilités. Plus encore avec l’avènement des applications de montage de vidéos sur smartphone ou l’intelligence artificielle générative qui sont maintenant à la portée de tous. La différence c’est que plus vous y mettez les moyens et plus l’objectif de désinformation sera vraisemblablement atteint.  

Les « bots » : Programmes autonomes sur internet qui peuvent interagir avec des personnes réelles de manière de plus en plus naturelle. Ils sont en général créés pour envoyer ou relayer de fausses informations et créer du flux sur ce message erroné. 

Les logiciels : programmes de montage, de création d’infographie qui vont permettre la manipulation d’un contenu. 

Modèle d’IA : Certains modèles d’intelligence artificielle vont créer des textes ou des images et bientôt des vidéos suffisamment correctes pour illustrer des situations, créer des personnages ou des lieux qui n’existent pas. Cela permet des impostures plus réalistes que jamais. 

Le DDosing : tiré du vocabulaire informatique, cette méthode consiste à submerger le web avec des argumentaires contradictoires pour perdre les citoyens. 

Le blanchiment narratif : C’est une technique régulièrement employée en politique. Les gouvernements ou partis utilisent des médias « ralliés » à leur cause. Ils leur font délivrer un message et attendent que celui-ci soit repris par des sites « amis » qui offriront de la crédibilité au message.  

L’incitation au clic (click baiting) : attirer les gens avec un titre sensationnel qui les incite à partager 

Sockpuppeting  (Marionnetting) : Une fausse identité va être crée, de faux comptes avec des biographies bleuffantes de réalismes et elles seront utilisées pour entrer en contact avec d’autres personnes ou diffuser des fausses informations dans des blogs, des réseaux sociaux. Elles peuvent être utilisées aussi pour faire du Catfishing. 

Catfishing : À l’aide d’une fausse identité on attire quelqu’un, on le met en confiance afin de lui soutirer des informations  

Fermes de trolls : Ce sont des groupes de personnes ou de bots qui utilisent toutes les techniques ci-dessus pour diffuser les fausses informations.  

Agences de renseignements numériques : Ce sont des sociétés discrètes qui mettent en œuvre les campagnes de désinformation pour le compte de gouvernements ou d’entreprises. 

Cet étalage de possibilités nous montre à quel point nous devons nous méfier de ce que nous voyons ou entendons. Toujours être en alerte et se demander quel est le vrai message. Pourquoi on reçoit telle information à tel moment ? À qui cela profite ? Est-ce que cela a du sens ?
Déconnecter un peu ?  

Les acteurs qui luttent contre la désinformation

En tant que défenseur d’une information juste de qualité, les fact-checkers et les medias s’efforcent de réduire les effets de la désinformation à grande échelle. Celle qui touche les élections, les messages erronés au sujet des guerres ou l’inutilité d’un vaccin contre une pandémie mondiale.

Pour cela il y a deux types de fact-checkers : les indépendants et les médias/presse.

Beaucoup de sociétés indépendantes dont le travail se porte à 100% sur de la vérification de fait naissent dans une majorité de pays dans le monde. Une carte réalisée par Duke Reporters’ Lab les recense. Sont inclues dans cette carte les initiatives de médias. On entend par médias des entités qui ne font pas que du fact-checking et qui ont des départements dédiés à cela.  

Ces acteurs engagent leurs efforts sur plusieurs fronts : Des enquêtes précises sur de la vérification de faits que vous pouvez retrouver sur leur site web. De l’éducation aux médias auprès de jeunes ou de moins jeunes en se déplaçant dans des établissements scolaires, en produisant des programmes sur leurs canaux dédiés aux jeunes publics, en participant à des conférences. Ces acteurs qui sont sur « le terrain » au quotidien, sont en général labellisés par des organisations qui ont une charte éthique extrêmement précise pour bien encadrer les pratiques et s’assurer que les fact-checkers et les médias affiliés s’engagent à travailler avec sérieux et transparence.  

Les plus connues sont l’IFCN à l’échelle mondiale, l’EFCSN pour l’Europe, et le JTI Ils régulent le monde des fact-checkers, organisent des groupes de discussions, créent de la collaboration internationale et forment leurs signataires à de nouveaux outils.
La collaboration internationale a par exemple permis de comprendre et d’anticiper les fausses informations qui circulaient de pays en pays pendant la pandémie de la COVID.  

Les derniers acteurs de la catégorie sont les soutiens qui vont aussi faire en sorte de ‘connecter’ les fact-checkers. Ils organisent des initiatives collaboratives comme De Facto en France, une initiative regroupe des articles de vérifications de plusieurs médias/fact-checkers français reconnus.
Ils font remonter des informations de tous les fact-checkers qui sont partenaires pour réaliser des rapports et mieux comprendre les activités de désinformation à l’échelle internationale.  

Pour faciliter les actions de ces groupes de fact-checking, il y a des chercheurs, des fournisseurs de solutions et des financeurs.  

Ils facilitent la lutte contre la désinformation 

Si elles sont réputées pour être les vecteurs de la désinformation, elles se doivent d’aider à la combattre. Les plateformes font parties des financeurs et des fournisseurs d’outils pour lutter contre les formes de publications de fausses informations. 

Cela ne va pas toujours de soi quand on suit les évènements côté Twitter ou Facebook par exemple mais il y a un investissement de certaines de ces plateformes notamment dans le Code of practice de la désinformation créé par la commission européenne en 2018 et mis à jour en juin 2022. Dans ce code ces plateformes s’engagent par exemple à travailler sur la monétisation des contenus. Notamment pour que ceux proposant des contenus faux ne soient pas encouragés. 

De leur côté les chercheurs participent à beaucoup de projets pour créer de nouveaux outils qui peuvent aider à la lutte contre la désinformation. On peut citer l’un des outils les plus utilisés par les fact-checkers/medias : l’extension Vera.ai, un véritable couteau suisse de la vérification. Plusieurs équipes de chercheurs travaillent dessus et le résultat est concret pour la population de la lutte contre la désinformation. Des images aux posts publiés sur les réseaux sociaux et leur viralité cet outil les aide au quotidien dans leurs enquêtes de vérification. 

 

Les derniers sont fournisseurs de solutions qui sont des entreprises qui vendent leurs produits sur étagère ou qui mettent des outils gratuits à dispositions des professionnels.
Il y a un mélange entre les outils payants et gratuits et beaucoup de possibilités gratuites s’offrent aux fact-checkers/Medias grâce au monde de l’open source. En général des passionnés qui créént des programmes et les mettent à disposition gratuitement à tous sur le web. Parmi les outils très pratiques, on trouve par exemple Wayback Machine qui permet de retrouver des pages archivées disparues d’internet. 

Pour créer ces outils des financeurs lancent régulièrement des appels à projets. Ce sont des fondations, des associations, des organes gouvernementaux pour la recherche ou encore la commission européenne. Ils permettent à des projets concrets de lutte contre la désinformation de se développer. Des projets d’éducation aux médias, des projets de créations d’outils, des projets de mapping de la désinformation pour mieux la comprendre et la contrer.

Conclusion 

Ce milieu est un monde complet mais pas si complexe à comprendre.  

Si vous me demandez ce qu’il y a de plus important à retenir je dirais : « Soyez ouvert d’esprit mais pas trop naïfs. Soyez curieux et écoutez tout le monde. Informez-vous un peu partout et n’oubliez pas de recouper. Laissez un peu tomber le numérique et lisez du papier tranquillement à l’ombre d’un arbre sans stress des notifications constantes 😉 et n’oubliez jamais que vous avez un libre arbitre et un bon sens naturel qui sont de bons conseils. Personne ne pourra vous enlever que votre vérité constitue votre monde. À vous de voir dans quel monde vous voulez vivre. Personnellement, j’appartiens à ceux qui pensent que la terre n’est pas plate. » 

➡️ Retrouvez l’étude complète (en anglais) ici 

Liens vagabonds : IA, la querelle des Anciens et des Modernes

À RETENIR CETTE SEMAINE

IA, entre ombres et lumières – Lundi, Geoffrey Hinton, “le parrain de l’intelligence artificielle”, a annoncé sa démission de Google. Le chercheur, dont les travaux sur le Deep Learning ont ouvert la voie aux « Large Language Models” comme ChatGPT est inquiet. Mais tous les scientifiques ne partagent pas sa vision du futur. Il pointe plusieurs dangers : voir la machine dépasser son créateur ; les suppressions d’emplois s’accélérer (IBM a déclaré mettre en pause 7 800 recrutements) ; les “robots tueurs” devenir une réalité ; ou encore la désinformation menacer la démocratie. Son propos rejoint celui de la lettre ouverte qui appelait, en mars dernier, à faire une “pause” dans la recherche sur l’IA en raison des “risques pour la société et l’humanité”.

Mais, “ce n’est pas parce qu’une machine sera superintelligente qu’elle voudra automatiquement dominer l’humanitéa réagi Yann LeCun. Le lauréat du prix Turing en 2019 (aux côtés… de Geoffrey Hinton et de Yoshua Bengio), Chief AI Scientist de Meta, critique une vision “obscurantiste”. Il reste convaincu que l’IA “peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières


Au-delà des oppositions simplistes (que les progrès techniques ont toujours suscité), une troisième voie est possible, selon des chercheurs du Distributed AI Research Institute. L’urgence? Se pencher sur “l’exploitation des travailleurs” (le premier syndicat a vu le jour lundi au Kenya) qui entraînent les IA, le “pillage de données” qui nourrissent ces systèmes, “l’explosion des faux contenus”, et freiner la “concentration des pouvoirs”. Yoshua Bengio l’affirme : “Nous devons ralentir et réguler ! “

L’AI Act est déjà en discussion à Bruxelles. Outre-Atlantique, la Maison Blanche a réuni jeudi Sam Altman (OpenAI), Satya Nadella (Microsoft), Sundar Pichai (Google) et Dario Amodei (Anthropic), autour de Joe Biden, pour une discussion « franche » sur les risques liés à la technologie. Pas d’intelligence artificielle sans intelligence collective. Il faudra faire confiance au progrès, sur le modèle du vieux rêve des débuts du Web, dont on vient de fêter les 30 ans, en prônant un système d’IA “open source”. Et si c’était finalement la solution d’un futur souhaitable?


CETTE SEMAINE EN FRANCE

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

[chartr]

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ

DISRUPTION, DISLOCATION, MONDIALISATION

DONNÉES, CONFIANCE, LIBERTÉ DE LA PRESSE, DÉSINFORMATION

LÉGISLATION, RÉGLEMENTATION

JOURNALISME

STORYTELLING, NOUVEAUX FORMATS

ENVIRONNEMENT 

RÉSEAUX SOCIAUX, MESSAGERIES, APPS


STREAMING, OTT, SVOD

INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION

MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ

OUTILS

 

ES avec Kati Bremme, Myriam Hammad et Erwan Le Gal

 

Liens vagabonds : Résultats trimestriels des GAFAM, Microsoft surfe sur la vague ChatGPT

À RETENIR CETTE SEMAINE

L’IA bénéfique – Cette semaine, Alphabet, Microsoft et Meta ont annoncé une croissance de leurs revenus, portés par leurs ambitions et investissements dans l’intelligence artificielle. Après une année 2022 compliquée, Meta a annoncé des résultats supérieurs aux attentes. Ses revenus au premier trimestre ont progressé de 3% sur un an, à 28,6MDS de dollars. Le nombre d’utilisateurs dans le monde continue d’augmenter : plus de 3MDS de personnes utilisent désormais les applications Facebook, Messenger, WhatsApp ou Instagram au moins une fois par jour. Cependant, Reality Labs, sa branche consacrée à la construction du « métavers », apparaît en très mauvaise posture : elle a perdu 3,99MDS de dollars en trois mois (13,7MDS de dollars au total en 2022). 

Bien qu’en hausse de 3%, les revenus d’Alphabet se tassent pour le deuxième trimestre d’affilée. Du jamais vu depuis les débuts du géant de la recherche en ligne : les activités publicitaires de Google sont aujourd’hui clairement menacées par le retard pris dans l’IA. YouTube subit la concurrence féroce de TikTok et la recherche sur Google fait face aux défis les plus sérieux qu’il ait rencontrés ces dernières années. A l’inverse, Microsoft bénéficie d’un élan favorable lié à ses investissements dans OpenAI, et aux résultats de sa branche cloud, qui représente désormais plus de la moitié de son chiffre d’affaires. L’intégration de ChatGPT à Bing attire de nouveaux utilisateurs sur le moteur recherche qui est passé de ringard à cool. L’entreprise enregistre une progression de son chiffre d’affaires de 7% sur un an, et a engrangé plus de 16MDS d’euros de bénéfices.

La bataille de l’IA ne fait que commencer. Google essaie de contrer la popularité de ChatGPT avec sa propre alternative, le chatbot conversationnel Bard, aux compétences encore limitées.  L’innovation dans l’IA sera l’avantage concurrentiel clé entre GAFAM dans les prochains mois. Le mot “IA” a ainsi été mentionné 50 fois par Alphabet dans sa conférence de presse, 49 fois par Meta et 46 fois par Microsoft

CETTE SEMAINE EN FRANCE

3 CHIFFRES

245 000 Le nombre de téléchargements de l’alternative à Twitter soutenue par Jack Dorsey, Bluesky. [Time]

21 000 Le nombre d’employés que Meta a licenciés au cours des six derniers mois, réduisant ainsi ses effectifs de plus de 20 %. [Silicon Valley Journal]

2,5 milliards de dollars Le montant que va investir Netflix dans la production en Corée du Sud [Axios]

LE GRAPHIQUE DE LA SEMAINE

Infographie: Mobile : plus de 3 heures passées par jour sur les applications | Statista

Vous trouverez plus d’infographies sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ

Rapport – Des institutions aux individus : comment les Américains se tournent désormais vers les personnalités publiques pour s’informer [Gallup & Knight Foundation]

DISRUPTION, DISLOCATION, MONDIALISATION

LÉGISLATION, RÉGLEMENTATION

JOURNALISME

STORYTELLING, NOUVEAUX FORMATS

ENVIRONNEMENT 

RÉSEAUX SOCIAUX, MESSAGERIES, APPS

STREAMING, OTT, SVOD

MÉTAVERS, IMMERSION, 360, VR, AR

INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION

MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ

OUTILS

 

ES avec Kati Bremme, Myriam Hammad et Erwan Le Gal

 

Liens vagabonds :’ Innovate or die’, Netflix a des problèmes de vieille télé

A RETENIR CETTE SEMAINE

Netflix se fait vieille – Cette semaine, Netflix a communiqué des résultats en demi-teinte. Certes, la plateforme de streaming aux 232,5M d’utilisateurs dans le monde a gagné au premier trimestre 1,75 M nouveaux abonnés (principalement en Asie). Oui, elle a enregistré un chiffre d’affaires de 8,16 MDS de dollars, conforme aux prévisions. Mais la page de l’hypercroissance semble bel et bien tournée. L’annonce le même jour de l’arrêt prochain de la location de DVDs par courrier (le service révolutionnaire à l’origine de la création de Netflix, en 1998, avant le lancement de la SVoD en 2007) appelle une comparaison avec la situation actuelle: Netflix a cessé d’innover. Alors Wall Street s’impatiente. 

D’autant plus que dans un paysage de la vidéo à la demande de plus en plus compétitif et fragmenté, la société de Los Gatos fait actuellement face à d’autres vents mauvais : la menace d’une grève des scénaristes à Hollywood ; des débuts ratés dans le livestreaming ; le développement rapide de la FAST TV ; et surtout une concurrence accrue avec le second écran et les services de divertissement en général. Désormais, les adultes américains passeraient en effet plus de cinquante-huit minutes par jour en moyenne sur TikTok, juste derrière Netflix (62 minutes), et loin devant YouTube (48,7 minutes)!

En réaction, la plateforme a commencé à expérimenter des solutions pour diversifier ses revenus : une formule d’abonnement moins chère, supportée par la publicité ou la fin programmée (et retardée) de la possibilité de partager son mot de passe. Mais si elle veut conserver son avance, Netflix est condamnée à se réinventer et à imaginer le prochain “service de livraison de DVDs par courrier”. C’est-à-dire une innovation technologique et interne de rupture. Comme aimait le rappeler Steve Jobs, « innovation distinguishes between a leader, and a follower.« 

BUZZFEED NEWS DISPARAIT

La fin de l’ère Buzzfeed dans l’info numérique : l’ancienne façon de la concevoir basée sur du texte distribué sur les réseaux sociaux est révolue. Ces derniers ne financent pas des rédactions. Et la valeur ajoutée de l’info comme le contact direct avec l’internaute se sont finalement avérés plus importants que la course au trafic.


CETTE SEMAINE EN FRANCE

3 CHIFFRES

787,5 millions de dollars – c’est le montant historique que Fox News a accepté de payer dans l’affaire de diffamation des machines à voter Dominion Voting Systems [CNN]

700 000 dollars par jour coûterait le fonctionnement de ChatGPT à Microsoft [Business Insider]

Plus de 80 % des Français s’inquiètent des dérives de l’intelligence artificielle selon une étude publiée jeudi 20 avril par le groupe WPP [L’ADN]

 

LE GRAPHIQUE DE LA SEMAINE

Via Electronics Hub

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ

Snapchat a annoncé jeudi déployer #MyAI auprès de ses 750M d’utilisateurs .

Plus qu’un chatbot, un véritable « ami virtuel », basé sur #ChatGPT [Thread #IA 🔽]

GAFA / BATX

DONNÉES, CONFIANCE, LIBERTÉ DE LA PRESSE, DÉSINFORMATION

LÉGISLATION, RÉGLEMENTATION

JOURNALISME

STORYTELLING, NOUVEAUX FORMATS

Expérience : et si on créait un réseau de sites d’information entièrement gérés par une IA?

ENVIRONNEMENT 

RÉSEAUX SOCIAUX, MESSAGERIES, APPS

Elon Musk, de son côté, se réserve une double certification :

Et des abonnements payants…

AUDIO, PODCAST, BORNES

INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION

MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ

 

ES avec Kati Bremme, Erwan Le Gal et Myriam Hammad 

 

Intelligences Artificielles génératives et désinformation : bienvenue en post-vérité ?

La désinformation est aussi vieille que l’information. A mesure que l’ère numérique se développe, la désinformation et les fausses nouvelles trouvent de nouveaux canaux de distribution. On pourrait alors se contenter de dire que les récentes avancées technologiques en IA générative (rendues possibles grâce aux capacités exponentielles de calcul des machines et aux données que nous avons distribuées sur Internet sur les vingt dernières années) renforcent juste un problème qui était connu depuis longtemps. Mais cette fois-ci, les choses sont différentes.  

Kati Bremme, Directrice de l’Innovation France Télévisions et Rédactrice en chef de Méta-Media

« Il y a en effet plus d’art nécessaire pour convaincre le peuple d’une vérité salutaire que d’un mensonge salutaire. »
Jonathan Swift, De l’Art du Mensonge Politique

Il y a dix ans, l’IA avait du mal à faire la différence entre un chat et un chien. Aujourd’hui, elle peut non seulement classifier, mais aussi générer des images détaillées de chats et de chiens à partir d’un simple texte. Les modèles s’améliorent rapidement et se démocratisent. Tout le monde peut accéder à des outils en ligne et fabriquer des ‘faux’. Des interfaces utilisateur anthropomorphiques admirablement ergonomiques cachent un formidable potentiel malveillant. A tel point que l’on se demandera bientôt ce que veut encore dire « faux » dans un océan de contenus générés (et distribués) par des IA, où la vérité est devenue depuis longtemps « un objet de discussion », pour résumer (très grossièrement) Hannah Arendt.

Face aux IA génératives et la massification de vrais et faux, nous sommes passés de l’exaltation à la peur. On joue désormais sur les émotions. Allons-nous passer directement de la bulle de filtre des réseaux sociaux au village virtuel généré par l’IA qui pollue encore un peu plus l’écosystème de l’information ? Sam Altman, le PDG d’OpenAI, reconnaît lui-même être “inquiet que ces modèles puissent être utilisés pour une désinformation à grande échelle« .  

Des personnalités de la Silicon Valley, dont Elon Musk (qui veut nous vendre aujourd’hui un TruthGPT), Steve Wozniak, cofondateur d’Apple, et Andrew Yang, ancien candidat à la présidence, ont signé une pétition visant à mettre un terme au développement d’une Intelligence Artificielle plus puissante que GPT-4. La pétition compte plus de 30.000 signataires et cite les risques sociétaux à grande échelle comme son objectif fondateur. « Les systèmes dotés d’une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d’Intelligence Artificielle« . On ne pourra pas arrêter le progrès, mais qu’en est-il vraiment du potentiel dangereux de cette avancée technologique au service de la désinformation ?

Article The Atlantic : AI Is Like … Nuclear Weapons? mars 2023

D’où viennent les contenus générés ? A la recherche du sens perdu

On pourrait résumer de façon très réduite que ChatGPT et Midjourney sont de gigantesques moteurs d’autocomplétion de tout (ou presque) notre savoir et de notre créativité mis à disposition ces vingt dernières années sur l’espace de partage Internet, restitués dans un gigantesque puzzle utilisant les éléments les plus probables. Pour son apprentissage profond sur d’énormes corpus de texte, OpenAI se base sur les réseaux neuronaux, plus précisément un RNN, « Recursive Neural Network » (inventés dans les années 1940), qui peuvent être considérés comme des idéalisations de la manière dont nos cerveaux semblent fonctionner. On ajoute à cela la notion de ‘Transformer‘ – GPT signifiant Generative Pre-trained Transformer.

Transformer est une architecture de réseau neuronal qui facilite l’attention parallèle et permet d’apprendre (tout seul) les dépendances à long terme. Pour la compréhension de notre langage naturel, un paragraphe est découpé en morceaux, phrases, mots, en vecteurs de texte. Chaque morceau est passé, plusieurs fois si besoin, par la même fonction (recursive). Ainsi, chaque morceau est identifié, vis à vis de ses propres dépendances, mais aussi, vis à vis de l’information précédente, et donc de son contexte. Pour les images, le fonctionnement est approximativement le même, elles peuvent être découpées en séquences de vecteurs d’image, et reconstituées par contexte. On n’obtient pas une représentation directe du monde extérieur, mais on peut en capturer certains aspects.

En conséquence, le modèle est prédisposé à nous proposer une réponse basée sur des statistiques et des probabilités, plutôt que sur un prétendu raisonnement. L’auteur Neil Gaiman interprète ce mode de fonctionnement de la façon suivante : « ChatGPT ne vous donne pas d’informations. Il vous donne des phrases en forme d’information. » Ou comme le formule Gary Marcus : “Il n’y a aucune intention de créer de la désinformation – mais également aucune capacité à l’éviter, parce que fondamentalement, GPT est un modèle de la façon dont les mots se rapportent les uns aux autres, et non un modèle de la façon dont le langage pourrait se rapporter au monde perçu. »

L’adoption très rapide de ChatGPT repose sur une avancée extraordinaire dans l’UI et l’UX du traitement du langage naturel (y compris dans différentes langues, même si la maîtrise de ces langues varie en fonction de la quantité et de la qualité des données d’apprentissage disponibles pour chaque langue) et une utilité évidente. Le traitement du langage naturel et la restitution (grammaticalement parfaite) en langage naturel nous poussent à faire confiance au contenu fabriqué par l’IA parce que nous voyons qu’il a été créé pour nous à l’instant. On aurait envie de lui attribuer une intention, voire même la capacité de raisonner intelligemment. Il n’en est rien.

« Les affirmations selon lesquelles les outils d’IA générative produiront un contenu exact doivent être traitées avec une grande prudence. Il n’y a rien d’inhérent à la technologie qui garantisse l’exactitude des informations« , a déclaré Kate Wilkinson, chef de produit chez Full Fact, une organisation de fact-checking basée à Londres, qui met en œuvre l’IA. « À ce stade, il est trop tôt pour dire exactement comment cela évoluera, mais il s’agit clairement d’un changement significatif dans l’accessibilité générale d’un ensemble d’outils aussi puissants à un groupe d’utilisateurs aussi large« .

L’ubérisation de la création de contenus

Les larges modèles de langage, de GPT-4 d’OpenAI à LlaMa de Meta, en passant par LaMDA (Google), Jurrasic-2 (de la startup israëlienne AI21), Claude (Anthropic) ou encore ERNIE 3.0 de Baidu, sont alimentés autant par du vrai que du faux. L’ensemble de données utilisé pour former ces IA contiendrait des milliards d’images récupérées sur l’internet, des millions de livres électroniques piratés, l’intégralité des travaux de 16 années du Parlement européen et l’ensemble de Wikipédia anglais. OpenAI ne révèle pas les sources avec lesquelles ChatGPT a été entraîné (je cite ChatGPT “pour des raisons de propriété intellectuelle« ). Dans une récente étude, les chercheurs Jennifer Haase et Paul Hanel ont comparé les idées générées par les humains et celles générées par l’IA dans six chatbots, et ont indiqué que « nous n’avons trouvé aucune différence qualitative entre la créativité générée par l’IA et celle générée par l’homme. » Google donne d’ailleurs la même note pour du contenu généré par l’IA ou par des humains à partir du moment où le contenu est de qualité.

Les imperfections sont propres à l’homme, ce qui rend ces dispositifs presque attachants en les assimilant à une manière de penser humaine et imparfaite : tout le contraire de la rigueur des calculs mathématiques. Toutefois, il est crucial de prendre en compte les usages excessifs du modèle. Le principal écart entre les êtres humains et GPT-4 réside dans le fait que notre pensée s’appuie sur des références. ChatGPT, quant à lui, ne tient pas compte des références, il les oublie.

L’automatisation de la création de contenu risque d’inonder les médias sociaux de fausses informations. « Les modèles linguistiques sont un outil naturel pour les propagandistes« , a déclaré Josh Goldstein, chercheur au Centre pour la sécurité et les technologies émergentes de l’université de Georgetown. Il est coauteur d’un article qui examine comment ces outils alimentés par l’IA pourraient être utilisés à mauvais escient dans le cadre d’opérations d’influence. Aux USA, l’IA avancée comme ChatGPT, DALL-E, et la technologie de clonage vocal suscitent déjà des craintes pour les élections de 2024. Une ferme de trolls pourrait avoir besoin de moins de travailleurs et des campagnes de propagande à grande échelle pourraient être à la portée d’une plus grande variété d’acteurs malveillants, qui profiteront de l’effet Brandolini déjà bien connu des réseaux sociaux :

« la quantité d’énergie nécessaire pour réfuter des sottises […] est supérieure d’un ordre de grandeur à celle nécessaire pour les produire« …

Un écrivain polyglotte très efficace mais limité – la génération de texte

Contrairement à Midjourney et ses images du pape en doudoune, ChatGPT n’est pas seulement un outil qui aide des tiers à fabriquer des faux, il les génère lui-même. Les nouveaux outils d’IA générative tels que ChatGPT d’OpenAI, BingGPT de Microsoft et Bard de Google sont en effet capables de générer un vaste flot de fausses informations en ligne. Alphabet, la société mère de Google, s’était retrouvée dans l’embarras (et a vu son cours de bourse baisser de 100 milliards de dollars) après que son outil Bard a mal interprété un fait historique dans une vidéo de marketing destinée à vanter la sophistication de l’outil. Entre-temps, OpenAI, avec ChatGPT, est devenue la métonymie d’IA générative. L’entreprise, qui n’a plus d’Open Source que le nom, pourrait bientôt se retrouver en position de quasi monopole avec une technologie que certains comparent à l’invention de l’imprimerie, l’avènement de l’ordinateur personnel ou encore du smartphone.

ChatGPT peut converser sur plus ou moins tout, mais est beaucoup moins bavard quand il s’agit de révéler ses sources. L’outil le plus rapidement adopté du monde est une combinaison de plusieurs éléments : les LLM, un chatbot, et des filtres. Il ne remplacera cependant pas de sitôt les moteurs de recherche, ses données s’arrêtant à septembre 2021 (y compris dans la version payante), et le système ne continuant pas d’apprendre. Bing ajoute des références avec GPT-4, connecté à Internet, mais ces références n’existent pas toujours. Le chatbot, même s’il nous ressemble beaucoup, ne peut pas prendre de mesures indépendantes pour identifier et contrer les fausses nouvelles et la désinformation, ce qui signifie qu’il n’est pas en mesure d’empêcher la diffusion de ce type de contenu.

ChatGPT a généré un argument cohérent reliant sans fondement l’apparition d’une maladie liée au vapotage aux États-Unis aux origines du virus responsable du COVID-19, une affirmation qui semble provenir d’un porte-parole du ministère chinois des Affaires étrangères en août 2021. (Capture d’écran via NewsGuard)

Quand ChatGPT n’avait pas encore la capacité de naviguer sur Internet, il lui arrivait d’inventer des résumés lorsqu’on lui présentait des URLs d’articles. Il lisait l’URL, qui contient souvent le titre de l’article, et se lançait dans une dissertation sur le sujet.

NewsGuard a publié à peine une semaine après le lancement de GPT-4 un rapport qui décrit la nouvelle intelligence artificielle d’OpenAI comme “un désastre en puissance« , qui amalgame connaissance scientifique, opinions et infox sans aucune référence. Pour mesurer la capacité de l’algorithme d’intelligence artificielle à produire des infox, la startup américaine a administré à ChatGPT des questions s’appuyant sur de faux récits répandus sur le web. Le résultat est probant comme le souligne Chine Labbé, rédactrice en chef Europe :

Dans 80% des cas, le robot a relayé avec éloquence des affirmations fausses et trompeuses sur des sujets importants de l’actualité, dont le COVID-19, l’Ukraine et les fusillades dans des écoles aux Etats-Unis […] Pour une personne qui ne connaît pas les questions ou sujets couverts par ce contenu, les résultats pourraient facilement passer pour légitimes, voire même faire autorité ».

NewsGuard a depuis présenté un outil pour former des services d’Intelligence Artificielle générative pour endiguer la diffusion de fausses informations. Microsoft, qui soutient NewsGuard, accorde déjà des licences aux données de NewsGuard et les utilise pour BingGPT.

Des créations hyperréalistes à cinq doigts – la génération d’images

Une image générée par l’IA n’est pas une fake news, à partir du moment où son caractère artificiel est déclaré. En revanche, quand elle est sortie de son contexte, la situation se complique. Le générateur d’images par IA Midjourney a déjà mis fin aux essais gratuits de son service. Submergé par les demandes, l’accès gratuit au logiciel a été suspendu depuis le 28 mars (qui coïncide avec l’image du pape en doudoune).

DALL-E, l’IA générative d’images d’Open AI, est capable de générer des images à partir de descriptions textuelles. L’outil de génération d’images (sorti au grand public avant ChatGPT) utilise également une architecture de type Transformer, similaire à celle des LLM, mais est spécifiquement entraîné pour transformer des entrées textuelles en images cohérentes (et créatives). La frontière entre la réalité et la fiction s’estompe donc aussi dans les images. L’un des exemples les plus perturbants est celui des utilisateurs de Reddit qui inventent des événements qui n’ont jamais eu lieu. Les images ci-dessous de Justine Moore semblent réelles et sont censées provenir du grand tremblement de terre de Cascadia qui a dévasté l’Oregon en 2001. Mais ce tremblement de terre n’a jamais eu lieu : cet événement n’existe pas. Il s’agit d’images générées par l’IA, utilisées en ligne pour diffuser l’histoire d’une catastrophe naturelle complètement fabriquée. Lorsque l’on connaît le fonctionnement des réseaux sociaux qui mettent en avant des contenus sensationnels, il est facile de saisir le potentiel de désinformation détenu par des individus désespérés en quête de notoriété.

En mars, une (fausse) image du pape François en doudoune blanche est devenue virale. Buzzfeed News l’a qualifiée de « premier cas de désinformation de masse par l’IA » et a retrouvé l’auteur de l’image, Pablo Xavier, de Chicago. Pablo Xavier a révélé qu’il était sous l’emprise de champignons hallucinogènes lorsqu’il a décidé qu’il serait amusant d’habiller le pape d’un manteau Balenciaga et de partager l’image sur le compte Reddit dédié à Midjourney. Dans ce contexte clairement défini, il n’y a pas de doute qu’il s’agissait d’un exercice divertissant. En revanche, l’image a ensuite été partagée sur d’autres réseaux sociaux hors contexte, et en a trompé plus d’un(e).

Mais il y a eu récemment des exemples plus troublants. Lorsque la nouvelle de l’arrestation possible de Donald Trump a été annoncée, des images d’IA représentant l’arrestation de Donald Trump sont devenues virales. De nombreuses personnes ont cru qu’il s’agissait de vraies images, confondant fabrication et information.

Avant, on pouvait facilement reconnaître une image fabriquée par l’IA à l’œil nu. Aujourd’hui l’exercice devient de plus en plus compliqué. Suite à la diffusion des images de la fausse arrestation de Donald Trump, Midjourney a tenté d’imposer des règles. La plateforme a exclu le journaliste britannique qui avait élaboré des photos de la pseudo-arrestation de Donald Trump. 

Quelques limites existent cependant encore pour détecter un faux (mais celles-ci seront vite estompées avec l’avancée de l’entraînement, cf. l’image d’illustration de cet article). L’IA de génération des images a les mêmes limites de compréhension du monde que celle des textes : L’IA est formée pour synthétiser les fichiers qu’elle consulte. Elle excelle dans la génération d’images similaires à celles qu’elle trouve en ligne, mais elle ne comprend pas la structure sous-jacente des objets et des personnes. Cela se traduit par des corps adoptant des positions relativement étranges. Un peu moins accessible que la génération de faux textes “dans le style de », la génération d’images nécessite souvent encore une intervention à posteriori (via Photoshop) notamment sur la partie que l’IA ne sait pas gérer sur les images : le texte.

Le réalisme bluffant de ces scènes artificielles pourra à terme discréditer les vraies photos.  Le niveau de réalisme des photos ainsi produit induit un effet collatéral préoccupant : leur extrême viralité sur les réseaux sociaux, canaux de diffusion de prédilection de l’infox. Les “coches bleues” de Twitter signalaient auparavant l’authenticité de l’auteur. Désormais, elles aident des colporteurs d’infox à paraître fiables. Les clichés inédits évoqués ci-dessus ont effectivement circulé à une vitesse fulgurante sur lesdits réseaux sociaux.

L’IA générative peut produire des images manipulées très réalistes, contribuant à la propagation de la désinformation, dénaturer les personnes, les événements ou les situations, entraînant une perception déformée de la réalité. Ces images peuvent être utilisées pour créer de faux profils à des fins malveillantes, telles que les escroqueries et les usurpations d’identité, et l’IA générative peut perpétuer les stéréotypes et les biais présents dans les données d’entraînement.

Une voix mensonge –  la génération de la voix

La 12 avril 2023, Radio France a consacré une journée entière à l’Intelligence Artificielle sur son antenne France Inter. Entre interviews d’experts réels, on pouvait y entendre Martin Luther King ou encore Barack Obama dans des prises de parole sur l’actualité. Pourquoi alors encore s’embêter à chercher à obtenir de vrais commentaires par des personnalités publiques sur tel ou tel sujet si on peut les fabriquer en quelques secondes ?

Pour les créateurs de fausses vidéos et de faux sons, la technologie des GPT pourrait être utilisée pour créer des versions plus réalistes de personnalités politiques et culturelles connues, capables de parler d’une manière qui imite mieux ces personnes. Il peut également être utilisé pour créer plus rapidement et à moindre coût une armée de personnes qui n’existent pas, de faux acteurs capables de délivrer couramment des messages dans plusieurs langues. Autrefois basées sur une manipulation du replay d’une voix existante, la voix peut aujourd’hui être créé entièrement de façon synthétique. Le deepfake audio basé sur l’imitation est un moyen de transformer un discours original d’un locuteur – l’original – pour qu’il ressemble à celui d’un autre locuteur – la cible – sur la base de l’imitation.

Au début de l’année, Microsoft a dévoilé un nouveau système d’intelligence artificielle capable de recréer la voix d’une personne après l’avoir écoutée parler pendant seulement trois secondes, VALL-EVALL-E est un modèle de langage à codage neuronal dans lequel l’intelligence artificielle identifie les mots et utilise ses algorithmes pour construire des formes d’ondes qui ressemblent à celles du locuteur, notamment en conservant son timbre et son ton émotionnel. Cette technologie permet également de créer des assistants numériques plus personnalisés et des services de synthèse vocale et de traduction vocale à la sonorité naturelle.

Egalement en janvier, des internautes ont détourné le service de clonage de voix ElevenLabs pour créer de faux enregistrements audio imitant les voix de célébrités tenant des propos racistes, homophobes et violents. Dans l’un de ces montages, Emma Watson, actrice vedette de la saga Harry Potter, lit des extraits de Mein Kampf d’Adolph Hitler. Dans un autre Ben Shapiro, un célèbre animateur radio américain connu pour ses positions très conservatrices, fait des remarques racistes sur Alexandria Ocasio-Cortez, élue du parti démocrate. D’autres deepfake audio impliquant les réalisateurs Quentin Tarantino et George Lucas ou l’animateur américain Joe Rogan ont été repérés sur 4chan.

L’IA peut désormais reproduire la voix de n’importe qui. Le journaliste de Vice, Joseph Cox, a utilisé une technologie d’IA similaire à ElevenLabs pour accéder à un compte bancaire grâce à une version de sa propre voix reproduite par l’IA. L’audio généré par l’IA peut imiter des voix, ce qui peut entraîner des fraudes, des usurpations d’identité et de la désinformation, qui manipulent les auditeurs. Des escrocs utilisent déjà l’intelligence artificielle pour se faire passer pour des membres de la famille en détresse. Au-delà de la désinformation, le potentiel criminel de l’IA générative vocale est infini.

Bientôt des deepfakes industrialisés ? – la génération de vidéos

Grâce à l’IA générative, dans un futur proche, nous pourrons apprécier des films modernes mettant en scène Marilyn Monroe et assister à un concert des Beatles dans notre propre salon. L’IA permet à Andy Warhol et Anthony Bordain de parler d’outre-tombe, promet à Tom Hanks de rester jeune pour toujours et nous permet de regarder des imitations de Kim Kardashian, Jay Z et Greta Thunberg se disputer au sujet de l’entretien du jardin dans une comédie télévisée britannique absurde. Pour donner un exemple de ce qui est déjà possible, en septembre 2022, la société Metaphysics (à l’origine de @deeptomcruise) a utilisé un deepfake pour faire jouer Elvis dans l’émission America’s Got Talent. Une façon de refaire l’histoire et de brouiller les pistes entre faits et faux. Des dizaines de startups utilisent l’IA générative pour créer des personnes virtuelles rayonnantes et heureuses, à des fins ludiques et lucratives. Les grands modèles de langage comme GPT ajoutent une nouvelle dimension complexe.

Fin 2022, la société Graphika a observé des cas limités de Spamouflage, une opération d’influence (OI) pro-chinoise, promouvant un contenu qui comprenait des séquences vidéo de personnes fictives presque certainement créées à l’aide de techniques d’intelligence artificielle. Alors qu’une série d’acteurs des OI utilisent de plus en plus d’images générées par l’IA ou de médias manipulés dans leurs campagnes, c’est la première fois que l’on avait observé une opération menée par un État qui promeut des séquences vidéo de personnes fictives générées par l’IA. Lors d’un entretien avec Sequoia, Jensen Huang, PDG de NVIDIA, a déclaré :

« Chaque pixel sera bientôt généré. Pas rendu : généré« .

Des startups comme Runway, Hour One, Synthesia, Uneeq et D-ID avancent rapidement dans la génération de vidéos. Là encore, la technologie de création de faux qui était auparavent réservé à des spécialistes devient accessible à tout le monde.  « Il suffit maintenant d’avoir une idée de contenu », explique Natalie Monbiot, responsable de la stratégie chez Hour One, startup basée à Tel-Aviv qui utilise la technologie deepfake pour les vidéos d’apprentissage en ligne, les présentations commerciales, les rapports d’actualité et les publicités. L’entreprise a ajouté une nouvelle fonctionnalité intégrant GPT. Désormais, les utilisateurs n’ont plus qu’à choisir parmi les dizaines d’avatars et de voix créés par des acteurs, et à taper un message pour obtenir une tête parlante plus vraie que nature.

Comme certains de ses concurrents, Hour One permet également aux utilisateurs de numériser leurs propres visages et voix. La société a acquis les droits d’utilisation de centaines d’acteurs, dont les têtes transformées par l’IA n’apparaissent que dans les vidéos qui respectent ses accords contractuels et les conditions d’utilisation du service : « Jamais de contenu illégal, contraire à l’éthique, conflictuel, religieux, politique ou sexuel« , peut-on lire en petits caractères. Pour les personnalités connues, l’utilisation est limitée à un « usage personnellement approuvé« . La société place aussi un filigrane « AV » au bas de ses vidéos, pour « Altered Visuals« .


L’IA générative, capable de créer des vidéos deepfakes convaincants, facilite la manipulation de personnalités publiques et d’événements. Ces vidéos produites artificiellement peuvent contribuer à des campagnes de désinformation, nuire à la confiance envers les sources fiables et influencer potentiellement l’opinion publique.

Et l’IA audiovisuelle « apprend » rapidement. La combinaison de modèles de langage, de logiciels de reconnaissance faciale et de synthèse vocale fera du contrôle de l’image une relique du passé, a averti le groupe américain Eurasia Group dans son récent rapport annuel sur les risques. Les analystes géopolitiques ont classé la désinformation par l’IA au troisième rang des risques mondiaux en 2023, juste derrière les menaces posées par la Chine et la Russie. La technologie des deepfakes vidéo et audio s’améliore de jour en jour. Combinée à un script convaincant généré par ChatGPT, ce n’est qu’une question de temps avant que les deepfakes ne passent pour des réalités.

Eurasia : Weapons of Mass Disruption

Comment contenir les abus ? Modération, régulation ? Education !

Faudrait-il réserver ces outils à une élite éclairée pour éviter les abus ? Doit-on légiférer pour imposer à tous les outils de ChatGPT à Midjourney5 un filigrane “Créé par l’IA » ?  Deux cent millions de personnes utilisent ChatGPT, moins de 1% d’entre eux comprennent son fonctionnement. Comme pour chaque rupture technologique, il est impossible d’appliquer une loi à l’échelle mondiale. La Chine était précurseure dans la réglementation des deepfakes, en Europe on essaie d’adapter l’AI Act à la disruption technologique de l’IA générative.

En attendant, chaque plateforme se lance dans sa propre gestion de ces problématiques. Entre-elles la Red Team, chez OpenAI et l’ARC, un organisme indépendant qui sont chargés d’évaluer les scénarios catastrophes qui impliqueraient le modèle GPT. Les entreprises technologiques qui lancent des outils d’IA s’efforcent de mettre en place des garde-fous pour éviter les abus, mais elles ne peuvent pas contrôler les versions Open Source. Au moins un puissant outil de langage d’IA, créé par Meta, la société mère de Facebook, a déjà fait l’objet d’une fuite en ligne et a été rapidement publié sur le forum de discussion anonyme 4chan.

Les limitations de contenu de Midjourney sont plus permissives que celles de certains services rivaux (tels que DALL-E d’OpenAI), mais plus sévères que d’autres (par exemple, Stable Diffusion). Midjourney met en œuvre une modération a priori et maintient une liste de termes proscrits (comme Xi Jinping) « en rapport avec des sujets dans divers pays, en se basant sur les réclamations d’utilisateurs de ces nations« , d’après un message de David Holz datant d’octobre 2022. Néanmoins, il ne divulgue pas l’intégralité de cette liste pour éviter les « querelles« . Comme Holz l’a mentionné : « Quasiment personne ne prend jamais connaissance de [la liste des prohibitions] à moins de chercher délibérément à provoquer un conflit, ce qui est contraire à nos règles stipulées dans les CGU [conditions générales d’utilisation]« . Toutefois, cela n’empêche pas l’usage de synonymes ou de périphrases pour esquiver les filtres.

Les réseaux sociaux, qui ont déjà échoué dans la détection de l’ancienne génération de fake news avant l’arrivée de l’IA générative tentent également de jouer un rôle d’avertissement (en laissant le travail de vérification aux utilisateurs) :

En attendant, les démiurges de l’IA générative créent le virus tout en proposant l’antidote : OpenAI a mis en ligne un outil gratuit conçu pour aider les éducateurs et d’autres personnes à déterminer si un morceau de texte particulier a été écrit par un humain ou une machine. La littératie IA et l’éducation médias à une bonne dose de critique semblent plus qu’importants.

Conclusion

Dans un village artificiel infini où la barrière entre le langage naturel et le langage informatique vient d’être abolie, comment encore faire la différence entre vrai et faux ? Que répondre à ceux qui prétendent que peu importe si c’est faux, tant que l’histoire racontée est engageante, les concerne et répond à leurs idées et valeurs, bien fondées dans leur petite bulle de filtre des réseaux sociaux, où, depuis longtemps, on met au même niveau les faits et les opinions ? Textes, images, sons – à partir du moment où l’on touche la créativité, on se pose la question de la véracité (et, des fois, de la propriété intellectuelle). On peut craindre un monde débordant d’informations erronées et dépourvu de confiance. La désinformation engendrée par des textes, images et sons générés par l’IA pourra représenter un danger croissant pour nos sociétés.

Et le vrai risque bientôt de passer pour du faux ou alors disparaître au profit de réalités apocryphes. L’une des conséquences pourrait être que tout le monde devienne (encore) plus sceptique et méfiant à l’égard des informations – vous ne pourrez littéralement pas en croire vos yeux. Ces contenus trompeurs menacent la stabilité démocratique, exacerbent les divisions et abîment encore un peu plus la confiance dans les institutions. L’éducation aux médias et la sensibilisation critique sont des éléments clés pour renforcer la résilience de la population face à ces menaces. En développant l’esprit critique, en apprenant à vérifier les sources et en comprenant le fonctionnement des technologies de l’IA, nous pourrons nous prémunir contre les dangers de la désinformation et construire une société plus informée et résiliente.

Il s’agit tout simplement de garder ses réflexes car le système peut diverger à n’importe quel moment.  Nous n’en sommes qu’au début de la première évolution de l’IA générative, et il faudra une politique réfléchie, de la modération et de l’innovation pour éviter que la désinformation générée par l’IA ne fasse des ravages. L’IA est aujourd’hui capable de prendre en compte le contexte, faisons de même pour garder notre esprit critique. Face à l’Intelligence Artificielle de plus en plus sophistiquée il faudra définitivement une bonne dose de bon sens humain.

 

Illustration de l’article : Un résultat de génération d’image par l’outil Midjourney, mars 2022 versus mars 2023, © Parker Molloy/Midjourney

Liens vagabonds : Google accélère dans la (FAST) télé

A RETENIR CETTE SEMAINE

Cette semaine, Google a annoncé accélérer dans la FAST TV. Sa plateforme de streaming Google TV intègre désormais l’accès à plus de 800 chaînes gratuites, financées par la publicité. Tandis que les plateformes de streaming payantes augmentent leurs tarifs, la free ad-supported streaming television – FAST TV (télévision gratuite en streaming, financée par la publicité) se développe. Google TV, Roku Channel, Amazon Freevee ou encore PlutoTV sont accessibles depuis un téléviseur connecté et proposent des chaînes thématiques qui diffusent de façon linéaire des programmes de flux… comme la télévision traditionnelle. 14% des Français la regardent déjà. Depuis deux semaines, les abonnés Freebox peuvent accéder à 7 chaînes thématiques lancées par le Groupe M6 (Konbini, Vice, Nouvelle Star, Zone interdite, Enquêtes Criminelles, Téléfilms et Telenovelas) et TF1 développe son offre MyTF1 Stream. 

YouTube mène également une expérimentation. Et Netflix est tenté. “Nous sommes ouverts à tous ces différents modèles qui existent actuellement et nous gardons un œil sur ce segment, bien sûr« , a déclaré Ted Sarandos. Un segment dans lequel les dépenses publicitaires devraient dépasser celles des services de câble, de diffusion ou de SVOD d’ici 2025. De façon générale, c’est tout le secteur de la diffusion, du streaming, et de la télévision qui se recompose. Aux USA, YouTube a ainsi conclu un accord avec la N.F.L. et obtenu les droits de retransmission exclusifs des matchs en direct, qui étaient historiquement diffusés chaque dimanche sur le câble. Un séisme.

CETTE SEMAINE EN FRANCE

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Source : chartr

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS / LONG READ

– Que se passerait-il si vous remplissiez une ville virtuelle d’agents intelligents?  Il s’avère… qu’ils se brossent les dents et sont très gentils les uns envers les autres. Un résultat peut-être peu excitant pour vous, mais une très bonne nouvelle pour les chercheurs qui cherchaient à reproduire des « simulacres crédibles du comportement humain ».

– L’idée était de voir s’ils pouvaient appliquer les dernières avancées des modèles d’apprentissage automatique pour produire des « agents génératifs » qui prennent en compte leurs circonstances et produisent une action réaliste en réponse.

DONNÉES, CONFIANCE, LIBERTÉ DE LA PRESSE, DÉSINFORMATION

LÉGISLATION, RÉGLEMENTATION

JOURNALISME

STORYTELLING, NOUVEAUX FORMATS

ENVIRONNEMENT 

RÉSEAUX SOCIAUX, MESSAGERIES, APPS

STREAMING, OTT, SVOD

MÉTAVERS, IMMERSION, 360, VR, AR

INTELLIGENCE ARTIFICIELLE, DATA, AUTOMATISATION

Dans une longue note au personnel ce matin, le rédacteur en chef d’Insider, Nich Carlson, indique l’expérimentation prochaine de l’IA, en voici des extraits:

MONÉTISATION, MODÈLE ÉCONOMIQUE, PUBLICITÉ

OUTILS

 

ES avec Kati Bremme, Myriam Hammad et Erwan Le Gal

« Choisissez votre journaliste » – Doit-on avoir peur des médias synthétiques ?

Cette semaine, le média Kuwait News a fait le buzz en annonçant sa potentielle présentatrice générée par intelligence artificielle et qui pourrait tenir un bulletin quotidien sur Twitter. Même s’il ne s’agit bien sûr pas des premières expériences en la matière (en Asie, on met depuis longtemps des présentateurs virtuels à l’antenne), depuis l’avènement de ChatGPT et la multiplication des fonctionnalités offertes par l’IA générative, plusieurs médias synthétiques entièrement créés par des intelligences artificielles sont apparus dans le paysage de l’information. Voici un bilan au mois d’avril 2023.

Par Myriam Hammad, MediaLab de l’Information 

« Ceci n’est pas une présentatrice »

Les présentatrices et présentateurs synthétiques : ton avatar en IA

Les présentateurs générés par des avatars en IA étaient déjà présents sur Instagram à travers des flashs d’information générés sous forme de réels. C’est par exemple un usage depuis quelques mois maintenant, répétés en particulier par le magazine Antidote

La génération de ces avatars est permise par plusieurs technologies : du text-to-voice, du text-to-video, ou du text-to-audio. Mais parfois aussi, avec la combinaison des trois et la proposition du choix d’un avatar, comme ce que propose la startup synthesia.io.

Les vidéos générées sur synthesia peuvent être le fait de paramètres pré-remplis qu’il suffit de cocher, ou bien, être plus personnalisables. D’abord en opérant une sélection parmi plus de 125 avatars, ou en générant soi-même le sien. Pour le “construire”, il suffit de s’enregistrer sur un fond vert avec un script fourni par la société durant une quinzaine de minutes. Des conseils sous formats vidéos sont donnés pour pouvoir réaliser les enregistrements humains dans les meilleures conditions et pour que la version IA en soit la plus fidèle possible. L’on peut en retrouver toutes les astuces ici. Les voix peuvent également être choisies dans 125 langues disponibles mais sont tout aussi personnalisables. Concernant les abonnements, synthesia propose une première offre à 26 dollars/mois pour 10 vidéos. La création de son propre avatar IA revient à 1000 dollars par avatar. 

Les sites internets et newsletters générés par IA : véritable information ?

Mais d’autres médias synthétiques ont également vu le jour. Ces derniers se présentent comme des médias libérés de tout biais existant, créés pour montrer l’information “réelle”. Ces discours peuvent paraître à première vue contre-intuitifs – l’intelligence artificielle et le contenu présent sur internet n’étant pas non plus dénué de biais humains. Chaque source étant par définition le produit d’une agence, d’un média, d’un journaliste – eux-mêmes marqués par leurs propres lignes éditoriales et contraintes.

Prenons l’exemple de NewsGPT. NewsGPT est un site internet et une newsletter qui rapportent des brèves d’information sur l’actualité américaine et mondiale. Le contenu se génère automatiquement selon des sources et des images rencontrées par l’algorithme au cours de la journée (bonjour la propriété intellectuelle). Les sources en question ne sont pas rendues transparentes. Le GPT d’OpenAI – le large modèle de langage (LLM) qui alimente le chatbot viral ChatGPT d’OpenAI – n’est d’ailleurs même pas capable de partager ses sources, n’étant pas construit avec cet objectif. 

NewsGPT a été lancé au début de l’année 2023 et présente sur sa bannière la mention suivante : 

Soit un pitch reposant sur une information « réelle et non biaisée ». Mais cette mention semble entrer quelque peu en contradiction avec les termes et conditions de NewsGPT : 

Cet article (le numéro 5 donc) nous éclaire sur la façon dont le contenu n’est pas vérifié : il n’est pas revu régulièrement, il n’existe pas de vérification indépendante de ce qui est publié. Les créateurs ne supportent pas les opinions qui pourraient être émises et ne pourraient être tenus pour des défauts ou des inexactitudes présents dans les articles. L’on a donc ici, encore un peu de difficulté à savoir comment le contenu généré par IA pourrait permettre de lutter contre la désinformation, sans aucune intervention humaine. Les précautions prises témoignent par ailleurs d’un existant qui n’est pas tout à fait abouti. Mais la promesse affichée, partagée sur Twitter en faisant découvrir NewsGPT est celle-ci : 

Cependant, force est de constater qu’il existe encore assez peu d’abonnés à cette initiative.

Un autre site a récemment attiré l’attention des commentateurs : celui de Generative Press. Le site d’information se présente également comme un site de brèves d’information, parfois plus originales car elles sont rédigées par quatre « personnalités » différentes (générées par IA) de journalistes.

Les informations sont produites à partir “d’informations populaires, de tweets des journalistes et de citoyens vérifiés”. Il n’existe ni équipe éditoriale, ni information humaine. Les derniers articles de Generative Press remontent à janvier 2023. Le site a été lancé par deux ingénieurs, qui reconnaissent eux-mêmes qu’il s’agit plus d’un site conçu à des fins de divertissement, qu’à un vrai site d’information :

Eto News est aussi un média synthétique qui a été crée pour s’orienter vers de l’actualité politique. Il est hébergé sur Substack et se présente comme “ un service sélectionnant trois à cinq organes d’information de l’ensemble du spectre politique et résumant leurs articles de manière impartiale et factuelle à l’aide du tableau de partialité des médias. Pour ce faire, nous utilisons eto, un outil développé par ChatGPT. Notre objectif est de fournir aux lecteurs des informations factuelles, afin qu’ils puissent se forger leur propre opinion, à l’abri de l’influence des programmes politiques ou des médias à sensation. Avez-vous remarqué des erreurs ou des biais dans notre travail ? N’hésitez pas à nous faire part de vos commentaires par courrier électronique !” On observe pour Eto News une différence avec ceux mentionnés précédemment : les articles mentionnent leurs sources directes, et il existe la possibilité de contacter une équipe humaine en cas d’erreur mentionnée dans les articles.

Enfin, Artifact, présenté au début du mois de mars 2023 par les créateurs d’Instagram, a ajouté cette semaine une nouvelle fonctionnalité : la possibilité pour les utilisateurs de se créer un profil et de pouvoir commenter les articles lus. Certains appellent d’ailleurs à des développements, qui peuvent laisser sceptiques sur le rapport à l’information de chaque citoyen. Les schémas parfois enfermant des algorithmes lorsqu’il s’agit de recommandations (musicales ou de streaming) semblent peu souhaitables au cadre de l’information – qui nécessite toujours une analyse critique propre à chacun. 

L’humain dans la boucle est indispensable

La présentation de ces différents médias synthétiques interpelle a minima sur deux aspects avant de parler des droits d’auteur : la créativité et la neutralité journalistique. Sur ce dernier point, les expériences de rédaction ayant utilisé l’IA pour générer du contenu sans vérification humaine, ont vite montré leurs limites. C’est l’expérience notamment du CNET, qui avait dû mettre en pause les articles générés par de l’intelligence artificielle, après que de “flagrantes coquilles” et un manque de transparence aient été mis en lumière. 

Buzzfeed continue de poster des articles dont le contenu a été généré par IA : un assistant créatif par IA a été lancé. Mais les articles concernent principalement des destinations de voyage. A se demander si utiliser l’IA ne mériterait pas autrement, une réflexion pour évoluer vers de nouveaux formats au lieu d’essayer de copier (mal) l’existant.

La neutralité est une notion depuis longtemps débattue. La façon dont chaque journaliste souhaite exercer son métier et le cadre dans lequel il le fait et auquel il est tenu s’éloignent de plus en plus l’un de l’autre.

Quant à la créativité, comme le soulignait récemment Sigal Samuel, journaliste chez Vox, les IA génératives “ utilisent le passé pour construire l’avenir “. Ne générer du contenu que par ce biais conduirait invariablement à une forme d’homogénéisation du monde – une intuition partagée par Raphaël Millière, expert en philosophie de l’IA à l’université de Columbia. D’autant que les articles les plus lus, seraient ceux qui pourraient être les plus mis en avant, selon les algorithmes établis par les géants et renforcer encore plus la bulle de filtre. Une perspective, qui ne peut qu’inviter les rédactions, les journalistes et les créateurs à se saisir de ces nouveaux outils, à en fixer les contours et leurs utilisations et à en tirer de nouveaux usages pour le futur.