Liens Vagabonds : qui veut bien payer pour accéder à l’information ?

A retenir cette semaine :  

Qui veut bien payer pour accéder à l’information ? Selon le nouveau rapport annuel de Reuters Institute seuls 11% de la population mettraient la main au porte-monnaie. Ce chiffre semble même atteindre un plafond puisqu’il stagne depuis plusieurs années. Ce phénomène serait alimenté par la concurrence frontale de services comme Netflix et Spotify, « la majorité [de la population] préférant dépenser leur budget limité en divertissement plutôt qu’en informations ».

Source : Reuters Institute Digital News Report 2019

Si ce ne sont pas les consommateurs, les GAFA paieront peut-être ? Facebook commence à bouger. C’est ce que souhaitent les médias américains qui demandent au Congrès de contraindre Google et Facebook à partager leurs revenus. D’autant plus qu’une étude menée par une organisation du secteur de la presse américaine estime que Google a gagné près de 5 milliards de dollars l’an dernier sur le dos des journalistes. Mais tous ne s’accordent pas sur la fiabilité de cette étude qui dénoncent l’impossible calcul de cette somme ou encore le potentiel conflit d’intérêt entre le New York Times qui relaie l’information et l’institut qui a réalisé l’étude.

Et aussi cette semaine :

Facebook va lancer sa cryptomonnaie « Libra », ce n’est plus un secret pour personne (début 2020). Plus surprenant, ce sont les soutiens que la plateforme a réussi à réunir autour d’elle. Mastercard, Visa, Paypal, Uber ou encore Booking.com ont tous investi dans le projet. La société de Xavier Niel, Illiad serait également partie prenante. Au total ce sont près de vingt géants de la tech qui vont marcher aux côtés de Facebook. Un véritable appui institutionnel.

Après Lagardère en France, c’est le groupe de presse allemand Springer qui ouvre son capital. C’est le fonds américain KKR qui devrait devenir « le premier actionnaire du groupe via une offre publique d’achat ».

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographic: Are You Not Entertained? | Statista

Plus d’infos sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS

  1. Le mobile devant la TV dans les usages
  2. Plus de 25% des Américains toujours en ligne
  3. Le fossé entre pub et usages en ligne s’est réduit
  4. Une firme européenne dans les 30 plus grosses d’Internet

DISRUPTION, DISLOCATION, MONDIALISATION

SURVEILLANCE, CONFIANCE, DONNEES

LEGISLATION, REGLEMENTATION

FAKE NEWS, LIBERTE DE LA PRESSE

 

Voir cette publication sur Instagram

 

‘Imagine this…’ (2019) Mark Zuckerberg reveals the truth about Facebook and who really owns the future… see more @sheffdocfest VDR technology by @cannyai #spectreknows #privacy #democracy #surveillancecapitalism #dataism #deepfake #deepfakes #contemporaryartwork #digitalart #generativeart #newmediaart #codeart

Une publication partagée par Bill Posters (@bill_posters_uk) le

JOURNALISME

USAGES

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

AUDIO, PODCAST, BORNES

IMMERSION, 360, VR, AR

SPORTS  

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

Column Chart
Infogram

5G / MOBILES / TELCOS

Évolution de la répartition entre générations technologiques sur le plan mondial (2015-2015). Source : GSMA, The Mobile Economy 2018.

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

TECH, STARTUPS, SMART

OUTILS

 

ES avec l’équipe Méta-Media

Au festival Futur.e.s, les acteurs de la tech misent sur l’innovation durable

Par Laure Delmoly, France Télévisions, MediaLab

Après une course à l’innovation effrénée ces trente dernières années, l’heure est aux premiers bilans. Lors de la restitution de la Cartographie des tendances 2019-2020 réalisée par Cap Digital au festival Futur.e.s qui s’est déroulé du 13 au 14 juin à la Manufacture des Gobelins à Paris, l’enthousiasme est toujours réel mais le discours sur le numérique a évolué. L’objectif : tirer les leçons du passé pour rectifier le tir et innover durablement. 

Un discours nuancé sur l’innovation

Panne de la démocratie, inégalités sociales, fracture territoriale, le numérique n’a pas tenu toutes ses promesses et les limites du monde actuel sont devant nous.

La cohésion de notre société est menacée. La reproduction de cette fragmentation dans l’univers numérique est inquiétante. Si les grandes plateformes sociales ont réussi à mettre en contact leurs utilisateurs, on se rend bien compte que l’intérêt collectif n’est pas la somme des intérêts individuels. Le débat démocratique est impossible sur des plateformes qui n’ont pas été conçues à cet effet. Les outils numériques actuels ne permettent pas une communication ouverte et construite nécessaire à tout débat public.

La transformation du monde du travail a créé des tensions et de la précarité via la fragmentation des tâches et l’automatisation. La révolution numérique dans les entreprises conduit les salariés à questionner leur rapport au travail quand les seniors et les classes populaires souffrent d’illettrisme électronique.

Enfin, la prise de conscience sur l’urgence climatique est réelle. Les ressources du monde actuel sont limitées et les dégradations sont irréversibles. Certains professionnels de l’innovation plaident coupable notamment dans l’industrie de la Foodtech.

Faire preuve d’agilité et réessayer

Que faire face à ce bilan critique ? Continuer à innover tout azimut ou s’arrêter pour diagnostiquer nos erreurs et rectifier le tir ? Les acteurs de la tech gardent l’esprit agile et travaillent le « soft power du changement ». Il ne s’agit plus d’innover en se basant sur les valeurs de la société capitaliste (« faire plus ») mais de se concentrer sur les usages (« faire mieux »).

Paul Le, fondateur de la belle vie, Start-up de la Foodtech, a pris la mesure des ravages causés par les emballages de livraison et travaille déjà sur des processus de stérilisation.  “Pour procéder à ces améliorations, nous avons regardé de près les retours de nos utilisateurs.”

Les professionnels des médias cherchent à regagner la confiance des citoyens via l’éducation aux médias, la lutte contre les fake news et les deep fakes. Les médias vont à la rencontre des jeunes pour co-construire l’information avec eux. L’heure est au dialogue entre le client et ses utilisateurs et entre les différents métiers pour trouver des solutions. Ce n’est qu’à travers l’interdisciplinarité que peut émerger un changement vertueux.

Les Civic Tech travaillent sur des outils numériques adaptés pour faire émerger un “nous collectif” et remettre ainsi le débat au cœur de l’espace public. Ce “nous collectif” se définit par la densité des liens qui le composent. Pour ce, toute initiative en ligne doit être couplée avec des événements réels.

Photo by Ross Findon via Unsplash

« Remettre l’humain au cœur de la Tech »

L’innovation passe par l’Humain et le lien social. Le risque des cellules innovation dans les grands groupes serait de fonctionner en vase clos pour avancer vite. Mais il ne suffit pas d’avoir une locomotive hyper innovante. Il faut que le train suive. Les salariés doivent pouvoir s’approprier les outils numériques avec leur intelligence créative pour refaçonner leur travail. Pour cela, il faut les former aux nouveaux outils et aux nouvelles méthodes.

Julie Jouvencel, Chief Customer Success Officer chez Coding days, forme des « compreneurs » afin d’accompagner la transformation numérique des grandes entreprises. « C’est en formant les gens aux nouveaux outils qu’on gagne leur confiance », explique-t-elle. Et Barbara Chazelle de France Télévisions d’appuyer le propos en citant Rachel Botsman : « La confiance est la nouvelle monnaie du XXIe siècle« .

Le numériquel n’est plus une fin en soi mais un moyen pour innover durablement. Nous passons d’une économie du bien à un écosystème de l’usage. Aujourd’hui, l’émergence de solutions vertueuses suppose que les usages viennent soutenir des modèles économiques encore fragiles. Mais, bonne nouvelle, les citoyens ont pris conscience de l’impact de leurs choix individuels et n’hésitent pas à le mettre en récit pour le partager en ligne. Ainsi, les choix responsables pourront jouer un rôle de catalyseur de changement collectif. L’innovation numérique a encore de belles années devant elle !

Le nudge des agents conversationnels

Par Laurence Devillers, professeur en intelligence artificielle à Sorbonne Université, chercheur au LIMSI-CNRS, membre de la CERNA-Allistène, IEEE P7008 Normes et standard pour le nudging, auteur de Des robots et des hommes : mythes, fantasmes et réalité, Plon, 2017

Le nudge est une méthode destinée à orienter les comportements sans jamais contraindre ni culpabiliser les individus. Lauréat du prix Nobel d’économie en 2017, l’Américain Richard Thaler a mis en lumière en 2008 le concept de nudge, technique qui consiste donc à inciter les individus à changer de comportement sans les contraindre en utilisant leurs biais cognitifs. En dialogue homme-machine et économie comportementale, la stratégie des nudges dans les interactions vocales n’a encore jamais été étudiée.  Le pouvoir des nudges va être amplifié grâce au numérique et à l’intelligence artificielle à travers des objets qui vont détecter vos habitudes et comportements et nous influencer, nous inciter à consommer…

Le nudge ou la manipulation douce

Avec le développement des réseaux sociaux et des applications internet, les nudges sont un peu partout sans que l’utilisateur ne s’en rende compte. Lorsqu’on réserve par exemple un hôtel sur Internet, une petite phrase en rouge vous informe que vous êtes plusieurs à regarder cette offre vous incitant ainsi à réserver au plus vite. De nombreux autres exemples de nudges sont présents dans le monde numérique.

Les objets connectés, et spécifiquement les agents conversationnels comme Google Home ou Alexa Amazon, apportent une nouvelle dimension dans l’interaction, à savoir la parole, et pourraient devenir un moyen d’influence des individus. Une voix pourrait vous inciter à faire plus de sport, à manger moins, à être plus attentif, à acheter une crème antirides, à voter pour untel… Le nudge est souvent mis en œuvre pour surveiller notre santé et pour notre bien-être, il pourrait tout autant être insistant à des fins uniquement mercantiles. Tous ces systèmes ne sont pour l’instant ni régulés, ni évalués et très opaques.

Google Home

Un champ de recherche à explorer…

En se basant sur l’étude des nudges, techniques pour modifier le comportement des personnes, le projet Bad Nudge Bad Robot, projet de l’institut de convergence DATAIA, souhaite mettre en lumière l’importance de l’éthique dans la création de ces objets numériques conversationnels. Concrètement, une équipe d’informaticiens, d’économistes et de juristes vont mettre en place des expériences, sous la forme d’interactions vocales avec un robot capable de nudges, sur plusieurs types de population plus ou moins vulnérables afin de développer des outils d’évaluation des nudges pour en montrer l’impact. À l’échelle de leur laboratoire, puis sur le terrain, les deux équipes vont étudier si les personnes fragiles sont plus sensibles aux nudges et deux thèses sont en cours.

Les nudges présentés par des systèmes robotiques, intelligents ou autonomes sont définis comme des suggestions ou manipulations manifestes ou cachées conçues pour influencer le comportement ou les émotions d’un utilisateur. Les systèmes affectifs seront-ils conçus pour inciter les utilisateurs à changer leur comportement pour leur avantage personnel et/ou au profit de quelqu’un d’autre ? Ces systèmes peuvent être conçus pour nous soutirer des données privées dans notre intimité ou encore pour nous inciter à faire des actions ou à prendre des décisions que nous ne souhaitions pas. Cette manipulation douce peut être faite en se servant de nos biais cognitifs par des actions suggérées, pour faire comme son voisin, par paresse, pour simplifier le problème.

Cet axe de recherche est novateur, il est important de comprendre l’impact de ces nouveaux outils dans la société et de porter ce sujet sur l’éthique et la manipulation par les machines à l’international. Les objets vont s’adresser à nous en nous parlant. Il est nécessaire de mieux comprendre la relation à ces objets bavards sans conscience, sans émotions et sans intentions propres. Les concepteurs doivent, pour éviter ces confusions entre le vivant et les artefacts, donner plus de transparence et d’explications sur les capacités des machines.  Les utilisateurs n’ont aujourd’hui pas conscience de la façon dont marchent ces systèmes, ils ont tendance à les anthropomorphiser. L’objectif ultime du projet est de créer des objets « ethic by design » et de réfléchir à une dynamique internationale sur ce sujet.

« L’objectif ultime du projet est de créer des objets « ethic-by-design » et de réfléchir à une dynamique internationale sur ce sujet. »

 … pour assurer un comportement éthique à ces objets connectés

La valorisation des résultats issus des expérimentations de ce projet est de produire des mesures pour la surveillance de ces outils ainsi que des recommandations économiques (en matière de régulation), éthiques et juridiques à destination des décideurs publics. Le sujet des nudges n’a pour l’heure fait l’objet d’aucune analyse juridique transversale.

Tester la capacité d’empowerment (encapacitation) paraît également fondamentale à l’heure où les autorités de surveillance et de régulation n’auront pas les moyens suffisants pour assurer un comportement éthique des nombreux objets connectés et robots qui vont arriver au sein des foyers.

Il s’agit aussi particulièrement de penser aux moyens de protection des populations les plus fragiles tout en assurant le développement économique du secteur des TIC sur le territoire européen. Il est urgent de commencer à travailler sur ces problématiques d’éthique en interdisciplinarité : DATAIA est le premier institut sur l’IA en France à les mettre en avant.

Liens Vagabonds : chaos chez YouTube

A retenir cette semaine :  

YOUTUBE – La plateforme vidéo a défrayé la chronique cette semaine. Accusé d’être « une porte ouverte » aux pédophiles ou encore d’encourager le harcèlement homophobe. Youtube a répondu tant bien que mal en interdisant finalement aux mineurs le live streaming s’ils ne sont pas accompagnés et en démonétisant une chaîne polémique en raison « d’actes continuels flagrants ». YouTube a également renforcé ses règles d’utilisation et interdira désormais totalement les vidéos négationnistes ou faisant l’apologie du nazisme. Mais le nettoyage est loin d’être parfait. Des pistes pour que régulateurs et médias sociaux trouvent une solution.

GAFA – En mars dernier, la sénatrice démocrate Elizabeth Warren proposait de démanteler les GAFA car « ils réduisent la concurrence et sapent la démocratie ». La justice américaine et à la FTC se penchent désormais sur le sujet et préparent une gigantesque enquête dans le cadre de la loi antitrust. Inquiet, le marché a pénalisé les géants de la tech provoquant une chute du cours de leurs action en bourse. Face à cette guerre annoncée, les GAFA ont recruté une armée de lobbyistes pour préparer leur défense.

APPLE – Lors de sa conférence mondiale des développeurs, Apple a annoncé la mise en place de « Sign in with Apple » permettant de se connecter aux sites et application tiers avec son login Apple. Apple souhaite l’imposer si les login Facebook et Google sont également proposés. Ont également été annoncé à cette occasion la fin d’iTunes, la sortie du nouveau Mac Pro ou encore l’arrivée du mode nuit sur iOS 13.

PODCASTS Mathieu Galet, ancien PDG de Radio France, a lancé le « Netflix du podcast » français ce mardi 4 juin avec l’application Majelan. « A 99% un modèle gratuit », avec une offre premium disponible à 4,99€ par mois pour accéder aux contenus originaux. Radio France demande le retrait de ses contenus car « le service public n’a pas vocation à servir de produit d’appel pour des acteurs privés » estime Sybile Veil, actuelle de PDG de Radio France.

Après la vente de son pôle TV évoqué la semaine dernière dans les Liens Vagabonds, Lagardère se dit prêt à vendre ses radios musicales Virgin et RFM.

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographie: La course aux brevets dans l'intelligence artificielle | Statista

Vous trouverez plus d’infographies sur Statista

DISRUPTION, DISLOCATION, MONDIALISATION

SURVEILLANCE, CONFIANCE, DONNEES

FAKE NEWS, LIBERTE DE LA PRESSE

JOURNALISME

USAGES

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

Extraits de quelques stickers disponibles sur Teyit.org. (capture d’écran)

IMMERSION, 360, VR, AR

AUDIO, PODCAST, BORNES

SPORTS  

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

5G / MOBILES / TELCOS

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

TECH, STARTUPS, SMART

OUTILS

 

Retrouvez la sélection des outils Méta-Media sur jTools

ES avec l’équipe Méta-Media

L’apport de l’IA dans l’exploitation du Rapport Mueller

Par Olivier Ezratty, consultant et auteur, notamment de l’ebook Les usages de l’intelligence artificielle (open source, 522 p., novembre 2018).

Publié jeudi 18 avril 2019 par le ministère de la Justice américain, le rapport Mueller était attendu pour déterminer ce qui s’était passé en 2016 et ensuite, autour de l’élection de Donald Trump et d’une possible ingérence de la Russie.

Publié après près de deux ans d’enquête minutieuse, le rapport était « gris » : il dévoilait les relations entre l’équipe de Trump et diverses parties russes, comme les tentatives d’obstruction de ce dernier pendant l’enquête. Mais au bout du compte, aucune inculpation. « No collusion, no obstruction » comme l’a affirmé ensuite à qui mieux mieux le Président.

La coordination implicite entre les Russes et l’équipe de Trump n’était pas suffisamment flagrante pour se faire prendre la main dans le sac : « While the investigation identified numerous links between individuals with ties to the Russian government and individuals associated with the Trump Campaign, the evidence was not sufficient to support criminal charges » (page 9). En gros, les personnages concernés n’ont pas été déclarés coupables, mais on n’est pas vraiment sûr qu’ils soient innocents. Le rapport fait notamment état de conversations via des moyens de communication numériques cryptés qui n’ont pas pu être récupérées, de faux témoignages et d’obstruction des parties prenantes pendant l’enquête, et pas seulement du Président.

L’obstruction est clairement démontrée dans le rapport mais le procureur spécial Mueller n’a pas jugé bon d’inculper le Président car les directives du DOJ ne le permettent pas. Le Président semble donc sorti d’affaire. Mais une quinzaine d’enquêtes se poursuivent, dont l’objet, pour la majeure partie, est encore confidentiel : « In the course of conducting that investigation, the Office periodically identified evidence of potential criminal activity that was outside the scope of the Special Counsel’s authority established by the Acting Attorney General. After consultation with the Office of the Deputy Attorney General, the Office referred that evidence to appropriate law enforcement authorities, principally other components of the Department of Justice and to the FBI. Appendix D summarizes those referrals » (page 12). Le rapport est écrit dans un langage juridique minutieux avec, parfois, des doubles négations ambiguës qui sont complexes à interpréter.

Le rapport Mueller est officiellement téléchargeable au format PDF. Le document fait 448 pages mais il n’est pas « searchable ». Les pages sont en fait fournies en mode « image ». La transparence n’est pas de mise, sans compter les 7,5% de texte noircis car ils concernent des enquêtes encore en cours, des procédés de renseignement inavouables ou des personnes qui ne sont pas inculpées.

Dans « A Technical and Cultural Assessment of the Mueller Report PDF » (avril 2019), la PDF Association critiquait le processus de publication de ce rapport ! En effet, il résulte d’un scan à moyenne résolution (200 dpi) du document imprimé. Le fichier fait 142Mo.

Un rapport scanné pose plusieurs problèmes, notamment celui de ne pas être lisible par des non-voyants via des logiciels de speech to text. Il permet cependant d’éviter des bévues passées comme celle consistant à permettre que le texte en noir soit lisible avec un copier-coller ! La PDF Association rappelle qu’il existe des solutions techniques éprouvées pour produire des documents PDF de qualité, analysables avec des CONTROL-F / rechercher, tout en respectant la confidentialité des zones cachées.

De nombreux médias ont donc passé le rapport « format PDF image » au travers de logiciels de reconnaissance de caractères (OCR) pour le transformer en format PDF dans lequel des recherches sont possibles. Ils s’appuient maintenant couramment sur des réseaux de neurones de deep learning. Mais pas forcément là où on le pense.

Certains développeurs ont ainsi fait de l’OCR du rapport via la bibliothèque Tesseract de Google, qui est un logiciel ancien, issu des années 1980 et ayant régulièrement évolué depuis. Il n’a pas l’air d’utiliser de réseaux de neurones convolutionnels pour analyser les caractères. Il exploite cependant un réseau de neurones à mémoire (LSTM) pour reconstituer des phrases qui se tiennent.

La diffusion de versions propres du rapport est même devenue un véritable business, certaines éditions, même électroniques, étant payantes. C’est ce que raconte The Atlantic dans The Irony of Mueller-Report Profiteering. Le rapport est téléchargeable sur Scribd, mais en échange de vos coordonnées. À éviter ! Pas beaucoup mieux chez Reason, ci-dessous. Enfin, j’ai trouvé une version correcte sans avoir à fournir de coordonnées, sur le site Washingtonian !

Le data journalism s’en est alors donné à cœur joie pour analyser le rapport. Il y a notamment le New York Times qui a dépiauté le texte dans tous les sens, l’a publié (sans PDF) mais en version analysable en ligne avec des commentaires explicatifs de journalistes.

Axios a publié un outil permettant de voir d’un coup d’œil dans quelles pages des termes sont cités. Mais point de véritable IA à l’horizon.

C’est Vox qui est allé le plus loin, avec beaucoup d’extractions de données du rapport pour analyser ce qui était barré, où et sur quel sujet. Ils ont utilisé une méthode basique consistant à exploiter le scan des pages pour évaluer le pourcentage de pixels noirs en en déduire la quantité de textes barrés. Donc, pas d’IA.

« Methodology: We wrote a computer program to turn each page of the report into an image. Then we analyzed each pixel of the image to see whether it was black. Obviously, both the text and the redactions are black, which makes this exercise a bit hard. But we found that a page that is unredacted but full of text is about 3.5 percent black, and a page that is entirely redacted is about 34.5 percent black (because of border and imperfections in the redaction). So we were able to use these baselines to estimate how much each page was redacted. To determine the rationale for redactions, we used a similar method to count the number of times each rationale was used by counting pixel colors — and then double-checked it by going to each page by hand and recounting ».

La meilleure analyse vient de l’avocat et essayiste Seth Abramson, considéré comme un conspirationniste paranoïaque par ses détracteurs, mais qui a vu juste sur un grand nombre de points jusqu’à présent et qui sont très bien décrits dans le rapport Mueller. Son commentaire du rapport était un fil record de 450 tweets publiés en une journée et il ne couvrait que la partie « collusion » du rapport (tome 1). Vous pouvez le consulter grâce au site Threader qui compile des fils de discussion Twitter !

L’IA a pour l’instant joué un rôle fort modeste dans l’analyse de ce rapport et plus généralement autour de la présidence de Donald Trump. La raison en est que l’analyse de textes est un sujet éminemment complexe. Dans le cadre de la politique, elle reste assez basique. Diverses études ont ainsi analysé le champ sémantique du Président, à la fois pendant la campagne électorale de 2016 et ensuite. Il s’agissait surtout d’analyses lexicales et quantitatives.

C’est ce qu’ont réalisé des développeurs de Domino Data Labs en publiant un code source R permettant l’analyse syntaxique du rapport Mueller. Ils en ont déduit des analyses sauce big data sur les mots clés et les sentiments exprimés dans le rapport. Le bilan fait ressortir des sentiments plutôt négatifs, ce qui n’est pas une grande surprise (voir le graphe suivant). D’autres graphes et nuages de mots peuvent être générés automatiquement, mais sans que ce qui en ressorte soit exploitable (voir Using R To Analyze The Redacted Mueller Report, 20 avril 2019). Des psychiatres ont même utilisé ces analyses lexicales pour diagnostiquer la panoplie la plus large de pathologies du Président.

L’IA pourrait cependant jouer un rôle dans les phases suivantes d’exploitation du rapport Mueller et des autres documents produits par le Special Counsel. Des techniques à base de traitement du langage permettront peut-être de détecter des tournures de phrases, de comparer les déclarations sous serment avec les dires officiels de la Maison Blanche. Cette comparaison, réalisée manuellement, a déjà permis de démontrer les mensonges de Sarah H. Sanders, la porte-parole de la Maison Blanche. Dans la novlang de la Maison Blanche, « mentir » devient « slip of my tongue ». L’IA pourrait-elle détecter de tels mensonges éhontés ?

Aucune IA ne peut détecter non plus que Cambridge Analytica n’est pas cité dans le rapport, tout du moins hors zones noircies ! On ne saura ainsi rien des liens éventuels entre Cambridge Analytica, les Russes et Wikileaks et de la manière dont le machine learning aurait été utilisé pour influencer les électeurs, surtout dans les swing states de l’élection de 2016.

Un réseau de neurones génératif de type GAN (Generative Adversarial Network) pourrait-il remplir les parties noircies du rapport Mueller ? Probablement pas encore. Des spécialistes du domaine, comme la linguiste Emily M. Bender, ont indiqué que c’était une mauvaise idée et que les données d’entraînement d’un tel système ne sont pas disponibles en quantité suffisante. L’IA ne peut pas faire de miracles ! Mais ce pourrait être tout de même l’occasion de créer quelques parodies ironiques de ses capacités !


L’équipe d’AlgoTransparency détectait que l’algorithme de YouTube recommandait un grand nombre de fois des vidéos biaisées d’explication du rapport Mueller aux audiences américaines, issues de l’agence de propagande russe RT. Voir « YouTube recommended a Russian media site thousands of times for analysis of Mueller’s report, a watchdog group says », par Drew Harwell et Craig Timberg dans le Washington Post du 26 avril 2019. Mais ici, il est plus question d’analyse de données que d’intelligence artificielle.

D’autres enquêteurs pourront faire un décompte quantitatif du nombre de fois où le Président a dénoncé des « fake news » spécifiques qui ont été ensuite vérifiées. Ils pourraient compter par comparaison le nombre de fois où les grands médias ont propagé des rumeurs sur l’enquête de Mueller qui se sont révélées fausses ou non vérifiées.

Des IA bien entraînées peuvent ainsi servir à quantifier des phénomènes et à les rationnaliser. Un peu comme le Washington Post et le New York Times et leur décompte du nombre de mensonges proférés par Donald Trump depuis son accession à la Maison Blanche (9451 mensonges en 800 jours décomptés début avril 2019). Mais peu importe, puisque ce décompte ne change pas la position des citoyens américains qui soutiennent dur comme fer leur Président. Ce n’est plus une question de rationalité à ce stade.

Si l’IA est un outil exploitable en pareille situation, l’intelligence naturelle est largement suffisante pour vérifier ou invalider les faits, associée à des logiciels somme toute assez traditionnels. C’est d’ailleurs elle qui est en déficit aux USA, et aucune IA n’y pourra rien !

Quand l’IA supporte la création humaine au lieu de la remplacer

Par Marina Pavlovic Rivas, fondatrice de Gradiant AI, une entreprise qui développe pour les industries créatives des solutions en intelligence artificielle et en analytique de données.

Les débats sur l’utilisation des technologies dans les secteurs créatifs sont loin d’être nouveaux. Ce qu’il y a d’inédit avec le deep learning, une branche de l’intelligence artificielle (IA), concerne le type de travail que les machines peuvent maintenant faire. Les algorithmes conçus pour réaliser des tâches qu’on croyait réservées à notre intuition continuent à se multiplier et à nous surprendre. Alors qu’il devient de plus en plus difficile de distinguer les productions issues de programmes informatiques automatisés de celles imaginées par des artistes, l’IA est-elle sur le point remplacer les processus de création traditionnels ?

Un géant comme Netflix, dont le modèle d’affaires fondé sur les données a bouleversé le secteur de l’audiovisuel, serait un joueur en excellente posture pour se placer à la tête d’une telle révolution. En dépit d’un nombre étourdissant d’abonnés qui lui permettent de consacrer aux contenus un budget qui ferait l’envie de tous les diffuseurs, l’entreprise ne s’est pourtant pas lancée dans cette voie. Pour l’instant, c’est même l’inverse qui se produit : plutôt que de remplacer la créativité humaine, l’IA la supporte.

Les limites de la créativité artificielle

Des algorithmes de type deep learning ont récemment écrit des articles publiés par des médias d’information reconnus, façonné un tableau vendu aux enchères à près d’un demi-million de dollars et composé une partie de la musique d’un album. De l’extérieur, aucun accomplissement ne semble être à l’épreuve de l’IA. En réalité toutefois, l’intelligence artificielle n’est pas très… intelligente. Les personnes qui programment un algorithme doivent lui dire très précisément quoi faire, même s’ils n’ont pas toujours besoin de lui dire comment le faire.

La plupart des projets qui reposent sur l’IA et dont les composantes créatives sont prédominantes en sont encore au stade expérimental. L’audiovisuel ne fait pas exception. Le court métrage Sunspring l’illustre bien. En 2016, un réalisateur et un scientifique de données se sont associés pour réaliser un film dont le scénario serait écrit par un algorithme. Ils ont nourri leur programme informatique avec des centaines de textes existants, afin qu’il en génère un nouveau. Des acteurs ont ensuite interprété le résultat qui s’est avéré prometteur, mais peu cohérent. Le duo a récidivé avec It’s No Game en 2017 et Zone Out en 2018. Dans le cas de ce dernier court métrage, l’IA prenait en charge la quasi-totalité du processus de création, en passant du scénario jusqu’au montage.

Image tirée du film Zone Out

Les résultats de ces trois expériences démontrent le progrès de l’IA au niveau de la création, mais démontrent aussi que c’est probablement l’un des champs dans lesquels cette technologie est le plus mauvaise.

Ce sont des personnes qui conçoivent les algorithmes, et ce sont aussi des êtres humains qui créent et sélectionnent les œuvres qui serviront à leur apprentissage. L’intention derrière les processus créatifs reste avant tout humaine. L’IA peut donc, pour le moment du moins, être vue comme le pinceau et non comme le peintre.

Pourquoi Netflix ne sous-traite pas la création aux algorithmes

 La série House of Cards a été le premier contenu original de Netflix à connaître un succès fulgurant et l’utilisation des données par l’entreprise a été décisive. Contrairement aux mythes, Netflix n’a pas eu recours à l’IA pour rédiger les scénarios ni même pour influer d’une quelconque manière sur les textes ou sur tout autre aspect créatif de la série[1].

Elle a plutôt utilisé l’IA pour déterminer la taille du segment d’abonnés auquel ce contenu était susceptible de plaire, puis pour le proposer spécifiquement aux abonnés de ce segment. Dans le cas de House of Cards, la taille de ce segment a suffi à décider d’investir 100 millions de dollars afin de lancer 13 épisodes d’un seul coup. Les données ont été à la base de cette décision, mais l’audace initiale était bel et bien humaine, tant celle des créateurs à l’origine du concept que celle des gens qui ont pris le risque calculé d’investir dans ce projet.

Kevin Spacey as Francis Underwood

Netflix utilise la même mécanique pour déterminer les préférences de petits segments d’abonnés. Le géant n’a pas pour objectif de maximiser le nombre de téléspectateurs pour chacun de ses contenus. Il tente plutôt de répondre aux goûts spécifiques de chaque utilisateur, quitte à avoir plus de contenus dont chaque élément intéressera un plus petit nombre de personnes. Cela signifie que l’entreprise peut oser financer du contenu de niche, et elle le fait.

Ce modèle ne serait pas possible sans l’utilisation de l’IA, car c’est ce qui permet à l’entreprise d’avoir une connaissance fine de ses auditoires et de faire les bonnes suggestions aux bonnes personnes. Le modèle de Netflix et les algorithmes qui le sous-tendent peuvent donc soutenir la création au lieu de lui nuire, et ce, en favorisant la diversité plutôt que la standardisation des contenus.

Netflix comprend que pour créer, l’humain excelle bien plus que la machine. C’est pourquoi la compagnie sait très bien laisser les créateurs faire leur travail en intervenant au minimum. Elle utilise surtout l’IA dans les étapes subséquentes, c’est-à-dire durant les phases de production et de diffusion[2]. C’est là où elle va chercher des gains en efficacité pour réduire les coûts et s’assurer qu’ils demeurent moins élevés que les profits qu’ils génèrent après que le contenu ait rejoint son public, aussi niche soit-il.

La stratégie de la compagnie resterait-elle la même si les algorithmes devenaient de meilleurs créateurs? En plus des incitatifs économiques, le désir d’offrir des expériences d’un niveau de personnalisation inégalé pourrait entrer en jeu. On peut par exemple penser à un film où les ressorts narratifs et l’émotion communiquée seraient adaptés automatiquement en fonction de différents paramètres pour chaque auditeur.

Netflix a internalisé l’ensemble du processus de la création jusqu’à la diffusion d’un contenu, ce qui la place dans une position de choix pour accumuler les données nécessaires pour y parvenir un jour. Les limites technologiques sont encore trop immenses, même pour une compagnie de cette taille. À l’heure actuelle, nous pouvons seulement émettre des hypothèses par rapport à la faisabilité de cette avenue dans le futur, aux conséquences complexes d’une telle révolution et à la place exacte que l’humain voudra garder dans ces scénarios.

 

[1]– Smith, M. D., et Telang, R., Streaming, Sharing, Stealing Big Data and the Future of Entertainment (1re éd.), Cambridge (Massachusetts), MIT Press, 2016, 232 p.

 

[2]– Kumar, R., Misra, V., Walraven, J., Sharan, L., Azarnoush, B., Chen, B., et Govind, N., Data Science and the Art of Producing Entertainment at Netflix, The Netflix Tech Blog, 2018, https://medium.com/netflix-techblog/studio-production-data-science-646ee2cc21a1.

Aux Etats-Unis, seuls 35% des téléspectateurs regardent uniquement la télévision traditionnelle

Par Alexandre Bouniol, France Télévisions, MédiaLab

Il y a dix ans à peine, il n’y avait qu’un seul moyen de regarder la télévision : via son téléviseur par voie hertzienne, par câble ou par satellite. Aujourd’hui, les téléspectateurs n’ont jamais eu autant de choix ! Ils peuvent la regarder via leur téléviseur de manière traditionnelle (multichannel video programming distributor ou MVPD aux Etats-Unis), la regarder via leur téléviseur par internet (virtual MVPD ou vMVPD aux Etats-Unis) ou encore la regarder sur d’autres écrans par internet. Le cabinet d’études Horowitz a dévoilé lors de sa dernière étude six profils types de téléspectateurs aux Etats-Unis, mettant en évidence ces nouvelles méthodes de consommation de la TV.

Les « 5 O’Clock Diners »

Cette catégorie de téléspectateurs représente la plus grande part des téléspectateurs US parmi les six profils types puisqu’elle concerne 35% d’entre eux au total. Ces téléspectateurs ont pour caractéristique principale de regarder massivement la télévision uniquement à partir des canaux traditionnelsPresque l’ensemble de cette catégorie souscrit à un abonnement MVPD et est beaucoup moins encline à souscrire à un service de streaming vidéo. Ces téléspectateurs sont en général plus âgés que les autres, sont moins susceptibles d’avoir des enfants au sein du foyer et ont des revenus inférieurs à la moyenne des téléspectateurs.

Les « Mega Omnivores »

Ce sont les plus gros consommateurs de contenus TV. Représentant 15% des téléspectateurs, ils cherchent à assouvir leur besoin en contenus à travers une multitude de plateformes, d’écrans et type de diffusion. Ils regardent donc à la fois la TV en linéaire, (même s’ils la consomment majoritairement en streaming : 54%) et souscrivent également à des services supplémentaires par MVPD. Les « Mega Omnivores » sont en général plus jeunes, de sexe masculin, ont des enfants au sein du foyer et ont en moyenne des revenus supérieurs par rapport aux « Omnivores ».

Les « Omnivores »

Deuxième catégorie la plus représentée parmi les téléspectateurs US (30%), ils regardent eux aussi la télévision linéaire mais aussi en streaming. Les « Omnivores » regardent davantage la TV par MVPD qu’en streaming par rapport aux « Méga Omnivores » et ne souscrivent pas à d’autres services en vMVPD.

Les « Flexitarian Lites »

Les « Flexitarian Lites », qui représentent 6% des téléspectateurs américains, regardent la télévision la plupart du temps en streaming. Ils possèdent cependant une antenne pour regarder la télévision en direct, mais seulement 9% d’entre eux souscrivent à un abonnement MVPD et déclarent ne pas la regarder lors d’une semaine type. Ils sont moins susceptibles d’avoir des enfants au sein du foyer et ont un revenu moyen inférieur à celui des « Flexitarians ».

Les « Flexitarians »

Cette catégorie est la moins représentée parmi les téléspectateurs US : seulement 3% d’entre eux ! Les « Flexitarians » regardent tous leurs contenus en streaming et souscrivent tous à un abonnement vMVPD. La moitié d’entre eux a un abonnement MVPD bien qu’ils déclarent ne pas la regarder en direct. Ils sont plus jeunes, multiculturels et plus susceptibles d’avoir des enfants au sein du foyer.

Les « Content Paleos »

Cette dernière catégorie de l’étude a pour particularité de consommer tous les contenus en streaming, mais ne souscrit pas à un service vMVPD. Représentant 12% des téléspectateurs, ils sont malgré tout 32% à dire qu’ils payent un abonnement MVPD mais déclarent ne pas la regarder dans une semaine type. Ce sont principalement des femmes, jeunes, avec un revenu inférieur à la moyenne.

Adriana Waterston, Vice-Présidente principale des Insights et de la stratégie à Horowitz résume bien la situation en disant que « les consommateurs ont la liberté de créer une expérience de visionnage personnalisée en fonction de ce qu’ils veulent regarder et de la façon dont ils le souhaitent » grâce à tous les modes de diffusion de la TV.

Les téléviseurs délaissés au profit des smartphones ?

D’après le dernier rapport du cabinet d’études eMarketer, les Américains passent en moyenne 3h43 par jour sur leur smartphone. Soit 8 minutes de plus que devant la télévision. C’est une première, puisque l’année précédente, les Américains passaient encore 9 minutes de plus sur la télévision que sur le smartphone. Monica Peart, directrice des prévisions chez eMarketer, explique cette tendance par le fait qu’il y ait « bien plus de contenus [pour smartphone] aujourd’hui qu’il y a quelques années » notamment grâce à la forte croissance des services en streaming comme Netflix ou Hulu. Cet écart est d’autant plus marqué chez les 18-24 ans qui regardent en moyenne la télévision 1h51 par jour (en direct ou en replay) et passent 3h25 sur leur smartphone ou tablette.

Pour aller plus loin :

Ne laissez pas les robots tout seuls !

Par Benoit Raphael, ancien journaliste, entrepreneur et éleveur de robots chez Flint

 Je fais un métier du futur, un métier que vos enfants feront peut-être demain. Je suis éleveur de robot. Ou plutôt éducateur d’intelligence artificielle. Le MIT préfère parler de « coach pour machine » (AI trainer), ce qui fait d’un coup beaucoup plus classe sur une page LinkedIn, et l’a rangé en 2018 dans le top 5  des professions d’avenir. Il y a même un livre qui parle de moi, Les Métiers du futur (Isabelle Rouhan, First, 2019).

Une « nouvelle » technologie ?

A quoi peut bien servir ce métier ? Dans un monde où tout est en train de s’automatiser, on pourrait croire que les robots vont avoir de moins en moins besoin des humains. Et nous de plus en plus d’eux. Ce rêve que pourrait caresser légitimement tout patron d’industrie soucieux de ses actionnaires – remplacer ses salariés imprévisibles et récalcitrants par des algorithmes – se heurte pourtant déjà à la dure réalité d’aujourd’hui : les robots sont extrêmement stupides.

Qu’entend-on alors par intelligence artificielle ? Tout d’abord, cette technologie « du futur » existe déjà depuis bien longtemps. C’est même grâce à elle que les Alliés ont gagné la guerre de 39-45. Ou qu’ils l’ont, tout au moins, gagné beaucoup plus vite que prévu (2 ans selon les experts) sauvant ainsi plusieurs millions de vies. Le problème que la machine de Turing essayait de résoudre à l’époque était assez simple : déchiffrer le code secret qu’utilisaient les nazis pour communiquer sur les positions de leurs troupes. Le problème : le mot de passe changeait toutes les 24 heures. Les experts en décryptage savaient comment craquer le code, mais ils n’avaient pas le temps de faire toutes les opérations dans les 24 heures imposées.

La modélisation du système de pensée

 Tout bien réfléchi, quand on parle d’intelligence artificielle aujourd’hui, on ne parle finalement que de ça : modéliser l’expertise humaine (ici le décryptage d’un code secret) en vue de l’automatiser.

Lorsque le problème est simple à résoudre, on peut en dégager une méthode que l’on va ensuite programmer, sous forme d’algorithmes, un peu comme une recette de cuisine. Ensuite, tout dépendra de la qualité des ingrédients.

Lorsque le problème est plus complexe cependant, programmer des règles ne suffit plus. Pour détecter une maladie qu’un humain pourrait ne pas voir malgré tous ses outils, pour sélectionner et personnaliser une information de qualité adaptée à la diversité de chaque être humain, ou pour reconnaître un cheval sur une photo, il n’y a pas de méthode connue, ou alors la liste des critères serait plus longue que les mots disponibles dans le vocabulaire humain. Dans ce cas, il n’y a plus de recette : on demande au robot de trouver lui-même la méthode. On lui envoie toutes les données que l’on a à notre disposition, même incomplètes, et on lui indique simplement le résultat : ici c’est « oui », là c’est « non », ou ici « c’est un cheval », et là « ce n’est pas un cheval ».  Au robot de déterminer ensuite les règles pour y arriver.

Evidemment, pour que le robot puisse inventer sa propre recette de cuisine, quels que soient les ingrédients, il faut le doter de capacités d’apprentissage. C’est ce qu’on appelle l’apprentissage automatique, le « machine learning » en anglais.

Et pour traiter des problèmes encore plus complexes, le machine learning s’appuie parfois sur un modèle algorithmique moins linéaire, s’inspirant des réseaux de neurones humains, c’est à dire des réseaux de fonctions mathématiques, que l’on fait ensuite interagir entre eux. C’est ce qu’on appelle le « deep learning ».

L’éducation des robots

Qui dit « learning », dit donc éducation. Pour que les robots trouvent d’eux-mêmes la bonne méthode pour régler des problèmes complexes, il ne faut pas les programmer, il faut les éduquer. Le métier d’éducateur d’intelligence artificielle n’est donc pas un métier technique de programmeur. Il s’apparente plutôt à celui d’un prof face à ses élèves.

« Pour que les robots trouvent d’eux-mêmes la bonne méthode pour régler des problèmes complexes, il ne faut pas les programmer, il faut les éduquer. »

Sauf qu’éduquer un robot n’est pas aussi facile qu’éduquer un enfant. Quand on parle d’ « intelligence artificielle », il faudrait déjà commencer par retirer le mot « intelligence ». Prenez un enfant de 2 ans par exemple. Pour lui faire comprendre la différence entre un chat et un chien, il faut lui montrer un chien deux ou trois fois. Un robot, il faut le lui montrer plusieurs centaines de milliers de fois ! Vous me direz, ce n’est pas grave, avec la puissance des  processeurs aujourd’hui, un million de fois ça va très vite. Certes. Mais à présent, imaginez un prof en train d’essayer d’éduquer un enfant complètement stupide mais qui réfléchit très très vite ! C’est infernal. Parce que, dans le même temps, cet élève est capable de faire un million de fois plus d’erreurs qu’un enfant normal !

Alors comment éduque-t-on une intelligence artificielle ? Avec des données (beaucoup de données) et avec des boucles de rétroactions. Qu’est-ce qu’une boucle de rétroaction ? C’est simple : comme le robot est très bête (un algorithme est par définition une simplification de la réalité) et comme les données qu’on lui envoie sont presque toujours incomplètes, il a une fâcheuse tendance à s’écarter rapidement du réel. On appelle ça un biais. Il a donc besoin de retours réguliers pour le corriger, c’est ce qu’on appelle une boucle de rétroaction. Le rôle de l’éducateur de robot serait donc de vérifier que les données qu’il lui envoie soient les plus diversifiées et équilibrées possibles, pour éviter les clichés par exemple. Il est aussi nécessaire de contrôler que les résultats obtenus par le robot ne s’embarquent pas, au fil de son apprentissage, dans des biais dangereux.

Sauf que jusqu’à aujourd’hui, les robots ont été très mal éduqués. Ils ont été façonnés puis entraînés par une population de jeunes ingénieurs, généralement de sexe masculin, le plus souvent blancs et californiens, cloîtrés derrière leur écran et leur bol de chips. Il n’y a pas de ministère de l’Education nationale pour les algorithmes. L’idée vous fait peut-être sourire, mais regardez le résultat.

L’impact des biais sur la diffusion de l’information

Prenez l’information, qui est au cœur de la croissance de notre économie. Aujourd’hui, l’information est devenue tellement riche et abondante sur Internet qu’aucun humain n’est capable de la trier et d’en distinguer la valeur cognitive. Il est donc indispensable de faire appel à la technologie pour faire ce tri à notre place. Le problème est que plus personne n’éduque ces robots ! Enfin, pour être plus juste, c’est vous qui les éduquez : chaque jour vous envoyez des centaines de données aux robots des moteurs de recherche et des réseaux sociaux, mais sans savoir comment elles ont utilisées et surtout sans pouvoir les corriger consciemment lorsque les robots se trompent. Et comme ils sont stupides, il déduisent de votre comportement superficiel et incomplet des modèles de qualité d’information ultra-simplifiés et extrêmement biaisés. Conséquence : ils vous envoient à peu près toujours les mêmes contenus. Et si vous avez le malheur de réagir, même négativement, il y a de fortes chances pour qu’ils vous en envoient encore plus. On appelle ça les bulles d’informations.

Après avoir rendue l’information horizontale et abondante, les algorithmes ont replié l’information sur elle-même en enfermant ses audiences dans des chambres d’écho. Pire, les robots sont très sensibles aux fake news, parce que ces dernières épousent parfaitement leur modèle simpliste de sélection : beaucoup d’engagement, par d’autres profils qui vous ressemblent dans leur comportement.

Après vingt ans passés à mauvaise école, les robots sont devenus les délinquants de l’information. Et comme pour les délinquants humains délaissés par le système éducatif, les tentatives de rééducation semblent toutes vouées à l’échec. Cette génération est sans doute déjà perdue. Il va falloir se tourner maintenant vers une nouvelle génération de robots qu’il faudra prendre le temps d’éduquer, à qui nous devrons transmettre le meilleur de nous-mêmes.

Reprendre le contrôle

C’est ce que j’essaie par exemple de faire avec Flint, une « école de robots » où des centaines d’experts transmettent chaque jour à une intelligence artificielle leurs valeurs et leur vision d’une information de qualité. D’autres projets similaires commencent à voir le jour, avec un seul objectif : reconstruire, en joignant nos forces, un Internet centré sur les valeurs, et capable de nous faire grandir.

L’enjeu est de taille. Lorsque l’on sait qu’un simple changement arbitraire d’algorithme par Facebook, ou la seule manipulation de ses failles par des esprits mal intentionnés, peut influencer les résultats d’une élection dans une grande démocratie, ou même accélérer de façon artificielle le mouvement des Gilets jaunes, on se dit qu’il est temps de reprendre le contrôle sur ces machines laissées à elles-mêmes.

Ce dérèglement dramatique de l’écosystème de l’information, provoqué par l’automatisation incontrôlée des tâches cognitives nécessaires à sa distribution, doit nous interroger plus globalement sur notre approche de l’intelligence artificielle et sur son utilisation massive dans l’industrie.

L’intelligence artificielle est encore trop souvent vue comme un simple moyen de réduire les coûts dans les secteurs les plus violemment frappés par la crise. Alors que l’on devrait y réfléchir en termes de création de valeur.

S’ils ne sont pas intelligents, au sens humain du terme, les algorithmes sont cependant des outils formidables pour nous aider à résoudre des problèmes de plus en plus complexes.

Des alliés plus que des ersatz

En octobre 2018, une œuvre d’art, créée par une intelligence artificielle, a été vendue 432 500$ chez Christie’s. Ce robot qui, comme tous les robots, travaille très vite, est capable de produire plusieurs centaines d’œuvres similaires à la minute. Alors d’où vient la valeur puisque tout est automatisé ? Le robot artiste a été conçu et éduqué durant plusieurs mois par un collectif d’artistes et de chercheurs français, Obvious. C’est ce collectif qui a donné du sens à cette œuvre, qui a conçu l’univers artistique du robot en interagissant avec lui, et qui a mis en scène une sélection de ses peintures pour les mettre à la vente. De la même manière que ce n’est pas l’urinoir qui a fait l’œuvre de Duchamp (« Fountain »), mais la valeur que l’artiste a construite autour de cet objet industriel fabriqué à la chaîne.

Pour les médias, pour la presse comme pour l’industrie audiovisuelle, les « robots rédacteurs », les « robots scénaristes » ou même, pourquoi pas, les « robots réalisateurs », ne pourront pas se contenter de remplacer les humains. Ils devront nous aider à inventer de nouveaux produits éditoriaux porteurs de sens et de valeurs.

Tout comme l’appareil photo n’a pas remplacé le regard des illustrateurs – mais a fait naître une nouvelle discipline créative, tout comme les synthétiseurs n’ont pas remplacé les musiciens, l’intelligence artificielle doit être vue comme un nouvel outil technique entre les mains des producteurs de contenus au service de la création de valeur.

Quels nouveaux métiers allons-nous inventer demain grâce à ces nouveaux outils ? Quelles œuvres nouvelles allons-nous créer avec ces technologies révolutionnaires ?

Les robots ne nous remplaceront que si nous continuons à travailler comme des robots. Les pays les plus robotisés que sont l’Allemagne, le Japon et la Corée du Sud, sont aussi ceux qui affichent le plus d’employabilité.

Comme celui d’éducateur de robots, les métiers du futur feront sans doute moins appel à des compétences techniques de filière qu’à ce que l’on nomme aujourd’hui les compétences comportementales, les « soft skills ». C’est à dire : la créativité, la capacité à apprendre, à structurer, à s’adapter à de nouvelles problématiques et à travailler ensemble. Cela signifie que si le futur est technologique, les gagnants ne seront pas forcément les profils les plus techniques. Cela signifie  que tout le monde peut et doit s’emparer de l’intelligence artificielle.

Parce que l’objectif de la technologie ce n’est pas d’améliorer la technologie,  c’est de résoudre des problèmes. Pour les résoudre, les humains ont besoin de deux compétences : savoir identifier les problèmes, et donc être capable de définir des objectifs en termes de valeur et de choix de société. Qu’est-ce que le progrès ? Qu’est-ce qu’un futur souhaitable ? Le produit intérieur brut est-il plus important que le bonheur intérieur brut ? Quel est le rôle de l’information dans un monde complexe et en perpétuelle révolution ?

On n’a jamais eu autant besoin de diversité et de sens qu’aujourd’hui. Au-delà de la conception et de l’entraînement des algorithmes, c’est au final tout notre système d’éducation et de formation qu’il faut repenser.

Liens Vagabonds : grandes manœuvres dans les groupes de télé européens

A retenir cette semaine :

TV – Lagardère continue de vendre ses activités média. Après la revente de ses 7 magazines à l’investisseur tchèque Daniel Kretinsky, Lagardère cède une partie de son pôle TV à M6 pour 215 millions €. Pour compenser sa perte d’abonnés en France, Canal + cherche à accroître ses activités à l’international en achetant le distributeur de chaînes M7 pour un milliard €  , qui compte 3 millions d’abonnés dans 7 pays d’Europe. Au niveau européen, le groupe de télévision italien MediaSet (detenu par la famille de Silvio Berlusconi) rachète près de 10% des parts de son homologue allemand ProSieben pour renforcer « la télévision européenne » face à Netflix.


SVoD – Les revenus combinés de Netflix et d’Amazon Prime au Royaume-Uni représentent plus du double des revenus totaux générés par les services de streaming des cinq plus grands diffuseurs britanniques. 

Le ministère de la Justice prépare une enquête antitrust sur Google. L’enquête porterait sur les pratiques liées au search et à d’autres secteurs.

YouTube. Google fait disparaître l’appli YouTube Gaming, son « concurrent de Twitch »… pour ne faire qu’un avec YouTube !

Petit tremblement de terre dans sphère des YouTubers ! T-series, la chaîne Youtube de musique Bollywood a finalement dépassé celle de PewDiePie et devient par la même occasion la première chaîne de la plateforme à dépasser les 100 millions d’abonnés.

3 CHIFFRES

LE GRAPHIQUE DE LA SEMAINE

Infographic: How Effective Is Facebook at Detecting Bad Content? | Statista

Vous trouverez plus d’infographies sur Statista

NOS MEILLEURES LECTURES / DIGNES DE VOTRE TEMPS

DISRUPTION, DISLOCATION, MONDIALISATION

SURVEILLANCE, CONFIANCE, DONNEES

LEGISLATION, REGLEMENTATION

FAKE NEWS, LIBERTE DE LA PRESSE

Les articles incorrects ou trompeurs génèrent une interaction jusqu’à 4 fois supérieure à celle des articles publiés par des médias « professionnels » (par article) / Oxford University

JOURNALISME

PROXIMITE

USAGES

RÉSEAUX SOCIAUX

PLATEFORMES VIDEOS, OTT, SVOD

STORYTELLING, NOUVEAUX FORMATS

IMMERSION, 360, VR, AR

AUDIO, PODCAST, BORNES

SPORTS  

DATA, AUTOMATISATION, INTELLIGENCE ARTIFICIELLE, BLOCKCHAIN

4K,  U-HD, 8K, HDR

5G / MOBILES / TELCOS

CINEMA

JEUX VIDEO, eSPORT

PUBLICITE, MONETISATION

OUTILS

 

Retrouvez la sélection des outils Méta-Media sur jTools

ES avec l’équipe Méta-Media

Séries turques, dystopies, white-scandi… Quelles sont les tendances du marché de la fiction international ?

Par Maxime Ruel, FMC Veille, Veille stratégique et production de podcasts. 

Billet invité, présenté dans le cadre d’un partenariat éditorial entre la plateforme FMC Veille du Fonds des Médias du Canada (FMC) et Méta-Media. © [2019] Tous droits réservés.

Jamais on aura raconté autant d’histoires. Au cinéma, à la télé ou sur les plateformes de streaming, l’offre est pléthorique et pourtant encore insuffisante si l’on en croit François-Pier Pélinard Lambert, rédacteur en chef de Le film français, qui a partagé ses analyses sur les tendances du marché de la fiction international lors du congrès de l’Association québécoise de la production médiatique.
Télévision par contournement : demande insatiable pour du contenu de qualité

Le monde comptait, fin 2018, quelque 613 millions d’abonnés à des services de vidéo sur demande par abonnement – un gain de 27% par rapport à l’année précédente. L’entreprise spécialisée en gestion et en monétisation de contenus vidéo Ooyala estime par ailleurs que ce chiffre grimpera à 777 millions d’ici 2023.

Si Netflix et Amazon Prime Video profitent indéniablement de cette croissance, des plateformes plus modestes tirent leur épingle du jeu, si bien que le paysage de la télévision par contournement se fragmente.

« À l’échelle mondiale, le nombre de plateformes augmente, en moyenne, de 20% par mois, explique Pélinard Lambert, soulignant au passage une occasion pour les producteurs. La demande de contenu n’est pas satisfaite. Quels que soient les plateformes, les marchés, les diffuseurs – il n’y a pas assez de contenus sur le marché. »

C’est surtout de contenu original de qualité dont ces plateformes ont besoin.

« Pour qu’un service de télévision par contournement puisse exister, il faut qu’il sorte au minimum une production originale par mois », affirme l’expert.

Le pari : que ces contenus originaux trouvent leur public, fidélisent les téléspectateurs et, ultimement, justifient un abonnement.

Prudence, toutefois : l’exercice est, en partie, un saut dans le vide vu l’imprévisibilité de la réponse du public. François-Pier Pélinard Lambert évoque l’exemple de la série Marco Polo, annulée après deux saisons et qui aurait causé à Netflix une perte évaluée à près de 200 millions $US. Même chose du côté d’Amazon Prime Video. La plateforme a misé gros sur sa série American Gods, mais ce sont des productions comme The Marvelous Mrs. Maisel et Transparent qui bâtissent sa marque.

Dans ce contexte, la série courte émerge comme un compromis de plus en plus commun. Une série de quatre à huit épisodes permet aux plateformes (comme aux diffuseurs, d’ailleurs) de tester l’intérêt et l’engagement du public, puis de prendre une décision quant à l’avenir du format.

« Dans le pire des cas, si ça ne fonctionne pas, la série est remplacée par une autre, conclut François-Pier Pélinard Lambert. Dans le cas inverse, les plateformes renouvellent et les séries deviennent de réels événements.» 

Big Little Lies, du côté de la chaîne américaine HBO, est un bon exemple de cette tendance. Initialement conçue comme une série limitée, le diffuseur en a finalement commandé une seconde saison vu le succès remporté par les mésaventures des « Monterey Five ».

https://www.youtube.com/watch?v=eCWevZV945M

Diffuseurs traditionnels : la bataille est loin d’être perdue

Le rôle des diffuseurs traditionnels est remis en cause et ils doivent composer avec des ressources financières qui diminuent. Mais ceux-ci sont loin d’être dépassés, croit le rédacteur en chef de Le film français.

« Ces télévisions sont de plus en plus créatives dans leur offre, dit-il. Elles proposent des plateformes décalées ou qui s’adressent à des niches – le documentaire, le cinéma classique, le cinéma de genre, des genres fictionnels spécifiques… Dans plusieurs cas, des initiatives pareilles sont mises sur pied par des acteurs classiques.»

L’un des grands avantages de ces chaînes, croit Pélinard Lambert, c’est que les diffuseurs sont les porte-étendard de l’identité culturelle d’un marché. Pour articuler « ce qu’est l’identité culturelle, le mieux-disant qu’un pays peut amener, dit-il, on n’a toujours pas trouvé mieux que ces télédiffuseurs traditionnels.»

Du côté du cinéma, si les apparences peuvent laisser croire que le septième art souffre, le portrait n’est pas tout sombre.

L’an dernier, pour la première fois de l’histoire, les recettes mondiales du box-office ont dépassé le cap des 41 milliards $US, le Canada et les États-Unis représentant à eux seuls plus du quart de ce total, et ce, malgré les dizaines de services de vidéo sur demande mis à la disposition du public.

« On peut débattre de ce qu’on y voit, mais il reste que le désir de vivre une expérience en salle est loin de disparaître », nuance François-Pier Pélinard Lambert.

De plus, le second marché mondial au box-office – la Chine, avec ses 9 milliards $US en entrées – voit le nombre d’écrans de cinéma sur son territoire augmenter de 13% par année, ce qui ouvrira sans doute des débouchés aux producteurs d’ici et d’ailleurs.

Séries turques, dystopies et autres tendances en fiction télévisuelle

L’industrie audiovisuelle évolue et il en est de même pour les goûts des téléspectateurs, dont l’appétit pour les séries turques se constate partout dans le monde.

« Sur la Croisette, pendant le MIPTV, les panneaux publicitaires sont de bons indicateurs de ce qui se passe dans l’industrie, dit Pélinard Lambert. Or, cette année, les trois quarts des panneaux annonçaient des séries turques. »

La Turquie est aujourd’hui le deuxième exportateur de séries télévisées au monde après les États-Unis. Ses séries sont visionnées dans plus de 150 pays.

« L’air de rien, elles ont balayé lestelenovelas de l’Amérique latine, avance l’expert. Dans tout le Moyen-Orient, c’est ce qu’on voit à la télé, mais aussi en Europe et en Chine. Quand, au Brésil et en Argentine, vous avez deux soaps turcs sur chacune des chaînes principales tous les soirs, c’est qu’il se passe quelque chose. »

En réaction, les producteurs de l’Amérique latine ont revu le genre de la telenovela pour trouver de nouveaux publics. C’est ainsi que l’on a vu apparaître les telenovelas religieuses et les narco-telenovelas.

Au rayon des fictions un peu plus glauques, les dernières années ont fait la part belle aux dystopies. Des formats comme The 100, The Handmaid’s Tale, Black Mirror ou The Walking Deaddémontrent la popularité du genre.

« C’est clairement un événement scénaristique que de voir le nombre de séries qui débarquent sur les écrans et qui portent toutes sur une société qui, à un moment ou un autre, décolle complètement », observe Pélinard Lambert.

Si le thriller et le polar restent des bases essentielles, on constate néanmoins certaines avancées dans ces genres. Le « scandi-noir » délaisse le gris, le bleu et la pénombre pour embrasser la lumière, évolution esthétique que le rédacteur en chef de Le film français surnomme « white-scandi ». Il mentionne également la multiplication des polars explorant l’histoire inconnue d’une famille et de thrillers historiques.

François-Pier Pélinard Lambert souligne aussi que de 20 à 30% de ce qui se voit dans le monde est un remake.

« Quand vous avez une propriété intellectuelle, qu’elle se tient debout et que vous pouvez la remettre au goût du jour, trouvez un agent international et essayez de vendre le format, dit-il. N’importe quelle franchise a de la valeur. »

L’exemple de la série française Les bracelets rouges est évocateur. Initialement un format catalan, la série a été adaptée aux États-Unis par Fox, mais n’a pas connu le succès escompté. Aujourd’hui, pourtant, il s’agirait de la série jeunesse numéro un en France, en Allemagne, en Italie, en Pologne et en Russie.

« Ce qui est assez drôle, c’est que tous ces territoires s’achètent leurs versions les uns les autres, constate Pélinard Lambert. En France, on a quatre Les bracelets rouges, qui ont tous leur public et leur positionnement. La bête n’est jamais rassasiée. »