“Always on” : le CES 2026 comme baromètre des rapports de force qui structurent le réel

En 2026, la vie numérique cesse d’être un espace que l’on « ouvre » ou auquel on se « connecte ». Elle devient un environnement continu, qui nous entoure, négocie à notre place et décide de plus en plus de ce qui parvient jusqu’à notre attention. En sortant des rangées de machines à sous de Las Vegas, la question n’est pas « quel nouveau gadget », mais « qui contrôle désormais notre accès au monde ». Ici, l’humain augmenté ressemble moins à un super-héros qu’à une version bêta de la machine qu’il est censé entraîner. Entre exosquelettes, dispositifs d’assistance cognitive et interfaces gestuelles, on a parfois l’impression que l’industrie fabrique une phase transitoire : des corps « outillés » pour produire des gestes exploitables, le temps que les robots apprennent avant de prendre la relève. Mais ne tombons pas dans l’imaginaire apocalyptique dès le début de l’année.

Par Kati Bremme, Directrice Innovation & Prospective et Rédactrice en chef Méta-Media, avec Vincent Nalpas, Yves-Marie Poirier et Jean-Paul Chevreux

Le CES 2026 ne raconte pas la disparition des médias. Il raconte le moment précis où ils cessent d’être centraux dès lors que l’architecture de la médiation leur échappe. Ce qui se joue à Las Vegas n’est pas une nouvelle vague d’innovations de surface, mais une reconfiguration silencieuse des conditions de production, de visibilité et de confiance. Le salon de cette année marque, de manière très nette, la sortie d’une période d’exubérance matérielle. Les écrans toujours plus grands, les démonstrations spectaculaires, les promesses futuristes sont toujours là, mais ils ne font plus système.

Idées clés :

  • Du visible à l’invisible : la révolution silencieuse des infrastructures
  • L’agentisation des usages : vers la fin de l’interface
  • Traçabilité et confiance : un nouveau contrat social pour les médias
  • Économie de l’intention : la fin du clic
  • IA embarquée et personnalisation locale : la fin du profilage centralisé
  • Mutations de la production culturelle : Hollywood, créateurs et fandoms à l’ère de l’IA
  • Simulation vs réalisme : l’innovation en tension
  • Robotique : réorganiser le travail plutôt que briller en gadget
  • Infrastructure IA : un enjeu géopolitique et stratégique majeur

Les annonces les plus structurantes portent moins sur des produits finis que sur des plateformes, des stacks, des machines de calcul et des systèmes d’orchestration. Le traitement quasi rock star réservé à Jensen Huang, chez Nvidia, en est un symptôme révélateur. Cette transformation se lit dans l’organisation même du salon, désormais structurée en profondeur : un CES grand public visible et spectaculaire, conçu pour la mise en scène médiatique ; un niveau startups, plus discret, où se négocient intégrations, partenariats et premiers cas d’usage ; et, en arrière-plan, un étage décisif, celui du calcul, des modèles et des métriques. L’essentiel ne se joue plus dans les usages visibles, mais dans l’infrastructure critique : ces couches invisibles qui conditionnent leur existence et leur monétisation.

Le CES reste un show à l’américaine, bien sûr. Mais ce qui importe n’est plus ce qui se voit immédiatement. Ce sont les infrastructures qui décident ce qui sera vu, comment, par qui, et selon quelles métriques. Pour les médias, ce déplacement est stratégique. La concurrence ne porte plus d’abord sur la production de contenus, mais sur la capacité à rester lisible et intégrable par des systèmes qui gouvernent la découverte et la recommandation, où la technologie s’efface derrière les usages qu’elle permet. Le salon révèle un renversement profond du pouvoir technologique, et annonce une reconfiguration des chaînes de valeur, des dynamiques de visibilité et des modes de narration de l’innovation. Le constat formulé dans l’article fondateur des grands modèles de langage s’applique désormais pleinement au paysage médiatique : « Attention is all you need ».

1. La fin de l’outil, l’avènement du système (fermé)

Internet fut longtemps perçu comme un objet homogène, incarné par une figure unique, « Monsieur [ou Madame] Internet ». Puis il est devenu un écosystème de métiers, de spécialisations, de chaînes complexes, où coexistent ingénieurs réseau, développeurs backend, experts sécurité, data scientists, designers d’interfaces. L’intelligence artificielle suit la même trajectoire. L’IA n’apparaît plus comme un outil que l’on choisit, mais comme un environnement dans lequel on opère. Le CES 2026 montre que nous avons quitté l’ère du « prompt magique » pour entrer dans celle d’un monde d’architectures et de dépendances. L’IA a définitivement gagné les étages de la direction : elle n’est plus expérimentale, elle est désormais industrielle et structurelle.

Chez Nvidia, le basculement est explicite. Il n’est plus question de vendre des GPU, mais de vendre des « AI factories ». Des ensembles complets, intégrés, verrouillés par l’architecture elle-même : calcul, interconnexion, modèles, cadence industrielle, le tout le plus puissant possible. Les annonces autour de Vera Rubin, des racks à très haute densité posent un fait brut : le calcul devient une infrastructure structurante, inaccessible sans alignement stratégique de long terme. La phrase répétée par Jensen Huang « You no longer program, you train » acte la fin d’un rapport artisanal au logiciel. Au lieu d’outiller des usages on installe désormais des conditions de production.

« You no longer program, you train »

Le même déplacement est visible chez Google, notamment à travers la télévision. Google TV n’est plus pensée comme un écran parmi d’autres, mais comme un point d’entrée cognitif, grâce à l’intégration de Gemini. Le même Gemini qui, selon les paroles de Demis Hassabis, PDG de Google DeepMind, est censé devenir « l’Android des robots ». En attendant, la télévision devient un appareil toujours actif (« Always on »), capable de répondre, d’expliquer, de contextualiser, d’orienter bien au-delà du contenu fourni par les médias.

Le temps de l’organisation des catalogues est révolu. Le téléviseur prend soin de vous et de votre famille (« TV is about catering for the family ») et structure des interprétations du monde. L’écran n’est plus le cœur du dispositif, c’est la couche de médiation qui se superpose. Pour les médias, la promesse est à double tranchant. D’un côté, Google insiste sur l’accessibilité, la découvrabilité et la continuité des usages entre écrans. Les chiffres sur le « continue watching » sont parlants : une majorité des clics passent déjà par ces mécaniques. De l’autre, la dépendance à des API de découverte devient structurelle. Être visible suppose d’alimenter des systèmes dont les règles sont définies ailleurs, même si l’on peut encore y injecter quelques « règles » éditoriales.

2. La vie déléguée, l’économie de l’intention

Le CES 2026 rend perceptible un déplacement structurel : la vie numérique entre dans un régime de délégation. Les tâches glissent de l’exécution directe vers des systèmes qui agissent au nom de l’utilisateur. Ce basculement dépasse largement les questions d’interface ou de confort d’usage. Il engage des rapports de pouvoir, des modèles économiques et des choix politiques. Dans cet écosystème, l’interface qui gagne est celle que l’on n’utilise pas. L’utilisateur n’apprend plus des workflows, il apprend à formuler des intentions, à fixer des garde-fous, et à arbitrer des escalades. L’usage média se transforme en conséquence : « Trouve-moi ce qui mérite mon attention sur ce sujet, (potentiellement à partir de sources que je considère crédibles), avec des preuves, dans mon registre. La consommation devient une négociation entre agents. Fox rappelle qu’en 2025, plus de 50 % du trafic web était déjà non humain. Et c’est précisément cela qui se délègue : l’attention, devenue la ressource rare, confiée à des systèmes chargés de la capter, de la trier et de la monétiser.

La consommation devient une négociation entre des agents

Dans l’industrie du divertissement, les fonctions de navigation deviennent des fonctions d’appel. Amazon met en avant une production de contenus « at scale, high fidelity, high quantity », rendue possible par une structuration fine des œuvres et des métadonnées. La quantité n’est plus traitée comme un problème en soi, mais comme une condition d’accès à des usages personnalisés. Les contenus sont conçus pour circuler nativement entre plusieurs plateformes, du streaming aux univers comme Roblox, Minecraft ou Fortnite. Amazon parle de « jointly incentivized motion » pour décrire cette capacité à faire migrer une dynamique narrative d’un espace à l’autre sans rupture d’intention. Les fonctions mises en avant rendent ce déplacement très concret. Le « jump to scene » permet d’accéder directement à un moment précis d’un programme. Les X-Ray recaps proposent des synthèses dynamiques, à l’échelle d’un épisode, d’une saison ou d’un arc narratif. L’œuvre cesse d’être seulement parcourue et devient interrogeable, à partir d’une intention formulée.

Amazon X-Ray Recaps

Dans le commerce et les services, la même tendance s’impose. Les démonstrations agentiques chez Walmart rappellent une règle simple : un agent n’est jamais meilleur que la plateforme de données sur laquelle il repose. La promesse de fluidité dissimule des choix lourds sur ce qui est vu, ce qui est recommandé ou ce qui est ignoré. Pour les médias, cela pose une question éditoriale difficile. Qu’est-ce qui peut et doit devenir machine-exprimable, sans transformer l’information en matière générique recombinable à l’infini. Où placer la frontière entre structuration nécessaire et perte de singularité. Concevoir des produits pour deux audiences simultanées (humains et agents) n’est pas un simple exercice de style. C’est désormais une condition de survie dans un monde où l’intention précède l’exposition.

L’économie numérique se reconfigure autour de l’intention : anticiper et satisfaire le besoin latent de l’utilisateur, plutôt que de provoquer un clic superficiel. Cela implique de nouveaux indicateurs de performance (pertinence, intégration contextuelle…) et force les acteurs à repenser entièrement la monétisation en ligne, au-delà du CPM et du CPC hérités de l’ère du clic.

3. La réalité synthétique devient banale, la provenance devient rare

Un autre fil rouge de CES 2026 est la quête du réalisme total par la simulation, et les questions qu’elle soulève face au besoin d’authenticité. D’un côté, les géants technologiques comme Nvidia poussent les limites du faux-semblant parfait. La présentation de Jensen Huang a ébloui en dévoilant des modèles génératifs capables de produire des vidéos photo-réalistes presque indiscernables du réel. Les nouveaux modèles “Cosmos”peuvent générer des scènes pour entraîner les robots autonomes basés sur GROOT ou encore les voitures autonomes avec Alpamayo, fournissant des données synthétiques à moindre coût pour simuler le monde physique, car, selon toujours le même Jensen Huang, « Collecting real world data is too slow and never enough ». De même, les dernières cartes graphiques Nvidia promettent des rendus graphiques de jeux vidéo « dignes du cinéma », abolissant la frontière entre image de synthèse et prise de vue réelle.

« Collecting real world data is too slow and never enough »

À l’opposé, certains créateurs misent sur des approches moins focalisées sur la fidélité visuelle brute et davantage sur l’esthétique ou l’émotion. Le studio Baobab, par exemple, renommé dans la VR narrative, produit des expériences immersives stylisées (dessins animés VR) où l’engagement du spectateur vient de l’histoire et de l’interaction, non du réalisme photographique. Cette dualité pose une question : jusqu’où la technologie doit-elle chercher à imiter le réel ? D’un côté, la simulation hyperréaliste ouvre des possibilités énormes, pour la formation (jumeaux numériques, entraînement d’IA), pour le divertissement (des mondes virtuels crédibles), pour la création (pouvoir « filmer » l’imaginaire comme s’il était vrai). De l’autre, elle nourrit aussi une forme de saturation ou de méfiance du public, à l’heure où un deepfake (dont la technologie de fabrication est devenue accessible à tous) peut semer le doute. La ligne de crête entre le virtuel et le réel s’amincit dangereusement, et l’enjeu devient la confiance et la finalité.

Réalité parallèle façon Las Vegas

Pour les médias, la production devient certes quasi gratuite, quasi instantanée, quasi infinie. Micro-dramas, formats verticaux, déclinaisons automatiques, publicité générée par IA, contenus contextuels : la rareté s’est déplacée. Ce basculement pose un problème de statut. Lorsque des images, des scènes ou des comportements sont générés parce qu’ils fonctionnent, la question n’est plus « est-ce vrai ? », mais « d’où cela vient-il, dans quel cadre, avec quelles règles ? ». C’est exactement ce que plusieurs intervenants résument de manière abrupte : « Authenticity will not mean anything in three years ». Non pas parce que tout serait faux, mais parce que l’authenticité cesse d’être un critère opérant. La création n’est plus rare, l’attention qualifiée et la provenance le sont. Dans un univers d’abondance, la valeur revient à ceux qui savent sélectionner et attribuer les sources. Le site web, par exemple, ne sert plus tant à attirer des clics qu’à « prouver » et documenter la véracité d’un contenu dans un monde où tout se reformule.

« Authenticity will not mean anything in three years »

En ouvrant Creative Cloud à des modèles tiers (Runway, ElevenLabs), tout en maintenant Firefly comme standard de contenus juridiquement exploitables, Adobe acte une séparation nette entre génération libre et production exploitable. La valeur ne réside pas dans la capacité à générer, mais dans la capacité à qualifier l’usage et son cadre légal. Enfin, un signal faible mais révélateur traverse plusieurs échanges, traduit par un : « PDFs are the most valuable content in the world », selon Jensen Huang, encore. Non plus comme formats de diffusion, mais comme réservoirs exploitables de contexte et de références. Cette logique, où la valeur se déplace de l’objet vers son cadre d’exploitation, irrigue désormais toute l’industrie de la création.

En un sens, l’IA industrialise la simulation du réel au service de la créativité. La question devient alors narrative : comment les raconteurs d’histoires (journalistes, cinéastes, artistes) vont-ils exploiter ces outils de simulation tout en maintenant un ancrage dans le sens et la vérité ? La course au réalisme technique a besoin d’un garde-fou humain pour éviter que l’innovation ne se réduise à une fuite en avant du toujours plus vrai que nature.

4. Robotique : réorganiser le travail plutôt que briller en gadget

Longtemps, la robotique grand public présentée au CES relevait du gadget spectaculaire, à l’image du petit androïde dansant qui fait le buzz puis tombe dans l’oubli. En 2026, le ton a changé : la robotique s’affirme comme un levier de réorganisation du travail à grande échelle, bien au-delà de la hype éphémère. Sur le salon, ce sont moins les robots-chiens joueurs qui attirent l’attention que les bras automatisés d’entrepôt, les drones agricoles intelligents ou les robots livreurs autonomes. L’IA et l’automation ont pris d’assaut le monde physique. Les démonstrations observées chez Unitree, EngineAI ou Boston Dynamics (qui a présenté Atlas comme prêt pour la production)  reposent sur une coordination motrice désormais compatible avec la réalité.

Screenshot

Mais à mesure que l’on parcourt les allées du CES 2026, un même mouvement devient lisible. Sous les discours sur l’assistance et l’augmentation, l’humain apparaît de plus en plus comme acteur d’un processus d’apprentissage des systèmes, intégré à leur montée en compétence, quand lui-même ne se transforme pas purement et simplement en robot à force de se voir appliquer des extensions mécaniques à son propre champ de capacités physiques. Les exosquelettes en offrent une illustration concrète. Présentés comme des dispositifs d’ergonomie ou de protection, ils accompagnent les gestes, stabilisent les postures et réduisent la pénibilité. Ils produisent aussi des données précises sur le mouvement humain.

La maturité résulte d’un long travail d’observation, d’imitation et d’ajustement à partir de gestes humains. L’humain joue ici un rôle de référentiel fonctionnel. Dans l’habitat, le concept de Zero Labor Home présenté par LG prolonge cette approche. Le robot y prend en charge des micro-tâches, coordonne des objets connectés et anticipe des besoins simples. Le quotidien est pensé comme un système organisable, dans lequel l’humain reste présent, mais délègue progressivement certaines fonctions. Pris ensemble, ces éléments décrivent une transformation progressive de notre rôle.

L’humain devient à la fois utilisateur, référence, correcteur et superviseur. Les chiffres confirment cette intégration : le marché global des robots est projeté à 178 milliards $ d’ici 2030, porté par la demande en productivité et les nouveaux modèles Robotics-as-a-Service qui démocratisent l’accès à l’automatisation. Au CES 2026, les initiatives nationales comme le pavillon sud-coréen dédié aux humanoïdes témoignent aussi de l’ambition stratégique derrière la robotique.

La bascule narrative est claire : On parle moins de « robots qui volent nos emplois » que de « robots qui repensent nos emplois ». Dans les entretiens, les experts soulignent que l’enjeu n’est pas la disruption brutale mais la transition : redéployer les travailleurs humains sur des tâches à plus forte valeur pendant que les robots prennent en charge les tâches pénibles, dangereuses ou répétitives. En un mot, rendre le travail plus humain en laissant la machine faire le reste.

À l’échelle industrielle, la robotique devient ainsi un sujet d’organisation du travail et de captation de valeur : elle redessine les frontières entre production, supervision et décision, bien plus qu’elle ne remplace des postes.

5. Création : de la panique au pipeline, du studio à l’écosystème

L’impact de ces nouvelles technologies ne se limite pas aux devices et aux plateformes : l’ensemble de l’industrie culturelle voit ses méthodes de production bouleversées. À Hollywood, dans la création audiovisuelle et même chez les créateurs indépendants, l’IA s’insinue désormais à chaque étape du pipeline. Des studios pionniers comme Secret Level parlent de “filmmaking AI-native”, où l’IA n’est plus un gadget d’effets spéciaux mais un collaborateur à part entière de l’écriture au montage. Le basculement est perceptible dès les premières sessions de « Digital Hollywood » consacrées à la création, où on évoque un moment « Citizen Kane » de l’industrie : la peur a changé de nature, même si tout va toujours trop vite (« What changed from last year? One year equals one hundred years », ou encore « Everything before feels like slow motion »). Il y a un an, l’IA était vécue comme une menace diffuse, un facteur de déqualification ou encore un risque de dépossession. En 2026, ce registre émotionnel s’est largement déplacé. La question n’est plus de savoir si l’IA va transformer la création, mais où se trouvera la valeur quand la création devient un pipeline. Le progrès n’est plus linéaire, il est exponentiel et visible en temps réel.

« Everything before feels like slow motion »

Outils de génération de visuels et de vidéos à la volée, moteurs de synthèse de personnages, assistants à la scénarisation – on assiste à la fusion du monde du jeu vidéo, de l’animation et du cinéma en un continuum technologique unifié par l’IA. Secret Level (souvent comparé à un Pixar de l’IA) développe Liquid Engine, une plateforme de production dopée à l’intelligence artificielle. Objectif : « créer un pipeline sans friction pour Hollywood, accélérant radicalement la production de films, séries, animation, documentaires, jeux… ». Derrière cet outil, c’est une promesse de gain de productivité et de créativité démultipliée : imaginer qu’un réalisateur puisse générer en quelques clics des story-boards animés, que des acteurs virtuels jouent des scènes avant même le tournage, ou que les fans eux-mêmes participent à enrichir un univers via du contenu généré. Car les fandoms justement, pourraient tirer profit de ces mutations : à l’ère de l’IA générative, la frontière entre créateur et public s’estompe. On voit déjà des communautés de fans utiliser des modèles ouverts pour produire des œuvres dérivées (fictions, art, vidéos) autour de leurs franchises préférées. Cela pose des questions inédites sur la propriété intellectuelle et le rôle des studios (au delà des pratiques déjà en cours sur TikTok) : doivent-ils encourager ces créations participatives comme nouvelle forme d’engagement, ou les craindre comme une concurrence ?

Liquid Engine est une réponse à un problème très concret, celui de pipelines conçus par des ingénieurs pour des ingénieurs, là où les créateurs ont besoin d’environnements malléables, expressifs et contournables. La création ne disparaît pas dans l’automatisation, elle se déplace vers la capacité à plier les outils. Ils ont même annoncé leur propre formation, la Secret Level Academy, pour partager la nouvelle grammaire IA-native.

« Without a script, AI is just a screensaver »

La même logique apparaît chez Autodesk, depuis l’acquisition de Wonder Dynamics, développeur de logiciels d’animation 3D et d’effets visuels basés sur le cloud. Le message est clair : chaque projet a désormais son workflow spécifique. Là où un film reposait autrefois sur un nombre limité d’outils, maîtrisés par un nombre restreint de professionnels, une production contemporaine mobilise aujourd’hui une quinzaine de briques différentes, reliées par des pipelines organiques construits dans le temps. L’IA en rend l’orchestration stratégique. Cette évolution modifie profondément les profils recherchés. La figure émergente n’est plus le créatif isolé ni le technicien spécialisé, mais le creative technologist, capable de comprendre les contraintes algorithmiques sans sacrifier l’intention narrative. Même si l’artiste demeure la valeur de référence, comme le résumait cette punchline entendue dans l’un des panels : « Without a script, AI is just a screensaver ».

6. Du fandom à la co-création : qui mène vraiment le jeu ?

Warner le confirme aussi : « IP is gold ». Et les créatifs de Showrunner, dont le modèle repose sur une rémunération automatique du créateur original pour chaque contenu généré par IA, s’exclament, désespérés : « Just judge the work. Do not ask what tools were used ». 2025 opposait encore créateurs et technologies. 2026 sera-t-elle l’année des technologies créatives ?

« Just judge the work. Do not ask what tools were used »

Au-delà de Hollywood, c’est toute la chaîne de création culturelle qui se recompose : auteurs, éditeurs, plateformes de diffusion et communautés de fans interagissent différemment. Au CES 2026, une formule d’Adobe résonne dans les couloirs du Convention Center comme un mantra de la nouvelle économie culturelle : « Let the fan drive the narrative. » Loin d’être un simple slogan marketing, cette phrase cristallise un renversement profond dans la création de contenus. Désormais, le public n’est plus seulement destinataire d’un récit fabriqué en studio, il en devient le co-auteur, l’amplificateur, parfois même le véritable moteur.

La démonstration la plus spectaculaire de ce basculement vient du partenariat entre Adobe et la NFL. Pour la saison en cours, la ligue de football américain a activé 2 000 créateurs de contenus. Pas comme de simples influenceurs à qui l’on confie une campagne ponctuelle, mais comme de véritables « extensions éditoriales de la marque ». Ces créateurs produisent du contenu original autour des matchs, des joueurs, des moments forts. Ils ne relaient pas un message institutionnel : ils deviennent des médias à part entière. « Creators are media », affirme-t-on chez Adobe. Dude Perfect a levé 100 millions de dollars et affiche une valorisation de 5 milliards. MrBeast sert régulièrement de point de comparaison structurel dans les discussions sur l’avenir du divertissement.

« Creators are media »

Adobe Foundry pousse cette logique encore plus loin avec le « deep tuning » des propriétés intellectuelles : personnalisation fine des univers narratifs, non plus scène par scène, mais fan par fan. L’objectif n’est plus de segmenter grossièrement une audience, mais d’adapter chaque élément d’un univers de fiction aux attentes individuelles. L’exemple de Paramount avec le film IF illustre un autre aspect de cette mutation : la fin de la promotion comme « phase ». Traditionnellement, on investissait massivement avant la sortie, puis on laissait le film vivre sa vie. Désormais, la logique change. La promotion est un état continu. Le film devient prétexte à une conversation permanente avec les fans, qui alimentent eux-mêmes la narration par leurs réactions et leurs créations.

Adobe, Campagne Paramount pour IF

Stone Kite, plateforme spécialisée dans l’activation de fandoms, a fait évoluer son offre de manière significative. Du simple autographe distribué lors d’une avant-première, on passe désormais au selfie partageable : le fan devient lui-même créateur de contenu avec son idole, générant ainsi une matière promotionnelle authentique que les studios ne pourraient jamais produire de manière aussi crédible. Plus radicalement encore, Stone Kite mise sur des « moments non scriptables » : des interactions imprévisibles, spontanées, qui échappent au contrôle des équipes marketing à l’instar du « Nice catch cheer ».

Cette logique de l’inattendu devient paradoxalement une nouvelle stratégie éditoriale. On crée les conditions d’émergence de moments forts, puis on surfe sur la vague. Mais derrière cet enthousiasme se cache une interrogation fondamentale, revenue en boucle dans les panels : qui mène, au juste ? Le studio qui fournit l’univers de départ ? La marque qui finance l’activation ? Le public qui s’empare du récit et le réinvente ? WPP apporte un élément de réponse en évoquant Marvel et la nécessité de « travailler avec les feedbacks dès le développement » : changer vite, à faible coût. Le nouveau paradigme est celui de l’interaction continue, parfois chaotique, toujours risquée.

Une des campagnes à succès de WPP

L’exemple de Tubi, plateforme gratuite financée par la publicité, illustre cette nouvelle philosophie. Avec 100 millions de viewers mensuels, Tubi a construit son succès sur une promesse simple : gratuit, simple, découvrable. Quatre à six minutes de publicité par heure, un catalogue immense, et surtout : « We are fans of our fans ». Cette formule n’est pas qu’un slogan marketing. Elle traduit un positionnement où la plateforme se met au service de son audience plutôt que de chercher à lui imposer une ligne éditoriale. Contrairement aux géants du streaming par abonnement qui mettent en avant leurs productions originales, Tubi mise sur la diversité et la capacité de sa technologie à recommander le bon programme à la bonne personne (ou au bon fan).

« The new business of entertainment is relationship, not content »

L’enjeu n’est plus d’optimiser des algorithmes pour maximiser l’engagement à court terme. Il faut créer les conditions d’une relation durable, fondée sur la transparence et le respect. Comme le résume un intervenant : « The new business of entertainment is relationship, not content. » Cette mutation exige de nouvelles compétences (écoute communautaire, agilité éditoriale, gestion du dialogue en temps réel), de nouvelles métriques, et surtout une nouvelle humilité : accepter que le pouvoir narratif ne soit plus uniquement entre les mains des studios, mais réparti dans un écosystème complexe où chaque acteur joue un rôle, augmenté par l’IA générative…

7. Monétisation : quand la publicité devient une chaîne industrielle

Pendant des décennies, le succès se mesurait à un chiffre : l’audience brute. Combien de spectateurs ? Combien de tickets vendus ? Ce règne du nombre commence à vaciller. Les nouvelles métriques mises en avant par les panels du CES ne se contentent plus de compter : elles cherchent à qualifier. Trois dimensions émergent : l’engagement (les utilisateurs interagissent-ils activement ?), la participation (contribuent-ils eux-mêmes à enrichir l’univers ?) et l’impact culturel (le contenu génère-t-il des conversations, des tendances, des références partagées ?).

Dana McGraw, SVP, Data and Measurement Science, Disney

La publicité n’est plus un simple levier de financement, mais une chaîne industrielle intégrée dès la conception des contenus. Chez Disney, ce virage est pleinement assumé. Lors de l’événement Tech+Data, le groupe a présenté un dispositif publicitaire complet : Disney Ads Agent et Disney Compass transforment une intention annonceur en campagne déployée, mesurée et optimisée à l’échelle de centaines de milliards d’impressions. Au cœur de ce dispositif, les « Signals » : des métriques propriétaires qui redéfinissent les critères de la performance. La publicité devient un champ où la transparence se réduit sous l’effet d’une complexité systémique croissante. Formats verticaux, multiview sportif, expériences publicitaires contextualisées : les frontières entre contenu, interface et publicité s’estompent. L’IA permet de produire des créations dynamiques à partir d’intentions sommaires. L’annonceur n’achète plus une création, mais une capacité de déclinaison potentiellement infinie.

Les frontières entre contenu, interface et publicité s’estompent

Pinterest illustre un autre glissement : la publicité comme signal d’intention. Les formats présentés reposent sur l’anticipation des usages plutôt que sur leur simple contextualisation. La plateforme se positionne comme outil de lecture des désirs à venir, en amont de l’acte explicite. Pris ensemble, ces exemples dessinent une même réalité : la publicité n’est plus un « après » du média. Elle structure désormais les formats, les workflows et les métriques dès la conception.

Du côté d’Amazon, les démonstrations confirment une logique similaire, centrée sur le full funnel. Fire TV et l’écosystème retail permettent de relier exposition publicitaire, données transactionnelles et activation commerciale. Les cas présentés dans la grande consommation et la beauté montrent des campagnes ajustées en continu en fonction des comportements réels, et non plus seulement des audiences déclarées. La valeur réside dans la capacité d’optimisation permanente. Le CES a également montré que cette intégration descend jusqu’au niveau des fabricants. LG Ad Solutions revendique un contrôle publicitaire directement au niveau des téléviseurs, en vendant des inventaires intégrés au système d’exploitation. La télévision devient un point de monétisation natif, piloté par des logiques proches du programmatique, mais avec un accès direct aux foyers.

8. IA embarquée et personnalisation locale : le déplacement du pouvoir

C’est une mutation discrète qui traverse les annonces des fabricants : l’intelligence artificielle quitte progressivement le cloud pour s’installer au plus près de l’utilisateur. Cette migration vers l’edge AI redéfinit les rapports de force dans l’écosystème numérique. Pendant plus d’une décennie, la personnalisation reposait sur une logique centralisée : nos données remontaient vers des serveurs distants, alimentaient des profils utilisateurs détaillés, permettaient aux plateformes de nous recommander contenus et publicités. Ce modèle a créé des concentrations massives de pouvoir informationnel.

L’IA embarquée propose une alternative : les appareils apprennent localement, s’adaptent à nos habitudes, personnalisent leur comportement sans jamais révéler nos usages à un tiers. Samsung a présenté des téléviseurs dotés d’IA qui « apprennent vos préférences au fil du temps » via du reinforcement learning on-device. Le système observe vos habitudes de visionnage et ajuste progressivement ses recommandations. Vos données ne sortent jamais de votre salon. Cette évolution marque peut-être la fin du profilage centralisé orchestré par les GAFAM : plus besoin d’aspirer toutes nos interactions sur des serveurs pour nous offrir du sur-mesure, une grande partie de l’intelligence peut résider à la périphérie du réseau, au plus près de l’utilisateur. Samsung insiste : le système « optimise l’expérience sans nécessiter d’instructions constantes ». D’un côté, une course spectaculaire à la qualité d’affichage, aux écrans géants, à la performance visuelle et sonore. De l’autre, une logique de plateforme avec Samsung TV Plus, l’intégration du FAST, de l’interactivité, et des recommandations trans-services. Le téléviseur devient à la fois un objet esthétique, un hub de contenus, et un support publicitaire actif.

L’automobile est un autre front décisif. CarPlay, SoundHound, les OS embarqués transforment le temps de conduite en temps médiatique captif. Là encore, l’enjeu n’est pas seulement la diffusion de contenus audio ou vidéo, mais la médiation contextuelle, vocale, conversationnelle. La voiture devient un espace éditorial où la concurrence se joue entre plateformes, pas entre médias. Les dispositifs XR s’inscrivent dans la même trajectoire. Les lunettes proposées par Lenovo, Xreal ou RayNeo privilégient des couches d’information contextuelles : traduction en temps réel, guidage visuel, aide à la prise de parole, résumé de situation. L’enjeu porte sur l’assistance appliquée et l’efficacité opérationnelle. Avec le Neural Band de Meta, l’interaction se rapproche encore de l’intention, en réduisant les intermédiaires entre signal corporel et action. L’écosystème mature discrètement : Google montre des prototypes Gemini compatibles Android XR, Samsung prépare son casque Galaxy XR, et la plateforme commune se dessine.

Sur le plan prospectif, ces évolutions interrogent la notion même de « chaîne » ou de « plateforme » telle que nous la connaissons. Les contenus circulent dans des écosystèmes fragmentés, pilotés par des interfaces intelligentes, souvent invisibles. La valeur n’est plus dans le point d’entrée, mais dans la capacité à exister de manière cohérente dans des contextes multiples.

Et parce que ces usages sont ancrés, continus, parfois intimes, ils poussent mécaniquement l’intelligence vers l’appareil : latence, contexte et acceptabilité imposent une part croissante de traitement local. L’avantage du on device est alors triple : personnalisation (une expérience réellement adaptée), confidentialité (l’absence de tracking centralisé) et sobriété relative, liée à une moindre dépendance aux infrastructures de calcul massives et énergivores. Pour les médias, cela change la donne : la mesure et la monétisation ne pourront plus reposer sur un suivi exhaustif des comportements. Il faudra inventer de nouveaux modèles fondés sur des données agrégées, anonymisées ou sur le consentement explicite.

Le débat n’oppose plus personnalisation et vie privée, mais différentes manières de personnaliser. L’IA embarquée démontre qu’une autre voie est possible. Reste à savoir si elle deviendra majoritaire ou restera une niche.

9. Un enjeu géopolitique et stratégique majeur

À mesure que le salon bascule vers les stacks, les normes et le calcul, il devient aussi un théâtre géopolitique : la bataille ne porte plus seulement sur des produits, mais sur l’accès à l’infrastructure. La course à l’IA n’oppose pas seulement des entreprises, mais aussi des visions de société et des blocs de pouvoir. Qui contrôlera les infrastructures critiques, des supercalculateurs aux grands modèles de langage, dominera l’économie numérique de demain. Dès 2025, le monde de l’IA s’était mué en champ de bataille entre l’open source et les modèles propriétaires, un choix stratégique qui façonne le futur de la tech, du business et même des politiques globales.

D’un côté, des acteurs comme OpenAI, Google ou Microsoft misent sur des IA fermées, puissantes mais opaques, jalousement gardées derrière des API payantes. De l’autre, une mouvance prône des modèles ouverts (Meta avec LLaMA, ou des collectifs open source) pour démocratiser l’accès à l’IA et éviter qu’elle ne soit monopolisée. Le CES 2026 a servi de théâtre à cette rivalité feutrée : les annonces de partenariats, de plateformes et de normes y ont une portée stratégique. Derrière les robots serviables et les démos disruptives, on discerne cette réalité : la bataille pour l’IA se joue autant dans les arènes diplomatiques et économiques que sur les stands.

Les modèles propriétaires comme Gemini, Claude ou ChatGPT restent dominants sur de nombreux usages, mais la frontière entre ouvert et fermé s’amincit de plus en plus et la compétition redouble d’intensité. Chaque annonce de nouveau modèle ou de nouvelle alliance technologique peut être lue comme un mouvement sur l’échiquier global. Pour les entreprises médias et tech européennes la question est existentielle : comment ne pas devenir totalement dépendantes des plateformes fermées ? Le CES 2026 met en lumière des pistes : collaborations pour développer des IA maison, adoption de standards ouverts, et vigilance accrue sur la gouvernance des données. Le contraste Open vs Closed n’est pas qu’un débat de développeurs ; c’est un choix de société qui déterminera si l’IA de demain sera une commodité partagée ou un oligopole verrouillé.

10. Ce qui change pour les médias

Le CES 2026 ne montre pas un futur où les médias disparaissent, mais un futur où ils cessent d’être centraux s’ils renoncent à leur rôle de médiateurs du réel. Ce qui se joue n’est pas une question de volume de production ou de sophistication technologique, mais une question de position dans l’architecture de la médiation. OpenAI sera peut-être bien le Netscape de l’ère IA 1.0 comme le prédit Evan Shapiro, célèbre cartographe des médias, mais en attendant, trois défis émergent :

  • Peut-on parler d’indépendance éditoriale sans maîtrise de l’infrastructure ? Les partenariats deviennent plus stratégiques que les technologies elles-mêmes. L’enjeu n’est plus de produire plus ou mieux, mais de négocier sa place dans des systèmes de recommandation et de médiation qu’on ne contrôle pas.
  • Comment concevoir pour deux audiences simultanées : humains et agents ? La structuration des contenus devient une condition de survie. Qu’est-ce qui peut et doit devenir machine-exprimable, sans transformer l’information en matière générique recombinable à l’infini ? Où placer la frontière entre structuration nécessaire et perte de singularité ?
  • Quel rôle pour le service public dans un monde post-interface ? À mesure que les contenus deviennent reproductibles à l’infini, la traçabilité devient condition de confiance. La provenance n’est plus un « nice to have », mais une infrastructure de la confiance. Pour les médias de service public, la valeur ne réside pas dans l’hyper-personnalisation algorithmique et le scroll infini, mais dans la relation de confiance durable. Le site web ne sert plus à attirer des clics mais à « prouver » et documenter la véracité.

Le modèle descendant (créer, promouvoir, attendre) est arrivé à sa fin. La question n’est plus « faut-il utiliser l’IA ? », mais « où se situe encore notre souveraineté éditoriale ? ». Mais aussi : Qui a accès au calcul ? À quels coûts ? Avec quelles dépendances ? Qui peut se permettre d’être « Always on ? ».

Conclusion : « Friction-maxxing », ou ce que nous perdons quand tout devient fluide

À la fin de ce parcours, une ligne de fuite s’impose, et elle est bien plus culturelle que technologique. Elle ne vient pas d’un des 4100 stands, ni d’une keynote, mais d’une intuition partagée : à mesure que les systèmes réduisent la friction, ils redéfinissent silencieusement ce que signifie être humain. La notion de friction-maxxing, formulée récemment par Kathryn Jezer-Morton dans un article pour  The Cut, agit comme un contre-champ précieux. Elle ne défend ni un retour nostalgique à l’inconfort, ni une morale de l’effort. Elle déplace la question, plus dérangeante : que reste-t-il de notre rôle lorsque des machines toujours plus sophistiquées prennent en charge le choix et l’initiative ?

Les technologies observées au CES 2026 convergent toutes vers une même promesse : moins d’effort, moins de décision et donc moins d’incertitude. Les agents délèguent, les écrans interprètent, les pipelines automatisent, les systèmes publicitaires optimisent, les dispositifs de santé anticipent, les exosquelettes augmentent, les algorithmes suggèrent, et les robots nous préparent le dîner. Chaque brique prise isolément est rationnelle, souvent utile, parfois impressionnante. Mais leur combinaison produit un monde où la friction devient une anomalie à corriger.

Les parallèles sont frappants. Les médicaments GLP-1 sauvent des vies, mais ils interrogent aussi notre rapport à l’appétit et au contrôle de soi. L’IA générative ouvre des capacités cognitives inédites, mais elle soulève une question tout aussi fondamentale : qui sommes-nous lorsque nous cédons la friction de penser ? Lorsque l’effort intellectuel devient optionnel parce qu’il prend trop de temps, lorsque le doute est court-circuité par la synthèse, lorsque des IA médient notre rapport au réel par défaut.

Le CES 2026 ne raconte pas un futur dystopique. Il raconte un futur légèrement trop fluide. Un futur où l’effort devient suspect, où l’inconfort est pathologisé, où la médiation humaine est perçue comme un coût. Le véhicule connecté, aperçu au CES, est un bon résumé de cette médiation devenue situationnelle : un monde où l’accès à l’information et aux contenus passe par des arbitrages en temps réel entre attention, sécurité et pertinence. Quand la médiation se règle à la seconde près, elle cesse d’être un simple confort pour se transformer en gouvernement du contexte.

À l’heure où les systèmes promettent de tout simplifier, le véritable luxe devient peut-être ceci : rester capable de choisir quand ne pas déléguer.


FOCUS TECH :

Ces signaux se lisent aussi dans les fiches techniques, à condition de les regarder comme des indices d’architecture plus que comme une course aux specs. Voici les items qui, mis bout à bout, dessinent les plateformes de demain.

Lunettes connectées et XR

– ASUS ROG Xreal R1 : micro-OLED 240Hz, champ de vision 57°

– Xreal 1S : affichage 1200p, conversion 2D-3D temps réel

– RayNeo Air 4 Pro : premières lunettes AR HDR10

– Meta Ray-Ban Display + Neural Band : contrôle gestuel EMG

– RayNeo X3 Pro : eSIM intégrée pour usage autonome

Robotique

– LG CLOiD : robot domestique « Zero Labor Home »

– Unitree : humanoïdes avec batteries échangeables, capacités de danse et boxe

– ENGINEAI T800 : humanoïde taille réelle, démonstrations arts martiaux

– Boston Dynamics Atlas : production industrielle annoncée

– Sharpa : robot joueur de ping-pong

Computing et IA

– Nvidia Vera Rubin : nouvelle génération supercalculateurs IA post-Blackwell

– Nvidia Alpamayo : modèle IA raisonnement pour véhicules autonomes

– Qualcomm Snapdragon X2 Plus : NPU 80 TOPS pour PC ARM

– AMD Instinct + Ryzen AI 400/Max+ : NPU renforcés, série Embedded pour robots

Téléviseurs

– Samsung Micro RGB 130″ : AI Engine Pro, contrôle couleur microscopique

– Samsung Vision AI Companion : assistant de choix de contenus

– TCL X11LSQD Mini : première LED SQD-Mini, 10 000 nits HDR

– LG G6 Micro RGB : processeur alpha 11 AI, 8,3M pixels

– LG W6 OLED evo : téléviseur Wallpaper 9mm d’épaisseur

French Tech

– 3 Awards CES 2026

franceinfo à propos des médias

Voir plus sur franceinfo