RAISE Paris : sous la Joconde, l’IA passe à l’ère des agents, et personne n’a la définition de l’AGI

On a beau parler d’« AGI » à tous les coins d’estrade, aucun des intervenants du RAISE Summit Paris, grand rendez-vous européen de l’intelligence artificielle, n’en a donné une définition ferme. C’est d’ailleurs l’un des enseignements majeurs de la rencontre des 8 et 9 juillet qui a réuni 6300 participants et 110 médias : Le vocabulaire court après la technologie, quand il ne s’arme pas ouvertement de métaphores belliqueuses. Thomas Wolf, cofondateur et Chief Science Officer de Hugging Face, parle de modèles transformés en « soldats » qu’il faut sans cesse entraîner. BlackRock, premier gestionnaire d’actifs au monde, évoque une « total war » pour le contrôle de toute la chaîne de valeur, du silicium aux agents. Pour Eric Schmidt, ancien PDG de Google, on ne va toujours pas assez vite. Et selon Illia Polosukhin, cofondateur de Near Protocol, « nous courons tous vers quelque chose que nous ne savons pas définir »...

Par Kati Bremme, Directrice Innovation et Rédactrice en chef Méta-Media

L’autre enseignement, plus concret, est en effet que l’IA entre dans sa phase « agentique » : des systèmes capables de planifier, d’agir et d’enchaîner des tâches. Tout l’écosystème se met en place, des puces aux data centers, des logiciels aux données, des modèles ouverts comme propriétaires, jusqu’aux premiers cas d’usage en entreprise. Eric Schmidt, en francophile de passage à Paris, en a donné sa propre lecture forgée outre-Atlantique. Nous serions, selon lui, au seuil d’une « nouvelle époque », dotée d’un nom de code officieux : le « San Francisco Consensus ». Dans la Silicon Valley, l’expression condense la conviction que l’IA va tout reconfigurer (nous, le monde, l’univers…), dans un horizon de trois à six ans. Pour le vétéran de la tech américaine, il ne s’agirait pas d’une bulle mais de la naissance d’une nouvelle industrie, incarnée par des puces devenues plus précieuses que n’importe quelle entreprise de l’histoire et par des centres de calcul dont la puissance, promet-il, sera toujours dévorée par le logiciel.

Ce qu’il faut retenir des échanges :

  • L’agent deviendrait l’interface par défaut. En B2B, « assistants » métiers, copilotage des processus, et bientôt agents autonomes greffés aux systèmes existants ; côté grand public, la bataille de l’« assistant personnel » est relancée par les plateformes et le mobile. (Panel d’ouverture avec SambaNova, BlackRock, Hugging Face, modéré par CNBC). Chaque entreprise de logiciels en mode SaaS finira soit par disparaître, soit par se convertir à l’agentique, selon BlackRock.
  • Ouvert vs. propriétaire : le temps long contre l’efficacité immédiate. Consensus de scène : l’open source reste « le jeu de long terme » (interopérabilité, latence maîtrisée, confidentialité), mais à court terme les usages, notamment les premiers agents, plébiscitent les modèles propriétaires pour la performance brute et l’outillage.
  • La « guerre totale » du full stack. Pour « contrôler son destin », il faut jouer sur le modèle de pointe et l’infrastructure de calcul (accès aux GPU/LPUs, réseau, refroidissement). D’où l’accélération des alliances entre fabricants de puces, clouds spécialisés, intégrateurs et éditeurs.
  • Le véritable goulot d’étranglement, c’est l’inférence, c’est-à-dire le moment où l’on met les modèles d’IA en production pour répondre en temps réel. Les agents sollicitent sans cesse les modèles, ce qui crée des files d’attente. Si la latence est trop élevée ou le débit trop faible, l’expérience utilisateur s’effondre. C’est sur ce terrain que se positionnent les fabricants de puces dédiées à l’inférence (Groq, Cerebras, SambaNova…), qui occupent désormais le devant de la scène.
  • La donnée devient un bien stratégique… et négocié. Entre paywalls qui se referment et médias qui bloquent les bots (dans une tentative désespérée de protégrer leurs modèles économiques), l’« infrastructure de données » (pour ne pas nommer Bright Data) plaide pour la visibilité des contenus publics et anticipe des modèles de compensation, y compris via la publicité intégrée aux chatbots.

Sur scène : de la « guerre totale » aux files d’attente des agents

Dès l’ouverture, le ton est posé : celui d’une guerre industrielle, où chaque camp tente d’imposer son récit. Derrière les slogans, une question centrale : qui contrôlera la prochaine génération d’intelligence artificielle ? Le clivage est désormais net. À long terme, beaucoup parient sur l’open source, cet écosystème où les modèles sont accessibles et adaptables par tous. Mais dans l’immédiat, ce sont encore les modèles propriétaires qui s’imposent, jugés plus fiables, plus robustes et surtout mieux intégrés dans les usages des entreprises. L’analogie avec l’histoire récente du numérique éclaire l’enjeu : l’open source ressemble à Linux, foisonnant mais fragmenté, tandis que les modèles fermés jouent la carte d’Apple, cohérents, verrouillés, mais efficaces.

Pour Hugging Face, l’ouverture n’est pas qu’un slogan, c’est un moyen de garder la main sur deux paramètres essentiels : la rapidité de réponse (la latence) et la confidentialité des données. Dans un contexte mouvant, un modèle d’IA ne reste pertinent que quelques mois. Les entreprises les testent en continu et basculent vers le mieux-disant dès que le rapport coût/qualité s’inverse. Quelques géants conservent leur rang, mais uniquement grâce à un effet « iPhone » : une intégration si profonde que tout l’écosystème reste captif. Andrey Khusid, fondateur de Miro, a aussi rappelé que si l’IA s’impose vite sur les usages individuels, elle bute encore sur les usages collectifs : le travail d’équipe et surtout la collaboration entre équipes restent les vrais points faibles. La lenteur des grandes entreprises ne tient d’ailleurs pas seulement à l’exécution, mais au millefeuille de procédures accumulées depuis quarante ans, y compris dans les fleurons du CAC 40.

Présentation Dr Uri Yerushalmi, AI Decision Making, Fetcherr

Mais au-delà des inerties humaines et organisationnelles, une autre limite apparaît, cette fois mécanique : l’infrastructure. Les agents, ces systèmes censés automatiser les tâches, multiplient les appels aux modèles comme autant de voitures entrant sur une autoroute déjà saturée. Les serveurs se transforment en goulots d’étranglement, les files d’attente s’allongent, la latence grimpe. Une seconde de retard suffit alors à briser l’expérience. Tant que ce bouchon n’est pas levé, la révolution de l’IA restera à la porte de l’industrialisation. Et derrière ces embouteillages numériques, la bataille du silicium s’anime. Nvidia règne toujours en maître, mais trois challengers avancent leurs cartes.

Groq mise sur la vitesse d’exécution : son architecture d’inférence revendique des performances record, et l’entreprise a obtenu un engagement de 1,5 milliard de dollars de l’Arabie saoudite pour développer son infrastructure d’IA dans le royaume. Cerebras joue la démesure avec son Wafer Scale Engine, un processeur géant gravé sur une galette entière de silicium, qui concentre l’équivalent de dizaines de GPU traditionnels dans une seule puce.. SambaNova, enfin, revendique la souplesse : son approche modulaire, dite « Dataflow », permet d’orchestrer plusieurs modèles spécialisés en parallèle. Tous visent le même objectif : montrer qu’ils peuvent soutenir des agents en continu, sans rupture, condition indispensable pour passer du prototype à l’industrialisation. En parallèle, Charles Liang, fondateur et PDG de Supermicro, a résumé son credo d’une formule lapidaire : « Je vends tout ce qu’il faut pour un data center. » Rieur sur scène, il balaie d’un revers la crainte de voir son secteur se transformer en simple commodité : la concurrence fait partie de la nature des choses, et la pression sur les prix n’est pas une menace pour l’entreprise chinoise.

Enfin, une évidence économique s’impose : l’IA se paie à l’usage, en « tokens », ces unités de calcul qui mesurent le volume de contenu traité. Les grands modèles fermés resteront coûteux et voraces en ressources, mais des modèles plus petits et mieux entraînés répondent déjà à des besoins ciblés, parfois directement « on device », sur les appareils eux-mêmes. La bataille ne se joue pas seulement dans les centres de données, mais aussi dans la poche des utilisateurs, …et dans la valeur des contenus qui alimentent les modèles.

La bataille de la donnée : un internet qui se referme

Interrogé sur scène par Larissa Holzki (Handelsblatt), Or Lenchner, directeur général de Bright Data, a tenu un discours sans filtre : « les modèles doivent savoir ce qui existe, quitte à filtrer ensuite ». La journaliste l’a poussé sur un terrain sensible, celui de la responsabilité : Bright Data collecte-t-elle aussi des contenus problématiques, comme les discours de haine ? Le patron de Bright Data a balayé la question en expliquant que son rôle n’était pas de juger, mais d’aspirer « tout ce qui est public », revendiquant 40 milliards de requêtes envoyées chaque jour et laissant aux clients et aux modèles d’IA le soin de filtrer en sortie. Dans cette phase d’alimentation, peu importe à ses yeux que le contenu soit rédigé par une IA plutôt que par un humain, du moment qu’il est vérifié et qu’il est « bon », en ajoutant une précision : la création de contenu n’est pas réservée aux journalistes.

Cet argumentaire n’a rien d’innocent. Bright Data vit du web scraping, de l’extraction automatisée de données accessibles sur Internet (pages web, réseaux sociaux, forums), qu’elle revend ensuite à ses clients : grandes plateformes technologiques, institutions financières, laboratoires de recherche… et parfois même les mêmes géants qui l’attaquent en justice. Meta et X figurent parmi ses clients tout en ayant tenté de le bloquer devant les tribunaux. En janvier 2024, Bright Data avait remporté une victoire décisive face à Meta devant un tribunal fédéral de Californie : le juge a estimé que l’aspiration de contenus publics, sans connexion ni piratage, ne constituait pas une violation contractuelle. Ce qui est visible sans authentification peut être collecté.

A21, l’IA, aussi simple qu’un mode d’emploi Ikea

Pour les médias, l’enjeu est évident. Chaque paywall, chaque barrière anti-bots est une tentative de protéger la valeur éditoriale. Mais dans le monde lumineux décrit par Bright Data, bloquer l’accès revient à disparaître des usages émergents de l’IA, et même, aoute-t-il, à « détériorer la qualité des modèles ». Autrement dit : gare à vous, éditeurs. Si l’internet de l’IA se transforme en bouillie, ce sera sur votre conscience. D’où sa « solution », énoncée avec une ironie assumée : financer l’accès par la publicité intégrée aux interfaces IA, à la manière dont les moteurs de recherche ont longtemps soutenu la presse en échange de visibilité. Dans un autre échange, BlackRock souligne que la valeur ne se joue plus seulement dans l’accumulation de données brutes, mais dans le post-entraînement : cette phase où les modèles sont ajustés, enrichis et gouvernés (par exemple via le RAG, qui relie un modèle à des bases documentaires, ou le function calling, qui permet de transformer une requête en action). Ce qui compte désormais, ce ne sont pas des volumes indistincts, mais des contenus certifiés, contextualisés et traçables, capables d’alimenter directement l’expérience utilisateur, une fenêtre entrouverte pour les éditeurs. Et face à une course où tout se mesure en volumes de données ingérables et en gigawatts de calcul, le meilleur atout reste peut-être ce que la Silicon Valley considère comme accessoire : l’expertise.

Le « San Francisco Consensus » : l’avenir selon Eric Schmidt

Pour Eric Schmidt, ancien patron de Google et figure centrale de la Silicon Valley, le RAISE Summit a été l’occasion de dérouler à Paris sa vision d’un « Brave New World » de l’IA. Selon lui, l’AGI, cette intelligence artificielle dite « générale », capable d’égaler les meilleurs humains dans la plupart des tâches, pourrait émerger dans les trois à cinq prochaines années. Et l’ASI, l’« intelligence super-humaine », dépassant cette fois toutes les capacités intellectuelles réunies, suivrait de près, à l’horizon de six ans. Il a précisé qu’il ne s’agissait pas d’une prédiction scientifique, mais d’un calendrier partagé par une grande partie de l’écosystème US, baptisé le « consensus de San Francisco ».

Une vision vertigineuse… et qui, comme par hasard, confirme surtout qu’il est urgent d’investir massivement dans les technologies portées par les figures de la baie. Pourtant (ou justement), Eric Schmidt décrit une situation qui a tout d’une bulle : « Nous sommes dans une phase de surconstruction, il y aura de la surcapacité dans quelques années, mais cela ne me dérange pas, les autres mourront. » Tout en insistant d’aller vite, il n’hésite pas à reconnaître ses propres angles morts. Il admet ainsi qu’en 2017, alors qu’il présidait encore Google, il n’avait même pas remarqué la publication du fameux article scientifique sur les Transformers, pourtant la base de toute l’IA générative actuelle.

Eric Schmidt avec Andrew Feldman, patron de Cerebras

Pour l’ancien patron de Google, nous n’assistons pas à une bulle, mais à la naissance d’une nouvelle industrie. Une industrie tirée avant tout par le matériel : chaque nouvelle capacité de calcul finit par trouver son usage. La limite, en revanche, est énergétique. Selon lui, les choses sont simples : en Europe, l’enjeu n’est pas l’algorithme mais l’électricité. « La France l’a, mais elle a choisi de la taxer », cingle-t-il. Et le chemin le plus court vers l’AGI, ajoute-t-il, passe par le nucléaire. Les faits semblent confirmer la tendance : Meta a signé en juin 2025 un contrat d’approvisionnement direct auprès d’une centrale nucléaire, Google avait déjà fait de même à l’automne 2024.

Eric Schmidt poursuit avec Andrew Feldman, patron de Cerebras : les systèmes s’auto-améliorent déjà, et les agents composent leurs propres solutions. L’enjeu n’est plus seulement technique mais politique : comment maintenir un alignement éthique et démocratique quand les modèles évoluent en continu, sans qu’aucune mise à jour ne vienne plus marquer de rupture identifiable ? Il convoque alors la voix de son ami disparu Henry Kissinger, avec qui il avait cosigné The Age of AI : « Qu’est-ce que cette magie ? Dieu ? ». Une provocation en forme d’avertissement : les démocraties survivront-elles à l’AGI ?

Le stratège de la Silicon Valley élargit aussitôt le cadre au champ géopolitique. Aux États-Unis, l’IA reste dominée par quelques géants et leurs modèles propriétaires, enfermés dans d’immenses data centers. La Chine, à l’inverse, pousse une stratégie d’« open source » : des modèles ouverts, largement soutenus par l’État, qui se diffusent rapidement à l’échelle mondiale. Résultat : dans le Sud global, ce sont déjà les modèles chinois qui irriguent la majorité des usages quotidiens. Eric Schmidt souligne le paradoxe : Washington peut conserver l’avance technologique, mais pas nécessairement l’influence culturelle. Et ce basculement, prévient-il, reste largement sous-estimé, surtout dans ces « pays où l’on ne va jamais » (selon lui), mais où se dessine déjà l’adoption réelle, et le futur.


Conclusion

L’IA n’est plus un récit abstrait mais une industrie lourde : treize usines programmées en Europe, dont quatre gigafactories, pour un investissement total estimé à 20 milliards d’euros. Mais Eric Schmidt a jeté un froid devant le Congrès américain : il faudra deux centrales nucléaires par centre de données, 92 nouvelles centrales nucléaires d’ici dix ans pour soutenir la course. Derrière l’enthousiasme, la matérialité brute des infrastructures et la facture énergétique esquissent un futur peu souhaitable. Dans ce paysage, une autre transformation se joue : du « software is eating the world » on passe à « everybody builds software ». Les outils de génération réduisent l’écart entre idée et exécution à quelques heures. Même les gestes du quotidien s’en trouvent traversés : Mark Minevich, Strategic Partner chez Mayfield, évoquait, non sans malice, sa boulangerie new-yorkaise qui revendique déjà des croissants optimisés par apprentissage automatique. Derrière l’anecdote, une tendance lourde : chaque employé peut désormais « parler à la donnée » et accéder directement à la complexité d’une entreprise. L’adoption ne suit plus les courbes classiques : elle déplace la valeur du process vers l’usage, de la logique des équipes vers celle des individus.

Et pendant que la scène se passionne pour l’AGI, la vraie bascule pourrait venir en douceur, presque sans bruit. Comme le smartphone qui a un jour remplacé nos clés, le portefeuille ou les billets de train sans que l’on s’en aperçoive. Ce n’est pas une bataille frontale entre les États-Unis et la Chine. L’Afrique, l’Asie du Sud, l’Asie du Sud-Est et d’autres zones encore sous le radar des cartes stratégiques imposent déjà leurs propres usages. Et avec eux, d’autres visions que celle de l’hyperscaling à marche forcée, promue par Sam Altman et les géants de la tech états-uniens. L’IA ne se résume pas aux LLM. Ni même au deep learning. Dans nombre d’organisations, des systèmes probabilistes, des architectures hybrides ou des modèles symboliques suffisent à produire de la valeur, sans GPU ni promesses de conscience artificielle. Un moteur de règles bien conçu peut parfois automatiser plus efficacement qu’un modèle à 70 milliards de paramètres.

Ce sont aussi ces voies frugales, contextualisées, souvent open source, qui se développent hors des discours dominants. En attendant, dans ce monde saturé, Internet se dédouble : d’un côté les humains, de l’autre les agents IA. Selon les experts réunis à Paris (tous plutôt du côté de l’hyperscaling), la vague suivante sera robotique, plus profonde encore que les textes générés, avec des agents qui ne se contentent plus de répondre mais qui explorent et interviennent. La souveraineté ne réside plus dans les corpus hérités mais dans les futures données générées en interaction avec l’IA. L’Europe souhaite rester souveraine tout en accédant aux technologies de pointe. Pour espérer prendre un temps d’avance, elle doit penser à la fois ses entreprises existantes et celles qui émergent. Et à mesure que l’IA devient de plus en plus capable de faire ce que nous faisons, reste à savoir ce que nous voulons faire demain.

Des cas d’usage qui prennent forme

  • Snowflake : Dans un échange avec Roxanne Varza (Station F), Benoît Dageville a défendu l’ambition de transformer sa plateforme en « iPhone de la donnée », masquant la complexité technique pour offrir une interface en langage naturel.
  • Sanofi : le groupe a présenté sa plateforme interne de GenAI et son « concierge », un agent orchestrant les tâches quotidiennes, avec un accent particulier sur la gouvernance responsable.
  • Datadog et Miro : les deux acteurs ont souligné la difficulté d’embarquer les équipes au rythme de l’innovation, rappelant que les gains de productivité individuels ne suffisent pas à compenser la fragilité des usages collectifs.
  • Nutanix et Nvidia : les deux ont promis un « full stack » simplifié pour les entreprises, de la salle serveur à l’edge.

Les « builders » en première ligne

La scène a aussi donné la parole à une nouvelle génération d’entrepreneurs.

  • Lovable (Anton Osika) : il défend la thèse du « vibe-coding », transformer une idée en produit en quelques heures plutôt qu’en plusieurs mois. La start-up revendique jusqu’à 70 000 nouveaux projets créés par jour, 10 % de tous les nouveaux sites web mis en ligne dans le monde le mois dernier. Une trajectoire fulgurante confirmée par ses levées de fonds et la couverture média internationale.
  • Cursor : avec son « agent mode », elle poursuit le même objectif : réduire l’écart entre idéation et exécution.
  • Manus AI (Tao Zhang) : elle pousse l’idée d’un navigateur construit pour et par des agents, avec déjà 3,5 millions d’inscrits en liste d’attente.

Mini-glossaire

Agentique / agents : systèmes capables de planifier et d’exécuter une suite d’actions pour atteindre un objectif, au-delà de la simple génération de texte.

Latence : temps écoulé entre une requête et la réponse du système. Une faible latence est cruciale pour une expérience fluide.

Post-entraînement : phase d’ajustement qui suit l’entraînement initial des modèles. Elle inclut notamment :

  • RLHF (Reinforcement Learning with Human Feedback) : apprentissage par renforcement à partir de retours humains.
  • RLAIF (Reinforcement Learning with AI Feedback) : apprentissage par renforcement à partir de retours générés par un autre modèle d’IA.
  • ainsi que l’intégration d’outils externes pour améliorer les performances.

Multitenancy : capacité d’une même infrastructure à être partagée par plusieurs clients ou applications, tout en restant isolée et sécurisée pour chacun.

Edge : traitement et exécution au plus près de la source de données (sur l’appareil lui-même ou dans un site industriel), plutôt que dans des serveurs distants hébergés dans le cloud.

franceinfo à propos des médias

Voir plus sur franceinfo