🔴 Le sentiment de bulle à l’épreuve du capital infini

Nous continuons notre reflexion sur la bulle de l’infrastructure IA. Et si il n'y avait pas de bulle ?

🔴 Le sentiment de bulle à l’épreuve du capital infini
N/evernon 2025

Vous ĂŞtes plus de 6000 Ă  nous lire tout les week-ends. Merci de votre confiance.

La semaine dernière, nous avons discuté d’une bulle de l’infrastructure de l’IA.

  • Avec un risque important : celui de l’explosion de la dette secondaire, celle des fournisseurs qui, face Ă  la folie de construction des datacenters, doivent s’endetter avec un risque latent. Ce risque existe en Europe aussi.
  • Mais si les valorisations et les montants sont importants, beaucoup d’investisseurs de la Silicon Valley continuent Ă  soutenir qu’il ne s’agit pas d’une bulle, mais d’un rĂ©alignement rationnel du capital.

Cette semaine, nous allons explorer cette nouvelle reconfiguration industrielle et les conséquences économiques et politiques. En prenant le parti de la Silicon Valley.

🆓
Normalement, cette note devrait être disponible exclusivement pour nos abonnés payants, mais à l’occasion des deux ans de Cybernetica, nous la laissons accessible à tous.

Petite plongée dans les réflexions du moment sur l’IA.

Tout d’abord, le marché de l’IA a profondément changé depuis le 28 octobre 2025. OpenAI a enfin officialisé son nouvel accord avec Microsoft.

  • Le plafond des revenus, qui Ă©tait restreint par le montage historique, a Ă©tĂ© enlevĂ©. Sous la OpenAI Foundation, a Ă©tĂ© créée une entitĂ© Ă  but lucratif, l’OpenAI Group PBC (Public Benefit Corporation), qui concentre dĂ©sormais toutes les activitĂ©s commerciales : dĂ©veloppement de modèles, produits (ChatGPT, API, etc.) et partenariats industriels.
  • Microsoft dĂ©tient environ 27 % du capital de cette structure et conserve les droits de propriĂ©tĂ© intellectuelle sur les modèles d’OpenAI jusqu’en 2032.
  • Microsoft reste le principal fournisseur de calcul via Azure (avec un engagement d’environ 250 milliards $ sur la durĂ©e). C’était important pour Microsoft de vendre Ă  ses clients qu’il hĂ©berge ChatGPT d’un point de vue marketing.
  • Mais l’accord ouvre pour la première fois Ă  OpenAI la possibilitĂ© d’utiliser d’autres clouds et de collaborer avec des tiers pour des produits hors API, marquant la fin de l’exclusivitĂ© totale de Microsoft.
  • Enfin, la clause AGI, qui prĂ©voit que si OpenAI atteint une intelligence artificielle gĂ©nĂ©rale ( validĂ©e par un panel indĂ©pendant ) alors les droits de Microsoft devront ĂŞtre renĂ©gociĂ©s, semble toujours en place.

La peur d’un éclatement de la bulle a sûrement été l’un des principaux motifs d’un deal rapide. Personne, surtout pas Microsoft, dont les valeurs stratosphériques sont liées à l’IA, n’avait d’intérêt à ce que la situation d’OpenAI reste bancale.

Nous sommes désormais dans un monde nouveau avec des règles nouvelles que nous allons étudier en détail ici.

Principaux enseignements

  • Il ne s'agit pas d'une bulle spĂ©culative : Contrairement aux annĂ©es 2000, l’infrastructure actuelle (GPU, data centers) est rĂ©ellement utilisĂ©e avec un retour sur investissement positif.
  • Les gĂ©ants technologiques contrĂ´lent toute la chaĂ®ne de valeur : Google, OpenAI, Nvidia, Meta disposent des ressources financières, humaines et techniques pour verrouiller l’innovation autour de l’IA. Ça va ĂŞtre très dur pour des entreprises de type Mistral (qui veut lever 6 milliards pour rester dans la course).
  • Les puces IA deviennent le nouveau champ de bataille : Le duel Google (TPU) vs Nvidia structure les rapports de force Ă  venir et explique les derniers partenariats circulaires de Nvidia. Google a annoncĂ© qu’il va commercialiser ses puces pour d’autres acteurs.
  • La baisse des marges brutes est le nouveau modèle Ă©conomique : Contrairement aux logiciels SaaS, les applications IA consomment Ă©normĂ©ment de calcul. Des marges faibles sont compensĂ©es par une adoption rĂ©elle.
  • Les modèles Ă©conomiques vont ĂŞtre profondĂ©ment modifiĂ©s : Le passage de la facture Ă  l’usage vers une facture aux rĂ©sultats va changer le business model de l’IA.
  • Les robots arrivent : Tesla et la Chine mènent la course aux humanoĂŻdes. C’est le nouveau terrain de jeu.

Une chose est sûre, c’est qu’on va devoir apprendre à normaliser des investissements de plusieurs milliers de milliards de dollars et un déclin de marges historiquement élevées dans la Tech.

L’IA reste encore dans une phase d’intégration industrielle massive. Voici quelques éléments d’une note pour un de nos clients sur ces questions.

Différences structurelles avec la bulle de 2000

đź’ˇ
Le terme Dark Fiber veut dire fibre optique qui n’a pas été mise en circulation.

97 % de la fibre installée était inutilisée (non “allumée”) au sommet de la bulle de 2000. Aujourd’hui, tous les GPU sont saturés.

  • Les valorisations sont bien plus rationnelles qu’à l’époque (Nvidia Ă  40x les bĂ©nĂ©fices vs Cisco Ă  150x en 2000).
  • Google, Meta, Microsoft et Amazon ont fortement investi dans l’IA, en achetant des GPU et en construisant des data centers.
  • Depuis cette montĂ©e en puissance des dĂ©penses (capex), leur retour sur capital investi (ROIC) a augmentĂ© d’environ 10 points. Cela signifie que ces investissements massifs sont rentables.
  • Contrairement Ă  la bulle de 2000, oĂą les infrastructures Ă©taient sous-utilisĂ©es, ici les ressources (GPU) sont pleinement exploitĂ©es, ce qui amĂ©liore directement la rentabilitĂ© de ces groupes.
  • La question qui est posĂ©e, c’est Ă©videmment celle des business modèles qui font tourner ces nouvelles infrastructures.

Implication stratégique : L’idée qu’il ne s'agit pas d’un emballement spéculatif, mais d’un changement de volume et d’infrastructure fait son chemin dans la Silicon Valley.

Concentration du capital et barrière à l’entrée

Les géants du numérique détiennent 500 milliards de dollars de cash.

  • Les principales entreprises du secteur technologique (Apple, Microsoft, Google Alphabet, Amazon, Meta, Nvidia ) ont accumulĂ© collectivement environ 500 milliards de dollars de trĂ©sorerie disponible sur leurs bilans.
  • Cet excès de liquiditĂ©s leur donne une capacitĂ© d’investissement “illimitĂ©e” dans les infrastructures IA (data centers, GPU, puces, logiciels).
  • Exemple : Microsoft dispose de plus de 80 milliards de dollars en cash. Alphabet dĂ©passe les 100 milliards.
  • Pour Ă©viter un effet d’asphyxie, les nouveaux entrants comme CoreWeave, Mistral Data Center, Fluidstack sont aidĂ©s par Nvidia mais n’ont ni la mĂŞme Ă©chelle de capital, ni probablement l’accès prioritaire au matĂ©riel (ce qu’Elon Musk a rĂ©ussi brillamment pour son data center Colossus l’annĂ©e dernière).
  • En plus de leur trĂ©sorerie, ces groupes gĂ©nèrent chaque annĂ©e un flux de trĂ©sorerie net (free cash flow) combinĂ© de plus de 300 milliards de dollars.
  • Cela leur permet de rĂ©investir massivement chaque annĂ©e, sans dĂ©pendre de la dette ou du financement externe.

Exemples annuels (approximatifs) :

  • Apple : ~100 Mds $
  • Microsoft : ~65 Mds $
  • Alphabet : ~60 Mds $
  • Nvidia : ~60 Mds $
  • Meta : ~40 Mds $
  • Amazon : ~30 Mds $

Contrairement à ce que beaucoup espéraient, l’IA ne remet pas en cause l’ordre établi, elle renforce la position des acteurs dominants (Big Tech), car ils ont les données (Google Search, YouTube, Facebook, Instagram, etc.), la distribution (navigateur, OS, smartphones, objets connectés, plateformes), les ressources en calcul (GPU, cloud interne) et les talents (chercheurs, ingénieurs IA)

Mais surtout le capital pour soutenir des investissements à faible marge dans l’IA pendant plusieurs années.

Dans un contexte de concentration de pouvoir technologique, les stratégies de souveraineté numérique des États et des PME sont compliquées, car elles ne peuvent pas intégrer les revenus à faible marge .

Amazon, Uber n'ont réussi leur pari que parce qu'ils sont sur un marché global qui permet de transformer des marges minimes en source de revenus consolidées globalement.

Une initiative nationale, voire même européenne dans l'IA, ne sera pas suffisante. Sauf si on adopte un modèle à la chinoise.

La baisse des marges, c’est le nouveau business model

  • Une baisse des marges est perçue positivement par le marchĂ© : elle indique une rĂ©elle utilisation des modèles IA.
  • Les entreprises SaaS qui refusent de revoir leur modèle risquent de se faire dĂ©passer, voire disparaĂ®tre.
  • Microsoft ou Adobe semblent montrer qu’un passage vers l’IA est possible, mĂŞme avec une pression sur les marges.

Implication stratégique : Les marchés financiers sont progressivement en train d’accepter que la tech produise des marges plus faibles pour rester dans la course.
Comme nous l’avions expliqué dans une précédente newsletter, reste à savoir si l’électricité sera ou non disponible en quantité suffisante.

Le duel d’infrastructure de 2026 : Nvidia vs Google (TPU)

  • Nvidia n’est plus un simple fabricant de puces : c’est un constructeur de datacenters complets, avec logiciels, rĂ©seaux et racks.
  • Google (via les TPU) propose en rĂ©alitĂ© l’alternative principale Ă  l’écosystème Nvidia, mais cette technologie est exclusivement en interne.
  • La licence des TPU Ă  d’autres plateformes (via Broadcom) par Google pourrait dĂ©stabiliser les autres initiatives de puces dĂ©diĂ©es. En effet, si Google commence Ă  les vendre massivement, les autres projets de puces (ex : Amazon Trainium, Groq) risquent de perdre tout intĂ©rĂŞt.

Google a déjà 3 à 4 générations d’avance. Il est quasiment impossible de les rattraper à court terme pour une nouvelle entreprise dans les puces.

Implication stratégique : Le contrôle des couches matérielles et logicielles devient un levier de puissance économique et géopolitique.

Avec son partenariat avec OpenAI, AMD joue un rôle de solution de secours si les puces conçues en interne par OpenAI n’étaient pas prêtes. Ce sont désormais des GPU alternatifs, mais qui restent moins visibles que Nvidia.

La bataille pour le contrôle des interfaces utilisateurs et de la boucle de rétroaction

N/evernon 2025
  • L’enjeu majeur de 2026 est de contrĂ´ler la donnĂ©e post-interaction (feedback loops).
  • Les modèles IA apprennent dĂ©sormais via leurs utilisateurs, crĂ©ant un effet volant semblable Ă  l’ère des plateformes sociales. Comme pour le search, puis pour les rĂ©seaux sociaux, c’est le volume d’interaction qui crĂ©e la diffĂ©rence.

C’est pour cela que la bataille des points d’entrée ne fait que démarrer : navigateur, chatbots, assistants.

đź’ˇ
Il est évident que Chrome et sa base installée attendent que les éclaireurs (Atlas d’OpenAI et Comet de Perplexity) définissent les use cases et essuient les plâtres pour les nouveaux problèmes de sécurité.

Mutation des modèles économiques : de la facturation à l’usage à la facturation au résultat

  • L’IA favorise les modèles Ă©conomiques Ă  la performance en Ă©quivalence humaine. De nombreux indicateurs sont en train d’être mis en place, non pas pour Ă©valuer comment l’IA remplace le travail humain, mais pour la facturation du travail Ă©quivalent humain.
  • Les entreprises, si elles intègrent l’IA, vont devoir mettre en Ĺ“uvre des produits IA Ă  marge nulle, adossĂ©s Ă  leur activitĂ© existante. Le seul intĂ©rĂŞt, c’est que les rĂ©sultats paient pour cet investissement.
  • De nombreuses entreprises publiques refusent encore ce virage, par peur de rĂ©action boursière.

Savoir monétiser l’intelligence, pas seulement le logiciel, sera le graal.
La question est de savoir qui, entre une entreprise AI first et une entreprise qui intègre de l’IA, aura la meilleure marge d’usage.

Robotique : le prolongement physique de l’IA

  • Les robots humanoĂŻdes (ex. Tesla Optimus) progressent Ă  une vitesse impressionnante. C’est surtout en Chine que les progrès sont les plus flagrants.
  • Quand on regarde les investissements, il semble qu’un des dĂ©bats sur la forme des robots est clos : l’humanoĂŻde domine par compatibilitĂ© avec l’environnement humain. Les marges seront encore plus fines, il faut donc pas se rater dans l’implĂ©mentation.
  • La Chine sera le grand rival de Tesla dans ce secteur, et l’Europe brille par son absence.

Conclusion temporaire

0:00
/0:05

N/evernon 2025

Il y a donc deux conversations : une bulle secondaire de l’infrastructure, couplée à une phase de restructuration stratégique du capital numérique mondial.

L’objectif, c’est l’accélération de l’asymétrie entre ceux qui ont l’infrastructure, la donnée et la distribution, et ceux qui en dépendent.

La question de l’autonomie cognitive, qui m’occupe à travers mes nouvelles activités, est d’apprendre à naviguer dans un monde où les superintelligences, les intelligences passives et les intelligences locales vont coexister. Comment garder le fil ?

Cette question est stratégique pour les États et les institutions.

  • Beaucoup d’acteurs du retail, au dĂ©part, n’ont pas voulu faire de concurrence Ă  Amazon, car ils trouvaient que les marges Ă©taient trop faibles par rapport au retail classique.
  • Et pourtant, Amazon a montrĂ© qu’il Ă©tait possible de vivre avec des marges ultra-rĂ©duites et de s’en servir pour crĂ©er l’une des entreprises les plus rentables de l’histoire : Amazon Web Services.

L’IA a le même problème mais avec un facteur 1000.

Le souci, c’est que le monde non-IA n’est pas prêt à une commoditisation de l’intelligence. Dans une entreprise comme Amazon, cela veut dire licencier des gens pour les remplacer par des achats de GPU. Amazon a compris avant d’autres que les très faibles marges vont obliger AWS à inventer un nouveau modèle beaucoup moins profitable.

Peu d'industriels en Europe l’ont pour l’instant compris.

Pour les abonnés payants quelques bonus quand même!

Super ! Vous vous êtes inscrit avec succès.

Bienvenue de retour ! Vous vous êtes connecté avec succès.

Vous vous êtes abonné avec succès à Éditions Cybernetica.

Succès ! Consultez votre email pour obtenir le lien magique de connexion.

Succès ! Vos informations de facturation ont été mises à jour.

Vos informations de facturation n'ont pas été mises à jour.