Vous ĂŞtes plus de 6000 Ă nous lire tout les week-ends. Merci de votre confiance.
La semaine dernière, nous avons discuté d’une bulle de l’infrastructure de l’IA.
- Avec un risque important : celui de l’explosion de la dette secondaire, celle des fournisseurs qui, face à la folie de construction des datacenters, doivent s’endetter avec un risque latent. Ce risque existe en Europe aussi.
- Mais si les valorisations et les montants sont importants, beaucoup d’investisseurs de la Silicon Valley continuent à soutenir qu’il ne s’agit pas d’une bulle, mais d’un réalignement rationnel du capital.
Cette semaine, nous allons explorer cette nouvelle reconfiguration industrielle et les conséquences économiques et politiques. En prenant le parti de la Silicon Valley.
Petite plongée dans les réflexions du moment sur l’IA.
Tout d’abord, le marché de l’IA a profondément changé depuis le 28 octobre 2025. OpenAI a enfin officialisé son nouvel accord avec Microsoft.
- Le plafond des revenus, qui était restreint par le montage historique, a été enlevé. Sous la OpenAI Foundation, a été créée une entité à but lucratif, l’OpenAI Group PBC (Public Benefit Corporation), qui concentre désormais toutes les activités commerciales : développement de modèles, produits (ChatGPT, API, etc.) et partenariats industriels.
- Microsoft détient environ 27 % du capital de cette structure et conserve les droits de propriété intellectuelle sur les modèles d’OpenAI jusqu’en 2032.
- Microsoft reste le principal fournisseur de calcul via Azure (avec un engagement d’environ 250 milliards $ sur la durée). C’était important pour Microsoft de vendre à ses clients qu’il héberge ChatGPT d’un point de vue marketing.
- Mais l’accord ouvre pour la première fois à OpenAI la possibilité d’utiliser d’autres clouds et de collaborer avec des tiers pour des produits hors API, marquant la fin de l’exclusivité totale de Microsoft.
- Enfin, la clause AGI, qui prévoit que si OpenAI atteint une intelligence artificielle générale ( validée par un panel indépendant ) alors les droits de Microsoft devront être renégociés, semble toujours en place.
La peur d’un éclatement de la bulle a sûrement été l’un des principaux motifs d’un deal rapide. Personne, surtout pas Microsoft, dont les valeurs stratosphériques sont liées à l’IA, n’avait d’intérêt à ce que la situation d’OpenAI reste bancale.
Nous sommes désormais dans un monde nouveau avec des règles nouvelles que nous allons étudier en détail ici.
Principaux enseignements
- Il ne s'agit pas d'une bulle spéculative : Contrairement aux années 2000, l’infrastructure actuelle (GPU, data centers) est réellement utilisée avec un retour sur investissement positif.
- Les géants technologiques contrôlent toute la chaîne de valeur : Google, OpenAI, Nvidia, Meta disposent des ressources financières, humaines et techniques pour verrouiller l’innovation autour de l’IA. Ça va être très dur pour des entreprises de type Mistral (qui veut lever 6 milliards pour rester dans la course).
- Les puces IA deviennent le nouveau champ de bataille : Le duel Google (TPU) vs Nvidia structure les rapports de force à venir et explique les derniers partenariats circulaires de Nvidia. Google a annoncé qu’il va commercialiser ses puces pour d’autres acteurs.
- La baisse des marges brutes est le nouveau modèle économique : Contrairement aux logiciels SaaS, les applications IA consomment énormément de calcul. Des marges faibles sont compensées par une adoption réelle.
- Les modèles économiques vont être profondément modifiés : Le passage de la facture à l’usage vers une facture aux résultats va changer le business model de l’IA.
- Les robots arrivent : Tesla et la Chine mènent la course aux humanoïdes. C’est le nouveau terrain de jeu.
Une chose est sûre, c’est qu’on va devoir apprendre à normaliser des investissements de plusieurs milliers de milliards de dollars et un déclin de marges historiquement élevées dans la Tech.
L’IA reste encore dans une phase d’intégration industrielle massive. Voici quelques éléments d’une note pour un de nos clients sur ces questions.
Différences structurelles avec la bulle de 2000
97 % de la fibre installée était inutilisée (non “allumée”) au sommet de la bulle de 2000. Aujourd’hui, tous les GPU sont saturés.
- Les valorisations sont bien plus rationnelles qu’à l’époque (Nvidia à 40x les bénéfices vs Cisco à 150x en 2000).
- Google, Meta, Microsoft et Amazon ont fortement investi dans l’IA, en achetant des GPU et en construisant des data centers.
- Depuis cette montée en puissance des dépenses (capex), leur retour sur capital investi (ROIC) a augmenté d’environ 10 points. Cela signifie que ces investissements massifs sont rentables.
- Contrairement à la bulle de 2000, où les infrastructures étaient sous-utilisées, ici les ressources (GPU) sont pleinement exploitées, ce qui améliore directement la rentabilité de ces groupes.
- La question qui est posée, c’est évidemment celle des business modèles qui font tourner ces nouvelles infrastructures.
Implication stratégique : L’idée qu’il ne s'agit pas d’un emballement spéculatif, mais d’un changement de volume et d’infrastructure fait son chemin dans la Silicon Valley.
Concentration du capital et barrière à l’entrée
Les géants du numérique détiennent 500 milliards de dollars de cash.
- Les principales entreprises du secteur technologique (Apple, Microsoft, Google Alphabet, Amazon, Meta, Nvidia ) ont accumulé collectivement environ 500 milliards de dollars de trésorerie disponible sur leurs bilans.
- Cet excès de liquidités leur donne une capacité d’investissement “illimitée” dans les infrastructures IA (data centers, GPU, puces, logiciels).
- Exemple : Microsoft dispose de plus de 80 milliards de dollars en cash. Alphabet dépasse les 100 milliards.
- Pour éviter un effet d’asphyxie, les nouveaux entrants comme CoreWeave, Mistral Data Center, Fluidstack sont aidés par Nvidia mais n’ont ni la même échelle de capital, ni probablement l’accès prioritaire au matériel (ce qu’Elon Musk a réussi brillamment pour son data center Colossus l’année dernière).
- En plus de leur trésorerie, ces groupes génèrent chaque année un flux de trésorerie net (free cash flow) combiné de plus de 300 milliards de dollars.
- Cela leur permet de réinvestir massivement chaque année, sans dépendre de la dette ou du financement externe.
Exemples annuels (approximatifs) :
- Apple : ~100 Mds $
- Microsoft : ~65 Mds $
- Alphabet : ~60 Mds $
- Nvidia : ~60 Mds $
- Meta : ~40 Mds $
- Amazon : ~30 Mds $
Contrairement à ce que beaucoup espéraient, l’IA ne remet pas en cause l’ordre établi, elle renforce la position des acteurs dominants (Big Tech), car ils ont les données (Google Search, YouTube, Facebook, Instagram, etc.), la distribution (navigateur, OS, smartphones, objets connectés, plateformes), les ressources en calcul (GPU, cloud interne) et les talents (chercheurs, ingénieurs IA)
Mais surtout le capital pour soutenir des investissements à faible marge dans l’IA pendant plusieurs années.
Dans un contexte de concentration de pouvoir technologique, les stratégies de souveraineté numérique des États et des PME sont compliquées, car elles ne peuvent pas intégrer les revenus à faible marge .
Amazon, Uber n'ont réussi leur pari que parce qu'ils sont sur un marché global qui permet de transformer des marges minimes en source de revenus consolidées globalement.
Une initiative nationale, voire même européenne dans l'IA, ne sera pas suffisante. Sauf si on adopte un modèle à la chinoise.
La baisse des marges, c’est le nouveau business model
- Une baisse des marges est perçue positivement par le marché : elle indique une réelle utilisation des modèles IA.
- Les entreprises SaaS qui refusent de revoir leur modèle risquent de se faire dépasser, voire disparaître.
- Microsoft ou Adobe semblent montrer qu’un passage vers l’IA est possible, même avec une pression sur les marges.
Implication stratégique : Les marchés financiers sont progressivement en train d’accepter que la tech produise des marges plus faibles pour rester dans la course.
Comme nous l’avions expliqué dans une précédente newsletter, reste à savoir si l’électricité sera ou non disponible en quantité suffisante.
Le duel d’infrastructure de 2026 : Nvidia vs Google (TPU)
- Nvidia n’est plus un simple fabricant de puces : c’est un constructeur de datacenters complets, avec logiciels, réseaux et racks.
- Google (via les TPU) propose en réalité l’alternative principale à l’écosystème Nvidia, mais cette technologie est exclusivement en interne.
- La licence des TPU à d’autres plateformes (via Broadcom) par Google pourrait déstabiliser les autres initiatives de puces dédiées. En effet, si Google commence à les vendre massivement, les autres projets de puces (ex : Amazon Trainium, Groq) risquent de perdre tout intérêt.
Google a déjà 3 à 4 générations d’avance. Il est quasiment impossible de les rattraper à court terme pour une nouvelle entreprise dans les puces.
Implication stratégique : Le contrôle des couches matérielles et logicielles devient un levier de puissance économique et géopolitique.
Avec son partenariat avec OpenAI, AMD joue un rôle de solution de secours si les puces conçues en interne par OpenAI n’étaient pas prêtes. Ce sont désormais des GPU alternatifs, mais qui restent moins visibles que Nvidia.
La bataille pour le contrôle des interfaces utilisateurs et de la boucle de rétroaction

- L’enjeu majeur de 2026 est de contrôler la donnée post-interaction (feedback loops).
- Les modèles IA apprennent désormais via leurs utilisateurs, créant un effet volant semblable à l’ère des plateformes sociales. Comme pour le search, puis pour les réseaux sociaux, c’est le volume d’interaction qui crée la différence.
C’est pour cela que la bataille des points d’entrée ne fait que démarrer : navigateur, chatbots, assistants.
Mutation des modèles économiques : de la facturation à l’usage à la facturation au résultat
- L’IA favorise les modèles économiques à la performance en équivalence humaine. De nombreux indicateurs sont en train d’être mis en place, non pas pour évaluer comment l’IA remplace le travail humain, mais pour la facturation du travail équivalent humain.
- Les entreprises, si elles intègrent l’IA, vont devoir mettre en œuvre des produits IA à marge nulle, adossés à leur activité existante. Le seul intérêt, c’est que les résultats paient pour cet investissement.
- De nombreuses entreprises publiques refusent encore ce virage, par peur de réaction boursière.
Savoir monétiser l’intelligence, pas seulement le logiciel, sera le graal.
La question est de savoir qui, entre une entreprise AI first et une entreprise qui intègre de l’IA, aura la meilleure marge d’usage.
Robotique : le prolongement physique de l’IA
- Les robots humanoïdes (ex. Tesla Optimus) progressent à une vitesse impressionnante. C’est surtout en Chine que les progrès sont les plus flagrants.
- Quand on regarde les investissements, il semble qu’un des débats sur la forme des robots est clos : l’humanoïde domine par compatibilité avec l’environnement humain. Les marges seront encore plus fines, il faut donc pas se rater dans l’implémentation.
- La Chine sera le grand rival de Tesla dans ce secteur, et l’Europe brille par son absence.
Conclusion temporaire
N/evernon 2025
Il y a donc deux conversations : une bulle secondaire de l’infrastructure, couplée à une phase de restructuration stratégique du capital numérique mondial.
L’objectif, c’est l’accélération de l’asymétrie entre ceux qui ont l’infrastructure, la donnée et la distribution, et ceux qui en dépendent.
La question de l’autonomie cognitive, qui m’occupe à travers mes nouvelles activités, est d’apprendre à naviguer dans un monde où les superintelligences, les intelligences passives et les intelligences locales vont coexister. Comment garder le fil ?
Cette question est stratégique pour les États et les institutions.
- Beaucoup d’acteurs du retail, au départ, n’ont pas voulu faire de concurrence à Amazon, car ils trouvaient que les marges étaient trop faibles par rapport au retail classique.
- Et pourtant, Amazon a montré qu’il était possible de vivre avec des marges ultra-réduites et de s’en servir pour créer l’une des entreprises les plus rentables de l’histoire : Amazon Web Services.
L’IA a le même problème mais avec un facteur 1000.
Le souci, c’est que le monde non-IA n’est pas prêt à une commoditisation de l’intelligence. Dans une entreprise comme Amazon, cela veut dire licencier des gens pour les remplacer par des achats de GPU. Amazon a compris avant d’autres que les très faibles marges vont obliger AWS à inventer un nouveau modèle beaucoup moins profitable.
Peu d'industriels en Europe l’ont pour l’instant compris.
Pour les abonnés payants quelques bonus quand même!
Lire l'article complet
S'inscrire maintenant pour lire l'article complet et accéder à tous les articles déstinés aux payants abonnés.
S'abonner