Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Cet article m'a fait comprendre l'IA : la couche application est la plus populaire, la couche de base gagne le plus d'argent
Écriture : DeepThink Circle
La plupart des gens pensent que l’IA n’est qu’un robot capable de discuter. Vous ouvrez ChatGPT, lui demandez de vous aider à corriger un email, il le fait, c’est magique. Vous fermez la page satisfait, pensant avoir compris ce qu’est l’IA. Mais c’est comme si, après avoir payé avec votre carte de crédit dans un restaurant, vous pensiez comprendre comment Visa gagne de l’argent — vous avez utilisé le produit, mais vous n’avez pas vu le système.
L’investisseur Anish Moonka a récemment publié un long article approfondi, analysant systématiquement la chaîne de valeur de l’industrie de l’IA. Il a mis près d’un an à comprendre comment l’argent circule dans ce secteur. Honnêtement, il admet dans son article avoir fait beaucoup d’erreurs, en se concentrant sur des produits visibles comme ChatGPT, Claude et Gemini, alors que 700 milliards de dollars circulent silencieusement vers des infrastructures dont il ne connaît même pas le nom — des puces, des technologies d’emballage inventées, des systèmes de refroidissement, des centrales électriques, dont il n’a jamais entendu parler. Du béton est en train d’être coulé en Texas, en Iowa et à Hyderabad.
Cet article m’a énormément inspiré. Il m’a fait réaliser que notre compréhension de l’IA est peut-être dès le départ décalée. Nous ne voyons qu’une petite partie de l’iceberg, alors que la véritable création de richesse se déroule sous la surface.
Cinq couches : pourquoi personne ne parle des quatre couches inférieures
En janvier 2026, lors du Forum de Davos, le CEO de Nvidia, Huang Renxun, a décrit l’IA comme un système à cinq couches : énergie, puces, cloud, modèles, applications. Il a qualifié tout ce système de “plus grande infrastructure de l’histoire de l’humanité”. Anish Moonka appelle ce cadre l’AI Stack (pile technologique IA), et souligne que chaque couche soutient la couche supérieure, avec des flux financiers bidirectionnels entre elles.
Ce modèle à cinq couches est en réalité très simple à comprendre. La couche énergie fournit l’électricité. Les data centers d’IA consomment une quantité d’énergie incroyable : une grande session d’entraînement peut consommer autant qu’une petite ville en un an. La couche puces fournit des processeurs spécialisés pour d’énormes calculs mathématiques — pas ceux d’un ordinateur portable ordinaire. La couche cloud est un immense entrepôt rempli de ces puces, relié par des réseaux ultra-rapides. La couche modèles est le logiciel d’IA lui-même, le “cerveau” qui apprend des données. La couche applications, c’est ce que nous utilisons réellement : ChatGPT, Google Search, systèmes de détection de fraude bancaire, etc.
Je remarque un phénomène très intéressant : presque toutes les discussions sur l’IA se concentrent sur la couche application. Parce que c’est ce que l’on voit, ce que l’on touche, ce que l’on utilise. Mais Anish souligne un point clé : se concentrer uniquement sur la couche application, c’est ignorer 80 % de l’ensemble. Et pour les investisseurs, les entrepreneurs ou quiconque veut comprendre la direction du monde, l’essentiel est de comprendre comment l’argent circule entre ces couches — il se concentre, il produit des intérêts composés, il s’accumule, et en ce moment, il se concentre là où la majorité ne regarde même pas.
Réfléchissez à la signification du mot “infrastructure”. Routes, réseaux électriques, systèmes d’approvisionnement en eau — ce sont ces éléments qui font fonctionner la civilisation. Et avant qu’ils ne s’effondrent, personne ne pense à eux. L’IA devient ce genre de chose — invisible, indispensable, extrêmement coûteux à construire. Cela explique aussi pourquoi personne ne discute dans les cocktails des systèmes de refroidissement des data centers ou de la capacité du réseau électrique : c’est justement cette “absence de discussion” qui indique que l’argent y circule réellement.
Où va l’argent : une vérité contre-intuitive
Anish révèle dans son article des chiffres stupéfiants. En 2026, les quatre géants du cloud mondial — Amazon, Microsoft, Google et Meta — prévoient d’investir entre 650 et 700 milliards de dollars en dépenses d’investissement (capex). Qu’est-ce que cela signifie ? L’équivalent du PIB annuel de la Suisse. Environ 75 %, soit 450 milliards de dollars, seront directement consacrés à l’infrastructure IA. Pas aux chatbots ou applications, mais aux bâtiments, puces, câbles et systèmes de refroidissement.
Ce chiffre m’a fait repenser toute la logique de l’industrie de l’IA. Avant même que quiconque utilise ChatGPT, il faut construire un centre de données de la taille d’un centre commercial, le remplir de dizaines de milliers de processeurs spécialisés, le relier par des équipements réseau valant plus que la majorité des entreprises, et lui fournir chaque jour une quantité d’électricité suffisante pour alimenter une petite ville. C’est ce que les couches 1 à 3 représentent — ces niveaux invisibles, où des capitaux sérieux sont déployés à grande échelle.
Mais il y a une contradiction plus profonde. Tout le monde pense que des entreprises comme OpenAI gagnent beaucoup d’argent, et c’est vrai. Fin 2025, OpenAI a atteint 20 milliards de dollars de revenus récurrents annuels (ARR), en hausse par rapport à 6 milliards un an plus tôt, et 2 milliards deux ans plus tôt. Une croissance de 10 fois en deux ans, aucune entreprise dans l’histoire n’a connu une expansion aussi rapide à partir d’un tel point de départ.
Mais Anish révèle une vérité cruciale : en 2025, OpenAI a brûlé environ 9 milliards de dollars en cash, et prévoit que ses dépenses de trésorerie atteindront 17 milliards en 2026. Leurs coûts d’inférence (lorsque vous posez une question à l’IA, c’est le coût de faire fonctionner le modèle) ont atteint 8,4 milliards en 2025, et devraient atteindre 14,1 milliards en 2026. Ils estiment qu’il leur faudra jusqu’en 2029 ou 2030 pour atteindre un flux de trésorerie positif.
Où est passé cet argent ? Anish donne la réponse : il circule dans toute la pile technologique. Il va à Microsoft Azure (qui doit payer à OpenAI 20 % de ses revenus jusqu’en 2032), vers Nvidia pour acheter des puces, vers les entreprises de construction et d’équipement de data centers, vers les compagnies d’électricité. Il existe un modèle presque cyclique : Microsoft investit dans OpenAI, OpenAI dépense chez Azure, Azure achète plus de puces Nvidia, Nvidia affiche des bénéfices record, tout le monde célèbre. L’argent coule en cascade.
Je pense que cela révèle une erreur fondamentale dans la perception : la majorité des utilisateurs se trouvent en haut de la chaîne technologique, la majorité des profits en bas. Ce décalage est au cœur de toute logique d’investissement. Comme le dit Anish, c’est la première leçon de la chaîne de valeur de l’IA : les revenus montent, le capital descend. Et en tant qu’investisseurs ou observateurs, nous sommes souvent attirés par la croissance des revenus, alors que la véritable barrière à la concurrence est la capitulation du capital.
L’histoire se répète : l’éclairage de la révolution électrique
Anish fait une analogie historique brillante. Si vous voulez comprendre ce qui se passe avec l’IA, étudiez la révolution électrique entre 1880 et 1920. Quand Thomas Edison a construit la première centrale électrique commerciale en 1882 à Pearl Street, à Manhattan, on pensait que l’électricité n’était qu’une nouveauté, une façon sophistiquée d’éclairer une pièce. Pourquoi en aurait-on besoin ? Les lampes à gaz fonctionnaient très bien.
Mais en seulement 40 ans, l’électricité a transformé chaque secteur : fabrication, transport, communication, médecine, divertissement. Les entreprises qui ont gagné n’étaient pas celles qui avaient inventé l’ampoule, mais celles qui construisaient des centrales, déployaient des câbles en cuivre, fabriquaient des générateurs : General Electric, Westinghouse, les compagnies d’électricité, les mineurs de cuivre, les entrepreneurs.
Ce même modèle se joue dans l’IA, mais en quelques années au lieu de plusieurs décennies. Anish appelle cela la “gravité des infrastructures” (Infrastructure Gravity). Chaque fois qu’une nouvelle plateforme de calcul apparaît, la richesse initiale se crée dans ce qu’il appelle “les pioches et les pelles”. Les applications arrivent ensuite, attirant tous les médias, mais c’est l’infrastructure qui capture toute la marge.
Les chiffres illustrent la puissance de cette logique. Nvidia, pour l’année fiscale 2026 (jusqu’en janvier 2026), a annoncé un chiffre d’affaires annuel de 215,9 milliards de dollars, en hausse de 65 % par rapport à l’année précédente. Son secteur data center seul a généré 62,3 milliards de dollars au dernier trimestre, en croissance de 75 %. Ce secteur représente plus de 91 % du chiffre d’affaires total de Nvidia. Une seule division réalise 680 milliards de dollars de revenus par trimestre, dont neuf dixièmes proviennent d’une seule ligne.
TSMC, qui fabrique la quasi-totalité des puces Nvidia et de presque toutes les autres puces principales, détenait en 2025 près de 70 % du marché mondial de la fabrication de wafers, avec un chiffre d’affaires de 122,5 milliards de dollars. Son concurrent le plus proche, Samsung, n’en représente que 7,2 %. Anish commente que cette domination pourrait faire pâlir d’envie même les Standard Oil.
Je partage particulièrement l’avis d’Anish : demander à n’importe qui ce que l’on doit à la révolution Internet, ils parleront de Google, Amazon, Facebook. Mais demander où l’argent a réellement été gagné au début, la réponse est Cisco, Corning, les entreprises de déploiement de fibre optique. La même histoire, mais dans un autre contexte, avec un décalage de dix ans. L’infrastructure gagne toujours en premier, la question est de savoir combien de temps ce cycle peut durer.
La carte de l’investisseur : décomposer les opportunités couche par couche
Anish consacre une grande partie de son article à décomposer les opportunités d’investissement couche par couche. Je trouve cette partie particulièrement précieuse, car elle transforme des concepts abstraits en un cadre d’investissement opérationnel.
Première couche : énergie. La consommation électrique des data centers d’IA est extrêmement élevée. En 2026, elle atteindra environ 90 térawattheures par an, soit dix fois plus qu’en 2022. Cela crée une opportunité d’investissement directe : toute entreprise capable de produire, transmettre et fournir une électricité fiable aux data centers en bénéficiera. La déclaration de Huang Renxun en octobre 2025 est très parlante : “Les data centers auto-alimentés pourraient se déployer plus vite que le réseau électrique.” Cela signifie que les entreprises technologiques deviennent leurs propres fournisseurs d’électricité, contournant le réseau traditionnel. Cette tendance me fait penser que les opportunités d’investissement dans l’infrastructure énergétique pourraient être plus proches du secteur technologique que ce que l’on imagine.
Deuxième couche : puces. C’est la couche la plus connue, grâce à Nvidia. Mais Anish souligne que cette couche est bien plus complexe qu’une seule entreprise. Elle comporte ses sous-couches : concepteurs (Nvidia, AMD, Broadcom), fabricants (TSMC domine avec 70 % du marché), fournisseurs d’équipements (ASML, seul fabricant mondial de machines EUV), fournisseurs de mémoire (SK Hynix, Samsung, Micron), et fournisseurs de technologies d’emballage.
La concentration est impressionnante. Nvidia détient environ 92 % du marché des GPU pour data centers IA. TSMC fabrique pour presque tous les grands concepteurs de puces. ASML est le seul fournisseur de machines EUV. Une entreprise conçoit, une autre construit, une autre fabrique ces machines. Anish commente que cette concentration est à la fois un argument d’investissement et un risque géopolitique. Je pense que cette observation est essentielle — cette extrême concentration implique à la fois des marges élevées et des risques importants.
Troisième couche : cloud computing et data centers. Le marché est dominé par trois géants : Amazon Web Services (31 %), Microsoft Azure (24 %) et Google Cloud (11 %). Mais cette couche ne se limite pas à ces acteurs. Foxconn assemble environ 40 % des serveurs IA mondiaux, Arista Networks et Credo Technology construisent l’infrastructure réseau, Vertiv gère le refroidissement liquide, des REITs (fonds immobiliers) possèdent terrains et bâtiments, et certains doivent même couler du béton.
Un chiffre m’a frappé : selon Bank of America, en 2026, 90 % des flux de trésorerie opérationnels des géants du cloud seront consacrés au capex, contre 65 % en 2025. Morgan Stanley prévoit que ces entreprises emprunteront plus de 400 milliards de dollars cette année pour financer leurs constructions, soit plus du double des 165 milliards de 2025. Un seul emprunt de 400 milliards par an, juste pour construire des entrepôts de serveurs. C’est une ampleur sans précédent.
Quatrième couche : modèles. C’est la “cerveau” de l’IA, comprenant OpenAI (GPT, plus de 20 milliards de dollars de ARR), Anthropic (Claude, environ 19 milliards de dollars en début 2026), Google DeepMind (Gemini), Meta AI (Llama), etc. Anish évalue cette couche de façon très juste : c’est à la fois la plus médiatisée et la moins rentable. Le problème de modèle est structurel — plus on dépense en calcul, plus le modèle devient performant, mais cette dépense croît plus vite que les revenus. C’est comme gérer un restaurant : chaque plat nécessite des ingrédients plus coûteux que le précédent, mais les clients s’attendent à un prix stable. La marge se réduit constamment.
Cinquième couche : applications. C’est celle que nous voyons tous les jours : ChatGPT, Google Search, Microsoft Copilot. C’est la couche la plus large et la plus concurrentielle, qui finira par représenter le marché total le plus vaste, mais c’est aussi celle avec la marge la plus faible et la plus incertaine. Anish souligne que la différenciation dans cette couche repose sur les données. Les entreprises disposant de données exclusives et propriétaires auront un avantage durable — Salesforce avec ses CRM d’entreprise, Bloomberg avec ses données financières, Epic avec ses dossiers médicaux.
Je partage particulièrement l’avis d’Anish : dans 3 à 5 ans, les meilleurs retours viendront d’investir dans l’infrastructure aujourd’hui, puis dans les applications. Les capitaux les plus intelligents ont déjà positionné leurs investissements en conséquence. Les entreprises qui réussiront dans la couche application seront celles qui possèdent des données que d’autres ne peuvent pas obtenir, et beaucoup d’entre elles ne se considèrent même pas comme des entreprises d’IA.
C’est un bubble ? Une question incontournable
Anish répond directement à une critique centrale : “N’est-ce pas la répétition de la bulle Internet ? Des investissements massifs dans l’infrastructure, sans profit, tout le monde est emporté par la spéculation ?” Sa réponse est très convaincante.
La différence réside dans le timing de la demande. À l’époque de la bulle Internet, les entreprises construisaient des infrastructures pour une demande qui n’était pas encore là. Les réseaux en fibre et les serveurs étaient déployés, mais les utilisateurs utilisaient encore le modem. L’infrastructure était là, mais la demande n’a explosé que 5 à 7 ans plus tard, et tout a été liquidé entre-temps.
En 2026, la demande pour l’IA existe déjà et croît rapidement. Nvidia ne peut pas fabriquer assez de puces, TSMC est en rupture de capacité pour ses emballages avancés, les prix de location du cloud augmentent, et OpenAI a gagné 400 millions d’utilisateurs actifs par semaine entre mars et octobre 2025. Les modèles sont utilisés, le calcul est consommé, les clients paient.
Mais Anish admet aussi trois risques majeurs. Le risque d’une mauvaise allocation du capital — si les revenus des services IA ne croissent pas assez vite pour justifier plus de 650 milliards de dollars de dépenses, certaines entreprises seront fortement comprimées, et même Amazon pourrait voir ses flux de trésorerie libres devenir négatifs cette année. Le risque de concentration — TSMC fabrique près de 70 % des puces mondiales, ASML est le seul fournisseur de machines EUV, Nvidia conçoit 92 % des GPU pour data centers IA, toute perturbation géopolitique ou catastrophe naturelle pourrait affecter toute la chaîne technologique. Et le problème DeepSeek — en janvier 2025, le laboratoire chinois DeepSeek a atteint des performances proches du sommet avec une fraction du coût d’entraînement, remettant en question l’idée que “plus de dépenses = meilleur IA”.
Je trouve que la franchise d’Anish sur ces risques rend son analyse plus crédible. Il ne les évite pas, il les expose clairement. Mais même en tenant compte de ces risques, McKinsey estime qu’en 2030, l’investissement mondial cumulé dans les data centers pourrait atteindre 6,7 trillions de dollars, et PwC prévoit que l’IA pourrait contribuer à hauteur de 15,7 trillions de dollars au PIB mondial d’ici 2030. Même si ces chiffres sont réduits de moitié, on parle toujours de la plus grande transformation économique depuis Internet.
Une phrase d’Anish que je partage particulièrement : “On peut douter des modèles, douter des calendriers, mais pas de la chaîne d’approvisionnement. Ce sont deux choses différentes. L’une est une posture intellectuelle saine, l’autre vous fera perdre de l’argent.”
Jouer au bon niveau
Anish résume sa stratégie d’investissement avec une métaphore de jeu vidéo. Imaginez l’IA comme un jeu à cinq niveaux, chacun avec ses défis et ses récompenses. La couche énergie est le tutoriel, à faible risque et rendement stable. La couche puces est le combat final, avec les marges les plus élevées mais la difficulté maximale. La couche cloud est un serveur multijoueur, où les géants prélèvent leur part. La couche modèles est une arène PvP, où la compétition est féroce et la majorité des joueurs sont éliminés. La couche applications est un monde ouvert, avec des possibilités infinies mais aucune garantie de gains.
Sa stratégie principale : vous n’avez pas besoin de jouer à tous les niveaux. La plupart tentent de jouer au niveau 5 parce que c’est le plus évident, mais l’argent intelligent investit dans les niveaux 2 et 3, car c’est là que l’expérience est la plus riche en ce moment.
Ce cadre a une grande valeur : il vous aide à comprendre que votre position dans la chaîne technologique détermine ce que vous devriez suivre. Pour les non-techniciens, il ne faut pas comprendre comment fonctionnent les GPU, mais qui doit les fabriquer, qui doit les héberger, qui doit leur fournir de l’électricité — ces “acteurs” étant des entreprises cotées. Pour les techniciens, vous savez déjà que les modèles progressent, mais vous sous-estimez peut-être à quelle vitesse les contraintes physiques deviennent des goulots d’étranglement. Pour les investisseurs, la chaîne de valeur de l’IA est une série de transactions distinctes, avec des risques et des retours différents. Considérer l’IA comme un seul secteur est aussi naïf que de le faire en 1998 avec la “tech”.
Anish conclut en soulignant que cet avantage infrastructurel ne durera pas éternellement. À un moment donné, l’infrastructure atteindra sa maturité, la couche application s’intégrera, et la valeur migrera vers le haut de la chaîne — comme lors de l’ère Internet, où la valeur capturée par Amazon, Google et Facebook dépasse celle des câbles en fibre ou des fabricants de serveurs. Mais ce n’est pas encore le cas. Nous sommes encore dans la phase d’infrastructure, celle des pioches. Et ces pioches, elles, créent de la richesse.
Après avoir lu cet article d’Anish, ma plus grande leçon est cette vérité simple mais profonde : les consommateurs voient le produit, les investisseurs scrutent la chaîne d’approvisionnement, et les meilleurs investisseurs voient la chaîne d’approvisionnement avant même que le produit ne sorte. Dans cinq ans, le nom de ce cycle semblera évident — c’est toujours ainsi. Le jeu consiste à voir la structure avant tout le monde.
Dans dix ans, comprendre la pile technologique IA sera aussi fondamental que comprendre un bilan comptable. Apprenez la chaîne, dessinez la hiérarchie, suivez le capital. Voilà le vrai jeu.