Note : Ceci est une note de recherche complétant le livre L’ère de la post-pénurie, désormais disponible à l’achat. Ces notes approfondissent les concepts du texte principal. Commencez ici ou procurez-vous le livre.
Dans les entrailles du Colossus de xAI : le plus grand cluster GPU au monde
Un milliardaire a racheté une usine d’électroménager désaffectée à Memphis, Tennessee, l’a remplie de 200 000 GPU, et a construit l’installation d’entraînement IA la plus puissante de la planète en quatre mois. Voilà ce que ça signifie pour toi.
Le miracle de 122 jours (ou la folie)
À l’été 2024, xAI, l’entreprise d’IA d’Elon Musk, a accompli quelque chose qui a fait recracher leur café aux ingénieurs data center chevronnés. Ils ont pris une usine de réfrigérateurs Electrolux désaffectée à Memphis, Tennessee — un bâtiment qui fabriquait récemment de l’électroménager de cuisine — et l’ont convertie en le plus grand supercalculateur IA de la planète.
En 122 jours.
Pour mesurer à quel point ce délai est dément, considère qu’un data center hyperscale typique prend 18 à 24 mois à construire. Les installations TPU sur mesure de Google nécessitent des années de planification. Les projets data center de Microsoft passent par des examens réglementaires, environnementaux et d’ingénierie qui feraient hocher la tête en sympathie à un bâtisseur de cathédrale médiéval.
L’équipe de Musk l’a fait dans le temps qu’il faut pour rénover une salle de bain dans un appartement parisien.
En septembre 2024, Colossus était opérationnel avec 100 000 GPU Nvidia H100 ronronnant dans ce qui avait été, quelques mois plus tôt, un endroit qui fabriquait des réfrigérateurs. Le symbolisme s’écrit tout seul : une usine qui gardait les aliments au froid entraîne désormais des esprits artificiels. Bienvenue dans l’Âge de l’Intelligence, où les usines ne fabriquent plus des objets — elles fabriquent de la pensée.
Les chiffres : ce qu’il y a vraiment dans Colossus
Parlons matériel, parce que les spécifications sont authentiquement stupéfiantes.
Phase 1 : les 100 000 initiales (été 2024)
Le premier déploiement consistait en 100 000 GPU Nvidia H100 — chacune une puce à peu près de la taille de ta main, capable d’effectuer 4 pétaflops de calcul IA. C’est 4 billiards de calculs par seconde. Par puce. Multiplie ça par 100 000 et tu obtiens… bon, un nombre si grand qu’il cesse de signifier quoi que ce soit d’intuitif. Alors utilisons une analogie : si chaque être humain sur Terre faisait un calcul par seconde, il faudrait à l’espèce entière environ 58 jours pour égaler ce que Colossus fait en une seule seconde.
Les H100 étaient connectées via le réseau InfiniBand de Nvidia — 400 gigabits par seconde par port — permettant aux GPU de partager des données avec des latences mesurées en microsecondes. Le cluster entier fonctionnait comme un seul système d’entraînement cohérent, pas comme 100 000 machines isolées.
Phase 2 : le doublement (fin 2024)
Puis, dans un mouvement qui suggérait que la relation de Musk avec la patience est purement antagoniste, xAI a doublé le cluster. En 92 jours. Début 2025, Colossus faisait tourner environ 200 000 GPU : un mélange de 150 000 H100, 50 000 des plus récentes H200 (avec 141 Go de mémoire HBM3e chacune, quasiment le double des 80 Go des H100), et les premiers lots de GB200 de génération Blackwell de Nvidia.
État actuel et l’ambition du million de GPU
Mi-2025, l’installation abritait plus de 200 000 GPU et consommait environ 250 mégawatts d’électricité. Pour mettre ça en perspective, 250 mégawatts, c’est assez pour alimenter environ 250 000 foyers américains. Memphis a en fait vu une consommation électrique équivalente à une petite ville apparaître du jour au lendemain — sauf que cette ville n’a pas de résidents, juste du silicium.
Et Musk n’a pas fini. L’ambition affichée est de porter Colossus à un million de GPU. Aux ratios actuels de puissance par GPU, ça nécessiterait plus d’un gigawatt d’électricité — la production d’une grande centrale nucléaire, dédiée entièrement à rendre l’IA plus intelligente.
Le coût
Les Nvidia H100 se vendent au détail pour environ 25 000 à 30 000 dollars pièce (quand on arrive à en trouver — pendant la majeure partie de 2023-2024, la liste d’attente était plus longue que le carnet d’invités d’un mariage royal). À 200 000 unités, ça fait 5 à 6 milliards de dollars rien qu’en GPU. Ajoute l’équipement réseau, l’infrastructure de refroidissement, les systèmes d’alimentation, la rénovation du bâtiment et la main-d’œuvre d’ingénierie, et les estimations conservatrices placent l’investissement total dans Colossus au-delà de 10 milliards de dollars.
Pour une seule installation. À Memphis.
Pourquoi Memphis ?
C’est une question étonnamment intéressante. Memphis, Tennessee, n’est pas la Silicon Valley. Ce n’est même pas Austin. Alors pourquoi le plus grand supercalculateur IA du monde a-t-il atterri dans une ville plus connue pour son barbecue et son blues ?
Plusieurs facteurs ont convergé :
-
De l’immobilier disponible : l’ancienne usine Electrolux fournissait une immense coque industrielle — des centaines de milliers de mètres carrés de surface au sol avec des fondations de qualité industrielle capables de supporter des équipements lourds. Convertir des bâtiments industriels existants est radicalement plus rapide que construire à partir de zéro.
-
Disponibilité électrique : Memphis est sur le réseau de la Tennessee Valley Authority (TVA), l’un des plus grands systèmes d’énergie publique des États-Unis. La TVA exploite un mix d’hydroélectricité, de nucléaire, de gaz naturel et de renouvelable, avec une capacité disponible significative. Quand tu as besoin de 250 mégawatts rapidement, il te faut un fournisseur qui peut livrer sans une étude d’interconnexion de trois ans.
-
Incitations fiscales : le Tennessee a offert des avantages significatifs en développement économique. Quand un milliardaire se présente en voulant investir des milliards dans ton état, les gouvernements tendent à trouver de la flexibilité.
-
La vitesse : les responsables de la ville de Memphis ont approuvé le projet avec une vélocité remarquable. Dans la course à la construction d’infrastructure IA, la vitesse réglementaire est un véritable avantage compétitif. Certaines villes mettent plus longtemps à approuver la rénovation d’un Starbucks.
Ce choix met en lumière une tendance plus large : l’infrastructure IA ne gravite pas vers l’endroit où vivent les talents, mais vers l’endroit où existent l’énergie, l’espace et la volonté réglementaire. Les cerveaux qui travaillent sur l’IA vivent peut-être à San Francisco, mais la pensée elle-même se fait de plus en plus dans des endroits comme Memphis, Abilene (Texas, pour Stargate), et l’Oregon rural.
La concurrence : comment Colossus se positionne
xAI Colossus n’existe pas en isolation. C’est une entrée dans ce qui est devenu la course aux armements la plus coûteuse depuis la Guerre froide. Voici comment les principaux clusters GPU se comparent :
| Installation | GPU | Investissement | Puissance | Statut |
|---|---|---|---|---|
| xAI Colossus | 200 000+ (objectif : 1M) | ~10 Md$+ | 250 MW | Opérationnel |
| Clusters de Meta | 350 000+ H100 | ~50 Md$+ | Distribué | Opérationnel |
| Stargate (OpenAI/SoftBank) | 450 000+ GB200 prévus | 500 Md$ sur 4 ans | 8+ GW prévus | Phase 1 opérationnelle |
| Clusters TPU de Google | TPU personnalisés (v5p+) | ~75 Md$+ CapEx (2025) | Distribué | Opérationnel |
| Microsoft Azure | 300 000+ GPU | ~80 Md$ CapEx (2025) | Distribué | Opérationnel |
Plusieurs choses se démarquent.
Colossus est le plus grand cluster sur un site unique. Meta a plus de GPU au total, mais ils sont répartis sur plusieurs data centers. Stargate finira par tout écraser, mais c’est un projet de construction multi-années et multi-sites. Colossus a concentré plus de puissance de calcul IA dans un seul bâtiment que ce qui avait jamais existé nulle part — et l’a fait dans un délai qui serait impressionnant pour assembler un meuble IKEA.
Le projet Stargate est l’éléphant dans la pièce. À 500 milliards de dollars sur quatre ans, avec 100 milliards déployés immédiatement, le projet OpenAI/SoftBank/Oracle annoncé en janvier 2025 fait passer Colossus pour un échauffement. Cinq sites de data center sont déjà annoncés, avec plus de 8 gigawatts de capacité électrique prévue — l’équivalent de huit réacteurs nucléaires dédiés à l’IA. Une fois pleinement construit, Stargate fera paraître Colossus comme un ordinateur portable.
Google joue un autre jeu. Plutôt que d’acheter les GPU de Nvidia, Google conçoit ses propres puces IA (les TPU — Tensor Processing Units). Cette intégration verticale signifie que l’infrastructure de Google n’apparaît pas proprement dans les comparaisons de « nombre de GPU », mais sa capacité d’entraînement est formidable. Les pods TPU v5p connectent 8 960 puces en un seul cluster d’entraînement.
L’investissement total est historiquement sans précédent. Les dépenses d’investissement combinées des hyperscalers en infrastructure IA devraient dépasser 600 milliards de dollars en 2026 seul. Le programme Apollo complet a coûté 280 milliards en dollars actuels. On dépense deux Apollos par an pour construire l’infrastructure de l’intelligence machine.
Le problème de l’énergie : Colossus a soif
C’est ici que l’histoire devient inconfortable.
Colossus consomme 250 mégawatts. Monte à un million de GPU et tu regardes plus d’un gigawatt. Et Colossus n’est qu’une seule installation parmi des dizaines en construction ou en projet dans le monde.
L’Agence internationale de l’énergie projette que la consommation électrique mondiale des data centers atteindra 945 térawattheures d’ici 2030 — environ 3 % de toute l’électricité produite sur Terre. Les charges de travail IA, actuellement 10-20 % de l’énergie des data centers, devraient grimper à 35-50 %.
Memphis l’a appris à ses dépens. Quand les besoins en énergie de xAI se sont matérialisés, les résidents locaux ont soulevé des préoccupations légitimes sur la fiabilité du réseau, les prix de l’électricité et l’impact environnemental de l’alimentation d’une installation qui bénéficie à une entreprise privée mais puise dans une infrastructure partagée. La TVA a dû se démener pour s’assurer que nourrir Colossus ne signifierait pas des coupures pour tout le monde.
C’est le problème de la concentration du calcul en miniature : les ambitions IA d’une entreprise consomment des ressources qui appartiennent à une communauté. Les électrons qui alimentent Colossus sont des électrons qui n’alimentent pas des foyers, des hôpitaux et des écoles. Le réseau électrique est un commun partagé ; Colossus est une enclosure privée.
Et Memphis n’est que le début. Alors que chaque grande entreprise tech court pour construire des clusters plus grands, la demande agrégée en énergie menace de submerger les réseaux électriques dans le monde entier. Quelque chose doit céder — soit l’IA réduit la voilure (improbable), soit de nouvelles sources d’énergie entrent en service (la fusion, l’éternelle technologie « à 20 ans », attire maintenant des dizaines de milliards d’investissement), soit les communautés supportent le coût d’alimentation d’usines d’intelligence privées.
Le problème de la concentration : quand le calcul devient pouvoir
Prenons du recul par rapport aux specs techniques et posons la question qui compte : qu’est-ce que ça signifie quand une seule entreprise peut construire une installation comme Colossus ?
Considère les faits :
- Les États-Unis contrôlent approximativement 75 % de la capacité mondiale de supercalcul IA.
- Au sein des États-Unis, cette capacité est concentrée dans moins d’une douzaine d’entreprises.
- Au sein de ces entreprises, la décision de quoi entraîner, comment l’entraîner et qui obtient l’accès est prise par une poignée de dirigeants.
- Nvidia, qui fabrique les GPU alimentant presque tout ça, détient 80-95 % du marché des puces IA.
On a pris la technologie la plus transformatrice de l’histoire humaine et concentré ses moyens de production plus étroitement que le pétrole ne l’a jamais été. Au moins le pétrole était géographiquement distribué — on pouvait en trouver au Texas, en Arabie Saoudite, au Venezuela, en Norvège. Le calcul IA avancé existe, de manière significative, dans quelques bâtiments possédés par quelques milliardaires.
Colossus en est l’illustration. Il a été construit selon le calendrier d’un seul homme, avec le capital d’un seul homme, pour servir les priorités de l’entreprise d’un seul homme. Les 200 000 GPU dans cette installation de Memphis représentent plus de capacité brute d’entraînement IA que la plupart des nations n’en possèdent. xAI les utilise pour entraîner Grok, son assistant IA. Ce que Grok apprend, dans quoi il excelle, quelles valeurs il incarne — ce sont des décisions prises par xAI, pas par Memphis, pas par le Tennessee, pas par le public américain, et certainement pas par l’humanité dans son ensemble.
Ce n’est pas une critique de Musk spécifiquement. Meta, Google, Microsoft et OpenAI font tous la même chose à des échelles comparables. La critique est structurelle : on construit l’infrastructure de l’intelligence comme propriété privée, et c’est un choix, pas une fatalité.
Les routes sont publiques. Le réseau électrique est régulé comme un service public. L’ossature d’internet a été construite avec des fonds publics avant que les entreprises privées ne la commercialisent. On a fait ces choix parce qu’on a compris que certaines infrastructures sont trop importantes pour être laissées entièrement entre des mains privées.
Le calcul — l’infrastructure de l’intelligence — mérite la même conversation.
L’alternative : et si Colossus était public ?
C’est ici que le cadre Unscarcity entre en scène.
Le livre plaide pour le calcul universel de base — l’idée que chaque citoyen devrait recevoir une allocation garantie de puissance de traitement IA, de la même manière que chaque citoyen a accès aux routes, à l’eau potable et (dans la plupart des pays civilisés) aux soins de santé.
Imagine un monde où les 200 000 GPU de Colossus n’étaient pas l’arsenal privé de xAI mais un service public partagé. Chaque résident de Memphis — chaque résident du Tennessee — chaque Américain — reçoit une allocation de calcul. Une tranche de cette immense puissance de traitement, fournie aussi fiablement que l’électricité, dont il dispose comme il l’entend.
Qu’est-ce que les gens en feraient ?
- Une mère célibataire à Memphis pourrait faire tourner un agent IA qui gère ses déclarations d’impôts, ses questions juridiques et ses candidatures — des services qui coûtent actuellement des centaines de dollars en honoraires professionnels.
- Un patron de petite entreprise pourrait déployer une gestion d’inventaire par IA, un service client et du marketing — des capacités actuellement accessibles uniquement aux entreprises qui peuvent se payer du logiciel d’entreprise.
- Un étudiant pourrait entraîner un modèle spécialisé sur les besoins de sa communauté locale — une IA hyper-locale qui comprend les quartiers de Memphis comme Google comprend les requêtes web.
- Une coopérative d’agriculteurs pourrait mutualiser ses allocations pour faire tourner de l’IA agricole — optimiser la rotation des cultures, prédire les impacts météo, négocier de meilleurs prix.
Ce n’est pas de la science-fiction. Les institutions de recherche allouent déjà des quotas de calcul aux scientifiques. Des initiatives cloud nationales à Singapour, aux Émirats arabes unis et en Arabie Saoudite construisent une infrastructure IA souveraine à accès public. Le concept de « calcul comme service public » émerge dans les discussions politiques partout dans le monde.
La différence entre Colossus-comme-actif-privé et Colossus-comme-infrastructure-publique est la différence entre le féodalisme et la démocratie appliqués à l’Âge de l’Intelligence. Dans un modèle, un petit nombre de seigneurs technologiques contrôlent les moyens de production de l’intelligence et tout le monde loue l’accès. Dans l’autre, l’infrastructure d’intelligence est traitée comme les routes — fournie publiquement, universellement accessible, et comprise comme fondamentale à la participation à la civilisation.
Le paradoxe Musk
Il y a une délicieuse ironie ici qui mérite d’être reconnue.
Elon Musk — l’homme qui a construit Colossus — est le même homme qui a répétitivement prédit un « revenu universel élevé » comme conséquence du développement de l’IA. Il a dit à des audiences à Davos, au sommet tech de Riyad, et sur sa propre plateforme que l’IA finira par délivrer une abondance si grande que « l’argent n’aura plus d’importance ».
Et pourtant. L’infrastructure qui est censée mener à cette abondance universelle est construite comme propriété aggressivement privée. Colossus ne partage pas. Grok ne tourne pas sur du calcul public. Les 250 mégawatts qui alimentent cette installation de Memphis servent les actionnaires de xAI, pas les résidents de Memphis.
C’est la tension fondamentale : les gens qui construisent la technologie de l’abondance la construisent en utilisant les institutions de la pénurie. Propriété privée. Systèmes propriétaires. Fossés compétitifs. Dynamiques de winner-take-all.
Le cadre Unscarcity ne demande pas que Musk donne Colossus au public (il ne le fera pas, et l’y forcer créerait d’autres problèmes). Il propose plutôt une architecture de transition — un protocole EXIT qui convertit progressivement l’infrastructure de calcul privée en service public, de la même façon que le réseau téléphonique a évolué du monopole privé au service régulé puis au service essentiel.
Les détails de cette transition — les exigences de service civique, l’économie de l’Impact, la garde de la diversité empêchant une seule faction de capturer le système — sont développés dans le livre. Mais le principe est simple : une infrastructure aussi importante ne peut pas rester aussi concentrée.
Ce que Colossus nous dit sur l’avenir
Colossus n’est pas juste un data center. C’est un signal.
Il nous dit que les moyens de production de l’intelligence peuvent être construits, à une échelle historique mondiale, en mois plutôt qu’en années. Il nous dit que le goulot d’étranglement n’est pas le savoir-faire d’ingénierie — c’est le capital, l’énergie et la volonté politique. Il nous dit que l’avenir de l’IA sera façonné non pas par celui qui écrit les meilleurs algorithmes, mais par celui qui contrôle l’infrastructure physique sur laquelle ces algorithmes tournent.
Et il nous pose une question : quand on construit les usines de l’Âge de l’Intelligence, qui devrait les posséder ?
La réponse à cette question déterminera si l’âge de l’intelligence artificielle devient un âge de capacité universelle ou un âge de concentration sans précédent. Si chaque humain reçoit une allocation de calcul — une part de l’infrastructure cognitive de la civilisation — ou si une poignée d’entreprises font tourner les machines pensantes et tout le monde se contente de ce qui ruisselle.
Colossus se trouve à Memphis, Tennessee, dans un bâtiment qui fabriquait des réfrigérateurs. Il est simultanément la prouesse d’ingénierie la plus impressionnante de la décennie et l’illustration la plus frappante de tout ce que le cadre Unscarcity soutient qu’il faut changer.
Les usines de l’Âge de l’Intelligence se construisent en ce moment. La question n’est pas de savoir si elles seront puissantes — elles le sont déjà. La question est de savoir si elles seront à nous.
Pour aller plus loin
- Clusters de calcul : les usines de l’Âge de l’Intelligence — Classement complet des plus grands clusters GPU au monde
- Calcul universel de base (CUB) — L’argument pour le calcul comme service public
- Le revenu universel élevé d’Elon Musk — Quand l’homme le plus riche dit que l’argent n’aura plus d’importance
- Le libertarianisme d’infrastructure — L’idéologie qui anime les constructions privées de calcul
- La Fondation — Le plan Unscarcity pour une infrastructure universelle
xAI a construit le plus grand supercalculateur IA du monde dans une usine de réfrigérateurs. Le livre Unscarcity pose la question : et si on l’avait construit pour tout le monde ? Procure-toi le livre et explore le plan.