Note : Ceci est une note de recherche complétant le livre L’ère de la post-pénurie, désormais disponible à l’achat. Ces notes approfondissent les concepts du texte principal. Commencez ici ou procurez-vous le livre.
Le Futur 100x : Quand la Croissance Exponentielle Cesse d’Être une Métaphore
Voici une expérience de pensée : imaginez expliquer votre smartphone à quelqu’un de 1995. Non pas l’interface — les spécifications. « Oui, il a plus de puissance de calcul que tous les ordinateurs qui existaient à votre naissance, combinés. Il tient dans ma poche. Je l’utilise surtout pour me disputer avec des inconnus et regarder des photos de chats. »
Nous jetons « croissance exponentielle » comme un mot à la mode de conférence TED, mais nos cerveaux de singes linéaires ne peuvent vraiment pas comprendre ce que cela signifie. L’intuition humaine a évolué pour suivre des proies dans les savanes, pas pour comprendre pourquoi une technologie qui doublait de puissance tous les deux ans serait un milliard de fois plus puissante après soixante ans. Alors nous acquiesçons quand quelqu’un dit « l’IA progresse de façon exponentielle » en imaginant quelque chose comme une colline abrupte, pas la falaise verticale que c’est réellement.
Pour comprendre où nous allons, nous devons regarder en arrière les moments 100x — les bonds qui n’ont pas simplement amélioré la technologie mais réécrit ce qui était physiquement possible. Ensuite, nous devons comprendre pourquoi le prochain 100x est différent : plus rapide, plus large, et portant le poids de la civilisation sur ses épaules.
Une Brève Histoire de « C’est Impossible, Jusqu’à Ce Que Ça Ne Le Soit Plus »
La Loi de Moore : L’Exponentielle Originale
En 1965, Gordon Moore a observé que le nombre de transistors sur une puce doublait environ tous les deux ans. Il décrivait ce qui semblait être une tendance temporaire. Elle a tenu pendant cinquante ans.
Les mathématiques de l’absurde :
- 1971 : L’Intel 4004 avait 2 300 transistors
- 1989 : L’Intel 486 avait 1,2 million (augmentation de 500x)
- 2010 : L’Intel Core i7 avait 2,3 milliards (1 million de fois l’original)
- 2023 : L’Apple M2 Ultra a 134 milliards de transistors
L’ordinateur de guidage d’Apollo 11 avait 74 Ko de mémoire et fonctionnait à 0,043 MHz. Votre smartphone a 128 Go (1,7 million de fois plus) et fonctionne à 3 GHz (70 000 fois plus rapide). Nous avons mis un homme sur la Lune avec du matériel qui ne pouvait pas faire tourner Tetris, et nous utilisons du matériel qui pourrait faire tourner tout le centre de contrôle de mission de la NASA pour regarder des shorts YouTube.
Ce n’était pas seulement « les ordinateurs se sont améliorés ». C’était la réécriture silencieuse de la physique économique. Les tâches qui nécessitaient un bâtiment nécessitaient maintenant un bureau. Les tâches qui nécessitaient un bureau nécessitaient maintenant un téléphone. Les tâches qui nécessitaient un téléphone nécessitent maintenant… eh bien, nous sommes sur le point de le découvrir.
Bande Passante : De la Bibliothèque au Système Nerveux
La vitesse d’Internet est une autre histoire 100x que nous avons traversée en somnambulisme.
- 1996 (modem 56k) : Télécharger un seul MP3 prenait 10 minutes. Un film prendrait des jours.
- 2000 (DSL/Câble) : 100x plus rapide. Soudain, le streaming musical est devenu possible.
- 2010 (4G) : Encore 100x. Le streaming vidéo est devenu mobile.
- 2020 (5G) : Jusqu’à 100x d’amélioration théorique par rapport à la 4G, avec une latence tombant de ~50ms à ~1ms.
Le saut de 4G à 5G illustre pourquoi « 100x » n’est pas simplement « plus de la même chose ». À 50ms de latence, la chirurgie à distance est un procès en responsabilité en attente. À 1ms, c’est viable. Internet est passé d’une bibliothèque (pages statiques que vous récupérez) à un système nerveux (sensation et réponse en temps réel). Ce n’est pas une évolution ; c’est une métamorphose.
La Loi de Koomey : L’Activateur Silencieux
Voici une loi dont vous n’avez jamais entendu parler qui a façonné toute votre vie : le nombre de calculs par joule d’énergie a doublé tous les 1,57 ans depuis les années 1940.
Pourquoi cela importe-t-il ? Parce que sans elle, votre ordinateur portable aurait besoin d’une batterie de voiture et votre téléphone serait attaché à une prise murale comme un téléphone fixe. La loi de Koomey est la raison pour laquelle l’informatique mobile existe. C’est pourquoi les appareils portables existent. C’est pourquoi les appareils qui consomment nos vies ne consomment pas littéralement notre réseau électrique (encore — nous y reviendrons).
Chaque bond 100x d’efficacité signifiait que les appareils pouvaient faire plus en brûlant moins. Les premiers ordinateurs utilisaient des tubes à vide et buvaient de l’énergie comme les centres de données boivent de l’eau aujourd’hui. Maintenant, une puce de la taille de votre ongle les surpasse tout en fonctionnant sur une pile de montre.
Pourquoi Cette Fois Est Différente
Voici l’objection du sceptique : « Les gens prédisent la transformation technologique depuis des siècles. Les Jetsons promettaient des voitures volantes d’ici 2000. Où sont-elles ? »
Point valide. Mais il y a une différence cruciale entre les prédictions « la technologie X existera » (souvent fausses sur le timing, parfois complètement fausses) et les observations « la technologie X est déjà là, se développant rapidement ». Nous ne prédisons pas que l’IA deviendra intelligente un jour. Nous mesurons qu’elle devient plus intelligente chaque trimestre, suivant les chiffres de déploiement, observant la courbe de capacité.
Plus important encore : les vagues technologiques précédentes étaient additives — elles nous donnaient de nouvelles capacités sans supprimer les anciennes contraintes. Les voitures ajoutaient de la vitesse ; les chevaux fonctionnaient toujours. Les ordinateurs ajoutaient du calcul ; le jugement humain restait essentiel. La vague de l’IA est substitutive — elle remplace directement le travail cognitif, la seule chose sur laquelle les humains avaient un monopole.
Les technologies précédentes automatisaient nos muscles. Celle-ci automatise nos esprits. C’est catégoriquement différent, et les analogies historiques pourraient ne pas s’appliquer.
Le Bond Actuel : Bienvenue dans la Partie Verticale de la Courbe
Maintenant nous arrivons à la partie où la courbe devient verticale. L’explosion de l’IA ne suit pas la loi de Moore — elle fait paraître la loi de Moore tranquille.
Le Cerveau Grossit (LLM)
Les LLM (grands modèles de langage) sont des systèmes d’IA entraînés sur d’énormes quantités de texte pour prédire quels mots viennent ensuite — mais ce mécanisme simple produit des capacités émergentes qui ont surpris même leurs créateurs : raisonnement, codage, traduction et écriture créative. Ils sont appelés « grands » parce qu’ils ont des milliards ou des billions de « paramètres » (valeurs numériques que le système ajuste pendant l’entraînement pour améliorer les prédictions).
L’évolution de ces modèles se lit comme la chronologie d’une espèce biologique, compressée de millions d’années en une pause-café :
| Modèle | Année | Paramètres | Capacité |
|---|---|---|---|
| GPT-1 | 2018 | 117 millions | Une curiosité. Pouvait à peine compléter des phrases. |
| GPT-2 | 2019 | 1,5 milliard | Paragraphes cohérents. OpenAI craignait que c’était « trop dangereux pour être publié ». |
| GPT-3 | 2020 | 175 milliards | Bond 100x. Poésie, code, essais. Le moment « putain ». |
| GPT-4 | 2023 | ~1,76 trillion | Raisonnement, humour, nuance. A réussi l’examen du barreau. |
| GPT-5 | 2025 | Non divulgué | 94,6 % à l’AIME maths, 74,9 % au SWE-bench codage, 45 % d’erreurs factuelles en moins. |
Cette dernière ligne n’est pas de la spéculation — GPT-5 a été lancé le 7 août 2025, et les benchmarks sont réels. Sur l’AIME (American Invitational Mathematics Examination), conçu pour défier les 5 % meilleurs élèves de mathématiques du lycée, GPT-5 obtient 94,6 % sans utiliser d’outils externes. Sur SWE-bench Verified — un test de capacité de codage réel où l’IA doit comprendre les bases de code, identifier les bugs et écrire des correctifs — il atteint 74,9 %.
Et en décembre 2025, nous avons déjà GPT-5.2. La vitesse d’itération elle-même s’accélère.
La signification : Nous sommes passés de « l’IA peut à peine assembler une phrase » à « l’IA surpasse la plupart des humains sur des tâches de raisonnement de niveau professionnel » en sept ans. Ce n’est pas une ligne de tendance ; c’est une transition de phase.
Les Yeux Deviennent Plus Nets (Génération d’Images)
Vous vous souvenez quand la génération d’images par IA produisait du carburant de cauchemar — des visages avec trop de dents, des mains à sept doigts, l’esthétique générale de « vallée dérangeante par Salvador Dalí ayant un AVC » ?
- 2021 (DALL-E 1) : Flous basse résolution. Un « lama » ressemblait à un accident beige.
- 2022 (DALL-E 2/Midjourney v3) : Artistique mais faux. Visages qui marchaient presque. Texte qui ne marchait jamais.
- 2023 (Midjourney v5/DALL-E 3) : Photoréalisme qui trompait les experts. Le texte a commencé à fonctionner.
- 2024-2025 : Génération vidéo (Sora, Runway Gen-3, Kling). Scènes cinématiques complètes à partir d’invites textuelles.
Quatre ans. De « tache abstraite » à « preuve photographique qui n’est jamais arrivée ». Nous générons maintenant des vidéos impossibles à distinguer de séquences filmées avec des caméras physiques. Les implications philosophiques et juridiques rattrapent encore la réalité technologique.
Le Corps Devient Plus Rapide (Matériel d’Inférence)
Les miracles logiciels nécessitent des miracles matériels. Entrez Groq.
Le LPU (Language Processing Unit) de Groq traite le langage différemment des GPU traditionnels. Alors que les puces de Nvidia excellent dans l’entraînement de modèles, l’architecture de Groq est conçue spécifiquement pour l’inférence — exécuter des modèles entraînés à vitesse. Les résultats :
- Llama 3 70B : 284 tokens/seconde sur Groq vs ~25-50 tokens/seconde sur les clouds GPU typiques (6-11x plus rapide)
- Llama 3 8B : 877 tokens/seconde
- Temps jusqu’au premier token : 0,22 seconde, constamment (l’architecture déterministe signifie aucune variabilité)
Pourquoi la vitesse importe-t-elle ? Parce que la différence entre une réponse de 2 secondes et une réponse de 0,2 seconde n’est pas une amélioration de 10x — c’est la différence entre « assistant IA » et « extension de la pensée ». Quand l’IA répond plus vite que vous ne pouvez finir votre phrase, l’UX devient télépathique.
Le Mur : Quand la Physique Résiste
Voici où le futurisme optimiste rencontre la thermodynamique. Les courbes exponentielles ne durent pas éternellement — elles heurtent des murs. Et l’explosion de l’IA court actuellement vers plusieurs d’entre eux.
Le Mur Énergétique : La Faim Insatiable de l’IA
Le rapport 2025 de l’Agence Internationale de l’Énergie se lit comme un coup de semonce :
- État actuel : Les centres de données ont consommé 415 TWh mondialement en 2024 — 1,5 % de l’électricité mondiale
- États-Unis spécifiquement : 183 TWh en 2024 (4 % de la consommation nationale, équivalent à la demande totale du Pakistan)
- Projection 2030 : 945 TWh mondialement (doublement), avec les centres optimisés pour l’IA quadruplant leur part
- Les maths qui cassent tout : D’ici 2030, les États-Unis consommeront plus d’électricité pour traiter les données que pour fabriquer tous les biens à forte intensité énergétique combinés — y compris l’aluminium
L’IA n’est pas seulement gourmande en énergie ; elle est vorace en énergie. Une seule requête GPT-4 utilise 10-50x plus d’électricité qu’une recherche Google. À mesure que les modèles grossissent et que l’inférence devient plus courante, les courbes ne s’additionnent pas — elles se multiplient.
Goldman Sachs estime que 720 milliards de dollars d’améliorations du réseau sont nécessaires d’ici 2030 juste pour garder les lumières allumées. Environ 20 % des projets de centres de données prévus font face à des retards parce que le réseau électrique ne peut littéralement pas les alimenter.
Ce n’est pas hypothétique. Microsoft et Amazon achètent des centrales nucléaires. Google signe des accords pour la géothermie. L’industrie de l’IA ne pivote pas vers l’énergie propre par vertu environnementale — elle le fait parce qu’elle a épuisé l’énergie sale à acheter.
L’impératif de fusion : C’est pourquoi le calendrier de la fusion commerciale importe soudainement énormément. Quand Commonwealth Fusion Systems, Helion, TAE Technologies et d’autres parlent de « fusion d’ici 2035-2040 », ils ne décrivent pas un agréable à avoir. Ils décrivent le seul moyen d’alimenter une infrastructure IA pleinement réalisée sans reconstruire tout le réseau électrique tous les cinq ans.
Le Cerveau (IA) exige le Carburant (Fusion). Les technologies ne sont pas des développements parallèles — elles sont codépendantes.
Le Mur Matériel : Rareté à la Fondation
Chaque puce IA contient des éléments de terres rares avec des noms qui sonnent comme des sorts Harry Potter rejetés : Néodyme, Dysprosium, Yttrium, Terbium. Plus des minéraux critiques comme le Lithium, le Cobalt et le Gallium.
Le problème : ces matériaux ne sont pas distribués uniformément.
- La Chine contrôle ~60 % de l’extraction de terres rares et ~90 % du traitement
- La République Démocratique du Congo fournit 70 % du cobalt mondial
- Les chaînes d’approvisionnement sont géopolitiquement fragiles et environnementalement catastrophiques
Un iPhone contient environ 50 éléments différents. Une seule batterie de véhicule électrique nécessite environ 8 kg de lithium et 6 kg de cobalt. Un centre de données IA nécessite… eh bien, multipliez par plusieurs millions et continuez.
Deux solutions, nécessitant toutes deux des bonds 100x :
-
Exploitation minière spatiale : La ceinture d’astéroïdes contient une richesse minérale estimée à 700 quintillions de dollars. Un seul astéroïde (16 Psyché) détient ~10 quintillions de dollars en métaux. Cela ressemble à de la science-fiction jusqu’à ce que vous réalisiez l’économie : si vous pouvez obtenir des coûts d’extraction inférieurs à l’exploitation minière terrestre, le jeu change entièrement.
-
Recyclage parfait : Chaque téléphone, batterie et puce contient les éléments qui nous manquent. Avec le désassemblage robotique et la séparation avancée, nous pourrions fermer la boucle. Nous aurions besoin d’une automatisation suffisamment sophistiquée pour récupérer économiquement chaque atome d’or et de dysprosium des déchets électroniques. Ce qui nous amène à…
Le Mur du Travail : Qui Construit les Constructeurs ?
Voici le paradoxe : nous avons besoin de millions de robots pour construire l’infrastructure pour l’IA abondante. Nous avons besoin d’IA abondante pour concevoir et coordonner ces millions de robots. Chaque technologie nécessite l’autre pour se développer.
C’est pourquoi le futur 100x n’est pas une percée — ce sont trois percées entrelacées :
- Le Cerveau (IA) : Intelligence sans limites biologiques
- Le Corps (Robotique) : Travail sans épuisement humain
- Le Carburant (Fusion) : Énergie sans rareté
Manquez-en une, et les autres calent. Frappez les trois, et les effets composés deviennent civilisationnels.
Le Problème de Compression du Calendrier
L’aspect le plus troublant du moment actuel n’est pas la technologie — c’est la vitesse.
Les bonds 100x précédents ont pris des décennies pour se propager. La loi de Moore nous a donné 50 ans pour nous ajuster. Internet a pris 30 ans pour devenir omniprésent. La société avait le temps de construire des institutions, de recycler les travailleurs, de développer des normes.
Le 100x de l’IA se produit en années, pas en décennies. GPT-3 à GPT-5 était cinq ans. Le saut de « l’IA ne peut pas dessiner les mains » à « l’IA génère de la vidéo photoréaliste » était trois ans. L’écart entre « l’IA assiste les programmeurs » et « 46 % du code de production est généré par l’IA » était deux ans.
Les institutions sociales se déplacent à la vitesse de la législation — années à décennies. La technologie se déplace à la vitesse du déploiement — mois à années. La perturbation économique se déplace à la vitesse des résultats trimestriels — semaines à mois.
Nous essayons de naviguer une transition à l’échelle de la civilisation avec des cartes de l’âge du bronze et des institutions de l’ère de la vapeur. Les routes que nous parcourons n’existaient pas quand nous avons commencé le voyage.
Conclusion : La Bifurcation de la Route
Nous nous trouvons à un véritable point d’inflexion. Les améliorations 100x sont réelles. La compression du calendrier est réelle. Les exigences d’infrastructure sont réelles.
Deux chemins divergent :
Chemin Un : Nous ratons la transition. Le Cerveau se développe mais le Carburant non, donc l’IA reste contrainte par l’énergie et géographiquement concentrée. Le Corps ne se développe pas, donc les avantages ne reviennent qu’à ceux qui possèdent déjà l’infrastructure. Nous obtenons ce que la post-pénurie appelle la « Trajectoire Star Wars » — technologie incroyable capturée par les structures de pouvoir existantes, créant un nouveau type de rareté : l’accès à l’abondance elle-même.
Chemin Deux : Nous traitons les Trois Moteurs comme codépendants et investissons en conséquence. La fusion obtient l’urgence du Projet Manhattan qu’elle mérite. La robotique prolifère au point où le travail physique devient vraiment optionnel. La gouvernance de l’IA garantit que le Cerveau sert toute conscience, pas seulement ses propriétaires. Nous obtenons le résultat « Star Trek républicain » — abondance fédérée, où la technologie libère plutôt que stratifie.
La différence n’est pas technique. Les trajectoires techniques sont largement déterminées par la physique et l’investissement. La différence est politique et sociale : qui décide comment le 100x est déployé, et pour qui ?
Nous n’avons jamais navigué une transition aussi rapide. Nous n’avons jamais eu des outils aussi puissants. Et nous n’avons jamais fait face à un choix aussi conséquent.
La prochaine décennie ne concerne pas le fait que le 100x se produise. Il s’agit de savoir si nous sommes prêts pour cela — et si « nous » inclut tout le monde.