Connexion gratuite : Préambule (PDF, ebook & livre audio) + Accès au forum + Achats directs Connexion

Recherche Unscarcity

Calendrier de l'AGI 2026 : ce que prédisent Altman, Hassabis et Amodei

Tous les grands PDG de l'IA prédisent désormais l'AGI entre 2027 et 2030. Les marchés prédictifs sont d'accord. La question n'est pas quand — c'est si on sera prêts quand ça arrivera.

14 min de lecture 3050 mots /a/agi-timeline-2026-predictions

Note : Ceci est une note de recherche complétant le livre L’ère de la post-pénurie, désormais disponible à l’achat. Ces notes approfondissent les concepts du texte principal. Commencez ici ou procurez-vous le livre.

Calendrier de l’AGI 2026 : ce que prédisent Altman, Hassabis et Amodei

Le consensus le plus cher de l’histoire

Voici quelque chose qui devrait te mettre profondément mal à l’aise : les PDG d’OpenAI, Anthropic, Google DeepMind, xAI et Meta — des entreprises qui dépensent collectivement plus de 100 milliards de dollars par an en infrastructure IA — sont tous d’accord sur à peu près la même chose. L’AGI arrive, et elle arrive vite. Pas « de notre vivant ». Pas « un jour ». Ils parlent de cette décennie. Certains parlent de l’année prochaine.

Tu pourrais dire : « Évidemment qu’ils disent ça — ils vendent du rêve. » Argument recevable. Le cours de l’action Nvidia est fondamentalement un contrat à terme sur l’AGI. Mais voilà le truc avec le consensus entre concurrents : ces gens ne sont d’accord sur quasiment rien d’autre. Ils se battent sur la sécurité, sur la régulation, sur l’open-source contre le propriétaire, sur l’opportunité de témoigner devant le Congrès ou de l’ignorer. Si Sam Altman dit que le ciel est bleu, Elon Musk répondra qu’il est mauve, juste par esprit de contradiction. Pourtant, sur les calendriers de l’AGI, ils ont convergé vers une fenêtre si étroite qu’on pourrait y garer une Tesla.

Détaillons qui dit quoi, pourquoi ils pourraient avoir raison, pourquoi ils pourraient avoir tort, et pourquoi — en fin de compte — la date exacte importe bien moins que ce qu’on construit en attendant.


Les prédictions : le Who’s Who du « ça arrive »

Sam Altman (OpenAI)

Altman a été le plus agressivement optimiste du lot. En janvier 2025, il a écrit sur son blog qu’OpenAI était « désormais confiant de savoir comment construire l’AGI telle qu’on l’a traditionnellement comprise ». Pas « on pense qu’on pourrait trouver » — on sait comment. Il a prédit que l’AGI pourrait arriver pendant le second mandat de Trump, soit avant janvier 2029 au plus tard. Mi-2025, il avait affiné son estimation, suggérant que l’AGI pourrait arriver dès 2027.

Dans un essai de septembre 2024 intitulé « The Intelligence Age », Altman a écrit que la superintelligence — pas juste l’AGI, mais des systèmes au-delà du niveau humain — pourrait être atteignable « d’ici quelques milliers de jours ». Fais le calcul. Quelques milliers de jours à partir de septembre 2024 te met entre 2027 et 2031.

Ce qui rend les prédictions d’Altman notables, ce n’est pas seulement leur agressivité — c’est le pari institutionnel d’OpenAI. L’entreprise s’est restructurée d’une association à but non lucratif en une entité à profit plafonné, a levé plus de 13 milliards auprès de Microsoft, et planifierait un investissement en calcul de 100 milliards. On ne dépense pas ce genre de sommes pour un « peut-être ».

Vérification de crédibilité : Altman a un historique de calendriers ambitieux. Il dirige aussi une entreprise dont la valorisation dépend de la croyance du marché en l’imminence de l’AGI. Applique un coefficient correcteur — mais ne balaie pas tout d’un revers de main.

Dario Amodei (Anthropic)

Le PDG d’Anthropic a été le plus précis. Lors d’une apparition en novembre 2024 sur le podcast de Lex Fridman, Amodei a dit qu’il s’attendait à ce que les systèmes d’IA soient « globalement meilleurs que tous les humains dans presque tout » d’ici 2026 ou 2027. Ce n’est pas une couverture — c’est une fourchette que tu peux mettre dans ton agenda.

Dans son essai « Machines of Loving Grace » (octobre 2024), Amodei a posé ce qu’il appelle « le XXIe siècle compressé » — l’idée que l’IA pourrait comprimer cent ans de progrès scientifique en cinq à dix ans. Il ne parlait pas d’un futur lointain. Il décrivait ce qui se passe après l’arrivée de l’AGI à la fin des années 2020.

Ce qui rend la prédiction d’Amodei particulièrement frappante, c’est qu’Anthropic est simultanément le labo le plus focalisé sur la sécurité. Ce n’est pas un homme qui dit « plein gaz, qu’importe les conséquences ». Il dit « ça arrive, c’est dangereux, et on doit se préparer » — ce qui est, au passage, exactement ce que le cadre Unscarcity soutient.

Amodei a aussi prévenu que l’IA pourrait éliminer 50 % des emplois de cols blancs débutants dans les cinq ans. Quand le PDG d’une entreprise d’IA te dit que son produit va détruire la moitié du marché de l’emploi junior, tu devrais probablement écouter.

Vérification de crédibilité : Amodei a quitté OpenAI suite à des désaccords sur la sécurité et a cofondé Anthropic explicitement pour construire l’IA de manière plus prudente. Il a moins d’incitation à sur-hyper et plus de crédibilité sur les risques. Ses estimations de calendrier méritent d’être prises au sérieux.

Demis Hassabis (Google DeepMind)

Hassabis, neuroscientifique devenu chercheur en IA et lauréat du prix Nobel de chimie pour les prédictions de structure protéique d’AlphaFold, a historiquement été la voix la plus mesurée. Début 2025, il a dit que l’« IA de niveau humain » arriverait dans « cinq à dix ans », avec une tendance vers « probablement trois à cinq ». Ce qui se traduit par 2028-2030 comme fourchette probable.

Au Forum économique mondial de Davos en janvier 2025, Hassabis a décrit l’AGI comme « probablement la technologie la plus transformatrice et aussi potentiellement la plus dangereuse de l’histoire humaine ». Venant de l’homme dont l’équipe a résolu un problème de biologie vieux de cinquante ans grâce à l’IA, cette évaluation a du poids.

L’approche de DeepMind est notable : ils ne se contentent pas de mettre à l’échelle des modèles de langage. Ils construisent des systèmes de raisonnement, des outils de découverte scientifique et des algorithmes de planification. Quand Hassabis dit que l’AGI est proche, il regarde un portefeuille de capacités plus large que quiconque.

Vérification de crédibilité : Hassabis a les références scientifiques les plus solides de tous les grands PDG de l’IA. Son labo a produit de véritables percées (AlphaGo, AlphaFold, Gemini). Il est aussi le moins enclin aux cycles de hype, ce qui rend sa convergence avec Altman et Amodei d’autant plus significative.

Elon Musk (xAI)

Musk, jamais porté sur la litote, a prédit fin 2024 que l’IA serait « plus intelligente que n’importe quel humain » d’ici fin 2025, et « plus intelligente que tous les humains combinés » d’ici 2028-2029. Il a lancé xAI en 2023, construit le massif cluster de calcul Colossus à Memphis avec 100 000 GPU, et a couru pour rattraper OpenAI.

Musk a une relation compliquée avec les prédictions sur l’IA. Il a été membre fondateur du conseil d’OpenAI, en est parti dans la discorde, a poursuivi l’entreprise en justice, puis a lancé la sienne. Ses calendriers tendent à être plus agressifs que ceux de ses pairs — mais il a aussi un historique qui montre qu’il voit juste sur la direction technologique même quand ses dates précises sont optimistes. (SpaceX « allait sur Mars en 2024 ». Pas fait. Mais ils ont révolutionné le lancement spatial.)

Vérification de crédibilité : Les prédictions AGI de Musk sont à prendre avec le même grain de sel que ses calendriers Mars et ses promesses de Full Self-Driving. Utile sur la direction ; peu fiable sur la chronologie.

Mark Zuckerberg (Meta)

Zuckerberg a pivoté Meta durement vers l’IA en 2023-2024, en rendant open source la série de modèles Llama et en déclarant que l’objectif à long terme de Meta était de construire l’intelligence générale. Bien qu’il ait été moins précis sur les dates que ses pairs, il a dit sur le podcast Acquired début 2025 qu’il s’attendait à ce que les systèmes d’IA soient capables de « raisonner comme un ingénieur intermédiaire » dès 2025-2026 et que le chemin vers l’AGI était « de plus en plus clair ».

L’approche de Meta est intéressante parce qu’elle est la plus ouverte. Les modèles Llama sont accessibles à tous. Zuckerberg a argumenté que rendre l’IA open source est à la fois plus sûr (plus d’yeux sur le code) et stratégiquement malin (empêche la concentration du pouvoir). Que tu sois d’accord ou non avec cette logique, ça signifie que les progrès de Meta sont plus visibles et vérifiables que ceux des labos fermés.

Vérification de crédibilité : Zuckerberg a déjà brûlé de la crédibilité (le pivot Métavers qui a coûté des dizaines de milliards). Mais l’équipe IA de Meta — dirigée par Yann LeCun, lauréat du prix Turing — est véritablement de classe mondiale. La combinaison de modèles ouverts et de talents de premier plan fait des signaux de Meta quelque chose qui mérite d’être suivi.


Les marchés prédictifs : ce que pense la foule

Les dirigeants individuels ont des incitations à sur-hyper. Que disent les prévisions agrégées ?

Metaculus — une plateforme de prédiction avec un solide historique — a vu la médiane de sa communauté pour « quand l’AGI arrivera-t-elle ? » s’effondrer des années 2040 en 2020 à environ 2030 en mi-2025. Un glissement de quinze ans en cinq ans. Pas une mise à jour progressive — un effondrement de paradigme.

Polymarket, le marché prédictif décentralisé, a montré des tendances similaires. Les paris sur « AGI d’ici 2030 » ont grimpé régulièrement, avec des probabilités implicites autour de 30-40 % début 2026.

L’enquête d’experts 2023 sur les progrès de l’IA (menée par Katja Grace et al.) a sondé plus de 2 700 chercheurs en IA. Le répondant médian donnait une probabilité de 50 % à une « intelligence machine de niveau humain » arrivant d’ici 2047 — mais la distribution avait une queue gauche épaisse, avec 10 % des répondants la plaçant avant 2027. Plus important, ces estimations se sont décalées vers la gauche à chaque enquête successive. La version 2016 de la même enquête avait la médiane à 2061.

Voici le schéma inconfortable : chaque fois que les chercheurs mettent à jour leurs estimations AGI, ils les rapprochent, pas les éloignent.


Les sceptiques : pourquoi ils pourraient avoir raison

Tout le monde ne boit pas au calice de l’AGI, et les sceptiques avancent des arguments légitimes.

Yann LeCun (directeur scientifique de Meta, ironiquement) a constamment soutenu que les architectures LLM actuelles n’atteindront pas l’AGI. Il pense qu’il nous manque des percées fondamentales en modèles du monde, planification et raisonnement causal. Les LLM, argue-t-il, sont des reconnaisseurs de schémas sophistiqués, pas des penseurs. Il a peut-être raison — mais note que même LeCun ne dit pas que l’AGI est impossible, juste qu’on a besoin de nouvelles architectures pour y parvenir.

Gary Marcus (scientifique cognitif de NYU) a été le critique le plus vocal, soulignant que les LLM échouent encore au raisonnement basique, font des erreurs avec assurance, et manquent de compréhension véritable. Il argue qu’on est dans une bulle « le scaling c’est tout ce qu’il faut » qui finira par éclater.

Ilya Sutskever (ancien directeur scientifique d’OpenAI, maintenant chez Safe Superintelligence Inc.) a dit que les LLM « généralisent de manière radicalement moins bonne que les humains ». Venant de l’un des architectes du deep learning moderne, c’est un point de données significatif.

L’argument le plus fort des sceptiques : on est déjà passé par là. L’IA a traversé plusieurs « hivers » où le battage a dépassé la réalité. Les années 1960 promettaient des machines pensantes dans les années 1980. Le boom des systèmes experts des années 1980 s’est effondré dans les années 1990. Peut-être que les LLM ne sont que le dernier cycle de hype.

Le contre-argument ? Les cycles de hype précédents manquaient d’infrastructure commerciale pour se maintenir. Les entreprises d’IA d’aujourd’hui ont des revenus réels, des clients réels et un impact économique réel. Anthropic a dépassé le milliard de dollars en chiffre d’affaires annualisé en 2024. OpenAI dépasse les 4 milliards. Ce ne sont pas des subventions de recherche — ce sont des empires économiques. Le capital affluant dans l’IA n’est pas de la spéculation sur un rêve ; c’est de l’investissement dans une technologie qui génère déjà des rendements.


La date est une distraction (et voilà ce qui compte vraiment)

Mettons le jeu des prédictions en pause et posons une question différente : est-ce que ça change quelque chose que l’AGI arrive en 2027 ou en 2035 ?

Pour les investisseurs et les traders ? Bien sûr. Pour nous autres ? Bien moins qu’on ne le penserait.

Voici pourquoi : la falaise du travail n’attend pas une annonce officielle « AGI atteinte ». C’est déjà en cours. Chaque trimestre, les systèmes deviennent plus performants. Chaque trimestre, plus d’emplois deviennent automatisables. La courbe de déplacement est lisse, pas un escalier. Que l’AGI soit formellement « atteinte » en 2027 ou 2032, la perturbation économique est déjà en marche en 2026, et elle s’intensifiera quel que soit le label qu’on colle à la technologie.

Regarde les données d’emploi. Les employeurs américains ont annoncé près de 700 000 suppressions de postes rien que dans les cinq premiers mois de 2025 — une augmentation de 80 % en glissement annuel. Les diplômés en informatique font face à 6,1 % de chômage. Le travail de connaissance de premier niveau s’évapore. Ce n’est pas parce que l’AGI est arrivée ; c’est parce que l’IA étroite est devenue assez bonne à des tâches spécifiques pour rendre les humains superflus dans ces rôles.

L’AGI n’est pas un interrupteur qu’on bascule. C’est un variateur qu’on tourne depuis des années.

L’obsession de localiser la date exacte de l’AGI est, franchement, une façon d’éviter la conversation plus difficile : qu’est-ce qu’on construit pour rattraper les gens qui tombent de la falaise ?


L’argument du livre : construire la Fondation avant d’en avoir besoin

C’est ici que le cadre Unscarcity se sépare à la fois des techno-optimistes (« l’AGI résoudra tout ! ») et des prophètes de malheur (« l’AGI détruira tout ! »).

La position du cadre est simple et inconfortable : Que l’AGI arrive en 2027 ou en 2035, on a besoin que l’infrastructure de la Fondation soit opérationnelle avant qu’elle ne frappe — pas après.

Voici la logique :

  1. L’AGI accélère le déplacement d’emplois. Même le scénario optimiste — où l’AGI crée plus d’emplois qu’elle n’en détruit — nécessite une période de transition. Les gens ne se reconvertissent pas instantanément. Les industries ne se restructurent pas instantanément. L’écart entre « anciens emplois disparus » et « nouveaux emplois disponibles » est l’endroit où la souffrance se produit.

  2. La Fondation n’est pas du RBU. Le revenu de base universel est un pansement — un chèque dans la boîte aux lettres. La Fondation est de l’infrastructure : logement garanti, nourriture, santé, énergie et calcul fournis comme services publics. C’est la différence entre donner un poisson et construire une pisciculture. (Voir l’analyse des trois scénarios pour comprendre pourquoi le RBU seul mène à la trajectoire « Star Wars » — du pain et des jeux pour les masses pendant qu’une aristocratie technologique possède tout ce qui compte.)

  3. L’infrastructure prend du temps. On ne peut pas construire la Fondation du jour au lendemain. Les zones libres doivent être pilotées. Le protocole EXIT a besoin de premiers adoptants parmi les élites existantes. Les programmes de service civique doivent être conçus et testés. Tout ça nécessite au minimum une décennie de préparation. Si l’AGI arrive en 2027 et qu’on n’a pas commencé, on est déjà en retard. Si elle arrive en 2035 et qu’on a commencé en 2026, on a peut-être une chance.

  4. Le marché prédictif nous hurle dessus. Quand Metaculus décale sa médiane AGI de quinze ans en cinq ans, ce n’est pas du bruit — c’est un signal. Quand chaque grand PDG de l’IA converge vers la même fenêtre, ce n’est pas du battage — c’est du savoir institutionnel qui devient public. Les gens qui construisent la technologie nous disent à quelle vitesse elle arrive. On devrait probablement les croire, ou au moins se couvrir contre la possibilité qu’ils aient raison.


Alors, qu’est-ce qu’on fait concrètement ?

Oublie les tentatives de prédire si Altman ou Hassabis a la meilleure boule de cristal. Concentre-toi sur les actions qui ont du sens quel que soit le calendrier exact :

Si l’AGI arrive en 2027 (scénario agressif) : On est déjà en retard. La Fondation a besoin d’un déploiement d’urgence. Le protocole EXIT devient une réponse de crise, pas une transition planifiée. La perturbation politique sera sévère. C’est le scénario où chaque année de préparation déjà faite rapporte au centuple.

Si l’AGI arrive en 2032 (scénario modéré) : On a le temps de piloter des zones libres, de construire des coalitions politiques, et de démontrer que le modèle de la Fondation fonctionne. C’est le scénario où commencer maintenant signifie arriver à l’heure.

Si l’AGI arrive en 2040+ (scénario conservateur) : On a une piste généreuse. Mais l’IA étroite déplacera quand même des millions d’emplois dans l’intervalle, donc l’infrastructure de la Fondation est précieuse de toute façon. On n’a pas besoin de l’AGI pour que la falaise du travail frappe — on a juste besoin d’une IA « assez bonne ».

Dans les trois scénarios, la réponse est la même : commencer à construire maintenant.

Les PDG de l’IA nous ont dit ce qui arrive. Les marchés prédictifs l’ont intégré dans les prix. Les données d’emploi confirment que c’est déjà en cours. La seule question restante est de savoir si on construit le parachute avant de sauter de la falaise, ou après.

Je préférerais avant. Pas toi ?


Articles associés


Le plan Unscarcity soutient qu’on a besoin de nouvelles infrastructures pour un monde où le travail humain n’est plus le goulot d’étranglement. Curieux ? Lis le livre ou commence par le préambule.

Partager cet article :

Lire à voix haute