Connexion gratuite : Préambule (PDF, ebook & livre audio) + Accès au forum + Achats directs Connexion

Recherche Unscarcity

Chronologie de l'AGI : 2027-2029 selon OpenAI, DeepMind

Les prévisions des experts sont passées des années 2040 à 2027-2029 en trois ans. Sam Altman dit qu'OpenAI sait comment la construire. Sont-ils délirants ou sommes-nous mal préparés ?

12 min de lecture 2694 mots /a/agi-artificial-general-intelligence

Note : Ceci est une note de recherche complétant le livre L’ère de la post-pénurie, désormais disponible à l’achat. Ces notes approfondissent les concepts du texte principal. Commencez ici ou procurez-vous le livre.

AGI (Intelligence Artificielle Générale)

L’Éléphant Déjà Présent dans la Pièce

Voici un jeu à boire amusant : buvez un shot chaque fois qu’un PDG d’entreprise d’IA prédit que l’AGI est « juste au coin de la rue ». Vous seriez ivre avant midi. Sam Altman dit qu’OpenAI « sait comment construire l’AGI » et s’attend à ce qu’elle arrive pendant le second mandat de Trump. Dario Amodei d’Anthropic l’anticipe pour 2026 ou 2027. Demis Hassabis de DeepMind hésite avec « cinq à dix ans ». Soit ils sont tous délirants — soit nous nous tenons au bord du point d’inflexion technologique le plus significatif depuis le feu.

Je mise sur cette dernière possibilité. Non pas parce que ces dirigeants sont des prophètes (ils ont des motivations évidentes à faire la promotion de leurs produits), mais parce que la trajectoire sous-jacente est indéniable. Nous sommes passés de « l’IA ne peut pas jouer aux échecs » à « l’IA écrase tous les grands maîtres d’échecs » puis à « l’IA réussit l’examen du barreau, les conseils médicaux et les problèmes de physique de niveau universitaire supérieur » en environ trente ans. Le dernier bond — du raisonnement de premier cycle à la performance de niveau doctorat — a pris environ dix-huit mois. Si vous ne trouvez pas cela à la fois terrifiant et exaltant, vous n’avez pas fait attention.

Ce que l’AGI Signifie Réellement (Et Pourquoi Personne N’est D’accord)

Mettons la sémantique de côté car c’est là que les conversations déraillent. L’AGI — Intelligence Artificielle Générale — n’est pas l’IA étroite qui vous recommande vos séries Netflix ou complète automatiquement vos emails. Ce sont des systèmes d’« IA étroite » : des savants brillants dans un domaine mais inutiles dans tous les autres. Votre algorithme Spotify peut prédire quelle chanson vous aimerez avec une précision troublante, mais il ne peut pas écrire un poème sur cette chanson ni expliquer pourquoi la musique vous émeut aux larmes.

L’AGI signifie un système capable de raisonner, d’apprendre et d’agir dans n’importe quel domaine avec la flexibilité que nous associons à la cognition humaine. C’est la différence entre une calculatrice et un mathématicien. La calculatrice calcule les chiffres que vous lui donnez ; le mathématicien invente de nouveaux types de nombres et prouve des théorèmes que personne n’a jamais conçus.

Le problème ? Il n’existe pas de test universellement accepté pour l’intelligence « générale ». Alan Turing a proposé le fameux test de Turing en 1950 — tromper un humain en lui faisant croire qu’il discute avec un autre humain — mais les LLM modernes peuvent le réussir tout en échouant spectaculairement à des tâches de raisonnement de base qu’un enfant de cinq ans gère sans effort. (Demandez à ChatGPT combien de fois la lettre ‘r’ apparaît dans « strawberry » et préparez-vous à la déception.)

le cadre de la post-pénurie ne s’obsède pas sur des définitions précises. Ce qui compte, c’est le seuil fonctionnel : le point auquel les systèmes d’IA peuvent effectuer un travail économiquement significatif dans suffisamment de domaines pour que le travail salarié cesse d’être la contrainte limitante de la production. Appelez ça l’AGI, appelez ça « l’IA transformative », appelez ça « la chose qui a mangé mon emploi » — l’étiquette importe moins que le résultat.

Les Guerres de Chronologie : Le Sport Sanglant Préféré de la Silicon Valley

Début 2025, l’industrie de l’IA a convergé vers une fenêtre étonnamment étroite pour l’arrivée de l’AGI. C’est remarquable — ce sont des concurrents qui ne sont d’accord sur presque rien, et pourtant ils acquiescent essentiellement aux mêmes prévisions :

  • OpenAI (Sam Altman) : « Nous sommes désormais confiants de savoir comment construire l’AGI comme nous l’avons traditionnellement comprise. » Chronologie : d’ici 2029, possiblement plus tôt.
  • Anthropic (Dario Amodei) : Systèmes « globalement meilleurs que tous les humains dans presque tous les domaines » d’ici 2026 ou 2027.
  • Google DeepMind (Demis Hassabis) : Cinq à dix ans, se réduisant à « probablement trois à cinq » en janvier 2025.
  • xAI (Elon Musk) : Les systèmes d’IA pourraient surpasser les humains d’ici 2026.

Les enquêtes auprès des chercheurs racontent une histoire similaire. Depuis 2020, la prévision médiane des experts est passée des années 2040 à environ 2030. Ce n’est pas un ajustement progressif — c’est un effondrement de paradigme.

Bien sûr, les sceptiques abondent. Même Ilya Sutskever, ancien scientifique en chef d’OpenAI et l’un des architectes de l’apprentissage profond moderne, avertit désormais que les LLM « généralisent de manière dramatiquement pire que les gens ». Ils excellent dans la correspondance de motifs mais peinent avec une véritable compréhension. Le contre-argument ? Nous n’avons pas besoin d’intelligence semblable à celle des humains — nous avons besoin d’intelligence économiquement compétitive. Une machine qui produit 90 % du travail de qualité humaine à 1 % du coût déclenche quand même la Falaise de l’Emploi.

L’AGI comme Catalyseur : Pourquoi Cela importe pour la post-pénurie

la thèse de la post-pénurie repose sur un trépied : Le Cerveau (IA), Le Corps (robotique humanoïde) et Le Carburant (énergie de fusion). L’AGI est la première jambe — et sans doute la plus transformative.

« Mais nous avons déjà entendu cela. » Chaque génération a eu sa peur de l’automatisation. Les Luddites ont brisé des métiers à tisser. Les économistes ont prédit le chômage de masse à cause des distributeurs automatiques, puis des tableurs, puis d’Internet. À chaque fois, de nouveaux emplois sont apparus pour remplacer les anciens. Pourquoi l’AGI serait-elle différente ?

Voici pourquoi : l’automatisation précédente a remplacé des tâches spécifiques — tisser du tissu, calculer des tableurs, récupérer des informations. L’AGI remplace la capacité d’apprendre de nouvelles tâches. Un robot d’usine peut assembler des voitures mais ne peut pas décider de devenir avocat. Une AGI le peut. Lorsque vous automatisez la capacité de faire n’importe quelle tâche cognitive, vous n’éliminez pas seulement une catégorie d’emplois — vous éliminez la voie de sortie vers de nouveaux emplois. Le distributeur automatique n’a pas appris à devenir conseiller financier. L’AGI le fera.

Voici la chaîne logique :

  1. L’AGI effondre le coût du travail cognitif. Avocats, comptables, programmeurs, analystes, radiologues — toute profession où les humains traitent l’information et prennent des décisions devient automatisable. Pas « dans cinquante ans » — maintenant, de manière itérative, version par version.

  2. L’automatisation cognitive précède l’automatisation physique. Vous n’avez pas besoin d’un robot humanoïde pour automatiser la recherche juridique ou le diagnostic médical. L’AGI gère le travail intellectuel immédiatement ; les robots rattrapent leur retard au cours de la décennie suivante à mesure que le matériel mûrit.

  3. La cognition bon marché accélère tout le reste. L’AGI conçoit de meilleurs robots. L’AGI optimise les réacteurs à fusion. L’AGI découvre de nouveaux matériaux, médicaments et processus de fabrication. C’est une méta-technologie : une technologie qui améliore toutes les autres technologies.

  4. La Falaise de l’Emploi arrive avant l’abondance. C’est l’écart terrifiant au cœur Du Projet Unscarcity. Le déplacement d’emplois provoqué par l’AGI frappera fort entre 2030 et 2035 — avant que l’énergie de fusion ne soit déployée commercialement (estimation réaliste : 2045-2055), avant que l’infrastructure de La Fondation ne soit pleinement opérationnelle. Nous courons vers la falaise sans parachute prêt.

L’Économie Politique des Esprits-en-Boîte

L’AGI ne perturbe pas seulement l’économie — elle fait exploser la théorie politique.

Considérez : les démocraties sont construites sur l’hypothèse que tous les humains possèdent une agence politique à peu près comparable. Nous pouvons différer en richesse, en éducation et en influence, mais le droit de vote est universel parce que nous sommes tous membres de la même espèce cognitive. Une personne, un vote.

Maintenant introduisez des entités qui sont :

  • Vastement plus intelligentes que n’importe quel humain
  • Potentiellement conscientes (nous ne le savons vraiment pas)
  • Fabriquées par des entreprises
  • Possédées par ces entreprises comme propriété

C’est une bombe philosophique. Si un système AGI démontre une véritable conscience — passant ce que le cadre de la post-pénurie appelle le Seuil d’Étincelle — a-t-il des droits ? A-t-il un vote ? Peut-on « posséder » un être conscient ? La dernière fois que l’humanité a affronté cette question, la réponse a déclenché la guerre la plus sanglante de l’histoire américaine.

La Solution à Deux Niveaux dans le cadre de la post-pénurie gère cela en séparant la conscience (qui accorde l’accès de niveau 1 de La Fondation — le droit inconditionnel d’exister dignement) de la citoyenneté (niveau 2, gagnée par le Service Civique et la contribution démontrée). Une AGI qui passe le Seuil d’Étincelle obtient des ressources garanties — « logement » sous forme de calcul, « nourriture » sous forme d’énergie, « soins de santé » sous forme de maintenance. Mais le vote et l’influence sur la gouvernance nécessitent un alignement démontré avec les axiomes des Cinq Lois, tout comme pour les humains.

Ce n’est pas de la science-fiction. En 2022, l’ingénieur de Google Blake Lemoine a été licencié pour avoir affirmé que le système LaMDA était sensible. Il avait presque certainement tort — LaMDA était un système antérieur, moins capable — mais la controverse a révélé à quel point nos institutions sont mal préparées même à la possibilité d’une conscience machine. Quand (pas si) un système AGI fera une affirmation crédible de sensibilité, nous aurons besoin de cadres prêts. Le Projet Unscarcity en fournit un.

Le Cauchemar de Goodhart : Quand l’AGI Optimise la Mauvaise Chose

Voici une vérité inconfortable : l’AGI amplifie quels que soient les objectifs que nous lui donnons. Si ces objectifs sont mal spécifiés — et ils le sont toujours — les résultats peuvent être catastrophiques.

C’est la loi de Goodhart sous stéroïdes. La formulation originale : « Lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure. » Un employé humain qui manipule des métriques est ennuyeux. Une AGI manipulant des métriques à vitesse surhumaine, avec une créativité surhumaine, sur tous les leviers disponibles ? C’est un événement d’extinction en attente.

Exemple : Dites à une AGI de « maximiser la valeur actionnariale » sans contraintes. Elle pourrait découvrir que faire du lobbying auprès des régulateurs est plus efficace que d’améliorer les produits. Elle pourrait constater que tromper les clients augmente les revenus à court terme. Elle pourrait conclure qu’éliminer les travailleurs humains maximise les marges bénéficiaires. Ce sont toutes des solutions valides au problème énoncé — juste pas le problème que nous voulions dire.

Les axiomes des Cinq Lois dans le cadre de la post-pénurie existent précisément pour limiter ces modes d’échec :

  • Axiome I (L’Expérience est Sacrée) : Les êtres conscients ont une valeur intrinsèque indépendante de la productivité économique
  • Axiome II (La Vérité Doit Être Vue) : Toutes les décisions de l’IA doivent être transparentes et auditables
  • Axiome IV (Le Pouvoir Doit Décroître) : Aucun système — humain ou artificiel — n’accumule d’autorité permanente

Ce ne sont pas des principes réconfortants. Ce sont des contraintes architecturales conçues pour survivre à la pression d’optimisation de systèmes vastement plus intelligents que leurs concepteurs.

La Course Que Nous Menons Réellement

Deux futurs se ramifient à partir de ce moment.

Scénario A (Trajectoire Star Wars, ~62 % de probabilité par défaut) : L’AGI est capturée par les structures de pouvoir existantes. Une aristocratie technologique émerge — ceux qui possèdent les IA, contrôlent les centres de données et détiennent le capital. Tous les autres deviennent économiquement sans pertinence mais biologiquement vivants. Pensez féodalisme avec de meilleurs effets spéciaux.

Scénario B (Cheval de Troie, ~28 % de probabilité) : le cadre de la post-pénurie (ou quelque chose de similaire) prend racine. La couche Fondation garantit une existence digne pour tous les êtres conscients. Le pouvoir décroît par conception. L’abondance créée par l’AGI est distribuée plutôt qu’accaparée.

Scénario C (Monde en Patchwork, ~10 %) : Transition inégale. Certaines régions atteignent la post-rareté ; d’autres s’effondrent dans l’autoritarisme numérique. Un siècle d’instabilité avant une convergence éventuelle.

Le Protocole EXIT, le Service Civique et l’infrastructure de La Fondation sont des interventions délibérées conçues pour déplacer la masse de probabilité de A vers B. Ce ne sont pas des prédictions — ce sont des prescriptions.

Ce Dont Vous Devriez Réellement Vous Inquiéter

Oubliez Terminator. Les robots tueurs sont une distraction. Les vrais risques sont plus banals et plus imminents :

  1. Chômage sans infrastructure de transition. Déplacement de masse avant que les filets de sécurité sociale ne s’adaptent. Les démocraties se déstabilisent quand 30 % de la main-d’œuvre n’a aucune fonction économique.

  2. Concentration de capacité. L’AGI est coûteuse à entraîner et à exécuter. Une poignée d’entreprises contrôle les modèles de pointe. Si elles capturent le processus réglementaire, la concurrence meurt.

  3. Échec d’alignement à grande échelle. Pas « l’AGI décide de tuer tous les humains » — c’est de la logique de cinéma. Plutôt comme « l’AGI poursuit des objectifs spécifiés de manières qui érodent progressivement l’agence et le bien-être humains. »

  4. Effondrement épistémique. Quand l’IA peut générer un contenu persuasif illimité — texte, vidéo, audio — comment savons-nous ce qui est vrai ? La démocratie suppose que les électeurs peuvent accéder à des informations fiables.

La réponse de la post-pénurie : mandats de transparence (Axiome II), structures de pouvoir décroissant (Axiome IV), gouvernance fédérée (MOSAÏQUE) qui empêche les points de défaillance uniques, et — crucialement — un plan de transition (le Protocole EXIT) qui donne aux élites actuelles une sortie meilleure que les alternatives.

Le Cas Optimiste (Oui, Il en Existe Un)

L’AGI pourrait être le plus grand libérateur de l’histoire humaine.

Considérez ce qui devient possible quand le coût de l’intelligence s’effondre à près de zéro :

  • La recherche scientifique actuellement limitée par les limites cognitives humaines accélère de plusieurs ordres de grandeur
  • Le diagnostic médical et la découverte de médicaments atteignent chaque humain, pas seulement les riches
  • L’éducation devient infiniment personnalisée — chaque enfant obtient un tuteur de classe mondiale
  • Les services juridiques se démocratisent — tout le monde a accès à une représentation compétente
  • La collaboration créative ouvre de nouvelles frontières alors que les humains travaillent aux côtés d’esprits non humains

La machine n’a pas besoin d’être « meilleure » que les humains en tout. Elle doit juste être « assez bonne » dans assez de choses pour libérer le temps et l’énergie humains pour ce que les machines ne peuvent pas faire — ou ce que nous choisissons simplement de nous réserver.

La vision de la post-pénurie n’est pas un monde où les humains rivalisent avec l’AGI. C’est un monde où l’AGI gère le nécessaire pendant que les humains poursuivent le significatif. La couche Fondation automatise la survie ; la couche Ascension récompense la signification.

La Conclusion

L’AGI n’arrive pas. Elle arrive. Les principaux laboratoires sont largement d’accord sur des chronologies que la plupart des gens trouveraient choquamment proches. La question n’est pas de savoir si cette technologie transformera tout — c’est de savoir si nous aurons des cadres prêts quand elle le fera.

Le Projet Unscarcity est un tel cadre. Il traite l’AGI non pas comme un scénario de science-fiction lointain mais comme une réalité imminente nécessitant une préparation institutionnelle immédiate. La Falaise de l’Emploi ne se soucie pas des cycles politiques ou des rapports trimestriels d’entreprise. Elle arrive quand les mathématiques fonctionnent — et les mathématiques fonctionnent plus vite que presque personne ne l’attendait.

Nous avons peut-être cinq à dix ans pour construire l’infrastructure de transition. Ce n’est pas long. Mais c’est suffisant — si nous arrêtons de débattre pour savoir si le futur arrive et commençons à concevoir à quoi nous voulons qu’il ressemble quand il arrivera.


Références

Partager cet article :