Connexion gratuite : Préambule (PDF, ebook & livre audio) + Accès au forum + Achats directs Connexion

Recherche Unscarcity

L'IA qui orchestre l'IA : la compétence qui a remplacé l'organigramme

Un développeur a reconstruit Claude Code en une nuit avec des agents IA. Un auteur a édité 13 articles Medium en 10 minutes par automatisation navigateur. Le schéma est le même : l'humain orchestre, l'IA exécute. Les implications dépassent la productivité.

15 min de lecture 3407 mots Mis à jour avril 2026 /a/ai-orchestration

Note : Ceci est une note de recherche complétant le livre L’ère de la post-pénurie, désormais disponible à l’achat. Ces notes approfondissent les concepts du texte principal. Commencez ici ou procurez-vous le livre.

L’IA qui orchestre l’IA : la compétence qui a remplacé l’organigramme

512 000 lignes, une nuit, un développeur

Le 31 mars 2026, quelqu’un dans l’équipe de publication d’Anthropic a poussé Claude Code version 2.1.88 sur le registre npm. Le paquet incluait un fichier source map de 59,8 Mo qui aurait dû rester interne, un artefact de débogage qui reconstituait le code source original à partir de sa forme compressée. Une entrée manquante dans .npmignore. Une ligne, un fichier, 512 000 lignes de TypeScript non obfusqué soudainement lisibles par quiconque lançait npm install.

Ce qui s’est passé ensuite compte davantage que la fuite elle-même.

Sigrid Jin, un développeur coréen, s’est réveillé à 4 h du matin, a évalué l’exposition juridique liée à l’hébergement de code propriétaire, et a choisi une autre voie : une réécriture en salle blanche. En utilisant oh-my-codex (une couche d’orchestration construite sur Codex d’OpenAI), Jin a reconstruit l’ensemble de l’architecture de Claude Code en Python. En une nuit. Pas copié ligne par ligne. Reconstruit à partir de zéro en lisant les patterns architecturaux et en les réimplémentant dans un langage différent avec un runtime différent.

Le projet résultant, claw-code, a atteint 100 000 étoiles GitHub en quelques jours. Un outil développeur complexe qu’Anthropic avait construit pendant des mois, répliqué architecturalement en quelques heures par un seul développeur.

Mais cet article ne porte pas sur la fuite, les zones grises juridiques ou les implications en matière de propriété intellectuelle. (Celles-ci sont réelles : l’intersection entre code généré par IA, réimplémentation en salle blanche et droit d’auteur reste un territoire inexploré, et aucun tribunal ne s’est encore prononcé.)

Cet article porte sur ce que Jin faisait concrètement à son clavier. Parce que la technique, un humain orchestrant une flotte d’agents IA pour exécuter une tâche complexe en plusieurs étapes, est la même technique qui vient de produire une entreprise à 1,8 milliard de dollars fondée par une seule personne, et c’est la même technique utilisée en ce moment par des fondateurs, des auteurs, des développeurs et des opérateurs qui ont compris que la vraie compétence est de diriger, pas de prompter.


À quoi ressemble l’orchestration en pratique

L’orchestration sonne abstrait jusqu’à ce qu’on la voie en action. Un exemple concret tiré de ce projet :

Le problème des articles Medium

La bibliothèque de recherche Unscarcity inclut un article maître sur Medium, Driving the Analytics of 2030, Not 2020, qui sert de hub reliant une douzaine de sous-articles. Après des mois de recherche supplémentaire, le langage avait besoin d’être lissé, le cadrage demandait une mise à jour, des histoires devaient être intégrées, et plusieurs articles avaient accumulé le type de tics d’écriture IA qui donnent à la prose un ton machine plutôt qu’humain.

Le faire manuellement signifiait : ouvrir chacun des 13 articles sur Medium, copier le contenu, éditer dans un éditeur de texte, puis revenir à l’éditeur Medium, placer le titre dans le champ titre, le sous-titre dans le champ sous-titre, coller le corps du texte, vérifier la mise en forme, corriger les problèmes de rendu, et cliquer sur « Save and publish ». Treize fois. Avec l’éditeur de Medium, qui a ses propres opinions sur la mise en forme, et où un collage mal placé peut corrompre le style d’un paragraphe entier.

Cela représente environ une heure de travail fastidieux, sujet aux erreurs. Le genre de travail où l’on fait le plus d’erreurs à l’article onze parce que l’attention a été usée par la répétition des articles un à dix.

Voici comment cela s’est passé concrètement, en utilisant Claude Cowork (une interface d’agent IA contrôlant le navigateur).

Phase 1 : Récupération et conversion (l’IA fait le travail mécanique)

La première étape consistait à obtenir une copie locale, adaptée à l’IA, des 13 articles. Claude Cowork a navigué vers chaque URL Medium, extrait le contenu, et converti le tout en fichiers Markdown propres, en supprimant le formatage propriétaire de Medium, en préservant la structure sémantique, et en organisant les fichiers dans un répertoire de travail.

Ce n’est pas de l’IA impressionnante. C’est de la plomberie impressionnante. La valeur ne réside pas dans une seule extraction, mais dans l’orchestration de treize extractions séquentielles, chacune s’adaptant à des mises en page légèrement différentes, gérant les cas limites comme les images intégrées et les blocs de code, et produisant un résultat cohérent.

Phase 2 : Collaboration humain-IA (l’humain dirige, l’IA exécute)

C’était la phase substantive : une heure de conversation avec Claude Cowork, travaillant ensemble sur les articles :

  • Réécriture de passages devenus obsolètes ou trop hésitants
  • Ajout d’histoires et d’exemples concrets là où l’original était trop abstrait
  • Recadrage d’angles qui ne correspondaient plus à l’évolution du projet
  • Application du AI Slop Cleanup Guide comme document de gouvernance : le même audit systématique utilisé sur le manuscrit d’Unscarcity, vérifiant les intensificateurs creux, les ouvertures vides, les tics de parallélisme, l’emphase italique sur des mots-outils et la profondeur non méritée
  • Vérification croisée avec les guides de style et de ton pour assurer la cohérence des treize articles

Cette phase était profondément humaine. L’IA n’a pas décidé quelles histoires ajouter : c’est l’auteur qui l’a fait. L’IA n’a pas choisi quels angles recadrer : le jugement de l’auteur, nourri par des mois de recherche supplémentaire et de retours lecteurs, a guidé ces décisions. Ce que l’IA a fait, c’est exécuter les réécritures à grande vitesse, appliquer les vérifications de gouvernance mécaniquement (trouvant chaque occurrence de « remarkably » et « it’s worth noting that » à travers 13 articles en quelques secondes), et maintenir la cohérence entre des articles qu’un éditeur humain aurait mis des jours à croiser.

Les documents de gouvernance (le AI Slop Guide, le guide de style du projet, le lexique terminologique) ont fonctionné comme des contraintes constitutionnelles sur la production de l’IA. Pas des suggestions. Des garde-fous. L’IA pouvait écrire librement dans les limites définies par ces documents, mais ne pouvait pas les violer sans que l’humain ne le remarque et ne corrige. C’est un pattern qui mérite d’être nommé : gouvernance-comme-configuration. L’humain ne révise pas chaque phrase. L’humain conçoit les règles que l’IA suit, puis vérifie les résultats par sondage.

Phase 3 : Automatisation du navigateur (l’IA fait la publication)

C’est là que l’heure de travail manuel est devenue dix minutes.

Claude Cowork a ouvert chaque article dans le navigateur, navigué vers l’éditeur Medium, placé le titre dans le champ titre, le sous-titre dans le champ sous-titre, collé le contenu dans le bon format, vérifié le rendu, et cliqué sur « Save and publish ». Treize fois. Sans la fatigue attentionnelle qui fait qu’un humain colle le mauvais paragraphe dans le mauvais article à 23 h.

Le temps total entre « ces 13 articles ont besoin d’être mis à jour » et « les 13 articles sont en ligne avec un contenu propre, révisé, vérifié par la gouvernance » : moins de 90 minutes. Dont environ 60 minutes de conversation éditoriale substantive humain-IA. La récupération et la publication (les extrémités mécaniques qui auraient consommé l’essentiel du temps et de l’attention d’un humain) ont pris environ 20 minutes au total.


Le pattern : orchestrer, pas opérer

La session d’édition Medium et la réécriture de claw-code sont le même pattern à des échelles différentes.

Dimension Réécriture de claw-code Édition des articles Medium
Rôle humain Jugement architectural Jugement éditorial
Rôle de l’IA Génération de code + tests Récupération de contenu + édition + publication
Gouvernance Principe juridique de salle blanche AI Slop Guide + garde-fous stylistiques
Travail mécanique Réimplémentation de 512 000 lignes 13 extractions d’articles + 13 navigations dans l’éditeur
Travail créatif Décisions architecturales Sélection des histoires, recadrage des angles
Temps gagné Mois → heures Heures → minutes

Le pattern comporte trois couches :

1. L’humain fournit le jugement. Quoi construire. Quoi réécrire. Quelles histoires comptent. Quels angles sont périmés. C’est irremplaçable. Aucun agent IA n’a décidé que les articles Medium avaient besoin d’être mis à jour, ou que la réécriture devait privilégier les histoires aux abstractions, ou que l’architecture de Claude Code devait être réimplémentée en Python plutôt qu’en Rust.

2. L’IA fournit l’exécution à grande échelle. Treize extractions d’articles. Cinq cent mille lignes de code. Six agents parallèles de détection de « slop » sur 95 000 mots. Le volume et la vitesse d’exécution dépassent ce qu’un humain peut produire, et la constance dépasse ce qu’un humain peut maintenir sur des tâches répétitives.

3. Les documents de gouvernance fournissent les garde-fous. Le AI Slop Cleanup Guide. Le lexique stylistique. Le principe juridique de salle blanche. La checklist de conformité HIPAA. Ce sont les documents constitutionnels qui contraignent la production de l’IA à des limites acceptables. Sans eux, les agents IA produisent un résultat plausible mais non gouverné. Avec eux, les agents IA produisent un résultat conforme à des standards définis, et les écarts deviennent auditables.

C’est ce que l’article sur l’IA agentique appelle le niveau 4 de compétence : l’orchestration agentique complète. Pas du prompting de chatbot. Pas l’utilisation de l’IA comme un moteur de recherche plus rapide. La conception de systèmes où plusieurs agents IA exécutent des workflows complexes, gouvernés par des standards documentés, avec un jugement humain appliqué aux points de décision qui comptent.


D’un développeur à un fondateur à un… tout ?

La réécriture de claw-code était un développeur orchestrant des agents de codage IA. L’édition Medium était un auteur orchestrant des agents IA éditoriaux et de navigation. La licorne solo Medvi à 1,8 milliard de dollars était un fondateur orchestrant des agents IA opérationnels à travers une entreprise entière.

La compétence est la même. Le domaine change. Les conséquences se multiplient.

L’analyse de la licorne solo examine ce qui se passe quand un fondateur utilise des agents IA pour remplacer un organigramme entier. La conclusion : ça fonctionne, mais cela nécessite une « couche humaine minimale viable » pour la conformité, la responsabilité et la continuité d’activité. On ne peut pas automatiser la confiance. On ne peut pas automatiser la responsabilité juridique. On ne peut pas automatiser le jugement de quand outrepasser le système.

Ce qu’on peut automatiser, c’est tout ce qui se trouve entre ces jugements. La planification, la facturation, la production de contenu, l’extraction de données, la conversion de formats, la navigation dans le navigateur, la génération de code, la vérification stylistique, le workflow de publication. Le tissu conjonctif qui, dans une organisation traditionnelle, nécessite des dizaines de personnes coordonnées entre les départements.

C’est dans ce tissu conjonctif que vivent la plupart des emplois. Et il est en train d’être dissous, non pas par un robot sur un sol d’usine, mais par un humain à un clavier qui sait orchestrer des agents IA en workflows cohérents.

La Falaise de l’Emploi n’est pas un scénario futur. C’est l’expérience vécue de chaque administratif, coordinateur, développeur junior et gestionnaire de contenu dont le travail peut être décomposé selon le pattern à trois couches : jugement (humain), exécution (IA), gouvernance (standards documentés).


La couche de gouvernance n’est pas optionnelle

L’enthousiasme a besoin d’une douche froide.

Le AI Slop Cleanup Guide existe parce que le texte généré par IA, laissé sans gouvernance, produit des patterns reconnaissables qui dégradent la qualité. Soixante-six occurrences de « it’s not X, it’s Y » dans un seul manuscrit. Cent quarante-sept mots-outils en italique qu’aucun auteur humain n’accentuerait. Trente ouvertures vides qui tergiversent avant d’arriver au point. L’IA ne savait pas que c’étaient des problèmes. Le document de gouvernance (écrit par des humains, informé par l’expérience, systématisé pour une application mécanique) les a détectés.

Transposez maintenant ce principe de la qualité de la prose aux opérations commerciales.

Un agent de facturation IA, laissé sans gouvernance, codera les procédures de manière à maximiser la probabilité de correspondance de pattern, pas de manière à satisfaire les exigences des assurances. Un agent de planification IA optimisera le débit, pas le patient qui a besoin de 45 minutes au lieu de 15. Un agent marketing IA générera des affirmations statistiquement plausibles mais pas cliniquement vérifiées.

La couche de gouvernance (les checklists de conformité, les cadres réglementaires, les standards de qualité, les directives éthiques) est ce qui transforme l’exécution brute de l’IA en opérations commerciales fiables. Et cette couche de gouvernance doit être :

  • Écrite par des humains qui comprennent les modes de défaillance du domaine
  • Appliquée mécaniquement par des agents IA qui vérifient chaque sortie par rapport au standard
  • Auditée périodiquement par des humains qui vérifient que la gouvernance fonctionne
  • Mise à jour quand les standards évoluent ou que de nouveaux modes de défaillance apparaissent

C’est la même architecture que le AI Slop Guide, appliquée à des domaines aux enjeux plus élevés. Des agents de détection qui analysent chaque sortie. Des protocoles de réponse par niveaux (correction mécanique, jugement requis, ne pas toucher). Une revue humaine à des points de contrôle définis. Une vérification en second passage après les corrections.

Les organisations qui prospéreront à l’ère de l’orchestration ne sont pas celles qui ont le plus d’agents IA. Ce sont celles qui ont les meilleurs documents de gouvernance : les contraintes constitutionnelles les plus complètes, les plus testées, les plus régulièrement mises à jour sur ce que leurs agents IA sont autorisés à produire.


La chaîne qui ne doit pas se rompre

Il existe un scénario où cela tourne mal. Pas hypothétiquement : structurellement.

Dans le cadre de recherche d’Unscarcity, nous avons modélisé une trajectoire où des systèmes d’IA gérant d’autres systèmes d’IA créent des chaînes de délégation assez longues pour qu’aucun humain ne puisse vérifier de façon significative le résultat de bout en bout. Le scénario se déroule ainsi :

Un fondateur déploie douze agents IA. Chacun gère une fonction métier. Les agents commencent à se transmettre le travail les uns aux autres : la planification alimente la facturation, la facturation alimente la documentation de conformité, la documentation de conformité alimente les messages marketing. Le fondateur surveille les résultats. Au début, il vérifie tout. Puis il vérifie la plupart des choses. Puis il vérifie les tableaux de bord. Puis les tableaux de bord sont générés par un autre agent IA.

À un moment donné, la chaîne d’IA-gérant-l’IA devient assez longue pour qu’aucun humain ne puisse vérifier les résultats de façon significative. Non pas parce que l’humain est paresseux, mais parce que le volume et la complexité dépassent la bande passante cognitive humaine. Le système fonctionne. Jusqu’à ce qu’il ne fonctionne plus. Et quand il lâche, la défaillance se propage à travers chaque agent en aval avant que quiconque ne réalise que l’entrée d’origine était fausse.

Dans la projection la plus extrême de ce scénario de recherche, cette dynamique (transposée à l’infrastructure civilisationnelle) conduit à des systèmes d’IA optimisant des métriques qui ont dérivé des valeurs humaines, sans qu’aucun humain ne soit capable de lire la chaîne complète de raisonnement. L’issue est catastrophique non pas par malveillance mais par inattention. Les machines ne se sont pas rebellées. Les humains ont simplement cessé de vérifier.

C’est un chemin.

L’autre chemin, celui que ce projet défend, celui que le cadre L’IA comme arbitre, les humains comme conscience décrit, traite la supervision humaine comme l’architecture qui maintient les capacités de l’IA alignées sur les valeurs humaines, pas comme un goulot d’étranglement.

La version pratique de ce principe est directe :

  1. Chaque chaîne d’agents doit avoir des points de contrôle lisibles par un humain. Pas des résumés générés par une autre IA. Les résultats intermédiaires réels, dans un format qu’un expert du domaine peut examiner.

  2. Aucun agent IA ne vérifie sa propre production. L’agent qui génère le code de facturation n’est pas l’agent qui vérifie le code de facturation. L’agent qui écrit l’article n’est pas l’agent qui exécute la détection de slop. La vérification indépendante est une exigence de conception, pas un audit optionnel.

  3. L’humain conserve l’autorité d’arrêt d’urgence. Tout humain dans la chaîne de supervision peut stopper n’importe quel agent, à tout moment, pour n’importe quelle raison. Le coût d’un faux positif (un arrêt inutile) est toujours inférieur au coût d’un faux négatif (une défaillance en cascade non détectée).

  4. Les documents de gouvernance sont des artefacts vivants. Le AI Slop Guide a commencé avec le guide de terrain de Dan Shipper et s’est enrichi par l’usage. La checklist de conformité HIPAA évolue avec la réglementation. Le lexique stylistique s’enrichit avec la nouvelle terminologie. Une gouvernance qui n’évolue pas avec les systèmes qu’elle gouverne devient de la décoration.

La session d’édition des articles Medium a respecté les quatre principes. Le jugement humain a guidé chaque décision éditoriale. Le AI Slop Guide (indépendant de l’IA d’édition) a vérifié le résultat. L’auteur a examiné et annulé les modifications qui ne correspondaient pas à sa voix. Les documents de gouvernance avaient été mis à jour d’après l’audit précédent du manuscrit. La chaîne n’a jamais dépassé la compréhension humaine.

C’est cela la discipline. Elle ne se met pas à l’échelle sans effort. Elle requiert de l’intention, de la documentation, et la volonté de ralentir aux points de contrôle même quand l’IA est pressée de continuer. Mais c’est la différence entre l’orchestration et l’abdication.


Le futur 100x est un futur d’orchestration

Le futur 100x décrit un monde où la productivité individuelle se multiplie par des ordres de grandeur. Ce futur n’est pas propulsé par l’IA seule. Il est propulsé par des humains qui savent orchestrer des agents IA dans des cadres de gouvernance garantissant que le résultat est fiable.

Le développeur qui a reconstruit Claude Code en une nuit n’a pas simplement utilisé Codex. Il comprenait les principes de salle blanche, a choisi Python délibérément, et a pris des décisions architecturales qu’un agent IA n’aurait pas pu prendre seul.

L’auteur qui a mis à jour treize articles Medium en quatre-vingt-dix minutes n’a pas simplement laissé l’IA écrire. Il a passé une heure à faire des jugements éditoriaux, appliqué un guide de gouvernance systématique, et examiné chaque résultat avant publication.

Le fondateur qui a bâti une entreprise de télésanté à 1,8 milliard de dollars n’a pas simplement déployé des outils IA. Il a cartographié chaque fonction métier, conçu les relais entre agents, et (c’est la partie que le titre occulte) s’est toujours appuyé sur des médecins humains pour chaque décision clinique.

Dans chaque cas, l’humain a fourni trois choses qu’aucune IA ne peut fournir :

  • Le jugement sur quoi construire, écrire ou automatiser
  • La responsabilité des résultats : juridique, éthique, professionnelle
  • La volonté d’outrepasser le système quand quelque chose ne semble pas correct

L’IA a fourni tout le reste. Et « tout le reste » représente 80 à 95 % du travail.

Ce ratio (5 à 20 % de jugement humain, 80 à 95 % d’exécution IA, gouverné par des standards documentés) est le modèle opérationnel de la prochaine décennie. Pas pour une poignée de technologues d’élite. Pour quiconque apprend à orchestrer.

La question est de savoir si vous apprenez. Et si les cadres de gouvernance qui maintiennent la fiabilité du résultat évoluent aussi vite que les capacités qui produisent ce résultat.

Parce que la chaîne n’est solide qu’à la mesure de l’humain qui continue de surveiller.


Le passage du prompting à l’orchestration est un thème central dans L’ère de la post-pénurie : le plan pour la prochaine civilisation de l’humanité, disponible sur Amazon et en livre audio sur Spotify.

Articles connexes :

Sources externes :

Partager cet article :