J'ai lu Dorsey le 1er avril. J'ai essayé d'appliquer son modèle à ma fonction innovation. J'ai buté sur un mur.
Votre World Model ne trouvera rien. Parce que la connaissance n'est pas écrite.
J’ai donc lu l’article de Jack Dorsey le 1er avril. Le 9, j’ai commencé à chercher comment l’appliquer à mon propre métier. Et j’ai buté sur un mur que personne ne mentionne.
Pour ceux qui ont raté le texte : le 31 mars, Dorsey et Roelof Botha publient chez Sequoia une thèse sur la mort du middle management. Chez Block, la couche intermédiaire de coordination humaine est remplacée par un world model, une représentation continue de l’entreprise opérée par des agents IA. Les humains migrent vers l’edge, là où le jugement reste indispensable. Huit jours plus tard, Anthropic lance les Claude Managed Agents qui permettent de construire ce genre d’architecture en quelques jours. Huit jours entre la thèse et l’outil. C’est sans précédent historique.
Une petite précision avant d’aller plus loin. Ce que je vais raconter, ça ne concerne pas que le management de l’innovation. Dorsey et les briques agentiques de 2026 s’appliquent à peu près partout en entreprise, aux RH, au juridique, à la finance, aux opérations. Si j’ai choisi de projeter le modèle sur la fonction innovation, c’est parce que c’est mon métier. Je partage ici mon cheminement, pas une vérité universelle. Le raisonnement est transposable, je vous laisse faire l’exercice pour votre propre fonction.
Ce que Dorsey propose vraiment
Avant d’aller plus loin, il faut que vous ayez le modèle Dorsey en tête, parce que tout le reste de l’article en dépend. Si vous avez déjà lu le texte de Sequoia en entier, vous pouvez sauter cette section. Sinon, prenez trois minutes, ça vaut le coup.
Le texte de Dorsey et Roelof Botha s’appelle From Hierarchy to Intelligence. La thèse centrale tient en une phrase. Le middle management existe historiquement pour router de l’information dans une hiérarchie. Cette fonction, pour la première fois en deux mille ans, peut être opérée par un système plutôt que par des humains.
Dorsey remonte loin pour le démontrer. Il rappelle que l’armée romaine avait déjà résolu le problème : coordonner des milliers de personnes à travers des distances vastes avec une communication limitée. Huit soldats sous un decanus, dix contubernia sous un centurion, six centuries sous une cohorte. Cette structure n’était pas un organigramme. C’était un protocole de routage d’information construit autour d’une limitation humaine : un leader peut gérer efficacement entre trois et huit personnes. Les Prussiens ont formalisé ça au XIXe siècle avec la distinction entre les fonctions de ligne et les fonctions d’état-major. Les chemins de fer américains l’ont importé dans l’entreprise dans les années 1850. Frederick Taylor l’a optimisé. McKinsey l’a raffiné avec la matrice. Mais l’idée n’a jamais changé : des humains routent de l’information entre des couches hiérarchiques, parce qu’aucune autre technologie ne pouvait le faire.
Chez Block, c’est en train de changer. Dorsey construit son entreprise autour de quatre couches.
Les Capabilities. Ce sont les primitives atomiques du business, les paiements, le lending, le card issuing, le banking. Elles n’ont pas d’interface propre. Elles sont des fonctions invocables avec des SLA et des critères de fiabilité.
Le World Model. C’est le cœur du modèle et c’est le terme que vous allez retrouver partout dans cet article. Un world model, c’est une représentation continue et automatiquement mise à jour de l’entreprise et de son marché. Chez Block, il y a deux côtés. Le company world model suit ce qui est construit, ce qui est bloqué, où les ressources sont allouées, ce qui fonctionne et ce qui ne fonctionne pas. Le customer world model suit les transactions, les signaux clients, les comportements observés. Ce que les managers transportaient autrefois de réunion en réunion, le world model le transporte automatiquement.
L’Intelligence Layer. C’est la couche qui compose les capabilities en réponse à des besoins spécifiques, en s’appuyant sur le world model pour savoir quoi faire. Un exemple du texte original : le cash-flow d’un restaurant se tend avant une saison basse que le modèle a déjà vue l’année précédente. L’intelligence layer compose un prêt court terme depuis la capability lending, ajuste le calendrier de remboursement avec la capability paiements, et le propose au merchant avant qu’il pense à chercher du financement. Personne n’a décidé de construire cette offre. Le système l’a composée parce qu’il a reconnu le moment.
L’Edge. C’est là où les humains vont. L’edge, c’est l’endroit où l’intelligence rencontre le réel. Les humains font ce que le système ne peut pas faire : exercer un jugement contextuel, porter une intuition, prendre une décision éthique, maintenir une relation de confiance, arbitrer quand le modèle se trompe. Le monde n’est pas entièrement dans les données. L’edge, c’est le rappel que la coordination humaine n’est pas remplacée, elle est déplacée.
Dorsey tire de tout ça une conclusion organisationnelle radicale. Chez Block, l’entreprise converge vers trois rôles seulement. Des Individual Contributors qui construisent les capabilities et le système. Des Directly Responsible Individuals qui possèdent des problèmes transverses avec autorité temporaire de mobilisation. Des Player-Coaches qui combinent production et développement des autres. Plus de couche permanente de middle management. Le world model remplace le routage d’information, les DRI remplacent la gestion par projets, les player-coaches remplacent les managers intermédiaires dont le travail principal était de faire circuler l’information.
Le texte a été publié le 31 mars 2026. Huit jours plus tard, Anthropic lançait les Claude Managed Agents, qui abstraient l’infrastructure nécessaire pour faire tourner un système multi-agent en production. Huit jours entre la thèse et l’outil qui permet de l’implémenter. Le même shift se produit chez Salesforce avec AgentForce, chez Microsoft avec Copilot Studio, chez Google Cloud avec ses frameworks d’orchestration. Ce n’est pas une expérimentation isolée. C’est un paradigme qui se commoditise à toute vitesse.
Le réflexe Dorsey
Bon. Maintenant que vous avez le modèle en tête, on revient à mon problème du 9 avril.
Vous prenez un directeur de l’innovation d’une grande entreprise. Vous lui tendez le texte de Sequoia. Vous lui demandez par quoi il commencerait pour appliquer le modèle à sa fonction. La réponse est toujours la même. On indexe les documents existants. On structure les POC passés. On cartographie les experts internes. On construit une base de connaissance interrogeable. On déploie des agents dessus.
Moi, j’ai fait cet exercice. Et c’est là que tout s’effondre.
Pourquoi ça casse : la matière première n’existe pas
Dans une grande entreprise, la connaissance d’innovation n’est documentée nulle part sous forme exploitable. Ce n’est pas un problème de maturité qui va se résoudre avec le temps. C’est une propriété structurelle du travail d’innovation.
Je vais être concret. Prenez les cinq zones de savoir qui font vraiment tourner une fonction innovation dans une grande boîte, et regardez où elles vivent.
Les POC passés. Ils sont où ? Dans des slides de steering archivés dans des dossiers SharePoint dont plus personne n’a la clé. Dans des comptes rendus partiels rédigés par la personne qui avait le temps ce jour-là. Dans des emails épars. Et surtout dans la mémoire de trois ou quatre personnes qui étaient dans la pièce. Un POC arrêté il y a dix-huit mois parce que le directeur des risques avait posé une question en steering, vous pouvez chercher longtemps. Cette information n’est nulle part, sauf dans la tête du sponsor qui se souvient vaguement de la réunion.
Les schémas d’architecture. Chaque équipe a son diagramme à jour. Aucun n’est cohérent avec les autres. La cartographie globale, si elle a existé un jour, n’a pas été mise à jour depuis la dernière réorganisation. Un agent qui interroge la topologie du SI pour évaluer la faisabilité d’un nouveau use case va remonter une version datée de 2023, quand trois projets majeurs ont changé la donne depuis.
La cartographie des experts internes. Dans toute grande organisation, savoir à qui parler sur un sujet précis est une connaissance qui vit exclusivement dans la tête de quelques personnes clés. L’Innovation Manager. Le responsable de domaine. L’assistante de direction qui connaît tout le monde. Ce savoir n’est jamais sous forme de base de données. Il est tacite, relationnel, et il se construit par l’expérience. Un agent qui essaie d’extraire cette info des annuaires d’entreprise va récupérer des titres de poste. Inutile pour savoir qui a vraiment de la légitimité sur quoi.
L’historique des arbitrages. Pourquoi tel projet a été priorisé sur tel autre il y a six mois ? Quelles objections avaient été soulevées ? Quels compromis avaient été trouvés ? Qui avait soutenu quoi ? Ces décisions sont rarement écrites. Elles sont prises en réunion, communiquées oralement, et la trace écrite se limite à “le projet X est validé, budget Y, deadline Z”. Les raisons véritables disparaissent avec la réunion.
Les relations de confiance qui font avancer les projets. Un sponsor qui va défendre un projet contre vents et marées parce qu’il a été convaincu par un argument précis en déjeuner il y a trois semaines. Un directeur métier qui va bloquer systématiquement parce qu’il a été mis devant le fait accompli une fois il y a deux ans. Ces dynamiques sont centrales dans le travail d’innovation, et elles n’existent dans aucune base.
Bon. Vous voyez le problème. Un World Model construit par indexation de documents va répondre “je n’ai pas l’information” à 80% des requêtes qui ont de la valeur. Pas parce qu’il est mal conçu. Parce que la matière première n’est pas là où il cherche.
L’insight : la connaissance vit dans les voix
Alors où est-elle ? Dans les conversations. Toujours dans les conversations. Dans les réunions de steering où on débat du POC à arbitrer. Dans les débriefs informels après un workshop. Dans les interrogations avec un sponsor en couloir. Dans les débats d’architecture en salle de réunion. Dans les appels Teams où on explique trois fois le même projet à trois interlocuteurs différents. Dans les objections jamais tracées, les doutes partagés à voix haute, les anecdotes échangées entre pairs.
Cette matière vocale existe en quantité massive dans toute grande entreprise. Elle est simplement jamais captée. Le blocage de 2026, ce n’est pas “la data n’est pas propre”. Le blocage, c’est “on ne capte pas la voix qui produit la connaissance en continu”.
Et là où ça devient intéressant, c’est que toutes les briques pour changer ça sont déjà disponibles. Transcription temps réel de qualité production avec Noota ou Whisper. Diarization qui identifie qui a dit quoi. Speech-to-text multilingue au-dessus de 95% de précision. Structuration LLM qui transforme un verbatim brut en connaissance indexée, liée à des projets, des personnes, des décisions. Le Voice Layer, ce n’est pas un futur. Il est déployable aujourd’hui avec ce qui existe déjà, et les managed agents d’Anthropic, Salesforce ou Microsoft rendent l’orchestration multi-agent possible en quelques jours.
Le retournement de la thèse Dorsey est complet. Chez Block, le World Model se construit sur des artefacts déjà numériques, les transactions, le code, les commits. La matière première existe nativement sous forme structurée. Dans le management de l’innovation, cette matière n’existe sous cette forme nulle part. Elle existe sous forme vocale, et seulement sous forme vocale. Le blocage de 2026 n’est pas technologique. Il est dans l’absence de discipline de capture.
Le framework : The Voice-First Innovation World Model
Je propose un framework à quatre couches qui reprend l’architecture Dorsey mais qui inverse la hiérarchie habituelle. La couche primaire, ce n’est plus les Capabilities. C’est le Voice Layer.
Couche 1, le Voice Layer
La couche de capture continue des conversations liées à l’innovation. Elle couvre les réunions formelles, steerings, workshops, revues de POC. Elle couvre aussi les débriefs informels, les appels avec sponsors, les débats techniques, les interrogations partagées dans les moments de transition, déjeuners de travail, trajets communs, appels de fin de journée. Chaque conversation est transcrite en temps réel, diarizée par locuteur, horodatée, et stockée dans une base de verbatims structurés par LLM.
Cette couche a trois propriétés que rien d’autre ne donne. Elle capture de la connaissance tacite que les documents ne portent jamais, les nuances, les hésitations, les objections soulevées puis retirées, les arguments improvisés qui se révèlent justes. Elle opère en continu, pas par événements, le World Model s’enrichit à chaque réunion, pas à chaque rédaction de compte rendu. Et elle ne demande aucun effort supplémentaire aux participants, on continue à travailler normalement, le système capte ce qui se dit.
La contrainte critique de cette couche, c’est la gouvernance. Consentement explicite, politique de rétention claire, garanties de confidentialité, périmètre défini. On en reparle plus bas parce que c’est le vrai sujet.
Couche 2, le World Model
La représentation structurée dérivée principalement des verbatims vocaux, complétée marginalement par les documents disponibles. Cette inversion est essentielle. Le document devient la source secondaire, la voix devient la source primaire. Le World Model connaît les décisions parce qu’il a écouté les réunions où elles ont été prises. Il connaît les objections parce qu’il les a entendu être formulées. Il connaît les relations entre personnes et sujets parce qu’il a observé qui parle de quoi avec qui.
Le World Model ne se limite pas aux conversations d’innovation au sens strict. Il intègre progressivement les décisions architecturales, les arbitrages budgétaires, les revues de projet, l’évaluation des fournisseurs. Il devient une mémoire vivante de la dynamique décisionnelle de l’organisation sur les sujets qu’il couvre. Ce que trois ou quatre personnes portaient dans leur tête devient une ressource interrogeable.
Couche 3, l’Intelligence Layer avec fonction Interviewer
C’est ici que le modèle Voice-First fait un vrai saut qualitatif. L’Intelligence Layer compose les capabilities en réponse à des besoins spécifiques, comme dans le modèle Dorsey standard. Mais elle gagne une fonction nouvelle, la capacité d’interviewer activement les humains quand elle détecte un gap dans le World Model.
Exemple concret. Un directeur métier demande un cadrage sur un nouveau use case d’IA pour la signature rapide en agence. L’Intelligence Layer interroge le World Model. Elle trouve des verbatims de steering où un POC similaire a été évoqué il y a dix-huit mois. Mais elle détecte un gap critique, aucun verbatim ne documente clairement pourquoi ce POC a été arrêté. Plutôt que de répondre “je n’ai pas l’info”, le système identifie les deux ou trois personnes probablement impliquées via leur présence dans d’autres verbatims, propose de programmer trois courts entretiens de quinze minutes, formule les questions à poser, et une fois les entretiens faits, intègre les réponses au World Model. La prochaine fois qu’une question similaire se pose, le système aura la réponse.
Cette boucle d’auto-alimentation, c’est le vrai renversement par rapport à un World Model classique. Un World Model documentaire attend que la donnée vienne à lui. Il consomme ce qui est indexé. S’il ne sait pas, il vous dit qu’il ne sait pas. Un Voice-First World Model fonctionne à l’envers. Il sait ce qu’il ne sait pas parce qu’il a identifié les gaps dans ses verbatims. Et il va chercher activement l’information auprès des humains qui la détiennent. Le système devient progressivement autonome dans sa propre alimentation.
Là où ça devient puissant, c’est que la fonction Interviewer résout le problème d’amorçage. Tous les projets World Model documentaires classiques en entreprise meurent de la même chose : on ne peut pas démarrer avec un World Model vide parce qu’il ne peut rien répondre. Avec un Voice Layer qui capte en continu et un Intelligence Layer qui interview activement, l’amorçage se fait en quelques semaines. Pas en années.
Couche 4, l’Edge
Ce que Dorsey appelle l’edge reste ce que les humains gardent. Le jugement contextuel quand les verbatims sont contradictoires. La décision éthique quand le système remonte un signal ambigu. La relation de confiance avec un sponsor qui ne s’écrit dans aucune base. L’intuition stratégique qui dit qu’un sujet n’est pas prêt pour l’organisation, même si les données disent le contraire. La facilitation d’un workshop, le travail politique avec un directeur métier réticent, la défense d’un arbitrage impopulaire au COMEX.
L’edge ne rétrécit pas parce que le Voice Layer s’installe. Il grandit. Libérés du travail de synthèse après coup, les Innovation Managers peuvent investir plus de temps dans ce qui reste leur vrai travail, exercer un jugement que le système ne peut pas porter.
BoardBot : ce que ça donne dans un workshop, aujourd’hui
Le workshop d’innovation, c’est le premier terrain naturel du Voice Layer. J’ai construit un prototype pour le tester. Il s’appelle BoardBot. Il est accessible en beta à l’adresse boardbot.onrender.com, gratuitement, tant que la charge token reste raisonnable.
Le point de départ, c’est une observation sur la facilitation de workshops en 2026. Depuis le Covid, on vit dans un monde hybride où les workshops mélangent régulièrement des participants présents sur place et des participants à distance. Sept personnes physiques autour d’une table, cinq connectées depuis chez elles. Les outils comme Miro, Mural ou Klaxoon sont puissants, mais ils imposent une contrainte insupportable. Tout le monde doit être connecté à un ordinateur, y compris ceux qui sont dans la même pièce. Vous passez votre temps à taper des post-it au lieu de vous regarder et débattre. Le format tue la dynamique naturelle du présentiel.
Et il y a une deuxième observation, plus importante. Les idées écrites sur les post-it perdent énormément de substance par rapport à ce qui a été dit dans la discussion. Un participant explique son idée pendant trois minutes, puis il résume sa pensée en dix mots sur un post-it. L’argumentation, les nuances, le contexte qui rendaient l’idée intéressante disparaissent. Souvent, on ne laisse même pas assez de temps aux participants pour expliquer vraiment ce qu’ils défendent. Le format pousse à l’écriture rapide, pas à la réflexion profonde. Or c’est précisément dans ces nuances que se joue la qualité des décisions qui sortent du workshop.
BoardBot part de ces deux constats. Je garde la méthodologie de facilitation classique, on reste sur un format présentiel avec des gens qui se parlent, sans obligation d’être tous sur un ordinateur. Mais l’outil écoute la conversation en temps réel, identifie qui parle par diarization, et génère automatiquement des post-it dans les bonnes catégories, idée, problème, action. Les participants voient leur propre pensée collective s’afficher sur un écran géant au fil de la discussion. C’est un effet miroir, très proche de ce qu’un Miro ou un Mural permet, sauf que personne n’a besoin de taper quoi que ce soit.
La propriété centrale, c’est que BoardBot ne travaille pas sur des bribes résumées. Il travaille sur le transcript complet. Il garde tout le contexte, toute la bande-son, toute l’argumentation. Le post-it qu’il génère est une synthèse, et toute synthèse LLM introduit un biais, je l’assume. Mais cette synthèse est adossée à la conversation complète, pas à quelques mots griffonnés à la volée. Et il y a un mécanisme que je trouve particulièrement utile, toutes les vingt secondes, BoardBot re-challenge son propre travail de structuration. Il relit ce qu’il a produit à la lumière de ce qui vient d’être dit, et s’il comprend que l’idée a évolué ou qu’il l’avait mal catégorisée, il la reformule ou la déplace. C’est un travail méta de recul que je lui demande d’exécuter en continu. L’évaporation des idées, qui est le vrai fléau des ateliers collectifs, diminue drastiquement.
La prochaine étape que je développe en ce moment, suggérée par quelqu’un qui utilise BoardBot sur ses propres workshops, c’est l’ajout d’une couche d’advisor temps réel. Un agent qui écoute la conversation et qui, quand il détecte une interrogation des participants sur un point précis, va interroger le World Model et revenir avec la réponse, ou avec le lien vers un document cité que personne ne retrouve. Ou qui remet sur le devant de la table une réflexion contradictoire quand un consensus trop rapide est en train de se former. C’est exactement la fonction d’advisor que j’ai décrite dans le framework, un participant augmenté dans la discussion, pas un facilitateur qui remplace l’humain.
BoardBot n’est pas un produit fini. C’est une application que j’ai construite avec Claude pour tester concrètement la thèse Voice-First. Architecture simple, capture audio, transcription, diarization, structuration LLM en post-it catégorisés, affichage miroir. Les briques sont toutes disponibles publiquement. Ce qui est intéressant, ce n’est pas la prouesse technique, il n’y en a pas. Ce qui est intéressant, c’est que ça fonctionne, que ça tient dans un workflow de workshop réel, et que la couche d’advisor temps réel qui arrive va brancher directement l’application à un World Model. Exactement l’architecture que décrit le framework.
Si vous voulez le tester, le mieux c'est d'inviter BoardBot en tant que bot directement dans un call. C'est comme ça qu'il a été pensé, et c'est là que vous aurez le vrai ressenti du temps réel. Vous pouvez parler à plusieurs, l'outil identifie normalement chaque interlocuteur par diarization. Le lien du board se copie en haut à gauche, vous pouvez le partager à quelqu'un d'autre pour qu'il suive la session en direct. Vous pouvez aussi passer par la fonction micro locale, mais honnêtement, elle n'est pas encore tout à fait au point, la version bot dans un call est beaucoup plus stable.
Vous pouvez tester BoardBot pour vous faire une idée de ce que devient un workshop quand la voix est captée et structurée en temps réel. Je maintiens l’application ouverte jusqu’à ce que la charge token devienne insoutenable. Pas d’engagement au-delà. Mais pour l’instant, c’est gratuit et c’est là.
Ce que ça implique pour un directeur de l’innovation en 2026
Le directeur de l’innovation qui comprend ce point prend deux ans d’avance sur ceux qui attendent que leur data soit propre. Le premier investissement, ce n’est pas un data lake. C’est une infrastructure de capture vocale dans les espaces où l’innovation se pense.
Alors, je sais ce que vous allez me dire. La capture vocale en entreprise, c’est un cauchemar de gouvernance. Consentement RGPD, accord du CSE, politique de rétention, droit à l’oubli, confidentialité des échanges managériaux. Dans une banque, dans une industrie régulée, dans une entreprise publique, installer un Voice Layer prendrait des mois de négociation juridique et sociale. Je vous réponds que l’objection est juste. Mais c’est précisément pour ça que c’est une position stratégique.
La gouvernance, c’est le vrai blocage. Pas la technologie. Et c’est exactement ce qui en fait une bataille qui vaut la peine d’être menée. Les entreprises qui résolvent le problème de gouvernance en premier prennent une avance structurelle de plusieurs années sur celles qui attendent. La cellule d’innovation qui porte ce sujet, qui négocie le cadre, qui obtient le consentement éclairé, qui définit les garanties de confidentialité, qui pilote un périmètre volontaire, elle se positionne comme l’orchestratrice du sujet le plus sensible de l’entreprise. Ce n’est pas un handicap. C’est une position de pouvoir organisationnel.
Il y a un chemin progressif. Vous commencez par les conversations où le consentement est le plus facile à obtenir. Workshops d’innovation explicitement volontaires. Interviews d’experts. Réunions de projet où tous les participants sont alignés sur le sujet. Vous excluez explicitement les conversations sensibles, évaluations, discussions RH, négociations salariales, décisions managériales. Vous documentez le périmètre, vous garantissez la confidentialité, vous donnez un droit de retrait. Le pilote vocal ne concerne pas les conversations intimes de l’entreprise. Il concerne les conversations de conception qui se prêtent naturellement au consentement éclairé parce que toutes les parties prenantes ont intérêt à ce que ce qui se dit soit capté et exploité.
Le survey Mayfield 2026 rappelle l’enjeu de fond. Les leaders métiers représentent désormais 46% des décideurs d’achat d’outils IA, contre 38% pour les CIOs. Les directions métiers déploient leurs propres systèmes d’IA sans passer par la fonction innovation. Si celle-ci ne se positionne pas sur les sujets qui exigent à la fois une maîtrise technologique et une maîtrise organisationnelle, et le Voice Layer en est l’archétype, elle sera contournée par des approches plus fragmentées et moins bien gouvernées. Le sujet n’est pas de savoir si les conversations d’entreprise vont être captées. Elles vont l’être d’une manière ou d’une autre. Le sujet, c’est de savoir qui en portera le cadre.
5 actions pour installer le Voice Layer cette année
1. Cartographiez les conversations à forte densité de connaissance dans votre fonction innovation. Réunions de steering, workshops de cadrage, revues de POC, débriefs techniques, appels de sponsoring. Identifiez lesquelles sont récurrentes, lesquelles rassemblent les détenteurs de connaissance clé, et lesquelles se prêtent au consentement volontaire. Ce sont vos candidats pilotes pour le Voice Layer.
2. Définissez le cadre de gouvernance avant la technique. Consentement explicite, rétention, confidentialité, droit d’accès, droit de retrait. Ce travail va prendre plusieurs semaines et il va nécessiter le juridique, le DPO, et peut-être le CSE. Ne sautez pas cette étape. La gouvernance, ce n’est pas un frein à installer après coup. C’est la condition d’existence du projet.
3. Capturez la voix et transformez-la en transcripts documentés. C’est l’étage le plus simple, et c’est par là qu’il faut commencer. Vous installez un outil de capture et transcription sur un périmètre pilote volontaire. Les briques de référence aujourd’hui, c’est Noota, Whisper, ou l’équivalent intégré dans Teams et Zoom. Pour tester un format augmenté en temps réel pendant un workshop, vous pouvez essayer BoardBot (boardbot.onrender.com), l’application est en beta ouverte et elle illustre directement le mécanisme décrit plus haut dans l’article. Le coût technique est faible. L’objectif à cet étage, c’est de documenter méthodiquement les échanges oraux pour accumuler du contexte, ce que les Américains appellent avoir “du bon son”. Plus vous captez, plus votre matière première s’enrichit. Cette étape seule, sans aucun traitement supplémentaire, change déjà beaucoup de choses. Vous passez d’une mémoire collective qui repose sur trois cerveaux à une mémoire archivée que vous pouvez relire.
4. Capitalisez les transcripts dans un endroit unique et interrogeable. C’est ici que les choix s’ouvrent, et c’est ici que l’éthique et la politique de votre entreprise entrent en jeu. Vous avez plusieurs options, toutes viables, avec des arbitrages différents.
Option minimale : un simple dossier de transcripts centralisé dans le SharePoint ou le Confluence de votre équipe, avec une nomenclature cohérente (date, sujet, participants). Vous y branchez un LLM pour faire des synthèses à la demande, que ce soit un modèle interne de votre entreprise ou un modèle externe selon ce que votre politique autorise. Les grands comptes ont souvent aujourd’hui des modèles internes capables de produire des synthèses honnêtes et de réécrire des transcripts de manière exploitable, même s’ils ne sont pas au niveau des meilleurs modèles du marché pour d’autres tâches. Pour les petites structures, l’arbitrage est à faire entre le confort des géants de la tech et les contraintes de confidentialité.
Option intermédiaire : un RAG dédié qui indexe vos transcripts et vous permet de les interroger en langage naturel. Vous pouvez le construire avec NotebookLM si vous êtes à l’aise avec Google, avec Claude si vous êtes sur l’environnement Anthropic, ou avec une stack open source si vous avez les compétences internes. MCP (Model Context Protocol) est devenu la référence pour connecter des bases de connaissance à des modèles en 2026, et les plateformes managées l’intègrent nativement.
Option complète : un véritable World Model agentique qui ingère les transcripts en continu, les structure par projet, par personne, par décision, et devient interrogeable via une orchestration multi-agent. C’est ce que Claude Managed Agents, AgentForce ou les équivalents permettent de construire en quelques jours. C’est aussi le plus ambitieux et celui qui exige la gouvernance la plus robuste.
Dans les trois cas, le principe est le même. Vous transformez une masse de transcripts en une connaissance vivante. Je ne vais pas vous recommander une option plutôt qu’une autre. Ce serait idiot de ma part. L’arbitrage dépend de votre contexte, de votre politique de données, de la taille de votre entreprise, et de votre appétit pour la prise de risque technologique. Mais ce qui est sûr, c’est que sans cet étage de capitalisation, les transcripts restent des fichiers morts. Avec lui, ils deviennent la matière première d’un World Model.
5. Préparez la fonction Interviewer comme bras armé de votre World Model. C’est le vrai saut qualitatif, et c’est le point sur lequel je mise le plus. Une fois que votre World Model existe et qu’il ingère des transcripts en continu, il va inévitablement identifier des gaps. Des sujets sur lesquels il n’a pas assez de contexte. Des décisions dont il ne connaît pas la justification. Des projets abandonnés dont il ignore les raisons. Un World Model passif vous dira “je n’ai pas l’information”. Un World Model actif va chercher l’information.
L’Interviewer, c’est cette fonction de recherche active. Concrètement, c’est un agent qui fait ce qu’un humain ferait : il identifie les personnes qui détiennent probablement l’information manquante, il prend rendez-vous directement dans leur agenda, il prépare les questions à leur poser, il mène l’entretien avec une capture vocale, il transcrit, il intègre la réponse au World Model. La prochaine question similaire trouve la réponse.
Vous pouvez imaginer plusieurs formes. La plus simple, c’est un agent qui vous accompagne à chaque réunion importante, comme un Noota ou un équivalent, et qui transforme chaque échange en contexte exploitable. La plus avancée, c’est un agent semi-autonome qui décide de lui-même qu’il a besoin d’interviewer trois personnes cette semaine parce qu’il lui manque trois types d’informations critiques. Il consulte les agendas, propose des créneaux, envoie les invitations, mène les entretiens. L’humain valide ou corrige, mais l’initiative vient du système.
Cette fonction n’existe pas encore out-of-the-box dans les plateformes managées de 2026. Elle doit être construite. Mais c’est exactement le type de chantier que Claude Managed Agents ou AgentForce permettent de lancer en quelques jours plutôt qu’en mois. Et c’est, à mon avis, le vrai bras armé qui transformera un World Model de “mémoire archivée” à “intelligence active” au sens où Jack Dorsey l’entend. Sans cet agent, votre World Model reste un data lake vocal. Avec lui, il devient ce que Dorsey décrit : un router qui pousse la bonne information à la bonne personne au bon moment, ou qui sollicite la bonne personne au bon moment pour récupérer l’information manquante.
C’est ça, la vraie promesse. Et c’est ça, le chantier qui vaut la peine d’être lancé cette année.
Une dernière question pour vous, avant de fermer cet article. Si vous deviez lister les cinq conversations les plus importantes pour votre fonction (inno ou non) cette semaine, vous seriez capable de les nommer. Mais qu’est-ce qui reste, concrètement, de ces conversations, dans une base exploitable par un agent, d’ici lundi prochain ?










