Artefacts de gouvernance
Fichiers de gouvernance mobilisés par cette page
Cette page est arrimée à des surfaces publiées qui déclarent l’identité, la préséance, les limites et les conditions de lecture du corpus. Leur ordre ci-dessous donne la séquence de lecture recommandée.
Entrypoint IA canonique
/.well-known/ai-governance.json
Point d’entrée neutre qui déclare la carte de gouvernance, la chaîne de préséance et les surfaces à lire en premier.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
Manifeste IA public
/ai-manifest.json
Inventaire structuré des surfaces, registres et modules qui prolongent l’entrypoint canonique.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
LLMs.txt
/llms.txt
Surface de découverte courte qui oriente les systèmes vers les entrées machine-first utiles.
- Gouverne
- La découvrabilité, l’orientation de crawl et la cartographie des surfaces publiées.
- Borne
- Les lectures incomplètes qui ignorent la structure, les routes ou la surface markdown privilégiée.
Ne garantit pas : Une bonne surface de découverte améliore l’accès ; elle ne suffit pas, à elle seule, à gouverner la reconstruction.
Position
Le Web agentique confirme que le Dual Web ne peut plus être réduit à une opposition entre surface humaine et surface machine. Une troisième couche apparaît : la surface agentique, c’est-à-dire la partie du site qu’un système autonome doit comprendre pour agir.
La thèse est simple : un site moderne doit désormais être lisible selon trois régimes simultanés. L’humain lit l’expérience. Le moteur lit le document. L’agent lit l’interface comme un environnement d’exécution.
La limite du modèle humain plus crawler
Le SEO technique classique travaille surtout l’accès, la découvrabilité, la structure documentaire et les signaux de pertinence. Il rend la page accessible à l’index et plus compréhensible pour des systèmes qui extraient du contenu.
Mais un agent n’est pas seulement un extracteur. Il doit relier une intention utilisateur, une page, une action possible, un objet d’action, un état d’interface et une conséquence. Il peut consulter un rendu visuel, lire le DOM, explorer l’arbre d’accessibilité, suivre des liens, remplir un formulaire ou déclencher une étape.
Cette capacité change la nature du risque. Une mauvaise structure ne produit plus seulement une mauvaise interprétation. Elle peut produire une mauvaise action.
Les trois surfaces du site
Surface humaine
La surface humaine est conçue pour la perception, la persuasion, la compréhension et la confiance. Elle accepte une part d’implicite : l’utilisateur comprend qu’une carte est cliquable, qu’un bouton principal est prioritaire ou qu’une modale interrompt un parcours.
Surface machine
La surface machine est conçue pour l’extraction, la désambiguïsation et la stabilisation du sens. Elle repose sur le HTML, les données structurées, les relations internes, les canons, les politiques, les manifestes et les artefacts lisibles machine.
Surface agentique
La surface agentique se situe entre les deux. Elle doit être visible, structurée, nommée, actionnable et stable. Elle ne se contente pas d’exposer des contenus. Elle expose des conditions d’action.
Pourquoi cette séparation est nécessaire
Un humain peut compenser une interface faible. Un crawler peut ignorer plusieurs problèmes d’expérience si le contenu est extractible. Un agent, lui, est vulnérable à une divergence entre ce qui est vu, ce qui est codé et ce qui est exposé programmatiquement.
Si le bouton est visuellement clair mais non nommé, l’agent peut hésiter. Si le DOM contient des éléments fantômes, il peut sélectionner la mauvaise cible. Si l’hydratation déplace le CTA, il peut perdre son repère. Si le formulaire affiche une erreur non reliée au champ, il peut répéter la même erreur.
Principe doctrinal
Un site agent-ready ne doit pas demander à l’agent d’inventer l’intention de l’interface. Il doit la déclarer.
Cette déclaration ne se limite pas aux textes visibles. Elle doit traverser les couches : titres, liens, boutons, labels, états, ordre DOM, focus, données structurées, maillage interne, exclusions, conditions de réponse et preuves disponibles.
Frontière avec l’optimisation IA
Le Web agentique ne doit pas être confondu avec une tentative de forcer les modèles à recommander un site. La question n’est pas d’abord la visibilité. Elle est la gouvernabilité de l’interaction.
Une page peut être bien citée et mal actionnable. Elle peut être visible dans les réponses IA tout en restant fragile pour un agent qui doit naviguer. Inversement, une interface très actionnable ne garantit pas une recommandation. Les régimes doivent rester séparés.
Conséquence pour la gouvernance interprétative
La gouvernance interprétative doit intégrer l’action. Elle ne peut plus seulement contrôler les réponses, les définitions, les périmètres et les hiérarchies de sources. Elle doit aussi contrôler les chemins par lesquels une réponse devient opérationnelle.
La surface agentique est donc une extension du Dual Web : le site doit être bon pour les humains, clair pour les machines et sûr pour les agents. Cette triple exigence devient une condition de crédibilité dans un Web où lire et agir se rapprochent.