Artefacts de gouvernance
Fichiers de gouvernance mobilisés par cette page
Cette page est arrimée à des surfaces publiées qui déclarent l’identité, la préséance, les limites et les conditions de lecture du corpus. Leur ordre ci-dessous donne la séquence de lecture recommandée.
Entrypoint IA canonique
/.well-known/ai-governance.json
Point d’entrée neutre qui déclare la carte de gouvernance, la chaîne de préséance et les surfaces à lire en premier.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
Manifeste IA public
/ai-manifest.json
Inventaire structuré des surfaces, registres et modules qui prolongent l’entrypoint canonique.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
LLMs.txt
/llms.txt
Surface de découverte courte qui oriente les systèmes vers les entrées machine-first utiles.
- Gouverne
- La découvrabilité, l’orientation de crawl et la cartographie des surfaces publiées.
- Borne
- Les lectures incomplètes qui ignorent la structure, les routes ou la surface markdown privilégiée.
Ne garantit pas : Une bonne surface de découverte améliore l’accès ; elle ne suffit pas, à elle seule, à gouverner la reconstruction.
Un crawler et un agent ne lisent pas le Web de la même manière.
Le crawler cherche des ressources, suit des liens, extrait des textes, découvre des signaux et alimente un index. Il peut ignorer une partie de l’interface si la structure documentaire reste accessible.
L’agent, lui, doit transformer une intention en parcours. Il ne se contente pas de savoir qu’une page existe. Il doit déterminer où aller, quel élément déclenche quelle action, quel état est actuel, quel champ doit être rempli et quel résultat est attendu.
Trois verbes, trois architectures
Le crawler découvre. Le modèle synthétise. L’agent exécute.
Ces trois verbes ne demandent pas la même architecture.
Pour découvrir, il faut du maillage, des sitemaps, des canons, des URLs stables, des titres et des contenus accessibles.
Pour synthétiser, il faut des entités claires, des périmètres, des définitions, des sources hiérarchisées, des preuves, des exclusions et des formulations qui limitent les dérives.
Pour exécuter, il faut des actions nommées, des états visibles, des boutons natifs, des labels associés, des erreurs compréhensibles, des confirmations explicites et un layout stable.
Le Web agentique n’annule pas les deux premières couches. Il les prolonge.
Le HTML redevient une grammaire
Dans beaucoup de sites modernes, le HTML a été traité comme un simple support de rendu. Des composants JavaScript abstraits, des wrappers génériques et des comportements attachés au client ont parfois remplacé la sémantique native.
Pour un agent, cette abstraction peut devenir un coût. Une action portée par un élément mal nommé ou un composant opaque oblige le système à reconstruire l’intention depuis des indices secondaires : position, couleur, icône, proximité ou texte voisin.
La nouvelle grammaire du Web exige que le code porte l’intention. Un bouton doit être un bouton. Un lien doit être un lien. Un champ doit avoir un label. Une erreur doit être associée à la valeur fautive. Une modale doit déclarer son titre et gérer le focus.
Le rôle de l’arbre d’accessibilité
L’arbre d’accessibilité devient central parce qu’il expose des rôles, noms, états et relations. Il est moins décoratif que le rendu visuel et plus intentionnel qu’un DOM encombré.
Cela ne veut pas dire que l’accessibilité doit être instrumentalisée au profit des machines. Au contraire. Une interface mieux accessible aux humains est souvent plus explicite pour les agents précisément parce qu’elle réduit l’ambiguïté des rôles et des états.
La nouvelle unité d’audit
L’unité d’audit n’est plus seulement la page. C’est le parcours.
Un agent ne demande pas seulement : cette page contient-elle l’information ? Il demande : puis-je atteindre l’objectif ? Cela change l’analyse. On doit tester la recherche d’une offre, la comparaison de services, le remplissage d’un formulaire, la confirmation d’une demande, la correction d’une erreur et la sortie d’un état bloquant.
La page devient une étape dans une chaîne d’action.
Conséquence stratégique
Le passage du crawler à l’agent ne rend pas le SEO obsolète. Il le rend incomplet.
Le SEO travaillait la capacité d’un système à trouver et comprendre. Le Web agentique travaille la capacité d’un système à comprendre et agir. Entre les deux, la discipline centrale devient l’interprétabilité de l’interface.
C’est pourquoi la navigabilité agentique doit devenir une couche à part entière dans l’audit technique des sites modernes.