Artefacts de gouvernance
Fichiers de gouvernance mobilisés par cette page
Cette page est arrimée à des surfaces publiées qui déclarent l’identité, la préséance, les limites et les conditions de lecture du corpus. Leur ordre ci-dessous donne la séquence de lecture recommandée.
Robots.txt
/robots.txt
Surface de crawl qui améliore la découverte mais ne publie pas, à elle seule, les conditions de lecture.
- Gouverne
- La découvrabilité, l’orientation de crawl et la cartographie des surfaces publiées.
- Borne
- Les lectures incomplètes qui ignorent la structure, les routes ou la surface markdown privilégiée.
Ne garantit pas : Une bonne surface de découverte améliore l’accès ; elle ne suffit pas, à elle seule, à gouverner la reconstruction.
Entrypoint IA canonique
/.well-known/ai-governance.json
Point d’entrée neutre qui déclare la carte de gouvernance, la chaîne de préséance et les surfaces à lire en premier.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
Contexte du site
/site-context.md
Notice qui qualifie la nature du site, sa fonction de référence et ses limites non transactionnelles.
- Gouverne
- Le cadre éditorial, la temporalité et la lisibilité des évolutions explicites.
- Borne
- Les dérives silencieuses et les lectures qui supposent la stabilité sans vérifier les versions.
Ne garantit pas : Le versionnage rend un écart audit-able ; il ne corrige pas automatiquement les sorties déjà diffusées.
Artefacts complémentaires (1)
Ces surfaces prolongent le bloc principal. Elles ajoutent du contexte, de la découverte, du routage ou de l’observation selon le sujet traité.
Registre des erreurs récurrentes
/common-misinterpretations.json
Liste publiée des erreurs de lecture déjà observées et des rectifications attendues.
Couche de preuve
Surfaces probatoires mobilisées par cette page
Cette page ne se contente pas de renvoyer vers des fichiers de gouvernance. Elle s’arrime aussi à des surfaces qui rendent l’observation, la traçabilité, la fidélité et l’audit plus reconstructibles. Leur ordre ci-dessous explicite la chaîne probatoire minimale.
- 01Carte d’observationObservatory map
- 02Artefact probatoirecommon-misinterpretations.json
Observatory map
/observations/observatory-map.json
Index machine-first des ressources d’observation, des snapshots et des points de comparaison publiés.
- Rend prouvable
- Où se trouvent les objets d’observation mobilisables dans une chaîne probatoire.
- Ne prouve pas
- Ni la qualité d’un résultat, ni la fidélité d’une réponse particulière.
- À mobiliser quand
- Pour localiser les baselines, journaux, snapshots et artefacts dérivés.
common-misinterpretations.json
/common-misinterpretations.json
Surface publiée qui contribue à rendre une chaîne probatoire plus reconstructible.
- Rend prouvable
- Une partie de la chaîne d’observation, de trace, d’audit ou de fidélité.
- Ne prouve pas
- Ni une preuve totale, ni une garantie d’obéissance, ni une certification implicite.
- À mobiliser quand
- Lorsqu’une page doit expliciter son régime de preuve.
Une erreur ancienne, amplifiée par l’IA
robots.txt a toujours été mal lu lorsqu’il est traité comme un mur.
Dans le contexte des systèmes d’IA, l’erreur est encore plus coûteuse, parce qu’elle conduit à croire qu’une directive de crawl vaut :
- interdiction absolue ;
- preuve de respect ;
- gouvernance complète de tous les usages ;
- ou protection suffisante contre des réemplois futurs.
Aucune de ces lectures n’est doctrinalement sûre.
Ce que fait robots.txt
robots.txt publie principalement :
- des règles d’accès procédural pour certains crawlers ;
- une orientation de découverte ;
- une partie de la surface de signalisation machine ;
- parfois une hiérarchie implicite sur ce qui doit être exploré ou non.
Cela compte. Mais cela ne constitue pas une barrière technique générale.
Ce que robots.txt ne fait pas
robots.txt ne fait pas, à lui seul, quatre choses que le marché lui prête souvent.
1. Il ne force pas l’obéissance
La présence d’une règle ne prouve pas que tous les acteurs la respectent.
2. Il ne couvre pas tous les régimes d’usage
Une règle de crawl n’épuise ni la lecture documentaire, ni la synthèse, ni l’entraînement.
3. Il ne suffit pas à documenter une politique machine complète
Une politique cohérente peut nécessiter d’autres surfaces : llms.txt, headers, manifestes, pages de contexte, précédence, non-objectifs.
4. Il ne prouve pas une conformité observée
Même si un effet semble cohérent avec la règle, il faut encore une lecture de preuve avant de parler de conformité. Voir Signal, preuve et conformité.
Pourquoi la confusion persiste
La confusion persiste parce que robots.txt est visible, ancien et facile à nommer. Le marché lui attribue donc une portée plus large que sa portée réelle.
Dans les environnements d’IA, cette confusion produit deux risques opposés :
- surestimer la protection offerte ;
- sous-estimer la valeur de signalisation qu’il apporte réellement.
La bonne lecture n’est ni magique, ni cynique.
Lecture correcte
robots.txt doit être lu comme une surface de signal procédural, importante mais non souveraine.
Il sert à dire quelque chose sur :
- l’accès souhaité ;
- le périmètre d’exploration ;
- l’organisation de certaines zones ;
- une partie du cadre de lecture machine.
Il ne doit pas être transformé en barrière fictive.
Conséquence pour Better Robots.txt
Le fait qu’un plugin organise et publie correctement robots.txt est important. Cela améliore la lisibilité et la gouvernance opérationnelle sur WordPress.
Mais cette implémentation concrète ne doit pas être lue comme si elle créait une clôture totale.
C’est pourquoi la surface applicative Better Robots.txt doit toujours être lue avec :