Artefacts de gouvernance
Fichiers de gouvernance mobilisés par cette page
Cette page est arrimée à des surfaces publiées qui déclarent l’identité, la préséance, les limites et les conditions de lecture du corpus. Leur ordre ci-dessous donne la séquence de lecture recommandée.
Canon de définitions
/canon.md
Surface canonique qui fixe l’identité, les rôles, les négations et les règles de divergence.
- Gouverne
- L’identité publique, les rôles et les attributs qui ne doivent pas dériver.
- Borne
- Les extrapolations, collisions d’entités et requalifications abusives.
Ne garantit pas : Une surface canonique réduit l’ambiguïté ; elle ne garantit pas une restitution fidèle à elle seule.
Entrypoint IA canonique
/.well-known/ai-governance.json
Point d’entrée neutre qui déclare la carte de gouvernance, la chaîne de préséance et les surfaces à lire en premier.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
Manifeste IA public
/ai-manifest.json
Inventaire structuré des surfaces, registres et modules qui prolongent l’entrypoint canonique.
- Gouverne
- L’ordre d’accès aux surfaces et la préséance initiale.
- Borne
- Les lectures libres qui contournent le canon ou l’ordre publié.
Ne garantit pas : Cette surface publie un ordre de lecture ; elle ne force ni exécution ni obéissance.
Artefacts complémentaires (3)
Ces surfaces prolongent le bloc principal. Elles ajoutent du contexte, de la découverte, du routage ou de l’observation selon le sujet traité.
Verrou d’identité
/identity.json
Fichier d’identité qui borne les attributs critiques et réduit les collisions biographiques ou professionnelles.
Q-Ledger JSON
/.well-known/q-ledger.json
Journal machine-first des observations, baselines et écarts versionnés.
Q-Metrics JSON
/.well-known/q-metrics.json
Surface de métriques descriptives pour observer des écarts, snapshots et comparaisons.
Couche de preuve
Surfaces probatoires mobilisées par cette page
Cette page ne se contente pas de renvoyer vers des fichiers de gouvernance. Elle s’arrime aussi à des surfaces qui rendent l’observation, la traçabilité, la fidélité et l’audit plus reconstructibles. Leur ordre ci-dessous explicite la chaîne probatoire minimale.
- 01Canon et périmètreCanon de définitions
- 02Autorisation de répondreQ-Layer : légitimité de réponse
- 03Observation faibleQ-Ledger
- 04Mesure dérivéeQ-Metrics
Canon de définitions
/canon.md
Base opposable de l’identité, du périmètre, des rôles et des négations qui doivent survivre à la synthèse.
- Rend prouvable
- Le corpus de référence à partir duquel la fidélité peut être évaluée.
- Ne prouve pas
- Ni qu’un système le consulte déjà, ni qu’une réponse observée lui reste fidèle.
- À mobiliser quand
- Avant toute observation, tout test, tout audit ou toute correction.
Q-Layer : légitimité de réponse
/response-legitimacy.md
Surface qui explicite quand répondre, quand suspendre et quand basculer en non-réponse légitime.
- Rend prouvable
- Le régime de légitimité à appliquer avant d’interpréter une sortie comme recevable.
- Ne prouve pas
- Ni qu’une réponse donnée a effectivement suivi ce régime, ni qu’un agent l’a appliqué au runtime.
- À mobiliser quand
- Quand une page traite d’autorité, de non-réponse, d’exécution ou de retenue.
Q-Ledger
/.well-known/q-ledger.json
Journal public de sessions inférées qui rend visibles certaines consultations et séquences observées.
- Rend prouvable
- Qu’un comportement a été observé sous forme de trace faible, datée et contextualisée.
- Ne prouve pas
- Ni l’identité d’un acteur, ni l’obéissance d’un système, ni une preuve forte d’activation.
- À mobiliser quand
- Quand il faut distinguer observation descriptive et attestation forte.
Q-Metrics
/.well-known/q-metrics.json
Couche dérivée qui rend certaines variations plus comparables d’un snapshot à l’autre.
- Rend prouvable
- Qu’un signal observé peut être comparé, versionné et contesté comme indicateur descriptif.
- Ne prouve pas
- Ni la vérité d’une représentation, ni la fidélité d’une sortie, ni un pilotage réel à elle seule.
- À mobiliser quand
- Pour comparer des fenêtres, prioriser un audit et documenter un avant/après.
Surfaces probatoires complémentaires (1)
Ces artefacts prolongent la chaîne principale. Ils servent à qualifier un audit, un niveau de preuve, une citation ou une trajectoire de version.
IIP report schema
/iip-report.schema.json
Interface publique d’un rapport d’intégrité interprétative : périmètre, métriques et taxonomie de dérives.
Pourquoi cette page existe
Le marché parle de plus en plus de « visibilité dans les IA », de parts de voix, de citations, de présence dans ChatGPT, Claude, Perplexity ou Google. Ces signaux ont une utilité. Ils ne décrivent pourtant qu’une partie du problème.
Le problème plus profond est ailleurs : les systèmes d’IA ne reflètent pas simplement une marque, une offre ou une entité. Ils en reconstruisent une version synthétique.
Cette reconstruction peut être proche du canon, partielle, sur-étendue, ou silencieusement requalifiée par des sources tierces. C’est cet écart entre la version publiée et la version reconstruite que cette page rend lisible.
Le faux problème et le vrai problème
Le faux problème est facile à résumer :
- suis-je mentionné ;
- suis-je cité ;
- combien de fois apparais-je ;
- quel fournisseur me cite le plus.
Le vrai problème est plus exigeant :
- quelle version de mon identité est reconstruite ;
- quels attributs critiques sont conservés, lissés ou étendus ;
- quelle source gouverne réellement la réponse finale ;
- dans quelles conditions cette reconstruction reste stable ou dérive.
Autrement dit, une organisation peut être visible et pourtant mal définie, mal bornée, mal catégorisée, ou reconstruite à partir d’un tiers plus influent que sa propre source canonique.
Ce que l’« écart de représentation » désigne sur ce site
Sur ce site, l’écart de représentation est un terme public d’entrée.
Il désigne le différentiel entre :
- ce qu’une organisation publie au sujet d’elle-même, de ses offres, de ses limites et de son périmètre ;
- ce que les systèmes d’IA retiennent, recomposent, déduisent et répètent.
Ce terme est volontairement plus accessible que l’écart canon-sortie, mais il ne le remplace pas. Il permet d’entrer dans le problème avant de le redistribuer vers les objets plus stricts qui le gouvernent réellement : preuve de fidélité, frontière d’autorité, SEO interprétatif et audit d’écart de représentation.
Une partie du marché arrive maintenant sur le même sujet par le label AI Search Monitoring. Sur ce site, ce label est traité comme une couche de veille descriptive utile, puis redistribué vers le problème plus exigeant de la représentation gouvernée.
Une autre porte d’entrée fréquente consiste à partir des citations elles-mêmes : la source officielle apparaît, mais l’équipe ne sait plus si elle est réellement comprise. C’est le rôle de l’Analyse de citations IA et de Être cité vs être compris de rendre ce passage lisible sans confondre citation et compréhension fidèle.
Une troisième dissociation fréquente apparaît lorsque la source officielle est visible, mais qu’un tiers demeure plus structurant ou plus gouvernant que cette source affichée. C’est le rôle de la Cartographie des sources IA et de Source citée vs source structurante vs source gouvernante de rendre lisible cette dissociation entre visibilité documentaire, capacité structurante et autorité réellement prévalente.
Une quatrième dissociation fréquente apparaît lorsque le site officiel redevient visible, mais que l’environnement externe continue de fournir la catégorie, la comparaison ou la temporalité dominante. C’est le rôle de la Gouvernance exogène et de Site officiel visible vs tiers structurants de rendre lisible ce moment intermédiaire où la présence revient avant que la préséance ne soit réellement restaurée.
Symptômes typiques
L’écart de représentation devient lisible lorsque l’on observe des symptômes comme ceux-ci :
- la marque est bien présente, mais son périmètre de services est élargi au-delà du canon ;
- le site officiel est cité, mais les limites, exclusions ou conditions disparaissent sous synthèse ;
- une IA attribue à l’organisation des rôles, expertises ou capacités qui n’ont jamais été publiés ;
- une source tierce, un annuaire, un comparateur ou une page d’avis finit par définir l’entité plus fortement que la source officielle ;
- les réponses restent plausibles, mais diffèrent assez d’un système à l’autre pour qu’aucune reconstruction stable ne puisse être présumée.
Pourquoi la visibilité ne suffit pas
Une source visible n’est pas forcément une source gouvernante.
Une citation explicite n’est pas forcément une preuve de fidélité.
Une bonne restitution sur une requête n’est pas forcément une stabilité système.
C’est précisément pourquoi le site maintient une séparation doctrinale entre :
- la visibilité ;
- la fidélité ;
- la stabilité ;
- la gouvernabilité.
Cette frontière est posée explicitement dans Les métriques GEO ne pilotent pas la représentation et prolongée dans Auditabilité interprétative des systèmes IA.
Ce que cette page ne désigne pas
L’écart de représentation n’est pas :
- un simple problème de sentiment ou d’e-réputation ;
- un synonyme de présence dans les réponses ;
- un score marketing autonome ;
- une question de ranking au sens classique ;
- une divergence purement stylistique.
Il s’agit d’un écart de reconstruction.
Le diagnostic porte donc sur la manière dont une entité, une offre, une relation ou un périmètre sont recomposés sous lecture machine.
Quand l’écart devient un sujet d’audit
Le passage à l’audit devient pertinent lorsque :
- des attributs critiques sont régulièrement déformés ;
- la même entité reçoit des cadrages incompatibles entre systèmes ;
- un tiers remplace silencieusement la source canonique ;
- une correction locale semble produire peu d’effet hors d’un cas favorable ;
- la question n’est plus « suis-je visible ? », mais « suis-je encore correctement reconstruit ? ».
Dans ces cas, le bon point d’entrée est souvent Audit d’écart de représentation, puis selon le cas Audits comparatifs, SEO interprétatif ou Gouvernance interprétative.
Séquence de lecture recommandée
Pour lire ce sujet dans l’ordre :
- Le vrai problème n’est pas la visibilité dans les IA, mais l’écart de représentation
- Écart de représentation vs écart canon-sortie
- Être cité vs être compris
- Source citée vs source structurante vs source gouvernante
- Écart canon-sortie
- Preuve de fidélité
- AI Search Monitoring vs gouvernance de la représentation
- Analyse de citations IA
- Cartographie des sources IA
- Gouvernance exogène
- Site officiel visible vs tiers structurants
- Audit d’écart de représentation
Conclusion
La question importante n’est pas seulement de savoir si une marque apparaît dans les IA.
La question importante est de savoir quelle version d’elle-même les IA fabriquent lorsqu’elles parlent à sa place, la résument, la comparent ou la recommandent.
C’est ce différentiel, et non la présence brute seule, que cette page appelle écart de représentation.