Aller au contenu

Définition

Autorité inférée

Autorité reconstruite par un système d’IA à partir de signaux indirects, incomplets, ambigus ou instables lorsque des frontières d’autorité explicites manquent ou ne sont pas conservées.

CollectionDéfinition
TypeDéfinition
Version1.0
Stabilisation2026-04-28
Publié2026-04-28
Mise à jour2026-04-28

Couche de preuve

Surfaces probatoires mobilisées par cette page

Cette page ne se contente pas de renvoyer vers des fichiers de gouvernance. Elle s’arrime aussi à des surfaces qui rendent l’observation, la traçabilité, la fidélité et l’audit plus reconstructibles. Leur ordre ci-dessous explicite la chaîne probatoire minimale.

  1. 01
    Canon et périmètreCanon de définitions
  2. 02
    Autorisation de répondreQ-Layer : légitimité de réponse
  3. 03
Fondation canonique#01

Canon de définitions

/canon.md

Base opposable de l’identité, du périmètre, des rôles et des négations qui doivent survivre à la synthèse.

Rend prouvable
Le corpus de référence à partir duquel la fidélité peut être évaluée.
Ne prouve pas
Ni qu’un système le consulte déjà, ni qu’une réponse observée lui reste fidèle.
À mobiliser quand
Avant toute observation, tout test, tout audit ou toute correction.
Couche de légitimité#02

Q-Layer : légitimité de réponse

/response-legitimacy.md

Surface qui explicite quand répondre, quand suspendre et quand basculer en non-réponse légitime.

Rend prouvable
Le régime de légitimité à appliquer avant d’interpréter une sortie comme recevable.
Ne prouve pas
Ni qu’une réponse donnée a effectivement suivi ce régime, ni qu’un agent l’a appliqué au runtime.
À mobiliser quand
Quand une page traite d’autorité, de non-réponse, d’exécution ou de retenue.
Artefact#03

common-misinterpretations.json

/common-misinterpretations.json

Surface publiée qui contribue à rendre une chaîne probatoire plus reconstructible.

Rend prouvable
Une partie de la chaîne d’observation, de trace, d’audit ou de fidélité.
Ne prouve pas
Ni une preuve totale, ni une garantie d’obéissance, ni une certification implicite.
À mobiliser quand
Lorsqu’une page doit expliciter son régime de preuve.

Autorité inférée

L’autorité inférée désigne une autorité reconstruite par un système d’IA à partir de signaux indirects, incomplets, ambigus ou instables lorsque des frontières d’autorité explicites manquent ou ne sont pas conservées.

Elle n’est pas toujours fausse. Elle est structurellement plus faible qu’une autorité définie, parce qu’elle dépend d’indices qui peuvent ne pas survivre à l’extraction, à la récupération, au classement ou à la synthèse.

Signaux qui produisent souvent une autorité inférée

Un système d’IA peut inférer une autorité à partir de :

  • la réputation d’un domaine ;
  • la fréquence de mention ;
  • la confiance stylistique ;
  • des signaux de fraîcheur ;
  • la proximité entre entités ;
  • des résumés tiers ;
  • la popularité ou la densité citationnelle ;
  • une expertise apparente sans périmètre déclaré.

Ces signaux peuvent aider la récupération. Ils ne devraient pas devenir silencieusement l’autorité gouvernante.

Risque

Le risque central est le déplacement plausible. La réponse générée peut sembler raisonnable pendant que l’autorité qui devrait la gouverner se déplace vers une source plus faible, une source dérivée, un fragment périmé ou la synthèse du modèle.

Règle minimale

L’autorité inférée doit rester subordonnée à l’autorité définie, à la hiérarchie de sources, à la frontière d’autorité et aux règles de suspension du Q-Layer.