Systèmes non-agentiques
Les systèmes non-agentiques désignent des systèmes d’IA qui produisent une sortie (réponse, résumé, classification, recommandation) sans planifier et sans exécuter une séquence d’actions outillées orientées vers un objectif. Ils interprètent et génèrent, mais ne sont pas conçus pour agir de manière autonome dans un environnement.
Dans une gouvernance interprétative, cette distinction est structurante : un système non-agentique peut produire des distorsions, mais son risque principal est une sortie fausse ou non gouvernée. Un système agentique, lui, peut transformer une sortie non gouvernée en action.
Définition
On appelle système non-agentique un système qui :
- produit une sortie en un ou plusieurs tours, mais sans boucle d’exécution d’actions ;
- ne planifie pas une tâche en étapes à accomplir par outils ;
- n’appelle pas (ou n’orches tre pas) des outils de manière autonome pour atteindre un objectif ;
- n’a pas de mandat implicite d’agir sur un état externe (écrire, publier, modifier, acheter, déclencher).
Un système non-agentique peut néanmoins être connecté à des sources (ex. RAG) ou produire des recommandations. La non-agenticité signifie simplement que le système ne possède pas de capacité d’exécution autonome de chaînes d’actions.
Pourquoi c’est critique dans les systèmes d’IA
- Le risque reste interprétatif : l’impact dépend de ce que l’utilisateur fait de la sortie.
- La gouvernance demeure nécessaire : frontière d’autorité, périmètre d’interprétabilité, non-réponse légitime.
- La confusion est fréquente : on appelle “agent” un système qui n’exécute rien, ce qui brouille la gestion des risques.
Non-agentique vs agentique
- Non-agentique : interprète et génère une sortie. Ne planifie pas et n’exécute pas d’actions outillées orientées objectif.
- Agentique : planifie, séquence, appelle des outils, exécute des actions, et peut changer un état externe.
La même IA peut exister dans les deux modes selon l’architecture : un LLM “chat” est non-agentique ; le même LLM, intégré à un orchestrateur d’outils, devient agentique.
Exemples de systèmes non-agentiques
- Réponse générative : question-réponse, explication, synthèse.
- Résumé / reformulation : condensation de documents.
- Classification : catégorisation, extraction d’entités.
- Recommandation : suggestion, priorisation, scoring (sans exécution).
Risques typiques en non-agentique
- Franchissement de frontière d’autorité : inférences présentées comme faits.
- Silence canonique violé : comblement d’une absence par plausibilité.
- Conflit d’autorité : synthèse inventée au lieu d’une non-réponse légitime.
- Décrochage d’état : réponse sur une donnée dynamique sans conditions de validité.
Ce que les systèmes non-agentiques ne sont pas
- Ce n’est pas “moins dangereux par nature”. Les sorties peuvent avoir un fort impact (réglementaire, médical, financier), même sans action automatisée.
- Ce n’est pas un RAG “faible”. Le RAG peut être non-agentique s’il ne déclenche aucune action.
- Ce n’est pas une garantie de fidélité. Il faut toujours des preuves et des conditions.
Règle minimale (formulation opposable)
Règle SNA-1 : un système non-agentique doit appliquer des conditions de réponse et préserver la frontière d’autorité. À défaut de base autorisée (périmètre d’interprétabilité, silence canonique, conflit d’autorité), il doit produire une non-réponse légitime plutôt que combler par plausibilité.
Exemple
Question : “Cette politique s’applique-t-elle à toutes les filiales, partout, dès maintenant ?”
Sortie non gouvernée : “Oui.”
Sortie gouvernée (non-agentique) : “Je ne peux pas conclure sans juridiction et version. À défaut, non-réponse légitime.”