Agentique
L’agentique désigne un mode d’exécution où un système d’IA ne se limite pas à produire une réponse, mais planifie, séquence et exécute des actions (outils, appels API, navigation, écriture, décisions) en fonction d’un objectif, souvent sur plusieurs étapes, avec un degré variable d’autonomie.
Dans une gouvernance interprétative, l’agentique augmente drastiquement l’enjeu : une interprétation devient une action. Une sortie plausible peut donc produire un effet réel. D’où l’importance de la frontière d’autorité, des conditions de réponse, et de la non-réponse légitime.
Définition
On appelle agentique un système où :
- l’IA possède une capacité de planification (décomposer une tâche) ;
- elle peut appeler des outils (navigateurs, API, bases de données, systèmes internes) ;
- elle peut enchaîner des actions sur plusieurs tours ;
- elle produit des sorties qui peuvent être opérationnelles (changer un état, écrire, publier, déclencher un flux).
L’agentique peut exister en environnement fermé (agent interne) ou sur le Web ouvert (agent naviguant et s’appuyant sur des sources externes).
Pourquoi c’est critique dans les systèmes d’IA
- Interprétation = exécution : une erreur d’interprétation se matérialise en action.
- Le coût d’erreur augmente : erreurs silencieuses, décisions irréversibles, responsabilité implicite.
- Les attaques deviennent actionnables : capture interprétative, contamination, collisions peuvent guider l’agent.
Risques typiques en agentique
- Franchissement de frontière d’autorité : l’agent infère et agit comme si c’était déclaré.
- Décrochage d’état : l’agent agit sur un état périmé (prix, stock, statut).
- Conflit d’autorité : l’agent choisit une source sans règle d’arbitrage.
- Absence de preuve : aucune trace d’interprétation opposable n’explique l’action.
Indicateurs pratiques (symptômes)
- Le système exécute sans exiger de conditions minimales (version, contexte, autorisation).
- Le système agit sur des hypothèses non déclarées (plausibilité transformée en action).
- Le système ne produit pas de trace d’interprétation des décisions.
- Le système privilégie des sources secondaires au lieu du canon.
Ce que l’agentique n’est pas
- Ce n’est pas un simple chatbot. Un chatbot répond. Un agent exécute.
- Ce n’est pas un RAG. Le RAG récupère de l’information ; l’agent agit avec cette information.
- Ce n’est pas forcément autonome. L’agentique peut être supervisée (humain dans la boucle).
Règle minimale (formulation opposable)
Règle AG-1 : toute exécution agentique doit être conditionnée par des conditions de réponse explicites, une frontière d’autorité stricte, et une trace d’interprétation minimale des décisions. À défaut, l’agent doit produire une non-réponse légitime ou demander une validation humaine avant action.
Exemple
Cas : un agent doit “mettre à jour” une politique ou publier un contenu.
Risque : il déduit une intention non déclarée, ou agit sur une version obsolète.
Sortie gouvernée : exiger version/date, produire une trace d’interprétation, demander validation si l’action est irréversible.