"La vague agentique introduit un changement de modèle : on passe d'une IA qui assiste les collaborateurs à une IA qui agit sur les systèmes de façon autonome. Les enjeux ne sont plus d'expérimenter, mais de stabiliser, gouverner et industrialiser."
Cadre de gouvernance pour les agents autonomes : qui décide quoi, Human-in-the-loop, auditabilité des décisions, droits d'action, AgentOps, EU AI Act, conformité DORA.
CDO, CIO, CISO, DSI, responsables IA, équipes risques, conformité, auditeurs internes, Product Owners IA, Data Scientists en production.
EU AI Act Art. 9-17 (systèmes haut risque), Art. 25 (déployeurs), DORA (résilience opérationnelle), Cigref BP5 (politique IA), NIS2.
1 journée (7h) — 3 séquences + 1 atelier classification EU AI Act + 1 atelier design Human-in-the-loop sur un cas métier.
Avant de gouverner un agent, il faut positionner son niveau d'autonomie. Plus l'autonomie est élevée, plus les exigences de gouvernance, d'auditabilité et de conformité réglementaire sont fortes. La gouvernance n'est pas la même pour une IA qui suggère et pour une IA qui exécute.
L'IA produit du contenu, résume, traduit, propose. L'humain valide chaque action. Pas d'action directe sur les systèmes. EU AI Act : risque faible ou limité.
L'agent prépare des actions structurées (rédaction d'email, création de ticket). L'humain approuve avant exécution. DORA : compatible si validation humaine systématique.
L'agent exécute des tâches structurées (pipeline de données, traitement de tickets). L'humain supervise et peut interrompre. EU AI Act : exige politique IA documentée (Cigref BP5 C1).
L'agent prend des décisions opérationnelles (routing, scoring, alertes) sans validation humaine systématique. Gates définis pour les cas exceptionnels. EU AI Act haut risque si domaine réglementé (crédit, RH, sécurité).
L'agent coordonne d'autres agents, prend des décisions à fort enjeu, modifie des processus métier. Zone réglementaire critique : EU AI Act Art. 9-17 obligatoires, DORA Art. 5.2 responsabilité dirigeants.
Le niveau d'autonomie d'un agent définit le niveau de gouvernance requis. Avant tout déploiement agentique, l'organisation doit classifier chaque agent sur ce spectre — et vérifier que le cadre de gouvernance correspondant est en place. Déployer un niveau 4-5 sans le cadre d'un niveau 4-5, c'est créer un risque réglementaire et opérationnel majeur.
Un agent autonome n'est pas ingouvernable — il est gouverné par des patterns architecturaux qui définissent à quels moments l'humain intervient, valide ou peut interrompre. Ces patterns sont issus des meilleures pratiques de déploiement agentique en environnement bancaire.
Pipeline avec orchestration codée en dur (pas de LLM pour le routing). Chaque agent traite sa partie et passe le relais. Workflow déterministe et reproductible. Pas de décision IA sur le flux — seulement sur le contenu.
Exemple bancaire : Pipeline KYC — Agent 1 (extraction documents) → Agent 2 (vérification identité) → Agent 3 (scoring conformité) → Agent 4 (création dossier). Flux prévisible, auditabilité native.
L'agent s'interrompt à des checkpoints prédéfinis pour attendre validation, correction ou input humain. Essentiel pour les décisions à fort enjeu métier, réglementaire ou client.
Exemple bancaire : Déploiement en production — l'agent prépare le déploiement et exécute les tests, mais attend validation humaine avant cutover production. Le Release Manager vérifie les conditions business (freeze, communication client).
Contrôle total via code impératif : conditions, branches, boucles. Mixe patterns prédéfinis et logique métier. Maximum de flexibilité — mais aussi maximum de responsabilité de gouvernance.
Exemple bancaire : Provisioning infrastructure conditionnel selon l'environnement (dev/staging/prod), le cloud, les contraintes réglementaires (RGPD/HDS). Combine agents Terraform, agents validation sécurité, et approbations conditionnelles selon criticité.
L'EU AI Act classifie les systèmes d'IA par niveau de risque. Les agents autonomes dans les domaines financiers, RH ou de sécurité sont présumés à haut risque — avec des obligations de gouvernance non-négociables.
| Article | Obligation | Traduction opérationnelle | Responsable |
|---|---|---|---|
| Art. 9 | Système de gestion des risques | Identifier, évaluer, gérer les risques de chaque agent en production. Mis à jour en continu. | CDO + CISO |
| Art. 10 | Qualité des données d'entraînement | Données d'entraînement et de validation documentées, sans biais discriminatoires vérifiés. | Data Owner + DQ Manager |
| Art. 11 | Documentation technique | Fiche technique de chaque système IA haut risque : architecture, données, performance, limites. | Data Scientist + Architecte |
| Art. 12 | Tenue de journaux (logs) | Logs automatiques de toutes les décisions de l'agent conservés pendant la durée d'utilisation. | DSI Data + AgentOps |
| Art. 13 | Transparence envers les utilisateurs | Information claire que la décision est prise par un système IA — et explication accessible. | Product Owner IA |
| Art. 14 | Surveillance humaine (Human-in-the-loop) | Mécanismes permettant à l'humain de comprendre, superviser, interrompre ou corriger l'agent. | Gestionnaire opérationnel |
| Art. 15 | Exactitude, robustesse et cybersécurité | Tests de robustesse documentés, résistance aux attaques adversariales, monitoring de dérive. | Data Scientist + CISO |
| Art. 25 | Obligations des déployeurs | L'organisation qui déploie (pas seulement celle qui développe) est responsable. Instructions d'usage respectées, surveillance active en production. | CDO (responsabilité finale) |
30 millions d'euros ou 6% du chiffre d'affaires mondial annuel pour les violations des obligations des systèmes à haut risque (Art. 99). L'EU AI Act est entré en application progressive depuis 2024 — les obligations pour les systèmes haut risque s'appliquent pleinement depuis août 2026.
AgentOps (Agentic Operations) est la discipline qui couvre la supervision, la sécurité et le contrôle des agents IA en production. C'est l'équivalent de DevOps pour les agents — mais avec des exigences de gouvernance supplémentaires liées à l'autonomie décisionnelle.
Inventaire de tous les agents en production : niveau d'autonomie, données traitées, classification EU AI Act, Data Owner et responsable agentique désignés.
Logs complets de chaque décision d'agent : input, raisonnement, output, confiance. Durée de conservation conforme EU AI Act Art. 12. Accès en temps réel pour supervision.
Chaque agent doit avoir un "kill switch" manuel activable par le superviseur humain. Procédure de suspension documentée et testée. Conforme EU AI Act Art. 14.
Détection automatique de la dérive des performances : comparaison des distributions de sortie vs ligne de base. Alerte si dérive > seuil défini. Ré-entraînement ou désactivation si nécessaire.
Un agent ne dispose que des droits strictement nécessaires à sa tâche. Pas d'escalade de privilèges automatique. RBAC spécifique agents, distinct des droits humains. Audit des accès trimestriel.
La gouvernance agentique n'est pas parallèle à la gouvernance SI — elle s'y intègre. Comité IA trimestriel, reporting CDO au COMEX, lien avec le registre des risques DORA.
La question centrale de la gouvernance agentique n'est pas technique — elle est décisionnelle : quelles décisions l'agent peut-il prendre seul, lesquelles nécessitent une supervision humaine, et lesquelles sont réservées aux humains ? Cette matrice répond à ces questions.
| Type de décision | Niveau de risque | Qui décide ? | Gate requis | Traçabilité |
|---|---|---|---|---|
| Traitement de données structurées, enrichissement | Faible | Agent autonome | Non | Logs standards |
| Classification, scoring, routing automatique | Modéré | Agent + supervision humaine périodique | Sampling 5% | Logs + audit trimestriel |
| Décision crédit, offre personnalisée client | Élevé | Agent propose, humain valide les cas hors-norme | Gate obligatoire si > seuil | Logs + explication EU AI Art. 13 |
| Alerte réglementaire, signalement suspicious | Critique | Agent détecte, humain qualifie et décide | Gate systématique | Logs + rapport traçable |
| Déploiement en production, modification config | Critique | Agent prépare, humain autorise | Gate double validation | Logs + change management |
| Décision stratégique, restructuration processus | Interdit | Humain uniquement | Agent exclu | N/A — hors périmètre agentique |
Classifier chaque agent sur le spectre 1-5 avant de définir son cadre de gouvernance. Niveau 4-5 = obligations EU AI Act haut risque + DORA + Human-in-the-Loop systématique.
Essaim (déterministe), Human-in-the-Loop (gates), Logique personnalisée (conditionnel). Quel que soit le pattern, EU AI Act Art. 14 impose des mécanismes de surveillance humaine pour les systèmes haut risque.
6 piliers : registre agents, observabilité, kill switch, monitoring drift, least privilege, intégration gouvernance SI. Sans AgentOps, l'industrialisation des agents crée des angles morts réglementaires et opérationnels.
① Template registre agents IA (classification EU AI Act + responsable) ② Matrice Human-in-the-loop (type de décision × qui décide × gate requis) ③ Checklist 4 garde-fous avant déploiement à l'échelle.
"Poser les garde-fous avant de scaler. Les cadres de gouvernance et les garde-fous techniques sont les conditions sine qua non d'une adoption agentique maîtrisée."