G3 · Gouvernance de l'IA Agentique · 2026
Module G3 — Série Gouvernance
Quand l'IA agit
à la place
des humains.
Cadre de gouvernance · Human-in-the-loop · AgentOps · EU AI Act · Auditabilité
Le changement de paradigme

"La vague agentique introduit un changement de modèle : on passe d'une IA qui assiste les collaborateurs à une IA qui agit sur les systèmes de façon autonome. Les enjeux ne sont plus d'expérimenter, mais de stabiliser, gouverner et industrialiser."

Source : Benchmark Agentic for Tech, 2026
PÉRIMÈTRE

Cadre de gouvernance pour les agents autonomes : qui décide quoi, Human-in-the-loop, auditabilité des décisions, droits d'action, AgentOps, EU AI Act, conformité DORA.

PUBLIC CIBLE

CDO, CIO, CISO, DSI, responsables IA, équipes risques, conformité, auditeurs internes, Product Owners IA, Data Scientists en production.

RÉGLEMENTATION

EU AI Act Art. 9-17 (systèmes haut risque), Art. 25 (déployeurs), DORA (résilience opérationnelle), Cigref BP5 (politique IA), NIS2.

DURÉE

1 journée (7h) — 3 séquences + 1 atelier classification EU AI Act + 1 atelier design Human-in-the-loop sur un cas métier.

ORBii.Academy — Série GouvernanceG3 · P.01
G3 · Gouvernance de l'IA Agentique
Spectre d'autonomie agentique

De l'IA assistante à l'agent autonome — 5 niveaux d'action

Avant de gouverner un agent, il faut positionner son niveau d'autonomie. Plus l'autonomie est élevée, plus les exigences de gouvernance, d'auditabilité et de conformité réglementaire sont fortes. La gouvernance n'est pas la même pour une IA qui suggère et pour une IA qui exécute.

1
Assistance — IA suggère, humain décide

L'IA produit du contenu, résume, traduit, propose. L'humain valide chaque action. Pas d'action directe sur les systèmes. EU AI Act : risque faible ou limité.

2
Co-pilote — IA propose des actions, humain confirme

L'agent prépare des actions structurées (rédaction d'email, création de ticket). L'humain approuve avant exécution. DORA : compatible si validation humaine systématique.

3
Automatisation supervisée — agent exécute, humain surveille

L'agent exécute des tâches structurées (pipeline de données, traitement de tickets). L'humain supervise et peut interrompre. EU AI Act : exige politique IA documentée (Cigref BP5 C1).

4
Agent semi-autonome — décisions opérationnelles automatisées

L'agent prend des décisions opérationnelles (routing, scoring, alertes) sans validation humaine systématique. Gates définis pour les cas exceptionnels. EU AI Act haut risque si domaine réglementé (crédit, RH, sécurité).

5
Agent autonome — orchestre d'autres agents, décisions stratégiques

L'agent coordonne d'autres agents, prend des décisions à fort enjeu, modifie des processus métier. Zone réglementaire critique : EU AI Act Art. 9-17 obligatoires, DORA Art. 5.2 responsabilité dirigeants.

Principe de gouvernance — ORBii

Le niveau d'autonomie d'un agent définit le niveau de gouvernance requis. Avant tout déploiement agentique, l'organisation doit classifier chaque agent sur ce spectre — et vérifier que le cadre de gouvernance correspondant est en place. Déployer un niveau 4-5 sans le cadre d'un niveau 4-5, c'est créer un risque réglementaire et opérationnel majeur.

ORBii.Academy — Série GouvernanceG3 · P.02
G3 · Gouvernance de l'IA Agentique
Human-in-the-Loop & Patterns agentiques

Les 3 patterns de gouvernance des agents — choisir le bon selon le risque

Un agent autonome n'est pas ingouvernable — il est gouverné par des patterns architecturaux qui définissent à quels moments l'humain intervient, valide ou peut interrompre. Ces patterns sont issus des meilleures pratiques de déploiement agentique en environnement bancaire.

Pattern 1 · Essaim — Pipeline séquentiel déterministe
Risque FAIBLE

Pipeline avec orchestration codée en dur (pas de LLM pour le routing). Chaque agent traite sa partie et passe le relais. Workflow déterministe et reproductible. Pas de décision IA sur le flux — seulement sur le contenu.

Exemple bancaire : Pipeline KYC — Agent 1 (extraction documents) → Agent 2 (vérification identité) → Agent 3 (scoring conformité) → Agent 4 (création dossier). Flux prévisible, auditabilité native.

Pattern 2 · Human-in-the-Loop — Gates de validation humaine
Risque MODÉRÉ — RECOMMANDÉ

L'agent s'interrompt à des checkpoints prédéfinis pour attendre validation, correction ou input humain. Essentiel pour les décisions à fort enjeu métier, réglementaire ou client.

Agent prépare
⏸ GATE
Validation humaine
Agent exécute
⏸ GATE
Contrôle résultat
Finalisation

Exemple bancaire : Déploiement en production — l'agent prépare le déploiement et exécute les tests, mais attend validation humaine avant cutover production. Le Release Manager vérifie les conditions business (freeze, communication client).

Pattern 3 · Logique personnalisée — Workflow conditionnel métier
Risque ÉLEVÉ — expertise requise

Contrôle total via code impératif : conditions, branches, boucles. Mixe patterns prédéfinis et logique métier. Maximum de flexibilité — mais aussi maximum de responsabilité de gouvernance.

Exemple bancaire : Provisioning infrastructure conditionnel selon l'environnement (dev/staging/prod), le cloud, les contraintes réglementaires (RGPD/HDS). Combine agents Terraform, agents validation sécurité, et approbations conditionnelles selon criticité.

ORBii.Academy — Série GouvernanceG3 · P.03
G3 · Gouvernance de l'IA Agentique
EU AI Act — obligations opérationnelles

EU AI Act · Ce qui change concrètement pour les agents autonomes

L'EU AI Act classifie les systèmes d'IA par niveau de risque. Les agents autonomes dans les domaines financiers, RH ou de sécurité sont présumés à haut risque — avec des obligations de gouvernance non-négociables.

ArticleObligationTraduction opérationnelleResponsable
Art. 9 Système de gestion des risques Identifier, évaluer, gérer les risques de chaque agent en production. Mis à jour en continu. CDO + CISO
Art. 10 Qualité des données d'entraînement Données d'entraînement et de validation documentées, sans biais discriminatoires vérifiés. Data Owner + DQ Manager
Art. 11 Documentation technique Fiche technique de chaque système IA haut risque : architecture, données, performance, limites. Data Scientist + Architecte
Art. 12 Tenue de journaux (logs) Logs automatiques de toutes les décisions de l'agent conservés pendant la durée d'utilisation. DSI Data + AgentOps
Art. 13 Transparence envers les utilisateurs Information claire que la décision est prise par un système IA — et explication accessible. Product Owner IA
Art. 14 Surveillance humaine (Human-in-the-loop) Mécanismes permettant à l'humain de comprendre, superviser, interrompre ou corriger l'agent. Gestionnaire opérationnel
Art. 15 Exactitude, robustesse et cybersécurité Tests de robustesse documentés, résistance aux attaques adversariales, monitoring de dérive. Data Scientist + CISO
Art. 25 Obligations des déployeurs L'organisation qui déploie (pas seulement celle qui développe) est responsable. Instructions d'usage respectées, surveillance active en production. CDO (responsabilité finale)
Sanction EU AI Act — Non-conformité système haut risque

30 millions d'euros ou 6% du chiffre d'affaires mondial annuel pour les violations des obligations des systèmes à haut risque (Art. 99). L'EU AI Act est entré en application progressive depuis 2024 — les obligations pour les systèmes haut risque s'appliquent pleinement depuis août 2026.

ORBii.Academy — Série GouvernanceG3 · P.04
G3 · Gouvernance de l'IA Agentique
AgentOps — Supervision & contrôle en production

Le cadre de gouvernance agentique — 6 piliers opérationnels

AgentOps (Agentic Operations) est la discipline qui couvre la supervision, la sécurité et le contrôle des agents IA en production. C'est l'équivalent de DevOps pour les agents — mais avec des exigences de gouvernance supplémentaires liées à l'autonomie décisionnelle.

📋
1 · Registre des agents IA

Inventaire de tous les agents en production : niveau d'autonomie, données traitées, classification EU AI Act, Data Owner et responsable agentique désignés.

🔍
2 · Observabilité des décisions

Logs complets de chaque décision d'agent : input, raisonnement, output, confiance. Durée de conservation conforme EU AI Act Art. 12. Accès en temps réel pour supervision.

3 · Mécanisme d'interruption

Chaque agent doit avoir un "kill switch" manuel activable par le superviseur humain. Procédure de suspension documentée et testée. Conforme EU AI Act Art. 14.

📊
4 · Monitoring de dérive (drift)

Détection automatique de la dérive des performances : comparaison des distributions de sortie vs ligne de base. Alerte si dérive > seuil défini. Ré-entraînement ou désactivation si nécessaire.

🔐
5 · Droits d'action limités (least privilege)

Un agent ne dispose que des droits strictement nécessaires à sa tâche. Pas d'escalade de privilèges automatique. RBAC spécifique agents, distinct des droits humains. Audit des accès trimestriel.

🏛️
6 · Intégration à la gouvernance SI

La gouvernance agentique n'est pas parallèle à la gouvernance SI — elle s'y intègre. Comité IA trimestriel, reporting CDO au COMEX, lien avec le registre des risques DORA.

ORBii.Academy — Série GouvernanceG3 · P.05
G3 · Gouvernance de l'IA Agentique
Cadre de décision

Qui décide quoi dans l'IA agentique — matrice de gouvernance

La question centrale de la gouvernance agentique n'est pas technique — elle est décisionnelle : quelles décisions l'agent peut-il prendre seul, lesquelles nécessitent une supervision humaine, et lesquelles sont réservées aux humains ? Cette matrice répond à ces questions.

Type de décisionNiveau de risqueQui décide ?Gate requisTraçabilité
Traitement de données structurées, enrichissement Faible Agent autonome Non Logs standards
Classification, scoring, routing automatique Modéré Agent + supervision humaine périodique Sampling 5% Logs + audit trimestriel
Décision crédit, offre personnalisée client Élevé Agent propose, humain valide les cas hors-norme Gate obligatoire si > seuil Logs + explication EU AI Art. 13
Alerte réglementaire, signalement suspicious Critique Agent détecte, humain qualifie et décide Gate systématique Logs + rapport traçable
Déploiement en production, modification config Critique Agent prépare, humain autorise Gate double validation Logs + change management
Décision stratégique, restructuration processus Interdit Humain uniquement Agent exclu N/A — hors périmètre agentique
Les 4 garde-fous avant de déployer à l'échelle — ORBii recommandation
  1. Registre des agents : chaque agent est inventorié, classifié EU AI Act, avec un responsable nommé
  2. Politique IA documentée : approuvée par le COMEX, partagée avec tous les utilisateurs (Cigref BP5 C1-C2)
  1. Cadre Human-in-the-Loop : matrice de décision définie, gates implémentés avant déploiement niveau 4-5
  2. AgentOps opérationnel : observabilité, monitoring drift, kill switch testés avant passage en production
ORBii.Academy — Série GouvernanceG3 · P.06
G3 · Gouvernance de l'IA Agentique
Synthèse du module G3
Un agent qui agit
sans gouvernance,
c'est un risque non géré.
01 — 5 NIVEAUX D'AUTONOMIE, 5 NIVEAUX DE GOUVERNANCE

Classifier chaque agent sur le spectre 1-5 avant de définir son cadre de gouvernance. Niveau 4-5 = obligations EU AI Act haut risque + DORA + Human-in-the-Loop systématique.

02 — 3 PATTERNS, 1 PRINCIPE : L'HUMAIN RESTE RESPONSABLE

Essaim (déterministe), Human-in-the-Loop (gates), Logique personnalisée (conditionnel). Quel que soit le pattern, EU AI Act Art. 14 impose des mécanismes de surveillance humaine pour les systèmes haut risque.

03 — AGENTOPS : LA DISCIPLINE QUI MANQUE

6 piliers : registre agents, observabilité, kill switch, monitoring drift, least privilege, intégration gouvernance SI. Sans AgentOps, l'industrialisation des agents crée des angles morts réglementaires et opérationnels.

04 — 3 LIVRABLES DU MODULE

① Template registre agents IA (classification EU AI Act + responsable) ② Matrice Human-in-the-loop (type de décision × qui décide × gate requis) ③ Checklist 4 garde-fous avant déploiement à l'échelle.

"Poser les garde-fous avant de scaler. Les cadres de gouvernance et les garde-fous techniques sont les conditions sine qua non d'une adoption agentique maîtrisée."

Source : Benchmark Agentic for Tech, 2026
ORBii.Academy — Série GouvernanceG3 · P.07 — Module complet