Module M5 · GenAI Responsable · Prompting, Risques & Bonnes Pratiques · 2026
Module 5 · 1 journée

GenAI
Responsable

Prompting structuré · Risques réels · Shadow AI · Politique IA bancaire

L'IA Générative est déjà dans vos organisations — souvent sans que personne ne le sache. Ce module donne les outils concrets pour l'utiliser efficacement et en sécurité : comment construire un prompt qui fonctionne, comment éviter les pièges réglementaires, comment contribuer à une politique IA responsable plutôt qu'à son contournement.

Objectifs pédagogiques
01Maîtriser la méthode CARE de prompting structuré pour des sorties fiables
02Identifier et neutraliser les 5 risques GenAI critiques en contexte bancaire
03Comprendre le Shadow AI — et savoir pourquoi il se développe et comment l'éviter
04Connaître les 6 composantes d'une politique IA responsable en établissement financier
Managers métier Conformité & Risques Champions IA internes Direction Générale Pré-requis : M3 + M4
Pejman Gohari · CDO · Chief AI Officer · ORBii
GenAI Roadmap BPCE SI 2026-2030 (avec BCG) · 6 pilotes GenAI COMEX · Copilot KPMG · Data Factory Bpifrance · Auteur DUNOD
academy.orbii.tech
ORBii.Academy · M5 · GenAI Responsable · Prompting, Risques & Bonnes PratiquesConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202601
M5 · GenAI Responsable · 02
Section 1

Pourquoi "responsable" — Ce qui se passe déjà dans votre organisation

« Lors de chaque mission, je découvre systématiquement des collaborateurs qui utilisent ChatGPT, Claude ou Gemini avec des données clients pour aller plus vite. Ce n'est pas de la malveillance — c'est de la pragmatisme non encadré. Et c'est la définition exacte du Shadow AI. »
— Pejman Gohari · CDO · Chief AI Officer · ORBii · Missions BPCE SI, KPMG, Bpifrance

Le paradoxe GenAI en banque — 2026

Les établissements bancaires investissent massivement dans des programmes GenAI structurés — roadmaps validées en COMEX, pilotes encadrés, équipes dédiées. En parallèle, des centaines de collaborateurs utilisent déjà, aujourd'hui, des outils GenAI non approuvés dans leur travail quotidien.

SITUATION RÉELLE OBSERVÉE EN MISSION

Direction Conformité d'un grand groupe bancaire, 2025 : 12 collaborateurs sur 18 utilisaient ChatGPT pour synthétiser des notes réglementaires. Aucun ne savait que les prompts envoyés à ChatGPT.com sont, selon les conditions d'utilisation de l'époque, potentiellement utilisés pour l'entraînement du modèle. Données confidentielles internes exposées.

SITUATION RÉELLE OBSERVÉE EN MISSION

Direction Commerciale, réseau retail, 2024 : Des conseillers utilisaient un LLM public pour rédiger des emails de relance client en y intégrant le nom, le solde et le projet immobilier du client. Violation directe du RGPD Art. 5 (minimisation des données) et du secret bancaire.

💡
La GenAI responsable n'est pas une restriction supplémentaire. C'est la condition pour que l'IA soit utile durablement — sans exposer l'établissement à une sanction CNIL, sans violer le secret bancaire, sans créer un précédent réglementaire qui bloquerait tout déploiement futur.

Les 4 raisons pour lesquelles le Shadow AI se développe

1
L'outil officiel n'existe pas encore

Le programme IA de l'organisation est en cours de déploiement. En attendant, les collaborateurs trouvent leurs propres solutions. C'est rationnel — et prévisible.

2
L'outil officiel est moins bon que le LLM public

Si le copilote interne approuvé produit des résultats moins bons que GPT-4, les collaborateurs basculent vers le meilleur outil — même s'il est interdit. La qualité doit être au rendez-vous.

3
Personne ne leur a expliqué les risques

Ce module existe précisément pour cette raison. Sans sensibilisation, le collaborateur ne peut pas peser les risques qu'il prend — pour lui et pour l'organisation.

4
La politique IA n'est pas communiquée ni accessible

Si la politique IA existe mais que personne ne la connaît ou ne peut y accéder facilement, elle ne sert à rien. La gouvernance doit être visible et compréhensible.

Définition
Shadow AI
Utilisation d'outils d'IA générative en dehors du cadre approuvé par l'organisation — sans validation DSI, sans accord de traitement des données, sans respect de la politique IA. Le Shadow AI n'est pas nécessairement malveillant : il est souvent le symptôme d'un besoin légitime mal adressé par l'organisation.
ORBii.Academy · M5 · GenAI Responsable · Prompting, Risques & Bonnes PratiquesConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202602
Contenu protégé

Vous avez consulté l'aperçu de ce module (2 premières pages).
Pour accéder au contenu complet, entrez votre code d'accès ou demandez un accès.

6 pages restantes Lien personnel · Valide 24h