ORBii.Academy
Module M5 · GenAI Responsable · Prompting, Risques & Bonnes Pratiques · 2026
Module 5 · 1 journée
GenAI
Responsable
Prompting structuré · Risques réels · Shadow AI · Politique IA bancaire
L'IA Générative est déjà dans vos organisations — souvent sans que personne ne le sache. Ce module donne les outils concrets pour l'utiliser efficacement et en sécurité : comment construire un prompt qui fonctionne, comment éviter les pièges réglementaires, comment contribuer à une politique IA responsable plutôt qu'à son contournement.
Objectifs pédagogiques
01Maîtriser la méthode CARE de prompting structuré pour des sorties fiables
02Identifier et neutraliser les 5 risques GenAI critiques en contexte bancaire
03Comprendre le Shadow AI — et savoir pourquoi il se développe et comment l'éviter
04Connaître les 6 composantes d'une politique IA responsable en établissement financier
Managers métier
Conformité & Risques
Champions IA internes
Direction Générale
Pré-requis : M3 + M4
Pejman Gohari · CDO · Chief AI Officer · ORBii
GenAI Roadmap BPCE SI 2026-2030 (avec BCG) · 6 pilotes GenAI COMEX · Copilot KPMG · Data Factory Bpifrance · Auteur DUNOD
academy.orbii.tech
ORBii.Academy · M5 · GenAI Responsable · Prompting, Risques & Bonnes PratiquesConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202601
ORBii.Academy
M5 · GenAI Responsable · 02
Section 1
Pourquoi "responsable" — Ce qui se passe déjà dans votre organisation
« Lors de chaque mission, je découvre systématiquement des collaborateurs qui utilisent ChatGPT, Claude ou Gemini avec des données clients pour aller plus vite. Ce n'est pas de la malveillance — c'est de la pragmatisme non encadré. Et c'est la définition exacte du Shadow AI. »
— Pejman Gohari · CDO · Chief AI Officer · ORBii · Missions BPCE SI, KPMG, Bpifrance
Le paradoxe GenAI en banque — 2026
Les établissements bancaires investissent massivement dans des programmes GenAI structurés — roadmaps validées en COMEX, pilotes encadrés, équipes dédiées. En parallèle, des centaines de collaborateurs utilisent déjà, aujourd'hui, des outils GenAI non approuvés dans leur travail quotidien.
SITUATION RÉELLE OBSERVÉE EN MISSION
Direction Conformité d'un grand groupe bancaire, 2025 : 12 collaborateurs sur 18 utilisaient ChatGPT pour synthétiser des notes réglementaires. Aucun ne savait que les prompts envoyés à ChatGPT.com sont, selon les conditions d'utilisation de l'époque, potentiellement utilisés pour l'entraînement du modèle. Données confidentielles internes exposées.
SITUATION RÉELLE OBSERVÉE EN MISSION
Direction Commerciale, réseau retail, 2024 : Des conseillers utilisaient un LLM public pour rédiger des emails de relance client en y intégrant le nom, le solde et le projet immobilier du client. Violation directe du RGPD Art. 5 (minimisation des données) et du secret bancaire.
💡
La GenAI responsable n'est pas une restriction supplémentaire. C'est la condition pour que l'IA soit utile durablement — sans exposer l'établissement à une sanction CNIL, sans violer le secret bancaire, sans créer un précédent réglementaire qui bloquerait tout déploiement futur.
Les 4 raisons pour lesquelles le Shadow AI se développe
1
L'outil officiel n'existe pas encore
Le programme IA de l'organisation est en cours de déploiement. En attendant, les collaborateurs trouvent leurs propres solutions. C'est rationnel — et prévisible.
2
L'outil officiel est moins bon que le LLM public
Si le copilote interne approuvé produit des résultats moins bons que GPT-4, les collaborateurs basculent vers le meilleur outil — même s'il est interdit. La qualité doit être au rendez-vous.
3
Personne ne leur a expliqué les risques
Ce module existe précisément pour cette raison. Sans sensibilisation, le collaborateur ne peut pas peser les risques qu'il prend — pour lui et pour l'organisation.
4
La politique IA n'est pas communiquée ni accessible
Si la politique IA existe mais que personne ne la connaît ou ne peut y accéder facilement, elle ne sert à rien. La gouvernance doit être visible et compréhensible.
Définition
Shadow AI
Utilisation d'outils d'IA générative en dehors du cadre approuvé par l'organisation — sans validation DSI, sans accord de traitement des données, sans respect de la politique IA. Le Shadow AI n'est pas nécessairement malveillant : il est souvent le symptôme d'un besoin légitime mal adressé par l'organisation.
ORBii.Academy · M5 · GenAI Responsable · Prompting, Risques & Bonnes PratiquesConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202602
Contenu protégé
Vous avez consulté l'aperçu de ce module (2 premières pages).
Pour accéder au contenu complet, entrez votre code d'accès ou demandez un accès.
6 pages restantes
Lien personnel · Valide 24h