Module Formation · Secteur Bancaire · 2026
Chapitre — Fondements

L'Importance Vitale
de la Gouvernance Data

Pourquoi la gouvernance des données n'est plus une option. Le Data Lineage comme exigence réglementaire incontournable. Et ce que l'IA Générative et les agents autonomes changent — radicalement — aux enjeux de la donnée.

Partie I
Enjeux réglementaires
& Data Lineage
Partie II
GenAI & IA Agentique
Gouvernance vitale
Partie III
Failles, exemples
& signaux d'alerte
Formateur
Pejman Gohari · CDO · Chief AI Officer · ORBii
Audience
Data Owners · CDO · DSI · Conformité · Management · IT
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202601
Importance Gouvernance Data · 02
Introduction

La donnée mal gouvernée : le risque silencieux qui devient systémique

« Sans gouvernance des données, l'IA Générative n'est qu'une machine à amplifier vos erreurs à grande vitesse. Une donnée fausse dans un LLM produit une décision fausse — mais avec l'apparence de la confiance. »
— Pejman Gohari · CDO · Chief AI Officer · ORBii

Ce que la gouvernance des données protège réellement

La gouvernance des données n'est pas un projet IT. C'est le système immunitaire de l'organisation face à trois types de risques qui se sont accélérés simultanément.

Risque réglementaire

DORA, EU AI Act, RGPD, Bâle III exigent une traçabilité documentée des données. Sans Data Lineage, aucune entité financière ne peut démontrer sa conformité à un audit. Les sanctions atteignent 10M€ ou 2% du CA mondial (RGPD). DORA : jusqu'à 1% du CA journalier pour incident non signalé.

Risque IA

Un LLM entraîné ou alimenté avec des données mal qualifiées, non tracées ou non classifiées produit des résultats incorrects mais confiants. La confiance accordée à l'IA amplifie la propagation de l'erreur. En banque : décision de crédit biaisée, scoring frauduleux, reporting réglementaire erroné.

Risque opérationnel

Les agents IA autonomes agissent sur la donnée sans supervision humaine systématique. S'ils accèdent à des données non classifiées, partagent des données sensibles entre systèmes ou exécutent des actions sur des données incorrectes, l'impact peut être irréversible en quelques minutes.

Les 5 symptômes d'une gouvernance absente

Ces situations sont banales dans les organisations qui n'ont pas encore structuré leur gouvernance data. Chacune constitue un risque réel.

S1
« On ne sait pas d'où vient cette donnée »
Un chiffre dans un reporting réglementaire dont aucun collaborateur ne peut retracer l'origine avec certitude. Source système A ou B ? Transformée comment ? Par qui ?
→ Risque d'audit · Données non auditables · DORA non-conforme
S2
« Le même client a 3 ID différents dans 3 systèmes »
Absence de MDM (Master Data Management). Le LLM interprète 3 clients différents. Le modèle IA produit 3 scores différents pour la même personne.
→ Décisions IA incorrectes · Violation EU AI Act Art.13 (exactitude)
S3
« On n'a pas de liste des données sensibles »
Aucun inventaire des données personnelles, financières ou confidentielles. Un agent IA peut accéder à tout — et partager ces données avec un LLM externe (OpenAI, etc.).
→ Fuite de données · RGPD violation · Shadow AI critique
S4
« Le Data Owner ? C'est... la DSI non ? »
Aucun rôle de Data Owner défini. Personne ne valide la qualité ni l'exactitude des données. En cas d'incident, aucune responsabilité n'est établie.
→ Absence d'accountability · Aucun référentiel · Audit impossible
S5
« On utilise ChatGPT pour analyser ce fichier clients »
Shadow IA : un collaborateur envoie un export clients dans un LLM public faute d'outil interne sécurisé. La politique IA n'existe pas ou n'est pas connue.
→ Violation RGPD · Secret bancaire compromis · Exposition IP
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202602
Importance Gouvernance Data · 03
Partie I — Section 1

Le Data Lineage : définition, enjeux et obligations réglementaires

Définition opérationnelle
Data Lineage — Le lignage des données
Le Data Lineage est la capacité à tracer l'intégralité du parcours d'une donnée : sa source d'origine, les transformations qu'elle a subies, les systèmes qui l'ont utilisée, et les décisions ou reportings qu'elle a alimenté. C'est la réponse documentée à la question : "Cette donnée, d'où vient-elle, comment a-t-elle été transformée, et qui en est responsable ?"

Les composantes du Data Lineage

Lineage amont (Source)

D'où provient la donnée ? Quel système source ? Quelle date de collecte ? Quel contrat de données ? Quelle règle de collecte (RGPD, opt-in) ?

Lineage de transformation

Quelles règles de gestion ont transformé la donnée ? Quel ETL, quelle API, quel modèle de Machine Learning l'a modifiée ? Qui a validé ces transformations ?

Lineage d'usage

Quels reportings, quels modèles IA, quels tableaux de bord ont consommé cette donnée ? Quelles décisions en ont découlé ? Qui était responsable à chaque étape ?

Lineage aval (Impact)

Si cette donnée est modifiée ou supprimée, quels systèmes et quels reportings sont impactés ? Analyse d'impact essentielle pour la gestion du changement et des incidents.

Pourquoi c'est une exigence réglementaire — pas un choix

TexteObligation de traçabilitéSanction potentielle
DORA Traçabilité complète des données ICT critiques. Tout incident doit être reconstituable. Audit trail obligatoire sur les systèmes critiques. 1% CA journalier
EU AI Act Documentation technique des données d'entraînement. Traçabilité des décisions IA. Lignage des données pour systèmes haut risque (Art. 10, 11). 30M€ ou 6% CA
RGPD Registre des traitements. Traçabilité des transferts. Preuve de consentement. Délai de conservation par donnée documenté. 20M€ ou 4% CA
Bâle III
BCBS 239
Agrégation des données de risque traçable. Gouvernance des données financières. Capacité à reproduire un reporting en 24h en cas de crise. Capital add-on
NIS 2 Traçabilité des flux de données dans la chaîne de valeur numérique. Identification des données critiques dans la cartographie des risques. 10M€ ou 2% CA
📌
Cas pratique BCBS 239 : En 2025, plusieurs banques européennes ont reçu des recommandations de l'EBA suite à une incapacité à produire leurs données de risque agrégées dans le délai réglementaire de 24 heures. La cause principale : absence de Data Lineage sur les données de crédit et d'exposition.
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202603
Importance Gouvernance Data · 04
Partie I — Section 2

Data Lineage en pratique — Ce qui se passe sans lui

Scénario bancaire — Sans Data Lineage
Système CRM
Données clients
ETL non documenté
Règle de transformation inconnue
Data Warehouse
Données modifiées sans traçabilité
Modèle scoring IA
Entraîné sur données dégradées
Décision de crédit
Biaisée · Non explicable · Non auditée

⚠ Résultat : décision biaisée + violation EU AI Act Art.13 + impossibilité d'audit DORA + exposition RGPD

Le même scénario — Avec Data Lineage
Système CRM
Data Owner identifié · Classifié
ETL documenté
Règle versionnée · Traçabilité
Data Warehouse
Lignage complet · Qualité DQI
Modèle scoring IA
Données certifiées · Doc. technique
Décision de crédit
Explicable · Auditable · Conforme
🏦
Exemple 1 — Reporting COREP / FINREP
Une banque doit produire son reporting prudentiel COREP/FINREP à l'EBA. Sans Data Lineage, elle ne peut pas démontrer que les chiffres de RWA (Risk-Weighted Assets) sont calculés à partir de données vérifiées et traçables. L'auditeur externe ne valide pas le reporting.
→ Leçon : Le Data Lineage est le passeport du chiffre réglementaire.
📊
Exemple 2 — Modèle ML de scoring
Un modèle de scoring crédit est contesté par un client refusé. Le régulateur demande l'explication de la décision (EU AI Act Art.14). Sans Data Lineage, l'organisation ne peut pas retracer quelles données ont alimenté le modèle, ni démontrer leur qualité et leur représentativité.
→ Leçon : Pas de Lineage = pas d'explicabilité IA.
🔍
Exemple 3 — Incident RGPD
Une violation de données personnelles est détectée. Le DPO doit notifier la CNIL dans les 72h avec la liste des personnes impactées et les données exposées. Sans Data Lineage, impossible d'identifier précisément quelles données ont fuité vers quel système.
→ Leçon : Le Lineage transforme 72h de panique en réponse structurée.
🎯
La règle des 3 "Je ne sais pas" : Si dans une organisation, les réponses à ces 3 questions prennent plus de 30 minutes — "D'où vient ce chiffre ?", "Quels systèmes utilisent cette donnée ?", "Qui est responsable de cette donnée ?" — alors le Data Lineage n'est pas opérationnel. Et aucune conformité sérieuse n'est possible.
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202604
Importance Gouvernance Data · 05
Partie II — Section 1

L'IA Générative change tout — pourquoi la donnée devient encore plus critique

« Avec l'IA Générative, une mauvaise donnée ne produit plus une mauvaise ligne dans un tableau Excel. Elle produit un document entier, un email à un client, une décision de crédit — avec l'apparence de la certitude. »
— Pejman Gohari · CDO · Chief AI Officer · ORBii

Ce que l'IA Générative transforme dans la chaîne data

Amplification des erreurs

Un LLM ne filtre pas les données erronées — il les utilise et les présente avec confiance. Une donnée client incorrecte dans un RAG (Retrieval Augmented Generation) produit une réponse incorrecte à grande échelle, pour des milliers d'interactions simultanées.

Perte de traçabilité native

Un LLM ne cite pas naturellement ses sources. Il synthétise, reformule, mélange. Sans Data Lineage documenté dans le système RAG, la réponse générée est intraçable — violation directe des exigences DORA et EU AI Act sur l'auditabilité.

Contamination croisée des données

Un LLM partagé entre plusieurs départements sans cloisonnement des données peut "mélanger" des informations de niveaux de classification différents — données publiques avec données confidentielles, données d'un client avec celles d'un autre.

Hallucination sur données métier

Un LLM peut inventer des références, des règlements, des chiffres — même dans un système RAG si les chunks de données sont mal structurés, outdatés ou non validés. En banque : une réponse hallucinée sur les conditions d'un prêt engage la responsabilité de l'établissement.

Les 4 conditions d'une GenAI bancaire sécurisée

Sans ces conditions, aucun déploiement de LLM en production n'est raisonnable dans un environnement réglementé.

1
Données classifiées avant ingestion

Chaque source de données injectée dans un LLM ou un système RAG doit être classifiée (public, interne, confidentiel, secret). Le LLM ne peut accéder qu'aux données auxquelles l'utilisateur est autorisé — pas plus.

2
Qualité des données RAG validée

Les documents et données injectés dans le système RAG doivent être à jour, validés par le Data Owner, et leur fraîcheur contrôlée. Un document obsolète dans la base de connaissances produit une réponse obsolète — présentée comme actuelle.

3
Audit trail de chaque interaction

Chaque prompt, chaque réponse, chaque source citée doit être loggée. Qui a posé la question ? Quelles données ont été utilisées pour générer la réponse ? À quelle heure ? (Obligation DORA & EU AI Act pour systèmes haut risque)

4
Politique d'usage IA formalisée

Quelles données peut-on soumettre à quel LLM ? Qu'est-ce qui est interdit ? (données clients, IBAN, scoring, données médicales) La politique doit être connue de tous les utilisateurs — pas seulement de la DSI.

ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202605
Importance Gouvernance Data · 06
Partie II — Section 2

L'IA Agentique — quand les agents autonomes agissent sur vos données

Définition — IA Agentique
Un agent IA est un système qui perçoit, décide et agit de façon autonome
Contrairement à un LLM classique (qui répond à un prompt), un agent IA exécute des actions : il lit, écrit, modifie des données, appelle des APIs, envoie des emails, déclenche des workflows — sans validation humaine à chaque étape. En 2025, les agents peuvent déléguer des tâches à d'autres agents (multi-agent). La gouvernance des données devient alors un enjeu de contrôle des accès en temps réel.

Pourquoi la gouvernance data est vitale pour l'IA agentique

🔴
Risque critique n°1 — Accès incontrôlé
Un agent IA sans classification des données accède à tout ce qu'il peut atteindre techniquement. Si les droits d'accès ne sont pas finement définis sur les données (et pas seulement sur les applications), l'agent peut lire des données clients, des données financières confidentielles ou des données RH sans que personne ne l'ait autorisé explicitement.
🔴
Risque critique n°2 — Actions irréversibles sur données incorrectes
Un agent qui exécute une action (envoi d'email, mise à jour d'un système, validation d'un workflow) sur la base de données mal qualifiées produit une erreur métier — souvent irréversible. Sans Data Lineage, impossible de savoir d'où vient la donnée erronée qui a déclenché l'action.
⚠️
Risque n°3 — Pas d'audit trail sur les actions agents
Qui a fait quoi ? Si un agent IA a modifié un enregistrement client, envoyé une alerte réglementaire ou déclenché un virement — et que cet acte n'est pas loggé, nominativement tracé et lié à la donnée utilisée — l'organisation ne peut pas répondre à un audit DORA ou NIS 2.
🤖
Risque n°4 — Propagation entre agents (multi-agent)
Un agent A transmet une donnée erronée à un agent B qui la transmet à un agent C. Sans Data Lineage dans la chaîne agentique, la source de l'erreur est impossible à identifier. La contamination des données est exponentielle dans un écosystème multi-agents.

Ce que la gouvernance data doit couvrir pour les agents IA

ExigenceSans gouvernance dataAvec gouvernance data
Identité de l'agent Aucune identité — accès anonyme OIDC-A / OAuth2 — identité traçable comme un humain
Périmètre des données Accès total — périmètre inconnu Read-only sur données classifiées autorisées
Audit trail Aucun log — actions invisibles Log centralisé — chaque action tracée avec timestamp
Données sensibles Pas de filtre — PII exposé DLP actif — masquage automatique des données sensibles
Qualité des données Non contrôlée — décisions sur données brutes DQI validé avant injection dans l'agent
Escalade humaine Aucune — autonomie totale Human-in-the-loop pour actions irréversibles
Principe clé — Agent Policy V1

Tout déploiement d'agent IA doit s'appuyer sur une politique agents formalisée qui définit : quelles données l'agent peut lire (jamais écrire sans validation), quelles APIs il peut appeler, quel périmètre d'action est autorisé, et comment chaque action est loggée. Cette politique est une extension directe de la politique de gouvernance des données.

ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202606
Importance Gouvernance Data · 07
Partie III — Failles & Sensibilisation

Les failles les plus fréquentes — Ce qui arrive vraiment

Ces failles ne sont pas théoriques. Elles ont été observées en mission dans des organisations bancaires et financières françaises et européennes entre 2020 et 2025. Les noms sont anonymisés.

🏦
FAILLE 01
Le reporting réglementaire "vieilli"
Situation : Une banque régionale produit son reporting COREP à partir d'un fichier Excel "consolidé" maintenu manuellement depuis 2019. Personne n'a documenté les transformations. En 2024, l'auditeur externe demande la preuve du calcul des RWA : impossible à fournir en moins de 3 semaines.
→ Résultat : ajournement du rapport annuel · recommandation EBA · surcoût audit 180K€
🤖
FAILLE 02
Le LLM nourri avec des données publiques ET confidentielles
Situation : Une équipe IT déploie un assistant GenAI interne en connectant le LLM à SharePoint sans classification préalable des documents. Le LLM accède et synthétise des documents RH, des notes de direction et des données clients dans une même réponse accessible à tous les collaborateurs.
→ Résultat : violation RGPD · incident de sécurité · arrêt immédiat du projet · communication DPO/CNIL
📊
FAILLE 03
Le modèle IA entraîné sur des données biaisées
Situation : Un modèle de scoring crédit entraîné sur 10 ans de données historiques reproduit les biais d'octroi passés (sous-représentation de certains profils). Après déploiement, le taux de refus est significativement plus élevé pour certaines zones géographiques. La cause : données d'entraînement jamais auditées pour biais.
→ Résultat : plainte Association Consommateurs · risque EU AI Act Art.10 · retraitement du modèle (6 mois)
🔗
FAILLE 04
L'agent IA qui "déborde" de son périmètre
Situation : Un agent IA déployé pour automatiser la génération de comptes rendus clients a accès en lecture au CRM. Lors d'un test de charge, l'agent accède à des données clients d'autres conseillers et génère des synthèses contenant des informations confidentielles d'autres portefeuilles. L'identité de l'agent n'était pas nominalement tracée.
→ Résultat : violation secret bancaire · rollback urgent · refonte du modèle IAM agents · délai 4 mois
💬
FAILLE 05
Le "Shadow AI" incontrôlé
Situation : Faute d'outil IA interne approuvé, plusieurs équipes commerciales utilisent ChatGPT (version gratuite) pour analyser des tableaux clients exportés depuis le CRM — incluant noms, revenus, positions financières. L'entreprise découvre cette pratique lors d'un audit DORA 18 mois plus tard.
→ Résultat : exposition PII chez OpenAI sans DPA · violation RGPD Art.46 · programme d'acculturation d'urgence
📁
FAILLE 06
La base de connaissances RAG non maintenue
Situation : Un chatbot interne "assistant conformité" est alimenté par des circulaires réglementaires ingérées en 2023. En 2025, DORA entre en vigueur. Le chatbot répond toujours sur la base de l'ancien cadre réglementaire. Les équipes qui lui font confiance sont en risque de non-conformité.
→ Résultat : décisions de conformité erronées · détection tardive par l'audit interne · rework massif
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202607
Importance Gouvernance Data · 08
Partie III — Signaux d'alerte & Pistes d'action

Les 12 signaux d'alerte d'une gouvernance data défaillante

Signaux organisationnels

  • Aucun Data Owner identifié par domaine de données
  • La DSI est "responsable" des données par défaut (mauvaise pratique)
  • Aucun comité de gouvernance data ne s'est réuni depuis >6 mois
  • Le CDO (s'il existe) ne fait pas partie du COMEX ou ne rapporte pas au DG
  • Aucune charte de données connue et signée par les collaborateurs
  • Les nouveaux projets démarrent sans intégrer le dictionnaire des données

Signaux techniques

  • Pas de dictionnaire des données à jour et partagé entre DSI et métiers
  • Aucun Data Lineage documenté sur les reportings réglementaires clés
  • Des données existent en doublon dans plus de 2 systèmes sans MDM
  • Aucun DQI (indicateur de qualité des données) mesuré régulièrement
  • Pas d'inventaire des systèmes IA et de leurs sources de données
  • Les agents IA en test/prod n'ont pas d'identité nominale traçable

Les 5 pistes d'action prioritaires

PISTE 1 · Quick Win
Nommer les Data Owners maintenant

Désigner formellement 1 Data Owner par domaine métier critique (clients, crédit, risque, compliance). Formaliser dans les fiches de poste. Commencer par les domaines couverts par Bâle III et EU AI Act.

PISTE 2 · Fondation
Cartographier les données critiques et les classer

Identifier les "données clés" conjointement DSI + métiers. Les classer (public / interne / confidentiel / réglementé). Sans cette classification, aucun contrôle d'accès ni gouvernance IA n'est possible.

PISTE 3 · Priorité IA
Tracer le Data Lineage des reportings réglementaires

Commencer par les reportings COREP/FINREP et les modèles IA haut risque. Documenter la chaîne source → transformation → usage. C'est la priorité absolue pour DORA et Bâle III BCBS 239.

PISTE 4 · Urgence IA
Publier et diffuser la politique IA et usage des données

Rédiger une politique claire : quelles données peuvent être soumises à quel LLM, quels usages sont interdits, comment signaler un incident IA. La publier, la former, la signer. Stopper le Shadow AI par l'acculturation, pas uniquement par le blocage technique.

PISTE 5 · Industrialisation
Définir la gouvernance des agents IA avant déploiement

Pour tout agent IA : définir son identité (OIDC-A), son périmètre de données (read-only, classifié), son audit trail, et les conditions d'escalade humaine. Aucun agent ne doit accéder à des données sans que ce périmètre soit validé par le Data Owner concerné.

ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202608
Importance Gouvernance Data · 09
Synthèse visuelle

Gouvernance Data & IA — La matrice des risques

Situation Sans gouvernance data Avec gouvernance data Texte applicable Risque
Reporting réglementaire Chiffres non traçables · Excel manuel · Audit impossible Data Lineage documenté · Reproductible en <24h · Auditable DORA Bâle III Critique
Modèle IA / scoring Données d'entraînement non auditées · Biais non détectés · Non explicable Données certifiées · DQI validé · Documentation technique · Explicabilité EU AI Act Critique
LLM / RAG interne Données non classifiées · Contamination croisée · Hallucination Données classifiées · Contrôle d'accès · Fraîcheur vérifiée · Audit trail RGPD DORA Critique
Agent IA autonome Accès incontrôlé · Pas d'identité · Pas d'audit trail · Actions irréversibles Identité OIDC-A · Périmètre read-only · Logging complet · Human-in-the-loop DORA NIS 2 Critique
Shadow IA ChatGPT sur données clients · Pas de DPA · Exposition PII Politique IA diffusée · Outils approuvés disponibles · Acculturation RGPD Élevé
Violation de données Impossible d'identifier les données exposées en 72h Data Lineage → identification immédiate → notification CNIL structurée RGPD Élevé
La règle d'or — Gouvernance Data & IA
🗂️
Classifier avant d'utiliser

Toute donnée doit être classifiée avant d'être injectée dans un LLM, un agent ou un reporting réglementaire. Pas de classification = pas de contrôle.

🔗
Tracer avant de décider

Toute décision basée sur de la donnée — humaine ou IA — doit s'appuyer sur un lineage documenté. Pas de traçabilité = pas d'auditabilité = pas de conformité.

👁️
Superviser avant d'automatiser

Aucun agent IA ne devrait agir sur des données critiques sans supervision humaine définie. L'automatisation sans gouvernance est la principale source de risque systémique en 2026.

ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202609
Importance Gouvernance Data · 10
Ce qu'il faut retenir

La gouvernance des données : le seul socle qui rend l'IA fiable et conforme.

PARTIE I · Data Lineage

Le Data Lineage n'est pas une option technique. C'est une obligation réglementaire documentée dans DORA, EU AI Act, RGPD et Bâle III BCBS 239. Sans lui : aucun reporting n'est auditable, aucune décision IA n'est explicable, aucun incident n'est gérable en temps contraint.

PARTIE II · GenAI & Agents

L'IA Générative et les agents autonomes ne créent pas un besoin nouveau de gouvernance — ils rendent critique ce qui était seulement important. La mauvaise qualité des données, amplifiée par un LLM, se propage à la vitesse de l'IA. La gouvernance data est le seul frein efficace.

PARTIE III · Failles & Signaux

Les 6 failles présentées — reporting non traçable, LLM sans classification, biais de modèle, agent sans identité, Shadow AI, RAG obsolète — sont des situations réelles, documentées, récentes. Elles montrent que le risque n'est pas futur. Il est présent.

ACTION IMMÉDIATE

Les 5 pistes d'action — nommer les Data Owners, cartographier & classer, tracer le lineage réglementaire, publier la politique IA, gouverner les agents — sont actionnables sans attendre un projet de transformation de 18 mois.

« La question n'est plus "faut-il gouverner les données ?". Elle est "combien de temps peut-on encore se permettre de ne pas le faire ?" En 2026, avec DORA, EU AI Act et les agents IA en production, la réponse est : plus longtemps. »
— Pejman Gohari · CDO · Chief AI Officer · ORBii · Formateur IESEG Business School
ORBii.Academy
academy.orbii.tech · pejman.gohari@orbii.tech
229 rue Saint-Honoré · 75001 Paris
Pejman Gohari · CDO · Chief AI Officer
ORBii.Academy · L'Importance Vitale de la Gouvernance DataConfidentiel Copyright @ORBii SAS. Contact info@orbii.tech · 202610