Main 2
Main 2
Projet :
Encadré par :
Réalisé par :
ABDERRAHMANE DAIF (académique)
SAAD LAKNIN Abdellaoui Oualid (professionnel)
SAAD LAKNIN
Remerciements
Je tiens à exprimer ma profonde gratitude à toutes les personnes qui ont contribué, de près ou de
loin, à la réalisation de ce travail.
Je tiens également à remercier M. Abdellaoui Oualid, qui m’a accueilli(e) au sein de l’entreprise
BITBOT et m’a guidé(e) avec rigueur et bienveillance durant ce stage.
Je remercie toute l’équipe de DATA et BI, pour leur accueil chaleureux, leur esprit de collabora‑
tion, et les échanges enrichissants qui ont grandement contribué à ma progression.
Enfin, je souhaite exprimer ma reconnaissance à ma famille et à mes proches, pour leur soutien
moral constant et leurs encouragements tout au long de mon parcours universitaire.
SAAD LAKNIN
Résumé
Ce travail s’inscrit dans le cadre de la mise en place d’une solution de Business Intelligence
dédiée au secteur de la formation professionnelle au Maroc. Le projet a consisté à concevoir et
déployer une architecture décisionnelle complète comprenant une zone de staging, un Data Wa‑
rehouse, des datamarts ainsi que des cubes OLAP. Des processus ETL ont été développés pour
assurer l’intégration, la transformation et l’historisation des données, permettant de produire des
indicateurs fiables et pertinents. Les résultats sont restitués sous forme de tableaux de bord inter‑
actifs réalisés avec Power BI Report Server, organisés autour de deux axes principaux : la partici‑
pation aux établissements de formation professionnelle (Catégorie 2) et l’offre de formation professionnelle
(Catégorie 3). Ce projet démontre l’apport stratégique de la BI dans l’amélioration du pilotage, de
l’analyse et de la prise de décision dans le domaine de la formation professionnelle.
Mots‑clés :
Business Intelligence, Data Warehouse, ETL, OLAP, Power BI, Formation Professionnelle, Tableaux
de bord, SSIS, SSAS, Indicateurs de performance.
Abstract
This work is part of the implementation of a Business Intelligence solution dedicated to the
vocational training sector in Morocco. The project consisted in designing and deploying a com‑
plete decision‑making architecture including a staging area, a Data Warehouse, datamarts, and
OLAP cubes. ETL processes were developed to ensure the integration, transformation, and histo‑
rization of data, enabling the production of reliable and relevant indicators. The results are pre‑
sented through interactive dashboards built with Power BI Report Server, organized around two
main axes : participation in vocational training institutions (Category 2) and the offer of vocational trai‑
ning programs (Category 3). This project highlights the strategic contribution of BI in improving
decision‑making, monitoring, and analysis in the field of vocational training.
Keywords : Business Intelligence, Data Warehouse, ETL, OLAP, Power BI, Vocational Training, Dash‑
boards, SSIS, SSAS, Performance Indicators.
Liste des abréviations
Abréviation Signification
BI Business Intelligence
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Organisme d’accueil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Présentation de Startup BITBOT . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Organisation et Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.1 Organigramme de L’entreprise BITBOT . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Partenaires institutionnels et privés . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3 Collaborations et projets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Étude du besoin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1 Identification des besoins métiers et techniques . . . . . . . . . . . . . . . . . . 29
4.2 Analyse des processus existants . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Situation actuelle vs situation cible . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6 Contraintes techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1 Accès à une base externe Oracle . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2 Mise en place de processus ETL . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.3 Utilisation de cubes analytiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.4 Performance et sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7 Contraintes organisationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
10 Planification du projet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2 Business Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.1 Définition et concepts clés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2 Objectifs et enjeux de la BI dans les organisations . . . . . . . . . . . . . . . . . 42
2.3 Évolution de la BI : des rapports statiques vers l’analytique avancée . . . . . . 43
2.4 Comparaison entre systèmes décisionnels et systèmes opérationnels . . . . . . 43
5 Travaux connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1 Articles scientifiques et études de cas . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Comparaison entre les résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
2.8 GitHub . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.9 Microsoft Teams . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.10 Langages SQL et MDX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Robots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1 OFFPT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 ETL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.11 cube . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5 Diagramme de séquence du processus ETL vers les Datamarts et les Cubes OLAP . 70
4.8 Diagramme d’activité — Flux de chargement du Staging vers le Data Warehouse (3NF) 73
5.12 Flux SSIS de chargement des données de la table CANDIDAT Flux de Controle . . . . 89
5.17 Flux SSIS de chargement des données vers la table CANDIDAT DWH . . . . . . . . . 92
5.18 Flux SSIS de chargement des données vers la table PROGRAMME VALIDATION REQUEST
DWH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.19 Flux SSIS de chargement des données vers la table PROVINCE DWH . . . . . . . . . 93
5.20 Flux SSIS de chargement des données vers la table FILIÈRE DWH . . . . . . . . . . 93
5.28 Dashboard Catégorie 2 – Version avec filtres dynamiques (année, région) . . . . . . 100
5.31 Dossier déployé sur Power BI Report Server – Catégorie 2 (Accès et Participation
aux EFP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.32 Dossier déployé sur Power BI Report Server – Catégorie 3 (Offre de Formation Pro‑
fessionnelle) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2.2 Comparaison entre la situation actuelle et la situation cible avec une solution BI . . 32
INTRODUCTION GÉNÉRALE
« Data is useless without the ability to turn it into information and insight. » — Carly Fiorina
Aujourd’hui, dans un monde où la donnée est devenue un atout stratégique, les organisa‑
tions cherchent à mieux comprendre, analyser et exploiter l’information dont elles disposent pour
prendre des décisions éclairées. La Business Intelligence s’inscrit pleinement dans cette logique :
elle réunit un ensemble d’outils, de méthodes et de bonnes pratiques qui transforment de simples
données brutes en connaissances exploitables.
Dans le secteur de la formation professionnelle au Maroc, cette capacité d’analyse est parti‑
culièrement importante. Disposer d’indicateurs fiables et actualisés permet non seulement d’éva‑
luer l’efficacité des programmes de formation, mais aussi d’anticiper les besoins en compétences,
d’orienter les choix pédagogiques et de mieux répartir les ressources disponibles. Pourtant, dans
la réalité, les données proviennent souvent de systèmes différents, sont fragmentées et parfois
difficiles à exploiter directement.
C’est dans ce contexte que s’inscrit notre projet. Nous avons choisi de mettre en place une
solution décisionnelle basée sur un Data Warehouse, afin de centraliser, organiser et structurer
ces données. Cette architecture permet ensuite de construire des cubes OLAP, offrant une analyse
multidimensionnelle et une exploration flexible des informations. Combinée à des tableaux de
bord interactifs, elle ouvre la voie à un suivi précis des KPI : nombre d’inscrits, taux de réussite,
répartition par région, popularité des filières, etc.
Ce rapport décrit et illustre pas à pas la réalisation de cette solution : depuis l’analyse des
besoins et la conception du modèle de données, jusqu’à l’intégration via les processus ETL, la
création des cubes et la visualisation des résultats. Il met en lumière les choix techniques effec‑
tués, les défis rencontrés, ainsi que la valeur ajoutée apportée par la BI au service de la formation
professionnelle au Maroc.
Chapitre 1 :
Présentation de l’organisme d’accueil
1 Introduction
Le succès d’un projet de stage repose en grande partie sur la compréhension du cadre dans le‑
quel il s’inscrit. Ainsi, avant de présenter le travail réalisé, il est essentiel de découvrir l’organisme
d’accueil, son environnement, ses domaines d’expertise ainsi que son organisation interne.
Ce chapitre est consacré à la présentation de la startup Bitbot, une entreprise innovante spéciali‑
sée dans la robotique, l’intelligence artificielle , l’Internet des objets et le Big Data. Après un aperçu
général de la société et de ses activités, nous mettrons en lumière ses principaux domaines d’exper‑
tise, ses services, ainsi que son organisation interne. Nous évoquerons également ses partenariats
stratégiques et ses projets phares, qui illustrent son rôle actif dans l’écosystème technologique.
Cette présentation permettra de mieux comprendre le contexte professionnel dans lequel s’est
déroulé mon stage et servira de base pour appréhender les enjeux du projet de Business Intelli‑
gence qui sera exposé dans les chapitres suivants.
2 Organisme d’accueil
Bitbot est une startup innovante, créée en 2012 et implantée au Casablanca Technopark. Spé‑
cialisée dans les technologies de pointe, elle intervient dans des domaines tels que la robotique,
l’intelligence artificielle (IA), l’Internet des objets (IoT) et le Big Data. Elle conçoit et développe des
solutions créatives et performantes, allant des robots éducatifs interactifs aux systèmes intelligents
capables de collecter, analyser et exploiter les données pour faciliter la prise de décision. L’entre‑
prise se distingue par son approche centrée sur l’innovation et la qualité, combinant recherche et
développement, applications pratiques et technologies émergentes. Bitbot vise à répondre aux be‑
soins croissants en automatisation, connectivité et transformation numérique, tout en favorisant
l’apprentissage, l’expérimentation et la valorisation des données à travers des solutions adaptées
aux différents secteurs industriels et éducatifs.
3.1 Robotics
La startup conçoit des robots académiques destinés à l’apprentissage, à l’expérimentation et à
la formation. Ces robots offrent une approche interactive et pratique permettant aux utilisateurs
de découvrir la programmation, l’électronique et l’intelligence artificielle de manière ludique et
pédagogique.
4 Organisation et Structure
• Service Data & Intelligence Artificielle (IA) — Ce service se concentre sur l’exploitation des
données, l’analyse avancée, le machine learning et le développement de solutions d’intelli‑
gence artificielle. Il permet à l’entreprise de prendre des décisions basées sur les données et
de proposer des produits intelligents et adaptés aux utilisateurs.C’est au sein de ce service
que j’ai effectué mon stage, ce qui m’a permis de participer à l’analyse des données et à la
création de tableaux de bord BI.
Cette organisation permet une coordination efficace entre les différents pôles afin de mener à
bien les projets de l’entreprise.
• Oracle : cette coopération aide l’entreprise à gérer et exploiter efficacement de grandes quan‑
tités de données, renforçant ses capacités analytiques et facilitant la prise de décision basée
sur les données.
• Partenariats IoT : l’entreprise s’appuie sur des experts et freelances spécialisés en électro‑
nique embarquée et IoT pour concevoir et intégrer des prototypes technologiques adaptés
aux besoins spécifiques de chaque projet, garantissant innovation et fiabilité.
(c) Oracle
• réalise les schémas et le routage PCB avec des outils comme KiCad ou Altium ;
• développe et intègre des modules IoT utilisant Zigbee, LoRa, Wi‑Fi, BLE ou MQTT ;
• prototype, teste et documente l’ensemble des solutions pour assurer leur performance et leur
fiabilité.
En parallèle, l’entreprise investit également dans des projets à forte valeur ajoutée dans diffé‑
rents domaines :
Développement Web
Conception et réalisation d’applications web modernes basées sur les frameworks .NET et An‑
gular, garantissant des solutions robustes, évolutives et centrées sur l’expérience utilisateur.
5 Conclusion
En conclusion, la découverte de l’organisme d’accueil a permis d’aller au‑delà d’une simple
présentation descriptive pour comprendre la logique qui anime Bitbot : une structure jeune, tour‑
née vers l’innovation, qui investit dans des technologies de rupture et s’appuie sur une organisa‑
tion interne agile. Cette analyse met en évidence non seulement ses atouts stratégiques et techno‑
logiques, mais aussi l’environnement stimulant dans lequel le stage a été réalisé. Elle offre ainsi
une lecture globale du cadre professionnel et constitue une transition naturelle vers l’étude du
contexte du projet de Business Intelligence développé par la suite.
Chapitre 2 :
Contexte général du projet et cahier des
charges
1 Introduction
L’objectif de ce chapitre est de présenter le contexte général du projet ainsi que le cahier des
charges qui en découle. Après avoir introduit la problématique et les motivations qui ont conduit
à la mise en place d’une solution de Business Intelligence pour le secteur de la formation profes‑
sionnelle au Maroc, nous exposerons les objectifs poursuivis ainsi que les enjeux liés à ce projet.
Par ailleurs, une attention particulière sera accordée à la présentation du secteur de la formation
professionnelle, en mettant en avant son importance stratégique pour l’économie marocaine et les
défis auxquels il fait face. Enfin, nous procéderons à l’analyse des besoins, à l’identification des
contraintes et à la formulation du cahier des charges fonctionnel et technique qui serviront de
base pour la conception et la réalisation de la solution proposée.
• Répondre aux besoins en main‑d’œuvre qualifiée des entreprises et des secteurs porteurs.
Ainsi, les EFP ne se limitent pas à dispenser des cours, mais s’inscrivent dans une logique
globale de développement du capital humain.
• Les EFP privés : en pleine croissance, ils complètent l’offre publique et proposent des for‑
mations adaptées, notamment dans les domaines du management, de l’informatique et des
services.
• Les centres de formation par apprentissage (CFA) : qui favorisent l’alternance entre la for‑
mation en établissement et l’expérience en entreprise, renforçant ainsi l’employabilité des
jeunes.
• Niveau spécialisation : destiné aux jeunes ayant un niveau d’études inférieur au collège, il
vise l’acquisition de compétences de base dans un métier précis.
• Niveau qualification : ouvert aux candidats ayant au minimum le niveau de la 9ème année
du collège, il prépare à des postes d’ouvriers qualifiés.
• Niveau technicien : accessible aux élèves ayant un niveau de 2ème année du lycée, il prépare
à des postes intermédiaires.
• Niveau technicien spécialisé : réservé aux bacheliers, il forme des profils capables d’occuper
des postes de responsabilité technique et de supervision.
Les filières de formation proposées sont variées et couvrent plusieurs secteurs : industrie, bâtiment
et travaux publics, hôtellerie‑tourisme, gestion‑commerce, santé, technologies de l’information et
communication, artisanat, etc. Cette diversité témoigne de la volonté d’adapter l’offre de formation
aux besoins changeants du marché du travail.
Ministère de l’Inclusion Définit les politiques nationales, fixe les objectifs stratégiques, co‑
Économique, de la Petite ordonne les différents acteurs et veille à l’adéquation des forma‑
Entreprise, de l’Emploi et tions avec les besoins du marché.
des Compétences
formations pratiques et des stages en entreprise, qui facilitent l’acquisition de compétences opé‑
rationnelles. Il implique également une veille constante sur l’évolution du marché du travail afin
d’adapter l’offre de formation aux secteurs les plus porteurs de l’économie nationale.
Enfin, l’adéquation formation/emploi demeure un défi central. L’alignement des programmes
de formation sur les compétences effectivement demandées par les entreprises est indispensable
pour répondre aux attentes du marché. Dans ce sens, les partenariats entre l’EFP et le secteur privé
permettent de co‑construire des cursus plus pertinents et mieux adaptés aux réalités profession‑
nelles. La promotion de filières techniques et stratégiques pour le développement économique,
ainsi que l’évaluation régulière de l’impact des formations sur l’insertion professionnelle, sont
également des enjeux majeurs.
de fournir aux acteurs concernés des indicateurs fiables et pertinents, facilitant ainsi l’analyse de
l’activité, l’optimisation des processus et l’anticipation des besoins stratégiques.
Sur le plan technique, le projet vise la mise en œuvre d’une architecture décisionnelle fiable et
performante. Cela comprend l’utilisation d’outils adaptés pour l’intégration et le traitement des
données, la conception d’un entrepôt de données structuré ainsi que la réalisation de rapports et
de tableaux de bord interactifs. L’enjeu est de garantir la qualité, la sécurité et l’évolutivité de la
solution tout en assurant une exploitation optimale des données disponibles.
Cette articulation entre objectifs métiers et techniques confère au projet une portée à la fois opé‑
rationnelle et technologique, répondant aux besoins concrets des utilisateurs tout en s’appuyant
sur une infrastructure robuste et durable.
4 Étude du besoin
Besoins métiers
Le secteur de la formation professionnelle au Maroc occupe une place stratégique dans le dé‑
veloppement socio‑économique national, notamment dans le cadre de la vision Maroc Digital 2030
et du programme de modernisation de l’OFPPT (Office de la Formation Professionnelle et de la
Promotion du Travail). Pour accompagner cette dynamique, il est impératif de mettre en place une
solution de Business Intelligence (BI) capable de répondre à plusieurs besoins métiers.
Pilotage stratégique national Les décideurs au niveau central (ministères, directions générales)
ont besoin d’outils fiables pour analyser et comparer les performances des établissements, des
régions et des filières. La BI doit permettre de suivre des indicateurs nationaux tels que :
Suivi opérationnel des établissements Chaque directeur d’institut ou responsable régional doit
pouvoir visualiser en temps réel l’évolution des inscriptions, la répartition des stagiaires par filière,
le suivi des absences, ou encore la disponibilité des ressources pédagogiques (salles, ateliers, for‑
mateurs).
Aide à la prise de décision Les décisions actuelles reposent sur des rapports annuels statiques,
souvent publiés avec retard. Une plateforme BI doit offrir la possibilité d’analyser les données en
temps quasi‑réel et de simuler différents scénarios, par exemple anticiper les besoins en infrastruc‑
tures dans les filières numériques en forte croissance.
Stockage et modélisation La mise en place d’un Data Warehouse structuré (schéma en étoile)
permettra d’analyser les faits (inscriptions, examens, insertion) selon différentes dimensions (éta‑
blissement, région, filière, genre, année académique).
Visualisation et reporting L’outil choisi doit proposer des tableaux de bord interactifs (Power
BI, Tableau) avec filtres dynamiques.
Sécurité et gouvernance La solution doit assurer un accès différencié selon les rôles (adminis‑
trateur, responsable central, directeur régional, établissement), et respecter les lois marocaines
relatives à la protection des données.
Scalabilité et performance Le système doit être capable de traiter des millions d’enregistrements
couvrant plusieurs années historiques, avec des temps de réponse rapides.
• consolidation manuelle par les directions régionales puis envoi au siège central ;
Ces pratiques entraînent une perte de temps considérable, un risque élevé d’erreurs hu‑
maines et une faible capacité d’analyse en temps réel.
Processus de flux actuel
Le processus existant peut être résumé en quatre étapes :
Collecte des données Manuelle, fichiers Excel dispersés Automatisée via ETL
TAB. 2.2 : Comparaison entre la situation actuelle et la situation cible avec une solution BI
• Collecte automatique des données auprès des établissements de formation publics et privés.
• Connexion aux bases existantes (DFP, OFPPT, CNSS, HCP) afin d’éviter la double saisie.
• Import manuel possible via fichiers Excel ou CSV, notamment pour les données locales non
numérisées.
• Intégration de données sur les populations vulnérables (handicapés, migrants, réfugiés, dé‑
tenus).
• Calcul automatisé des principaux indicateurs définis par le SNIFOP : taux d’affluence, taux
de bacheliers, nombre de nouvelles filières créées, programmes développés selon l’APC, etc.
• Possibilité de ventiler les résultats par région, par sexe, par opérateur ou par niveau de for‑
mation.
Stockage et historisation
Une exigence clé réside dans la mise en place d’un stockage centralisé et sécurisé des données,
permettant un suivi dans le temps.
• Conservation des données historiques afin de mesurer les évolutions sur plusieurs années.
Restitution et visualisation
Les données doivent être restituées de façon claire, interactive et utile pour la prise de décision.
que l’utilisateur puisse naviguer, filtrer et consulter ses tableaux de bord sans subir de ralentisse‑
ments, et ce, même si la plateforme traite plusieurs centaines de milliers d’enregistrements.
Sécurité
La sécurité représente une exigence fondamentale dans la mesure où le système manipule des
données sensibles concernant les stagiaires, les établissements et les programmes de formation.
Un dispositif d’authentification forte doit être mis en place afin de limiter l’accès aux seules per‑
sonnes autorisées, et les informations doivent être protégées par des mécanismes de chiffrement
robustes. La gestion des droits doit être hiérarchisée selon les profils utilisateurs (administrateurs,
responsables d’établissements, décideurs), et un suivi des connexions doit être assuré pour ren‑
forcer la traçabilité.
Fiabilité
Un autre critère essentiel est la fiabilité. Le système doit rester disponible en permanence, avec
un taux de disponibilité supérieur à 99,5%. Des sauvegardes régulières et automatiques doivent
être effectuées afin d’éviter toute perte d’information, et un mécanisme de restauration rapide doit
permettre de remettre en service l’ensemble des données en moins de 24 heures en cas de panne.
Ces dispositions garantissent la continuité d’activité et renforcent la confiance des utilisateurs.
Interopérabilité
Le système doit également être interopérable, c’est‑à‑dire capable d’échanger et de communi‑
quer avec d’autres plateformes et bases de données nationales. Cette exigence est indispensable
pour éviter les redondances et favoriser la circulation de l’information entre les différentes institu‑
tions (DFP, CNSS, HCP, ANAPEC, etc.). L’utilisation de standards ouverts et d’API permettra de
garantir une intégration durable et évolutive avec les systèmes déjà en place et ceux qui pourraient
émerger à l’avenir.
Ergonomie et accessibilité
L’ergonomie et l’accessibilité constituent des critères essentiels pour assurer une appropriation
large du système. L’interface doit rester simple, intuitive et personnalisable en fonction des pro‑
fils d’utilisateurs, afin que chacun puisse trouver rapidement l’information recherchée. Une na‑
vigation fluide, des filtres clairs et des tableaux de bord dynamiques doivent contribuer à rendre
l’expérience utilisateur agréable et efficace.
6 Contraintes techniques
Dans le cadre du projet, les données exploitées proviennent d’une base de données Oracle ex‑
terne. Le système ne pouvant pas agir directement sur cette source, il est indispensable de mettre
en place un dispositif adapté pour extraire, transformer et charger les données dans un entrepôt
dédié. Les contraintes techniques identifiées concernent donc principalement la gestion des flux
externes, la construction de processus ETL robustes et l’utilisation de cubes pour l’analyse multi‑
dimensionnelle.
7 Contraintes organisationnelles
Plusieurs contraintes organisationnelles ont marqué le déroulement du projet. Tout d’abord,
l’accès aux données issues de la base Oracle externe a nécessité des autorisations spécifiques et
une coordination avec les responsables techniques, ce qui a ralenti certaines étapes.
Ensuite, la disponibilité limitée des équipes internes a parfois retardé la validation des règles
ETL et la configuration des cubes analytiques. De plus, l’absence initiale d’une structure claire de
gestion de projet a compliqué la coordination, rendant nécessaires des points de suivi réguliers.
Enfin, la sensibilisation des utilisateurs aux nouveaux outils BI a représenté un défi : les ha‑
bitudes liées aux rapports statiques (Excel, PDF) ont engendré une certaine résistance au change‑
ment, nécessitant des actions de formation et d’accompagnement.
• Analyse des besoins : identification des attentes des utilisateurs, des contraintes techniques
et des objectifs du projet BI.
• Validation des KPI : confirmation que les indicateurs calculés sont conformes aux besoins
métiers et qu’ils reflètent fidèlement la réalité.
• Déploiement : mise en production du système BI, mise à disposition des utilisateurs finaux
et accompagnement au changement.
1. Analyse des besoins Identification des objectifs du projet, recueil des attentes des utilisa‑
teurs finaux, et définition des indicateurs de performance (KPI) à mettre en place.
2. Étude des sources de données Analyse de la base de données Oracle externe, compréhen‑
sion de la structure des tables, et identification des données pertinentes pour le reporting.
5. Construction des cubes analytiques Mise en place des cubes OLAP pour permettre l’analyse
multidimensionnelle, facilitant la navigation par région, programme, filière ou période.
7. Tests et validation Vérification de la cohérence des données, validation des règles de calcul
des KPI et contrôle de la performance des cubes et rapports générés.
10 Planification du projet
La planification du projet s’appuie sur un diagramme de Gantt (figure 2.7), qui illustre les diffé‑
rentes étapes prévues entre mars et juillet 2025. Chaque phase est définie de manière séquentielle
afin d’assurer la cohérence entre l’analyse des besoins, la mise en place technique et la livraison
finale.
Formation (Mars 2025) Durant le mois de mars, une phase de formation est prévue afin de se
familiariser avec les outils, les concepts de Business Intelligence et les environnements techniques
nécessaires à la réussite du projet.
Étude des besoins et KPIs (1er au 15 avril 2025) Cette étape vise à recueillir et analyser les
besoins métiers, identifier les utilisateurs finaux, et définir les indicateurs de performance (KPIs)
qui serviront de base au futur système de reporting.
Phase Staging (16 au 30 avril 2025) Le staging correspond à la préparation des données is‑
sues de la base Oracle externe. Il inclut l’extraction, la mise en correspondance des formats et la
préparation des flux pour faciliter l’intégration dans l’entrepôt de données.
Implémentation et conception du Data Warehouse (1er au 20 mai 2025) Durant cette phase,
l’entrepôt de données (Data Warehouse) est conçu et mis en place. Il s’agit de modéliser la structure
cible, organiser les schémas, et préparer le socle technique sur lequel reposeront les cubes et les
dashboards.
Développement des Datamarts (21 mai au 15 juin 2025) Cette étape consiste à développer les
datamarts thématiques, c’est‑à‑dire des vues spécialisées et optimisées pour l’analyse par départe‑
ment, filière ou axe métier. Cela permet d’offrir une granularité adaptée aux besoins décisionnels.
Création des cubes et mesures (16 au 30 juin 2025) Les cubes OLAP sont développés afin de
permettre des analyses multidimensionnelles (par région, période, programme, etc.). Des mesures
calculées sont également définies pour enrichir l’analyse et faciliter la navigation.
Développement des dashboards et testing (1er au 25 juillet 2025) Les tableaux de bord inter‑
actifs sont développés et testés. Cette étape inclut la création de rapports visuels, l’ajout de filtres
dynamiques et la validation de leur conformité par rapport aux besoins exprimés.
Déploiement (26 au 31 juillet 2025) Enfin, le système est déployé en production. Les dash‑
boards sont mis à disposition des utilisateurs finaux et une sensibilisation est assurée afin de ga‑
rantir leur appropriation.
11 Conclusion
En conclusion, le cahier des charges représente une étape fondamentale pour garantir la réus‑
site du projet. Il établit un cadre clair et partagé entre les parties prenantes, en traduisant les be‑
soins en objectifs concrets et en limitant les risques liés aux ambiguïtés. Véritable outil de pilotage,
il assure la cohérence des choix techniques et organisationnels et sert de référence tout au long du
cycle de vie du projet. Son importance réside dans sa capacité à orienter la conception, la mise
en œuvre et le déploiement de la solution BI, tout en garantissant l’alignement avec les attentes
définies au départ.
Chapitre 3 :
État de l’art et travaux connexes
1 Introduction
Dans le cadre de ce travail, il est essentiel de s’appuyer sur des fondements théoriques et
conceptuels afin de mieux comprendre les technologies et méthodes utilisées. L’état de l’art consti‑
tue ainsi une étape incontournable puisqu’il permet de présenter les notions de base, les approches
classiques et les travaux existants dans le domaine étudié.
Au sein des systèmes décisionnels modernes, la Business Intelligence occupe une place centrale
et constitue un levier stratégique pour les organisations. Elle permet de valoriser les données issues
de sources multiples et de les transformer en un support efficace pour la prise de décision. Cette
démarche repose sur une architecture robuste et organisée autour d’un entrepôt de données, qui
assure la consolidation et l’exploitation des informations.
Autour de cette architecture gravitent plusieurs concepts essentiels qui structurent l’environ‑
nement décisionnel. Les modèles de données, les tables de faits et de dimensions, les datamarts
spécialisés et les cubes analytiques multidimensionnels représentent autant de mécanismes qui
garantissent la pertinence et l’efficacité des analyses.
L’objectif de ce chapitre est donc de proposer une vue d’ensemble de ces éléments constitutifs
de la Business Intelligence et de l’entrepôt de données. Cette revue théorique servira de base de
référence pour situer notre démarche dans le prolongement des approches existantes et justifier
les choix méthodologiques adoptés dans ce rapport.
2 Business Intelligence
et actualisées, ce qui réduit les incertitudes et aide les organisations à évoluer dans des environ‑
nements hautement concurrentiels et instables [1].
Les enjeux associés à la BI dépassent la simple dimension technique. Elle renforce la réactivité
organisationnelle en permettant une identification plus rapide des opportunités et des menaces,
et favorise l’efficacité opérationnelle grâce à l’intégration et au traitement de données issues de
sources multiples. De plus, la BI constitue un levier stratégique pour accroître la compétitivité,
stimuler l’innovation et soutenir durablement la performance globale des organisations [2].
En définitive, la BI s’affirme non seulement comme une technologie de gestion de données,
mais aussi comme un instrument stratégique de gouvernance et de création de valeur pour les
entreprises modernes.
• les systèmes opérationnels (ou transactionnels), qui soutiennent les activités quotidiennes
de l’entreprise, comme la gestion des ventes, de la production ou des ressources humaines ;
• les systèmes décisionnels (ou systèmes de Business Intelligence), qui visent à fournir une
vision consolidée et analytique des données afin de faciliter la prise de décision stratégique.
La table 3.1 résume les principales différences entre ces deux types de systèmes.
Ainsi, les systèmes opérationnels assurent la bonne exécution des processus métier quotidiens,
tandis que les systèmes décisionnels exploitent l’historique des données pour orienter la stratégie,
optimiser les processus et renforcer l’avantage concurrentiel.
2. Phase de collecte et d’intégration des données : sélection des sources pertinentes (internes
et externes), extraction, nettoyage et transformation (processus ETL).
3. Phase de stockage et d’organisation : consolidation des données dans des entrepôts et da‑
tamarts, avec historisation et structuration pour les futures analyses.
4. Phase d’analyse et d’exploration : exploitation des données via l’OLAP, le data mining et
les modèles analytiques afin de dégager tendances et connaissances.
Définition générale. Les outils ETL sont des logiciels spécialisés permettant :
• l’extraction des données brutes issues de bases relationnelles, fichiers plats, flux ou systèmes
externes ;
Comme le rappellent Vassiliadis et al. [15], ces trois étapes constituent le cœur du processus d’in‑
tégration des données décisionnelles.
Phases du processus ETL. Le processus ETL s’organise autour de trois grandes étapes [15] :
1. Extraction : capture des données depuis les sources opérationnelles. Cette étape peut consis‑
ter en des extractions complètes (snapshots) ou différentielles.
2. Transformation et nettoyage : réalisée dans la Data Staging Area (DSA), elle comprend :
• le nettoyage des données (contrôle des valeurs nulles, détection des violations de clés
primaires/étrangères, cohérence des types),
• les conversions de formats et d’unités (par exemple, formats de date ou devises),
• l’harmonisation structurelle (normalisation, dénormalisation, projection),
• l’attribution de clés techniques (surrogate keys),
• les opérations analytiques (agrégations, jointures, détection de mises à jour).
3. Chargement : transfert des données transformées vers l’entrepôt, avec des contraintes de
performance (par exemple, la durée totale d’exécution inférieure à une fenêtre temporelle
fixée).
Avantages. Les principaux avantages d’un processus ETL bien modélisé sont [15] :
Caractéristiques d’un Data Warehouse. Selon la littérature, les principales caractéristiques d’un
DW peuvent être résumées comme suit [13] :
• Orienté sujet : les données sont organisées autour de thèmes métiers majeurs (ventes, clients,
produits, finances, etc.) plutôt que par processus opérationnels.
• Intégré : il rassemble des données issues de sources multiples en harmonisant les formats,
les unités de mesure, les conventions de nommage et les structures.
• Historisé : les données stockées sont conservées sur de longues périodes, permettant l’ana‑
lyse des tendances et l’évolution temporelle (time‑variant).
• Non volatile : une fois intégrées, les données ne sont pas modifiées ni supprimées, assurant
stabilité et cohérence pour l’analyse.
• Granularité multiple : le DW peut contenir différents niveaux de détail, allant des données
très fines aux données agrégées pour l’analyse stratégique.
Types d’architectures de Data Warehouse. Selon Rana [13], l’architecture d’un entrepôt de don‑
nées peut être organisée en trois niveaux :
• Architecture à deux niveaux (Two‑tier) : introduit une couche intermédiaire de staging. Les
données sont traitées puis stockées dans le DW avant restitution. Elle souffre néanmoins de
limitations réseau et d’un manque de scalabilité pour de nombreux utilisateurs.
• Architecture à trois niveaux (Three‑tier) : la plus répandue et utilisée dans les organisations.
Cette architecture est considérée comme la plus robuste, évolutive et adaptée aux analyses
avancées.
Data Mart et ses caractéristiques : Un Data Mart est une sous‑partie spécialisée d’un entrepôt
de données, centrée sur un domaine ou une fonction métier spécifique (par exemple : ventes, mar‑
keting, finances, RH). Les données qu’il contient proviennent du DW, mais elles sont restreintes à
un périmètre limité et organisées pour répondre aux besoins particuliers d’un département [13].
Ses principales caractéristiques sont :
• Orienté utilisateur : conçu pour les besoins décisionnels d’un service particulier.
Approche d’Inmon. Bill Inmon est considéré comme le père du Data Warehouse. Son approche est
dite data‑driven et repose sur une modélisation en 3ème forme normale (3NF). L’architecture est
centrée sur un entrepôt de données unique et intégré, appelé Atomic Data Warehouse, qui alimente
par la suite différents Data Marts dédiés aux départements de l’entreprise. Les modèles utilisés
sont d’abord conceptuels (ERD), puis logiques (DIS) et enfin physiques. Cette approche garantit
une intégration forte et une grande cohérence des données, mais elle est relativement complexe,
coûteuse et longue à mettre en place. L’implication des utilisateurs est faible car la priorité est
donnée à la centralisation et à l’intégration technique.
Approche de Kimball. Ralph Kimball propose une méthode dite user‑driven, basée sur la mo‑
délisation dimensionnelle (schéma en étoile, tables de faits et tables de dimensions). Pour lui,
l’entrepôt de données est vu comme un ensemble de Data Marts intégrés grâce à des dimensions
conformes. Cette approche met l’accent sur la facilité d’utilisation, la rapidité de mise en œuvre et
la performance des requêtes. Les utilisateurs métiers sont fortement impliqués dès les premières
phases du projet. Cependant, l’intégration globale peut devenir complexe si le nombre de Data
Marts augmente fortement.
Approche Data Vault. Introduite par Dan Linstedt au début des années 2000, l’approche Data
Vault est plus récente et adopte une philosophie hybride, à la fois data‑driven et process‑driven. Elle
• Hubs : contiennent les clés métiers fondamentales (client, produit, commande, etc.) ;
• Satellites : stockent les informations descriptives et temporelles liées aux hubs et links.
Cette séparation assure une grande flexibilité et une évolutivité du modèle, car il suffit d’ajou‑
ter de nouveaux satellites pour intégrer des changements. L’approche est bien adaptée aux en‑
vironnements agiles et aux contextes où les sources de données sont nombreuses et évolutives.
En revanche, les performances en interrogation directe sont faibles, et l’utilisation de Data Marts
dimensionnels reste nécessaire pour l’analyse et le reporting.
Comparaison des approches. Le tableau suivant présente une comparaison synthétique entre
les trois approches selon plusieurs critères clés.
TAB. 3.2 : Comparaison des approches Inmon, Kimball et Data Vault [18]
Table de faits. Une table de faits occupe le centre du schéma en étoile. Elle contient :
• des mesures quantitatives ou faits (par ex. montant des ventes, quantités, coûts) ;
• les clés étrangères vers les dimensions qui décrivent le contexte des faits ;
• une clé primaire composée de la concaténation des clés des dimensions associées.
Elle représente donc les événements ou transactions à analyser (ventes, commandes, paiements,
etc.).
Table de dimensions. Les tables de dimensions décrivent le contexte des faits en fournissant
des attributs qualitatifs. Elles permettent de répondre aux questions qui, quoi, où, quand, comment,
pourquoi. Exemple : une dimension Client peut inclure les hiérarchies Région → Ville → Maga‑
sin, ou bien les segments de marché. Ces tables sont souvent dénormalisées afin de simplifier la
navigation et réduire le nombre de jointures.
Schéma en étoile (Star Schema). C’est la structure la plus simple, intuitive et la plus utilisée en
entrepôts de données.
• Une table de faits centrale stocke les mesures numériques (par exemple : montant des ventes,
quantités, coûts). Ces mesures sont généralement additives, ce qui permet de les agréger
facilement (somme, moyenne, etc.).
• Autour de cette table de faits gravitent plusieurs tables de dimensions dénormalisées, qui
contiennent les attributs décrivant le contexte des faits (qui, quoi, où, quand). Exemple : la
dimension Temps (jour, mois, année), la dimension Client (nom, ville, segment), la dimension
Produit (nom, catégorie, marque).
• Cette structure est dite « en étoile » car la table de faits se trouve au centre et les dimensions
rayonnent autour.
• Avantages : grande simplicité, rapidité d’exécution des requêtes analytiques (moins de join‑
tures nécessaires), facilité de compréhension pour les utilisateurs métiers et les analystes.
• Limites : présence de redondance dans les dimensions, entraînant une consommation d’es‑
pace mémoire plus élevée et un risque de données incohérentes si la gouvernance n’est pas
rigoureuse.
Schéma en flocon (Snowflake Schema). Le schéma en flocon est une extension du schéma en
étoile, qui introduit une normalisation des dimensions.
• Le nom « flocon » vient de la forme plus complexe que prend le schéma : les dimensions
« éclatées » produisent des ramifications, ce qui donne un aspect de flocon de neige.
• Limites : plus grand nombre de jointures nécessaires, donc performances moindres par rap‑
port au schéma en étoile, et structure plus difficile à comprendre pour les utilisateurs finaux.
• Il comprend plusieurs tables de faits qui partagent des dimensions communes. Exemple :
une constellation peut inclure une table de faits Ventes et une autre Livraisons, toutes deux
liées aux dimensions Temps, Produit, Client.
• Cette approche permet de représenter plusieurs processus métiers au sein d’un même en‑
trepôt de données, ce qui la rend adaptée aux organisations complexes.
• Limites : conception plus complexe, volume de données plus élevé, optimisation des re‑
quêtes plus difficile, et nécessité d’une gouvernance stricte pour garantir la cohérence des
différentes tables de faits.
• Mesures : valeurs numériques analysées, stockées dans la table de faits (par exemple : ventes,
bénéfices, quantités).
• Dimensions : axes d’analyse donnant du contexte aux mesures (par exemple : temps, pro‑
duit, client, localisation).
2. Hiérarchies : chaque dimension est souvent organisée selon une hiérarchie (exemple : Jour
→ Mois → Année).
3. Granularité : le cube supporte plusieurs niveaux de détail, du plus fin (transactions) au plus
agrégé (ventes annuelles).
4. Pré‑agrégation : dans les systèmes MOLAP et HOLAP, certaines données sont précalculées
pour accélérer les temps de réponse.
5. Navigation intuitive : les utilisateurs peuvent explorer les données en changeant le niveau
de détail ou l’angle d’analyse.
ROLAP (Relational OLAP). Les données sont stockées dans des bases relationnelles, et les opé‑
rations OLAP sont traduites en requêtes SQL. Avantages : scalabilité élevée, support des grands
volumes, compatibilité SQL. Limites : temps de réponse plus lent, dépend fortement des optimi‑
sations SQL [9].
HOLAP (Hybrid OLAP). Combine les deux approches : les données détaillées restent en base
relationnelle (ROLAP), tandis que les agrégations sont stockées dans des cubes multidimension‑
nels (MOLAP). Avantages : compromis entre scalabilité et performance. Limites : conception et
maintenance plus complexes [9].
• Exploration flexible : navigation fluide avec les opérations drill‑down, roll‑up, slice et dice.
• Compréhension intuitive : modèle cube simple à comprendre pour les métiers (mesures,
dimensions, hiérarchies).
• Adaptabilité : MOLAP pour la performance, ROLAP pour les grands volumes, HOLAP
pour combiner les deux.
5 Travaux connexes
Dans l’article de Yahaya et al. [17], les auteurs décrivent un projet d’intégration de la Business
Intelligence et de l’analytique dans le secteur public en Malaisie, appliqué à la gestion de la perfor‑
mance organisationnelle. L’objectif était de mettre en place un dispositif décisionnel permettant de
suivre plus efficacement les indicateurs clés de performance (KPI). L’architecture proposée com‑
bine un entrepôt de données et des outils analytiques orientés performance. Ce dispositif a permis
d’améliorer la transparence et la fiabilité du reporting, d’assurer un suivi plus précis des objectifs
stratégiques et de favoriser l’adoption d’une culture de gestion basée sur les données au sein des
administrations publiques. L’étude montre que l’intégration de l’analytique à la BI constitue un
levier majeur de modernisation des services publics.
L’étude de Yetgin (2025) se concentre sur la transformation d’une institution financière par
l’adoption d’une plateforme de Business Intelligence centralisée. Le projet visait à remplacer un
système manuel de reporting, coûteux et risqué, par une architecture moderne reposant sur un
entrepôt de données sécurisé et des outils de visualisation automatisée. Grâce à cette refonte, l’or‑
ganisation a pu passer de rapports mensuels lourds à des rapports hebdomadaires automatisés,
tout en améliorant la fiabilité et la sécurité des données. Les résultats montrent une amélioration
significative de l’efficacité opérationnelle, une réduction des erreurs liées au reporting manuel et
une autonomie renforcée pour les équipes métiers. L’auteur insiste également sur le rôle organi‑
sationnel de la BI, qui a contribué à renforcer la gouvernance des données et la culture analytique
de l’institution [19].
Dans leur contribution, Orji et al. (2023) illustrent le déploiement d’un projet BI appliqué au
service de vélos partagés Divvy à Chicago. L’étude met en avant le cycle complet de valorisa‑
tion des données : extraction, nettoyage, transformation, analyse et visualisation. L’architecture
repose sur un pipeline ETL qui alimente des outils analytiques et de reporting interactif. Cette
approche a permis d’identifier des tendances d’utilisation des vélos, comme les pics horaires et
les profils types d’usagers, et d’élaborer des recommandations pour améliorer la distribution et la
disponibilité des vélos. Les auteurs soulignent que cette expérience montre la capacité de la BI à
transformer des données opérationnelles brutes en insights stratégiques directement exploitables
pour l’optimisation des services urbains [11].
Dans l’article de Hasan et al. [7], les auteurs analysent les principaux défis rencontrés dans
des projets d’implémentation de la Business Intelligence à travers différents secteurs, notamment
les télécommunications (Telenor au Pakistan), les PME en Pologne et l’hôtellerie avec Marriott.
L’étude s’appuie sur une revue de littérature et plusieurs études de cas pour classifier les difficultés
selon trois dimensions : organisationnelle, technologique et procédurale. Les obstacles les plus
fréquents identifiés incluent la mauvaise qualité des données, les budgets limités, la résistance au
changement et le manque d’expertise technique. Toutefois, certains cas, comme celui de Marriott,
illustrent que la BI peut générer une valeur ajoutée tangible lorsqu’elle est correctement adoptée,
notamment en renforçant la fidélisation client et en optimisant les stratégies de réservation. Cette
étude met ainsi en lumière l’importance d’une gouvernance claire et d’un engagement fort du
management pour réussir un projet BI.
Enfin, Bagheri et Zwering [3] proposent une étude de cas approfondie menée dans une banque
multinationale néerlandaise afin d’identifier les facteurs critiques de succès (CSF) pour les pro‑
jets de Business Intelligence et d’Analytics. Leur démarche repose sur une méthodologie en deux
étapes : une revue systématique de la littérature identifiant treize CSF, suivie d’une enquête em‑
pirique composée de douze entretiens semi‑directifs avec des experts et managers. L’architecture
inclut un entrepôt de données et un dispositif de gouvernance BI renforcé. Les résultats mettent
en évidence que le soutien managérial et la qualité des données constituent les leviers essentiels
de succès, tandis que la communication entre départements et l’implication active des utilisateurs
finaux complètent ces conditions. Les auteurs proposent un cadre intégré des CSF qui peut servir
de référence pour d’autres institutions financières souhaitant entreprendre des projets similaires.
Orji et al. Service de vélos Pipeline ETL + Analyse des usages, opti‑
(2023) [11] partagés (Chica‑ outils de visuali‑ misation de la distribution
go). sation. des vélos.
5.3 Discussion
L’analyse comparative des six articles étudiés met en évidence plusieurs points communs et
différences notables. Tout d’abord, la plupart des travaux insistent sur la valeur ajoutée de la cen‑
tralisation des données via un entrepôt décisionnel, qu’il s’agisse d’entreprises privées [12, 19]
ou du secteur public [17]. Cette centralisation, associée à des processus ETL et à des outils analy‑
tiques adaptés, constitue un facteur clé pour améliorer la qualité de l’information et accélérer le
processus décisionnel.
Un second point majeur concerne l’importance de la gouvernance des données et du soutien
organisationnel. Les études de [7] et [3] montrent que les projets BI échouent souvent en raison
de problèmes organisationnels : résistance au changement, budgets limités ou encore mauvaise
qualité des données. Inversement, la réussite dépend fortement de l’implication managériale et
de la collaboration inter‑départements.
Par ailleurs, certains cas [11] mettent en évidence le rôle de la BI dans l’optimisation opéra‑
tionnelle, en démontrant comment l’analyse des données peut transformer des processus urbains
tels que la gestion des vélos partagés. Cela illustre le potentiel de la BI non seulement comme outil
de reporting, mais aussi comme levier d’innovation et d’amélioration des services.
Enfin, il apparaît que si les approches techniques (entrepôts, pipelines ETL, visualisation) sont
relativement similaires, les résultats dépendent fortement du contexte organisationnel et secto‑
riel. La BI appliquée dans une PME, une institution financière ou un service public ne répond pas
aux mêmes contraintes, mais toutes convergent vers un même objectif : rendre la décision plus
rapide, fiable et stratégique.
En somme, ces travaux confirment que la Business Intelligence ne constitue pas uniquement
un projet technologique, mais avant tout un projet socio‑technique, où la réussite repose sur un
équilibre entre infrastructures techniques, qualité des données, et gouvernance organisationnelle.
6 Conclusion
En conclusion, l’état de l’art et l’analyse des travaux connexes ont permis de dégager les en‑
seignements essentiels pour la réussite d’un projet de Business Intelligence. Au‑delà des aspects
technologiques, ils ont montré l’importance d’une vision méthodologique claire et d’une gouver‑
nance adaptée afin de garantir la qualité et la valeur des données. Cette synthèse met en évidence
que la BI ne se limite pas à un ensemble d’outils ou de modèles, mais constitue un levier stratégique
dont l’efficacité repose sur l’articulation entre choix techniques, organisationnels et humains. Ce
chapitre clôt ainsi la partie théorique en posant les bases nécessaires pour la conception et la mise
en œuvre de la solution BI qui feront l’objet des chapitres suivants.
Chapitre 4 :
Conception et mise en œuvre de la solution
1 Introduction
Ce chapitre est consacré à la conception de la solution proposée dans le cadre de ce projet de
Business Intelligence (BI). Il s’agit d’une étape clé qui permet de traduire les besoins fonctionnels
et techniques identifiés en une architecture et un modèle de données cohérents.
Nous présenterons d’abord l’architecture générale envisagée ainsi que les choix technologiques
retenus pour répondre aux objectifs du projet. Ensuite, nous aborderons la modélisation du sys‑
tème décisionnel, en mettant l’accent sur la définition du schéma en étoile, la structuration des
tables de faits et des tables de dimensions, ainsi que les relations qui les unissent.
Cette phase de conception constitue le fondement de la solution BI, puisqu’elle définit la struc‑
ture sur laquelle reposera l’ensemble du système décisionnel et garantit la cohérence des analyses
futures.
Sources de données. Les sources de données exploitées dans ce projet proviennent de deux
environnements distincts mais complémentaires. Les bases de données Oracle constituent une
source structurée et centralisée, contenant les informations essentielles relatives à la gestion des
programmes et des activités de formation. En parallèle, des fichiers Excel sont utilisés par les ac‑
teurs du secteur pour compléter ou échanger certaines informations, notamment des indicateurs
spécifiques ou des données opérationnelles collectées sur le terrain. Cette diversité de sources met
en évidence la nécessité d’un processus d’intégration robuste afin de garantir une vision cohérente
et homogène.
Zone de Staging. Afin de préparer ces données avant leur intégration dans l’entrepôt, une zone
de Staging est mise en place. Cet espace tampon permet d’appliquer plusieurs traitements in‑
dispensables : nettoyage des anomalies, suppression des doublons, uniformisation des formats
(dates, codes, encodages, unités de mesure) et consolidation des informations. Le Staging agit
comme une barrière de sécurité entre les systèmes opérationnels et la partie décisionnelle, évitant
toute surcharge et assurant une qualité optimale des données chargées dans l’entrepôt.
Data Warehouse et gestion des SCD. Le cœur du dispositif est constitué par le Data Warehouse
(DWH). Cet entrepôt centralise et intègre l’ensemble des données dans un modèle relationnel co‑
hérent et historisé. Un point clé du Data Warehouse est la gestion des Slowly Changing Dimensions
(SCD), qui permet de suivre l’évolution des données de référence dans le temps. Deux approches
principales sont utilisées. La première, le SCD Type 1, consiste à écraser les anciennes valeurs et
ne conserver que la version la plus récente de l’information, ce qui est pertinent pour les correc‑
tions mineures. La seconde, le SCD Type 2, crée un nouvel enregistrement à chaque modification
avec une date de début et une date de fin de validité, permettant ainsi de conserver l’historique
complet et de réaliser des analyses temporelles. Cette gestion des SCD est particulièrement impor‑
tante dans le secteur de la formation professionnelle, où les données relatives aux programmes,
établissements ou filières peuvent évoluer au fil du temps.
Datamarts et cubes OLAP. Sur la base de ce Data Warehouse, des datamarts thématiques sont
développés afin de répondre aux besoins des différents acteurs institutionnels et pédagogiques.
Ces datamarts alimentent ensuite des cubes OLAP, qui permettent de réaliser des analyses mul‑
tidimensionnelles. Grâce à cette organisation, il devient possible de suivre l’évolution des indi‑
cateurs de la formation professionnelle selon différents axes d’analyse (par exemple par établis‑
sement, par région, par type de programme ou par année), d’effectuer des comparaisons et de
produire des tableaux de bord fiables pour le pilotage stratégique.
Reporting et visualisation. La restitution des données et leur valorisation s’appuient sur l’outil
Power BI. Celui‑ci permet de concevoir des tableaux de bord interactifs, de visualiser les données
• elle garantit une vision d’ensemble unique grâce à un Data Warehouse central en 3NF qui
joue le rôle de socle unique de vérité ;
• elle permet une gestion centralisée de l’historique via les SCD type 1 et 2, indispensable
pour suivre les changements d’affectation d’apprenants, l’évolution des programmes ou la
performance des établissements dans le temps ;
• elle offre une évolutivité forte, puisque de nouvelles sources de données (bases adminis‑
tratives, enquêtes nationales, fichiers Excel des directions régionales) peuvent être intégrées
sans remise en cause de l’architecture ;
• elle favorise une gouvernance des données rigoureuse, en alignant les référentiels natio‑
naux (nomenclatures des filières, répartition des établissements, référentiels métiers) ;
• enfin, elle permet la création de Data Marts thématiques dédiés (apprenants, filières, éta‑
blissements, insertion professionnelle), tout en conservant une cohérence globale.
• Planifier et démarrer les traitements ETL pour automatiser l’intégration des données.
• Surveiller les processus ETL et gérer les erreurs afin de garantir la qualité des données.
• Charger les données dans la zone de staging pour un premier stockage temporaire.
• Alimenter le DWH en 3NF avec gestion des SCD1 et SCD2 afin de conserver l’historique
des données.
• Créer et gérer des Datamarts orientés vers les besoins spécifiques des métiers.
• Consulter les tableaux de bord pour obtenir une vision synthétique des données.
• Exporter et imprimer des rapports pour partager les résultats avec d’autres parties pre‑
nantes.
• Consulter les indicateurs KPI pour évaluer la performance et suivre l’évolution des activi‑
tés.
Ces actions passent par une authentification utilisateur qui garantit la personnalisation et la sé‑
curité des accès.
Vision Globale
Le diagramme met en évidence la complémentarité entre les deux acteurs :
• L’Utilisateur final exploite ces données pour la prise de décision à travers l’analyse et la
visualisation.
FIG. 4.4 : Diagramme de séquence du processus ETL vers le Data Warehouse (3NF)
FIG. 4.5 : Diagramme de séquence du processus ETL vers les Datamarts et les Cubes OLAP
FIG. 4.6 : Diagramme de séquence de la consultation des tableaux de bord via Power BI
• Vider la table : au début du processus, la table de staging est vidée pour éviter les doublons
et assurer l’intégrité des données.
• Sources de données multiples : les données peuvent provenir de plusieurs systèmes tran‑
sactionnels (Source 1, Source 2, …, Source n).
• Chargement vers destination : les données transformées sont finalement chargées dans la
zone de staging, servant d’espace intermédiaire temporaire.
• Lecture depuis le staging : les données sont extraites à partir de la zone de staging via une
connexion OLE DB.
• Split conditionnels : les données sont orientées selon des règles métier :
• Chaîne de chargement commune : toutes les données traitées passent ensuite par une phase
finale :
– Dérivation pour le chargement (Derive for load) pour adapter les colonnes à la struc‑
ture finale.
– Chargement dans le DWH (OLE DB) où les données consolidées sont intégrées dans
les tables du Data Warehouse.
FIG. 4.8 : Diagramme d’activité — Flux de chargement du Staging vers le Data Warehouse (3NF)
• Lecture des sources DWH : les données proviennent de plusieurs tables du Data Warehouse
(Source A et Source B).
• Préparation : chaque source est triée (Sort A, Sort B) afin de préparer les jointures.
• Jointure (Merge/Join) : les flux sont combinés pour produire un ensemble cohérent.
• Union finale : les flux issus des différents cas (match et no‑match) sont regroupés pour pro‑
duire un flux unique.
• Chargement dans le Datamart : les données finales sont insérées dans la table de faits du
Datamart, qui servira de base aux analyses OLAP et aux tableaux de bord.
FIG. 4.10 : Modèle relationnel du Data Warehouse (3NF) : tables et clés de liaison.
Le modèle relationnel présenté ci‑dessus est construit selon une approche en troisième forme
normale (3NF), ce qui permet d’éliminer les redondances et de garantir la cohérence des don‑
nées. Il regroupe un ensemble de tables interdépendantes qui structurent les informations rela‑
tives aux inscriptions, aux bénéficiaires, aux établissements, aux formateurs ainsi qu’aux filières
et programmes de formation.
La table DWH_INSCRIPTION occupe une place centrale dans le modèle. Elle enregistre l’en‑
semble des inscriptions réalisées par les bénéficiaires dans une filière donnée et au sein d’un éta‑
blissement précis. Cette table établit des liens directs avec les entités DWH_BENEFICIAIRE, qui
représente les apprenants inscrits, DWH_ETABLISSEMENT, qui identifie l’organisme de forma‑
tion, ainsi que DWH_FILIERE, qui décrit la spécialité concernée. Elle est également reliée à la
table DWH_Programme_validation_request, permettant de suivre les demandes de validation
des programmes associés.
La table DWH_BENEFICIAIRE contient les informations personnelles et administratives des
apprenants. On y retrouve notamment le nom, le prénom, le numéro d’identité, la nationalité,
le sexe, ainsi que des données relatives au niveau scolaire et à la situation professionnelle. Elle
constitue une source essentielle pour analyser le profil des individus inscrits. Parallèlement, la
table DWH_CANDIDAT permet d’enregistrer les informations concernant les personnes ayant
candidaté à une formation, même si elles n’ont pas encore été inscrites. Cette distinction offre la
possibilité de comparer les profils des candidats et ceux des bénéficiaires effectifs.
La table DWH_FILIERE regroupe l’ensemble des filières de formation. Elle précise notamment
le code de la filière, son intitulé, le niveau de formation qu’elle représente ainsi que le domaine
auquel elle appartient. L’information est complétée par la table DWH_HOMOLOGATION, qui
conserve les détails liés à l’homologation officielle des filières ou des établissements, garantissant
la conformité administrative et réglementaire.
La table DWH_ETABLISSEMENT décrit les établissements de formation. Elle contient le nom
de l’établissement, son type, son secteur de rattachement ainsi que des informations relatives aux
dates d’autorisation et d’accréditation. Chaque établissement est géographiquement situé grâce
aux tables DWH_PROVINCE et DWH_REGION. La première associe un établissement à une
province donnée, tandis que la seconde regroupe l’ensemble des régions, permettant ainsi une
hiérarchisation géographique des données et une analyse territoriale des formations.
La gestion des formateurs est assurée par la table DWH_FORMATEUR, qui contient les infor‑
mations personnelles et professionnelles relatives aux enseignants ou intervenants, notamment
leur spécialité, leur niveau académique et leur expérience. Pour compléter cette description, la
table DWH_SUIVI_HEURE_FORMATEUR assure le suivi des heures de formation dispensées
par chaque formateur, ce qui permet de mesurer leur charge horaire et leur implication dans les
différentes filières et établissements.
Enfin, la table DWH_Programme_validation_request trace l’ensemble des demandes de va‑
lidation des programmes de formation. Cette table constitue un élément important du suivi ad‑
ministratif, puisqu’elle relie les filières, les inscriptions et les établissements aux procédures de
validation.
Datamart de Categori 2
Dans mon travail, j’ai conçu ce datamart afin de disposer d’un outil dédié à l’analyse de l’accès et de
la participation au dispositif de formation professionnelle. Le grain que j’ai choisi pour la table de
faits FACT_PARTICIPATION correspond à l’unité analytique la plus fine : chaque ligne traduit
un évènement de participation, c’est‑à‑dire la présence d’un candidat ou d’un bénéficiaire inscrit
dans un établissement précis, replacée dans un cadre temporel et territorial bien défini. Toutes
les relations vers les dimensions se font par des surrogate keys, ce qui garantit la cohérence et la
traçabilité des données.
Chaque dimension du modèle apporte un éclairage spécifique aux utilisateurs. La dimension
DIM_INSCRIPTION fournit le contexte administratif de l’accès, en intégrant les dates d’inscrip‑
tion et de validation, l’année scolaire, le mode de formation et le statut. La dimension DIM BENE‑
FICIAIRE décrit le profil social et éducatif des apprenants à travers des attributs tels que le genre,
l’âge, la nationalité ou le niveau scolaire, et permet ainsi d’évaluer les aspects d’équité et d’inclu‑
sion. La dimension DIM_CANDIDAT renseigne sur les caractéristiques des personnes qui se pré‑
sentent aux concours ou aux sélections, ce qui facilite la comparaison entre le vivier de candidats
et les admissions effectives. La dimension DIM_ETABLISSEMENT situe chaque participation
dans une structure donnée et en précise les caractéristiques principales comme le type, le statut
ou la capacité d’accueil, ce qui est essentiel pour analyser la répartition des charges par établisse‑
ment. Enfin, la dimension DIM_PROVINCE fournit l’ancrage territorial grâce aux informations
sur la province et la région, ce qui permet de cartographier l’accès et d’identifier les disparités
géographiques.
Un point particulier de ce modèle réside dans la dimension DIM_DATE, utilisée sous plusieurs
rôles. Elle intervient pour la date associée au candidat, pour la date liée à un détenu lorsqu’il s’agit
d’un dispositif en milieu carcéral, et pour une date de référence annuelle destinée aux agrégations.
Cette approche de type role‑playing dimension a permis d’éviter la duplication de la même table tout
en respectant la sémantique de chaque temporalité. Grâce à cette organisation, les indicateurs de
la catégorie 2 peuvent être calculés de manière fluide et robuste : il est possible d’analyser l’évo‑
lution des effectifs inscrits sur une période et un territoire, de suivre la dynamique des nouvelles
admissions, de mesurer la part de publics spécifiques et d’établir des ratios d’accès en lien avec les
capacités d’accueil des établissements. La séparation claire entre la table de faits et ses dimensions
assure ainsi la production de mesures fiables tout en maintenant un modèle lisible et exploitable
pour le reporting décisionnel.
Datamart de Categori 3
Dans mon travail, j’ai également conçu un deuxième datamart qui soutient l’analyse de l’offre de
formation et de son évolution. La table de faits FACT offre de formation est construite avec un
grain orienté « évènement d’offre » : chaque ligne relie un établissement et une filière en fonction
d’un programme ou d’une décision administrative, en l’ancrant dans le temps et l’espace. Cette
granularité rend possible l’étude de la disponibilité effective des parcours, de leur renouvellement
et de leur diffusion territoriale.
La dimension DIM_Etablissement décrit l’organisme porteur à travers ses identifiants sources,
son nom, son type, son statut, son année de fondation, sa capacité d’accueil et les informations
relatives à l’autorisation. La dimension DIM_Etab_Filiere précise le couple établissement–filière
en ajoutant des attributs opérationnels comme la capacité déclarée, le mode de formation et des
indicateurs de roulement, ce qui permet d’analyser la soutenabilité de l’offre dans le temps. La di‑
mension DIM_FILIERE caractérise le contenu pédagogique, en détaillant le niveau de formation,
le programme, la durée et le statut d’innovation ; elle constitue ainsi la dimension centrale pour
inventorier et comparer les catalogues de formation. La dimension DIM Programme validation
request conserve la trace du processus d’instruction des demandes de création ou de modification
de filières, avec les dates de dépôt et de validation, le type de demande, l’approche pédagogique et
l’indication de nouveauté. Enfin, la dimension DIM_PROVINCE fournit la géolocalisation admi‑
nistrative et permet d’analyser la couverture régionale ainsi que les éventuels déséquilibres entre
territoires.
Comme pour le premier datamart, la dimension DIM_DATE joue plusieurs rôles afin de cap‑
turer les différentes temporalités. Elle est utilisée pour la date d’autorisation qui officialise une
ouverture de formation, pour la date de clôture qui marque la fin d’une offre, et pour une date de
contexte liée à l’établissement, destinée aux agrégations calendaires classiques. Cette modélisation
clarifie le suivi des trajectoires de chaque filière au sein des établissements. Grâce à cette organi‑
sation, les décideurs peuvent analyser la croissance du portefeuille de filières, mesurer la part des
nouvelles ouvertures, évaluer la rapidité d’instruction des demandes, contrôler l’adéquation des
capacités affichées avec la diffusion territoriale et suivre les cycles d’ouverture et de fermeture qui
structurent l’offre de formation à moyen terme.
5 Conclusion
En conclusion, la phase de conception a permis de transformer les besoins identifiés en une ar‑
chitecture décisionnelle solide et cohérente. La modélisation du Data Warehouse et la structuration
des datamarts autour des indicateurs clés de performance posent les bases d’un système capable
de garantir l’intégrité, la pertinence et la fiabilité des analyses futures. Cette étape constitue un
jalon essentiel, puisqu’elle conditionne la réussite des phases suivantes, notamment l’implémen‑
tation technique et l’évaluation des résultats, qui feront l’objet du prochain chapitre.
Chapitre 5 :
Réalisation et présentation des résultats
1 Introduction
Ce chapitre est consacré à la mise en œuvre pratique de notre travail ainsi qu’à la présentation
des résultats obtenus. Après avoir défini le cadre conceptuel et méthodologique, nous passons
ici à l’étape d’application qui permet de valider les choix effectués lors de la conception. Dans
un premier temps, nous décrivons le processus de réalisation en précisant les différentes étapes
suivies et les outils mobilisés. Dans un second temps, nous présentons et analysons les résultats
issus de cette mise en œuvre. L’objectif est de mettre en évidence la pertinence de la solution
proposée et d’évaluer sa capacité à répondre aux objectifs fixés.
à travers des graphiques et des indicateurs personnalisés. Le module Power BI Reporting est utilisé
pour la génération et la publication de rapports analytiques.
2.8 GitHub
GitHub est une plateforme de gestion de versions basée sur Git. Elle permet de stocker le code
source, de suivre les modifications et de faciliter la collaboration entre plusieurs développeurs
grâce au contrôle de version distribué. Cet outil a été utilisé pour gérer le code du projet et assurer
la traçabilité des évolutions.
Le dépôt du projet est organisé en plusieurs répertoires, chacun correspondant à une étape clé
du processus d’alimentation et d’exploitation du système décisionnel :
• Staging : contient les scripts des ETL de la partie staging, où les données brutes issues des
sources opérationnelles sont nettoyées et préparées pour l’intégration.
• DataMarts : comprend les programmes dédiés à l’alimentation des datamarts, orientés vers
des besoins analytiques spécifiques.
Cette structuration claire du projet sur GitHub permet non seulement de segmenter les res‑
ponsabilités, mais aussi de rendre le projet plus lisible et plus facile à maintenir.
• Normalisation des formats : uniformisation des dates, des chaînes de caractères et des types
numériques ;
• Nettoyage des données : suppression des doublons et gestion des valeurs manquantes ;
• Harmonisation des clés : adaptation des identifiants et des relations pour assurer la cohé‑
rence entre les différentes entités ;
• Filtrage initial : élimination des enregistrements inutiles pour l’analyse (par exemple don‑
nées de test ou incohérentes).
Tables principales
Les principales tables de la zone Staging sont les suivantes :
Table Candidat
FIG. 5.12 : Flux SSIS de chargement des données de la table CANDIDAT Flux de Controle
Les deux figures ci‑dessous illustrent le processus de traitement des données pour la table
CANDIDAT. La première figure représente le flux de contrôle, qui définit la séquence d’exécution
des différentes tâches du package SSIS. La seconde figure montre le flux de données, où les in‑
formations sont extraites de la source Oracle, puis soumises à un fractionnement conditionnel
permettant de séparer les enregistrements selon des règles prédéfinies. Une conversion est en‑
suite effectuée pour uniformiser les types de données et garantir leur compatibilité avec la base
cible. Enfin, les données transformées sont chargées dans la destination OLE DB, correspondant
à la table de Staging.
Table Bénéficiaire
Ce flux illustre l’intégration des données de la table BENEFICIAIRE. Les informations sont ex‑
traites depuis deux sources Oracle distinctes, puis triées afin d’assurer la cohérence des enregis‑
trements. Une jointure de fusion permet ensuite de combiner les données issues des deux flux.
Un composant script est utilisé pour appliquer un traitement personnalisé, suivi d’une colonne
dérivée afin de générer de nouveaux champs ou d’adapter certains formats. Enfin, les données
consolidées sont chargées dans la destination OLE DB de la zone de Staging.
Table PROGRAMME VALIDATION REQUEST
Ce flux montre l’extraction des données depuis la source Oracle, suivie d’une étape de colonne
dérivée permettant de générer ou transformer certains attributs. Les données sont ensuite trans‑
férées vers la destination OLE DB de la zone de Staging.
Table Filière
Ce flux illustre un chargement direct des données depuis la table source Oracle vers la table
de Staging correspondante. Aucune transformation intermédiaire n’est appliquée, ce qui permet
de conserver les données dans leur format brut d’origine.
FIG. 5.17 : Flux SSIS de chargement des données vers la table CANDIDAT DWH
Ce flux gère l’intégration des données candidates dans le DWH. Il applique des transforma‑
tions et utilise les méthodes SCD de type 1 et 2 pour assurer à la fois la mise à jour des données
courantes et l’historisation des évolutions.
Table PROGRAMME VALIDATION REQUEST DWH
FIG. 5.18 : Flux SSIS de chargement des données vers la table PROGRAMME VALIDATION REQUEST
DWH
Ce flux alimente la table Programme Validation Request dans le DWH. Il combine plusieurs
opérations de recherche et de jointure afin de préparer des données fiables. L’historisation est
assurée par l’utilisation des SCD de type 1 et 2 pour suivre les évolutions dans le temps.
Table PROVINCE DWH
FIG. 5.19 : Flux SSIS de chargement des données vers la table PROVINCE DWH
Ce flux assure le chargement des données de la province. Il consolide les informations issues
du Staging et du DWH en appliquant des traitements de fusion et de contrôle conditionnel pour
garantir la qualité et la cohérence des enregistrements.
Table FILIÈRE DWH
FIG. 5.20 : Flux SSIS de chargement des données vers la table FILIÈRE DWH
Ce flux traite l’intégration des données liées aux filières dans le DWH. Il applique des trans‑
formations ciblées afin de maintenir l’intégrité des données et de faciliter leur exploitation dans
les analyses décisionnelles.
FIG. 5.21 : Flux SSIS de chargement de la table de faits Accès et Participation EFP
FIG. 5.22 : Flux SSIS de chargement de la table de faits Offre de Formation Professionnelle
Ce cube est consacré à l’analyse de la participation aux EFP. Il s’appuie sur plusieurs dimen‑
sions telles que Candidat, Bénéficiaire, Inscription, Établissement, Province et Date. Ces di‑
mensions permettent de croiser les faits relatifs au nombre de stagiaires et aux inscriptions avec
des axes temporels, géographiques et organisationnels, afin d’obtenir une vision multidimension‑
nelle des niveaux de participation.
Ce cube est dédié à l’étude de l’offre de formation professionnelle. Il mobilise des dimensions
telles que Établissement, Filière, Établissement-Filière, Programme Validation Request, Province
et Date. L’intégration de ces dimensions permet d’analyser le nombre de filières offertes par ré‑
gion, la répartition par établissements et l’évolution de l’offre dans le temps, fournissant ainsi une
base solide pour l’aide à la décision.
5.4 Les requêtes MDX pour le Cube Catégorie 3 : Offre de Formation Pro-
fessionnelle
FIG. 5.28 : Dashboard Catégorie 2 – Version avec filtres dynamiques (année, région)
Le dashboard de catégorie 3, dédié à l’offre de formation professionnelle, met en avant les princi‑
paux indicateurs relatifs aux programmes et aux filières. On y retrouve le nombre de programmes
actualisés, leur évolution par année de dépôt ou de validation, ainsi que la répartition par type et
par approche (APC ou APO). Des graphiques supplémentaires présentent la répartition des filières
et des établissements par région, permettant d’analyser la couverture géographique de l’offre et
son évolution dans le temps.
• Catégorie 2 – Accès et Participation aux EFP : ce dossier contient l’ensemble des tableaux
de bord relatifs à l’accès et à la participation.
FIG. 5.31 : Dossier déployé sur Power BI Report Server – Catégorie 2 (Accès et Participation aux
EFP)
FIG. 5.32 : Dossier déployé sur Power BI Report Server – Catégorie 3 (Offre de Formation Profes‑
sionnelle)
8 Conclusion
En définitive, la phase de réalisation et de présentation des résultats a permis de valider l’archi‑
tecture décisionnelle conçue et de confirmer la fiabilité des traitements mis en place. Les flux ETL,
l’alimentation du Data Warehouse, la structuration en datamarts ainsi que la mise en place des
cubes OLAP se sont traduits par des tableaux de bord interactifs, offrant une vision claire et mul‑
tidimensionnelle des données. Ces résultats témoignent de la maturité de la solution développée
et ouvrent la voie à des perspectives d’évolution et d’optimisation continue.
CONCLUSION GÉNÉRALE
Au terme de ce travail, nous avons pu mettre en place une approche méthodologique visant à
répondre aux objectifs fixés. La démarche adoptée, allant de la préparation et l’exploration des
données jusqu’à l’analyse et l’interprétation des résultats, a permis de mettre en évidence l’impor‑
tance de la structuration et de la qualité des données dans la réussite d’un projet. Les résultats
obtenus confirment la pertinence des choix technologiques et méthodologiques réalisés, tout en
soulignant certaines limites liées notamment au volume, à la diversité et à l’hétérogénéité des
données traitées.
Ce projet a constitué une expérience enrichissante sur le plan technique et scientifique, en per‑
mettant de mobiliser des outils modernes de traitement, d’analyse et de visualisation, mais aussi
sur le plan méthodologique en développant des compétences d’organisation, de réflexion critique
et de travail collaboratif.
Cependant, plusieurs perspectives d’amélioration restent ouvertes. D’une part, l’intégration
de méthodes plus avancées, notamment basées sur l’intelligence artificielle et l’apprentissage pro‑
fond, pourrait améliorer la précision et la pertinence des analyses. D’autre part, une extension
du périmètre de l’étude à des données plus volumineuses et diversifiées offrirait une vision plus
complète et généralisable des phénomènes étudiés. Enfin, le déploiement des solutions proposées
dans un environnement réel, avec une interaction directe avec les utilisateurs finaux, permettrait
de valider leur efficacité et d’identifier de nouvelles pistes d’optimisation.
En somme, ce travail constitue une base solide qui ouvre la voie à des développements futurs
plus ambitieux, et s’inscrit dans une dynamique d’évolution continue des pratiques d’analyse et
de valorisation des données.
Bibliographie
[1] Adebunmi Okechukwu Adewusi, Ugochukwu Ikechukwu Okoli, Ejuma Adaga, Temidayo
Olorunsogo, Onyeka Franca Asuzu, and Donald Obinna Daraojimba. Business intelligence
in the era of big data : A review of analytical tools and competitive advantage. Computer
Science IT Research Journal, 5(2) :415–431, February 2024.
[2] Tamara Adel Al‑Maaitah, Al Smadi Khalid, Ala’a Mohammed Fadel Al‑Junaidi, Tariq Khai‑
ro Issa Al Daabseh, Ahmed Alnawafleh, Nour Abdulwahab Qatawneh, and Dirar Abdelaziz
Al‑Maaitah. Strategies for success : A theoretical model for implementing business intelli‑
gence systems to enhance organizational performance. International Journal of ADVANCED
AND APPLIED SCIENCES, 11(5) :55–61, May 2024.
[3] Shohreh Bagheri and Jeroen Zwering. Business intelligence and analytics success factors : A
case study in the financial sector. International Journal of Information Management, 69:102593,
2023.
[4] Ouarda Lina Bensehamdi. L’impact du business intelligence sur les fonctions d’entreprises.
In Ouvrages du CRASC, pages 59–78. Centre de Recherche en Anthropologie Sociale et Cultu‑
relle (CRASC), 2022.
[5] Surajit Chaudhuri and Umeshwar Dayal. An overview of data warehousing and olap tech‑
nology. SIGMOD Record, 26(1) :65–74, 1997.
[6] Jiawei Han, Micheline Kamber, and Jian Pei. Data Mining : Concepts and Techniques. Morgan
Kaufmann, 3rd edition, 2011.
[7] Rizwan Hasan, Suraya Miskon, N. Ahmad, and I. Tlili. Issues and challenges in business
intelligence case studies. International Journal on Advanced Science, Engineering and Information
Technology, 6(6) :924–930, 2016.
[8] Daniel L. Moody and Mark A.R. Kortink. From enterprise models to dimensional models :
A methodology for data warehouse and data mart design. In Proceedings of the International
Workshop on Design and Management of Data Warehouses (DMDW’2000), Stockholm, Sweden,
2000. CEUR‑WS.org.
[9] Adhish Nanda, Swati Gupta, and Meenu Vijrania. A comprehensive survey of olap : Recent
trends. In Proceedings of the Third International Conference on Electronics Communication and
Aerospace Technology (ICECA 2019), pages 425–430. IEEE, 2019.
[10] In Ong, Pei Siew, and Siew Wong. A five‑layered business intelligence architecture. Commu‑
nications of the IBIMA, page 1–11, March 2011.
[11] R. Orji, A. Singh, and K. Patel. Using data analytics to derive business intelligence : A case
study. arXiv preprint arXiv :2305.19021, 2023.
[12] P. Raj, R. Badii, and N. Aslam. A case study – business intelligence solution for an sme. In
Proceedings of the 8th International Conference on Cloud Computing and Services Science (CLOSER
2016), pages 604–610. SCITEPRESS ‑ Science and Technology Publications, 2016.
[13] Milankumar Rana. Overview of data warehouse architecture, big data and green computing.
Journal of Computer Science and Technology Studies, 5(4) :213–217, 2023.
[14] Ramesh Sharda, Dursun Delen, and Efraim Turban. Business Intelligence, Analytics, and Data
Science : A Managerial Perspective. Pearson, 4th edition, 2018.
[15] Panos Vassiliadis, Alkis Simitsis, and Spiros Skiadopoulos. Conceptual modeling for etl pro‑
cesses. In Proceedings of the ACM 5th International Workshop on Data Warehousing and OLAP
(DOLAP’02), pages 14–21, McLean, Virginia, USA, 2002. ACM.
[16] Carlo Vercellis. Business Intelligence : Data Mining and Optimization for Decision Making. John
Wiley & Sons, 2009.
[17] Nor Azlina Yahaya, Azizah Yahaya, Asmidar Deraman, Norazlin Mokhtar, and Nor Az‑
man Ismail Yusof. The implementation of business intelligence and analytics integration
for organizational performance management : A case study in public sector. In International
Conference on Information Retrieval and Knowledge Management, pages 1–6. IEEE, 2019.
[18] Lamia Yessad and Aissa Labiod. Comparative study of data warehouses modeling ap‑
proaches : Inmon, kimball and data vault. In 2016 International Conference on System Reliability
and Science (ICSRS), pages 94–99. IEEE, 2016.
[19] A. Yetgin. Analyzing the corporate business intelligence impact. Applied Sciences, 15(3) :1012,
2025.