0% ont trouvé ce document utile (0 vote)
52 vues75 pages

Rapport de Stage: en Vue de L'obtention Du Diplôme de Master Professionnel en

Ce rapport de stage présente le développement d'une solution décisionnelle pour l'analyse des ventes dans le cadre d'un Master en Business Analytics. La solution inclut la création d'un data warehouse structuré en étoile, l'utilisation de SSIS pour le traitement des données et de Power BI pour la visualisation, permettant ainsi la génération de rapports interactifs et de tableaux de bord. Ce projet vise à fournir aux décideurs des outils pour améliorer les stratégies de vente en suivant des indicateurs clés de performance et en identifiant des tendances commerciales.

Transféré par

arij nasri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
52 vues75 pages

Rapport de Stage: en Vue de L'obtention Du Diplôme de Master Professionnel en

Ce rapport de stage présente le développement d'une solution décisionnelle pour l'analyse des ventes dans le cadre d'un Master en Business Analytics. La solution inclut la création d'un data warehouse structuré en étoile, l'utilisation de SSIS pour le traitement des données et de Power BI pour la visualisation, permettant ainsi la génération de rapports interactifs et de tableaux de bord. Ce projet vise à fournir aux décideurs des outils pour améliorer les stratégies de vente en suivant des indicateurs clés de performance et en identifiant des tendances commerciales.

Transféré par

arij nasri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Ecole Supérieure Privée de Management de Tunis

Esprit School of Business

RAPPORT DE STAGE
En vue de l’obtention du diplôme de Master professionnel en
Business Analytics

Réalisé par : Nasri Arij

« Intégration d’un module BI dans l’ERP Navision – Cas d’étude :


Analyse des ventes »
10 Février – Juillet 2025

Maître de Stage : M. Chokri Chaaraoui


Encadrant académique : Mme Rebhi Ibtihel

Année universitaire 2024/2025

1
Résumé :
Ce travail a été réalisé en vue de l’obtention du diplôme de Master en Business Analytics à l’Esprit
School of Business.

Dans le cadre de mon projet de fin d’études en Business Analytics, j’ai développé une
solution décisionnelle permettant d’analyser les ventes à partir de plusieurs fichiers Excel.
Cette solution repose sur la création d’un data Warehouse structuré selon un modèle en
étoile, facilitant l’intégration, le nettoyage et la transformation des données. Grâce à
l’utilisation d’outils comme SSIS pour le traitement des données et Power BI pour la
visualisation, j’ai pu produire des rapports interactifs et des tableaux de bord personnalisés
et, en option, une analyse en séries temporelles pour la prévision des ventes. Ces analyses ont
permis de suivre des indicateurs clés de performance, d’identifier des tendances
commerciales, et d’offrir aux décideurs une base solide pour améliorer les stratégies de
vente.

Mots-clés suggérés :

Business Analytics, Analyse de données, système d’information, Data Warehouse,


méthodologie de travail, Tableau de bord, Série temporelle

Abstract :

This work was carried out as part of the requirements for the Master’s degree in Business
Analytics at Esprit School of Business.

As part of my final year project in Business Analytics, I developed a decision-support solution


designed to analyze sales data extracted from multiple Excel files. The solution is based on
the creation of a data warehouse structured using a star schema, which facilitates data
integration, cleaning, and transformation.
By leveraging tools such as SSIS for data processing and Power BI for visualization, I was able
to produce interactive reports, customized dashboards, and, optionally, a time series
analysis for sales forecasting. These analyses helped monitor key performance indicators
(KPIs), identify business trends, and provide decision-makers with a reliable foundation to
enhance sales strategies.

Key words:

Business Analytics, Data Analysis, Information System, Data Warehouse, Workflow


Methodology, Dashboard, Time Series

2
DÉDICACE

« Je dédie ce travail à mes parents, qui m'ont soutenue tout au long de mon parcours académique.
Leur amour incommensurable, leur soutien sans faille et leurs sacrifices ont été une source constante
de motivation. Vous avez toujours cru en moi et m’avez donné la force d’aller de l’avant, même dans
les moments les plus difficiles. »

« À mon petit frère et ma petite sœur, pour leur joie et leur enthousiasme, vous êtes ma
source de sourire et d’énergie. »

« Enfin, à mon partenaire de vie, pour sa patience infinie, son soutien indéfectible et son
amour constant. Je te remercie profondément pour tout ce que tu fais pour moi, chaque
jour. »

3
Remerciements

Avant de présenter ce travail, je tiens à exprimer ma profonde gratitude à toutes les


personnes qui ont contribué, de près ou de loin, à la réalisation de ce projet de fin d’études.

Je remercie tout particulièrement Mme Ibtihel Rebhi, mon encadrante académique, pour sa
disponibilité, ses conseils précieux, et son accompagnement tout au long de ce projet. Son
encadrement rigoureux et bienveillant a été essentiel à la réussite de ce travail.

Je souhaite également remercier M. Chokri Chaaraoui, mon encadrant professionnel au sein


de l’entreprise, pour la confiance qu’il m’a accordée, ainsi que pour son accompagnement,
ses orientations et son expertise qui ont enrichi mon expérience sur le terrain.

Un grand merci à mes amies, pour leur soutien moral, leur entraide et les moments partagés
tout au long de cette aventure.

Enfin, je remercie chaleureusement ma famille, pour leur amour, leur patience et leur
encouragement constant. Vous avez été mon pilier tout au long de ce parcours.

À toutes et à tous, merci du fond du cœur.

4
Table des matières

CHAPITRE 1...........................................................................................................................................13
1 Présentation de l’organisme d’accueil..........................................................................................14
1.1 Présentation de l’organisme.................................................................................................14
1.1.1 Domaine d’activité........................................................................................................15
1.1.2 Missions principales......................................................................................................15
1.1.3 Objectifs........................................................................................................................15
1.1.4 Structure organisationnelle..........................................................................................15
1.1.5 Savoir-faire et expertise................................................................................................15
1.1.6 Moyens et infrastructures............................................................................................16
Pour mener à bien ses missions, ESPRIT Entreprise s’appuie sur :...............................................16
1.1.7 Domaines d’intervention et public cible.......................................................................16
2 Présentation du projet.................................................................................................................16
2.1 Contexte du projet................................................................................................................16
2.2 Problématique......................................................................................................................17
2.3 Etude et critique de l’existant...............................................................................................17
2.4 Solution proposée................................................................................................................17
3 Les méthodologies de travail........................................................................................................18
3.1 Méthode Cycle en V..............................................................................................................18
3.2 Méthode SCRUM..................................................................................................................18
3.2.1 Les rôles clés dans la méthode SCRUM.........................................................................19
3.2.2 Comparaison et Choix de la méthodologie...................................................................19
4 Organisation du projet à l’aide de Scrum.....................................................................................20
4.1 Product Backlog....................................................................................................................20
4.2 Planification des Sprints........................................................................................................22
4.3 Répartition des rôles Scrum..................................................................................................22
CHAPITRE 2...........................................................................................................................................23
1 Notions de base en informatique décisionnelle...........................................................................24
1.1 Les données..........................................................................................................................25
1.2 Les informations...................................................................................................................25
Les informations sont les données traitées et organisées, elles deviennent compréhensibles et
peuvent être utilisées pour des analyses..........................................................................................25
1.3 Les connaissances.................................................................................................................25

5
2 Entrepôt de données (Data Warehouse)......................................................................................25
2.1 Les modèles d’entrepôt de données....................................................................................25
2.1.1 Modèle en étoile (Star Schema)....................................................................................25
2.1.2 Modèle en flocon de neige (Snowflake Schema)..........................................................26
2.1.3 Modèle en constellation (Galaxy Schema)....................................................................27
2.2 Comparaison entre les modèles du Data Warehouse...........................................................27
2.3 Modélisation dimensionnelle...............................................................................................28
2.3.1 Les dimensions..............................................................................................................28
2.3.2 La table de fait..............................................................................................................28
2.3.3 Les Hiérarchies..............................................................................................................28
3 Processus ETL et outils associés....................................................................................................28
3.1 Étapes du processus ETL.......................................................................................................28
3.2 Outils ETL..............................................................................................................................29
3.2.1 Talend Open Studio......................................................................................................29
3.2.2 SSIS (SQL Server Integration Services)..........................................................................29
3.3 Comparaison des outils ETL..................................................................................................30
4 Outils de Business Intelligence (BI)...............................................................................................30
4.1 Power BI...............................................................................................................................30
4.2 Tableau.................................................................................................................................31
4.3 Comparaison entre Power BI et Tableau..............................................................................31
5 Synthèse des choix techniques.....................................................................................................31
5.1 Choix du modèle de données...............................................................................................32
5.2 Choix de l’outil de Business Intelligence...............................................................................32
5.3 Choix de l’outil ETL................................................................................................................32
Chapitre 3.............................................................................................................................................34
1 Les acteurs de l’entreprise............................................................................................................35
2 Spécification des Besoins..............................................................................................................35
2.1 Les besoins fonctionnels.......................................................................................................35
2.2 Les besoins non fonctionnels................................................................................................36
 Fonctionnalités interactives : les utilisateurs doivent pouvoir filtrer, cliquer ou
explorer directement les données dans les tableaux de bord pour obtenir des
vues personnalisées et détaillées............................................................................................36
3 Les diagrammes............................................................................................................................36
3.1 Diagramme de cas d’utilisation.............................................................................................37
Conclusion............................................................................................................................................39
Chapitre 4.............................................................................................................................................40

6
1 Compréhension des données.......................................................................................................41
2 Conception du Data Warehouse...................................................................................................42
2.1 Table de faits........................................................................................................................42
2.2 Les dimensions.....................................................................................................................43
2.3 Modélisation de l’entrepôt de données...............................................................................44
3 Outils utilisés................................................................................................................................45
4 Développement de la partie ETL...................................................................................................45
4.1 Intégration des données.......................................................................................................45
Cette section vise à fournir un aperçu détaillé du développement du processus
ETL (Extraire, Transformer, Charger), qui a été mis en œuvre dans le cadre de
l'intégration du module de prise de décision pour l'analyse..........................................45
4.1.1 Étapes préliminaires : Connexion et création de la base..............................................46
4.1.2 Extraction des données.................................................................................................50
4.1.3 Nettoyage et transformation des données...................................................................50
Après l'extraction initiale, les données brutes doivent être nettoyées,
standardisées et préparées pour l'intégration dans le modèle Star. Cette étape
est essentielle pour garantir la cohérence, la qualité et la compatibilité des
données............................................................................................................................................50
L’une des premières opérations effectuées consiste à détecter et à supprimer les
éléments en double......................................................................................................................51
Avant de charger la table de faits, nous devons remplacer les ID d’origine par des
clés de substitution créées dans les dimensions...............................................................53
4.1.4 Chargement des données.............................................................................................54
Une fois les données extraites, nettoyées et transformées, l’étape finale du
processus ETL consiste à les charger dans l’entrepôt de données, conçu selon le
modèle en étoile............................................................................................................................54
Afin d’assurer la pérennité de l’entrepôt de données et la mise à jour régulière
des données, une automatisation des flux incrémentaux a été mise en place......55
4.1.5 Chargement incrémental automatisé des nouvelles données......................................55
L'objectif est d'automatiser la fusion des enregistrements nouvellement ajoutés
dans le fichier source, en tenant compte des relations et des contraintes du
modèle en étoile, en particulier l'intégrité de référence entre la table de faits......55
Chapitre 5.............................................................................................................................................57
1 Connexion à l’entrepôt de données.............................................................................................58
2 Création des mesures...................................................................................................................59
3 Conception des tableaux de bord.................................................................................................60
3.1. Page d’accueil : Performance Globale :................................................................................60
3.1.1 Interprétation de la figure............................................................................................61
3.2 Analyse par produit..............................................................................................................62

7
1.1.1 Interprétation de la figure............................................................................................62
3.3 Analyse par client.................................................................................................................63
3.3.1 Interprétation de la figure............................................................................................63
3.4 Analyse par fournisseur........................................................................................................64
3.4.1 Interprétation de la figure............................................................................................64
3.5 Analyse temporelle...............................................................................................................65
3.5.1 Interprétation de la figure............................................................................................65
Chapitre 6.............................................................................................................................................67
1 Préparation des données..............................................................................................................68
2 Modélisation avec ARIMA............................................................................................................69
2.1 Entraînement et test.............................................................................................................69
2.2 Résultats...............................................................................................................................69
2.3 Visualisation.........................................................................................................................70
3 Modélisation avec Prophet...........................................................................................................70
3.1 Entraînement et test.............................................................................................................70
3.2 Résultats...............................................................................................................................71
3.3 Visualisation.........................................................................................................................71
4 Prévisions sur les 6 mois futurs....................................................................................................71
5 Comparaison et choix du modèle.................................................................................................72

8
Liste des figures
Figure 1: Logo Esprit Entreprise________________________________________________________16
Figure 2: Cycle en V_________________________________________________________________20
Figure 3: processus de la méthode SCRUM_______________________________________________20
Figure 4: Les membres de l’équipe projet en mode Scrum__________________________________24
Figure 5: Les notion de base d'un système décisionnel_____________________________________26
Figure 6: Exemple d’un modèle en Etoile (Star Schema)____________________________________27
Figure 7: Exemple d’un modèle en flocon de neige (Snowflake Schema)_______________________28
Figure 8: Exemple d’un modèle en constellation (Galaxy Schema)____________________________28
Figure 9: ETL Process________________________________________________________________30
Figure 10: Talend Open Studio________________________________________________________30
Figure 11: SQL Server________________________________________________________________31
Figure 12: Power BI_________________________________________________________________32
Figure 13: Tableau__________________________________________________________________32
Figure 14: Les acteurs de mon projet___________________________________________________36
Figure 15: Diagramme de cas d’utilisation_______________________________________________38
Figure 16: Diagramme de cas d’utilisation : Gérer les sources de données______________________38
Figure 17: Diagramme de cas d’utilisation : Gérer le processus ETL____________________________39
Figure 18: Diagramme de cas d’utilisation : Créer des tableaux de bord________________________40
Figure 19: Les champs exploitées de notre source Cust_LedgerEntries_________________________42
Figure 20: Les champs exploitées de notre source ItemSalesAndProfit_________________________43
Figure 21: Les champs exploitées de notre source ItemLedgerEntries__________________________43
Figure 22: Les champs exploitées de notre source Item_Sales_List____________________________43
Figure 23: Le modèle en étoile________________________________________________________45
Figure 24: Le processus ETL___________________________________________________________47
Figure 25: La connexion au serveur_____________________________________________________47
Figure 26: Création d’un Serveur_______________________________________________________48
Figure 27: Création de la base de données décisionnelle PFE________________________________48
Figure 28: La création d'une table______________________________________________________49
Figure 29: La table dimension Client____________________________________________________49
Figure 30: La table dimension Produit___________________________________________________49
Figure 31: La table dimension Date_____________________________________________________50
Figure 32: La table dimension Fournisseur_______________________________________________50
Figure 33: La table de fait____________________________________________________________50
Figure 34: Tâches d’extraction et de chargement initial pour un seul fichier____________________51
Figure 35: Composant Sort pour suppression des doublons_________________________________52
Figure 36: Création de la colonne Date dans le composant Derived Column_____________________52
Figure 37: Remplacer les NULL par une valeur____________________________________________53
Figure 38: Utilisation du composant Merge Join pour fusionner deux sources Excel clients_________53
Figure 39: Composant Lookup_________________________________________________________54
Figure 40: Flux de chargement de la table de faits_________________________________________55
Figure 41: Exécution du flux de chargement de la table de faits______________________________56
Figure 42: Vue d’ensemble des flux de chargement des dimensions et de la table de faits_________56
Figure 43: Exécution du flux de données (l’exécution du package)____________________________57
Figure 44: Exécution des composants Lookup____________________________________________57
Figure 45: Du traitement des données au reporting visuel___________________________________59

9
Figure 46: : Connexion au Data Warehouse depuis Power BI_________________________________60
Figure 47: Importation des tables dans Power BI__________________________________________60
Figure 48: Création des mesures dans power BI___________________________________________61
Figure 49: Segment interactif_________________________________________________________62
Figure 50: Suivi des ventes___________________________________________________________62
Figure 51: Analyse par produit________________________________________________________63
Figure 52: Analyse par client__________________________________________________________64
Figure 53: Analyse par fournisseur_____________________________________________________65
Figure 54: Analyse temporelle_________________________________________________________66
Figure 55: Préparation des données____________________________________________________70
Figure 56: MAE et RMSE_____________________________________________________________71
Figure 57: Modèle ARIMA____________________________________________________________71
Figure 58: Entraînement et test________________________________________________________71
Figure 59: Prophet__________________________________________________________________72
Figure 60: Modèle Prophet___________________________________________________________72
Figure 61: Prophet vs ARIMA – Prévision 6 mois___________________________________________72

10
Liste des tableaux
Tableau 1: Etude comparative de la méthodologie________________________________________21
Tableau 2: Product Backlog___________________________________________________________22
Tableau 3: Planification des Sprints_____________________________________________________24
Tableau 4: Comparaison entre les modèles______________________________________________29
Tableau 5: Etude comparative_________________________________________________________31
Tableau 6: Comparaison entre Power BI et Tableau________________________________________33
Tableau 7: Planification du sprint 0_____________________________________________________36
Tableau 8: Diagramme de cas d’utilisation : Gérer les sources de données______________________39
Tableau 9: Diagramme de cas d’utilisation : Gérer le processus ETL___________________________39
Tableau 10: Diagramme de cas d’utilisation : Créer des tableaux de bord______________________40
Tableau 11: Compréhension et extraction des données_____________________________________42
Tableau 12: la table de faits___________________________________________________________44
Tableau 13: les tables des dimensions__________________________________________________45
Tableau 14: Les outils utilisés_________________________________________________________46
Tableau 15 : Création des dashboards et validation des rapports_____________________________60
Tableau 16: Création des dashboards et validation des rapports______________________________70
Tableau 17: Comparaison entre les deux modèles_________________________________________74

11
Liste des abréviations
BA: Business Analytics

ETL: Extract, Transform, Load

KPI: Key Performance Indicator

SI: Système d’Information

SQL: Structured Query Language

UML: Unified Modeling Language

DAX : Data Analysis Expressions

12
Introduction générale

Dans un monde de plus en plus orienté vers la donnée, la capacité à collecter, transformer et
analyser l’information est devenue un facteur déterminant de performance pour les
entreprises. La transformation digitale, l’explosion des volumes de données et la complexité
croissante des marchés imposent aux organisations d’adopter des outils décisionnels performants
pour guider leurs choix stratégiques et prendre des décisions éclairées. C’est dans ce contexte que
s’inscrit le domaine de la Business Analytics, qui vise à exploiter les données disponibles pour en
extraire des informations utiles à la prise de décision.

Le présent projet de fin d’études s’inscrit dans le cadre du Master en Business Analytics à
l’Esprit School of Business. Il a été réalisé dans le cadre d’un stage professionnel de quatre
mois au sein d’ESPRIT Entreprise, une structure spécialisée dans l’accompagnement des
projets technologiques et innovants, à destination des étudiants, des chercheurs et des
entreprises. Cette entreprise agit comme un accélérateur de projets, en mettant à
disposition des ressources, des encadrants et un environnement professionnel stimulant.

Durant cette période, j’ai eu l’opportunité de développer des compétences techniques


(modélisation de données, conception d’un entrepôt de données, traitement ETL avec SSIS,
création de Dashboard interactifs avec Power BI), mais également des compétences
méthodologiques (gestion de projet agile via les sprints SCRUM) et des compétences
analytiques (définition des KPIs, lecture des tendances, prévision en séries temporelles). Ce
projet m’a permis de mettre en pratique l’ensemble des connaissances acquises au cours de
ma formation, tout en répondant à un besoin réel de visualisation et de pilotage de la
performance commerciale.

Ce travail vise à concevoir et implémenter une solution décisionnelle complète, à partir de


plusieurs fichiers Excel de ventes, en construisant un data Warehouse modélisé selon un
schéma en étoile. Les données sont ensuite exploitées dans des tableaux de bord
dynamiques, permettant de suivre des indicateurs clés de performance (KPI), d’identifier des
tendances commerciales, et de générer des analyses de type séries temporelles pour aider à
la prévision.

Ce rapport a pour objet de présenter le travail effectué et s’articulera ainsi autour de cinq
chapitres :

 Dans un premier chapitre introductif, nous présentons le cadre général du


projet, la problématique, l’état existant, la solution proposée, la
méthodologie agile adoptée et la planification du projet selon une
organisation en sprints.
 Le deuxième chapitre portera sur l’architecture technique, la présentation des
outils utilisés ainsi que l’approche de gestion de projet adoptée dans le cadre
du développement.

13
 Le troisième chapitre, intitulé « Analyse et spécification des besoins » (Sprint
0), sera dédié à la compréhension des besoins métier de l’entreprise.
 Le quatrième chapitre, « Conception et Nettoyage de données » (Sprint 1),
portera sur la modélisation du data Warehouse, la création du modèle
physique, et la préparation des données via des processus ETL.
 Le cinquième chapitre sera consacré à la mise en place des tableaux de bord,
incluant la création, l’implémentation, et l’analyse des visualisations
interactives à l’aide de Power BI.

14
CHAPITRE 1
PRÉSENTATION GÉNÉRALE DU PROJET

15
Introduction

Ce premier chapitre présente le cadre général dans lequel il a été réalisé. Il s’agit tout
d’abord de décrire l’organisme d’accueil, son domaine d’activité et son environnement.
Ensuite, nous exposerons la problématique à résoudre, la solution envisagée, la
méthodologie choisie, ainsi que la planification des différentes étapes du projet.

1 Présentation de l’organisme d’accueil


À ce stade, nous procéderons à la présentation d’ESPRIT Entreprise, en mettant en lumière son
secteur d’activité, ses missions principales, ainsi que sa structure organisationnelle.

1.1 Présentation de l’organisme

Créée en janvier 2011, ESPRIT Entreprise est une filiale de l’école privée d’ingénierie
ESPRIT (École Supérieure Privée d’Ingénierie et de Technologie). Elle est dédiée à
l’accompagnement des entreprises dans le développement des compétences de leurs
ressources humaines. Elle agit comme un acteur stratégique de la formation continue, du
conseil en ingénierie de formation, et de la certification professionnelle.

Figure 1: Logo Esprit Entreprise


1.1.1 Domaine d’activité
L’activité d’ESPRIT Entreprise se concentre essentiellement sur le suivi de projets d’innovation
technologique, la gestion de stages académiques, le conseil en ingénierie, ainsi que
l’accompagnement de startups et d’entreprises partenaires. Elle sert également de plateforme de
collaboration entre le monde académique et industriel, en mettant à disposition des ressources
humaines, matérielles et techniques pour le développement de solutions réelles.

1.1.2 Missions principales


Les principales missions d’ESPRIT Entreprise sont :

 Le partage d’un savoir-faire avancé en matière de formation continue.

 L’amélioration et la mise à jour des compétences du personnel des entreprises.

 L’accompagnement pédagogique des entreprises et établissements de formation dans la


conception de parcours adaptés.

1.1.3 Objectifs

Les objectifs d’ESPRIT Entreprise incluent :

16
 L’encadrement des projets de fin d’études dans des conditions proches de
l’environnement de travail réel.
 Le développement de solutions innovantes pour répondre aux besoins des
entreprises partenaires.
 La valorisation des compétences des étudiants à travers la mise en œuvre de projets
réels.
 La promotion de l’esprit entrepreneurial et du transfert de compétences vers le tissu
économique local.

1.1.4 Structure organisationnelle

ESPRIT Entreprise est organisée autour de plusieurs pôles fonctionnels :

 Un pôle pédagogique, qui assure le lien avec les programmes académiques.


 Un pôle technique, chargé de l’encadrement des projets étudiants et de la
supervision des solutions technologiques.
 Un pôle entreprise, qui gère les relations avec les partenaires industriels et
coordonne les stages, séminaires, et collaborations extérieures.

1.1.5 Savoir-faire et expertise

ESPRIT Entreprise conçoit et met en œuvre des formations sur mesure adaptées aux besoins
spécifiques des entreprises, dans des domaines variés tels que :

 Les technologies de l’information et de la communication (TIC),


 Le génie civil,
 L’électromécanique,
 La gestion des ressources humaines (GRH),
 Et les langues étrangères (Français, Anglais, Allemand, Italien…).

Ces formations peuvent prendre plusieurs formes :

 Formations qualifiantes
 Formations promotionnelles
 Formations certifiantes

L’organisme est également centre de certification agréée par des institutions reconnues
telles que Pearson Vue, Prometric, ISTQB, et propose des certifications sur des technologies
de leaders du marché comme Microsoft, Cisco, Oracle, Apple, etc.

1.1.6 Moyens et infrastructures


Pour mener à bien ses missions, ESPRIT Entreprise s’appuie sur :

 Plus de 300 enseignants et formateurs spécialisés,


 Deux sites de formation modernes, dotés de :
o Ateliers technologiques et plateformes RDI,
o Connexion Internet haut débit et Wifi,
o Un centre de langues,

17
o Un centre d’innovation pédagogique,
o Des espaces dédiés à l’hébergement et la restauration.

1.1.7 Domaines d’intervention et public cible

ESPRIT Entreprise intervient principalement dans le domaine de la formation continue, selon


une démarche orientée vers :

 L’analyse des besoins spécifiques de chaque entreprise,


 La mise en œuvre de plans d’action personnalisés,
 L’évaluation de l’impact des formations à chaud et à froid.

La population cible couvre un large spectre de qualifications :

 Ouvriers professionnels (OP),


 Ouvriers qualifiés (OQ),
 Titulaires de CAP, BTP, BTS,
 Cadres d’entreprise.

Les formations couvrent les processus de production, maintenance, commercial, RH, et


développement TIC.

2 Présentation du projet
2.1 Contexte du projet

Dans le cadre de mon stage de fin d’études effectué au sein d’ESPRIT Entreprise sur une
durée de 4 mois, j’ai été chargée de travailler sur un projet de Business Intelligence centré
sur l’analyse des ventes. L’entreprise utilise actuellement Microsoft Dynamics NAV
(Navision) comme ERP pour la gestion de ses opérations quotidiennes, y compris la gestion
des ventes. Bien que cet ERP centralise un grand volume de données, l’exploitation
décisionnelle de ces informations reste limitée. Ce projet a donc pour but d’intégrer un
module BI permettant une meilleure analyse des ventes, une automatisation des rapports et
un pilotage efficace de l’activité commerciale.

2.2 Problématique

Il est aujourd’hui essentiel pour les décideurs d’avoir un accès rapide, clair et structuré aux
informations clés liées à l’activité de l’entreprise. Dans le cadre de l’ERP Microsoft Navision,
les données de ventes sont nombreuses, mais leur exploitation reste limitée sans un module
d’analyse décisionnelle efficace.

Notre projet vise à proposer une solution permettant de mieux exploiter ces données, à
travers l’intégration d’un module Business Intelligence (BI) centré sur l’analyse des ventes.
Cela permettrait d’avoir un meilleur suivi des performances commerciales, d’automatiser la
génération des indicateurs clés, et de faciliter la prise de décision.

18
Ainsi, la problématique que nous soulevons est la suivante : Comment exploiter et utiliser les
données de vente issues de l’ERP Navision afin d’avoir les informations et les indicateurs
nécessaires à une gestion commerciale efficace et à une prise de décision éclairée ?

2.3 Etude et critique de l’existant

Actuellement, l’ERP Microsoft Navision utilisé par l’entreprise centralise un ensemble riche
de données relatives à la gestion commerciale, notamment les ventes, les clients, les
produits et les factures. Toutefois, ces données sont principalement exploitées sous forme
brute, à travers des extractions manuelles ou des rapports standards, souvent peu flexibles,
et qui ne répondent pas toujours aux besoins spécifiques des décideurs.

Les utilisateurs doivent effectuer des manipulations manuelles sur Excel, ce qui peut
entraîner une perte de temps, une augmentation du risque d’erreurs, et une difficulté à
croiser les données de manière fluide. De plus, il n’existe pas d’outils visuels ou interactifs
permettant de suivre en temps réel les indicateurs de performance, ni de mécanisme
automatisé pour générer des tableaux de bord dynamiques.

En résumé, bien que la base de données de Navision soit riche, l’absence d’une couche
d’analyse décisionnelle (BI) limite fortement l’exploitation des données à des fins
stratégiques.

2.4 Solution proposée

Dans le cadre de notre projet de fin d’études, nous proposons une solution qui consiste à réaliser une
application permettant le suivi de l’activité commerciale de l’entreprise. Cette solution offrira une
visualisation simple et intuitive à travers des tableaux de bord interactifs (Dashboard), facilitant ainsi
la prise de décision grâce à une lecture claire des indicateurs clés de performance.

La solution repose sur tout le processus BI, allant de l’extraction des données issues de
Navision, à leur nettoyage, leur transformation et leur centralisation dans un entrepôt de
données (data warehouse). Une fois les données préparées, une application de visualisation
basée sur Power BI sera développée, permettant aux utilisateurs de consulter en temps réel
des indicateurs clés, comme le chiffre d’affaires, la rentabilité des produits ou la
performance des ventes par client ou par fournisseur.

Ce module offrira aux décideurs une vue claire et personnalisée de l’activité commerciale de
l’entreprise, leur permettant ainsi de piloter efficacement les stratégies de vente et
d’identifier rapidement les axes d’amélioration.

3 Les méthodologies de travail


Dans cette section, nous allons analyser deux méthodes de gestion de projet couramment
utilisées dans le domaine du développement informatique : la méthode Cycle en V et la
méthode SCRUM (approche agile). L’objectif est de comparer leurs caractéristiques,
avantages et limites, afin de justifier le choix de la méthode la plus adaptée à notre projet.

19
3.1 Méthode Cycle en V

La méthode Cycle en V est une approche de gestion de projet structurée qui couvre l’ensemble du
cycle de vie d’un produit ou d’un logiciel. Elle se divise en trois grandes étapes : la conception, la
réalisation et la vérification. Son principe repose sur deux phases complémentaires : une phase
descendante, où l’on définit les besoins et conçoit la solution, suivie d’une phase ascendante, dédiée
aux tests et à la validation du produit par rapport aux exigences initiales.

Figure 2: Cycle en V

3.2 Méthode SCRUM


SCRUM est une méthode agile itérative et incrémentale. Elle repose sur des cycles courts appelés
sprints (en général de 2 à 4 semaines), au cours desquels une partie du produit est développée,
testée et livrée.

Figure 3: processus de la méthode SCRUM


SCRUM repose sur deux principaux backlogs :

 Product Backlog : Il s'agit de la liste complète des besoins du produit, hiérarchisés selon leur
priorité. Ces besoins sont exprimés sous forme d’éléments appelés "User Stories".

 Sprint Backlog : C’est l’ensemble des tâches sélectionnées à partir du Product Backlog, que
l’équipe s’engage à réaliser durant un sprint donné. À titre d'exemple

 Sprint 0 : Nettoyage des données

20
 Sprint 1 : Intégration des données

 Sprint 2 : Restitution des données

 Sprint 3 : Visualisation et création des tableaux de bord

3.2.1 Les rôles clés dans la méthode SCRUM

 Scrum Master : Garant de l'application de la méthode SCRUM, il veille au respect des


valeurs et pratiques agiles. Il accompagne l’équipe et supprime les obstacles
rencontrés.
 Product Owner : Représentant du métier, il exprime les besoins fonctionnels, priorise
les tâches et s’assure que le produit final répond aux attentes des utilisateurs.
 L’équipe de développement : Composée de profils multidisciplinaires, elle est
responsable de la réalisation technique des fonctionnalités définies dans le Sprint
Backlog.

3.2.2 Comparaison et Choix de la méthodologie

Tableau 1: Etude comparative de la méthodologie


Critère Méthode Cycle en V Méthode SCRUM
Structure Linéaire et séquentielle Itérative et incrémentale
Faible : difficile de revenir en Élevée : adaptabilité aux
Flexibilité
arrière changements
Gestion des
Complexe et coûteuse Intégrée à chaque sprint
changements
Livraison À la fin du projet Continue à chaque sprint
Forte collaboration avec le
Communication Peu d’interactions avec le client
client
Visibilité sur
Faible (rapportée en fin de projet) Continue et progressive
l’avancement
Projets bien définis, peu de Projets évolutifs, besoins
Adaptée à
changements changeants

Pour synthétiser la comparaison effectuée entre les deux méthodologies, à savoir le Cycle en
V et SCRUM, il est possible de tirer les conclusions suivantes :

21
 Le Cycle en V appartient aux méthodes classiques, souvent jugées rigides et peu
adaptées aux projets nécessitant des ajustements en cours de route. De plus, cette
méthode implique un coût élevé, notamment en termes de temps et de flexibilité.
 La méthodologie SCRUM, en revanche, offre une approche itérative et collaborative.
Elle permet une meilleure planification à court terme grâce à la gestion par sprints,
offrant ainsi une vision claire des étapes, des ressources mobilisées et du temps
nécessaire à chaque phase.

Compte tenu de la nature du projet, de sa complexité et de la nécessité d’adaptation


continue, la méthodologie SCRUM s’est révélée être la plus appropriée. C’est pourquoi nous
avons choisi de structurer le développement de notre solution BI selon cette approche agile.

4 Organisation du projet à l’aide de Scrum


Afin d’assurer une gestion efficace et structurée de notre projet, nous avons opté pour la
méthodologie agile Scrum, qui permet d’avoir une vision claire sur l’avancement du projet,
tout en gardant la flexibilité nécessaire pour adapter notre approche aux besoins métiers.

4.1 Product Backlog


Le Product Backlog représente la liste priorisée des fonctionnalités à développer pour construire
notre module BI dans l’ERP Navision. Il regroupe les besoins exprimés sous forme de User Stories,
classés par ordre de priorité et estimés en temps.

Tableau 2: Product Backlog

Id User
Id Thème User Story Priorité Estimation
Story
Compréhension et En tant qu’analyste, j’ai besoin de
1 extraction des 1.1 comprendre les fichiers source pour Élevée 2 semaines
données analyser le contexte métier.
En tant qu’analyste, je dois identifier
1.2 les tables et les colonnes pertinentes Élevée 2 semaines
pour l’analyse.
En tant qu’analyste, je dois concevoir
Implémentation du le schéma en étoile du data
2 2.1 Élevée 2 semaines
Data Warehouse Warehouse pour modéliser les
ventes.
En tant qu’analyste, je dois intégrer
2.2 les données via un processus ETL Élevée 4 semaines
avec SSIS.
En tant qu’analyste, je dois tester le
2.3 bon fonctionnement du data Élevée 2 jours
Warehouse.
Génération de En tant qu’analyste, je dois analyser
3 rapports et tableaux 3.1 les besoins métier pour concevoir les Élevée 5 jours
de bord KPIs à visualiser.
3.2 En tant qu’analyste, je dois créer des Élevée 5 jours

22
Id User
Id Thème User Story Priorité Estimation
Story
rapports dynamiques sur Power BI.
En tant qu’analyste, je dois rendre les
3.3 rapports interactifs et simples à Élevée 5 jours
utiliser pour les décideurs.
En tant qu’analyste, je dois tester et
3.4 valider les visualisations avec les Élevée 5 jours
utilisateurs.
En tant qu’analyste, je veux prédire
Prédiction des ventes le chiffre d’affaires des mois suivants
4 4.1 Moyenne 1 semaine
(analyse avancée) à l’aide de modèles statistiques et de
deep learning.
En tant qu’analyste, je dois comparer
les performances des modèles
4.2 Moyenne 3 jours
ARIMA, SARIMA et LSTM pour choisir
la meilleure approche.
En tant qu’analyste, je dois
interpréter les résultats des
4.3 Moyenne 2 jours
prévisions pour enrichir l’aide à la
décision.

4.2 Planification des Sprints


Nous avons réparti le projet sur quatre sprints d’une durée d’environ 1 mois chacun, ce qui
correspond à la durée totale du projet de 4 mois.

Nous avons réparti les tâches du Product Backlog sur quatre sprints de deux semaines chacun :

Tableau 3: Planification des Sprints


User Stories
Sprint Objectif principal
concernées
Sprint 0 Compréhension et préparation des données 1.1, 1.2
Sprint 1 Conception et mise en place du Data Warehouse 2.1, 2.2
Sprint 2 Intégration et test des données avec SSIS 2.3, 3.1
Sprint 3 Création des Dashboard et validation des rapports 3.2, 3.3, 3.4

4.3 Répartition des rôles Scrum

Dans notre projet, les rôles Scrum sont répartis comme suit :

23
Figure 4: Les membres de l’équipe projet en mode Scrum

 Product Owner : Chokri Chaaraoui responsable de la vision métier et des priorités


fonctionnelles.
 Scrum Master : Ibtihel Rebhi qui contrôle si j’ai respecté les règles ou bien non.

 Équipe de développement : Arij Nasri responsable de l’analyse et du développement


BI.

Conclusion
Dans ce premier chapitre, nous avons présenté l’entreprise dans laquelle le projet a été réalisé,
expliqué le contexte et les objectifs du travail. Nous avons aussi décrit la situation actuelle de
l’entreprise pour mieux comprendre le problème à résoudre. Enfin, nous avons choisi la méthode
Scrum pour bien organiser et suivre les étapes du projet.

24
CHAPITRE 2
L’informatique décisionnelle et les outils
techniques

Introduction

25
Ce chapitre a pour but de présenter les fondements de l’informatique décisionnelle et les
différents outils techniques utilisés dans le marché afin de pouvoir choisir les meilleures
solutions qui serviront à la réalisation de notre projet.

1 Notions de base en informatique décisionnelle


L’informatique décisionnelle, ou Business Intelligence (BI), regroupe un ensemble de
processus, d’outils et de technologies permettant de transformer des données brutes en
informations utiles pour les décideurs. Elle repose sur la collecte, la modélisation, l’analyse
et la restitution des données en vue de faciliter la prise de décisions stratégiques et
opérationnelles.

Figure 5: Les notion de base d'un système décisionnel


1.1 Les données
Les données sont des éléments bruts, souvent non interprétables en l’état. Elles peuvent
être des chiffres, des dates, des noms, etc., collectées à partir de différentes sources (ventes,
clients, fournisseurs…).

1.2 Les informations


Les informations sont les données traitées et organisées, elles deviennent
compréhensibles et peuvent être utilisées pour des analyses.

1.3 Les connaissances


Les connaissances sont issues de l’analyse des informations. Cela nous permet de
comprendre les phénomènes, d’identifier des tendances et de prendre des bonnes décisions.

2 Entrepôt de données (Data Warehouse)

26
L’entrepôt de données (Data Warehouse) est une base de données spécialement conçue
pour l’analyse et la prise de décision. Ce type de système permet d’accéder à des
informations utiles aux décideurs via des rapports, des tableaux de bord et des indicateurs
clés de performance.

2.1 Les modèles d’entrepôt de données


Pour construire un entrepôt de données efficace, il existe plusieurs types de modélisation.
Les plus courants sont les suivants :

2.1.1 Modèle en étoile (Star Schema)

Le modèle en étoile est l’un des modèles les plus utilisés dans la prise de décision. Il est
constitué d’une table de faits (contenant les données chiffrées comme les ventes ou les
quantités) au centre, reliée à plusieurs tables de dimensions (telles que Client, Produit, Date,
etc.). Ce modèle est simple à comprendre, facile à implémenter et performant pour les
requêtes.

Figure 6: Exemple d’un modèle en Etoile (Star Schema)


2.1.2 Modèle en flocon de neige (Snowflake Schema)

Le modèle en flocon est une extension du modèle en étoile. Les tableaux de dimensions sont
standardisés, c'est-à-dire divisés en sous-tableaux pour éviter les doublons. Ce modèle
permet une meilleure organisation des données, mais il est plus complexe à interroger et
peut être légèrement moins performant.

27
Figure 7: Exemple d’un modèle en flocon de neige (Snowflake Schema)
2.1.3 Modèle en constellation (Galaxy Schema)

Le modèle en constellation, aussi appelé modèle en galaxie, utilise plusieurs tables de faits
qui partagent des tables de dimensions communes. Ce modèle est souvent utilisé pour des
données complexes provenant de processus métiers différents.

Figure 8: Exemple d’un modèle en constellation (Galaxy Schema)


2.2 Comparaison entre les modèles du Data Warehouse
Voici un tableau synthétique comparatif des trois principaux modèles :

28
Tableau 4: Comparaison entre les modèles
Critère Étoile Flocon de neige Constellation
Moyennement
Simplicité Très simple Complexe
complexe
Performances Moindres (plus de Variables selon la
Élevées
requêtes jointures) complexité
Redondance des Légèrement Faible (données
Moyenne à élevée
données redondant normalisées)
Moyennement
Maintenance Facile Difficile
complexe
Adapté aux Moins adapté aux
Oui Oui
utilisateurs débutants
Utilisation typique Reporting classique Reporting détaillé Analyse multiprocessus

2.3 Modélisation dimensionnelle


La modélisation dimensionnelle est une technique centrale pour la conception d’un entrepôt
de données hautes performances. Elle repose sur la séparation entre les tables de faits et les
tables de dimensions.
2.3.1 Les dimensions
Une dimension représente un axe d’analyse. Chaque dimension contient des attributs descriptifs

2.3.2 La table de fait


La table de fait contient des mesures quantitatives liées aux processus métiers. Chaque
enregistrement est associé à des clés étrangères pointant vers les dimensions. Elle peut aussi
inclure des mesures calculées.
2.3.3 Les Hiérarchies
Les hiérarchies permettent de structurer les dimensions selon plusieurs niveaux
d’agrégation. Par exemple, dans une dimension Date, la hiérarchie peut aller de Jour → Mois
→ Trimestre → Année. Elles facilitent le drill-down et les analyses temporelles dans les
tableaux de bord.

3 Processus ETL et outils associés


Le processus ETL (Extract, Transform, Load) est une étape fondamentale dans la chaîne de
business intelligence.
Il permet d’extraire des données brutes depuis diverses sources, de les transformer pour les
rendre cohérentes et exploitables, puis de les charger dans l’entrepôt de données pour une
analyse optimale.

3.1 Étapes du processus ETL


 La collecte de données :

29
Cette étape consiste à extraire les données depuis une ou plusieurs sources hétérogènes : bases de
données relationnelles, fichiers Excel, ERP, CRM, ou encore des API. L’objectif est de rassembler
toutes les données pertinentes pour les analyses futures.

 L’extraction et la transformation (Extract, Transform) :

Une fois les données extraites, elles sont transformées pour garantir leur qualité, leur
cohérence et leur intégrité. Cela inclut :

 Le nettoyage des données (suppression des doublons, correction des erreurs),


 La normalisation (mise au même format),
 La conversion des types de données,
 L’application de règles métiers (calculs, regroupements, jointures).

 Le chargement (Load) :

Dans cette dernière étape, les données transformées sont chargées dans le Data Warehouse. Cette
phase garantit que l’entrepôt est toujours alimenté avec des données fraîches et fiables.

Figure 9: ETL Process

3.2 Outils ETL


3.2.1 Talend Open Studio
Talend Open Studio est une solution open-source qui propose une interface graphique
intuitive pour concevoir des jobs ETL et prend en charge de nombreuses sources de données.

Figure 10: Talend Open Studio

30
3.2.2 SSIS (SQL Server Integration Services)
SSIS est un outil ETL fourni par Microsoft au sein de SQL Server. C'est un outil puissant et
largement utilisé dans les environnements Microsoft. Il permet d'automatiser les flux de
données de manière robuste.

Figure 11: SQL Server

3.3 Comparaison des outils ETL

Tableau 5: Etude comparative


SSIS (SQL Server Intégration
Critère Talend Open Studio
Services)
Développeur Microsoft Talend
Plateforme d'intégration de
données pour l'ETL (extraction, Outil open-source d'intégration de
Objectif transformation, chargement), données avec support de l’ETL, l’ELT, le
principalement dans l'écosystème Big Data, et l’intégration cloud
Microsoft
- Open source (version gratuite
- Intégration native avec SQL
disponible) - Compatible avec de
Server et Microsoft BI stack -
nombreux systèmes (bases de données,
Performance élevée avec gestion
Avantages fichiers, API, etc.) - Interface graphique
en mémoire - Interface graphique
riche - Forte communauté open source -
intuitive via Visual Studio - Sécurité
Prise en charge du Big Data et du cloud
intégrée avec Active Directory
(dans les versions payantes)
- Consommation de ressources plus
- Dépendance à l’écosystème élevée - La version open-source a des
Microsoft - Moins flexible avec des fonctionnalités limitées - Moins
Inconvénients sources non-Microsoft - Version performant que SSIS pour de très gros
complète payante (licence SQL volumes sans tuning avancé -
Server) Apprentissage parfois plus complexe
pour les débutants

31
4 Outils de Business Intelligence (BI)
Les deux principaux outils de Business Intelligence pour la visualisation sont Tableau et
Microsoft Power BI.

4.1 Power BI
Power BI est un outil BI développé par Microsoft. Il permet aux utilisateurs de créer des
rapports dynamiques et des tableaux de bord interactifs à partir de différentes sources de
données (Excel, SQL Server, services cloud, etc.). Il se distingue par sa simplicité d’utilisation,
sa puissance analytique et son intégration fluide avec l’environnement Microsoft 365.

Figure 12: Power BI


4.2 Tableau
Tableau est un autre outil de BI très répandu, apprécié pour sa capacité à traiter des
volumes importants de données et à produire des visualisations percutantes. Il offre une
grande flexibilité dans la création d’analyses interactives et dispose d’une large communauté
d’utilisateurs.

Figure 13: Tableau

4.3 Comparaison entre Power BI et Tableau

Tableau 6: Comparaison entre Power BI et Tableau


Critère Power BI Tableau
Facilité d’utilisation Très facile Moyenne (plus orienté analystes)
Visualisations Variées et intuitives Très riches et professionnelles
Intégration Forte avec Microsoft Large éventail de connecteurs
Coût Gratuit ou peu coûteux Licences coûteuses

32
Critère Power BI Tableau
Performance Très bonne sur volumes moyens Excellente sur gros volumes
Personnalisation Bonne via DAX Très avancée via Tableau Calculations
Public cible Tous types d’utilisateurs Plutôt analystes et data scientists

5 Synthèse des choix techniques


Après l’analyse des concepts fondamentaux de l’informatique décisionnelle et l’étude
comparative des différentes solutions disponibles, cette section présente les choix
techniques adoptés dans le cadre de notre projet. Ces décisions ont été motivées par des
critères tels que la facilité d’utilisation, l’adéquation avec les objectifs du projet, les
compétences techniques disponibles, ainsi que les contraintes budgétaires et temporelles.

5.1 Choix du modèle de données

Parmi les différents modèles d’entrepôt de données (étoile, flocon de neige, constellation),
le modèle en flocon de neige a été retenu. Ce choix s'explique par les raisons suivantes :

 Il permet une meilleure normalisation des données, ce qui réduit la redondance et


améliore la qualité des informations ;
 Il est adapté à une base de données bien structurée et relationnelle comme celle de
l’ERP Navision ;
 La séparation des dimensions en sous-dimensions nous a permis de représenter
fidèlement la complexité des entités (produits, clients, fournisseurs…).

5.2 Choix de l’outil de Business Intelligence

Après avoir comparé Power BI et Tableau, Power BI a été choisi pour l’analyse et la
visualisation des données. Ce choix a été justifié par :

 Sa facilité de prise en main et son intégration naturelle avec Excel et SQL Server, déjà
utilisés dans l’entreprise ;
 La présence d’une version gratuite permettant un usage immédiat et sans coût ;
 La richesse de ses fonctionnalités de visualisation et d’interactivité, facilitant la
création de tableaux de bord clairs et dynamiques ;
 La possibilité de publier les rapports en ligne via Power BI Service, pour faciliter leur
accès par les décideurs.

5.3 Choix de l’outil ETL

Pour le processus d’extraction, de transformation et de chargement des données, SQL Server


Intégration Services (SSIS) a été retenu pour les raisons suivantes :

 Il s’intègre parfaitement avec SQL Server, l’environnement de base de notre entrepôt


de données ;

33
 Il offre une interface graphique conviviale pour concevoir les flux de données ETL
sans écrire de code ;
 Il permet une automatisation des traitements et un déploiement professionnel des
packages ETL ;
 SSIS est un outil puissant et robuste, déjà reconnu dans le milieu professionnel.

Conclusion

Dans ce chapitre, nous avons fait une comparaison des outils pour choisir les meilleurs outils pour
notre projet. Le chapitre suivant présente notre premier sprint.

34
SPRINT 0 : Cadrage du projet

Chapitre 3
ANALYSE ET SPECIFICATION DES BESOINS

35
Introduction
Cette section présente le cadrage initial du projet. Elle décrit les acteurs impliqués, les
besoins fonctionnels et non fonctionnels identifiés, ainsi que le diagramme de cas
d’utilisation élaboré.

A. Sprint 0 :
Tableau 7: Planification du sprint 0
Sprint Taches Estimation
Sprint 0 : Cadrage du projet Spécification et analyse des besoins 5 jours

1 Les acteurs de l’entreprise


Dans le cadre de notre projet, notre objectif est la création d’une solution décisionnelle pour
la vente. Deux acteurs principaux interviennent de manière active :

Figure 14: Les acteurs de mon projet

2 Spécification des Besoins


Avant de développer une solution informatique, il est essentiel de comprendre précisément
ce que l’on attend du projet. Cette phase permet de définir clairement les attentes du client
et les fonctionnalités à mettre en œuvre. Dans notre cas, nous avons identifié deux grandes
catégories de besoins : les besoins fonctionnels, qui décrivent ce que le système doit faire, et
les besoins non fonctionnels, qui précisent les contraintes techniques et de qualité à
respecter.

2.1 Les besoins fonctionnels

La mise en œuvre de notre projet repose sur des besoins fonctionnels répartis en deux
niveaux complémentaires.

Premier niveau : préparation et modélisation des données

36
 Mettre en place un processus ETL pour extraire les données issues de différents
fichiers Excel, les transformer (nettoyage, structuration, conversion) et les charger
dans une base de données dédiée.
 Concevoir un entrepôt de données organisé selon une modélisation en étoile,
intégrant une table de faits et plusieurs tables de dimensions.
 Garantir la cohérence, la qualité et la fiabilité des données centralisées dans le Data
Warehouse afin d’assurer une base solide pour les analyses futures.

Deuxième niveau : visualisation et exploitation des données

 Élaborer des rapports et des tableaux de bord dynamiques avec Power BI, en mettant
en évidence les indicateurs clés.
 Fournir aux décideurs des visualisations claires et interactives leur permettant
d’explorer les données sous différents angles.
 Offrir une interface intuitive qui facilite la prise de décision stratégique en se basant
sur des insights fiables et actualisés.

2.2 Les besoins non fonctionnels


Comme tout projet informatique, il est important de prendre en compte les besoins non
fonctionnels qui assurent la qualité, la fiabilité et la facilité d’utilisation du système. Notre
projet respecte donc les critères suivants :

 Clarté et structuration des visualisations : Les tableaux de bord doivent être organisés
de manière simple, lisible et compréhensible par tous les utilisateurs.
 Fonctionnalités interactives : les utilisateurs doivent pouvoir filtrer,
cliquer ou explorer directement les données dans les tableaux de bord
pour obtenir des vues personnalisées et détaillées.
 Exactitude des données : Les analyses doivent reposer sur une base de données fiable,
actualisée et sans incohérences pour produire des résultats justes.
 Réactivité et accessibilité : Le système doit répondre rapidement aux requêtes et être
accessible à tout moment pour les décideurs.
 Utilisabilité : La solution doit être simple à manipuler aussi bien pour les responsables
métiers que pour les utilisateurs techniques, favorisant une adoption facile au sein de
l’entreprise.

3 Les diagrammes
Afin de mieux illustrer les interactions entre les utilisateurs et le système à développer, nous
avons eu recours à des outils de modélisation UML. Ces représentations permettent de
visualiser les fonctionnalités attendues ainsi que les relations entre les différents acteurs et
le système. Le diagramme de cas d’utilisation, en particulier, est un outil essentiel pour
exprimer les exigences fonctionnelles de manière claire et synthétique.

37
3.1 Diagramme de cas d’utilisation

Figure 15: Diagramme de cas d’utilisation

Figure 16: Diagramme de cas d’utilisation : Gérer les sources de données


Le tableau ci-dessous présente la description textuelle du notre cas d’utilisation : Gérer les
sources de données :

Tableau 8: Diagramme de cas d’utilisation : Gérer les sources de données


Nom du cas Gérer les sources de données
Acteur principal Administrateur Arij
But Gérer les fichiers sources nécessaires à l’analyse BI.

38
L’administrateur doit être connecté et les fichiers sources doivent être
Pré conditions accessibles sur le système.

La source est ajoutée, modifiée ou supprimée, et prête à être utilisée dans


Post conditions le processus ETL.

Figure 17: Diagramme de cas d’utilisation : Gérer le processus ETL


Le tableau ci-dessous présente la description textuelle du notre cas d’utilisation : Gérer le
processus ETL :

Tableau 9: Diagramme de cas d’utilisation : Gérer le processus ETL


Nom du cas Gérer le processus ETL
Acteur principal Administrateur Arij
But Automatiser le flux d’intégration des données pour alimenter l’entrepôt.
Pré conditions Les sources de données doivent être définies et accessibles.
Post conditions Les données sont transformées, nettoyées et chargées dans l’entrepôt.

39
Figure 18: Diagramme de cas d’utilisation : Créer des tableaux de bord
Le tableau ci-dessous présente la description textuelle du notre cas d’utilisation : Créer des
tableaux de bord :

Tableau 10: Diagramme de cas d’utilisation : Créer des tableaux de bord


Nom du cas Gérer le processus ETL
Acteur principal Administrateur Arij
But Concevoir des visualisations interactives à partir des données BI
Pré conditions L’administrateur s’authentifie et l’Outil BI installé
Post conditions Un tableau de bord fonctionnel est créé et accessible.

Conclusion
Dans ce chapitre, nous avons défini les besoins fonctionnels et non fonctionnels du projet,
ainsi que les différents acteurs et leurs interactions. Ces éléments constituent la base de la
phase de conception technique qui sera abordée dans le chapitre suivant.

40
SPRINT 1 : Compréhension et extraction des données

Chapitre 4
Conception de la solution BI : Modélisation
et nettoyage des données

41
Introduction
Ce chapitre marque le début de la phase de mise en œuvre technique de notre projet. Il
décrit les activités réalisées au cours du Sprint 1, dédiées à la compréhension des données
sources, à la modélisation de l’entrepôt de données et à la mise en place de l’environnement
de travail, ainsi que l’implémentation du processus ETL. Ces étapes constituent le socle de
notre solution BI et garantissent l’intégrité, la qualité et la pertinence des informations à
analyser.

B. Sprint 1 :
Tableau 11: Compréhension et extraction des données
Sprint Taches Estimation
Sprint 1 : Compréhension et Analyse des fichiers sources 4 semaines
extraction des données Conception du Data
Warehouse

Définition de
l’environnement de travail
Développement des flux ETL

1 Compréhension des données


Dans le cadre de l’intégration d’un module décisionnel dans l’ERP Microsoft Dynamics
Navision, un important volume de données historiques a été collecté. Ces données
proviennent de plusieurs extractions effectuées depuis l’ERP, rassemblées sous forme de
fichiers Excel.

Pour ce projet, nous avons eu accès à un ensemble de fichiers structurés, contenant des
informations critiques sur les transactions commerciales et les articles. Ces fichiers ont été
utilisés pour alimenter notre entrepôt de données. Voici les principales sources exploitées :

 Cust_LedgerEntries : contient l’historique des écritures comptables clients, telles que


les ventes, paiements et soldes.

Figure 19: Les champs exploitées de notre source Cust_LedgerEntries

 ItemSalesAndProfit : regroupe les indicateurs de performance des ventes et des


marges pour chaque produit.

42
Figure 20: Les champs exploitées de notre source ItemSalesAndProfit

 ItemLedgerEntries : fournit des données sur les mouvements de stock (entrée, sortie,
transfert) ainsi que les coûts associés.

Figure 21: Les champs exploitées de notre source ItemLedgerEntries

 Item_Sales_List : détaille les transactions de vente article par article, avec les clients,
dates et montants.

Figure 22: Les champs exploitées de notre source Item_Sales_List


Chaque fichier a été analysé séparément pour comprendre les colonnes disponibles, leur
pertinence métier, la qualité des données ainsi que leur pertinence pour la construction de
notre modèle décisionnel.
Les champs retenus pour la construction du Data Warehouse ont été sélectionnés selon leur
utilité pour répondre aux besoins analytiques exprimés lors du cadrage du projet. Nous
avons par la suite intégré ces données dans un processus ETL complet.

2 Conception du Data Warehouse


2.1 Table de faits
La table de faits de notre modèle en étoile est Fact_Table. Elle regroupe les indicateurs
quantitatifs nécessaires à l’analyse des ventes. Cette table est liée aux dimensions : Date,
Client, Produit et Fournisseur.

43
Tableau 12: la table de faits

Nom de la colonne Description

Id_Fact_Table Identifiant unique de la ligne de faits

Item_No Référence de l'article

Customer_No Référence du client

id_vendor Référence du fournisseur

Id_Date Date du mouvement

Purchases_LCY Montant des achats en devise locale

Purchases_Qty Quantité achetée

Sales_Qty Quantité vendue

Sales_LCY Montant des ventes en devise locale

Unit_Cost Coût unitaire

Unit_Price Prix unitaire

Inventory Stock disponible

2.2 Les dimensions

Les dimensions décrivent les contextes d’analyse. Chaque dimension est associée à une clé
étrangère de la table de faits :

 Dim_Client : regroupe les informations des clients (code, nom, groupe).


 Dim_Produit : contient les détails des articles (code, catégorie, description, unité).
 Dim_Fournisseur : comprend les données des fournisseurs.
 Dim_Date : permet une analyse temporelle fine (année, mois, jour, trimestre, date
complète).

44
Tableau 13: les tables des dimensions
Nom de la Clé
Attributs Description
dimension primaire
Contient les informations sur les
Customer_Name, clients. Elle permet d’analyser les
Dim_Client Customer_No
Customer_Posting_Group ventes par client ou groupe de
clients.
Fournit les détails sur les produits
vendus, incluant leur catégorie,
Item_Category_Code,
description, et unité de mesure.
Dim_Produit Item_No Item_Description,
Cette dimension est essentielle
Unit_of_Measure_Code
pour l’analyse des performances
produits.
Année, Mois, Jour, Trimestre, Sert à effectuer des analyses
Dim_Date Id_Date
Date temporelles.
Contient les informations sur les
fournisseurs des produits. Utile
Dim_Fournisseur id_vendor Vendor_No, VendorName pour analyser les marges, coûts
d’achat ou la performance des
fournisseurs.

2.3 Modélisation de l’entrepôt de données


Le schéma ci-dessous illustre le modèle en étoile de notre projet :

Figure 23: Le modèle en étoile

45
3 Outils utilisés
Tableau 14: Les outils utilisés
Outil Description Logo

Interface graphique permettant d’interagir avec


SQL Server SQL Server. Utilisé pour exécuter des requêtes
Management Studio SQL, gérer les bases de données, créer des
(SSMS) objets (tables, vues, index), et analyser les
résultats.

Environnement de développement intégré (IDE)


utilisé pour concevoir, déployer et tester les
Visual Studio 2022
packages SSIS. Il facilite la visualisation des flux
de données et le débogage des tâches ETL.

Langage de programmation utilisé pour le


traitement des séries temporelles et la
Python (Jupyter construction des modèles de prévision (ARIMA,
Notebook) SARIMA, LSTM). Permet l’analyse, la
visualisation des données et l’évaluation des
modèles prédictifs.

4 Développement de la partie ETL


4.1 Intégration des données
Cette section vise à fournir un aperçu détaillé du développement du
processus ETL (Extraire, Transformer, Charger), qui a été mis en œuvre
dans le cadre de l'intégration du module de prise de décision pour
l'analyse des ventes au sein de l’ERP Navision. Ce processus a été mis en œuvre à
l'aide de SQL Server Integration Services (SSIS) et de SQL Server
Management Studio (SSMS) et fait partie de la première phase de notre
approche agile. 4. Le processus est organisé en trois phases principales :
l'extraction des données, la transformation/le nettoyage et le chargement
dans la base de données.

46
Figure 24: Le processus ETL

4.1.1 Étapes préliminaires : Connexion et création de la base


Avant de procéder au développement du processus ETL, nous avons effectué les opérations
suivantes dans SSMS :
- Connexion au serveur SQL Server

Figure 25: La connexion au serveur

- Création d’un projet SQL Server

47
Figure 26: Création d’un Serveur

- Création de la base de données décisionnelle PFE

Figure 27: Création de la base de données décisionnelle PFE

- Création des tables des dimensions et de la table de faits

48
Figure 28: La création d'une table

Figure 29: La table dimension Client

Figure 30: La table dimension Produit

49
Figure 31: La table dimension Date

Figure 32: La table dimension Fournisseur

Figure 33: La table de fait

50
4.1.2 Extraction des données

L’extraction constitue la première phase du processus ETL. Cela implique de récupérer les
données brutes à partir des fichiers exportés depuis Navision ERP, puis de les charger dans
une base de données de type Staging Area. Cette étape garantit la traçabilité des données
sources et facilite les traitements ultérieurs (nettoyage, transformation, chargement dans le
DWH).

Dans notre projet, les données proviennent de plusieurs fichiers Excel, notamment :

 ItemLedgerEntries xlsx
 Item_Sales_List.xlsx
 Cust_LedgerEntries.xlsx
 [Link]

Figure 34: Tâches d’extraction et de chargement initial pour un seul fichier


4.1.3 Nettoyage et transformation des données
Après l'extraction initiale, les données brutes doivent être nettoyées,
standardisées et préparées pour l'intégration dans le modèle Star. Cette
étape est essentielle pour garantir la cohérence, la qualité et la
compatibilité des données.

Dans SSIS, chaque flux de données est composé de plusieurs composants de transformation
qui permettent de corriger, enrichir ou formater les données avant leur chargement final.

a) Sort :

51
L’une des premières opérations effectuées consiste à détecter et à
supprimer les éléments en double.

Figure 35: Composant Sort pour suppression des doublons

b) Colonnes dérivées

Dans notre fichier source, la date de transaction est représentée par trois champs distincts : Année,
Mois et Jour. Afin de créer une colonne DATE standard, nous avons utilisé
le composant Colonne dérivée pour concaténer ces éléments et les
convertir au format approprié.

Figure 36: Création de la colonne Date dans le composant Derived Column

52
Figure 37: Remplacer les NULL par une valeur

c) Jointure de fusion
Dans notre projet, les informations relatives aux clients étaient réparties sur deux fichiers
Excel distincts. Pour unifier ces informations en une vue unique et cohérente,
nous avons utilisé le composant SSIS Merge Join, qui permet des jointures
entre deux flux de données triés, sur la base d’un champ commun (ici, le code client
ou Customer_No).

Figure 38: Utilisation du composant Merge Join pour fusionner deux sources Excel clients

53
d) Lookup
Avant de charger la table de faits, nous devons remplacer les ID d’origine
par des clés de substitution créées dans les dimensions.

Figure 39: Composant Lookup

54
4.1.4 Chargement des données
Une fois les données extraites, nettoyées et transformées, l’étape finale
du processus ETL consiste à les charger dans l’entrepôt de données, conçu
selon le modèle en étoile.

Cette phase se fait en plusieurs étapes, en respectant l’ordre logique de chargement :


d’abord les dimensions, ensuite la table de faits.

Dans notre projet, nous avons utilisé SQL Server Management Studio (SSMS) pour construire
les tables du Data Warehouse, et SQL Server Integration Services (SSIS) pour automatiser le
chargement via des packages.

Nous avons d’abord chargé les données extraites depuis les fichiers Excel vers la zone de
staging. Les données ont ensuite été transformées et fusionnées dans les
tables de destination DWH, en tenant compte des relations définies par le
modèle en étoile. Plusieurs composants ont été utilisés dans les sections
relatives au flux de contrôle et au flux de données :

Source OLE DB : utilisée pour lire les données nettoyées depuis la base de données.

 Destination OLE DB : utilisée pour insérer les données finales dans les tables cibles du
DWH (dimensions et faits).
 Tâche d'exécution de requêtes SQL : permet d’exécuter des scripts de préparation ou
de vidage de tables avant le chargement (par exemple, un TRUNCATE TABLE).
 Tâche de flux de données (Data Flow Task) : assure le transfert des données
d’une source vers une destination avec les transformations nécessaires.

Figure 40: Flux de chargement de la table de faits

55
Figure 41: Exécution du flux de chargement de la table de faits

Figure 42: Vue d’ensemble des flux de chargement des dimensions et de la table de faits
Afin d’assurer la pérennité de l’entrepôt de données et la mise à jour
régulière des données, une automatisation des flux incrémentaux a été
mise en place. Elle est détaillée dans la section suivante.
4.1.5 Chargement incrémental automatisé des nouvelles données
Afin de garantir l’actualisation continue des données dans notre entrepôt décisionnel, un mécanisme
de chargement incrémental a été mis en place. Cette automatisation permet d’intégrer de nouvelles
données de ventes saisies dans un fichier Excel externe (Nouvelles_Ventes) sans perturber la
structure existante de la base de données.

L'objectif est d'automatiser la fusion des enregistrements nouvellement


ajoutés dans le fichier source, en tenant compte des relations et des
contraintes du modèle en étoile, en particulier l'intégrité de référence
entre la table de faits et les dimensions.

56
Figure 43: Exécution du flux de données (l’exécution du package)

Figure 44: Exécution des composants Lookup

 Les bénéfices de cette automatisation :

- Actualisation dynamique des données sans intervention manuelle lourde.

- Garantie d’intégrité référentielle via les Lookup.

- Évolutivité : possibilité d’intégrer d’autres sources externes dans le futur.

- Gain de temps pour l’équipe BI et les utilisateurs finaux.

Conclusion
Ce sprint nous a permis de poser les bases techniques de notre projet. À travers l’extraction,
le nettoyage, la transformation et le chargement des données issues de l’ERP Navision, nous
avons structuré un entrepôt de données fiable et cohérent.
De plus, l’automatisation de l’alimentation incrémentale assure la mise à jour continue des
données, facilitant leur exploitation dans des rapports dynamiques et des tableaux de bord
interactifs, qui seront développés dans le sprint suivant.

57
SPRINT 2 : Création des Dashboard et validation des
rapports

Chapitre 5
Visualisation et reporting
avec Power BI

Introduction
58
Dans ce chapitre, nous abordons la phase de restitution des données à travers des
visualisations interactives conçues avec Power BI. Ce sprint a permis de transformer les
données préalablement nettoyées et modélisées dans le Data Warehouse en tableaux de
bord exploitables par les décideurs. L'objectif est de fournir une vision claire et concise de
l'activité de l'entreprise.

Figure 45: Du traitement des données au reporting visuel


SPRINT 2 :

Tableau 15 : Création des dashboards et validation des rapports


Sprint Taches Estimation
Sprint 2 : Création des dashboards et validation Création des tableaux de
3 Semaines
des rapports bord

1 Connexion à l’entrepôt de données


La première étape consiste à se connecter à la base SQL Server contenant notre entrepôt de
données.

59
Figure 46: : Connexion au Data Warehouse depuis Power BI

Puis à importer les tables dimensionnelles ainsi que la table de faits.

Figure 47: Importation des tables dans Power BI

2 Création des mesures


Nous avons créé plusieurs mesures personnalisées sur Power BI à partir de la table de faits :

 CA = SUM(Fact_Table[Sales_LCY])

 Marge Brute = SUMX(Fact_Table, Fact_Table[Sales_LCY] -Fact_Table[Total_Cout])

60
 Taux de Marge = DIVIDE([Marge Brute], [Chiffre d'affaire], 0)

 Total_Cout = SUM(Fact_Table[Purchases_LCY])

Figure 48: Création des mesures dans power BI

3 Conception des tableaux de bord


Nous avons créé cinq pages de dashboard pour répondre aux besoins d’analyse.

3.1. Page d’accueil : Performance Globale :

Cette page synthétise les KPIs globaux sous forme de cartes : CA total, Profit total, Quantité
vendue, Taux de marge, Nombre de clients, Nombre de produits vendus. Elle contient
également des segments interactifs permettant de filtrer les visuels dynamiquement :

 Years : pour sélectionner les années d'analyse (2020, 2021)

 Quarter : pour filtrer par trimestre (Trim 1 à Trim 4)

 Month : permet de filtrer par mois (janvier à décembre)

 Item_Category : pour analyser par catégorie de produits

 Item_Description : pour filtrer les produits individuellement

 Customer_Name : pour se focaliser sur un client spécifique

 Customer_Group : pour comparer les groupes de clients (NATIONAL, ÉTRANGER, etc.)

Les segments rendent l’exploration fluide et permettent une lecture croisée selon plusieurs
axes.

61
Figure 49: Segment interactif

3.1.1 Interprétation de la figure

Cette page constitue un tableau de bord synthétique qui donne une vue d'ensemble de la
performance commerciale globale. Elle permet de suivre les indicateurs clés (CA, marge,
quantités, clients) tout en offrant une segmentation par client et produit.

Figure 50: Suivi des ventes

 Le chiffre d'affaires total atteint 35,63M, avec une marge brute de 8M, traduisant une bonne
performance générale.

 Le taux de marge de 22,4 % indique une rentabilité correcte sur les ventes réalisées.

 La quantité vendue (84K) montre une activité de distribution dynamique.

62
 Le nombre de clients est de 5, ce qui signifie que le portefeuille client est restreint mais
concentré et 18 produits ont été commercialisés, ce qui offre une bonne diversité au
catalogue.

 Le graphique circulaire révèle une forte prédominance de la catégorie TABLE (39,9 %) suivie
de CHAISE (37,06 %) et DIVERS (23,04 %). Cela permet d’orienter les stratégies marketing sur
les segments les plus rentables.

 Le graphique en barres met en valeur les clients les plus rentables, en particulier "School of
Fine Art" (12,2M) et "Adatum Corporation" (10,9M), éléments clés pour les futures
campagnes commerciales.

3.2 Analyse par produit

Ce dashboard permet de visualiser le CA, le profit et les quantités vendues par catégorie de
produit ou par produit. Il intègre des visuels de type : treemap, graphique en barres,
graphique en aires et slicers.

1.1.1 Interprétation de la figure

Figure 51: Analyse par produit


 Le graphique de gauche affiche le profit généré par produit. Les produits "Tableau ATLANTA,
socle" (2,9M) et "Bureau ATHENES" (2,6M) sont les plus rentables.

 Le graphique à barres de droite montre les Top 5 produits par chiffre d'affaires. Le produit
"Tableau ATLANTA" domine avec un CA de 14M, suivi par "Bureau ATHENES" avec 10M.

 Le graphique circulaire (en bas à droite) illustre la quantité vendue par catégorie : la
catégorie "TABLE" représente 55,25 %, suivie de "CHAISE" (24,61 %) et "DIVERS" (20,13 %).
Cela montre que les tables dominent les ventes en terme de volume.

63
 Le graphique de gauche (camembert vertical) donne le CA par catégorie : les catégories
DIVERS et TABLE sont en tête.

 La table de données mensuelle (en bas à gauche) permet une lecture fine des ventes
mensuelles par produit. Elle met en évidence des ventes de certains produits comme
"Bureau ATHENES" ou "Chaise dactylo MEXICO".

 Les segments interactifs permettent de filtrer dynamiquement les analyses par :


Item_Category, Description, période (mois, trimestre, année), groupe client, etc.

 Ce tableau de bord offre donc une vue très granulaire sur la performance des produits en
termes de CA, profit, quantité et régularité des ventes.

3.3 Analyse par client

Cette page contient un graphique à barres de vos 5 principaux clients par chiffre d'affaires,
un graphique horizontal des revenus générés par client et un graphique à secteurs montrant
la répartition des revenus par groupe de clients, ainsi qu’un tableau croisé des ventes
mensuelles.

3.3.1 Interprétation de la figure

Figure 52: Analyse par client


 Le graphique "Profit par client" montre que les trois clients les plus rentables sont "School of
Fine Art" (2,7M), "Adatum Corporation" (2,6M) et "Alpine Ski House" (1,8M).

 Le graphique "Top 5 Clients par CA" confirme ces mêmes clients comme étant ceux ayant
généré le plus de chiffre d'affaires, avec "School of Fine Art" atteignant 12,2M .

 Le graphique circulaire met en évidence la répartition du chiffre d'affaires par


Customer_Group. Le groupe NATIONAL est le plus important (43,59 %), suivi de INTRA (34,29

64
%) et ÉTRANGER (22,12 %). Cette répartition peut aider à adapter la stratégie commerciale
par segment géographique.

 La table croisée permet de suivre l’évolution du CA mensuel par client. Elle révèle, par
exemple, une régularité dans les achats d’Adatum Corporation et une concentration
saisonnière chez School of Fine Art.

 Les segments permettent une exploration détaillée par nom de client, catégorie ou période.

 Ce tableau de bord est essentiel pour le suivi de la relation client et pour identifier les
partenaires stratégiques à fidéliser ou à relancer.

3.4 Analyse par fournisseur

Ce tableau de bord permet de visualiser le chiffre d’affaires et les quantités achetées par
fournisseur, ainsi que la contribution de chacun dans l’approvisionnement global. Il permet
aussi d’associer chaque fournisseur aux produits livrés, et d’évaluer leurs performances au fil
du temps.

3.4.1 Interprétation de la figure

Figure 53: Analyse par fournisseur


 Le graphique en barres montre que le fournisseur principal est Graphic Design Institute, avec
un CA de 27M, suivi de First Up Consultants (8M) et Fabrikam, Inc. (1M). Cela permet
d’identifier les fournisseurs stratégiques.

 Le graphique circulaire affiche la part des quantités achetées par fournisseur. Le Graphic
Design Institute représente environ de 49,35 % des volumes, ce qui reflète la forte
dépendance à ce fournisseur.

 La table centrale relie chaque fournisseur aux articles livrés, ce qui facilite l’analyse produit-
fournisseur (ex. : Graphic Design pour les bureaux et chaises MEXICO).

65
 La table en bas donne une vue mensuelle du CA généré par fournisseur, utile pour observer
leur régularité d’approvisionnement.

 Les segments (Item_Category, Date, Fournisseur) permettent de croiser les analyses par
catégorie, période ou produit.

 Ce tableau est fondamental pour la gestion des relations fournisseurs, l’identification de


sources critiques et la diversification des partenaires si nécessaire.

3.5 Analyse temporelle


Ce tableau de bord affiche les évolutions des ventes et des profits au fil du temps, ce qui permet de
dégager les effets saisonniers ou les variations mensuelles. Il utilise des visuels de type ligne
temporelle, histogrammes, graphique en aires et en cascade.

3.5.1 Interprétation de la figure

Figure 54: Analyse temporelle

 Le graphique en cascade (Quantité vendue par trimestre) montre une croissance


progressive sur l'année, atteignant un total de 84K unités vendues, avec un pic notable
au T3 (17K). Cela suggère une saisonnalité favorable à cette période.
 Le graphique en lignes du chiffre d'affaires par mois/année illustre une stabilité
entre 2,3M et 2,5M sur presque toute la période analysée, avant une chute en avril
2021 (0,1M), probablement due à une interruption ou un cycle creux.
 Le graphique de quantité mensuelle vendue montre un pic en février (12K), suivi
d’une baisse stable à 6K pour plusieurs mois. Les mois de juillet à décembre
présentent les volumes les plus bas (5K), ce qui confirme une saisonnalité inversée
sur la fin d'année.
 Le graphique de profit mensuel reflète une tendance similaire, avec un profit
maximal en janvier, février et mars 2020 (autour de 1M), puis une stagnation autour
de 0,5M les mois suivants.

66
 Cette analyse temporelle permet aux décideurs d’anticiper les périodes faibles ou
fortes de vente, de planifier les campagnes marketing, de gérer les stocks selon la
saisonnalité et d’évaluer l’impact de la période sur les marges réalisées.

Conclusion
Ce sprint a permis de transformer les données brutes en indicateurs clés de performance
visuels et interactifs. Les tableaux de bord réalisés permettent aux décideurs d'explorer les
performances commerciales selon différents axes : produit, client, fournisseur et temps.
Cette phase constitue un point de passage essentiel vers l'intégration d'une couche
prédictive, développée dans le chapitre suivant.

67
SPRINT 3 : Mise en place de la prévision du chiffre
d’affaires

Chapitre 6
Analyse prédictive des ventes par séries
temporelles

68
Introduction :
Dans un contexte décisionnel, la prévision des ventes joue un rôle fondamental dans l’optimisation
des processus métiers, notamment pour la gestion des stocks, la planification des achats, ou encore
le pilotage budgétaire. Le module de ventes de l’ERP Microsoft Dynamics Navision fournit une source
riche de données transactionnelles structurées qui permettent la mise en place d’analyses prédictives
pertinentes. Ce chapitre présente l'application de modèles de séries temporelles sur les ventes
mensuelles, dans le but de prédire les tendances futures et d'accompagner la prise de décision
stratégique.

e) SPRINT 3 :

Tableau 16: Création des dashboards et validation des rapports


Sprint Tâches Estimation
Sprint 3 : Prédiction des
Modélisation avec ARIMA / SARIMA / LSTM 8 jours
ventes
Évaluation et comparaison des modèles (MSE, MAE,
4 jours
interprétation)

1 Préparation des données


Les données utilisées sont extraites du module de ventes de l’ERP, contenant notamment la
date, le chiffre d’affaires, la quantité vendue et la marge brute. Ces données ont été
préalablement nettoyées et intégrées dans un modèle en étoile via SSIS. Pour cette analyse,
nous avons agrégé le chiffre d’affaires par mois afin de constituer une série temporelle
exploitable.

69
Figure 55: Préparation des données

2 Modélisation avec ARIMA


2.1 Entraînement et test

Nous avons divisé la série en deux segments :

 Train : jusqu’à février 2021


 Test : de mars à décembre 2021

Le modèle ARIMA a été automatiquement sélectionné à l’aide de auto_arima() (sans


saisonnalité, les données n’étant pas assez longues pour une modélisation saisonnière
fiable).

2.2 Résultats

L’évaluation a été réalisée avec deux indicateurs :

 MAE (Mean Absolute Error)


 RMSE (Root Mean Squared Error)

70
Figure 56: MAE et RMSE
2.3 Visualisation
La figure ci-dessous présente la comparaison entre les valeurs réelles et les prévisions ARIMA
sur la période test (03/2021 à 12/2021) :

Figure 57: Modèle ARIMA

3 Modélisation avec Prophet


3.1 Entraînement et test
Le modèle Prophet a été entraîné sur la même base de données. Après transformation des
colonnes (ds, y), nous avons utilisé make_future_dataframe() pour générer les périodes
futures.

Figure 58: Entraînement et test

71
3.2 Résultats

Figure 59: Prophet


3.3 Visualisation
La figure suivante montre les prédictions Prophet comparées aux valeurs réelles sur la
période de test :

Figure 60: Modèle Prophet

4 Prévisions sur les 6 mois futurs


Les deux modèles ont été utilisés pour générer une estimation du chiffre d’affaires de juillet à
décembre 2021.

Figure 61: Prophet vs ARIMA – Prévision 6 mois

72
5 Comparaison et choix du modèle
Les deux modèles ont présenté des performances relativement proches. Cependant, ARIMA a
légèrement surpassé Prophet en termes de précision sur la période test. De plus, ses prévisions
apparaissent plus stables et cohérentes avec les tendances passées.

Tableau 17: Comparaison entre les deux modèles


Modèle MAE RMSE

ARIMA 1 209 671,51 1 405 599,94

Prophet 1 230 255,62 1 407 099,63

Conclusion
Ce chapitre a démontré la faisabilité d’une prévision du chiffre d’affaires mensuel à partir
des données de ventes de l’ERP. L’intégration des modèles ARIMA et Prophet a permis
d’analyser les tendances historiques et d’anticiper les résultats futurs. Le modèle ARIMA a
été retenu comme le plus adapté dans notre cas. Cette analyse ouvre la voie à des décisions
commerciales plus proactives, en particulier pour la gestion des stocks, la planification des
ventes et les prévisions budgétaires.

Conclusion générale

73
Ce projet de fin d’études a constitué une expérience riche et formatrice, tant sur le plan
technique que professionnel. À travers les six chapitres de ce rapport, nous avons
documenté toutes les étapes de la mise en place d’une solution décisionnelle complète
intégrée à l’ERP Navision, visant à améliorer l’analyse des ventes.

Dans un premier temps, nous avons présenté le contexte du projet, les objectifs, ainsi que
les enjeux décisionnels dans un environnement ERP. Ensuite, nous avons dressé un
panorama des concepts clés de l’informatique décisionnelle, des architectures BI et des
outils utilisés, en mettant l’accent sur SSIS, SSMS et Power BI.

La phase d’analyse des besoins nous a permis de recueillir les spécifications fonctionnelles et
techniques, de modéliser le système selon une méthode agile basée sur Scrum, et de
concevoir un schéma en étoile adapté aux données de vente. Grâce à l’outil SSIS, nous avons
ensuite assuré un processus ETL robuste : extraction, nettoyage, transformation et
chargement des données dans un entrepôt structuré.

Une fois les données modélisées, nous avons conçu des tableaux de bord interactifs avec
Power BI, en segmentant l’analyse par produit, client, fournisseur et période. Cette phase a
permis d’offrir aux décideurs une vision synthétique et dynamique de leur performance
commerciale.

Enfin, une dimension prédictive a été intégrée via des modèles de séries temporelles
(ARIMA, SARIMA, LSTM), afin de projeter le chiffre d’affaires futur et appuyer les décisions
stratégiques. Ces comparaisons ont démontré l’intérêt croissant des approches hybrides
combinant statistique et deep learning.

Ce projet nous a permis de mettre en application l’ensemble de nos connaissances en


Business Intelligence, d’apprendre de nouveaux outils avancés, de relever plusieurs défis
techniques et de mieux comprendre les attentes du monde professionnel. Il représente une
réelle valeur ajoutée dans notre parcours, tant sur le plan académique que pour notre future
carrière dans l’analyse de données.

Références

74
[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]
grand-livre

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]
distribution-groups

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

[Link]

75

Vous aimerez peut-être aussi