Rapport de Stage: en Vue de L'obtention Du Diplôme de Master Professionnel en
Rapport de Stage: en Vue de L'obtention Du Diplôme de Master Professionnel en
RAPPORT DE STAGE
En vue de l’obtention du diplôme de Master professionnel en
Business Analytics
1
Résumé :
Ce travail a été réalisé en vue de l’obtention du diplôme de Master en Business Analytics à l’Esprit
School of Business.
Dans le cadre de mon projet de fin d’études en Business Analytics, j’ai développé une
solution décisionnelle permettant d’analyser les ventes à partir de plusieurs fichiers Excel.
Cette solution repose sur la création d’un data Warehouse structuré selon un modèle en
étoile, facilitant l’intégration, le nettoyage et la transformation des données. Grâce à
l’utilisation d’outils comme SSIS pour le traitement des données et Power BI pour la
visualisation, j’ai pu produire des rapports interactifs et des tableaux de bord personnalisés
et, en option, une analyse en séries temporelles pour la prévision des ventes. Ces analyses ont
permis de suivre des indicateurs clés de performance, d’identifier des tendances
commerciales, et d’offrir aux décideurs une base solide pour améliorer les stratégies de
vente.
Mots-clés suggérés :
Abstract :
This work was carried out as part of the requirements for the Master’s degree in Business
Analytics at Esprit School of Business.
Key words:
2
DÉDICACE
« Je dédie ce travail à mes parents, qui m'ont soutenue tout au long de mon parcours académique.
Leur amour incommensurable, leur soutien sans faille et leurs sacrifices ont été une source constante
de motivation. Vous avez toujours cru en moi et m’avez donné la force d’aller de l’avant, même dans
les moments les plus difficiles. »
« À mon petit frère et ma petite sœur, pour leur joie et leur enthousiasme, vous êtes ma
source de sourire et d’énergie. »
« Enfin, à mon partenaire de vie, pour sa patience infinie, son soutien indéfectible et son
amour constant. Je te remercie profondément pour tout ce que tu fais pour moi, chaque
jour. »
3
Remerciements
Je remercie tout particulièrement Mme Ibtihel Rebhi, mon encadrante académique, pour sa
disponibilité, ses conseils précieux, et son accompagnement tout au long de ce projet. Son
encadrement rigoureux et bienveillant a été essentiel à la réussite de ce travail.
Un grand merci à mes amies, pour leur soutien moral, leur entraide et les moments partagés
tout au long de cette aventure.
Enfin, je remercie chaleureusement ma famille, pour leur amour, leur patience et leur
encouragement constant. Vous avez été mon pilier tout au long de ce parcours.
4
Table des matières
CHAPITRE 1...........................................................................................................................................13
1 Présentation de l’organisme d’accueil..........................................................................................14
1.1 Présentation de l’organisme.................................................................................................14
1.1.1 Domaine d’activité........................................................................................................15
1.1.2 Missions principales......................................................................................................15
1.1.3 Objectifs........................................................................................................................15
1.1.4 Structure organisationnelle..........................................................................................15
1.1.5 Savoir-faire et expertise................................................................................................15
1.1.6 Moyens et infrastructures............................................................................................16
Pour mener à bien ses missions, ESPRIT Entreprise s’appuie sur :...............................................16
1.1.7 Domaines d’intervention et public cible.......................................................................16
2 Présentation du projet.................................................................................................................16
2.1 Contexte du projet................................................................................................................16
2.2 Problématique......................................................................................................................17
2.3 Etude et critique de l’existant...............................................................................................17
2.4 Solution proposée................................................................................................................17
3 Les méthodologies de travail........................................................................................................18
3.1 Méthode Cycle en V..............................................................................................................18
3.2 Méthode SCRUM..................................................................................................................18
3.2.1 Les rôles clés dans la méthode SCRUM.........................................................................19
3.2.2 Comparaison et Choix de la méthodologie...................................................................19
4 Organisation du projet à l’aide de Scrum.....................................................................................20
4.1 Product Backlog....................................................................................................................20
4.2 Planification des Sprints........................................................................................................22
4.3 Répartition des rôles Scrum..................................................................................................22
CHAPITRE 2...........................................................................................................................................23
1 Notions de base en informatique décisionnelle...........................................................................24
1.1 Les données..........................................................................................................................25
1.2 Les informations...................................................................................................................25
Les informations sont les données traitées et organisées, elles deviennent compréhensibles et
peuvent être utilisées pour des analyses..........................................................................................25
1.3 Les connaissances.................................................................................................................25
5
2 Entrepôt de données (Data Warehouse)......................................................................................25
2.1 Les modèles d’entrepôt de données....................................................................................25
2.1.1 Modèle en étoile (Star Schema)....................................................................................25
2.1.2 Modèle en flocon de neige (Snowflake Schema)..........................................................26
2.1.3 Modèle en constellation (Galaxy Schema)....................................................................27
2.2 Comparaison entre les modèles du Data Warehouse...........................................................27
2.3 Modélisation dimensionnelle...............................................................................................28
2.3.1 Les dimensions..............................................................................................................28
2.3.2 La table de fait..............................................................................................................28
2.3.3 Les Hiérarchies..............................................................................................................28
3 Processus ETL et outils associés....................................................................................................28
3.1 Étapes du processus ETL.......................................................................................................28
3.2 Outils ETL..............................................................................................................................29
3.2.1 Talend Open Studio......................................................................................................29
3.2.2 SSIS (SQL Server Integration Services)..........................................................................29
3.3 Comparaison des outils ETL..................................................................................................30
4 Outils de Business Intelligence (BI)...............................................................................................30
4.1 Power BI...............................................................................................................................30
4.2 Tableau.................................................................................................................................31
4.3 Comparaison entre Power BI et Tableau..............................................................................31
5 Synthèse des choix techniques.....................................................................................................31
5.1 Choix du modèle de données...............................................................................................32
5.2 Choix de l’outil de Business Intelligence...............................................................................32
5.3 Choix de l’outil ETL................................................................................................................32
Chapitre 3.............................................................................................................................................34
1 Les acteurs de l’entreprise............................................................................................................35
2 Spécification des Besoins..............................................................................................................35
2.1 Les besoins fonctionnels.......................................................................................................35
2.2 Les besoins non fonctionnels................................................................................................36
Fonctionnalités interactives : les utilisateurs doivent pouvoir filtrer, cliquer ou
explorer directement les données dans les tableaux de bord pour obtenir des
vues personnalisées et détaillées............................................................................................36
3 Les diagrammes............................................................................................................................36
3.1 Diagramme de cas d’utilisation.............................................................................................37
Conclusion............................................................................................................................................39
Chapitre 4.............................................................................................................................................40
6
1 Compréhension des données.......................................................................................................41
2 Conception du Data Warehouse...................................................................................................42
2.1 Table de faits........................................................................................................................42
2.2 Les dimensions.....................................................................................................................43
2.3 Modélisation de l’entrepôt de données...............................................................................44
3 Outils utilisés................................................................................................................................45
4 Développement de la partie ETL...................................................................................................45
4.1 Intégration des données.......................................................................................................45
Cette section vise à fournir un aperçu détaillé du développement du processus
ETL (Extraire, Transformer, Charger), qui a été mis en œuvre dans le cadre de
l'intégration du module de prise de décision pour l'analyse..........................................45
4.1.1 Étapes préliminaires : Connexion et création de la base..............................................46
4.1.2 Extraction des données.................................................................................................50
4.1.3 Nettoyage et transformation des données...................................................................50
Après l'extraction initiale, les données brutes doivent être nettoyées,
standardisées et préparées pour l'intégration dans le modèle Star. Cette étape
est essentielle pour garantir la cohérence, la qualité et la compatibilité des
données............................................................................................................................................50
L’une des premières opérations effectuées consiste à détecter et à supprimer les
éléments en double......................................................................................................................51
Avant de charger la table de faits, nous devons remplacer les ID d’origine par des
clés de substitution créées dans les dimensions...............................................................53
4.1.4 Chargement des données.............................................................................................54
Une fois les données extraites, nettoyées et transformées, l’étape finale du
processus ETL consiste à les charger dans l’entrepôt de données, conçu selon le
modèle en étoile............................................................................................................................54
Afin d’assurer la pérennité de l’entrepôt de données et la mise à jour régulière
des données, une automatisation des flux incrémentaux a été mise en place......55
4.1.5 Chargement incrémental automatisé des nouvelles données......................................55
L'objectif est d'automatiser la fusion des enregistrements nouvellement ajoutés
dans le fichier source, en tenant compte des relations et des contraintes du
modèle en étoile, en particulier l'intégrité de référence entre la table de faits......55
Chapitre 5.............................................................................................................................................57
1 Connexion à l’entrepôt de données.............................................................................................58
2 Création des mesures...................................................................................................................59
3 Conception des tableaux de bord.................................................................................................60
3.1. Page d’accueil : Performance Globale :................................................................................60
3.1.1 Interprétation de la figure............................................................................................61
3.2 Analyse par produit..............................................................................................................62
7
1.1.1 Interprétation de la figure............................................................................................62
3.3 Analyse par client.................................................................................................................63
3.3.1 Interprétation de la figure............................................................................................63
3.4 Analyse par fournisseur........................................................................................................64
3.4.1 Interprétation de la figure............................................................................................64
3.5 Analyse temporelle...............................................................................................................65
3.5.1 Interprétation de la figure............................................................................................65
Chapitre 6.............................................................................................................................................67
1 Préparation des données..............................................................................................................68
2 Modélisation avec ARIMA............................................................................................................69
2.1 Entraînement et test.............................................................................................................69
2.2 Résultats...............................................................................................................................69
2.3 Visualisation.........................................................................................................................70
3 Modélisation avec Prophet...........................................................................................................70
3.1 Entraînement et test.............................................................................................................70
3.2 Résultats...............................................................................................................................71
3.3 Visualisation.........................................................................................................................71
4 Prévisions sur les 6 mois futurs....................................................................................................71
5 Comparaison et choix du modèle.................................................................................................72
8
Liste des figures
Figure 1: Logo Esprit Entreprise________________________________________________________16
Figure 2: Cycle en V_________________________________________________________________20
Figure 3: processus de la méthode SCRUM_______________________________________________20
Figure 4: Les membres de l’équipe projet en mode Scrum__________________________________24
Figure 5: Les notion de base d'un système décisionnel_____________________________________26
Figure 6: Exemple d’un modèle en Etoile (Star Schema)____________________________________27
Figure 7: Exemple d’un modèle en flocon de neige (Snowflake Schema)_______________________28
Figure 8: Exemple d’un modèle en constellation (Galaxy Schema)____________________________28
Figure 9: ETL Process________________________________________________________________30
Figure 10: Talend Open Studio________________________________________________________30
Figure 11: SQL Server________________________________________________________________31
Figure 12: Power BI_________________________________________________________________32
Figure 13: Tableau__________________________________________________________________32
Figure 14: Les acteurs de mon projet___________________________________________________36
Figure 15: Diagramme de cas d’utilisation_______________________________________________38
Figure 16: Diagramme de cas d’utilisation : Gérer les sources de données______________________38
Figure 17: Diagramme de cas d’utilisation : Gérer le processus ETL____________________________39
Figure 18: Diagramme de cas d’utilisation : Créer des tableaux de bord________________________40
Figure 19: Les champs exploitées de notre source Cust_LedgerEntries_________________________42
Figure 20: Les champs exploitées de notre source ItemSalesAndProfit_________________________43
Figure 21: Les champs exploitées de notre source ItemLedgerEntries__________________________43
Figure 22: Les champs exploitées de notre source Item_Sales_List____________________________43
Figure 23: Le modèle en étoile________________________________________________________45
Figure 24: Le processus ETL___________________________________________________________47
Figure 25: La connexion au serveur_____________________________________________________47
Figure 26: Création d’un Serveur_______________________________________________________48
Figure 27: Création de la base de données décisionnelle PFE________________________________48
Figure 28: La création d'une table______________________________________________________49
Figure 29: La table dimension Client____________________________________________________49
Figure 30: La table dimension Produit___________________________________________________49
Figure 31: La table dimension Date_____________________________________________________50
Figure 32: La table dimension Fournisseur_______________________________________________50
Figure 33: La table de fait____________________________________________________________50
Figure 34: Tâches d’extraction et de chargement initial pour un seul fichier____________________51
Figure 35: Composant Sort pour suppression des doublons_________________________________52
Figure 36: Création de la colonne Date dans le composant Derived Column_____________________52
Figure 37: Remplacer les NULL par une valeur____________________________________________53
Figure 38: Utilisation du composant Merge Join pour fusionner deux sources Excel clients_________53
Figure 39: Composant Lookup_________________________________________________________54
Figure 40: Flux de chargement de la table de faits_________________________________________55
Figure 41: Exécution du flux de chargement de la table de faits______________________________56
Figure 42: Vue d’ensemble des flux de chargement des dimensions et de la table de faits_________56
Figure 43: Exécution du flux de données (l’exécution du package)____________________________57
Figure 44: Exécution des composants Lookup____________________________________________57
Figure 45: Du traitement des données au reporting visuel___________________________________59
9
Figure 46: : Connexion au Data Warehouse depuis Power BI_________________________________60
Figure 47: Importation des tables dans Power BI__________________________________________60
Figure 48: Création des mesures dans power BI___________________________________________61
Figure 49: Segment interactif_________________________________________________________62
Figure 50: Suivi des ventes___________________________________________________________62
Figure 51: Analyse par produit________________________________________________________63
Figure 52: Analyse par client__________________________________________________________64
Figure 53: Analyse par fournisseur_____________________________________________________65
Figure 54: Analyse temporelle_________________________________________________________66
Figure 55: Préparation des données____________________________________________________70
Figure 56: MAE et RMSE_____________________________________________________________71
Figure 57: Modèle ARIMA____________________________________________________________71
Figure 58: Entraînement et test________________________________________________________71
Figure 59: Prophet__________________________________________________________________72
Figure 60: Modèle Prophet___________________________________________________________72
Figure 61: Prophet vs ARIMA – Prévision 6 mois___________________________________________72
10
Liste des tableaux
Tableau 1: Etude comparative de la méthodologie________________________________________21
Tableau 2: Product Backlog___________________________________________________________22
Tableau 3: Planification des Sprints_____________________________________________________24
Tableau 4: Comparaison entre les modèles______________________________________________29
Tableau 5: Etude comparative_________________________________________________________31
Tableau 6: Comparaison entre Power BI et Tableau________________________________________33
Tableau 7: Planification du sprint 0_____________________________________________________36
Tableau 8: Diagramme de cas d’utilisation : Gérer les sources de données______________________39
Tableau 9: Diagramme de cas d’utilisation : Gérer le processus ETL___________________________39
Tableau 10: Diagramme de cas d’utilisation : Créer des tableaux de bord______________________40
Tableau 11: Compréhension et extraction des données_____________________________________42
Tableau 12: la table de faits___________________________________________________________44
Tableau 13: les tables des dimensions__________________________________________________45
Tableau 14: Les outils utilisés_________________________________________________________46
Tableau 15 : Création des dashboards et validation des rapports_____________________________60
Tableau 16: Création des dashboards et validation des rapports______________________________70
Tableau 17: Comparaison entre les deux modèles_________________________________________74
11
Liste des abréviations
BA: Business Analytics
12
Introduction générale
Dans un monde de plus en plus orienté vers la donnée, la capacité à collecter, transformer et
analyser l’information est devenue un facteur déterminant de performance pour les
entreprises. La transformation digitale, l’explosion des volumes de données et la complexité
croissante des marchés imposent aux organisations d’adopter des outils décisionnels performants
pour guider leurs choix stratégiques et prendre des décisions éclairées. C’est dans ce contexte que
s’inscrit le domaine de la Business Analytics, qui vise à exploiter les données disponibles pour en
extraire des informations utiles à la prise de décision.
Le présent projet de fin d’études s’inscrit dans le cadre du Master en Business Analytics à
l’Esprit School of Business. Il a été réalisé dans le cadre d’un stage professionnel de quatre
mois au sein d’ESPRIT Entreprise, une structure spécialisée dans l’accompagnement des
projets technologiques et innovants, à destination des étudiants, des chercheurs et des
entreprises. Cette entreprise agit comme un accélérateur de projets, en mettant à
disposition des ressources, des encadrants et un environnement professionnel stimulant.
Ce rapport a pour objet de présenter le travail effectué et s’articulera ainsi autour de cinq
chapitres :
13
Le troisième chapitre, intitulé « Analyse et spécification des besoins » (Sprint
0), sera dédié à la compréhension des besoins métier de l’entreprise.
Le quatrième chapitre, « Conception et Nettoyage de données » (Sprint 1),
portera sur la modélisation du data Warehouse, la création du modèle
physique, et la préparation des données via des processus ETL.
Le cinquième chapitre sera consacré à la mise en place des tableaux de bord,
incluant la création, l’implémentation, et l’analyse des visualisations
interactives à l’aide de Power BI.
14
CHAPITRE 1
PRÉSENTATION GÉNÉRALE DU PROJET
15
Introduction
Ce premier chapitre présente le cadre général dans lequel il a été réalisé. Il s’agit tout
d’abord de décrire l’organisme d’accueil, son domaine d’activité et son environnement.
Ensuite, nous exposerons la problématique à résoudre, la solution envisagée, la
méthodologie choisie, ainsi que la planification des différentes étapes du projet.
Créée en janvier 2011, ESPRIT Entreprise est une filiale de l’école privée d’ingénierie
ESPRIT (École Supérieure Privée d’Ingénierie et de Technologie). Elle est dédiée à
l’accompagnement des entreprises dans le développement des compétences de leurs
ressources humaines. Elle agit comme un acteur stratégique de la formation continue, du
conseil en ingénierie de formation, et de la certification professionnelle.
1.1.3 Objectifs
16
L’encadrement des projets de fin d’études dans des conditions proches de
l’environnement de travail réel.
Le développement de solutions innovantes pour répondre aux besoins des
entreprises partenaires.
La valorisation des compétences des étudiants à travers la mise en œuvre de projets
réels.
La promotion de l’esprit entrepreneurial et du transfert de compétences vers le tissu
économique local.
ESPRIT Entreprise conçoit et met en œuvre des formations sur mesure adaptées aux besoins
spécifiques des entreprises, dans des domaines variés tels que :
Formations qualifiantes
Formations promotionnelles
Formations certifiantes
L’organisme est également centre de certification agréée par des institutions reconnues
telles que Pearson Vue, Prometric, ISTQB, et propose des certifications sur des technologies
de leaders du marché comme Microsoft, Cisco, Oracle, Apple, etc.
17
o Un centre d’innovation pédagogique,
o Des espaces dédiés à l’hébergement et la restauration.
2 Présentation du projet
2.1 Contexte du projet
Dans le cadre de mon stage de fin d’études effectué au sein d’ESPRIT Entreprise sur une
durée de 4 mois, j’ai été chargée de travailler sur un projet de Business Intelligence centré
sur l’analyse des ventes. L’entreprise utilise actuellement Microsoft Dynamics NAV
(Navision) comme ERP pour la gestion de ses opérations quotidiennes, y compris la gestion
des ventes. Bien que cet ERP centralise un grand volume de données, l’exploitation
décisionnelle de ces informations reste limitée. Ce projet a donc pour but d’intégrer un
module BI permettant une meilleure analyse des ventes, une automatisation des rapports et
un pilotage efficace de l’activité commerciale.
2.2 Problématique
Il est aujourd’hui essentiel pour les décideurs d’avoir un accès rapide, clair et structuré aux
informations clés liées à l’activité de l’entreprise. Dans le cadre de l’ERP Microsoft Navision,
les données de ventes sont nombreuses, mais leur exploitation reste limitée sans un module
d’analyse décisionnelle efficace.
Notre projet vise à proposer une solution permettant de mieux exploiter ces données, à
travers l’intégration d’un module Business Intelligence (BI) centré sur l’analyse des ventes.
Cela permettrait d’avoir un meilleur suivi des performances commerciales, d’automatiser la
génération des indicateurs clés, et de faciliter la prise de décision.
18
Ainsi, la problématique que nous soulevons est la suivante : Comment exploiter et utiliser les
données de vente issues de l’ERP Navision afin d’avoir les informations et les indicateurs
nécessaires à une gestion commerciale efficace et à une prise de décision éclairée ?
Actuellement, l’ERP Microsoft Navision utilisé par l’entreprise centralise un ensemble riche
de données relatives à la gestion commerciale, notamment les ventes, les clients, les
produits et les factures. Toutefois, ces données sont principalement exploitées sous forme
brute, à travers des extractions manuelles ou des rapports standards, souvent peu flexibles,
et qui ne répondent pas toujours aux besoins spécifiques des décideurs.
Les utilisateurs doivent effectuer des manipulations manuelles sur Excel, ce qui peut
entraîner une perte de temps, une augmentation du risque d’erreurs, et une difficulté à
croiser les données de manière fluide. De plus, il n’existe pas d’outils visuels ou interactifs
permettant de suivre en temps réel les indicateurs de performance, ni de mécanisme
automatisé pour générer des tableaux de bord dynamiques.
En résumé, bien que la base de données de Navision soit riche, l’absence d’une couche
d’analyse décisionnelle (BI) limite fortement l’exploitation des données à des fins
stratégiques.
Dans le cadre de notre projet de fin d’études, nous proposons une solution qui consiste à réaliser une
application permettant le suivi de l’activité commerciale de l’entreprise. Cette solution offrira une
visualisation simple et intuitive à travers des tableaux de bord interactifs (Dashboard), facilitant ainsi
la prise de décision grâce à une lecture claire des indicateurs clés de performance.
La solution repose sur tout le processus BI, allant de l’extraction des données issues de
Navision, à leur nettoyage, leur transformation et leur centralisation dans un entrepôt de
données (data warehouse). Une fois les données préparées, une application de visualisation
basée sur Power BI sera développée, permettant aux utilisateurs de consulter en temps réel
des indicateurs clés, comme le chiffre d’affaires, la rentabilité des produits ou la
performance des ventes par client ou par fournisseur.
Ce module offrira aux décideurs une vue claire et personnalisée de l’activité commerciale de
l’entreprise, leur permettant ainsi de piloter efficacement les stratégies de vente et
d’identifier rapidement les axes d’amélioration.
19
3.1 Méthode Cycle en V
La méthode Cycle en V est une approche de gestion de projet structurée qui couvre l’ensemble du
cycle de vie d’un produit ou d’un logiciel. Elle se divise en trois grandes étapes : la conception, la
réalisation et la vérification. Son principe repose sur deux phases complémentaires : une phase
descendante, où l’on définit les besoins et conçoit la solution, suivie d’une phase ascendante, dédiée
aux tests et à la validation du produit par rapport aux exigences initiales.
Figure 2: Cycle en V
Product Backlog : Il s'agit de la liste complète des besoins du produit, hiérarchisés selon leur
priorité. Ces besoins sont exprimés sous forme d’éléments appelés "User Stories".
Sprint Backlog : C’est l’ensemble des tâches sélectionnées à partir du Product Backlog, que
l’équipe s’engage à réaliser durant un sprint donné. À titre d'exemple
20
Sprint 1 : Intégration des données
Pour synthétiser la comparaison effectuée entre les deux méthodologies, à savoir le Cycle en
V et SCRUM, il est possible de tirer les conclusions suivantes :
21
Le Cycle en V appartient aux méthodes classiques, souvent jugées rigides et peu
adaptées aux projets nécessitant des ajustements en cours de route. De plus, cette
méthode implique un coût élevé, notamment en termes de temps et de flexibilité.
La méthodologie SCRUM, en revanche, offre une approche itérative et collaborative.
Elle permet une meilleure planification à court terme grâce à la gestion par sprints,
offrant ainsi une vision claire des étapes, des ressources mobilisées et du temps
nécessaire à chaque phase.
Id User
Id Thème User Story Priorité Estimation
Story
Compréhension et En tant qu’analyste, j’ai besoin de
1 extraction des 1.1 comprendre les fichiers source pour Élevée 2 semaines
données analyser le contexte métier.
En tant qu’analyste, je dois identifier
1.2 les tables et les colonnes pertinentes Élevée 2 semaines
pour l’analyse.
En tant qu’analyste, je dois concevoir
Implémentation du le schéma en étoile du data
2 2.1 Élevée 2 semaines
Data Warehouse Warehouse pour modéliser les
ventes.
En tant qu’analyste, je dois intégrer
2.2 les données via un processus ETL Élevée 4 semaines
avec SSIS.
En tant qu’analyste, je dois tester le
2.3 bon fonctionnement du data Élevée 2 jours
Warehouse.
Génération de En tant qu’analyste, je dois analyser
3 rapports et tableaux 3.1 les besoins métier pour concevoir les Élevée 5 jours
de bord KPIs à visualiser.
3.2 En tant qu’analyste, je dois créer des Élevée 5 jours
22
Id User
Id Thème User Story Priorité Estimation
Story
rapports dynamiques sur Power BI.
En tant qu’analyste, je dois rendre les
3.3 rapports interactifs et simples à Élevée 5 jours
utiliser pour les décideurs.
En tant qu’analyste, je dois tester et
3.4 valider les visualisations avec les Élevée 5 jours
utilisateurs.
En tant qu’analyste, je veux prédire
Prédiction des ventes le chiffre d’affaires des mois suivants
4 4.1 Moyenne 1 semaine
(analyse avancée) à l’aide de modèles statistiques et de
deep learning.
En tant qu’analyste, je dois comparer
les performances des modèles
4.2 Moyenne 3 jours
ARIMA, SARIMA et LSTM pour choisir
la meilleure approche.
En tant qu’analyste, je dois
interpréter les résultats des
4.3 Moyenne 2 jours
prévisions pour enrichir l’aide à la
décision.
Nous avons réparti les tâches du Product Backlog sur quatre sprints de deux semaines chacun :
Dans notre projet, les rôles Scrum sont répartis comme suit :
23
Figure 4: Les membres de l’équipe projet en mode Scrum
Conclusion
Dans ce premier chapitre, nous avons présenté l’entreprise dans laquelle le projet a été réalisé,
expliqué le contexte et les objectifs du travail. Nous avons aussi décrit la situation actuelle de
l’entreprise pour mieux comprendre le problème à résoudre. Enfin, nous avons choisi la méthode
Scrum pour bien organiser et suivre les étapes du projet.
24
CHAPITRE 2
L’informatique décisionnelle et les outils
techniques
Introduction
25
Ce chapitre a pour but de présenter les fondements de l’informatique décisionnelle et les
différents outils techniques utilisés dans le marché afin de pouvoir choisir les meilleures
solutions qui serviront à la réalisation de notre projet.
26
L’entrepôt de données (Data Warehouse) est une base de données spécialement conçue
pour l’analyse et la prise de décision. Ce type de système permet d’accéder à des
informations utiles aux décideurs via des rapports, des tableaux de bord et des indicateurs
clés de performance.
Le modèle en étoile est l’un des modèles les plus utilisés dans la prise de décision. Il est
constitué d’une table de faits (contenant les données chiffrées comme les ventes ou les
quantités) au centre, reliée à plusieurs tables de dimensions (telles que Client, Produit, Date,
etc.). Ce modèle est simple à comprendre, facile à implémenter et performant pour les
requêtes.
Le modèle en flocon est une extension du modèle en étoile. Les tableaux de dimensions sont
standardisés, c'est-à-dire divisés en sous-tableaux pour éviter les doublons. Ce modèle
permet une meilleure organisation des données, mais il est plus complexe à interroger et
peut être légèrement moins performant.
27
Figure 7: Exemple d’un modèle en flocon de neige (Snowflake Schema)
2.1.3 Modèle en constellation (Galaxy Schema)
Le modèle en constellation, aussi appelé modèle en galaxie, utilise plusieurs tables de faits
qui partagent des tables de dimensions communes. Ce modèle est souvent utilisé pour des
données complexes provenant de processus métiers différents.
28
Tableau 4: Comparaison entre les modèles
Critère Étoile Flocon de neige Constellation
Moyennement
Simplicité Très simple Complexe
complexe
Performances Moindres (plus de Variables selon la
Élevées
requêtes jointures) complexité
Redondance des Légèrement Faible (données
Moyenne à élevée
données redondant normalisées)
Moyennement
Maintenance Facile Difficile
complexe
Adapté aux Moins adapté aux
Oui Oui
utilisateurs débutants
Utilisation typique Reporting classique Reporting détaillé Analyse multiprocessus
29
Cette étape consiste à extraire les données depuis une ou plusieurs sources hétérogènes : bases de
données relationnelles, fichiers Excel, ERP, CRM, ou encore des API. L’objectif est de rassembler
toutes les données pertinentes pour les analyses futures.
Une fois les données extraites, elles sont transformées pour garantir leur qualité, leur
cohérence et leur intégrité. Cela inclut :
Le chargement (Load) :
Dans cette dernière étape, les données transformées sont chargées dans le Data Warehouse. Cette
phase garantit que l’entrepôt est toujours alimenté avec des données fraîches et fiables.
30
3.2.2 SSIS (SQL Server Integration Services)
SSIS est un outil ETL fourni par Microsoft au sein de SQL Server. C'est un outil puissant et
largement utilisé dans les environnements Microsoft. Il permet d'automatiser les flux de
données de manière robuste.
31
4 Outils de Business Intelligence (BI)
Les deux principaux outils de Business Intelligence pour la visualisation sont Tableau et
Microsoft Power BI.
4.1 Power BI
Power BI est un outil BI développé par Microsoft. Il permet aux utilisateurs de créer des
rapports dynamiques et des tableaux de bord interactifs à partir de différentes sources de
données (Excel, SQL Server, services cloud, etc.). Il se distingue par sa simplicité d’utilisation,
sa puissance analytique et son intégration fluide avec l’environnement Microsoft 365.
32
Critère Power BI Tableau
Performance Très bonne sur volumes moyens Excellente sur gros volumes
Personnalisation Bonne via DAX Très avancée via Tableau Calculations
Public cible Tous types d’utilisateurs Plutôt analystes et data scientists
Parmi les différents modèles d’entrepôt de données (étoile, flocon de neige, constellation),
le modèle en flocon de neige a été retenu. Ce choix s'explique par les raisons suivantes :
Après avoir comparé Power BI et Tableau, Power BI a été choisi pour l’analyse et la
visualisation des données. Ce choix a été justifié par :
Sa facilité de prise en main et son intégration naturelle avec Excel et SQL Server, déjà
utilisés dans l’entreprise ;
La présence d’une version gratuite permettant un usage immédiat et sans coût ;
La richesse de ses fonctionnalités de visualisation et d’interactivité, facilitant la
création de tableaux de bord clairs et dynamiques ;
La possibilité de publier les rapports en ligne via Power BI Service, pour faciliter leur
accès par les décideurs.
33
Il offre une interface graphique conviviale pour concevoir les flux de données ETL
sans écrire de code ;
Il permet une automatisation des traitements et un déploiement professionnel des
packages ETL ;
SSIS est un outil puissant et robuste, déjà reconnu dans le milieu professionnel.
Conclusion
Dans ce chapitre, nous avons fait une comparaison des outils pour choisir les meilleurs outils pour
notre projet. Le chapitre suivant présente notre premier sprint.
34
SPRINT 0 : Cadrage du projet
Chapitre 3
ANALYSE ET SPECIFICATION DES BESOINS
35
Introduction
Cette section présente le cadrage initial du projet. Elle décrit les acteurs impliqués, les
besoins fonctionnels et non fonctionnels identifiés, ainsi que le diagramme de cas
d’utilisation élaboré.
A. Sprint 0 :
Tableau 7: Planification du sprint 0
Sprint Taches Estimation
Sprint 0 : Cadrage du projet Spécification et analyse des besoins 5 jours
La mise en œuvre de notre projet repose sur des besoins fonctionnels répartis en deux
niveaux complémentaires.
36
Mettre en place un processus ETL pour extraire les données issues de différents
fichiers Excel, les transformer (nettoyage, structuration, conversion) et les charger
dans une base de données dédiée.
Concevoir un entrepôt de données organisé selon une modélisation en étoile,
intégrant une table de faits et plusieurs tables de dimensions.
Garantir la cohérence, la qualité et la fiabilité des données centralisées dans le Data
Warehouse afin d’assurer une base solide pour les analyses futures.
Élaborer des rapports et des tableaux de bord dynamiques avec Power BI, en mettant
en évidence les indicateurs clés.
Fournir aux décideurs des visualisations claires et interactives leur permettant
d’explorer les données sous différents angles.
Offrir une interface intuitive qui facilite la prise de décision stratégique en se basant
sur des insights fiables et actualisés.
Clarté et structuration des visualisations : Les tableaux de bord doivent être organisés
de manière simple, lisible et compréhensible par tous les utilisateurs.
Fonctionnalités interactives : les utilisateurs doivent pouvoir filtrer,
cliquer ou explorer directement les données dans les tableaux de bord
pour obtenir des vues personnalisées et détaillées.
Exactitude des données : Les analyses doivent reposer sur une base de données fiable,
actualisée et sans incohérences pour produire des résultats justes.
Réactivité et accessibilité : Le système doit répondre rapidement aux requêtes et être
accessible à tout moment pour les décideurs.
Utilisabilité : La solution doit être simple à manipuler aussi bien pour les responsables
métiers que pour les utilisateurs techniques, favorisant une adoption facile au sein de
l’entreprise.
3 Les diagrammes
Afin de mieux illustrer les interactions entre les utilisateurs et le système à développer, nous
avons eu recours à des outils de modélisation UML. Ces représentations permettent de
visualiser les fonctionnalités attendues ainsi que les relations entre les différents acteurs et
le système. Le diagramme de cas d’utilisation, en particulier, est un outil essentiel pour
exprimer les exigences fonctionnelles de manière claire et synthétique.
37
3.1 Diagramme de cas d’utilisation
38
L’administrateur doit être connecté et les fichiers sources doivent être
Pré conditions accessibles sur le système.
39
Figure 18: Diagramme de cas d’utilisation : Créer des tableaux de bord
Le tableau ci-dessous présente la description textuelle du notre cas d’utilisation : Créer des
tableaux de bord :
Conclusion
Dans ce chapitre, nous avons défini les besoins fonctionnels et non fonctionnels du projet,
ainsi que les différents acteurs et leurs interactions. Ces éléments constituent la base de la
phase de conception technique qui sera abordée dans le chapitre suivant.
40
SPRINT 1 : Compréhension et extraction des données
Chapitre 4
Conception de la solution BI : Modélisation
et nettoyage des données
41
Introduction
Ce chapitre marque le début de la phase de mise en œuvre technique de notre projet. Il
décrit les activités réalisées au cours du Sprint 1, dédiées à la compréhension des données
sources, à la modélisation de l’entrepôt de données et à la mise en place de l’environnement
de travail, ainsi que l’implémentation du processus ETL. Ces étapes constituent le socle de
notre solution BI et garantissent l’intégrité, la qualité et la pertinence des informations à
analyser.
B. Sprint 1 :
Tableau 11: Compréhension et extraction des données
Sprint Taches Estimation
Sprint 1 : Compréhension et Analyse des fichiers sources 4 semaines
extraction des données Conception du Data
Warehouse
Définition de
l’environnement de travail
Développement des flux ETL
Pour ce projet, nous avons eu accès à un ensemble de fichiers structurés, contenant des
informations critiques sur les transactions commerciales et les articles. Ces fichiers ont été
utilisés pour alimenter notre entrepôt de données. Voici les principales sources exploitées :
42
Figure 20: Les champs exploitées de notre source ItemSalesAndProfit
ItemLedgerEntries : fournit des données sur les mouvements de stock (entrée, sortie,
transfert) ainsi que les coûts associés.
Item_Sales_List : détaille les transactions de vente article par article, avec les clients,
dates et montants.
43
Tableau 12: la table de faits
Les dimensions décrivent les contextes d’analyse. Chaque dimension est associée à une clé
étrangère de la table de faits :
44
Tableau 13: les tables des dimensions
Nom de la Clé
Attributs Description
dimension primaire
Contient les informations sur les
Customer_Name, clients. Elle permet d’analyser les
Dim_Client Customer_No
Customer_Posting_Group ventes par client ou groupe de
clients.
Fournit les détails sur les produits
vendus, incluant leur catégorie,
Item_Category_Code,
description, et unité de mesure.
Dim_Produit Item_No Item_Description,
Cette dimension est essentielle
Unit_of_Measure_Code
pour l’analyse des performances
produits.
Année, Mois, Jour, Trimestre, Sert à effectuer des analyses
Dim_Date Id_Date
Date temporelles.
Contient les informations sur les
fournisseurs des produits. Utile
Dim_Fournisseur id_vendor Vendor_No, VendorName pour analyser les marges, coûts
d’achat ou la performance des
fournisseurs.
45
3 Outils utilisés
Tableau 14: Les outils utilisés
Outil Description Logo
46
Figure 24: Le processus ETL
47
Figure 26: Création d’un Serveur
48
Figure 28: La création d'une table
49
Figure 31: La table dimension Date
50
4.1.2 Extraction des données
L’extraction constitue la première phase du processus ETL. Cela implique de récupérer les
données brutes à partir des fichiers exportés depuis Navision ERP, puis de les charger dans
une base de données de type Staging Area. Cette étape garantit la traçabilité des données
sources et facilite les traitements ultérieurs (nettoyage, transformation, chargement dans le
DWH).
Dans notre projet, les données proviennent de plusieurs fichiers Excel, notamment :
ItemLedgerEntries xlsx
Item_Sales_List.xlsx
Cust_LedgerEntries.xlsx
[Link]
Dans SSIS, chaque flux de données est composé de plusieurs composants de transformation
qui permettent de corriger, enrichir ou formater les données avant leur chargement final.
a) Sort :
51
L’une des premières opérations effectuées consiste à détecter et à
supprimer les éléments en double.
b) Colonnes dérivées
Dans notre fichier source, la date de transaction est représentée par trois champs distincts : Année,
Mois et Jour. Afin de créer une colonne DATE standard, nous avons utilisé
le composant Colonne dérivée pour concaténer ces éléments et les
convertir au format approprié.
52
Figure 37: Remplacer les NULL par une valeur
c) Jointure de fusion
Dans notre projet, les informations relatives aux clients étaient réparties sur deux fichiers
Excel distincts. Pour unifier ces informations en une vue unique et cohérente,
nous avons utilisé le composant SSIS Merge Join, qui permet des jointures
entre deux flux de données triés, sur la base d’un champ commun (ici, le code client
ou Customer_No).
Figure 38: Utilisation du composant Merge Join pour fusionner deux sources Excel clients
53
d) Lookup
Avant de charger la table de faits, nous devons remplacer les ID d’origine
par des clés de substitution créées dans les dimensions.
54
4.1.4 Chargement des données
Une fois les données extraites, nettoyées et transformées, l’étape finale
du processus ETL consiste à les charger dans l’entrepôt de données, conçu
selon le modèle en étoile.
Dans notre projet, nous avons utilisé SQL Server Management Studio (SSMS) pour construire
les tables du Data Warehouse, et SQL Server Integration Services (SSIS) pour automatiser le
chargement via des packages.
Nous avons d’abord chargé les données extraites depuis les fichiers Excel vers la zone de
staging. Les données ont ensuite été transformées et fusionnées dans les
tables de destination DWH, en tenant compte des relations définies par le
modèle en étoile. Plusieurs composants ont été utilisés dans les sections
relatives au flux de contrôle et au flux de données :
Source OLE DB : utilisée pour lire les données nettoyées depuis la base de données.
Destination OLE DB : utilisée pour insérer les données finales dans les tables cibles du
DWH (dimensions et faits).
Tâche d'exécution de requêtes SQL : permet d’exécuter des scripts de préparation ou
de vidage de tables avant le chargement (par exemple, un TRUNCATE TABLE).
Tâche de flux de données (Data Flow Task) : assure le transfert des données
d’une source vers une destination avec les transformations nécessaires.
55
Figure 41: Exécution du flux de chargement de la table de faits
Figure 42: Vue d’ensemble des flux de chargement des dimensions et de la table de faits
Afin d’assurer la pérennité de l’entrepôt de données et la mise à jour
régulière des données, une automatisation des flux incrémentaux a été
mise en place. Elle est détaillée dans la section suivante.
4.1.5 Chargement incrémental automatisé des nouvelles données
Afin de garantir l’actualisation continue des données dans notre entrepôt décisionnel, un mécanisme
de chargement incrémental a été mis en place. Cette automatisation permet d’intégrer de nouvelles
données de ventes saisies dans un fichier Excel externe (Nouvelles_Ventes) sans perturber la
structure existante de la base de données.
56
Figure 43: Exécution du flux de données (l’exécution du package)
Conclusion
Ce sprint nous a permis de poser les bases techniques de notre projet. À travers l’extraction,
le nettoyage, la transformation et le chargement des données issues de l’ERP Navision, nous
avons structuré un entrepôt de données fiable et cohérent.
De plus, l’automatisation de l’alimentation incrémentale assure la mise à jour continue des
données, facilitant leur exploitation dans des rapports dynamiques et des tableaux de bord
interactifs, qui seront développés dans le sprint suivant.
57
SPRINT 2 : Création des Dashboard et validation des
rapports
Chapitre 5
Visualisation et reporting
avec Power BI
Introduction
58
Dans ce chapitre, nous abordons la phase de restitution des données à travers des
visualisations interactives conçues avec Power BI. Ce sprint a permis de transformer les
données préalablement nettoyées et modélisées dans le Data Warehouse en tableaux de
bord exploitables par les décideurs. L'objectif est de fournir une vision claire et concise de
l'activité de l'entreprise.
59
Figure 46: : Connexion au Data Warehouse depuis Power BI
CA = SUM(Fact_Table[Sales_LCY])
60
Taux de Marge = DIVIDE([Marge Brute], [Chiffre d'affaire], 0)
Total_Cout = SUM(Fact_Table[Purchases_LCY])
Cette page synthétise les KPIs globaux sous forme de cartes : CA total, Profit total, Quantité
vendue, Taux de marge, Nombre de clients, Nombre de produits vendus. Elle contient
également des segments interactifs permettant de filtrer les visuels dynamiquement :
Les segments rendent l’exploration fluide et permettent une lecture croisée selon plusieurs
axes.
61
Figure 49: Segment interactif
Cette page constitue un tableau de bord synthétique qui donne une vue d'ensemble de la
performance commerciale globale. Elle permet de suivre les indicateurs clés (CA, marge,
quantités, clients) tout en offrant une segmentation par client et produit.
Le chiffre d'affaires total atteint 35,63M, avec une marge brute de 8M, traduisant une bonne
performance générale.
Le taux de marge de 22,4 % indique une rentabilité correcte sur les ventes réalisées.
62
Le nombre de clients est de 5, ce qui signifie que le portefeuille client est restreint mais
concentré et 18 produits ont été commercialisés, ce qui offre une bonne diversité au
catalogue.
Le graphique circulaire révèle une forte prédominance de la catégorie TABLE (39,9 %) suivie
de CHAISE (37,06 %) et DIVERS (23,04 %). Cela permet d’orienter les stratégies marketing sur
les segments les plus rentables.
Le graphique en barres met en valeur les clients les plus rentables, en particulier "School of
Fine Art" (12,2M) et "Adatum Corporation" (10,9M), éléments clés pour les futures
campagnes commerciales.
Ce dashboard permet de visualiser le CA, le profit et les quantités vendues par catégorie de
produit ou par produit. Il intègre des visuels de type : treemap, graphique en barres,
graphique en aires et slicers.
Le graphique à barres de droite montre les Top 5 produits par chiffre d'affaires. Le produit
"Tableau ATLANTA" domine avec un CA de 14M, suivi par "Bureau ATHENES" avec 10M.
Le graphique circulaire (en bas à droite) illustre la quantité vendue par catégorie : la
catégorie "TABLE" représente 55,25 %, suivie de "CHAISE" (24,61 %) et "DIVERS" (20,13 %).
Cela montre que les tables dominent les ventes en terme de volume.
63
Le graphique de gauche (camembert vertical) donne le CA par catégorie : les catégories
DIVERS et TABLE sont en tête.
La table de données mensuelle (en bas à gauche) permet une lecture fine des ventes
mensuelles par produit. Elle met en évidence des ventes de certains produits comme
"Bureau ATHENES" ou "Chaise dactylo MEXICO".
Ce tableau de bord offre donc une vue très granulaire sur la performance des produits en
termes de CA, profit, quantité et régularité des ventes.
Cette page contient un graphique à barres de vos 5 principaux clients par chiffre d'affaires,
un graphique horizontal des revenus générés par client et un graphique à secteurs montrant
la répartition des revenus par groupe de clients, ainsi qu’un tableau croisé des ventes
mensuelles.
Le graphique "Top 5 Clients par CA" confirme ces mêmes clients comme étant ceux ayant
généré le plus de chiffre d'affaires, avec "School of Fine Art" atteignant 12,2M .
64
%) et ÉTRANGER (22,12 %). Cette répartition peut aider à adapter la stratégie commerciale
par segment géographique.
La table croisée permet de suivre l’évolution du CA mensuel par client. Elle révèle, par
exemple, une régularité dans les achats d’Adatum Corporation et une concentration
saisonnière chez School of Fine Art.
Les segments permettent une exploration détaillée par nom de client, catégorie ou période.
Ce tableau de bord est essentiel pour le suivi de la relation client et pour identifier les
partenaires stratégiques à fidéliser ou à relancer.
Ce tableau de bord permet de visualiser le chiffre d’affaires et les quantités achetées par
fournisseur, ainsi que la contribution de chacun dans l’approvisionnement global. Il permet
aussi d’associer chaque fournisseur aux produits livrés, et d’évaluer leurs performances au fil
du temps.
Le graphique circulaire affiche la part des quantités achetées par fournisseur. Le Graphic
Design Institute représente environ de 49,35 % des volumes, ce qui reflète la forte
dépendance à ce fournisseur.
La table centrale relie chaque fournisseur aux articles livrés, ce qui facilite l’analyse produit-
fournisseur (ex. : Graphic Design pour les bureaux et chaises MEXICO).
65
La table en bas donne une vue mensuelle du CA généré par fournisseur, utile pour observer
leur régularité d’approvisionnement.
Les segments (Item_Category, Date, Fournisseur) permettent de croiser les analyses par
catégorie, période ou produit.
66
Cette analyse temporelle permet aux décideurs d’anticiper les périodes faibles ou
fortes de vente, de planifier les campagnes marketing, de gérer les stocks selon la
saisonnalité et d’évaluer l’impact de la période sur les marges réalisées.
Conclusion
Ce sprint a permis de transformer les données brutes en indicateurs clés de performance
visuels et interactifs. Les tableaux de bord réalisés permettent aux décideurs d'explorer les
performances commerciales selon différents axes : produit, client, fournisseur et temps.
Cette phase constitue un point de passage essentiel vers l'intégration d'une couche
prédictive, développée dans le chapitre suivant.
67
SPRINT 3 : Mise en place de la prévision du chiffre
d’affaires
Chapitre 6
Analyse prédictive des ventes par séries
temporelles
68
Introduction :
Dans un contexte décisionnel, la prévision des ventes joue un rôle fondamental dans l’optimisation
des processus métiers, notamment pour la gestion des stocks, la planification des achats, ou encore
le pilotage budgétaire. Le module de ventes de l’ERP Microsoft Dynamics Navision fournit une source
riche de données transactionnelles structurées qui permettent la mise en place d’analyses prédictives
pertinentes. Ce chapitre présente l'application de modèles de séries temporelles sur les ventes
mensuelles, dans le but de prédire les tendances futures et d'accompagner la prise de décision
stratégique.
e) SPRINT 3 :
69
Figure 55: Préparation des données
2.2 Résultats
70
Figure 56: MAE et RMSE
2.3 Visualisation
La figure ci-dessous présente la comparaison entre les valeurs réelles et les prévisions ARIMA
sur la période test (03/2021 à 12/2021) :
71
3.2 Résultats
72
5 Comparaison et choix du modèle
Les deux modèles ont présenté des performances relativement proches. Cependant, ARIMA a
légèrement surpassé Prophet en termes de précision sur la période test. De plus, ses prévisions
apparaissent plus stables et cohérentes avec les tendances passées.
Conclusion
Ce chapitre a démontré la faisabilité d’une prévision du chiffre d’affaires mensuel à partir
des données de ventes de l’ERP. L’intégration des modèles ARIMA et Prophet a permis
d’analyser les tendances historiques et d’anticiper les résultats futurs. Le modèle ARIMA a
été retenu comme le plus adapté dans notre cas. Cette analyse ouvre la voie à des décisions
commerciales plus proactives, en particulier pour la gestion des stocks, la planification des
ventes et les prévisions budgétaires.
Conclusion générale
73
Ce projet de fin d’études a constitué une expérience riche et formatrice, tant sur le plan
technique que professionnel. À travers les six chapitres de ce rapport, nous avons
documenté toutes les étapes de la mise en place d’une solution décisionnelle complète
intégrée à l’ERP Navision, visant à améliorer l’analyse des ventes.
Dans un premier temps, nous avons présenté le contexte du projet, les objectifs, ainsi que
les enjeux décisionnels dans un environnement ERP. Ensuite, nous avons dressé un
panorama des concepts clés de l’informatique décisionnelle, des architectures BI et des
outils utilisés, en mettant l’accent sur SSIS, SSMS et Power BI.
La phase d’analyse des besoins nous a permis de recueillir les spécifications fonctionnelles et
techniques, de modéliser le système selon une méthode agile basée sur Scrum, et de
concevoir un schéma en étoile adapté aux données de vente. Grâce à l’outil SSIS, nous avons
ensuite assuré un processus ETL robuste : extraction, nettoyage, transformation et
chargement des données dans un entrepôt structuré.
Une fois les données modélisées, nous avons conçu des tableaux de bord interactifs avec
Power BI, en segmentant l’analyse par produit, client, fournisseur et période. Cette phase a
permis d’offrir aux décideurs une vision synthétique et dynamique de leur performance
commerciale.
Enfin, une dimension prédictive a été intégrée via des modèles de séries temporelles
(ARIMA, SARIMA, LSTM), afin de projeter le chiffre d’affaires futur et appuyer les décisions
stratégiques. Ces comparaisons ont démontré l’intérêt croissant des approches hybrides
combinant statistique et deep learning.
Références
74
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
grand-livre
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
distribution-groups
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
75