En Vue de L'obtention Du Diplôme Master
En Vue de L'obtention Du Diplôme Master
Faculté de sciences
Département : Mathématiques
THEME
Promotion : 2019/2020
Dédicace
Je dédie ce modeste travail à
A mes parents qui peuvent être fiers et trouver
ici le résultat de nombreuses années de
sacrifice. Merci pour les nobles valeurs,
l'éducation et le soutien continu qui sont
venus de vous.
À mon cher frère et sœur Qui n’ont cessé
d’être pour moi des exemples de persévérance,
de courage et de Générosité. Dieu vous garde
pour moi.
A mon encadreur RASOUL Abdelaziz, en
espérant qu'il trouve dans ce travail le
témoignage de ma profonde gratitude.
A tout mes enseignants de l'université de
Saad Dahlab Blida1 sans exception.
A mes amis et camarades de classe.
REMERCIMMENTS
La chose la plus importante dans la vie d'un
homme est d'être reconnaissant et d'être son plus
grand atout
Il est dommage que cela ne soit utile à personne.
Ce n'est pas mon habitude d'être ingrat. Il utilise
Je suis donc heureux de rendre mes premiers
remerciements à Dieu Tout-Puissant, qu’il m'a
donné la volonté et le courage de faire ce travail
humble.
Je voudrais exprimer ma profonde gratitude au
promoteur du RASOUL Abdelaziz, qui a été
heureux de travailler avec lui sous sa supervision
pour ses conseils et ses critiques constructives.
Je remercie sincèrement les membres du jury
d'avoir accepté de faire partie du comité
d’examinassions.
Au final, je ne pourrai pas terminer cette partie
sans exprimer ma gratitude mes parents, frères et
sœurs qui m'ont toujours soutenu et encouragé
pendant mes études.
Laib
ملخص
الهدف من هذا العمل هو دراسة تقنيات تحليل السالسل الزمنية و نمذجتها من
وقد قمنا في هذا العمل بدراسة نماذج أريما باستخدام تقنيات بوكس – جنكيس ومرشح
. كالمان من اجل التنبؤ بالقيم المستقبلية
وقد طبقنا في نهاية العمل هذه التقنيات على معطيات حقيقية تتمثل في دراسة عدد االصابات
. في الجزائر باستعانة ببرنامج االحصائي ار19 وعدد الوفيات بفيروس كورونا
. أريما، أرما، مرشح كالمان، بوكس _جنكيز، سلسلة زمنية: الكلمات المفتاحية
Résumé
L’objectif de ce travail est d’étudier les techniques d’analyse et de modélisation des séries
chronologiques afin de prédire les valeurs futures.
Dans ce travail, nous avons étudié les modèles ARIMA en utilisant les techniques Box-Jenkis
et le filtre de Kalman afin de prédire les valeurs futures.
A la finn des travaux, nous avons appliqué ces techniques à des données réelles, représentées
par l’étude du nombre d’infections et du nombre de décès par Coronavirus 19 en Algérie, à
l’aide du programme statistique R.
Mots clés : Série temporelle, Box-Jenkins, Filtre de Kalman , ARMA, ARIMA.
Summary
The objective of this work is to study the techniques of analysis and modeling of time series in
order to predict future values.
In this work, we studied ARIMA models using Box techniques and the Kalman filter in order
to predict future values.
At the end of the work, we applied these techniques to real data, represented by studying the
number of infections and the number of deaths with Coronavirus 19 in Algeria, using the
statistical program R.
Key words : Time Series, Box, Kalman Filter, ARMA, ARIMA
TABLE DES MATIÈRES
iv
TABLE DES MATIÈRES
v
TABLE DES MATIÈRES
vi
TABLE DES FIGURES
vii
TABLE DES FIGURES
viii
LISTE DES TABLEAUX
ix
INTRODUCTION GÉNÉRALE
Connaître le futur, ou du moins avoir une idée du futur est l’un des soucis de l’Homme
depuis toujours. De nos jours aussi, les raisons socioéconomiques poussent à antici-
per l’avenir. Une question importante est de savoir sur quoi nous appuyer pour pré-
dire l’avenir. Il est donc primordial d’arriver à prévoir le mieux possible le futur en
s’appuyant sur le passé. D’une façon mathématique, on peut formuler le problème
de la prévision en supposant avoir N observations (x 1 , x 2 , ..., x N ) issues d’un processus
(un ensemble des variables aléatoires) quantifiant une certaine activité, dans notre cas
l’évolution du COVID19 et on souhaite connaître la valeur à une date future.
Dans le premier chapitre, nous présentons les définions les séries chronologiques,
la décomposition en principales composantes, et nous avons étudier et présenter les
modèles des séries chronologiques, telle que : AR, MA, ARMA, ARIMA de toutes sortes,
et à la fin de cet axe nous nous sommes familiarisés avec la méthode de prédiction
utilisant la technologie BOX-JENKINS qui Centré sur l’identification, estimation et va-
lidation.
Dans le deuxième chapitre, nous avons traité de la prédiction de l’utilisation de
filtre de KALMAN dont le principe est de corriger le chemin du modèle en combinant
des observations et des informations fournies par le modèle pour réduire l’erreur entre
l’état vrai et l’état filtré.
Dans le troisième nous avons appliqué ce que nous avons étudié dans le premier
et le deuxième axe aux données qui représentent le nombre d’infections et de décès
par COVID19 en Algérie, et à la fin de cet axe nous avons comparé entre la technologie
BOX-JENKINS et la technique de KALMAN, et les résultats de la prédiction à l’aide de
KALMAN étaient meilleurs que les résultats de la prédiction de BOX-JENKINS.
1
CHAPITRE 1
Z+∞
|x| f (x) d x < +∞,
−∞
donc Z +∞
E (X ) = x f (x) d x
−∞
est l’espérance de X .
P
— si X est une v.a discréte. X (ω) est un ensemble fini ou dénombrable . x ∈ X (ω) |x|
P (X = x) < ∞, dans ce cas la série est finie donc elle convege. Alors
X
E (X ) = xP (X = x)
x ∈ X (ω)
est l’espérance de X .
Proposition 1.2 Soient X et Y deux v.a. intégrables, a et b deux réels . Alors les v.a X +Y
et aX + bY sont intégrables et
E (X + Y ) = E (X ) + E (Y ) . et E (a X + bY ) = aE (X ) + bE (Y ) .
2
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
cov(X , Y ) = E (X Y ) − E (X )E (Y ).
cov(X , Y )
cor (X , Y ) = .
σx σ y
Définition 1.5 la méthode des moindres carrés permet alors de minimiser l’impact des
erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure
Définition 1.6 Un processus stochastique est une suite de variables aléatoires réelles qui
sont indexées par le temps :X t ,t ∈ Z Ici t appartient à un espace discret, ce qui définit un
processus en temps discret.Un processus stochastique est donc une famille de variables
aléatoires X dont on va observer des valeurs réelles issues de l’espace S des échantillons
selon une certaine loi de probabilité.Pour chaque point s de l’espace des échantillons S,
la fonction qui associe X t (s) est appelée la trajectoire du processus.
L’étude des séries chronologiques sert à faire de la prévision à court, moyen et long
terme. Il existe des méthodes prévisionnelles quantitatives et qualitatives.
3
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
4
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
1X n
Sj = (Yi j − m i j ). ∀ j = 1, 2, .., p. ∀i = 1, 2, ..., n.
n i =1
p
− 1X
S= Sj .
p j =1
− −
— Si S , 0 on corrige les coefficient saisonniers (C S j ) : C S j = S j − S
cas : Modèle multiplicatif
Yt
— On calcule les données sans tendance mt
.
— On calcule la moyenne des données sans tendance du mois j sur les n années,
ceci pour chacun des p période
1X n Y
ij
Sj = . ∀ j = 1, 2, .., p. ∀i = 1, 2, ..., n.
n i =1 m i j
5
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
p
− 1X
S= Sj
p j =1
−
— Si S , 1 on corrige les coefficient saisonniers (C S j )
SJ
CSj = − .
S
1.3 Définitions
Définition 1.12 La colinéarité exacte survient quand une combinaison linéaire des va-
riables explicatives est égale à une autre variable explicative.
B 2 X t = B (B X t ) = B X t −1 = X t −2 .
∆X t = (1 − B )X t = X t − X t −1 .
6
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
∆2 X t = ∆(∆X t ) = ∆((1 − B )X t ) = (1 − B )2 X t
= (1 − 2B + B 2 )X t = X t − 2X t −1 + X t −2 .
∆12 X t = (1 − B 12 )X t = X t − X t −12 .
1.4 Stationnarité
Définition 1.14 Une série temporelle {Y t }, ou processus stochastique, est dite stricte-
ment stationnaire si la distribution conjointe de (Y t 1 , ..., Y t k ) est identique à celle de
(Y t 1+t , ..., Y t k+t ), quels que soient k le nombre d’instants considérés, (t 1 , ..., t k ) les instants
choisis et t , le décalage ; c’est-à-dire que, quels que soient le nombre de dates et les dates
choisis, quand on décale ces dates d’une même quantité, la distribution ne change pas.
En somme, la stationnarité stricte dit que la distribution conjointe de tout sous-vecteur
de {Y t }, quels que soient sa longueur et les instants choisis, est invariante quand on trans-
late ces instants d’une même quantité. Cette condition est difficile à vérifier et on utilise
une version plus faible de stationnarité,la stationnarité faible ou du second ordre, sou-
vent suffisante.
γl = cov(Y t , Y t −l ).
7
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
— ¯γl ¯ ≤ γ0 ∀l .
¯ ¯
— γl = γl −1 ∀l .
Cette fonction étant paire, on ne la représente que pourl = 0, 1, 2, .... On a égale-
ment :
La fonction d’auto covariance d’une série {Y t } faiblement stationnaire est de type
positif 1.
Cette propriété exprime le fait que la variance d’une combinaison linéaire de n
v.a.Y t 1 , ..., Y t n est positive.
cov (Y t , Y t −l ) cov (Y t , Y t −l ) γl
ρl = p = = .
v ar (Y t ) v ar (Y t −l ) v ar (Y t ) γ0
La dernière égalité tient car v ar (Y t −l ) = v ar (Y t ) = γ0 . Enfin, en notant que par la
stationnarité E (Y t ) = µ, indépendant de t , on a en terme d’espérance mathématique :
Y t − µ Y t −l − µ γl
£¡ ¢¡ ¢¤
E
ρl = = .
γ0
h¡ ¢2 i
E Yt − µ
−1 ≤ ρ l ≤ 1 , ρ 0 = 1.
8
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
où
9
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
h
φi Y t −i + εt
X
Yt =
i =1
où ¯∗¯
¯ρ h ¯
¯ ¯
φ̂hh = ¯ ¯
¯ρ h ¯
¯∗¯
¯ρ h ¯ = le déterminant de la matrice (ρ h ) dans laquelle on remplace la dernière co-
¯ ¯
10
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
−1 ≤ φhh ≤ 1, ∀h > 0.
φ00 = ρ 0 = 1.
φh;h = 0 , ∀h > p,
et
φ̂h+1, j = φ̂h, j − φ̂h+1,h+1 φ̂h,h+1 , pour j = 1, 2, ..., h.
Définition 1.21 Un bruit blanc gaussien {Z t } est une suite de v.a. i.i.d. N (0, σ2z ), on note :
Z t ∼ B B N (0, σ2z ).
11
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Proposition 1.22 Si y t , t = 1, ..., T est une observation d’une suite de v.a. i.i.d. de mo-
ment d’ordre 2 fini, E (y t2 ) < ∞, alors les ρ l sont approximativement indépendants et
normalement distribués de moyenne 0 et de variance 1/T .
h h µ ρ̂ − 0 ¶2
j
ρ̂ 2j
X X
Q(h) = T = p
j =1 j =1 1/ T
c’est-à-dire la somme des carrés de h variables approximativement N (0, 1). Or, sa-
chant que le carré d’une variable N (0, 1) suit une loi χ21 et que la somme de deux v.a.
indépendantes et distribuées suivant des lois χ2n1 et χ2n2 suit une loi χ2n1+n2 , la loi de
Q(h) est bien approximativement χ2h , sous l’hypothèse nulle. Notons qu’on doit choi-
sir h, le nombre de coefficients dont on teste la nullité
Remarques (Variantes du test de blancheur)
h ρ̂ 2k
Q ∗ (h) = T (T + 2)
X
k=1 T −k
♣ Quand le test est appliqué non sur des v.a. indépendantes, mais sur les rési-
dus d’un ajustement estimant m paramètres, la loi approchée sous l’hypothèse
nulle est un χ2 à h − m degrés de liberté.
12
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
y t = x t0 β + u t , t = 1, ..., T, u t = ρu t −1 + z t
où PT
t =2 û t −1 û t
ρ̂ = PT 2
.
t =1 û t
Remarque 1.23 Pratiquement une statistique DW 2 peut être le signe d’une mauvaise
spécification du modèle (par exemple, ajustement d’une tendance linéaire alors que la
tendance réelle est quadratique).
Définition 1.24 Une série {Y t } est dite linéaire si elle peut s’écrire :
+∞
Yt = µ + ψi z t −i ,
X
i =−∞
où
z t ∼ B B (0, σ2 )
Définition 1.25 Une série {Y t } est dite linéaire et causale si elle est linéaire avec ψi = 0,
13
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
i <0:
∞
Yt = µ + ψi z t −i .
X
i =0
On admettra qu’une série linéaire est stationnaire. L’étude des séries non causales
conduit à des résultats non intuitifs difficilement utilisables, aussi nous ne considére-
rons parmi les séries linéaires que des séries causales . L’écriture
∞
Yt = µ + ψi z t −i ,
X
i =0
∞
E (y t ) = µ, v ar (y t ) = σ2z (1 + ψ2i )
X
i =1
∞
γl = cov(y t , y t −1 ) = σ2z ψi ψi −1
X
i =1
Y t = c + φ1 Y t −1 + φ2 Y t −2 + ... + φp Y t −p + εt
c
E (Y t ) = µ =
1 − φ1 − φ2 − ... − φp
φp (B ) = 1 − φ1 B − φ2 B 2 − ... − φp B p (1.5)
polynome de degrée p.
— modèle AR(p) est stationnaire ssi les racines en valeur absolue de φp (B ) = 0 > 1
p
φp (B )Y t = εt , φp (B ) = 1 − φi B i , et εt ∼ B B (0, σ2 )
X
i =1
14
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
AR(P ) est un processus causal s’il peut être écrit dans un infini M A représentation
M A(∞)
φp (B )−1 φp (B )Y t = φp (B )−1 εt
∞
Y t = φp (B )−1 εt = Ψ∞ (B )εt = Ψi εt −i
X
=⇒
i =0
Où
∞
Ψ∞ (B ) = φp (B )−1 , Ψ∞ (B ) = 1 + ψi B i ,
X
i =1
ψi satisfaire ∞
i =0 ψi < ∞ , avec ψ0 = 1.
P ¯¯ ¯¯
les coefficients ψi peuvent être obtenus par égalisation des coefficients dans la re-
lation φp (B )Ψ∞ (B ) = 1.
Donc
ψi = φ1 ψi −1 + φ2 ψi −2 + φ3 ψi −3 + ... + φp ψi −p ,
où ψ0 = 1 , et ψi = 0 si i < 0
X t = εt + θ1 εt −1 + θ2 εt −2 + ... + θq εt −q
θ(B ) = 1 + θ1 B + θ2 B 2 + ... + θq B q .
15
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
moyenne µ.
On aimerait pouvoir exprimer ce processus en fonction de son passé (observé) et
pas seulement en fonction du bruit passé non observé. C’est la question de l’inversibi-
lité du processus. Examinons le cas d’un M A(1) centré :
(1 + θB )−1 = 1 − θB + θ 2 B 2 − θ 3 B 3 + ...
X t = εt + θX t −1 − θ 2 X t −2 + θ 3 X t −3 + ...
on dit qu’il est inversible. Observons que la condition d’inversibilité d’un M A(1) est
parallèle à la condition de représentation causale d’un AR(1).
Un M A(q) est dit inversible si on peut le représenter comme une autorégression infi-
nie.
1.4.10.1 Propriétés
1 − φ1 B − φ2 B 2 − ... − φp B p Y t = c + 1 + θ1 B + θ2 B 2 + ... + θq B q Y t εt
¡ ¢ ¡ ¢
Y t obéissant est stationnaire si, comme dans le cas des autorégressifs, les racines
du polynôme d’autorégression
1 − φ1 B − φ2 B 2 − ... − φp B p = 0 (1.8)
16
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
core s’écrire :
1 + θ1 B + θ2 B 2 + ... + θq B q
Yt = µ + εt
−φ1 B − φ2 B 2 − ... − φp B p
Nombre de valeurs consécutives de la série chronologique à prédire. Si h est null, le
nombre de valeurs consécutives à prédire est supposé être égal à la longueur de time-
series.test. Obligatoire lorsque timeseries.test est null.
On peut alors écrire une représentation M A(∞) de la série :
∞
Yt = µ + ψi εt −i ψ0 = 1.
X
,
i =0
Par ailleurs, Y t , AR M A(p, q), est inversible si les racines de Θ(B ) sont en module
strictement supérieures à 1 et on peut écrire alors une représentation AR(∞) de la sé-
rie :
∞
πi Y t −i + εt .
X
Yt = c +
i =1
— L’absence de racines communes dans (1.7) est une condition pour éviter la re-
dondance des paramètres.
— Il arrive que certaines racines du polynôme autorégressif soient égales à 1. L’au-
torégressif est alors non stationnaire et on dit qu’il est intégré d’ordre d si 1 est
d fois racine.
σ2
v ar (Y t ) = σ2 1 + φ2 + φ4 + ... =
¡ ¢
.
1 − φ2
γ0 = φ1 γ1 + φ2 γ2 + ... + φp γp + σ2ε
γl = φ1 γl −1 + φ2 γl −2 + ... + φp γl −p , l ≥ 1.
17
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
ρ l = φ1 ρ l −1 + φ2 ρ l −2 + ... + φp ρ l −p , l ≥ 1.
Y t = εt + θεt −1
de moyenne E (Y t ) = 0.
La variance de Y t définie par (1.6) est la variance d’une combinaison linéaire de
variables non corrélées, donc :
Pq
pour M A(q) : Y t = θ ε , avec θ0
i =0 i t −1
= 1 , et εt −1 ∼ B B (0, σ2 )
q q
θi εt −1 ) = E (θi εt −1 ) = 0.
X X
E (Y t ) = E (
i =0 i =0
q
v ar (Y t ) = γ0 = (1 + θ12 + θ22 + ... + θq2 )δ2 = σ2 θi2
X
i =0
( Pq )
σ2 θθ
i =0 i i −h
si h = 0, ± 1, ± 2,..., ± q
γh =
0 si h  q
18
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Définition 1.27 Le processus M A(q) est inversible s’il peut être représenté forme AR in-
finie convergente AR(∞), Y t = θq (B )εt , avec
q
θq (B ) = 1 + θ j B q , εt ∼ B B (0, σ2 )
X
j =1
Parce que π∞ (B ) = θq (B )−1 es coefficients πi peuvent être obtenus par égalisation des
coefficients dans la elation θq (B )π∞ (B ) = 1. Donc
On a
π j = − θ1 π j −1 − θ2 π j −2 − ... − θq π j −q ,
∞ ∞
π∞ (B ) = θq (B )−1 = 1 − πi B i = − πi B i
X X
i =1 i =0
avec π0 = −1 , et πi satisfaire ,
¡ P∞ ¢
Notez que la condition de somme finie i =0 |πi | < +∞ assure que la série AR(∞)
est convergente
Y t = εt − 0.1 εt −1 + 0.42 εt −2 .
les racines de
(1 − 0.1B + 0.42B 2 ) = (1 − 0.7B )(1 + 0.6B ) = 0
est
1
B1 = = 1.43 > 1
0.7
et
−1
B2 = , |B 2 | = 1.67 > 1,
0.6
19
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
∞
π j Y t −i + εt ,
X
Yt =
i =1
avec
1
v ar (ρ̂) ' (1 + 2ρ 21 + ... + 2ρ 2m ).
T
Ce résultat étend la Proposition (1.2). Il est précieux pour deviner (identifier) l’ordre
de moyenne mobile convenable pour modéliser une série. En effet, en présence d’un
corrélogramme empirique non significativement différent de 0 à partir d’un certain
ordre m + 1, on essaiera d’ajuster à la série correspondante un modèle dont l’AC F est
nulle à partir de l’ordre m + 1, un M A(m) . Mais comment savoir que l’ACF empirique
à partir de l’ordre m + 1 est une estimation de 0 ? La formule de Bartlett permet de
calculer des intervalles autour de 0 pour l’AC F d’un processus M A(m), à partir du
décalage m + 1 : pour chaque retard k > m on a en effet :
r r
1 1
ρ²(−1.96
b (1 + 2ρ 21 + ... + 2ρ 2m ), +1.96 (1 + 2ρ 21 + ... + 2ρ 2m ))
T T
20
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Les processus AR M A sont des mélanges des processus AR et M A. Ils sont néces-
sairement,en pratique, finisY t obéit à un modèle AR M A(p, q) s’il est stationnaire et
vérifie :
1 − φ1 B − φ2 B 2 − ... − φp B P Y t 1 + θ1 B + θ2 B 2 + ... + θq B q εt
¡ ¢ ¡ ¢
=
φp (B )Y t = θq (B )εt
p
φp (B ) = 1 − φ1 B − φ2 B 2 − ... − φp B P = 1 − φi B i
X
i =1
et
q
θq (B ) = 1 + θ1 B + θ2 B 2 + ... + θq B q = 1 + θi B i
X
i =1
φp (B )(Y t − µ) = θq (B )εt .
Y t = α + φ1 Y t −1 + φ2 Y t −2 + ... + φp Y t −p + εt + θ1 εt −1 + θ2 εt −2 + ... + θq εt −q
où
α = µ(1 − φ1 B − φ2 B 2 − ... − φp B P ).
21
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
ou équivalent
(1 − 0.2B )Y t = (1 − 0.2B )(1 − 0.9B )εt ,
Il y a une racine commune donc le modèle est redondant annulation (1 − 0.2B ) des deux
côtés pour obtenir
Y t = (1 − 0.9B )εt .
Ainsi, le processus n’est pas vraiment un AR M A(1, 2), mais c’est un M A(1) ≡ AR M A(0, 1).
avec θ0 = 1 ,
" #
p q
γh = cov(Y t +h , Y t ) = E (Y t +h Y t ) = E ( φ j Y t +h− j + θ j εt +h− j )Y t
X X
j =1 j =0
" #
p q ∞
φ j E Y t +h− j Y t + θ j E εt +h− j ψi εt −i
X £ ¤ X X
=
j =1 j =0 i =0
p q
φ j γh− j + σ2 θ j ψ j −h , pour h ≥ 0.
X X
=
j =1 j =h
p q
2
γh − φ j γh− j = σ θ j ψ j −h , pour 0 ≤ h ≤ max(p, q + 1).
X X
j =1 j =h
22
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Diviser ces deux équations par γ0 nous permettra de résoudre pour l’AC F des mo-
γh
dèles AR M A(p, q) , ρ h = γ0
p q
σ2 X
ρh − φ j ρ h− j θ j ψ j −h , pour 0 ≤ h ≤ max(p, q + 1).
X
=
j =1 γ0 j =h
2
ρ 0 − φ1 ρ −1 − φ2 ρ −2 − ... − φp ρ −p = σγ0
ρ 1 − φ1 ρ 0 − φ2 ρ 1 − ... − φp ρ 1−p = 0
ρ − φ ρ − φ ρ − ... − φ ρ
p 2−p = 0
2 1 1 2 0
o ù ρ −h = ρ h , pour h = 1, 2, ..., p.
.....................................
......................................
ρ p − φ1 ρ p−1 − φ2 ρ p−2 − ... − φp ρ 0 = 0
Les modèles ARIMA sont des modèles non stationnaires et ont une structure proche
des modèles ARMA, ils sont intégrés et modélisables par des processus ARMA.
Définition 1.30 Un processus intégré est un processus qui peut être rendu stationnaire
par différenciation.
Si un processus doit être différencié d fois pour atteindre la stationnarité, il est dit
intégré d’ordre d , notant AR I M A(p, d , q) :
φp (B )(1 − B )d Y t = θq (B )εt ,
φp (B ) = 1 − φ1 B − φ2 B 2 − ... − φP B p
et
θq (B ) = 1 + θ1 B + θ 2 B 2 + ... + θq B q
23
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
(1 − φB )(1 − B )Y t = (1 + θB )εt
(1 − φ1 B − φ2 B 2 )(1 − B )Y t = (1 + θB )εt
(1 − φ1 B )(1 − B )2 Y t = (1 + θ1 B + θ2 B 2 )εt
Remarque 1.31 Les modèles ARIMA sont appliqués dans certains cas où les données
montrent preuve de non stationnarité, où une première étape de différenciation peut
être appliqué une ou plusieurs fois pour éliminer le non stationnarité.
— AR(p) ≡ AR I M A(p, 0, 0)
— M A(q) ≡ AR I M A(0, 0, q)
— AR I (p, d ) ≡ AR I M A(p, d , 0),
— I M A(d , q) ≡ AR I M A(0, d , q)
— AR M A(p, q) ≡ AR I M A(p, 0, q),
— B B ≡ AR I M A(0, 0, 0), B B est un bruit blanc.
Pp
^ φp (B ) = 1 − i =1 i
φ Bi polynôme en B de degré p,
Pq
^ θq (B ) = 1 + i =1 θi B i polynôme en B de degré q,
PP
^ Φp (B s ) = 1 − i =1 φi B
is
polynôme en B s de degré P ,
PQ
^ ΘQ (B s ) = 1 + θB
i =1 i
is
polynôme en B s de degré Q. sans racines communes
entre ΦP (B s ) et ΦQ (B s ), p,d et q sont l’ordre du modèle AR non saisonnier,
du modèle M A et ordinaire différenciation respectivement, alors que P , D, et
24
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
— L’idée est que les S AR I M A sont des modèles AR I M A(p, d , q) dont les résidus t
sont AR I M A(P, D,Q)dont les opérateurs sont définis sur les B s et les puissances
successives, où p, q et d sont les commande AR non saisonnière, commande
M A non saisonnière et différenciation non saisonnière respectivement,tandis
que P , Q et D sont l’ordre saisonnier AR (S AR), l’ordre saisonnier M A (SM A),
et différenciation saisonnière au décalage s respectivement.
— La différenciation saisonnière
∆s Y t = (1 − B s )Y t = Y t − Y t −s
(1 − B )(1 − B 5 )Y t = εt
(1 − B )(1 − B 4 )Y t = (1 − θB 4 )εt .
E (Y t ) = α0 + α1 t
v ar (Y t ) = σ2 , cov(Y t , Y t −h ) = 0, ∀h , 0.
25
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Y t = Y t −1 + εt ⇐⇒ (1 − B )Y t = εt
B Y t = Y t −1 + εt (1)
B Y t −1 = Y t −2 + εt −1 (2)
B Y t −2 = Y t −3 + εt −2 (3)
v ar (Y t ) = t σ2 .
cov(Y t , Y ť ) = σ2 min(t , ť ) si t , ť
t
Y t = µ + Y t −1 + εt = t µ + Y0 + εj .
X
j =1
Y t = Y t −1 + εt =⇒ ∆Y t = εt
26
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
♣ Modèle(1) : Y t = φY t −1 + εt AR(1)
Les modèles de base du test étant théoriques, l’application du test requiert l’esti-
mation en pratique de modèles :
♣ Modèle(2)’ : ∆Y t = c + (φ − 1)Y t −1 + εt
♣ Modèle(3)’ : ∆Y t = c + bt + (φ − 1)Y t −1 + εt
φ−1
On calcule la t-statistique t φ̂ qui est donnée par : t φ̂ = ^2
δ
t φ̂ sera comparée à la valeur critique tabulée notée t t ab et on applique la règle sui-
vante :
Ï Si t φ̂ < t t ab on rejette H0
Ï Si t φ̂ ≥ t t ab on accepte H0
En pratique, on n’effectue pas ce test sur les trois modèles mais on procède par une
stratégie séquentielle en trois étapes suivantes :
Etape 1 : On estime le modèle (3)’ et on teste la significativité de la tendance déter-
ministe(test de Student sur le paramètre b)
— Si cette tendance estimée n’est pas significativement différente de zero( donc la
t-statistique de la tendance est inférieure aux valeurs critiques de la tendance
tabulée par Dickey-Fuller) alors on passe à l’étape 2.
— Si la tendance est différente de zero, on teste l’hypothèse nulle unitaire :
Etape 2
On aura à appliquer cette étape que si à l’étape 1 on a rejeté l’idée d’une tendance
significative. On estime le modèle (2)’ et on teste la sigificativité de la constante c.
— Si H0 est acceptée Y t est non stationnaire de type DS
27
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
Y t = φ1 Y t −1 + φ2 Y t −1 + φ1 φ2 Y t −2 + εt
∆2 Y t = φ1 Y t −1 + ∆φ2 Y t −1 + εt
28
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
∆Y t = (φ1 − 1)Y t −1 + εt .Ce test sur(φ1 − 1)est l’équivalent de celui sur θ1 dans le mo-
dèle ∆2 Y t .
— Identification du modèle
29
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
2(p + q)
AIC (p, q) = log σ2 + .
N
log(N )
B IC (p, q) = log σ2 + 2(p + q) .
N
a) Tests concernant les paramètres : Après avoir estimé les paramètres d’un mo-
dèle, on peut se poser la question de savoir si ces paramètres sont significative-
ment différents de zéro. Ces tests sont aussi appelés tests sur le modèle, car si
le test de significativité des paramètres détecte des paramètres non significatifs,
30
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
¯φ̂¯
¯ ¯
tc =
(V (φ̂q ))2
¯φp+1 ¯
¯ ¯
tc = 1
(V̂ (φ̂p+1 )) 2
b) Tests concernant le bruit blanc : L’une des hypothèses qui doivent être vérifiées
de manière rigoureuse pour la validité d’un modèle ajustée est celle de bruit
blanc. En effet, si les résidus ne forment pas un bruit blanc on peut penser à
une mauvaise stationnarisation des données ou même à un mauvais choix du
modèle.
31
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES CHRONOLOGIQUES
1.9 Prévision
Soit (Y t )t ∈ T , un processus au second ordre réel et centré. On a que la fonction
d’autocovariance est notée γ(i , j ) = E (Yi Y j ). Soit Y1 ,Y2 ,...,Yn un échantillon de (Y t )t ∈
T , on note Hn = Y1 , Y2 , ..., Yn le sous espace fermé de L 2 (Ω, A, P ) engendré par (Y t )1 ≤
j ≤ n. On pose que Ŷ = 0 et Ŷ j = Hn−1 (Y j ). On suppose que la matrice K (i , j ) est
définie positive, on montre
Et on déduit que
n
θn, j (Yn+1− j − Ŷn+1− j )
X
Ŷn+1 =
j =1
pour n ≥ 1.
Pour des prévisions d’ordre h ≥ 1
n+h−1
θn+h−1, j (Yn+1− j − Ŷn+1− j )
X
Ŷn+h =
j =1
∞ ¡
Y t = εt + b j εt − j
X ¢
j =1
32
CHAPITRE 2
Y t = G t X t + Wt , t = 1, 2, ... (2.1)
33
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
Proposition 2.1 Soient (Y1 , ..., Yn )des vecteurs al´eatoires de R k , U un vecteur aléatoire
de R d et V un vecteur aléatoire de R q .
ii) En notant M = E (U Y1T )(E (Y1 Y1T ))−1 , où S −1 désigne une matrice telle que
SS −1 S = S
P (U |Y1 ) = MU ,
P (U |Y1 ) = 0.
P (U |Y1 ,V ) = P (U |Y1 ) + P (U |V ).
34
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
1. Prédiction de l’état
P t −1 (X t ) = F t −1 P t −1 (X t −1 )
C t |t −1 = F t −1C t −1|t −1 F tT−1 +Q t −1
2. Prédiction de la mesure
P t −1 (Y t ) = G t P t −1 (X t )
υt = Y t − P t −1 (Y t )
St = G t C t |t −1G tT + R t
35
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
4. Calcul du gain K t
K t = C t |t −1G tT S −1
t
P t (X t ) = P t −1 (X t ) + K t v t
C t |t = C t |t −1 − K t S t K tT
Note1
La derniére équation : C t |t = C t |t −1 − K t S t K tT fait apparaitre explicitement la dimi-
nution de la covariance de l’erreur d’estimation apportée par une nouvelle mesure. On
peut l’écrire de façon équivalente :
C t |t = (I − K t G t )C t |t −1 (I − K t G t )T + K t R t K tT
issue de l’´equation :
P t (X t ) = (I − K t G t )P t −1 (X t ) + K t Y t
Note 2 :
Une mesure Y t de mauvaise qualité (R t → ∞) conduit à P t (X t ) = P t −1 (X t ) (la me-
sure Y t n’est pas prise en compte) ; une mesure Y t sans erreur (R t = 0) conduit à G t P t (X t ) =
Y t . Ci-dessous, on donne la démonstration des formules récursives du filtre de Kalman.
Démonstration : Rappelons que Vt −1 est décorrélé de X t −1 , et Wt est décorrélé de
Xt .
P t −1 (X t ) = P t −1 (F t −1 X t + Vt ) = F t −1 P t −1 (X t ) + P t −1 (Vt ) = F t −1 P t −1 (X t ).
C’est à dire
P t (X t ) = P t −1 (X t ) + P (X t |v t ).
P (X t |v t ) = E (X t v tT )S −1
t vt ,
36
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
E (X t v tT ) = E (X t (X t − P t −1 (X t ))T )G tT = C t |t −1G tT ,
où
C t |t −1 = E [(X t − P t −1 (X t ))(X t − P t −1 (X t ))T ].
On a :
C t |t −1 = E [X t X tT ] − E [P t −1 (X t )P t −1 (X t )T ]
= F t −1 E [X t −1 X tT−1 ]F tT−1 +Q t −1 − F t −1 E [|P t −1 (X t −1 )P t −1 (X t −1 )T ]F tT−1
= C t |t −1 +Q t −1 ,
où
C t |t = E [(X t − P t (X t ))(X t − P t (X t ))T ].
De même,
St = E (v t v tT ) = G t E [X t X tT ]G tT + R t −G t E [P t −1 (X t −1 )P t −1 (X t −1 )T ]G tT
= G t C t |t −1G tT + R t .
Enfin,
37
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
I t |t = I t |t −1 +G tT R t −1G t
avec :
T
I t |t −1 = (F t −1 I t−1
−1|t −1 F t −1 +Q t −1 )
−1
qui se réduit à :
dans le cas o‘u il n’y a pas de bruit d’état. Dans ce cas, on obtient une formule glo-
bale pour
passer de I t −1|t −1 à I t |t :
Cette formule se simplifie encore si l’état est constant, soit si la matrice de transi-
tion F se réduit à l’identité :
I t |t = I t −1|t −1 +G tT R t −1G t
Cette formule, qui peut être vérifiée à partir du lemme d’inversion matricielle, ex-
prime le caractére additif de l’information.
La Figure 4.1 illustre le fonctionnement du filtre de Kalman : soit une série égale à
la somme d’une tendance linéaire et d’un bruit blanc . Cette série est représentée sur
la figure de gauche. La figure de droite représente l’évolution au cours du temps de
P t (Y t ) = G t P t (X t ) qui est dans ce cas une quantité scalaire (courbe continue en bleu),
avec un intervalle de confiance à ±1σ calculé à partir de sa variance G t C t |t G tT (courbes
pointillées en rouge).
38
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
Les processus ARMA peuvent être représentés par des modèles d’état. On donne ici
successivement la représentation par modèle d’état :
Pour la cohérence avec les notations sur les modèles d’état, le processus AR(p)
considéré est noté Y .
Si Y est un processus AR(p), on a l’équation suivante :
Y t +1 = φ1 Y t + ... + φp Y t −p+1 + Z t +1 t ∈ Z
alors on peut vérifier que Y t est un processus AR(p) causal si l’on prend pour ma-
trices (constantes) G et F :
G = [0 0...1] de dimension p
39
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
0 1 0 ... 0
0 0 1 ... 0
F = ...
0 0 0 ... 0
φp φp−1 ... φ1
de dimension (p, p)
Φ(B )Y t = Θ(B )Z t t ∈ Z
Y t = Θ(B )U t
Y t = [θr −1 θr −2 ...θ0 ]X t
X t = (U t −r +1 ,U t −r +2 , ...,U t ]T t ∈Z
0 1 0 ... 0
0 0 1 ... 0
F = ...
0 0 0 ... 0
φr φr −1 ... φ1
40
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
On suppose ici que l’hypothèse sur l’ordre (p, q) a déjà été faite présente un schéma
général pour l’estimation robuste d’un processus ARMA causal, appelé méthode de
Box-Jenkins. Dans la suite, on décrit en détail l’estimation des coefficients de l’AR M A
lorsque p et q sont imposés.
Cet algorithme permet d’estimer les coefficients θ d’un processus MA. Il peut être
utilisé de plusieurs façons :
— cas d’un processus M A d’ordre connu : calcul des coefficients θ,
— cas d’un processus AR M A, qu’on cherche dans un premier temps à identifier à
un M A, comme d´ecrit au d´ebut de ce paragraphe. Dans ce cas, les coefficients
trouvés par l’algorithme des innovations sont les valeurs de ψ, puis on utilisera
l’algorithme suivant pour en déduire φ et θ.
Détermination des valeurs de θ (ou ψ)
Initialisation :
1 2
v̂ 0 = γe (0), θ̂1,1 = γe (1), v̂ 1 = γe (0) − θ̂1,1 v̂ 0
v̂ 0
Formules récursives pour m ≥ 2 :
41
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
1
θ̂m,m = γe (m)
v̂ 0
" #
1 k−1
θ̂m,m−k γe (m − k) θ̂m,m− j θ̂k,k− j v̂ j
X
= ∀k ∈ {1, ..., m − 1}
v̂ k j =0
m−1
2
v̂ m = γe (0) − θ̂m,m−
X
j v̂ j .
j =0
Les estimées de θ pour l’itération m sont données par le vecteur : θ̂m = (θ̂m,1 , ..., θ̂m,m )
et l’estimée de σ2Z pour l’itération m est donnée par : σ2Z = v̂ m
Cet algorithme doit fonctionner jusqu’à une valeur de m suffisante pour que les
coefficients estimés se ”stabilisent”.
γ(1)
φ1,1 =
γ(0)
v 1 = γ(0)(1 − φ21,1 )
" #
1 m−1
φm,m = γ(m) − φm−1, j γ(m − j )
X
v m−1 j =1
φm,k = φm−1,k − φm,m φm−1,m−k k = 1, ..., m − 1
= v m−1 1 − φ2m,m
¡ ¢
vm
Dans le processus d’identification, cet algorithme peut être utilisé à deux niveaux :
— Calcul de la fonction de corrélation partielle empirique : l’entrée est la fonction
de covariance empirique γe (.), la sortie est la séquence des φm,m ,
— Estimation du processus s’il est censé être un AR : c’est le même algorithme,
on utilise en plus la sortie v m comme estimateur de la variance de Z . Dans ce
cas, on trouve les coefficients de l’AR(p) dans la ligne n − p (par ordre croissant
d’indice). Les lignes suivantes (à partir de m = p + 1) contiennent les mêmes
coefficients pour les p premiers, puis des zéros jusqu’à m ; la valeur de v m reste
constante à partir de m = p.
On verra par la suite que, si l’on utilise une méthode alternative au filtre de Kalman
pour la prédiction à un pas, l’algorithme de Durbin Levinson est également utilisé à ce
42
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
niveau.
Cet algorithme permet de calculer les mêmes coefficients φm,k que l’algorithme de
Durbin Levinson, mais de façon non récursive à chaque itération m.
Soient (à chaque itération m) :
— Φm le vecteur (à déterminer) composé des coefficients φm,k pour k = 1, ..., m,
— Γm la matrice (m, m) définie par Γm = [γe (i − j )]m
i , j =1
— γm le vecteur constitué des valeurs de la fonction de covariance de 1 à m : γm =
(γe (1), ..., γe (m))T
On a alors les relations suivantes :
Γm Φm = γm , (2.3)
On voit que la détermination des coefficients φm,k nécessite d’inverser une matrice
de dimension m. L’algorithme de Yule Walker est donc utilisé essentiellement pour
déterminer les coefficients d’un processus auto-régressif d’ordre p connu ; le vecteur
Φp contient précisément les coefficients cherchés.
Un processus ARMA causal peut être écrit sous la forme d’un MA d’ordre infini :
∞
ψ j zt − j
X
Xt =
j =0
avec ψ0 = 1
Xj ,p)
min(
ψj = θj + φi ψ j −i
i =0
où par convention ψ0 = 1. Les ψ j sont en nombre infini, mais sont liés aux coef-
ficients φ et θ, dont le nombre est p + q, donc la connaissance des p + q premiéres
valeurs de ψ (ψ1 à ψp+q ) entraîne en général celle de toutes les autres (ψp+q+1 à ψ∞ )
et surtout suffit pour calculer les coefficients φ et θ.
On suppose qu’on a déjà déterminé l’ordre M d’un processus M A d’ordre fini qui
modélise correctement le processus AR M A,mais cet ordre sera confirmé par l’algo-
rithme des innovations. On a généralement M ≥ p + q.
43
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
Ψ̂(i , j ) = ψ̂q+i − j si q +i − j ≥ 0
Ψ̂(i , j ) = 0 si q + i − j < 0
Xj ,p)
min(
θ̂ j = ψ̂ j − φ̂i ψ̂ j −i , j = 1, ..., q.
i =1
Dans le filtre de Kalman, le résidu est égal à l’innovation divisée par son écart-type :
vt
r=p
st
44
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
n
φn, j Yn+1− j .
X
Ŷn+1 =
j =1
−1 X (Y j − Ŷ j )2
L(φ, θ, σ2Z ) = (2πσ2Z )−n/2 (r 0 ...r n−1 )−1/2 exp( )
2σ2Z j r j −1
où
Ŷ j +1 = Ŷ j +1 (φ, θ, σ2Z )
est la prédiction de Y j +1 sachant Y1 , ..., Y j , dans le modèle AR M A donné par les para-
métres (φ, θ, σ2Z ) , et les r j sont les variances des erreurs de prédiction, divisées par la
variance de Z :
1
r j = r j (φ, θ, σ2Z ) = v j (φ, θ, σ2Z )
2
où
v j (φ, θ, σ2Z ) = E (Y j +1 − Ŷ j +1 )2 .
1
σ̂2Z = s(φ̂, θ̂) (2.6)
n
X (Y j − Ŷ j )2
s(φ̂, θ̂) = (2.7)
j r j −1
1 1 X n
l (φ, θ) = l og ( s(φ, θ) + l og (r j −1 ) (2.8)
n n j =1
45
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
Y t − Ŷ t (φ̂, θ̂)
Ŵt = q
r t −1 (φ̂, θ̂)
Lorsque le processus est estimé correctement, la série des résidus suit asympto-
tiquement à peu prés la même loi que le processus générateur Z t (bruit blanc faible
en général). On peut donc tester la qualité de l’estimation en observant la fonction de
corrélation empirique ρ̂(h) de Ŵt . Celle-ci vaut 1 pour h = 0, et pour h ≥ 1, elle est
comprise entre − 1.96
p et
n
1.9−6
p
n
avec uneprobabilité de 95%. C’est le test de “blancheur”
de Bartlett. Lorsque l’estimation du processus a été obtenue par maximisation de la
vraisemblance, les intervalles de confiance peuvent être affinés (c’est-à-dire diminués)
pour les h petits. L’application de ce critére permet de dire si le modéle ARMA choisi
(avec ses ordres et ses paramétres) modélise correctement le processus. Il est néces-
saire pour le calculer de mettre en oeuvre une prédiction du processus, comme décrit
dans l’approche générale.
46
CHAPITRE 2. PRÉVISION PAR LES SÉRIES CHRONOLOGIQUES
47
CHAPITRE 3
Les virus Corona ont été découverts dans les années 1960, et les premiers virus dé-
couverts étaient le virus de la bronchite infectieuse chez les poulets et deux virus de la
cavité nasale de patients humains atteints d’un rhume, appelés virus corona humain
229E et virus corona humain OC43. Depuis, d’autres éléments de cette famille ont été
identifiés, notamment : le SARS Coronavirus en 2003, le Human Coronavirus NL63 en
2004, le Human Coronavirus HKU1 en 2005, le Coronavirus Mers en 2012 et le New Co-
rona Virus 2019-nCoV, et la plupart de ces virus Il a un rôle à jouer dans une infection
respiratoire grave et même la mort.
Les coronavirus sont une large famille de virus qui peuvent provoquer des mala-
dies chez les animaux et les humains. Il est connu qu’un certain nombre de virus co-
rona chez l’homme provoquent des maladies respiratoires allant du rhume à des mala-
dies plus graves telles que le syndrome respiratoire du Moyen-Orient (MERS) et le syn-
drome respiratoire aigu sévère (SRAS). Le coronavirus récemment découvert provoque
la maladie Covid-19.Ce virus est apparu dans la ville chinoise de Wuhan en décembre
2019 et se caractérise par sa propagation rapide parmi les personnes .Les gens peuvent
attraper l’infection Covid-19 par d’autres personnes infectées par le virus. La maladie
se transmet principalement d’une personne à l’autre par de petites gouttelettes qu’une
personne atteinte de Covid-19 sécrète par le nez ou la bouche lorsqu’elle tousse, éter-
nue ou parle. Ces gouttelettes ont un poids relativement lourd, car elles ne se déplacent
pas vers un endroit lointain, mais tombent plutôt rapidement au sol. Les gens peuvent
contracter la maladie Covid-19 s’ils respirent ces gouttelettes d’une personne infectée
par le virus.
Le nom anglais de la maladie est dérivé comme suit : «CO» correspond aux deux
premières lettres du mot «CORONA»( Le nom fait référence à l’apparence distinctive
d’une couronne) . Quant aux lettres «VI, elles sont dérivées des deux premières lettres
du mot« virus »et la lettre« D »est la première lettre du mot« diseas », selon un rapport.
48
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
La série temporelle
obse : la série chronologique représente le nombre d’infections par COVID19
Analyse graphique de la série "cas d’infections par COVID19"
A partir des données de la série,et avec la commandes suivante : plot.ts(obse).
Nous obtenons le graphique suivant :
49
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
Le corrélogramme simple :
Et sa corrélogramme partielle :
50
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
librarary(tseries)
adf.test(obse)
data : obse
p-value = 0.904Â 0.05 donc la série n’est pas stqtionnaire (admet une racine uni-
taire)
On peut qussi utiliser la foction decompoce pour extraire les composantes d’une
série temporelle
d=decompose(obse,type = "m")
plot(d)
51
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
Transformation de la série
On utilse lq commande ndiffs pour savoir l’ordre de différenciation aui éliminé la
tandance et la saisonnalité.
library(forecast)
ndiffs(obse)
[1] 1
Alors l’ordre de différenciation est 1.
d1=diff(obse,differences = 1)
d1
plot.ts(d1)
52
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
library(tseries)
— kpss.test(d1)
data : d1
— PP.test(d1)
data : d1
— adf.test(d1)
data : d1
D’aprés les résultqts des trois test on résume que la série différencier est station-
naire
Identification
acf(d1)
pacf(d1)
53
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
nous voyons que ACF est coupé aprés décalage 1 et que PACF est coupé aprés dé-
calage 1.
Nous proposons donc les modéles : ARIMA(1,1,1),ARIMA(2,1,1),ARIMA(1,1,2)
54
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
nulle du test et conclurons qu’une tendance est présente dans les données.
Pour visualiser la tendance, nous pouvons créer un graphique de série chronolo-
gique des précipitations annuelles par année et ajouter une ligne lisse pour représenter
la tendance :
#Plot the time series data
#Add a smooth line to visualize the trend
lines(lowess(time(x),x), col=’blue’)
55
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.2 – Résultats d’ajustements de la série des cas d’infections par COVID19
Modèle AIC
ARIMA(2,1,2)(1,0,1)[7] with drift 2338.37
ARIMA(1,1,0)(1,0,0)[7] with drift 2339.681
ARIMA(0,1,0) with drift 2361
ARIMA(0,1,0) 2359.346
ARIMA(0,1,1) with drift 2337.403
ARIMA(0,1,1)(1,0,0)[7] with drift 2344.215
ARIMA(0,1,1)(1,0,1)[7] with drift 2345.213
ARIMA(1,1,1) with drift 2334.554
ARIMA(1,1,1)(1,0,0)[7] with drift 2341.662
ARIMA(1,1,1)(0,0,1)[7] with drift 2334.757
ARIMA(1,1,1)(1,0,1)[7] with drift 2342.913
ARIMA(1,1,0) with drift 2332.714
ARIMA(1,1,2) 2323.526
ARIMA(1,1,2)(1,0,0)[7] 2332.651
ARIMA(1,1,2)(1,0,1)[7] 2334.587
ARIMA(1,1,1) 2333.235
ARIMA(0,1,2) 2329.716
ARIMA(1,1,1) 2333.235
56
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.3 – Résultats d’ajustements de la série des cas d’infections par COVID19
Modèles AIC
ARIMA(2,1,2)(1,0,1)[7] with drift 2338.37
ARIMA(1,1,0)(1,0,0)[7] with drift 2339.681
ARIMA(0,1,0) with drift 2361
ARIMA(0,1,0) 2359.346
ARIMA(0,1,1) with drift 2337.403
ARIMA(0,1,1)(1,0,0)[7] with drift 2344.215
ARIMA(0,1,1)(1,0,1)[7] with drift 2345.213
ARIMA(1,1,1) with drift 2334.554
ARIMA(1,1,1)(1,0,0)[7] with drift 2341.662
ARIMA(1,1,1)(0,0,1)[7] with drift 2334.757
ARIMA(1,1,1)(1,0,1)[7] with drift 2342.913
ARIMA(1,1,0) with drift 2332.714
ARIMA(1,1,0)(0,0,1)[7] with drift 2332.79
ARIMA(1,1,0)(1,0,1)[7] with drift 2340.915
ARIMA(2,1,0) with drift 2335.486
ARIMA(2,1,1) with drift 2327.738
ARIMA(2,1,1)(1,0,0)[7] with drift 2336.751
ARIMA(2,1,1)(0,0,1)[7] with drift 2329.602
ARIMA(2,1,2) with drift 2327.4
ARIMA(2,1,2)(1,0,0)[7] with drift 2336.486
ARIMA(2,1,2)(0,0,1)[7] with drift 2329.335
ARIMA(1,1,2) with drift 2325.471
ARIMA(1,1,2)(1,0,0)[7] with drift 2334.593
ARIMA(1,1,2) 2323.526
ARIMA(1,1,2)(1,0,0)[7] 2332.651
ARIMA(1,1,2) 2323.526
ARIMA(1,1,2)(1,0,0)[7] 2332.651
ARIMA(1,1,2)(1,0,1)[7] 2334.587
ARIMA(1,1,1) 2333.235
3.3.2 Validation
Nous avons diagnostiqué notre modéle à partir des tests suivants pour montrer que
le modéle choisis est valide.
57
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
— Test ADF
adf.test(modobse.residuals)
Augmented Dickey-Fuller Test
data : modobse$residuals
Dickey-Fuller = -6.2286, Lag order = 6, p-value = 0.01
— Test de Box-pierce
Box.test(modobse$residuals)
Box-Pierce test
data : modobse$residuals
X-squared = 0.14209, df = 1, p-value = 0.7062
— test de la stationnarité graphiquement
3.3.3 Prévision
D’aprés le modèle choisis précédent on peut prédire des résultqts pour les pro-
chaines jours
On utilise l’énsemble des commandes suivantes :
nse=auto.arima(obse)
ff=forecast(nse,h=10)
summary(ff)
58
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
59
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
60
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
pred<-fPolyRKFpredmean
pred
Nous obtenons :
Time Series :
Start = 256
End = 265
TABLE 3.6 – Résultats du prévision pour dix jours avec les bornes de confiances
date jour La prévision Borne inférieure Borne supérieure
17/09/2020 256 231.4074 189.066601 273.7481
18/09/2020 257 224.6786 163.745674 285.6114
19/09/2020 258 217.8135 141.873512 293.7536
20/09/2020 259 210.8123 121.583139 300.0415
21/09/2020 260 203.6749 102.162255 305.1876
22/09/2020 261 196.4014 83.250236 309.5525
23/09/2020 262 188.9916 64.635231 313.3480
24/09/2020 263 181.4456 46.180518 316.7107
25/09/2020 264 173.7635 27.791877 319.7351
26/09/2020 265 165.9451 9.401146 322.4891
lines(ts(pred,start=256),lwd=1,col=’blue’)
lines(ts(fPolyRKFpredupper,start=256),lwd=1,col=’light blue’)
lines(ts(fPolyRKFpredlower,start=256),lwd=1,col=’light blue’)
61
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
62
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
F IGURE 3.16 – Représentation graphique de la série des décés en Algérie par COVID-19
Le corrélogramme simple :
F IGURE 3.17 – Autocorrélation simple ACF de la série des décés en Algérie par COVID-
19
Le corrélogramme parctielle :
63
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
F IGURE 3.18 – Autocorrélation partielle PACF de la série des décés en Algérie par
COVID-19
On peut qussi utiliser la foction decompoce pour extraire les composantes d’une
série temporelle :
dec=decompose(y)
plot(dec)
Transformation de la série
64
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
65
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
D’aprés les résultqts des trois test on résume que la série différencier est station-
naire
Identification
les graphes de autorrélation simple et partielle de la série différencier sont :
acf(df)
pacf(df )
Nous voyons que ACF est coupé aprés décalage 1 et que PACF est coupé aprés dé-
calage 2.
Nous proposons donc les modéles : ARIMA(2,1,1)
66
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.8 – Résultats d’ajustement de la série des décés par un modèle temporelle
Modèle AIC
ARIMA(2,1,2)(1,0,1)[7] with drift : 1322.827
ARIMA(0,1,0) with drift : 1387.721
ARIMA(1,1,0)(1,0,0)[7] with drift : 1331.33
ARIMA(0,1,1)(0,0,1)[7] with drift : 1308.11
ARIMA(0,1,0) : 1385.762
ARIMA(0̊,1,1) with drift : 1306.184
ARIMA(0,1,1)(1,0,0)[7] with drift : 1315.199
ARIMA(0,1,1)(1,0,1)[7] with drift : 1317.161
ARIMA(1,1,1) with drift : 1307.127
ARIMA(0,1,2) with drift : 1306.047
ARIMA(0,1,2)(1,0,0)[7] with drift : 1315.123
ARIMA(0,1,2)(0,0,1)[7] with drift : 1308.031
ARIMA(0,1,2)(1,0,1)[7] with drift : 1316.927
ARIMA(1,1,2) with drift : 1309.047
ARIMA(0,1,3) with drift : 1308.045
ARIMA(1,1,3) with drift : 1311.045
ARIMA(0,1,2) : 1304.222
ARIMA(0,1,2)(1,0,0)[7] : 1313.3
ARIMA(0,1,2)(0,0,1)[7] : 1306.203
ARIMA(0,1,2)(1,0,1)[7] : 1315.056
ARIMA(0,1,1) : 1304.384
ARIMA(1,1,2) : 1307.223
ARIMA(0,1,3) : 1306.22
ARIMA(1,1,1) : 1305.307
ARIMA(1,1,3) : 1309.22
ARIMA(0,1,2) : 1307.26
Best model : ARIMA(0,1,2)
On utilise la commande
summary(ym)
on trouve
Series : y
ARIMA(0,1,2)
67
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
Coefficients :
ma1 ma2
-0.6262 0.0908
s.e 0.0624 0.0609
3.5.3.2 Validation
Nous avons diagnostiqué notre modéle à partir des tests suivants pour montrer que
le modéle choisis est valide
— Test ADF
library(tseries)
adf.test(ym$residuals)
data : ym$residuals
— Test de Box-pierce
Box.test(ym$residuals)
Box-Pierce test
data : ym$residuals
3.5.3.3 Prévision
D’aprés le modéle choisis précedent on peut prédire des résultats pour les pro-
chaines jours
mm=auto.arima(y)
ab=forecast(mm,h=10)
summary(ab)
on trouve
plot(ab)
68
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
library(TSPred)
fArimaKF<-fittestArimaKF(y,h=10)
plot(y,type=’l’,lwd=1,xlim=c(0,300),ylim=c(0,60),xlab="Time",ylab="ARIMAKF")
Nous obtenons
69
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
70
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.10 – Résultats de la prévision des décés par la méthode de Filtre de Kalman
jour Prévision
256 9.277891
257 9.689314
258 9.566864
259 9.603308
260 9.592461
261 9.595690
262 9.594729
263 9.595015
264 9.594930
265 9.594955
fArimaKF$pred$lower
fArimaKF$pred$uppe
71
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.11 – Bornes de confiances de la prévision des décés par la méthode de Filtre
de Kalman
jour Borne inférieure Borne supérieure
256 4.1224544 14.43333
257 4.1771352 15.20149
258 3.5354980 15.59823
259 3.1482466 16.05837
260 2.7249391 16.45998
261 2.3433380 16.84804
262 1.9757686 17.21369
263 1.6266345 17.56339
264 1.2917239 17.89814
265 0.9699397 18.21997
TABLE 3.12 – Résultats de la prévision des décés par la méthode de Filtre de Kalman
jour Prévision Borne inférieure Borne supérieure
256 9.277891 4.1224544 14.43333
257 9.689314 4.1771352 15.20149
258 9.566864 3.5354980 15.59823
259 9.603308 3.1482466 16.05837
260 9.592461 2.7249391 16.45998
261 9.595690 2.3433380 16.84804
262 9.594729 1.9757686 17.21369
263 9.595015 1.6266345 17.56339
264 9.594930 1.2917239 17.89814
265 9.594955 0.9699397 18.21997
lines(ts(pred$mean,start=256),lwd=2,col=’blue’)
lines(ts(pred$upper,start=256),lwd=2,col=’light blue’)
lines(ts(pred$lower,start=256),lwd=2,col=’light blue’)
72
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
F IGURE 3.27 – Repésentation graphique de prévision des décés par filtre de Kalman
73
CHAPITRE 3. APPLICATION SUR LA PRÉVISION DU COVID19
TABLE 3.14 – Comparaison de la prévision des décés par les deux méthodes avec le
bilan réel
Date Jour Box Kalman Réelle
17/09/2020 256 9.21056
233.6638 231.4074
9.277891 9
228
18/09/2020 257 9.625807
229.4237 9.689314
224.6786 6
219
19/09/2020 258 9.625807
225.4259 217.8135
9.566864 6
210
20/09/2020 259 9.625807
221.6565 9.603308
210.8123 203
7
21/09/2020 260 218.1023
9.625807 9.592461
203.6749 7
197
22/09/2020 261 9.625807
214.7513 196.4014
9.595690 10
191
23/09/2020 262 9.625807
211.5917 188.9916
9.595015 186
9
24/09/2020 263 9.625807
208.6125 181.4456
9.594930 5
25/09/2020 264 9.625807
205.8036 173.7635
9.594930 4
26/09/2020 265 9.625807
203.1552 9.594955
165.9451 4
On note à partir de ces résultats que filtre de Kalman est plus proche de la réalité.
Donc filtre de Kalman est meilleure que Box et Jenkins.Les prédictions de Kalman
peuvent être utilisées pour prendre les meilleures décisions pour lutter contre la pro-
pagation du virus.
74
CONCLUSION GÉNÉRALE
75
BIBLIOGRAPHIE
[1] Akaike, H. (1969). Fitting autoregressive models for prediction. Annals of the ins-
titute of Statistical Mathematics, 21(1), 243-247.
[2] Bowerman, B. L., & O’Connell, R. T. (1979). Time series and forecasting. North
Scituate, MA : Duxbury Press.
[3] Box, G. E., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time series analy-
sis : forecasting and control. John Wiley & Sons.
[5] Cheung, Y. W., & Lai, K. S. (1995). Lag order and critical values of the augmen-
ted Dickey&Fuller test. Journal of Business & Economic Statistics, 13(3), 277-
280.Eshel, G. (2003). The yule walker equations for the AR coefficients. Internet
resource, 2, 68-73
[6] Mechgoug, R. (2013). La Prédiction des Séries Temporelles utilisant les Para-
digmes de Soft Computing. Algérie.Melard, G. (1979). Modèles ARIMA pour des
séries chronologiques non homogènes. Statistique et analyse des données, 4(2),
41-50.
[7] MCLEOD, A. Ian. Diagnostic checking of periodic autoregression models with ap-
plication. Journal of Time Series Analysis, 1994, vol. 15, no 2, p. 221-233.
[8] Phillips, P. C., & Perron, P. (1988). Testing for a unit root in time series regression.
Biometrika, 75(2), 335-346.
76