Cours de Probabilités en Sciences Économiques
Cours de Probabilités en Sciences Économiques
CITATIONS READS
0 2
2 authors, including:
Marouane Daoui
7 PUBLICATIONS 0 CITATIONS
SEE PROFILE
All content following this page was uploaded by Marouane Daoui on 25 December 2022.
2 Notion de probabilité 14
2.1 Définitions et concepts de base . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3 Événement d’une expérience aléatoire . . . . . . . . . . . . . . 16
2.1.4 Ensemble d’événements . . . . . . . . . . . . . . . . . . . . . . 19
2.1.5 Tribu d’événements . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.6 Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Définition générale . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Définition axiomatique . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Propriétés de probabilité . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Équiprobabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Définition de la probabilité conditionnelle . . . . . . . . . . . . 24
i
2.3.2 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Indépendance en probabilité . . . . . . . . . . . . . . . . . . . . . . . 28
3 Variables aléatoires 29
3.1 Définition générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.1 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 32
3.2.3 Espérance et variance d’une variable aléatoire discrète . . . . . 33
3.3 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Espérance et variance d’une variable aléatoire continue . . . . 39
3.4 Couple de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 39
3.4.1 Loi jointe et loi marginale . . . . . . . . . . . . . . . . . . . . 39
3.4.2 Covariance d’un couple de variables aléatoires . . . . . . . . . 41
3.4.3 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 43
Annexes 59
Annexe 1 : Table statistique de la loi binomiale . . . . . . . . . . . . 59
Annexe 2 : Table statistique de la loi binomiale (suite) . . . . . . . . 60
Annexe 3 : Table statistique de la loi binomiale (suite) . . . . . . . . 61
Annexe 4 : Table statistique de la loi de Poisson . . . . . . . . . . . . 62
Annexe 5 : Table statistique de la loi normale centrée réduite . . . . . 63
Bibliographie 64
M. Daoui ii M. El Hafidi
Introduction
le terme statistique est apparu vers le milieu du XVIIe siècle ; il vient du la-
tin statisticus, relatif à l’état (status), et est employé alors dans un sens purement
descriptif de recueil ou de collection de faits chiffrés, les statistiques. Cependant, le
mot employé au singulier avec l’article défini, la statistique, évoque la méthode uti-
lisée ensuite pour étendre des résultats et dégager des lois (l’inférence statistique).
Il s’agit donc dans ce sens d’un moyen scientifique d’analyse et de compréhension
du phénomène étudié, s’appliquant très largement à l’économie.
Le calcul des probabilités a commencé avec Blaise Pascal, Pierre Fermat, Christian
Huygens et Jacques Bernoulli par l’analyse des jeux dits de hasard 1 . La théorie des
probabilités servira ensuite d’outil de base à un ensemble de méthodes ou de règles
objectives permettant d’utiliser des données pour fixer la précision avec laquelle on
estime certains paramètres (théorie de l’estimation) ou on teste certaines hypothèses
(théorie des tests) : la Statistique mathématique (ou inférentielle).
1. Le mot hasard est d’ailleurs emprunté à l’arabe az-zahr (jeu de dés, alea en latin) au XIIe
siècle, d’où est venue cette expression jeu de hasard au XVIe siècle.
1
Chapitre 1
L’analyse combinatoire, quant à elle, étudie comment compter les objets. Elle
fournit des méthodes de dénombrements particulièrement utiles en théorie des pro-
babilités.
➤ Exemple 1 : Les ensembles peuvent être finis ou bien infinis. Dans le cas fini,
on utilisera la notation avec des accolades : {0, 1, 2, 3, 4, 5, 6} désigne l’ensemble
des entiers naturels inférieurs ou égaux à 6.
2
➤ Exemple 2 : Soient A et B deux ensembles tels que : A = {1, 2, 3, 4} et
B = {1, 2, 4, 5}, alors 3 ∈ A et 3 ∈
/ B.
On dit également que l’ensemble A est inclus dans un ensemble E. On note alors
A ⊂ E, et A ̸⊂ E dans le cas contraire.
✧ Définition 3.— Deux ensembles sont identiques si chacun d’eux est contenu
dans l’autre, et l’on écrit :
A = B si et seulement si A ⊂ B et B ⊂ A
On suppose que tous les ensembles considérés sont des sous-ensembles d’un cer-
tain ensemble qu’on appelle ensemble universel et que l’on désigne par U . Ainsi,
pour un ensembles quelconque A, on a ∅ ⊂ A ⊂ U .
M. Daoui 3 M. El Hafidi
A = {x / x est un nombre impair, x < 10} et B = {2, 3, 5, 7, 11, 13}
1– Réunion :
A ∪ B = {x / x ∈ A ou x ∈ B}
A ∪ B = {1, 2, 3, 4, 5, 6, 7, 9}
2– Intersection :
M. Daoui 4 M. El Hafidi
Si A ∩ B = ∅, c.à.d. si A et B n’ont aucun élément en commun, on dit alors que A
et B sont disjoints.
A ∩ B = {1, 3, 5}
3– Complémentaire :
A\B = A − B = CA B = {x : x ∈ A , x ∈
/ B}
Ā = {x / x ∈ U , x ∈
/ A}
Les diagrammes suivants (Figure 1.1) qu’on appelle diagramme de Venn illustrent
les opérations précédents sur les ensembles.
M. Daoui 5 M. El Hafidi
A A
B B
: :
AB AB
A
B
: :
C
A–B A
A ∪ B = {1, 2, 3, 4, 5, 6} A ∩ B = {3, 4}
Les ensembles sur lesquels on effectue les opérations précédentes satisfont des lois
ou identités diverses que l’on peut résumer dans le tableau (1.1).
M. Daoui 6 M. El Hafidi
Tableau 1.1 – Lois de l’algèbre des ensembles
Loi idempotente
A∪A=A A∩A=A
Loi associative
(A ∪ B) ∪ C = A ∪ (B ∪ C) (A ∩ B) ∩ C = A ∩ (B ∩ C)
Loi commutative
A∪B =B∪A A∩B =B∩A
Loi de distributivité
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Loi d’identité
A∪∅=A A∩U =A
A∪U =U A∩∅=∅
Loi de complémentarité
A ∪ Ā = U A ∩ Ā = ∅
A=A Ū = ∅ , ∅¯ = U
Loi de Morgan
(A ∪ B) = Ā ∩ B̄ (A ∩ B) = Ā ∪ B̄
M. Daoui 7 M. El Hafidi
1.1.3 Ensembles finis et ensembles dénombrables
✧ Définition 1.— Un ensemble peut être fini ou infini. Un ensemble est fini
s’il est vide ou s’il contient exactement n éléments, n étant un entier positif. Dans
le cas contraire, l’ensemble est infini.
✧ Définition 2.— Un ensemble est dénombrable s’il est fini ou si l’on peut
ranger ses éléments sous la forme d’une suite. On dit dans ce cas qu’il infini et
dénombrable. Dans le cas contraire, l’ensemble est non dénombrable.
A × B = {(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)}
M. Daoui 8 M. El Hafidi
1.2 Éléments d’analyse combinatoire
L’analyse combinatoire est l’étude des différentes manières de “ranger“ des
objets. Ces objets peuvent être des nombres, des individus, des lettres, etc. Nous
examinons ici les cas qui se présentent le plus fréquemment.
Par convention : 0! = 1.
➤ Exemple : 5! = 1 × 2 × 3 × 4 × 5 = 120.
En particulier, si A ∩ B = ∅ (A et B disjoints) on a :
avec A ⊂ E.
M. Daoui 9 M. El Hafidi
1.2.2 Permutations d’un ensemble
➤ Exemple : Nous désirons “ranger“ trois boules vertes et deux boules bleues
toutes identiques excepté leur couleur. Nous avons bien 5 objets à notre disposition,
mais nous ne pouvons pas faire distinction entre les boules vertes ou les boules
bleues. Le nombre de permutations possibles sera donc plus restreint que le nombre
de permutations de 5 objets distincts qui est 5! = 120. Il faudra diviser ce résultat
par le nombre de permutations possibles des boules vertes (3! = 6) et celui des boules
bleues (2! = 2) puisqu’elles ne sont pas différentiables. Le nombre de permutations
sera donc égal à :
5!
= 10
(3! × 2!)
M. Daoui 10 M. El Hafidi
parlerons d’arrangements.
k n!
An = = n × (n − 1) × (n − 2) × ... × (n − k + 1)
(n − k)!
5!
A35 = = 5 × 4 × 3 = 60
(5 − 3)!
P53 = 53 = 125
On peut former donc 125 nombres différents de trois chiffres avec les cinq chiffres 1,
3, 5, 7 et 9.
M. Daoui 11 M. El Hafidi
a autant que d’arrangements avec répétitions de 8 éléments de {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
qui a 10 éléments. Il y en a en tout 108 .
k Akn n!
Cn = =
k! k! (n − k)!
➤ Exemple : On tire d’une urne cinq boules au hasard, qui en contient quinze
numérotées. Ce qui nous intéresse ici, c’est le numéro que portent les boules. L’ordre
dans lequel ces boules ont été tirés nous n’intéresse pas. Si les boules ne sont pas
remises dans l’urne après chaque tirage, le nombre de combinaisons possibles, sans
répétition, se calcule comme suit :
5 15!
C15 = = 3003
5! (15 − 5)!
k (n + k − 1)!
Kn =
k! (n − k)!
➤ Exemple : Reprenons l’exemple précédent. En supposant cette fois que les boules
sont remises dans l’urne après chaque tirage. De même, l’ordre dans lequel ces boules
M. Daoui 12 M. El Hafidi
ont été tirés nous n’intéresse pas. D’où le nombre de combinaisons possibles, avec
répétition, est égal à :
5 (15 + 5 − 1)!
K15 = = 11628
5! (15 − 1)!
Il y a donc 11628 combinaisons avec répétition possibles.
4!
AB BA BC CB
Arrangements A24 = (4−2)! AC CA BD DB
sans répétition = 12 AD DA CD DC
AA AB AD CA
Arrangements BB AC CD DB
P42 = 42 = 16 CC BC BA DA
avec répétition
DD BD CB DC
A24 AB AC AD BC
Combinaisons C42 = 2!
sans répétition = 4!
=6 BD CD
2!(4−2)!
(4+2−1)!
AA BB CC DD
Combinaisons K42 = 2!(4−2)! AB AC AD BC
avec répétition = 10 BD CD
M. Daoui 13 M. El Hafidi
Chapitre 2
Notion de probabilité
14
2.1.2 Ensemble fondamental
Le résultat d’une expérience aléatoire s’appelle un événement. La quantification
des « chances » qu’un tel événement a de se réaliser correspond à la notion intuitive
de probabilité. cette quantification nécessite la définition et la précision préalable
de l’ensemble des résultats possibles, appelés événements élémentaires. Cet en-
semble expérimental s’appelle ensemble fondamental (ou univers des possibles) et
est noté traditionnellement par Ω (prononcer grand omega).
➤ Exemple 2 : On tire une boule dans une urne contenant une boule blanche, deux
noires et cinq jaunes et l’ensemble fondamental retenu est : Ω = {noire, blanche, rouge}.
➤ Exemple 1 : On lance une pièce jusqu’à obtenir pile, l’événement retenu étant
le nombre de jets effectués : Ω = {1, 2, ..., n, ...} = N∗ ensemble infini dénombrable.
✧ Définition 2.— Dans le cas d’un ensemble fondamental fini ou infini dé-
nombrable, la taille de l’ensemble est appelé cardinalité et est représenter par
l’opérateur card(Ω).
M. Daoui 15 M. El Hafidi
➤ Exemple 2 : On admet que le nombre de gouttes d’eau qui tombent pen-
dant une durée d’une heure sur une surface donnée est le résultat d’une expérience
aléatoire théorique. L’ensemble fondamental est alors : Ω = {1, 2, 3, ..., n}.
La cardinalité de cet univers est égale à : card(Ω) = n. Si n ∈ N, cet univers est fini.
Si, au contraire n = ∞ et Ω = N, cet univers est infini, mais dénombrable.
M. Daoui 16 M. El Hafidi
✧ Définition 3.— Soient deux événements A et B. La réalisation de l’évé-
nement C, défini par C = A ∪ B (lire A union B) implique la réalisation de
l’événement A ou de l’événement B, ou des deux événements A et B simultané-
ment.
Notation Interprétation
A=1∪2 On obtient 1 ou 2
B =1∩2=∅ On obtient 1 et 2 : événement impossible
C =1∪2∪3 On obtient 1, 2 ou 3
D = 1 ∩ (2 ∪ 3) = ∅ On obtient 1 et 2, ou 1 et 3 : événement impossible
Ω = {1, 2, 3, 4, 5, 6} On obtient 1, 2, 3, 4, 5 ou 6 : événement certain
M. Daoui 17 M. El Hafidi
✧ Définition 6.— Deux événements A et Ā, appartenant à un ensemble B,
sont complémentaires si leur union correspond à B, c.à.d. n’ont pas d’élément
en commun, c.à.d. A ∪ Ā = B.
M. Daoui 18 M. El Hafidi
2.1.4 Ensemble d’événements
À partir d’événements combinés ou d’événements élémentaires (singletons), il
est possible de définir des ensembles d’événements ou parties d’événements.
M. Daoui 19 M. El Hafidi
F.
∀A ∈ F alors Ā ∈ F
(iii) L’ensemble F est stable par réunion dénombrable : pour toute suite d’évé-
nements (An )n∈N appartenant à F, l’union de ces événements appartient à
l’ensemble F.
[
(An )n∈N ∈ F alors An ∈ F
n∈N
Par convention, on note les tribus par des lettres avec une police de caractère dite
calligraphique, comme par exemple A, B, F, etc.
➤ Exemple : Soit un univers Ω = {1, 2, 3}, alors l’ensemble A = {∅, {1}, {2, 3}, Ω}
est une tribu sur Ω. En effet, cet ensemble appartient à l’ensemble des parties P(Ω).
De plus, il comprend l’ensemble vide ∅ et l’événement certain (univers) Ω. Cet en-
semble est stable par passage au complémentaire. Par exemple, si l’on pose B = {1},
alors B̄ = {∅, {2, 3}, Ω} ∈ A. On obtient un résultat similaire pour toute union des
sous-ensembles de A. Enfin, si l’on considère par exemple l’union des événements
{1} et {2, 3}, on obtient un événement C = {1} ∪ {2, 3} = Ω ∈ A. On obtient un
résultat similaire pour toute union des sous-ensembles de A.
Puisque l’univers Ω est fini, l’ensemble des parties P(Ω)est une tribu sur Ω et le
couplet (Ω, P(Ω)) est un espace probabilisable.
M. Daoui 20 M. El Hafidi
2.2 Probabilités
Le couplet (Ω, P(Ω)) est un univers probabilisables, on peut donc lui associer une
probabilité P : P(Ω) → [0, 1], telle que pour tout événement A ∈ P(Ω) il existe une
probabilité P (A) ∈ [0, 1]. Puisque le dé est parfaitement équilibré, les événements
élémentaires {1}, {2}, {3} sont équiprobables et leur probabilité est égale à 31 . On en
déduit les probabilités pour tous les événements de P(Ω) (le tableau 2.3 synthétise
ces 23 = 8 probabilités pour tous les événements de P(Ω)).
M. Daoui 21 M. El Hafidi
La probabilité associée à l’union de n’importe quels événements disjoints de la
tribu P est égale à la somme des probabilités des événements. Par exemple :
1 1 2
P ({1} ∪ {2}) = P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) = + =
3 3 3
2 1
P ({1 ∪ 2} ∪ {3}) = P (A4 ∪ A3 ) = P (A4 ) + P (A3 ) = + =1
3 3
✧ Définition.— Soit (Ω, F) un espace probabilisable fini tel que Ω = {ω1 , ω2 , ..., ωn }
et soit P(Ω) l’ensemble des parties, avec F ⊂ P(Ω). Une probabilité est une ap-
plication P : F → [0, 1], telle que :
(i) La somme des probabilités associées aux événement élémentaires ωi est égale
à1: n
X
P (ωi ) = 1
i=1
X
P (A) = P (ωi )
ωi ∈A
1 1 1
P ({1}) + P ({2}) + P ({3}) = + + =1
3 3 3
Par ailleurs, la probabilité de tout événement A ∈ P(Ω) est égale à la somme des
probabilités associées aux événements élémentaires qui le constituent. Par exemple,
M. Daoui 22 M. El Hafidi
pour l’événement A = {1 ∪ 3}, on a :
1 1 2
P ({1 ∪ 3}) = P ({1}) + P ({3}) = + =
3 3 3
P (∅) = 0
P (Ā) = 1 − P (A)
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
2.2.4 Équiprobabilité
Si Ω est fini, Ω = {ω1 , ..., ωn }, à chacun des événements élémentaires ωi on a :
n
P ({ωi }) = pi , avec 1 ≤ i ≤ n, tel que : 0 ≤ pi ≤ 1 et
P
pi = 1. Si tous les événements
i=1
élémentaires ont la même probabilité, ce qui correspond à la loi uniforme discrète
définie par :
1
pi = avec 1 ≤ i ≤ n
n
M. Daoui 23 M. El Hafidi
La probabilité d’un événement quelconque A de P(Ω) est définie comme la somme
des probabilités des tous les événements élémentaires qui sont inclus.
P (A ∩ B)
P (A/B) =
P (B)
M. Daoui 24 M. El Hafidi
sont équiprobables. En désignant par l’événement A= « les deux jets amènent face »,
c.à.d. A = {(F, F )} et par l’événement B=« le premier jet donne face », c.à.d.
B = {(F, F ); (F, P )}. Cette probabilité conditionnelle est donnée par :
P (A ∩ B) P (F, F )
P (A/B) = =
P (B) P ((F, F ); (F, P ))
1/ 1
= 24 =
/4 2
P (A1 ∩ ... ∩ An ) = P (A1 )×P (A2 /A1 )×P (A3 /A1 ∩ A2 )×...×P (An /A1 ∩ ... ∩ An−1 )
Cette formule des probabilités composées est particulièrement utile pour le calculer
des probabilités d’intersections.
M. Daoui 25 M. El Hafidi
On aboutit ainsi à la formule de la probabilité totale :
n
X n
X
P (B) = P (Ai ∩ B) = P (Ai ) P (B/Ai )
i=1 i=1
➤ Exemple : Une pièce est produite dans quatre usines, noté Ui pour i = 1, ..., 4,.
On note pi = P (Ui ) la probabilité que la pièce provienne de l’usine Ui , avec p1 = 0, 2,
p2 = 0, 3, p3 = 0, 4 et p4 = 0, 1. Pour chacune de ces usines, la probabilité que que la
pièce soit défectueuse est notée di , avec d1 = 0, 05, d2 = 0, 01, d3 = 0, 01 et d4 = 0, 02.
Ces probabilités doivent être comprises comme des probabilités conditionnelles de
défaut sachant que la pièce est produite dans l’usine i et peuvent se noter sous la
forme di = P (D/Ui ) où D représente l’événement « défauts ». Le système complet
peut être représenté sous la forme d’un arbre des « défauts » comme sur la figure
(2.1) .
M. Daoui 26 M. El Hafidi
D’après le théorème de Bayes, on a :
4
X
P (D) = P (D/Uj ) × P (Uj )
j=1
P (D/U1 ) × P (U1 ) d1 × p1 0, 05 × 0, 2
P (U1 /D) = = = = 0, 5263
P (D) P (D) 0, 019
P (D/U2 ) × P (U2 ) d2 × p2 0, 01 × 0, 3
P (U2 /D) = = = = 0, 1579
P (D) P (D) 0, 019
P (D/U3 ) × P (U3 ) d3 × p3 0, 01 × 0, 4
P (U3 /D) = = = = 0, 2105
P (D) P (D) 0, 019
P (D/U4 ) × P (U4 ) d4 × p4 0, 02 × 0, 1
P (U4 /D) = = = = 0, 1053
P (D) P (D) 0, 019
En conclusion, une pièce défectueuse prise au hasard a la plus forte chance de pro-
venir de l’usine 1.
M. Daoui 27 M. El Hafidi
2.4 Indépendance en probabilité
card(A) 6 1
P (A) = = 2 =
card(Ω) 6 6
card(B) 6 1
P (B) = = 2 =
card(Ω) 6 6
card(A ∩ B) 1 1
P (A ∩ B) = = 2 = 2 = P (A) × P (B)
card(Ω) 6 6
Les événements A et B sont donc bien indépendants.
P (A ∩ B) P (A) × P (B)
P (A/B) = = = P (A)
P (B) P (B)
M. Daoui 28 M. El Hafidi
Chapitre 3
Variables aléatoires
Chaque résultat d’une expérience aléatoire peut être codé au moyen d’une ap-
plication qui, si elle permet d’associer une probabilité à chacune de ses valeurs
numériques discrètes, sera appelée variable aléatoire discrète. De même, on peut as-
socier aux résultats d’une expérience aléatoire un ensemble de valeurs qui forment
un (ou plusieurs) intervalle(s) réel(s). Si on peut calculer la probabilité de tous les
intervalles qui sont inclus dans cet ensemble, l’application qui réalise ce codage se
nomme variable aléatoire (v.a.) continue.
La loi de la variable aléatoire discrète est alors déterminée par les probabilités de
toutes ses valeurs possibles. Elle est souvent caractérisée par les deux premiers mo-
ments qui sont l’espérance, caractéristique de valeur centrale, et la variance, carac-
téristique de dispersion autour de cette valeur centrale.
La loi de probabilité d’une variable aléatoire continue est généralement définie par
une densité qui sera la dérivée de la fonction de répartition. Le calcul des moments
s’effectue à l’aide de cette densité par une intégration.
On considère une expérience aléatoire et l’on désigne par Ω l’ensemble des résul-
tats possibles.
29
✧ Définition.— Une variable aléatoire est une application, notée X, qui
pour chaque événement de l’ensemble fondamental Ω associe une valeur apparte-
nant à un univers X(Ω) qui correspond à l’univers des réalisations, c.à.d l’univers
des valeurs prises par la variable aléatoire X. Plus généralement, l’application X
associe à tout événement de la tribu F sur Ω, une valeur appartenant à la tribu
E sur X(Ω).
−1
∀x ∈ (F) X (x) ∈ E
Ainsi,la variable aléatoire X est une sorte de fonction qui « transforme » les résultats
d’une expérience aléatoire définis sur Ω en des réalisations définies sur X(Ω).
Suivant que l’univers des réalisation X(Ω) est dénombrable (fini ou infini) ou non
dénombrable (infini), on peut distinguer deux types de variables aléatoires : les va-
riables aléatoires discrètes et les variables aléatoires continues.
M. Daoui 30 M. El Hafidi
✧ Définition.— Soient (Ω, F, P ) un univers probabilisé fini ou infini dénom-
brable. On appelle variable aléatoire discrète X toute application X : Ω →
X(Ω) telle que ∀xi ∈ X(Ω) :
P (X = xi ) = P ({ω ∈ Ω ; X(ω) = xi })
X
P (X = xi ) = 1
xi ∈X(Ω)
n
X
lim P (X = xi ) = 1
n→∞
i=1
M. Daoui 31 M. El Hafidi
Valeurs possibles xi de X x1 ... xi ... Total
Probabilités correspondantes (pi ) p1 ... pi ... 1
xi 1 2 3 4 5 6 Tatal
pi 1/6 1/6 1/6 1/6 1/6 1/6 1
FX (x) = P (X < x) ; ∀x ∈ R
X
FX (x) = P (X < x) = P (X = xi ) ; ∀x ∈ R
xi ∈X(Ω), xi <x
Dans le cas d’une variable aléatoire discrète, la fonction de répartition est une fonc-
tion croissante des valeurs de x qui se présente en forme de fonction en escalier.
M. Daoui 32 M. El Hafidi
La fonction de répartition permet de calculer la probabilité que la variable aléatoire
que la variable aléatoire X appartienne à un intervalle [a, b[ où (a, b) ∈ R2 avec
b>a:
P (a ≤ X < b) = P (X < b) − P (X < a) = FX (b) − FX (a)
n
X n
X
E(X) = xi P (X = xi ) = xi p i
i=1 i=1
Réalisation de Y Probabilité
Y =0 P (Y = 0) = 0, 1
Y =2 P (Y = 2) = 0, 2
Y =4 P (Y = 4) = 0, 3
Y =6 P (Y = 6) = 0, 4
4
X
E (Y ) = yi P (Y = yi ) = 0 × 0, 1 + 2 × 0, 3 + 4 × 0, 4 + 6 × 0, 2 = 3, 4
i=1
Cela signifie qu’en « moyenne » les réalisations obtenues pour plusieurs tirages dans
la loi de probabilité de cette variables seront égales à 3, 4.
✦ Propriété 1 : Soit X une variable aléatoire discrète définie sur X(Ω) = {x1 , ..., xn }
n
|g (xi )|P (X = xi ) < ∞. L’espérance de la
P
fini et soit g(.) une fonction telle que
i=1
M. Daoui 33 M. El Hafidi
variable aléatoire g(X) est alors définie par :
n
X
E(g(X)) = g (xi )P (X = xi )
i=1
✦ Propriété 3 : Soit X une variable aléatoire et soit g(.) une fonction non-linéaire,
alors :
E(g(x)) ̸= g(E(X))
2 – Variance et écart-type :
✧ Définition 1.— Soit X une variable aléatoire (discrète ou continue) telle que
E(X 2 ) existe. La variance de X, notée V(X) ou V (X), est défini par :
V (X) = E (X − E (X))2
M. Daoui 34 M. El Hafidi
✧ Définition 2.— Soit X une variable aléatoire discrète définie sur X(Ω) =
{x1 , ..., xn }. Si E(X 2 ) existe, sa variance est :
n
xi − E(X)2 × P (X = xi )
X
E(X) =
i=1
avec pi = P (X = xi ).
2
L’écart-type, noté σX , correspond à la racine carrée de la variance, c.à.d. σX =
V(X). .
On obtient alors :
V(Y ) = (0 − 3, 4)2 ×0, 1+(2 − 3, 4)2 ×0, 3+(4 − 3, 4)2 ×0, 4+(6 − 3, 4)2 ×0, 2 = 3, 24
M. Daoui 35 M. El Hafidi
✧ Définition.— Soit (Ω, F, P ) un univers probabilisé non dénombrable. On
appelle variable aléatoire réelle (continue) toute application Ω → X (Ω) ⊆ R
telle que pour tout intervalle I ⊆ X (Ω) : a
a. La fonction de densité est notée avec une lettre minuscule avec en indice le nom de la
variable aléatoire (notée en majuscule).
b. On dit qu’une fonction intégrable si cette fonction peut être intégrée et que son intégrale
est égale à une quantité finie.
M. Daoui 36 M. El Hafidi
Figure 3.1 – Illustration de la définition de la fonction de densité
P (X = x) = 0 ∀x ∈ R
1
fY (y) = ∀y ∈ [0, 20]
20
Déterminons la probabilité d’obtenir une note comprise entre 8 et 13, ainsi que la
probabilité d’obtenir une note supérieure à 15. Par définition, il vaut :
13
Z 13 Z 13
1 x 13 8 1
P (8 ≤ Y ≤ 13) = fX (x) dx = dx = = − =
8 8 20 20 8 20 20 4
M. Daoui 37 M. El Hafidi
Si la note a été attribué au hasard, on vérifie qu’il a 1 chance sur 4 d’obtenir une
note comprise entre 8 et 13. De la même façon :
20
Z 20 Z 20
1 x 20 15 1
P (P ≥ 15) = fX (x)dx = dx = = − =
15 15 20 20 15 20 20 4
M. Daoui 38 M. El Hafidi
3.3.3 Espérance et variance d’une variable aléatoire conti-
nue
✧ Définition 1.— Soit X une variable aléatoire réelle définie sur X(Ω) ⊆ R
et caractérisé par une fonction de densité fX (x). Le moment ordinaire (non
centré) d’ordre k ∈ N de la loi de probabilité de X est définie par :
Z +∞
mk = E X k = xk fX (x)dx
−∞
✧ Définition 2.— Soit X une variable aléatoire réelle continue, son espérance
et sa variance sont définies par :
Z +∞
E(X) = x fX (x)dx
−∞
Z +∞
V(X) = µk = E (X − E (X))k = (x − E (X))2 fX (x)dx
−∞
1. Le symbole × correspond au produit cartésien. Cela signifie que l’univers des réalisations
X(Ω) × Y (Ω) (prononcer X(Ω) croix Y (Ω)) correspond à l’ensemble de tous les couples de réali-
sations (x, y) où x ∈ X(Ω) et Y ∈ Y (Ω).
M. Daoui 39 M. El Hafidi
crètes (X, Y ). Puisque les réalisations forment un système complet :
X
P ((X = xi ) ∩ (Y = yi )) = 1
(xi ,yi )∈X(Ω)×Y (Ω)
P ((X = xi ) ∩ (Y = yi )) = P (xi , yi ) = P (X = xi ) ∩ P (Y = yi )
X
P (X = xi ) = P ((X = xi ) ∩ (Y = yi ))
yi ∈Y (Ω)
X
P (Y = yi ) = P ((X = xi ) ∩ (Y = yi ))
xi ∈X(Ω)
X X X
P ((X = xi )) = P ((X = xi ) ∩ (Y = yi )) = 1
xi ∈X(Ω) xi ∈X(Ω) yi ∈Y (Ω)
De la même façon :
X X X
P ((X = yi )) = P ((X = xi ) ∩ (Y = yi )) = 1
yi ∈X(Ω) yi ∈X(Ω) xi ∈Y (Ω)
P (X = a) = 0, 2 P (X = b) = 0, 8
M. Daoui 40 M. El Hafidi
P (Y = 1) = 0, 7 P (Y = 2) = 0, 3
On admet que la loi de probabilité jointe du couple (X, Y ), définie sur X(Ω) × Y (Ω) =
{{a, 1}, {a, 2}, {b, 1}, {b, 2}}, est définie par :
X X
Cov(X, Y ) = xi yi P ((X = xi ) ∩ (Y = yi )) − E (X) × E (Y )
xi ∈X(Ω) yi ∈Y (Ω)
M. Daoui 41 M. El Hafidi
rement vraie.
La covariance est une mesure symétrique Cov(X, Y ) = Cov(Y, X). Par définition,
Cov(X, X) = E((X − E(X))2 ) = V(X).
P (X = 10) = 0, 2 P (Y = 1) = 0, 7
On admet que la loi de probabilité jointe du couple (X, Y ), définie sur X(Ω) × Y (Ω) =
{{10, 1}, {10, 2}, {20, 1}, {20, 2}}, est définie par :
On montre que :
E(Y ) = 1 × P (Y = 1) + 2 × P (Y = 2) = 1, 3
4 X
X 4
Cov(X, Y ) = xi yi P ((X = xi ) ∩ (Y = yi )) − E (X) × E (Y )
i=1 i=1
On vérifie que cette covariance est nulle puisque les variables X et Y sont indépen-
dantes.
Cov(X, Y ) = 0, 14 × 10 + 0, 06 × 20 + 0, 56 × 20 + 0, 24 × 40 − 1, 3 = 0
M. Daoui 42 M. El Hafidi
3.4.3 Loi conditionnelle
P ((X = xi ) ∩ (Y = yi ))
P (X = xi /Y = yi ) = ∀xi ∈ X (Ω)
P (Y = yi )
a. Le terme P (X = xi /Y = yi ) se lit « probabilité que la variable X prenne la valeur xi
sachant que la variable Y est égale à yi ».
P ((X = xi ) ∩ (Y = yi ))
P (Y = yi /X = xi ) = ∀yi ∈ Y (Ω)
P (X = xi )
P ((X = xi ) ∩ (Y = yi )) = P (X = xi ) × P (Y = yi )
P (X = xi /Y = yi ) = P (X = xi )
P (Y = yi /X = xi ) = P (Y = yi )
P (X = a) = 0, 2 P (Y = 1) = 0, 7
La loi conditionnelle de X sachant que Y = 1 est définie par les probabilités sui-
vantes :
P ((X = a) ∩ (Y = 1)) 0, 14
P (X = a/Y = 1) = = = 0, 2
P (Y = 1) 0, 7
M. Daoui 43 M. El Hafidi
P ((X = b) ∩ (Y = 1)) 0, 56
P (X = b/Y = 1) = = = 0, 8
P (Y = 1) 0, 7
On vérifie que P (X = a/Y = 1) = P (X = a) et que P (X = b/Y = 1) = P (X = b).
Les probabilités conditionnelles sont égales aux probabilités marginales. C’est la
conséquence de l’hypothèse d’indépendance des variables X et Y .
✧ Définition 2.— Pour un univers des réalisations fini X(Ω) = {x1 , ..., xn },
l’espérance conditionnelle et la variance conditionnelle de la variable X
sachant que Y = yi sont définies par :
n
X
E (X/Y = yi ) = xi P (X = xi /Y = yi )
i=1
n
(xi − E (X))2 P (X = xi /Y = yi )
X
V (X/Y = yi ) =
i=1
Toutes ces définitions peuvent être généralisées au cas d’un vecteur de variables
aléatoires discrètes.
M. Daoui 44 M. El Hafidi
Chapitre 4
✧ Définition 1.— La loi uniforme discrète est une loi de probabilité définie
sur un support fini X(Ω) = {k1 , ..., kn }, pour laquelle toutes les réalisations sont
équiprobables. On dit que la loi de probabilité de X est uniforme si :
1
P (X = k) = ∀k ∈ X(Ω)
n
➤ Exemple : On considère une variable aléatoire X distribuée selon une loi uni-
1
forme discrète sur X(Ω) = {1, ..., 10}, alors P (X = k) = 10
∀k ∈ X(Ω). Toutes
les réalisations ont la même probabilité.
✧ Définition 2.— Si la variable aléatoire X admet une loi uniforme discrète sur
X (Ω) = [a, a + 1, ..., b − 1, b], sa fonction de répartition FX (x) = P (X ≤ x)
45
est définie,∀x ∈ R, par :
0 si : x < a
FX (x) = x−a+1
b−a+1
si a ≤ x ≤ b
1
si : x > b
Rappelons qu’une fonction de répartition est toujours définie sur R, y compris dans
le cas d’une variable aléatoire discrète.
✦ Propriété : Si X admet une loi uniforme discrète sur X(Ω) = {a, a + 1, ..., b − 1, b},
alors son espérance et sa variance sont égales à :
a+b (b − a + 1)2 − 1
E (X) = V (X) =
2 12
➤ Exemple : La loi de Bernoulli peut être appliquée sur des supports du type
X(Ω) = {“succès“, “échec“}, X(Ω) = {10, 35}.
1. Toutefois, il est toujours possible d’exprimer une variable dichotomique qualitative sous la
forme d’une variable quantitative en utilisant un codage (a, b) ∈ R2 .
M. Daoui 46 M. El Hafidi
✧ Définition 2.— Si la variable aléatoire discrète X suit une loi de Bernoulli,
de paramètre p ∈]0, 1[, sa fonction de répartition est définie, ∀x ∈ R,par :
0 si : x < 0
FX (x) = 1 − p si 0 ≤ x < 1
1 si : x ≥ 1
E (X) = p V (X) = p (1 − p)
✧ Définition 1.— La variable aléatoire discrète X définie sur X(Ω) = {0, 1, ..., n}
suit une loi binomiale B(n, p) si : a
avec p ∈]0, 1[ et n ∈ N∗ .
a. La loi binomiale dépend du nombre de combinaisons de x éléments parmi n. Rappelons
n!
que ce nombre de combinaisons est donné par : Cnx = x!(n−x)! .
➤ Exemple : Soit X une variable aléatoire discrète définie sur X(Ω) = {0, 1, 2, 3, 4}
et telle que X ∼ B(4, 1/5). On obtient alors :
4!
P (X = 0) = C40 p0 (1 − p)4−0 = × 0, 20 × (1 − 0, 2)4−0 = 0, 84 = 0, 4096
0! × 4!
M. Daoui 47 M. El Hafidi
4!
P (X = 1) = C41 p1 (1 − p)4−1 = ×0, 21 ×(1 − 0, 2)4−1 = 4×0, 2×0, 512 = 0, 4096
1! × 3!
4!
P (X = 2) = C42 p2 (1 − p)4−2 = ×0, 22 ×(1 − 0, 2)4−2 = 6×0, 04×0, 64 = 0, 1536
2! × 2!
✧ Définition 2.— Si la variable aléatoire X suit une loi binomiale B(n, p), sa
fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R, par :
FX (x) = 0 si x < 0
⌊x⌋
Cnk pk (1 − p)n−k si 0 ≤ x ≤ n
P
FX (x) =
k=0
FX (x) = 1 si x > n
➤ Exemple : Soit X une variable aléatoire discrète définie sur X(Ω) = {0, 1, 2, 3, 4}
telle que X ∼ B(4; 1/5), alors :
⌊1⌋
X
FX (1) = P (X = k) =P (X = 0) + P (X = 1) = 0, 8192
k=0
⌊1,58⌋ 1
X X
FX (1, 58) = P (X = k) = P (X = k) =FX (1) = 0, 8192
k=0 k=0
M. Daoui 48 M. El Hafidi
✦ Propriété 1 : Si X admet une loi de Binomial B(n, p), alors l’espérance et
la variance d’une loi binomiale B(n, p) sont égales à l’espérance et la variance d’une
loi de Bernoulli multipliées par n :
E (X) = np V (X) = np (1 − p)
X + Y ∼ B (n + m, p)
Propriété 4 : Soit X une variable aléatoire telle que X ∼ B (n, p). Si n > 5 et si :
s s !
1 1−p p
√ − < 0, 3
n p 1−p
alors l’approximation de la loi binomiale par la loi normale peut être appliquée :
X ≈ N (np, : np (1 − p))
M. Daoui 49 M. El Hafidi
supérieur ou égale à 1 et inférieur ou égale à n, donc X ∈ X(Ω) = {1, 2, ..., n, ...}.
La variable X admet une distribution géométrique de paramètre p notée X ∼ G (p).
Lorsqu’elle est définie sur N , la loi géométrique correspond à la distribution du
nombre d’échecs peut être égale à 0 en cas de réussite à la première expérience de
Bernoulli. La variable Y ∈ Y (Ω) = {0, 1, ..., n, ...} est distribuée selon une loi
géométrique de paramètre p, notée de la même façon Y ∼ G (p).
P (X = k) = (1 − p)k p ∀x ∈ N
P (X = k) = (1 − p)k p ∀x ∈ N∗
On remarque que la loi géométrique peut être définie pour une probabilité de succès
p égale à 1, mais pas pour une probabilité nulle.
✧ Définition 2.— Si la variable aléatoire X suit une loi géométrique G(p) sur
X(Ω) = N, sa fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R,
par :
0 si x < 0
FX (x) = ⌊x⌋+1
1 − (1 − p) si ≥ 0
M. Daoui 50 M. El Hafidi
où ⌊x⌋ désigne le plus grand entier inférieur ou égale à x.
➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle
que X ∼ G(0, 1), alors :
P (X ≤ 1) = FX (1) = 1 − (1 − 0, 1)⌊1⌋+1 = 1 − 0, 92 = 0, 19
P (X ≤ 1, 2) = FX (1, 2) = 1 − (1 − 0, 1)⌊1,2⌋+1 = 1 − 0, 92 = 0, 19
✦ Propriété : Si X admet une loi de Binomial G(p) définie sur X(Ω) = N, alors :
1−p 1−p
E (X) = V (X) =
p p2
1 1−p
E (X) = V (X) =
p p2
λx
P (X = x) = e−λ ∀x ∈ N
x!
M. Daoui 51 M. El Hafidi
➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle que
X ∼ P (0, 2), alors :
0, 20
P (X = 0) = e−0,2 = e−0,2 = 0, 8187
0!
0, 21
P (X = 1) = e−0,2 = e−0,2 × 0, 2 = 0, 1637
1!
0, 22 0, 4
P (X = 2) = e−0,2 = e−0,2 × = 0, 0164
2! 2
✧ Définition 2.— Si la variable aléatoire X admet une loi P(λ) sur X(Ω) =
N, sa fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R, par
FX (x) = 0, si x < 0 et :
⌊x⌋ ⌊x⌋ i
−λ λ
X X
FX (1) = P (X = i) = e ∀x ≥ 0
i=0 i=0 i!
➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle que
X ∼ P(0, 2). Calculons les probabilités P (X ≤ 1) et P (X ≤ 1, 27).
⌊1⌋ 1
X X
FX (1) = P (X ≤ 1) P (X = i) = P (X = i)
i=0 i=0
= P (X = 0) + P (X = 1) = 0, 9824
⌊1,27⌋ 1
X X
FX (1, 27) = P (X ≤ 1, 27) P (X = i) = P (X = i)
i=0 i=0
= P (X = 0) + P (X = 1) = FX (1) = 0, 9824
De la même façon que pour la loi binomiale, le calcul des probabilités cumu-
lées FX (x) dans le cas de la loi de Poisson peut s’avérer fastidieux lorsque x est
élevé. On utilise alors les tables statistiques de la loi de Poisson. Les tables statis-
tiques figurent dans l’annexe .4 de ce cours pour différentes valeurs du paramètre
λ comprise entre 0, 1 et 10. Pour chaque λ sont affichées les probabilités cumulées
P (X ≤ x) obtenues pour différentes valeurs de x allant de 0 à 7 ou de 0 à 30 suivant
M. Daoui 52 M. El Hafidi
les cas.
E (X) = λ V (X) = λ
n n
Xi ∼ P (λ)
X X
avec λ = λi
i=1 i=1
1
fX (x) = ∀x ∈ X (Ω)
b−a
➤ Exemple : Considérons une variable aléatoire X distribuée selon une loi uni-
M. Daoui 53 M. El Hafidi
1
forme continue sur X(Ω) = [0, 20], sa fonction de densité est définie par fX (x) = 20
,
∀x ∈ [0, 20] et fX (x) = 0 si ∀x ∈
/ [0, 20].
✦ Propriété : Si X admet une loi uniforme continue sur X(Ω) = [a, b], alors
l’espérance et la variance de X sont égales à :
a+b (b − a)2
E (X) = V (X) =
2 12
M. Daoui 54 M. El Hafidi
est définie par :
0 si x ≥ 0
FX (x) =
1 − e−θx si x ≥ 0
1 1
E (X) = V (X) =
θ θ2
✧ Définition 1.— La variable aléatoire réelle X suit une loi normale d’espé-
rance µ et de variance σ 2 , notée N (µ, σ 2 ), si sa fonction de densité est définie sur
X(Ω) = R par :
1 1 x−µ 2
fX (x) = √ e− 2 ( σ ) ∀x ∈ R
σ 2π
avec µ ∈ R et σ ∈ R+
∗.
Le symbole π renvoi au nombre π égal à approximativement 3, 1415.
La loi normale est parfois notée sous la forme X ∼ N (µ, σ) où σ désigne l’écart-
type de la distribution de X.
✦ Propriétés : Si la variable aléatoires réelle X suit une loi normale N (µ, σ 2 ) alors
sa fonction de densité vérifie les propriétés suivantes :
(i) lim fX (x) = lim fX (x) = 0.
x→+∞ x→−∞
(ii) fX (µ + x) = fX (µ − x) , ∀x ∈ R.
(iii) fX (x) atteint son maximum en x = µ.
La propriété (ii) signifie que l fonction de densité de la loi normale est symétrique
par rapport à son espérance µ.
M. Daoui 55 M. El Hafidi
Parmi les lois normales générales, on distingue la loi normale centrée réduite ou
loi normale standard, d’espérance nulle et de variance égale à 1. On admet que :
X −µ
X ∼ N (µ, σ 2 ) ⇔ ∼ N (0, 1)
σ
✧ Définition 2.— La variable réelle X suit une loi normale centrée réduite
N (0, 1) si sa fonction de densité est définie par :
1 x2
ϕ(x) = √ e− 2 ∀x ∈ R
2π
X −µ c−µ c−µ
FX (c) = P (X ≤ c) = P ≤ =ϕ
σ σ σ
➤ Exemple : Soit X une variable aléatoire réelle telle que X ∼ N (0, 6; 4). Calculons
la probabilité cumulée P (X ≥ −0, 5).
!
X − 0, 6 −0, 5 − 0, 6
FX (−0, 5) = P (X ≤ −0, 5) = P √ ≤ √ = ϕ (−0, 55)
4 4
Comment calculer une probabilité cumulée pour une loi normale centrée réduite
à partir de la table statistique ? La table statistique de la loi normale centrée et
réduite (Annexe .5) permet de déterminer la probabilité cumulée ϕ (z) pour un
certain nombre de valeurs réelles z. La valeur de z est reconstruite par addition
M. Daoui 56 M. El Hafidi
des valeurs reportées en lignes (allant de 0 à 0, 09 par pas de 0, 01) et des valeurs
reportées en colonne (allant de 0 à 2, 9 par pas de 0, 1). Par exemple, si l’on souhaite
calculer la probabilité cumulée ϕ (1, 67) on décompose la valeur 1, 67 en une somme
1, 6 + 0, 07. En considérant la ligne correspondant à la la valeur 1, 6 et la colonne
correspondant à la valeur 0, 07, on trouve à l’intersection la valeur de la probabilité
cumulée ϕ (1, 67) = 0, 952540.
ϕ(0) = 0, 5
ϕ(−x) = 1 − ϕ(x) ∀x ∈ R
a + bX ∼ N (a + bµ, b2 σ 2 )
M. Daoui 57 M. El Hafidi
Ainsi, la transformée linéaire d’une variable normalement distribuée suit une loi
normale. Puisque l’espérance est un opérateur linéaire et la variance est un opérateur
quadratique, les moments de cette loi sont définies par :
n
Xi2 ∼ N µ, σ 2
X
i=1
n n
µi et σ 2 = σi2
P P
avec µ =
i=1 i=1
M. Daoui 58 M. El Hafidi
Annexe 1 : Table statistique de la loi binomiale
P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)
M. Daoui 59 M. El Hafidi
Annexe 2 : Table statistique de la loi binomiale (suite)
P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)
M. Daoui 60 M. El Hafidi
Annexe 3 : Table statistique de la loi binomiale (suite)
P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)
M. Daoui 61 M. El Hafidi
Annexe 4 : Table statistique de la loi de Poisson
µk
P( X = k ) = e − µ
k!
M. Daoui 62 M. El Hafidi
Annexe 5 : Table statistique de la loi normale centrée réduite
Probabilité qu'une variable aléatoire continue suivant une loi normale standard (ou centrée réduite) soit inférieure au seuil z.
1 −z2 2
p( z) = e
2π
-∞ 0 z +∞
1
z
N(z) N ( z ) = ∫ p( z )dz
−∞
0
-∞ 0 z +∞
La table ci-dessous présente les valeurs pour z positif. Pour z négatif la valeur est N(z) = 1-N(-z)
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,500000 0,503989 0,507978 0,511966 0,515953 0,519939 0,523922 0,527903 0,531881 0,535856
0,1 0,539828 0,543795 0,547758 0,551717 0,555670 0,559618 0,563559 0,567495 0,571424 0,575345
0,2 0,579260 0,583166 0,587064 0,590954 0,594835 0,598706 0,602568 0,606420 0,610261 0,614092
0,3 0,617911 0,621720 0,625516 0,629300 0,633072 0,636831 0,640576 0,644309 0,648027 0,651732
0,4 0,655422 0,659097 0,662757 0,666402 0,670031 0,673645 0,677242 0,680822 0,684386 0,687933
0,5 0,691462 0,694974 0,698468 0,701944 0,705401 0,708840 0,712260 0,715661 0,719043 0,722405
0,6 0,725747 0,729069 0,732371 0,735653 0,738914 0,742154 0,745373 0,748571 0,751748 0,754903
0,7 0,758036 0,761148 0,764238 0,767305 0,770350 0,773373 0,776373 0,779350 0,782305 0,785236
0,8 0,788145 0,791030 0,793892 0,796731 0,799546 0,802337 0,805105 0,807850 0,810570 0,813267
0,9 0,815940 0,818589 0,821214 0,823814 0,826391 0,828944 0,831472 0,833977 0,836457 0,838913
1,0 0,841345 0,843752 0,846136 0,848495 0,850830 0,853141 0,855428 0,857690 0,859929 0,862143
1,1 0,864334 0,866500 0,868643 0,870762 0,872857 0,874928 0,876976 0,879000 0,881000 0,882977
1,2 0,884930 0,886861 0,888768 0,890651 0,892512 0,894350 0,896165 0,897958 0,899727 0,901475
1,3 0,903200 0,904902 0,906582 0,908241 0,909877 0,911492 0,913085 0,914657 0,916207 0,917736
1,4 0,919243 0,920730 0,922196 0,923641 0,925066 0,926471 0,927855 0,929219 0,930563 0,931888
1,5 0,933193 0,934478 0,935745 0,936992 0,938220 0,939429 0,940620 0,941792 0,942947 0,944083
1,6 0,945201 0,946301 0,947384 0,948449 0,949497 0,950529 0,951543 0,952540 0,953521 0,954486
1,7 0,955435 0,956367 0,957284 0,958185 0,959070 0,959941 0,960796 0,961636 0,962462 0,963273
1,8 0,964070 0,964852 0,965620 0,966375 0,967116 0,967843 0,968557 0,969258 0,969946 0,970621
1,9 0,971283 0,971933 0,972571 0,973197 0,973810 0,974412 0,975002 0,975581 0,976148 0,976705
2,0 0,977250 0,977784 0,978308 0,978822 0,979325 0,979818 0,980301 0,980774 0,981237 0,981691
2,1 0,982136 0,982571 0,982997 0,983414 0,983823 0,984222 0,984614 0,984997 0,985371 0,985738
2,2 0,986097 0,986447 0,986791 0,987126 0,987455 0,987776 0,988089 0,988396 0,988696 0,988989
2,3 0,989276 0,989556 0,989830 0,990097 0,990358 0,990613 0,990863 0,991106 0,991344 0,991576
2,4 0,991802 0,992024 0,992240 0,992451 0,992656 0,992857 0,993053 0,993244 0,993431 0,993613
2,5 0,993790 0,993963 0,994132 0,994297 0,994457 0,994614 0,994766 0,994915 0,995060 0,995201
2,6 0,995339 0,995473 0,995604 0,995731 0,995855 0,995975 0,996093 0,996207 0,996319 0,996427
2,7 0,996533 0,996636 0,996736 0,996833 0,996928 0,997020 0,997110 0,997197 0,997282 0,997365
2,8 0,997445 0,997523 0,997599 0,997673 0,997744 0,997814 0,997882 0,997948 0,998012 0,998074
2,9 0,998134 0,998193 0,998250 0,998305 0,998359 0,998411 0,998462 0,998511 0,998559 0,998605
M. Daoui 63 M. El Hafidi
Bibliographie
[1] Anderson D., Sweeney D., Camm J., Williams T., Borsenberger C. & Cochran
J. (2015). Statistiques pour l’économie et la gestion. De Boeck.
[2] Cantoni E., Huber P. & Ronchetti E. (2009). Maîtriser l’aléatoire : Exercices
résolus de probabilités et statistique. Springer.
[3] Goldfarb B. & Pardoux C. (2011). Introduction à la méthode statistique - 6e
éd. : Économie, gestion. Dunod.
[4] Lecoutre J. (2015). TD Statistique et probabilités - 6e édition. Dunod.
[5] Lecoutre J. (2016). Statistique et probabilités - 6e éd. : Cours et exercices cor-
rigés. Dunod.
[6] Reischer C., Leblanc R. & Rémillard B. (2002). Théorie des Probabilités : Pro-
blèmes et Solutions. Presses de l’Universite du Quebec.
[7] Ross S. (2007). Initiation aux probabilités. Presses polytechniques et universi-
taires romandes.
64