0% ont trouvé ce document utile (0 vote)
149 vues69 pages

Cours de Probabilités en Sciences Économiques

Transféré par

Guynel Guy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
149 vues69 pages

Cours de Probabilités en Sciences Économiques

Transféré par

Guynel Guy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de probabilités

Marouane Daoui, Mouloud El Hafidi

To cite this version:


Marouane Daoui, Mouloud El Hafidi. Cours de probabilités. Licence. Maroc. 2018. �hal-03917429�

HAL Id: hal-03917429


https://hal.science/hal-03917429
Submitted on 1 Jan 2023

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/365628350

Probability Course (in French)

Book · January 2019

CITATIONS READS

0 2

2 authors, including:

Marouane Daoui

7 PUBLICATIONS 0 CITATIONS

SEE PROFILE

All content following this page was uploaded by Marouane Daoui on 25 December 2022.

The user has requested enhancement of the downloaded file.


Cours de probabilités1

Marouane Daoui Mouloud El Hafidi

Année universitaire : 2018 / 2019

1. Ce document est un support de cours destiné aux étudiants de la filière « sciences


économiques et gestion » (2ème semestre). Il ne prétend certainement pas être exhaustif ni
traiter en détail tous les sujets abordés. L’assistance au cours proprement dit, ainsi qu’aux
travaux dirigés est fortement recommandée.
Table des matières

1 Théorie des ensembles et analyse combinatoire 2


1.1 Théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Notions de base : ensembles et éléments . . . . . . . . . . . . 2
1.1.2 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . 4
1.1.3 Ensembles finis et ensembles dénombrables . . . . . . . . . . . 8
1.1.4 Ensembles produits . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Éléments d’analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Notations factorielle et cardinal . . . . . . . . . . . . . . . . . 9
1.2.2 Permutations d’un ensemble . . . . . . . . . . . . . . . . . . . 10
1.2.3 Arrangements sans répétition . . . . . . . . . . . . . . . . . . 10
1.2.4 Arrangement avec répétition . . . . . . . . . . . . . . . . . . . 11
1.2.5 Combinaisons sans répétition . . . . . . . . . . . . . . . . . . 12
1.2.6 Combinaisons avec répétition . . . . . . . . . . . . . . . . . . 12
1.2.7 Exemple illustratif . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Notion de probabilité 14
2.1 Définitions et concepts de base . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3 Événement d’une expérience aléatoire . . . . . . . . . . . . . . 16
2.1.4 Ensemble d’événements . . . . . . . . . . . . . . . . . . . . . . 19
2.1.5 Tribu d’événements . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.6 Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Définition générale . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Définition axiomatique . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Propriétés de probabilité . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Équiprobabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.1 Définition de la probabilité conditionnelle . . . . . . . . . . . . 24

i
2.3.2 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Indépendance en probabilité . . . . . . . . . . . . . . . . . . . . . . . 28

3 Variables aléatoires 29
3.1 Définition générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.1 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 32
3.2.3 Espérance et variance d’une variable aléatoire discrète . . . . . 33
3.3 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Espérance et variance d’une variable aléatoire continue . . . . 39
3.4 Couple de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 39
3.4.1 Loi jointe et loi marginale . . . . . . . . . . . . . . . . . . . . 39
3.4.2 Covariance d’un couple de variables aléatoires . . . . . . . . . 41
3.4.3 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 43

4 Lois de probabilité usuelles 45


4.1 Lois de probabilité discrètes . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Loi uniforme discrète . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.1.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.4 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.5 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Lois de probabilité continues . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Loi uniforme continue . . . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Annexes 59
Annexe 1 : Table statistique de la loi binomiale . . . . . . . . . . . . 59
Annexe 2 : Table statistique de la loi binomiale (suite) . . . . . . . . 60
Annexe 3 : Table statistique de la loi binomiale (suite) . . . . . . . . 61
Annexe 4 : Table statistique de la loi de Poisson . . . . . . . . . . . . 62
Annexe 5 : Table statistique de la loi normale centrée réduite . . . . . 63

Bibliographie 64

M. Daoui ii M. El Hafidi
Introduction

le terme statistique est apparu vers le milieu du XVIIe siècle ; il vient du la-
tin statisticus, relatif à l’état (status), et est employé alors dans un sens purement
descriptif de recueil ou de collection de faits chiffrés, les statistiques. Cependant, le
mot employé au singulier avec l’article défini, la statistique, évoque la méthode uti-
lisée ensuite pour étendre des résultats et dégager des lois (l’inférence statistique).
Il s’agit donc dans ce sens d’un moyen scientifique d’analyse et de compréhension
du phénomène étudié, s’appliquant très largement à l’économie.

Le calcul des probabilités a commencé avec Blaise Pascal, Pierre Fermat, Christian
Huygens et Jacques Bernoulli par l’analyse des jeux dits de hasard 1 . La théorie des
probabilités servira ensuite d’outil de base à un ensemble de méthodes ou de règles
objectives permettant d’utiliser des données pour fixer la précision avec laquelle on
estime certains paramètres (théorie de l’estimation) ou on teste certaines hypothèses
(théorie des tests) : la Statistique mathématique (ou inférentielle).

Les concepts de probabilité et de variable aléatoire constituent les notion fonda-


mentales de l’analyse statistique. La théorie moderne des probabilité repose sur la
notion d’espace probabilisable et définit la probabilité comme une mesure appliquée
sur une tribu d’événements de cet espace.
La notion de variable aléatoire se comprend alors comme une application mesurable,c’est-
à-dire une sorte de fonction, définie d’un univers probabilisé vers un univers de
réalisations probabilisables. Ainsi toute la théorie moderne des statistiques et ses
applications dans le domaine de l’économie et de la vie courante repose sur ces deux
notions.

1. Le mot hasard est d’ailleurs emprunté à l’arabe az-zahr (jeu de dés, alea en latin) au XIIe
siècle, d’où est venue cette expression jeu de hasard au XVIe siècle.

1
Chapitre 1

Théorie des ensembles et analyse


combinatoire

Les notions élémentaires et les concepts généraux de la théorie des ensembles


sont indispensables pour une introduction moderne à la théorie des probabilités.

L’analyse combinatoire, quant à elle, étudie comment compter les objets. Elle
fournit des méthodes de dénombrements particulièrement utiles en théorie des pro-
babilités.

1.1 Théorie des ensembles

1.1.1 Notions de base : ensembles et éléments

✧ Définition 1.— On appelle ensemble toute liste ou toute collection d’objets


bien définis. Ces objets sont appelés éléments de l’ensemble. On écrit :
p ∈ A si p est un élément de l’ensemble A.

Pour dire qu’un objet a est élément d’un ensemble A, on notera a ∈ A, et a ∈


/ A
dans le cas contraire.

➤ Exemple 1 : Les ensembles peuvent être finis ou bien infinis. Dans le cas fini,
on utilisera la notation avec des accolades : {0, 1, 2, 3, 4, 5, 6} désigne l’ensemble
des entiers naturels inférieurs ou égaux à 6.

2
➤ Exemple 2 : Soient A et B deux ensembles tels que : A = {1, 2, 3, 4} et
B = {1, 2, 4, 5}, alors 3 ∈ A et 3 ∈
/ B.

✧ Définition 2.— Un ensemble A est inclus dans un ensemble E si tout élément


de A appartient aussi à E, c.à.d. si p ∈ A implique p ∈ E, on dit alors que A est
un sous-ensemble (ou une partie) de E, ce qu’on écrit : A ⊂ E.

On dit également que l’ensemble A est inclus dans un ensemble E. On note alors
A ⊂ E, et A ̸⊂ E dans le cas contraire.

➤ Exemple : Soient A et B deux ensembles tels que : A = {1, 3, 5} et B =


{1, 2, 3, 4, 5, 6}, alors A ⊂ B.

✧ Définition 3.— Deux ensembles sont identiques si chacun d’eux est contenu
dans l’autre, et l’on écrit :

A = B si et seulement si A ⊂ B et B ⊂ A

On représente les négations de p ∈ A, A ⊂ B et A = B respectivement par p ∈


/ A,
A ̸⊂ B et A ̸= B.

On utilise également la notation ∅ pour désigner l’ensemble vide c.à.d. l’ensemble


qui ne contient aucun élément. On considère que cet ensemble est un sous-ensemble
de tous les autres ensembles.

On suppose que tous les ensembles considérés sont des sous-ensembles d’un cer-
tain ensemble qu’on appelle ensemble universel et que l’on désigne par U . Ainsi,
pour un ensembles quelconque A, on a ∅ ⊂ A ⊂ U .

➤ Exemple : L’ensemble A = {1, 3, 5, 7, 9} signifie que A est l’ensemble constitué


des nombres 1, 3, 5, 7, et 9.
L’ensemble B = {x/ x est un nombre premier, x < 15} signifie que B est l’ensemble
des nombres premiers inférieurs à 15. Ces deux ensembles A et B peuvent être écrits
sous la forme :

M. Daoui 3 M. El Hafidi
A = {x / x est un nombre impair, x < 10} et B = {2, 3, 5, 7, 11, 13}

Observons que 9 ∈ A mais que 9 ∈


/ B, et que 11 ∈ B, mais que 11 ∈
/ A.

✦ Propriétés : On considère A, B et C trois ensembles quelconques. Alors :


(i) A ⊂ A ;
(ii) Si A ⊂ B et B ⊂ A, alors A = B ;
(iii) Si A ⊂ B et B ⊂ C, alors A ⊂ C.

1.1.2 Opérations sur les ensembles


Considérons A et B deux ensembles quelconques.

1– Réunion :

✧ Définition.— La réunion (ou union) de A et B que l’on désigne par A ∪ B


est l’ensemble des éléments qui appartiennent à A ou à B :

A ∪ B = {x / x ∈ A ou x ∈ B}

Le terme “ou“ est employé ici au sens de “et/ou“.

Attention le ou mathématique est inclusif et non exclusif, contrairement à la vie


courante (café ou thé, garçon ou fille, etc.). Par exemple : A = {1, 2} et B = {2, 3},
alors A ∪ B = {1, 2, 3} (“ou“ inclusif) et non {1, 3} (“ou“ exclusif).

✦ Exemple : soit A = {1, 2, 3, 4, 5, 6} et B = {1, 3, 5, 7, 9}, alors :

A ∪ B = {1, 2, 3, 4, 5, 6, 7, 9}

2– Intersection :

✧ Définition.— L’intersection de A et de B que l’on désigne par A ∩ B, est


l’ensemble des éléments qui appartiennent à la fois à l’ensemble A et à l’ensemble
B:
A ∩ B = {x / x ∈ A et x ∈ B}

M. Daoui 4 M. El Hafidi
Si A ∩ B = ∅, c.à.d. si A et B n’ont aucun élément en commun, on dit alors que A
et B sont disjoints.

✦ Exemple : soit A = {1, 2, 3, 4, 5, 6} et B = {1, 3, 5, 7, 9}, alors :

A ∩ B = {1, 3, 5}

3– Complémentaire :

✧ Définition 1.— La différence entre A et B ou le complémentaire relatif


de B par rapport à A que l’on note CB, se note aussi A\B ou A−B, est l’ensemble
de éléments qui appartiennent à A mais pas à B :

A\B = A − B = CA B = {x : x ∈ A , x ∈
/ B}

Remarquons que CA B et B sont des ensembles disjoints, c.à.d. que CA B ∩ B = ∅.

✧ Définition 2.— Le complémentaire absolu, ou plus simplement le com-


plémentaire de A que l’on désigne par Ā, ou CA, est l’ensemble des éléments qui
n’appartiennent pas à A.

Ā = {x / x ∈ U , x ∈
/ A}

4– Illustration des opérations ensemblistes :

Les diagrammes suivants (Figure 1.1) qu’on appelle diagramme de Venn illustrent
les opérations précédents sur les ensembles.

Figure 1.1 – Illustration de quelques opérations sur les ensembles

M. Daoui 5 M. El Hafidi
A A
B B

: :

A‰B AˆB

A
B

: :

C
A–B A

➤ Exemple : Soit A = {1, 2, 3, 4} et B = {3, 4, 5, 6} avec U = {1, 2, 3, ...} alors :

A ∪ B = {1, 2, 3, 4, 5, 6} A ∩ B = {3, 4}

CA B = A − B = {1, 2} Ā = CA = {5, 6, 7, ...}

5– Lois de l’algèbre des ensembles :

Les ensembles sur lesquels on effectue les opérations précédentes satisfont des lois
ou identités diverses que l’on peut résumer dans le tableau (1.1).

M. Daoui 6 M. El Hafidi
Tableau 1.1 – Lois de l’algèbre des ensembles

Loi idempotente
A∪A=A A∩A=A

Loi associative
(A ∪ B) ∪ C = A ∪ (B ∪ C) (A ∩ B) ∩ C = A ∩ (B ∩ C)

Loi commutative
A∪B =B∪A A∩B =B∩A

Loi de distributivité
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

Loi d’identité
A∪∅=A A∩U =A
A∪U =U A∩∅=∅

Loi de complémentarité
A ∪ Ā = U A ∩ Ā = ∅
A=A Ū = ∅ , ∅¯ = U

Loi de Morgan
(A ∪ B) = Ā ∩ B̄ (A ∩ B) = Ā ∪ B̄

M. Daoui 7 M. El Hafidi
1.1.3 Ensembles finis et ensembles dénombrables

✧ Définition 1.— Un ensemble peut être fini ou infini. Un ensemble est fini
s’il est vide ou s’il contient exactement n éléments, n étant un entier positif. Dans
le cas contraire, l’ensemble est infini.

➤ Exemple : Soit M l’ensemble des jours de la semaine, c.à.d. M = { Lundi,


Mardi, Mercredi, Jeudi, Vendredi, Samedi, Dimanche }. Alors M est fini.
Soit Y l’ensemble des nombres entiers positifs pairs, c.à.d. Y = {2, 4, 6, ...}. Alors
Y est un ensemble infini.

✧ Définition 2.— Un ensemble est dénombrable s’il est fini ou si l’on peut
ranger ses éléments sous la forme d’une suite. On dit dans ce cas qu’il infini et
dénombrable. Dans le cas contraire, l’ensemble est non dénombrable.

➤ Exemple : Soit Y l’ensemble des nombres entiers positifs pairs, c.à.d. Y =


{2, 4, 6, ...}. Alors Y est un ensemble infini et dénombrable.
Cependant, l’intervalle unité de la droite réelle, c.à.d. I = {x / 0 ≤ x ≤ 1}, est un
ensemble infini et non dénombrable.

1.1.4 Ensembles produits

✧ Définition.— Soient A et B deux ensembles. L’ensemble produit de A et


de B, que l’on écrit A × B, est constitué de tous les couples ordonnées (a, b) où
a ∈ A et b ∈ B :
A × B = {(a, b) a ∈ A , b ∈ B}

On désigne par A2 le produit A × A d’un ensemble A par lui-même.

➤ Exemple : Soit A = {1, 2, 3} et B = {a, b}. Alors :

A × B = {(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)}

M. Daoui 8 M. El Hafidi
1.2 Éléments d’analyse combinatoire
L’analyse combinatoire est l’étude des différentes manières de “ranger“ des
objets. Ces objets peuvent être des nombres, des individus, des lettres, etc. Nous
examinons ici les cas qui se présentent le plus fréquemment.

1.2.1 Notations factorielle et cardinal

✧ Définition 1.— Soit n un entier naturel non nul. On définit la factorielle de


n, notée n!, par :
n! = 1 × 2 × 3 × ... × n

Par convention : 0! = 1.

➤ Exemple : 5! = 1 × 2 × 3 × 4 × 5 = 120.

✧ Définition 2.— Le cardinal d’un ensemble fini E est le nombre d’éléments


de E. On le note card(E).

➤ Exemple : Soit l’ensemble A = {1, 3, 5, 7}, alors : card(A) = 4.


card(∅) = 0.

✦ Propriétés : Soient A et B deux ensembles finis. On a :

card(A ∪ B) = card(A) + card(B) − card(A ∩ B)

En particulier, si A ∩ B = ∅ (A et B disjoints) on a :

card(A ∪ B) = card(A) + card(B)

Et si B = Ā, on a toujours A ∩ B = ∅ et de plus :

card(Ā) = card(E) − card(A)

avec A ⊂ E.

M. Daoui 9 M. El Hafidi
1.2.2 Permutations d’un ensemble

✧ Définition 1.— On appelle permutation (sans répétition) un rangement,


ou un classement ordonné de n objets. Le nombre de permutations de n objets
est égal à :
n! = 1 × 2 × 3 × ... × n

➤ Exemple 1 : Si nous disposons de trois objets a, b et c. Le nombre de permu-


tations possibles de ces 3 objets est égal à 3! = 1 × 2 × 3 = 6. Les permutations
possibles sont les suivantes :

{abc} {acb} {bac} {bca} {cab} {cba}

➤ Exemple 2 : Il y a 120 façons de disposer 5 personnes dans une voiture à 5


places. En effet, cela revient à trouver toutes les permutations d’un ensemble à 5
éléments, il y en a tout 5! = 120.

✧ Définition 2.— Lorsque nous avons n objets comprenant respectivement


(n1 , n2 , ..., nr ) termes identiques, le nombre de permutation avec répétition
est égal à :
n!
n1 ! × n2 ! × ... × nr !

➤ Exemple : Nous désirons “ranger“ trois boules vertes et deux boules bleues
toutes identiques excepté leur couleur. Nous avons bien 5 objets à notre disposition,
mais nous ne pouvons pas faire distinction entre les boules vertes ou les boules
bleues. Le nombre de permutations possibles sera donc plus restreint que le nombre
de permutations de 5 objets distincts qui est 5! = 120. Il faudra diviser ce résultat
par le nombre de permutations possibles des boules vertes (3! = 6) et celui des boules
bleues (2! = 2) puisqu’elles ne sont pas différentiables. Le nombre de permutations
sera donc égal à :
5!
= 10
(3! × 2!)

1.2.3 Arrangements sans répétition


Il faut distinguer le cas où l’on range des objets en tenant compte de l’ordre du
cas où l’ordre n’importe pas. Dans le cas où l’on tient compte de l’ordre nous

M. Daoui 10 M. El Hafidi
parlerons d’arrangements.

✧ Définition.— Le nombre d’arrangements sans répétition (ou d’arrange-


ments sans remise) possibles de k éléments parmi n est donné par :

k n!
An = = n × (n − 1) × (n − 2) × ... × (n − k + 1)
(n − k)!

➤ Exemple : Nous désirons savoir combien de nombres à trois chiffres peuvent


être formés avec l’ensemble {1, 3, 5, 7, 9}. Il est clair que l’ordre des chiffre est
important : 357 est différent de 735. Pour dénombrer tous les cas possibles, nous
parlerons d’arrangements sans répétition de trois chiffres parmi cinq. Le nombre
d’arrangements sans répétition est égale à :

5!
A35 = = 5 × 4 × 3 = 60
(5 − 3)!

1.2.4 Arrangement avec répétition

✧ Définition.— Un arrangement avec répétition (ou arrangements avec


remise) de k objets pris parmi n est une suite ordonnée de k éléments choisis
parmi n, et pouvant se répéter. Le nombre total de ces arrangements est donné
par :
k k
Pn = n

➤ Exemple 1 : Si nous reprenons l’exemple précédent, en supposant cette fois


que le même chiffre peut apparaitre plusieurs fois (par exemple : 335, 199, ...), nous
parlerons donc d’arrangement avec répétition ou de permutation avec répétition.
Dans ce cas le nombre d’arrangements est égal à :

P53 = 53 = 125

On peut former donc 125 nombres différents de trois chiffres avec les cinq chiffres 1,
3, 5, 7 et 9.

➤ Exemple 2 : Il y a 108 numéros de téléphone commençant par 06. En effet, il y en

M. Daoui 11 M. El Hafidi
a autant que d’arrangements avec répétitions de 8 éléments de {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
qui a 10 éléments. Il y en a en tout 108 .

1.2.5 Combinaisons sans répétition


Si l’ordre dans lequel les objets ont été choisis ne nous intéresse pas, nous pouvons
parler de combinaison.

✧ Définition 1.— Une combinaison sans répétition (ou combinaison


sans remise) est un sous-ensemble non ordonnée de k éléments choisis dans
un ensemble qui en contient n. Le nombre de combinaisons sans répétition de k
éléments parmi n est égale à :

k Akn n!
Cn = =
k! k! (n − k)!

➤ Exemple : On tire d’une urne cinq boules au hasard, qui en contient quinze
numérotées. Ce qui nous intéresse ici, c’est le numéro que portent les boules. L’ordre
dans lequel ces boules ont été tirés nous n’intéresse pas. Si les boules ne sont pas
remises dans l’urne après chaque tirage, le nombre de combinaisons possibles, sans
répétition, se calcule comme suit :

5 15!
C15 = = 3003
5! (15 − 5)!

1.2.6 Combinaisons avec répétition

✧ Définition.— Une combinaison avec répétition (ou combinaison avec


remise) est un sous-ensemble non ordonnée de k éléments choisis dans un en-
semble qui en contient n et qui peuvent se répéter. Le nombre de combinaisons
avec répétition de k éléments parmi n est égale à :

k (n + k − 1)!
Kn =
k! (n − k)!

➤ Exemple : Reprenons l’exemple précédent. En supposant cette fois que les boules
sont remises dans l’urne après chaque tirage. De même, l’ordre dans lequel ces boules

M. Daoui 12 M. El Hafidi
ont été tirés nous n’intéresse pas. D’où le nombre de combinaisons possibles, avec
répétition, est égal à :
5 (15 + 5 − 1)!
K15 = = 11628
5! (15 − 1)!
Il y a donc 11628 combinaisons avec répétition possibles.

1.2.7 Exemple illustratif


Les différents types de rangements sont illustrés (Tableau 1.2) avec un exemple
de 4 objets (A, B, C, D) pour lesquels il s’agit d’énumérer toutes les permutations,
arrangements et combinaisons de 2 lettres et ce, avec et sans répétition :

Tableau 1.2 – Exemple illustratif

ABCD BACD CABD DABC


ABDC BADC CADB DACB
ACBD BCAD CBAD DBAC
Permuations 4! = 24 ACDB BCDA CBDA DBCA
ADBC BDAC CDAB DCAB
ADCB BDCA CDBA DCBA

4!
AB BA BC CB
Arrangements A24 = (4−2)! AC CA BD DB
sans répétition = 12 AD DA CD DC
AA AB AD CA
Arrangements BB AC CD DB
P42 = 42 = 16 CC BC BA DA
avec répétition
DD BD CB DC
A24 AB AC AD BC
Combinaisons C42 = 2!
sans répétition = 4!
=6 BD CD
2!(4−2)!

(4+2−1)!
AA BB CC DD
Combinaisons K42 = 2!(4−2)! AB AC AD BC
avec répétition = 10 BD CD

M. Daoui 13 M. El Hafidi
Chapitre 2

Notion de probabilité

La formalisation d’un problème dans lequel le hasard intervient nous amène à


construire un modèle probabiliste, choisi en fonction du but que l’on poursuit.Ce
modèle est constitué d’un ensemble fondamental, d’une tribu d’événements et d’une
probabilité. Le choix de l’ensemble fondamental est très important pour le calcul
ultérieur des probabilités des événements. Nous introduirons également les notions
de probabilité conditionnelle et d’indépendance. La formule de Bayes est souvent
très utile pour le calcul de probabilités conditionnelles.

2.1 Définitions et concepts de base


Avant de définir ce qu’est une probabilité sur un ensemble d’événements, il faut
commencer par préciser quelques notions de base.

2.1.1 Expérience aléatoire

✧ Définition.— Une expérience aléatoire est une expérience renouvelable,


en théorie ou en pratique, et qui, renouvelée dans des conditions identiques ne
donne pas forcément le même résultat à chaque renouvellement.

➤ Exemple : L’exemple typique d’une expérience aléatoire renouvelable est celle


du lancer de pièce de monnaie. Il est possible de répéter plusieurs fois un lancer de
pièce dans les mêmes conditions : à chaque lancer, on n’obtiendra pas nécessairement
le même résultat, c-à-d « pile » ou « face ».

14
2.1.2 Ensemble fondamental
Le résultat d’une expérience aléatoire s’appelle un événement. La quantification
des « chances » qu’un tel événement a de se réaliser correspond à la notion intuitive
de probabilité. cette quantification nécessite la définition et la précision préalable
de l’ensemble des résultats possibles, appelés événements élémentaires. Cet en-
semble expérimental s’appelle ensemble fondamental (ou univers des possibles) et
est noté traditionnellement par Ω (prononcer grand omega).

✧ Définition 1.— L’ensemble fondamental (ou univers des possibles), noté


Ω, est défini par l’ensemble de tous les résultats possibles qui peuvent être obtenus
au cours d’une expérience aléatoire.

➤ Exemple 1 : Jet d’un dé à six faces numérotées : Ω = {1, 2, 3, 4, 5, 6}.

➤ Exemple 2 : On tire une boule dans une urne contenant une boule blanche, deux
noires et cinq jaunes et l’ensemble fondamental retenu est : Ω = {noire, blanche, rouge}.

— L’ensemble fondamental Ω peut être fini ou infini, continu ou discret.

➤ Exemple 1 : On lance une pièce jusqu’à obtenir pile, l’événement retenu étant
le nombre de jets effectués : Ω = {1, 2, ..., n, ...} = N∗ ensemble infini dénombrable.

➤ Exemple 2 : On observe la durée de vie d’une lampe : Ω = [0, +∞[= R+


ensemble infini non dénombrable.

✧ Définition 2.— Dans le cas d’un ensemble fondamental fini ou infini dé-
nombrable, la taille de l’ensemble est appelé cardinalité et est représenter par
l’opérateur card(Ω).

➤ Exemple 1 : On considère une expérience aléatoire correspondant au lancer d’un


dé à 6 faces. L’univers (fini) des possibles est alors défini par : Ω = {1, 2, 3, 4, 5, 6}.
La cardinalité de cet univers est égale à 6, c.à.d. card(Ω) = 6.

M. Daoui 15 M. El Hafidi
➤ Exemple 2 : On admet que le nombre de gouttes d’eau qui tombent pen-
dant une durée d’une heure sur une surface donnée est le résultat d’une expérience
aléatoire théorique. L’ensemble fondamental est alors : Ω = {1, 2, 3, ..., n}.
La cardinalité de cet univers est égale à : card(Ω) = n. Si n ∈ N, cet univers est fini.
Si, au contraire n = ∞ et Ω = N, cet univers est infini, mais dénombrable.

2.1.3 Événement d’une expérience aléatoire


En général, à partir d’un ensemble, il est toujours possible de définir des sous-
ensembles. Il en va de même pour l’ensemble fondamental. Un sous-ensemble de
l’ensemble fondamental est appelé un événement.

✧ Définition 1.— Un événement A est un sous-ensemble de l’ensemble fon-


damental Ω, vérifiant A ⊂ Ω. Un événement constitué d’un seul élément, c.à.d.
pour lequel card(A) = 1, est un événement élémentaire (ou singleton).

➤ Exemple : On considère une expérience aléatoire correspondant au lancer d’un


dé à 6 faces, telle que Ω = {1, 2, 3, 4, 5, 6}.
L’événement « nombre pair », noté A, correspond au sous-ensemble de l’univers Ω
défini par A = {2, 4, 6}.
L’événement « nombre impair », noté B, correspond au sous-ensemble B = {1, 3, 5}.
On peut en outre définir un autre événement C, sans lui attribuer un nom parti-
culier, tel que C = {1, 5} par exemple. L’événement D = {1} est un événement
élémentaire ou singleton.

À partir de la définition d’un événement, nous pouvons à présent introduire les


notions d’événement certain et d’événement impossible.

✧ Définition 2.— Un événement certain correspond à l’ensemble fondamen-


tal Ω.Cependant, un événement impossible est un événement qui ne se réalise
jamais. Il correspond à l’ensemble vide, noté ∅.

Nous pouvons à présent combiner des événements à l’aide d’opérations ensemblistes.

M. Daoui 16 M. El Hafidi
✧ Définition 3.— Soient deux événements A et B. La réalisation de l’évé-
nement C, défini par C = A ∪ B (lire A union B) implique la réalisation de
l’événement A ou de l’événement B, ou des deux événements A et B simultané-
ment.

✧ Définition 4.— Soient deux événements A et B. La réalisation de l’évé-


nement D, défini par D = A ∩ B (lire A inter B) entraîne la réalisation de
l’événement A et de l’événement B.

➤ Exemple : Reprenons l’exemple de lancer de dé.


À partir de l’ensemble fondamental Ω = {1, 2, 3, 4, 5, 6}, on peut définir plusieurs
types d’événements par union ou intersection d’événements élémentaires ou d’autres
d’événements (Tableau 2.1).

Tableau 2.1 – Exemples d’événements associés à un lancer de dé

Notation Interprétation
A=1∪2 On obtient 1 ou 2
B =1∩2=∅ On obtient 1 et 2 : événement impossible
C =1∪2∪3 On obtient 1, 2 ou 3
D = 1 ∩ (2 ∪ 3) = ∅ On obtient 1 et 2, ou 1 et 3 : événement impossible
Ω = {1, 2, 3, 4, 5, 6} On obtient 1, 2, 3, 4, 5 ou 6 : événement certain

De la combinaison d’événements, nous pouvons déduire les notions d’événements


disjoints et d’événements complémentaire.

✧ Définition 5.— Deux événements A et B sont disjoints s’ils n’ont pas


d’élément en commun, c.à.d. A ∩ B = ∅. Ces deux événements sont donc incom-
patibles : la réalisation simultanée de ces événements est impossible.

M. Daoui 17 M. El Hafidi
✧ Définition 6.— Deux événements A et Ā, appartenant à un ensemble B,
sont complémentaires si leur union correspond à B, c.à.d. n’ont pas d’élément
en commun, c.à.d. A ∪ Ā = B.

La barre horizontale au dessus de la lettre associée à l’événement signifie « complé-


mentaire de ».

➤ Exemple : Pour un univers Ω = {“blanc“, “rouge“, “bleu“}, l’événement Ā =


{“bleu“} est le complémentaire de l’événement A = {“blanc“, “rouge“}.

Dans la théorie moderne des probabilités, la modélisation d’une expérience aléa-


toire fait référence au langage des ensembles. En effet, les opérations logiques sur les
évènements : « et », « ou », « négation » se traduisent par des opérations ensem-
blistes : intersection, réunion, passage au complémentaire. Le tableau 2.2 présente
la correspondance entre les deux langages.

Tableau 2.2 – Langage ensembliste - langage probabiliste

Notations Vocabulaire ensembliste Vocabulaire probabiliste


∅ Ensemble vide Événement impossible
Ω Ensemble fondamental Événement certain
ω Élément de Ω Événement élémentaire
A Sous-ensemble de Ω Événement
ω∈A ω appartient à A Le résultat de ω est une
des réalisations possibles de A
A⊂B A inclus dans B A implique B
A∪B Réunion de A et B A ou B
A∩B Intersection de A et B A et B
Ac Complémentaire de A dans Ω Événement contraire de A
A∩B =∅ A et B sont disjoints A et B sont incompatibles

M. Daoui 18 M. El Hafidi
2.1.4 Ensemble d’événements
À partir d’événements combinés ou d’événements élémentaires (singletons), il
est possible de définir des ensembles d’événements ou parties d’événements.

✧ Définition.— L’ensemble des parties, noté P(Ω), correspond à l’ensemble


de tous les événements réalisables à partir des événements élémentaires de l’uni-
vers Ω. Par convention Ω ∈ P(Ω) et ∅ ∈ P(Ω).
Par convention, l’événement certain (univers) et l’ensemble des événements im-
possibles appartiennent toujours à l’ensemble des parties P(Ω).
Il convient de ne pas confondre l’univers de tous les résultats possibles Ω et l’en-
semble P(Ω) de tous les événements que l’on peut définir à partir de Ω.

➤ Exemple : On considère l’exemple d’un lancer de dé à trois faces. L’univers des


résultats possibles est Ω = {1, 2, 3}. En effet, le résultat de l’expérience aléatoire,
c.à.d. du lancer de dé, sera soit 1, soit 2 ou soit 3. Par contre, à partir de cet univers
de cardinalité égale à 3, on peut constitué 23 = 8 événements :

P(Ω) = {{1}, {2}, {3}, {1 ∪ 2}, {1 ∪ 3}, {2 ∪ 3}, {1 ∪ 2 ∪ 3}, ∅}

On peut aussi noter l’ensemble des parties sous la forme suivante :

P(Ω) = {{1}, {2}, {3}, {1 ∪ 2}, {1 ∪ 3}, {2 ∪ 3}, Ω, ∅}

Pour un univers des possibles Ω de dimension finie, de cardinalité card(Ω) = n, la


cardinalité de l’ensemble des parties P(Ω) est égale à : card(P(Ω)) = 2n .

2.1.5 Tribu d’événements

✧ Définition.— Une tribu sur l’univers Ω est un sous-ensemble d’événements


ou de parties, notée F, vérifiant :
(i) F ⊂ P(Ω), Ω ∈ F et ∅ ∈ F.
(ii) L’ensemble F est stable par passage au complémentaire : pour tout
événement A de F, l’événement complémentaire Ā appartient à l’ensemble

M. Daoui 19 M. El Hafidi
F.
∀A ∈ F alors Ā ∈ F

(iii) L’ensemble F est stable par réunion dénombrable : pour toute suite d’évé-
nements (An )n∈N appartenant à F, l’union de ces événements appartient à
l’ensemble F.
[
(An )n∈N ∈ F alors An ∈ F
n∈N

Par convention, on note les tribus par des lettres avec une police de caractère dite
calligraphique, comme par exemple A, B, F, etc.

➤ Exemple : Soit un univers Ω = {1, 2, 3}, alors l’ensemble A = {∅, {1}, {2, 3}, Ω}
est une tribu sur Ω. En effet, cet ensemble appartient à l’ensemble des parties P(Ω).
De plus, il comprend l’ensemble vide ∅ et l’événement certain (univers) Ω. Cet en-
semble est stable par passage au complémentaire. Par exemple, si l’on pose B = {1},
alors B̄ = {∅, {2, 3}, Ω} ∈ A. On obtient un résultat similaire pour toute union des
sous-ensembles de A. Enfin, si l’on considère par exemple l’union des événements
{1} et {2, 3}, on obtient un événement C = {1} ∪ {2, 3} = Ω ∈ A. On obtient un
résultat similaire pour toute union des sous-ensembles de A.

2.1.6 Espace probabilisable

✧ Définition.— Un espace probabilisable est un couple (Ω, F) où F est


une tribu sur l’univers Ω. Dans le cas d’un univers fini ou infini dénombrable, un
univers probabilisable est donné par (Ω, P(Ω)) puisque P(Ω) est une tribu sur
Ω. Un espace probabilisable est un univers de résultats sur lequel nous pouvons
définir des probabilités.

➤ Exemple : On considère l’expérience aléatoire qui consiste à lancer un dé à trois


faces parfaitement équilibrées. L’univers des résultats possibles est Ω = {1, 2, 3}.
Comme nous l’avons vu précédemment, l’ensemble des parties P(Ω) est défini par :

P(Ω) = {{1}, {2}, {3}, {1 ∪ 2}, {1 ∪ 3}, {2 ∪ 3}, {1 ∪ 2 ∪ 3}, ∅}

Puisque l’univers Ω est fini, l’ensemble des parties P(Ω)est une tribu sur Ω et le
couplet (Ω, P(Ω)) est un espace probabilisable.

M. Daoui 20 M. El Hafidi
2.2 Probabilités

2.2.1 Définition générale


Une probabilité est une application qui associe à tout événement appartenant
à une tribu une valeur sur [0, 1].

✧ Définition.— On appelle probabilité P sur (Ω, F) une application


P : F → [0, 1] telle que :
(i) P (Ω) = 1
(ii) Pour toute suite d’événements disjoints (An )n∈N de F on a (propriété dite
de σ additivité) :

[ ∞
X
P( An ) = P (An )
n=0 n=0

Le triplet (Ω, F, P ) s’appelle un espace probabilisé, où F est une tribu sur


l’univers Ω et P une probabilité.

➤ Exemple : On considère l’expérience aléatoire qui consiste à lancer un dé à trois


faces parfaitement équilibrées avec Ω = {1, 2, 3}. L’ensemble des parties P(Ω) est :

P(Ω) = {{1}, {2}, {3}, {1 ∪ 2}, {1 ∪ 3}, {2 ∪ 3}, {1 ∪ 2 ∪ 3}, ∅}

Le couplet (Ω, P(Ω)) est un univers probabilisables, on peut donc lui associer une
probabilité P : P(Ω) → [0, 1], telle que pour tout événement A ∈ P(Ω) il existe une
probabilité P (A) ∈ [0, 1]. Puisque le dé est parfaitement équilibré, les événements
élémentaires {1}, {2}, {3} sont équiprobables et leur probabilité est égale à 31 . On en
déduit les probabilités pour tous les événements de P(Ω) (le tableau 2.3 synthétise
ces 23 = 8 probabilités pour tous les événements de P(Ω)).

Tableau 2.3 – Probabilités pour un lancer de dé à trois faces

Événement Probabilité Événement Probabilité


A1 = {1} P (A1 ) = 1/3 /A5 = {1 ∪ 3} P (A5 ) = 2/3
A2 = {2} P (A2 ) = 1/3 A6 = {2 ∪ 3} P (A6 ) = 2/3
A3 = {3} P (A3 ) = 1/3 Ω = {1 ∪ 2 ∪ 3} P (Ω) = 1
A4 = {1 ∪ 2} P (A4 ) = 2/3 ∅ P (∅) = 0

M. Daoui 21 M. El Hafidi
La probabilité associée à l’union de n’importe quels événements disjoints de la
tribu P est égale à la somme des probabilités des événements. Par exemple :

1 1 2
P ({1} ∪ {2}) = P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) = + =
3 3 3

2 1
P ({1 ∪ 2} ∪ {3}) = P (A4 ∪ A3 ) = P (A4 ) + P (A3 ) = + =1
3 3

2.2.2 Définition axiomatique


Dans le cas d’un univers fini, on peut proposer une définition équivalente de la
probabilité, dite définition axiomatique.

✧ Définition.— Soit (Ω, F) un espace probabilisable fini tel que Ω = {ω1 , ω2 , ..., ωn }
et soit P(Ω) l’ensemble des parties, avec F ⊂ P(Ω). Une probabilité est une ap-
plication P : F → [0, 1], telle que :
(i) La somme des probabilités associées aux événement élémentaires ωi est égale
à1: n
X
P (ωi ) = 1
i=1

(ii) La probabilité d’un événement A ∈ F est égale à la somme des probabilités


associées aux événements élémentaires ωi qui le constituent :

X
P (A) = P (ωi )
ωi ∈A

Ces axiomes des probabilités sont aussi appelés axiomes de Kolmogorov.

➤ Exemple : On considère l’expérience aléatoire qui consiste à lancer un dé à


trois faces parfaitement équilibrées avec Ω = {1, 2, 3}. On vérifie que pour l’espace
probabilisé (Ω, P(Ω), P ) on a :

1 1 1
P ({1}) + P ({2}) + P ({3}) = + + =1
3 3 3

Par ailleurs, la probabilité de tout événement A ∈ P(Ω) est égale à la somme des
probabilités associées aux événements élémentaires qui le constituent. Par exemple,

M. Daoui 22 M. El Hafidi
pour l’événement A = {1 ∪ 3}, on a :

1 1 2
P ({1 ∪ 3}) = P ({1}) + P ({3}) = + =
3 3 3

2.2.3 Propriétés de probabilité


Soit un espace probabilisé (Ω, F, P ), alors quels que soient les événements A et
B appartenant à F ⊂ P(Ω), la probabilité P vérifie :

✦ Propriété 1 : La probabilité associée à l’événement certain (univers des possi-


bilité Ω) est égale à 1 :
P (Ω) = 1

✦ Propriété 2 : L’événement impossible est de probabilité nulle :

P (∅) = 0

✦ Propriété 3 : La probabilité de l’événement complémentaire d’un événement


quelconque A s’obtient par :

P (Ā) = 1 − P (A)

✦ Propriété 4 : La probabilité de l’union de deux événements s’obtient par la


formule de Poincaré :

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

✦ Propriété 5 : Si un événement en implique un autre, sa probabilité est plus


petite :
A ⊂ B ⇒ P (A) ≤ P (B)

2.2.4 Équiprobabilité
Si Ω est fini, Ω = {ω1 , ..., ωn }, à chacun des événements élémentaires ωi on a :
n
P ({ωi }) = pi , avec 1 ≤ i ≤ n, tel que : 0 ≤ pi ≤ 1 et
P
pi = 1. Si tous les événements
i=1
élémentaires ont la même probabilité, ce qui correspond à la loi uniforme discrète
définie par :
1
pi = avec 1 ≤ i ≤ n
n

M. Daoui 23 M. El Hafidi
La probabilité d’un événement quelconque A de P(Ω) est définie comme la somme
des probabilités des tous les événements élémentaires qui sont inclus.

X 1 1 card(A) Nombre de cas favorables


P (A) = = × card(A) = =
ωi n n card(Ω) Nombre de cas possibles

Un cas favorable étant un événement élémentaire qui réalise A. Cependant, il faut


bien faire attention que cette règle ne s’applique que dans le cas d’équiprobabilité
des événements élémentaires.

2.3 Probabilité conditionnelle

2.3.1 Définition de la probabilité conditionnelle


On considère l’espace probabilisé (Ω, F, P ) et un événement particulier A, tel
que A ⊂ F. Cependant, avant la réalisation de l’expérience aléatoire, on obtient
une information qui se traduit par un événement B ∈ F. La probabilité associé à
l’événement A doit donc tenir compte de l’événement B. Cette probabilité associée
à l’événement A sachant que l’événement B est appelée probabilité condition-
nelle.

✧ Définition 1.— Soit un espace probabilisé (Ω, F, P ) et soient A et B deux


événements appartenant à la tribu F sur Ω, tels que P (B) > 0 (l’événement im-
possible ne peut pas être un événement de conditionnement). La probabilité
conditionnelle de l’événement A sachant B est définie par :

P (A ∩ B)
P (A/B) =
P (B)

La probabilité conditionnelle d’une union d’événements disjoints (Ai , ..., An ) cor-


respond à la somme des probabilités de ces événements :
  n
n X
P ∪ Ai /B = P (Ai /B)
i=1
i=1

➤ Exemple : On lance deux fois une pièce de monnaie et on cherche la probabilité


que les deux jets amènent « face » sachant que le premier est déjà un « face ». On sup-
pose que les éléments de l’ensemble fondamental Ω = {(F, F ); (F, P ); (P, F ); (P, P )}

M. Daoui 24 M. El Hafidi
sont équiprobables. En désignant par l’événement A= « les deux jets amènent face »,
c.à.d. A = {(F, F )} et par l’événement B=« le premier jet donne face », c.à.d.
B = {(F, F ); (F, P )}. Cette probabilité conditionnelle est donnée par :

P (A ∩ B) P (F, F )
P (A/B) = =
P (B) P ((F, F ); (F, P ))

1/ 1
= 24 =
/4 2

✧ Définition 2.— Soit un espace probabilisé (Ω, F, P ) et soient A et B deux


événements appartenant à la tribu F sur Ω, tels que P (A) > 0 et P (B) > 0. La
probabilité jointe associé à l’événement A ∩ B est définie par :

P (A ∩ B) = P (A/B) × P (B) = P (B/A) × P (A)

Cette définition peut se généraliser à un ensemble d’événements (Ai , ..., An ) ∈ F n


tels que P (A1 ∩ ... ∩ An ) > 0, par la formule des probabilités composées (formule de
l’intersection). La probabilité jointe associée à l’événement A1 ∩ ... ∩ An est définie
par :

P (A1 ∩ ... ∩ An ) = P (A1 )×P (A2 /A1 )×P (A3 /A1 ∩ A2 )×...×P (An /A1 ∩ ... ∩ An−1 )

Cette formule des probabilités composées est particulièrement utile pour le calculer
des probabilités d’intersections.

2.3.2 Théorème de Bayes

✧ Définition.— Soit un système complet d’événements, c.à.d. une partition de


Ω en événements Ai , ..., An de probabilités strictement positives, P (Ai ) > 0 pour
1 ≤ i ≤ n, et incompatibles deux à deux, c.à.d. avec Ai ∩ Aj = ∅ pour i ̸= j et
n
P
P (Ai ) = 1. On suppose que les probabilités des événements inclus dans chacun
i=1
des Ai sont connues et on va donc décomposer un événement quelconque B sur
ce système :  
n n
B =B∩Ω=B∩ ∪ Ai = ∪ (Ai ∩B)
i=1 i=1

M. Daoui 25 M. El Hafidi
On aboutit ainsi à la formule de la probabilité totale :
n
X n
X
P (B) = P (Ai ∩ B) = P (Ai ) P (B/Ai )
i=1 i=1

Ceci va nous permettre de calculer les probabilités a posteriori P (B/Ai ), après


réalisation d’un événement B, à partir des probabilités a priori P (Ai ), 1 ≤ i ≤ n :

P (Ai ∩ B) P (Ai ) P (B/Ai )


P (Ai /B) = = P
n
P (B) P (Aj ) P (B/Aj )
j=1

➤ Exemple : Une pièce est produite dans quatre usines, noté Ui pour i = 1, ..., 4,.
On note pi = P (Ui ) la probabilité que la pièce provienne de l’usine Ui , avec p1 = 0, 2,
p2 = 0, 3, p3 = 0, 4 et p4 = 0, 1. Pour chacune de ces usines, la probabilité que que la
pièce soit défectueuse est notée di , avec d1 = 0, 05, d2 = 0, 01, d3 = 0, 01 et d4 = 0, 02.
Ces probabilités doivent être comprises comme des probabilités conditionnelles de
défaut sachant que la pièce est produite dans l’usine i et peuvent se noter sous la
forme di = P (D/Ui ) où D représente l’événement « défauts ». Le système complet
peut être représenté sous la forme d’un arbre des « défauts » comme sur la figure
(2.1) .

Figure 2.1 – Arbre des défauts

Considérons une pièce défectueuse prise au hasard et calculons la probabilité qu’elle


provienne de la iième usine.

M. Daoui 26 M. El Hafidi
D’après le théorème de Bayes, on a :

P (D/Ui ) × P (Ui ) P (D/Ui ) × P (Ui )


P (Ui /D) = 4 = ∀i = 1, ..., 4
P (D)
P (D/Uj ) × P (Uj )
P
j=1

Calculons d’abord la probabilité qu’une pièce soit défectueuse, c.à.d. P (D).


D’après la formule des probabilités totales, on a :

4
X
P (D) = P (D/Uj ) × P (Uj )
j=1

P (D) = (d1 × p1 ) + (d2 × p2 ) + (d3 × p3 ) + (d4 × p4 )

P (D) = (0, 05 × 0, 2) + (0, 01 × 0, 3) + (0, 01 × 0, 4) + (0, 02 × 0, 1) = 0, 019

La probabilité totale de défaut est P (D) = 0, 019, c.à.d. il y a 1, 9% de chance


qu’une pièce soit défectueuse.
Par conséquent, on obtient :

P (D/U1 ) × P (U1 ) d1 × p1 0, 05 × 0, 2
P (U1 /D) = = = = 0, 5263
P (D) P (D) 0, 019

P (D/U2 ) × P (U2 ) d2 × p2 0, 01 × 0, 3
P (U2 /D) = = = = 0, 1579
P (D) P (D) 0, 019
P (D/U3 ) × P (U3 ) d3 × p3 0, 01 × 0, 4
P (U3 /D) = = = = 0, 2105
P (D) P (D) 0, 019
P (D/U4 ) × P (U4 ) d4 × p4 0, 02 × 0, 1
P (U4 /D) = = = = 0, 1053
P (D) P (D) 0, 019
En conclusion, une pièce défectueuse prise au hasard a la plus forte chance de pro-
venir de l’usine 1.

M. Daoui 27 M. El Hafidi
2.4 Indépendance en probabilité

✧ Définition.— Soit un espace probabilisé (Ω, F, P ) et soient A et B deux


événements appartenant à la tribu F sur Ω. Les événements A et B sont dit
indépendants si :
P (A ∩ B) = P (A) × P (B)

En effet, la probabilité de réalisation simultanée de deux événements indépendants


est égale au produit des probabilités que chacun de ces événements se produise sé-
parément. 1
On peut également définir l’indépendance mutuelle de n événements (A1 , ..., An ) ∈ F n .
Les événements A1 , ..., An sont dits mutuellement indépendants si :
n n
!
[ Y
P Ai = P (Ai )
i=1 i=1

➤ Exemple : On considère une expérience aléatoire consistant à lancer, deux fois de


suite, un dé à 6 face et on s’intéresse aux événements A = « Obtenir un 1 au premier
lancer » et B = « Obtenir un 2 au deuxième lancer ». Il nous faut démontrer que
ces deux événements sont indépendants (bien entendu ce résultat est évident, il n’y
a pas d’influence d’un lancer sur l’autre !). L’ensemble fondamental est Ω = E × E
1
avec E = {1, 2, 3, 4, 5, 6}, sur lequel il y a équiprobabilité : P ({ω}) = 62
. Comme
A = {1} × E, B = {2} × E et A ∩ B = A ∩ B = {(1, 2)} on obtient :

card(A) 6 1
P (A) = = 2 =
card(Ω) 6 6

card(B) 6 1
P (B) = = 2 =
card(Ω) 6 6
card(A ∩ B) 1 1
P (A ∩ B) = = 2 = 2 = P (A) × P (B)
card(Ω) 6 6
Les événements A et B sont donc bien indépendants.

1. En conséquence, si P (B) > 0 :

P (A ∩ B) P (A) × P (B)
P (A/B) = = = P (A)
P (B) P (B)

La réalisation d’un événement ne modifie pas la probabilité de réalisation de l’autre.

M. Daoui 28 M. El Hafidi
Chapitre 3

Variables aléatoires

Chaque résultat d’une expérience aléatoire peut être codé au moyen d’une ap-
plication qui, si elle permet d’associer une probabilité à chacune de ses valeurs
numériques discrètes, sera appelée variable aléatoire discrète. De même, on peut as-
socier aux résultats d’une expérience aléatoire un ensemble de valeurs qui forment
un (ou plusieurs) intervalle(s) réel(s). Si on peut calculer la probabilité de tous les
intervalles qui sont inclus dans cet ensemble, l’application qui réalise ce codage se
nomme variable aléatoire (v.a.) continue.
La loi de la variable aléatoire discrète est alors déterminée par les probabilités de
toutes ses valeurs possibles. Elle est souvent caractérisée par les deux premiers mo-
ments qui sont l’espérance, caractéristique de valeur centrale, et la variance, carac-
téristique de dispersion autour de cette valeur centrale.
La loi de probabilité d’une variable aléatoire continue est généralement définie par
une densité qui sera la dérivée de la fonction de répartition. Le calcul des moments
s’effectue à l’aide de cette densité par une intégration.

3.1 Définition générale


Rappelons qu’une application est une relation entre deux ensembles pour laquelle
chaque élément du premier (ensemble de départ) est relié à une unique élément du
second (ensemble d’arrivé).

On considère une expérience aléatoire et l’on désigne par Ω l’ensemble des résul-
tats possibles.

29
✧ Définition.— Une variable aléatoire est une application, notée X, qui
pour chaque événement de l’ensemble fondamental Ω associe une valeur apparte-
nant à un univers X(Ω) qui correspond à l’univers des réalisations, c.à.d l’univers
des valeurs prises par la variable aléatoire X. Plus généralement, l’application X
associe à tout événement de la tribu F sur Ω, une valeur appartenant à la tribu
E sur X(Ω).

Soient (Ω, F, P ) un espace probabilisé et (X(Ω), E) un univers probabilisable.


Une variable aléatoire es toute application X de Ω vers X(Ω) :

−1
∀x ∈ (F) X (x) ∈ E

Ainsi,la variable aléatoire X est une sorte de fonction qui « transforme » les résultats
d’une expérience aléatoire définis sur Ω en des réalisations définies sur X(Ω).

➤ Exemple : On considère l’expérience aléatoire qui consiste à lancer un dé à


6 faces. L’univers des résultats possibles est alors défini par Ω = {1, 2, 3, 4, 5, 6}.
Définissons une variable aléatoire, noté X, comme une application qui prend la réa-
lisation 100 lorsque le résultat du lancer est un nombre pair et 200 lorsque le résultat
est un nombre impair. On a défini une application associant à tout événement de Ω
un élément de l’univers des réalisations X(Ω) = {100, 200}.

Suivant que l’univers des réalisation X(Ω) est dénombrable (fini ou infini) ou non
dénombrable (infini), on peut distinguer deux types de variables aléatoires : les va-
riables aléatoires discrètes et les variables aléatoires continues.

3.2 Variables aléatoires discrètes


Une variable aléatoire discrète est une variable aléatoire qui peut prendre
des réalisations discrètes, c.à.d. non continues.

M. Daoui 30 M. El Hafidi
✧ Définition.— Soient (Ω, F, P ) un univers probabilisé fini ou infini dénom-
brable. On appelle variable aléatoire discrète X toute application X : Ω →
X(Ω) telle que ∀xi ∈ X(Ω) :

P (X = xi ) = P ({ω ∈ Ω ; X(ω) = xi })

Le terme P (X = xi ) se lit comme « la probabilité que la variable aléatoire X prenne


la réalisation xi ». Par convention, on note la variable aléatoire avec une lettre
majuscule (par exemple X) et sa réalisation avec une lettre minuscule (par exemple
x).

3.2.1 Loi de probabilité

✧ Définition.— L’application P (X = xi ) définie pour toutes les réalisations


xi ∈ X(Ω) s’appelle la loi de probabilité de la variable aléatoire discrète X.
Cette loi de probabilité n’est rien d’autre que la « liste » des probabilités P (X =
x1 ), P (X = x2 ), ..., P (X = xn ), ..., associés à tous les événements de l’univers
des réalisations X(Ω). Par définition, la somme de ces probabilités pour toutes les
réalisations de l’univers X(Ω) est toujours égale à 1.

X
P (X = xi ) = 1
xi ∈X(Ω)

Si le nombre de réalisations, noté n, appartenant à l’univers X(Ω) = {x1 , ..., xn }


est fini : n
X
P (X = xi ) = 1
i=1

Par contre, si l’univers des réalisations X(Ω) est infini dénombrable :

n
X
lim P (X = xi ) = 1
n→∞
i=1

On appelle alors loi de probabilité (ou distribution) de la variable aléatoire X l’en-


semble des couples (xi , pi )i∈N . Si X ne prend qu’un petit nombre de valeurs, cette
distribution est généralement présenté dans un tableau.

M. Daoui 31 M. El Hafidi
Valeurs possibles xi de X x1 ... xi ... Total
Probabilités correspondantes (pi ) p1 ... pi ... 1

➤ Exemple : La loi uniforme associée à un lancer de dé à six faces numérotées est


présentée dans le tableau suivant :

xi 1 2 3 4 5 6 Tatal
pi 1/6 1/6 1/6 1/6 1/6 1/6 1

3.2.2 Fonction de répartition

✧ Définition.— La fonction de répartition de la variable aléatoire (discrète


ou continue) X, notée FX (x), correspond à la probabilité que cette variable prenne
des réalisations inférieures a à une certain valeur x ∈ R :

FX (x) = P (X < x) ; ∀x ∈ R

La fonction de répartition d’une variable aléatoire discrète X définie sur X(Ω)


est une fonction FX (x) : R → [0, 1] telle que :

X
FX (x) = P (X < x) = P (X = xi ) ; ∀x ∈ R
xi ∈X(Ω), xi <x

a. Dans la littérature statistique anglo-saxonne, on définit habituellement F (x) comme la


probabilité attachée à l’ensemble des valeurs inférieures ou égales à x : FX (x) = P (X ≤ x); ∀x ∈
R.

Dans le cas d’une variable aléatoire discrète, la fonction de répartition est une fonc-
tion croissante des valeurs de x qui se présente en forme de fonction en escalier.

✦ Propriétés : Pour toute variable aléatoire X (discrète ou continue), la fonc-


tion de répartition FX (x) vérifie toujours les propriétés suivantes :
(i) 0 ≤ FX (x) ≤ 1 , ∀x ∈ R.
(ii) lim FX (x) = 0.
x→−∞

(iii) lim FX (x) = 1.


x→+∞

M. Daoui 32 M. El Hafidi
La fonction de répartition permet de calculer la probabilité que la variable aléatoire
que la variable aléatoire X appartienne à un intervalle [a, b[ où (a, b) ∈ R2 avec
b>a:
P (a ≤ X < b) = P (X < b) − P (X < a) = FX (b) − FX (a)

3.2.3 Espérance et variance d’une variable aléatoire discrète


1 – Espérance mathématique :

✧ Définition.— L’espérance mathématique, notée E(X) ou E(X), d’une


variable aléatoire discrète X défini sur X(Ω) = {x1 , ... xn } est égale à :

n
X n
X
E(X) = xi P (X = xi ) = xi p i
i=1 i=1

➤ Exemple 1 : On considère une variable aléatoire Y définie sur Y (Ω) = {0, 2, 4, 6}


telle que sa loi de probabilité est caractérisée par les probabilités du tableau.

Tableau 3.1 – Probabilités associées à la variable Y

Réalisation de Y Probabilité
Y =0 P (Y = 0) = 0, 1
Y =2 P (Y = 2) = 0, 2
Y =4 P (Y = 4) = 0, 3
Y =6 P (Y = 6) = 0, 4

Son espérance mathématique est égale à :

4
X
E (Y ) = yi P (Y = yi ) = 0 × 0, 1 + 2 × 0, 3 + 4 × 0, 4 + 6 × 0, 2 = 3, 4
i=1

Cela signifie qu’en « moyenne » les réalisations obtenues pour plusieurs tirages dans
la loi de probabilité de cette variables seront égales à 3, 4.

✦ Propriété 1 : Soit X une variable aléatoire discrète définie sur X(Ω) = {x1 , ..., xn }
n
|g (xi )|P (X = xi ) < ∞. L’espérance de la
P
fini et soit g(.) une fonction telle que
i=1

M. Daoui 33 M. El Hafidi
variable aléatoire g(X) est alors définie par :

n
X
E(g(X)) = g (xi )P (X = xi )
i=1

✦ Propriété 2 : Soit X une variable aléatoire et soient deux constantes (a, b) ∈ R2 ,


alors E(a + bX) = a + bE(X). On dit que l’espérance est un opérateur linéaire.

✦ Propriété 3 : Soit X une variable aléatoire et soit g(.) une fonction non-linéaire,
alors :
E(g(x)) ̸= g(E(X))

➤ Exemple 2 : On considère une variable aléatoire Y telle que E(Y ) = 5. Puisque


l’espérance est un opérateur linéaire E(6 − 2Y ) = 6 − 2E(Y ) = −4. Par contre,
E(Y 2 ) ̸= E(Y )2 et E( Y1 ) ̸= 1
E(Y )
car les fonctions g(x) = x2 et g(x) = 1
x
ne sont pas
des fonctions linéaires.

2 – Variance et écart-type :

La variance est un indicateur de la dispersion de la loi de probabilité autour de


l’espérance.

✧ Définition 1.— Soit X une variable aléatoire (discrète ou continue) telle que
E(X 2 ) existe. La variance de X, notée V(X) ou V (X), est défini par :
 
V (X) = E (X − E (X))2

La variance V(X) peut toujours se réécrire sous la forme suivante :


 
V (X) = E X 2 − E (X)2

Dite aussi formule de Konig-Huygens.

M. Daoui 34 M. El Hafidi
✧ Définition 2.— Soit X une variable aléatoire discrète définie sur X(Ω) =
{x1 , ..., xn }. Si E(X 2 ) existe, sa variance est :

n  
xi − E(X)2 × P (X = xi )
X
E(X) =
i=1

On montre que cette équation peut se réécrire sous la forme suivante :


" n # " n # " n #2
2
pi x2i pi x2i
X X X
V (X) = − E(X) = − p i xi
i=1 i=1 i=1

avec pi = P (X = xi ).

2
L’écart-type, noté σX , correspond à la racine carrée de la variance, c.à.d. σX =
V(X). .

➤ Exemple : On considère une variable aléatoire Y définie sur Y (Ω) = {0, 2, 4, 6}


telle que sa loi de probabilité définie par les probabilité de l’exemple relatif à l’espé-
rance. Nous avons vu que qon espérance était égale à E(Y ) = 3, 4. Sa variance est
égale à :
4
(yi − E (X))2 P (Y = yi )
X
V (Y ) =
i=1

On obtient alors :

V(Y ) = (0 − 3, 4)2 ×0, 1+(2 − 3, 4)2 ×0, 3+(4 − 3, 4)2 ×0, 4+(6 − 3, 4)2 ×0, 2 = 3, 24

✦ Propriété : Soit X une variable aléatoire et soient deux constantes (a, b) ∈ R2 ,


alors V(a + bX) = b2 V(X). On parle de non-linéarité de la variance.

3.3 Variables aléatoires continues


On considère le cas où l’univers des réalisations X(Ω) de loi de probabilité de la
variable aléatoire X est non dénombrable. On dit alors que la variable aléatoire est
continue. C’est le cas notamment de toutes les variables aléatoires réelle (v.a.r en
abrégé) pour lesquelles X(Ω) = R ou une partie de R.

M. Daoui 35 M. El Hafidi
✧ Définition.— Soit (Ω, F, P ) un univers probabilisé non dénombrable. On
appelle variable aléatoire réelle (continue) toute application Ω → X (Ω) ⊆ R
telle que pour tout intervalle I ⊆ X (Ω) : a

P (X ∈ I) = P ({ω ∈ Ω; X (ω) ∈ I})


a. Le symbole ⊆, utilisé pour les sembles, « inclus ou équivalent à ».

Cette définition signifie que la probabilité que la variable X appartienne à un certains


intervalle de réalisations I ⊆ X(Ω) (par exemple l’intervalle [−3, 5]) correspondent à
la somme des réalisations X(ω) qui appartiennent elles-mêmes à l’intervalle I. Ainsi,
l’application X permet de déterminer les probabilités associées à des intervalles de
réalisations.

3.3.1 Fonction de densité


Dans le cas d’une variable aléatoire réelle (continue), on ne peut déterminer que
la probabilité associée à des intervalles de réalisations.

✧ Définition.— Soit X une variable aléatoire réelle définie sur X(Ω) ⊆ R.


La loi de probabilité de X admet une fonction de densité, notée a fX (x), si
cette fonction est définie sur X(Ω), positive ou nulle, intégrable b et telle que
∀ (a, b) ∈ X(Ω)2 :
Z b
P (a ≤ X ≤ b) = fX (x) dx
a

a. La fonction de densité est notée avec une lettre minuscule avec en indice le nom de la
variable aléatoire (notée en majuscule).
b. On dit qu’une fonction intégrable si cette fonction peut être intégrée et que son intégrale
est égale à une quantité finie.

La figure (3.1) illustre le concept de fonction de densité. Une fonction de densité


fX (x) est une fonction positive ou nulle, définie sur X (Ω) ⊆ R (axe des abscisses)
telle que pour tout couple de valeurs (a, b) ∈ X(Ω)2 , la probabilité que les réali-
sations de X appartiennent à l’intervalle [a, b] correspond à l’aire sous la densité
Rb
entre ces deux bornes. Rappelons que cette aire représente l’intégrale a fX (x)dx.

M. Daoui 36 M. El Hafidi
Figure 3.1 – Illustration de la définition de la fonction de densité

Puisque la probabilité d’être en un point est nulle, la définition de la densité de


probabilité peut se réécrire de façon équivalant sous la forme suivante :
Z b
P (a < X < b) = P (a < X ≤ b) = P (a ≤ X < b) = fX (x) dx
a

✦ Propriété : La probabilité associée à une réalisation particulière d’une variable


aléatoire continue est nulle :

P (X = x) = 0 ∀x ∈ R

➤ Exemple : On que la note Y d’un étudiant à son examen de « statistique » a


été distribué au hasard. La variable Y , définie sur Y (Ω) = [0, 20], admet une loi
uniforme (continue) telle que :

1
fY (y) = ∀y ∈ [0, 20]
20

Déterminons la probabilité d’obtenir une note comprise entre 8 et 13, ainsi que la
probabilité d’obtenir une note supérieure à 15. Par définition, il vaut :
13
Z 13 Z 13
1 x 13 8 1

P (8 ≤ Y ≤ 13) = fX (x) dx = dx = = − =
8 8 20 20 8 20 20 4

M. Daoui 37 M. El Hafidi
Si la note a été attribué au hasard, on vérifie qu’il a 1 chance sur 4 d’obtenir une
note comprise entre 8 et 13. De la même façon :
20
Z 20 Z 20
1 x 20 15 1

P (P ≥ 15) = fX (x)dx = dx = = − =
15 15 20 20 15 20 20 4

✦ Propriétés : Soit X une variable aléatoire continue avec X(Ω) ⊆ R . Sa fonction


de densité fX (x) vérifie les propriétés suivantes :
(i) fX (x) ≥ 0, ∀x ∈ X (Ω) et fX (x) = 0, ∀x ∈
/ X (Ω).
R +∞
(ii) −∞ fX (x) dx = 1.
R +∞
(iii) P (X ≥ a) = P (X > a) = a fX (x)dx.
Rb
(iv) P (X ≤ b) = P (X < b) = −∞ fX (x)dx.

3.3.2 Fonction de répartition

✧ Définition.— La fonction de répartition, notée FX (x), de la variable


aléatoire réelle X définie sur X(Ω) ⊆ R correspond à la probabilité que cette
variable soit inférieure ou égale à une certaine valeur x inR :
Z x
FX (x) = P (X ≤ x) = fX (u)du ∀x ∈ R
−∞

✦ Propriétés : Pour toute variable aléatoire continue X, la fonction de répartition


FX (x) vérifie toujours les propriétés suivantes :
∂FX (x)
(i) FX (x) est croissante avec x : ∂x
≥ 0, ∀x ∈ R.
(ii) 0 ≤ FX (x) ≤ 1 , ∀x ∈ R.
(iii) lim FX (x) = 0.
x→−∞

(iv) lim FX (x) = 1.


x→+∞

Par construction, la fonction de densité correspond à la dérivée première de la fonc-


tion de répartition :
∂FX (x)
fX (x) = , ∀x ∈ R
∂x

M. Daoui 38 M. El Hafidi
3.3.3 Espérance et variance d’une variable aléatoire conti-
nue

✧ Définition 1.— Soit X une variable aléatoire réelle définie sur X(Ω) ⊆ R
et caractérisé par une fonction de densité fX (x). Le moment ordinaire (non
centré) d’ordre k ∈ N de la loi de probabilité de X est définie par :
  Z +∞
mk = E X k = xk fX (x)dx
−∞

Le moment centré d’ordre k ∈ N de la loi de probabilité de X est définie par :


  Z +∞
µk = E (X − E (X))k = (x − E (X))k fX (x)dx
−∞

✧ Définition 2.— Soit X une variable aléatoire réelle continue, son espérance
et sa variance sont définies par :
Z +∞
E(X) = x fX (x)dx
−∞

  Z +∞
V(X) = µk = E (X − E (X))k = (x − E (X))2 fX (x)dx
−∞

3.4 Couple de variables aléatoires


On considère deux variables aléatoires (discrètes ou continues) X et Y respecti-
vement définies sur X(Ω) et Y (Ω). Les réalisations du couple de variables aléa-
toires (X, Y ) appartiennent à l’univers des réalisations X(Ω) × Y (Ω). 1

3.4.1 Loi jointe et loi marginale

✧ Définition 1.— L’application P ((X = xi ) ∩ (Y = yi )), ∀ (xi , yi ) ∈ X (Ω) ×


Y (Ω) définit la loi de probabilité jointe du couple de variables aléatoires dis-

1. Le symbole × correspond au produit cartésien. Cela signifie que l’univers des réalisations
X(Ω) × Y (Ω) (prononcer X(Ω) croix Y (Ω)) correspond à l’ensemble de tous les couples de réali-
sations (x, y) où x ∈ X(Ω) et Y ∈ Y (Ω).

M. Daoui 39 M. El Hafidi
crètes (X, Y ). Puisque les réalisations forment un système complet :

X
P ((X = xi ) ∩ (Y = yi )) = 1
(xi ,yi )∈X(Ω)×Y (Ω)

La quantité P ((X = xi ) ∩ (Y = yi )) correspond à la probabilité jointe d’observer


à la fois X = xi et Y = yi . On peut la noter de différentes façons :

P ((X = xi ) ∩ (Y = yi )) = P (xi , yi ) = P (X = xi ) ∩ P (Y = yi )

✧ Définition 2.— Soit (X, Y ) un couple de variables aléatoires défini sur


X(Ω) × Y (Ω). On appelle lois de probabilité marginales de X et de Y , les
applications respectivement définies par :

X
P (X = xi ) = P ((X = xi ) ∩ (Y = yi ))
yi ∈Y (Ω)

X
P (Y = yi ) = P ((X = xi ) ∩ (Y = yi ))
xi ∈X(Ω)

La probabilité marginale P (X = xi ) correspond ainsi à la somme des probabili-


tés jointes d’observer X = xi conjointement à toutes les réalisations possibles de Y ,
c.à.d. Y = y1 , ..., yn si Y (Ω) = {y1 , ..., yn }.

Par construction, la somme des probabilités marginales P (X = xi ) associées à toutes


les réalisations xi ∈ X(Ω) est égale à 1 :

X X X
P ((X = xi )) = P ((X = xi ) ∩ (Y = yi )) = 1
xi ∈X(Ω) xi ∈X(Ω) yi ∈Y (Ω)

De la même façon :

X X X
P ((X = yi )) = P ((X = xi ) ∩ (Y = yi )) = 1
yi ∈X(Ω) yi ∈X(Ω) xi ∈Y (Ω)

➤ Exemple : On considère deux variables aléatoires indépendantes X et Y respec-


tivement définies sur X(Ω) = [a, b] et Y (Ω) = [1, 2], telles que :

P (X = a) = 0, 2 P (X = b) = 0, 8

M. Daoui 40 M. El Hafidi
P (Y = 1) = 0, 7 P (Y = 2) = 0, 3

On admet que la loi de probabilité jointe du couple (X, Y ), définie sur X(Ω) × Y (Ω) =
{{a, 1}, {a, 2}, {b, 1}, {b, 2}}, est définie par :

P ((X = a) ∩ (Y = 1)) = 0, 14 P ((X = a) ∩ (Y = 2)) = 0, 06

P ((X = b) ∩ (Y = 1)) = 0, 56 P ((X = b) ∩ (Y = 2)) = 0, 24

La probabilité marginale d’observer X = a est égale à :

P (X = a) = P ((X = a) ∩ (Y = 1)) + P ((X = a) ∩ (Y = 2)) = 0, 14 + 0, 06 = 0, 2

3.4.2 Covariance d’un couple de variables aléatoires

✧ Définition 1.— La covariance de deux variables aléatoires X et Y , notée


Cov(X, Y ), est définie comme étant l’espérance du produit des variables centrées
sur leurs espérances respectives, c.à.d. :

Cov(X, Y ) = E[(X − E(X) × (Y − E(Y )]

ou de façon équivalente par :

Cov(X, Y ) = E(XY ) − E(X)E(Y )

En utilisant la distribution jointe du couple (X, Y ), la covariance de ces deux va-


riables aléatoires discrètes X et Y est égale à :

X X
Cov(X, Y ) = xi yi P ((X = xi ) ∩ (Y = yi )) − E (X) × E (Y )
xi ∈X(Ω) yi ∈Y (Ω)

Ce moment permet d’évaluer le sens de variation des variables X et Y . Si la co-


variance est positive, les réalisations des deux variables X et Y évoluent « dans le
même sens ». Cependant, si la covariance est négative, les réalisations ont tendance
à évoluer « en sens opposé ».

Il est important de noter que l’indépendance des deux variables X et Y implique la


nullité de la covariance (Cov(X, Y ) = 0), mais que la réciproque n’est pas nécessai-

M. Daoui 41 M. El Hafidi
rement vraie.

La covariance est une mesure symétrique Cov(X, Y ) = Cov(Y, X). Par définition,
Cov(X, X) = E((X − E(X))2 ) = V(X).

✧ Définition 2.— La corrélation entre deux variables aléatoires X et Y est


définie par :
Cov(X, Y )
corr(X, Y ) =
σ(X)σ(Y )
q q
où σ(X) = V (X) et σ(Y ) = V (Y ) désignent les écarts-types des variables X
et Y . Par construction, corr(X, Y ) ∈ [−1, 1].

➤ Exemple : On considère deux variables aléatoires indépendantes X et Y respec-


tivement définies sur X(Ω) = [10, 20] et Y (Ω) = [1, 2], telles que :

P (X = 10) = 0, 2 P (Y = 1) = 0, 7

On admet que la loi de probabilité jointe du couple (X, Y ), définie sur X(Ω) × Y (Ω) =
{{10, 1}, {10, 2}, {20, 1}, {20, 2}}, est définie par :

P ((X = 10) ∩ (Y = 1)) = 0, 14 P ((X = 10) ∩ (Y = 2)) = 0, 06

P ((X = 20) ∩ (Y = 1)) = 0, 56 P ((X = 20) ∩ (Y = 2)) = 0, 24

On montre que :

E(X) = 10 × P (X = 10) + 20 × P (X = 20) = 18

E(Y ) = 1 × P (Y = 1) + 2 × P (Y = 2) = 1, 3

La covariance entre X et Y est définie par :

4 X
X 4
Cov(X, Y ) = xi yi P ((X = xi ) ∩ (Y = yi )) − E (X) × E (Y )
i=1 i=1

On vérifie que cette covariance est nulle puisque les variables X et Y sont indépen-
dantes.

Cov(X, Y ) = 0, 14 × 10 + 0, 06 × 20 + 0, 56 × 20 + 0, 24 × 40 − 1, 3 = 0

M. Daoui 42 M. El Hafidi
3.4.3 Loi conditionnelle

✧ Définition 1.— Soient deux variables aléatoires discrètes X et Y respective-


ment définies sur X(Ω) et Y (Ω)). L’application P (X = xi /Y = yi ), ∀xi ∈ X (Ω)
définit la loi de probabilité conditionnelle de la variable X sachant Y = yi .
Par définition : a

P ((X = xi ) ∩ (Y = yi ))
P (X = xi /Y = yi ) = ∀xi ∈ X (Ω)
P (Y = yi )
a. Le terme P (X = xi /Y = yi ) se lit « probabilité que la variable X prenne la valeur xi
sachant que la variable Y est égale à yi ».

De façon symétrique, on peut définir la loi de probabilité de la variable Y sachant


que X = xi par :

P ((X = xi ) ∩ (Y = yi ))
P (Y = yi /X = xi ) = ∀yi ∈ Y (Ω)
P (X = xi )

Les probabilités conditionnelles, comme toute probabilité, somme à l’unité :


P
P (X = xi /Y = yi ) = 1.
xi ∈X(Ω)

✦ Propriété : Les variables aléatoires discrètes X et Y sont indépendantes


lorsque les relations suivantes sont vérifiées ∀xi ∈ X (Ω) et ∀yi ∈ Y (Ω) :

P ((X = xi ) ∩ (Y = yi )) = P (X = xi ) × P (Y = yi )

P (X = xi /Y = yi ) = P (X = xi )

P (Y = yi /X = xi ) = P (Y = yi )

➤ Exemple : On considère deux variables aléatoires indépendantes X et Y respec-


tivement définies sur X(Ω) = [a, b] et Y (Ω) = [1, 2]. On admet que :

P (X = a) = 0, 2 P (Y = 1) = 0, 7

P ((X = a) ∩ (Y = 1)) = 0, 14 P ((X = b) ∩ (Y = 1)) = 0, 56

La loi conditionnelle de X sachant que Y = 1 est définie par les probabilités sui-
vantes :
P ((X = a) ∩ (Y = 1)) 0, 14
P (X = a/Y = 1) = = = 0, 2
P (Y = 1) 0, 7

M. Daoui 43 M. El Hafidi
P ((X = b) ∩ (Y = 1)) 0, 56
P (X = b/Y = 1) = = = 0, 8
P (Y = 1) 0, 7
On vérifie que P (X = a/Y = 1) = P (X = a) et que P (X = b/Y = 1) = P (X = b).
Les probabilités conditionnelles sont égales aux probabilités marginales. C’est la
conséquence de l’hypothèse d’indépendance des variables X et Y .

✧ Définition 2.— Pour un univers des réalisations fini X(Ω) = {x1 , ..., xn },
l’espérance conditionnelle et la variance conditionnelle de la variable X
sachant que Y = yi sont définies par :
n
X
E (X/Y = yi ) = xi P (X = xi /Y = yi )
i=1

n
(xi − E (X))2 P (X = xi /Y = yi )
X
V (X/Y = yi ) =
i=1

Toutes ces définitions peuvent être généralisées au cas d’un vecteur de variables
aléatoires discrètes.

M. Daoui 44 M. El Hafidi
Chapitre 4

Lois de probabilité usuelles

Dans ce chapitre, nous présenterons les principales propriétés de certaines lois


usuelles discrètes ou continues. Nous insisterons plutôt sur le contexte d’application
de ces lois.

4.1 Lois de probabilité discrètes

4.1.1 Loi uniforme discrète

✧ Définition 1.— La loi uniforme discrète est une loi de probabilité définie
sur un support fini X(Ω) = {k1 , ..., kn }, pour laquelle toutes les réalisations sont
équiprobables. On dit que la loi de probabilité de X est uniforme si :

1
P (X = k) = ∀k ∈ X(Ω)
n

➤ Exemple : On considère une variable aléatoire X distribuée selon une loi uni-
1
forme discrète sur X(Ω) = {1, ..., 10}, alors P (X = k) = 10
∀k ∈ X(Ω). Toutes
les réalisations ont la même probabilité.

✧ Définition 2.— Si la variable aléatoire X admet une loi uniforme discrète sur
X (Ω) = [a, a + 1, ..., b − 1, b], sa fonction de répartition FX (x) = P (X ≤ x)

45
est définie,∀x ∈ R, par :



 0 si : x < a

FX (x) = x−a+1
 b−a+1
si a ≤ x ≤ b

 1

si : x > b

Rappelons qu’une fonction de répartition est toujours définie sur R, y compris dans
le cas d’une variable aléatoire discrète.

✦ Propriété : Si X admet une loi uniforme discrète sur X(Ω) = {a, a + 1, ..., b − 1, b},
alors son espérance et sa variance sont égales à :

a+b (b − a + 1)2 − 1
E (X) = V (X) =
2 12

4.1.2 Loi de Bernoulli


La loi de Bernoulli est une loi de probabilité discrète définie sur un support
fini comportant deux réalisations. La loi de Bernoulli est utilisée pour représenter
des variables aléatoires dichotomiques ou Binaires. Elle peut être appliquée à des
variables quantitatives ou à des variables qualitatives. 1

✧ Définition 1.— La variable aléatoire discrète X suit une loi de Bernoulli,


de paramètre p, alors on note X ∼ B (p), si :

P (X = k) = pk (1 − p)1−k ∀k ∈ X (Ω) = {0, 1}

Où le paramètre p est un réel vérifiant p ∈ ]0, 1[. Il est appelé probabilité de


succès a et correspond à la probabilité que X prenne une réalisation égale à 1,
c.à.d. P (X = 1) = p.
a. La valeur 1 est supposée coder le « succès » d’une expérience. Par exemple, on code 1 si
« pile » et 0 si « face » si l’on s’intéresse au résultat « pile » dans le cadre d’un lancer de pièce.

➤ Exemple : La loi de Bernoulli peut être appliquée sur des supports du type
X(Ω) = {“succès“, “échec“}, X(Ω) = {10, 35}.
1. Toutefois, il est toujours possible d’exprimer une variable dichotomique qualitative sous la
forme d’une variable quantitative en utilisant un codage (a, b) ∈ R2 .

M. Daoui 46 M. El Hafidi
✧ Définition 2.— Si la variable aléatoire discrète X suit une loi de Bernoulli,
de paramètre p ∈]0, 1[, sa fonction de répartition est définie, ∀x ∈ R,par :



 0 si : x < 0

FX (x) = 1 − p si 0 ≤ x < 1


1 si : x ≥ 1

✦ Propriété : Si X admet une loi de Bernoulli de paramètre p ∈ ]0, 1[, alors


l’espérance et la variance de X sont égales à :

E (X) = p V (X) = p (1 − p)

4.1.3 Loi binomiale


La loi binomial est une loi de probabilité discrète définie sur le support fini
X(Ω) = {0, 1, ..., n}. Cette loi correspond à une expérience aléatoire dans laquelle
on répète n fois de manière indépendante une expérience de Bernoulli avec une
probabilité de succès égale à p. On compte alors le nombre de succès, c.à.d. le nombre
de fois où la réalisation de la variable de Bernoulli est égale à 1. Le nombre total de
succès, noté X, est une variable aléatoire admettant une distribution binomiale de
paramètres n, p, notée X ∼ B(n, p).

✧ Définition 1.— La variable aléatoire discrète X définie sur X(Ω) = {0, 1, ..., n}
suit une loi binomiale B(n, p) si : a

P (X = k) = Cnk pk (1 − p)n−k ∀k ∈ X(Ω)

avec p ∈]0, 1[ et n ∈ N∗ .
a. La loi binomiale dépend du nombre de combinaisons de x éléments parmi n. Rappelons
n!
que ce nombre de combinaisons est donné par : Cnx = x!(n−x)! .

➤ Exemple : Soit X une variable aléatoire discrète définie sur X(Ω) = {0, 1, 2, 3, 4}
et telle que X ∼ B(4, 1/5). On obtient alors :

4!
P (X = 0) = C40 p0 (1 − p)4−0 = × 0, 20 × (1 − 0, 2)4−0 = 0, 84 = 0, 4096
0! × 4!

M. Daoui 47 M. El Hafidi
4!
P (X = 1) = C41 p1 (1 − p)4−1 = ×0, 21 ×(1 − 0, 2)4−1 = 4×0, 2×0, 512 = 0, 4096
1! × 3!
4!
P (X = 2) = C42 p2 (1 − p)4−2 = ×0, 22 ×(1 − 0, 2)4−2 = 6×0, 04×0, 64 = 0, 1536
2! × 2!

✧ Définition 2.— Si la variable aléatoire X suit une loi binomiale B(n, p), sa
fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R, par :




 FX (x) = 0 si x < 0
⌊x⌋


Cnk pk (1 − p)n−k si 0 ≤ x ≤ n
P
FX (x) =
k=0




FX (x) = 1 si x > n

où ⌊x⌋ désigne a le plus grand entier inférieur ou égale à x.


a. L’opérateur ⌊x⌋ est appelée le floor (étage en français). Par exemple ⌊1, 07⌋ = 1 et ⌊1⌋ = 1.

➤ Exemple : Soit X une variable aléatoire discrète définie sur X(Ω) = {0, 1, 2, 3, 4}
telle que X ∼ B(4; 1/5), alors :

⌊1⌋
X
FX (1) = P (X = k) =P (X = 0) + P (X = 1) = 0, 8192
k=0

puisque ⌊1⌋ = 1. De même, façon :

⌊1,58⌋ 1
X X
FX (1, 58) = P (X = k) = P (X = k) =FX (1) = 0, 8192
k=0 k=0

puisque ⌊1, 58⌋ = 1.

On comprend aisément que le calcul de FX (x) soit relativement fastidieux notam-


ment lorsque x et/ou n sont grands. C’est pourquoi lorsque l’on souhaite obtenir
des probabilités cumulées d’une loi binomiale, on utilise des tables statistiques de
la loi binomiale. Plusieurs tables de la loi binomiale figure en annexe de ce cours
(Annexes .1, .2 et .3) : chaque table correspond à une valeur de n (n = 10, n = 20,
n = 25 et n = 50). Pour chaque table sont reportées différentes valeurs de la pro-
babilité p (de 0, 05 à 0, 3). Sur les lignes de chaque table figure une valeur k variant
de 0 à n. Pour une valeur de n (une table), une valeur p (colonne) et une valeur
de k (ligne), on trouve la probabilité cumulée P (X ≤ k) associée à la loi X ∼ B(n, p).

M. Daoui 48 M. El Hafidi
✦ Propriété 1 : Si X admet une loi de Binomial B(n, p), alors l’espérance et
la variance d’une loi binomiale B(n, p) sont égales à l’espérance et la variance d’une
loi de Bernoulli multipliées par n :

E (X) = np V (X) = np (1 − p)

✦ Propriété 2 : Soient Z1 , ..., Zn des variables de Bernoulli (p) indépendantes


avec p ∈]0, 1[, alors :
n
X
Zi ∼ B (n, p)
i=1

Cette propriété implique que la loi binomiale est additive.

✦ Propriété 3 : Soient X et Y deux variables aléatoires discrètes indépendantes


telles que X ∼ B (n, p) et Y ∼ B (m, p), alors :

X + Y ∼ B (n + m, p)

Propriété 4 : Soit X une variable aléatoire telle que X ∼ B (n, p). Si n > 5 et si :
s s !
1 1−p p
√ − < 0, 3
n p 1−p

alors l’approximation de la loi binomiale par la loi normale peut être appliquée :

X ≈ N (np, : np (1 − p))

où le symbole ≈ signifie « approximativement distribué » selon et le symbole N


désigne la loi normale.

4.1.4 Loi géométrique


La loi géométrique est une loi de probabilité discrète pouvant être définie soit
sur l’ensemble des entiers N, soit sur l’ensemble des entiers non nuls N∗ .
Lorsqu’elle est définie sur N∗ , la loi géométrique de paramètre p correspond à l’ex-
périence aléatoire qui consiste à répéter de manière indépendante une expérience de
Bernoulli avec une probabilité de succès égale à p jusqu’au premier succès. Soit X
la variable qui correspond au rang du premier succès : ce rang est nécessairement

M. Daoui 49 M. El Hafidi
supérieur ou égale à 1 et inférieur ou égale à n, donc X ∈ X(Ω) = {1, 2, ..., n, ...}.
La variable X admet une distribution géométrique de paramètre p notée X ∼ G (p).
Lorsqu’elle est définie sur N , la loi géométrique correspond à la distribution du
nombre d’échecs peut être égale à 0 en cas de réussite à la première expérience de
Bernoulli. La variable Y ∈ Y (Ω) = {0, 1, ..., n, ...} est distribuée selon une loi
géométrique de paramètre p, notée de la même façon Y ∼ G (p).

✧ Définition 1.— La variable aléatoire discrète X définie sur X(Ω) = N suit


une loi géométrique G(p) si :

P (X = k) = (1 − p)k p ∀x ∈ N

Si cette variable est définie sur X(Ω) = N∗ , alors :

P (X = k) = (1 − p)k p ∀x ∈ N∗

où la probabilité de succès p est un réel vérifiant p ∈ ]0, 1].

La loi géométrique représente le nombre d’épreuves de Bernoulli indépendantes de


même paramètre p nécessaires à l’obtention d’un succès. Le nom de loi géométrique
provienne du fiat que les probabilités forment une progression géométrique.

On remarque que la loi géométrique peut être définie pour une probabilité de succès
p égale à 1, mais pas pour une probabilité nulle.

✧ Définition 2.— Si la variable aléatoire X suit une loi géométrique G(p) sur
X(Ω) = N, sa fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R,
par : 
 0 si x < 0
FX (x) =  ⌊x⌋+1
1 − (1 − p) si ≥ 0

Si cette variable est définie sur X(Ω) = N∗ , sa fonction de répartition devient :



 0 si x < 1
FX (x) = 
1 − (1 − p)⌊x⌋ si ≥ 1

M. Daoui 50 M. El Hafidi
où ⌊x⌋ désigne le plus grand entier inférieur ou égale à x.

Pour les deux définitions de la fonction de répartition on vérifie toujours que


lim FX (x) = 1.
x→∞

➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle
que X ∼ G(0, 1), alors :

P (X ≤ 1) = FX (1) = 1 − (1 − 0, 1)⌊1⌋+1 = 1 − 0, 92 = 0, 19

P (X ≤ 1, 2) = FX (1, 2) = 1 − (1 − 0, 1)⌊1,2⌋+1 = 1 − 0, 92 = 0, 19

✦ Propriété : Si X admet une loi de Binomial G(p) définie sur X(Ω) = N, alors :

1−p 1−p
E (X) = V (X) =
p p2

Si cette loi est définie sur X(Ω) = N∗ alors :

1 1−p
E (X) = V (X) =
p p2

4.1.5 Loi de Poisson


La loi de Poisson est une loi de probabilité discrète définie sur l’ensemble des
entiers N. Cette loi est notamment utilisée pour représenter un nombre d’événements
se produisant dans un laps de temps donné. Dit autrement, c’est une loi permettant
de modéliser des variables de comptage. Elle est généralement utilisée pour mo-
déliser les phénomènes d’occurrence rare (par exemple le nombre de voitures
arrivant à un péage pendant un intervalle de quelques minutes, le nombre de panne
d’une machine sur une période donnée, etc).

✧ Définition 1.— La variable aléatoire discrète X définie sur X(Ω) = N suit


une loi de Poisson de paramètre λ, notée P(λ), avec λ ∈ R∗+ , si :

λx
P (X = x) = e−λ ∀x ∈ N
x!

M. Daoui 51 M. El Hafidi
➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle que
X ∼ P (0, 2), alors :

0, 20
P (X = 0) = e−0,2 = e−0,2 = 0, 8187
0!

0, 21
P (X = 1) = e−0,2 = e−0,2 × 0, 2 = 0, 1637
1!
0, 22 0, 4
P (X = 2) = e−0,2 = e−0,2 × = 0, 0164
2! 2

✧ Définition 2.— Si la variable aléatoire X admet une loi P(λ) sur X(Ω) =
N, sa fonction de répartition FX (x) = P (X ≤ x) est définie, ∀x ∈ R, par
FX (x) = 0, si x < 0 et :

⌊x⌋ ⌊x⌋ i
−λ λ
X X
FX (1) = P (X = i) = e ∀x ≥ 0
i=0 i=0 i!

où ⌊x⌋ désigne le plus grand entier inférieur ou égale à x.

➤ Exemple : Soit Y une variable aléatoire discrète définie sur Y (Ω) = N telle que
X ∼ P(0, 2). Calculons les probabilités P (X ≤ 1) et P (X ≤ 1, 27).

⌊1⌋ 1
X X
FX (1) = P (X ≤ 1) P (X = i) = P (X = i)
i=0 i=0

= P (X = 0) + P (X = 1) = 0, 9824
⌊1,27⌋ 1
X X
FX (1, 27) = P (X ≤ 1, 27) P (X = i) = P (X = i)
i=0 i=0

= P (X = 0) + P (X = 1) = FX (1) = 0, 9824

De la même façon que pour la loi binomiale, le calcul des probabilités cumu-
lées FX (x) dans le cas de la loi de Poisson peut s’avérer fastidieux lorsque x est
élevé. On utilise alors les tables statistiques de la loi de Poisson. Les tables statis-
tiques figurent dans l’annexe .4 de ce cours pour différentes valeurs du paramètre
λ comprise entre 0, 1 et 10. Pour chaque λ sont affichées les probabilités cumulées
P (X ≤ x) obtenues pour différentes valeurs de x allant de 0 à 7 ou de 0 à 30 suivant

M. Daoui 52 M. El Hafidi
les cas.

✦ Propriété 1 : Si X admet une loi de Poisson de paramètre λ > 0, alors l’espé-


rance et la variance de X sont égales à :

E (X) = λ V (X) = λ

✦ Propriété 2 : Si les variables X1 , ..., Xn sont indépendantes et sont telles que


Xi ∼ P (λi ) avec λi > 0 pour i = 1, ..., n alors :

n n
Xi ∼ P (λ)
X X
avec λ = λi
i=1 i=1

La somme de variables de Poisson est distribuée selon une Loi de Poisson.

4.2 Lois de probabilité continues

4.2.1 Loi uniforme continue


La loi uniforme continue est une loi de probabilité continue définie sur un
intervalle [a, b] ⊂ R et caractérisée par une fonction de densité constante pour
toutes les valeurs réelles x ∈ [a, b]. Dans ce cas l’idée d’équiprobabilité de la loi
uniforme continue se traduit par le fait que tous les intervalles de même longueurs
inclus dans le support [a, b] ont la même probabilité. Si X suit une loi uniforme
continue sur le segment [a, b], on note : X ∼ U[a,b] .

✧ Définition 1.— Soient deux valeurs réelles a et b, telles que b ≥ a.


La variable aléatoire réelle X suit une loi uniforme continue sur le support
X(Ω) = [a, b] si sa fonction de densité est définie par :

1
fX (x) = ∀x ∈ X (Ω)
b−a

Rappelons que fX (x) = 0 si x ∈


/ X (Ω) = [a, b]. Dans le cas particulier où a = 0 et
b = 1, on parle de loi uniforme (continue) standard.

➤ Exemple : Considérons une variable aléatoire X distribuée selon une loi uni-

M. Daoui 53 M. El Hafidi
1
forme continue sur X(Ω) = [0, 20], sa fonction de densité est définie par fX (x) = 20
,
∀x ∈ [0, 20] et fX (x) = 0 si ∀x ∈
/ [0, 20].

✧ Définition 2.— Si la variable aléatoire réelle X admet une loi uniforme


continue sur X(Ω) = [a, b], sa fonction de répartition FX (x) = P (X ≤ x) est
définie par ∀x ∈ R :




 0 si x < a

FX (X) =  x−a
b−a
si a ≤ x ≤ b



 1 si x > b

✦ Propriété : Si X admet une loi uniforme continue sur X(Ω) = [a, b], alors
l’espérance et la variance de X sont égales à :

a+b (b − a)2
E (X) = V (X) =
2 12

4.2.2 Loi exponentielle


La loi exponentielle correspond au temps mesuré entre des événements issus
d’un processus de Poisson, c.à.d. un processus continu de comptage dans lequel
les événements arrivent de façon continue et indépendamment les uns des autres
avec une intensité constante. Cette loi exponentielle permet de modéliser la durée
de vie d’un phénomène.

La fonction de densité de la loi exponentielle dépend d’un paramètre réel θ stricte-


ment positif (θ > 0), appelé intensité.

✧ Définition 1.— La variable aléatoire X suit une loi exponentielle de pa-


ramètre λ ∈ R+ +
∗ sur X = (Ω) = R∗ , notée X ∼ E(θ), si sa fonction de densité est
définie par :
fX (x) = θe−θx ∀x ∈ R+

✧ Définition 2.— Si la variable aléatoire X admet une loi exponentielle de pa-


ramètre θ > 0 sur X(Ω) = R+ , sa fonction de répartition FX (x) = P (X ≤ x)

M. Daoui 54 M. El Hafidi
est définie par : 

 0 si x ≥ 0
FX (x) = 
 1 − e−θx si x ≥ 0

✦ Propriété : Si X suit une loi exponentielle de paramètre θ > 0, alors l’espérance


et la variance de X sont égales à :

1 1
E (X) = V (X) =
θ θ2

4.2.3 Loi normale


La loi normale, ou loi de Laplace-Gauss, est une loi de probabilité continue
définie sur l’ensemble de réels R. La densité de la loi normale dépend d’un paramètre
de location (qui correspond à son espérance) noté µ et d’un paramètre d’échelle (
qui correspond à sa variance) noté σ 2 .

✧ Définition 1.— La variable aléatoire réelle X suit une loi normale d’espé-
rance µ et de variance σ 2 , notée N (µ, σ 2 ), si sa fonction de densité est définie sur
X(Ω) = R par :
1 1 x−µ 2
fX (x) = √ e− 2 ( σ ) ∀x ∈ R
σ 2π
avec µ ∈ R et σ ∈ R+
∗.
Le symbole π renvoi au nombre π égal à approximativement 3, 1415.
La loi normale est parfois notée sous la forme X ∼ N (µ, σ) où σ désigne l’écart-
type de la distribution de X.

✦ Propriétés : Si la variable aléatoires réelle X suit une loi normale N (µ, σ 2 ) alors
sa fonction de densité vérifie les propriétés suivantes :
(i) lim fX (x) = lim fX (x) = 0.
x→+∞ x→−∞

(ii) fX (µ + x) = fX (µ − x) , ∀x ∈ R.
(iii) fX (x) atteint son maximum en x = µ.
La propriété (ii) signifie que l fonction de densité de la loi normale est symétrique
par rapport à son espérance µ.

M. Daoui 55 M. El Hafidi
Parmi les lois normales générales, on distingue la loi normale centrée réduite ou
loi normale standard, d’espérance nulle et de variance égale à 1. On admet que :

X −µ
X ∼ N (µ, σ 2 ) ⇔ ∼ N (0, 1)
σ

✧ Définition 2.— La variable réelle X suit une loi normale centrée réduite
N (0, 1) si sa fonction de densité est définie par :

1 x2
ϕ(x) = √ e− 2 ∀x ∈ R

✧ Définition 3.— Si la variable aléatoire réelle X admet une loi normale


N (µ, σ 2 ), sa fonction de répartition FX (x) = P (X ≤ x) est définie sur ∀x ∈ R
par : Z x Z x
1 1 z−µ 2
FX (x) = fX (z) dz = √ e− 2 ( σ ) dz
−∞ −∞ σ 2π

Supposons que X ∼ N (µ, σ 2 ) et que l’on veuille calculer FX (c) = P (X ≤ c) où c


est une valeur réelle. On peut alors exprimer cette probabilité cumulée à l’aide de
la fonction de répartition ϕ (.) de la loi N (0, 1).

X −µ c−µ c−µ
   
FX (c) = P (X ≤ c) = P ≤ =ϕ
σ σ σ

➤ Exemple : Soit X une variable aléatoire réelle telle que X ∼ N (0, 6; 4). Calculons
la probabilité cumulée P (X ≥ −0, 5).
!
X − 0, 6 −0, 5 − 0, 6
FX (−0, 5) = P (X ≤ −0, 5) = P √ ≤ √ = ϕ (−0, 55)
4 4

Si l’on admet que ϕ (−0, 55) = 0, 2912 on obtient P (X ≤ −0, 5) = 0, 2912.

Comment calculer une probabilité cumulée pour une loi normale centrée réduite
à partir de la table statistique ? La table statistique de la loi normale centrée et
réduite (Annexe .5) permet de déterminer la probabilité cumulée ϕ (z) pour un
certain nombre de valeurs réelles z. La valeur de z est reconstruite par addition

M. Daoui 56 M. El Hafidi
des valeurs reportées en lignes (allant de 0 à 0, 09 par pas de 0, 01) et des valeurs
reportées en colonne (allant de 0 à 2, 9 par pas de 0, 1). Par exemple, si l’on souhaite
calculer la probabilité cumulée ϕ (1, 67) on décompose la valeur 1, 67 en une somme
1, 6 + 0, 07. En considérant la ligne correspondant à la la valeur 1, 6 et la colonne
correspondant à la valeur 0, 07, on trouve à l’intersection la valeur de la probabilité
cumulée ϕ (1, 67) = 0, 952540.

On constate que les réalisations z reportées dans la table statistique de l’annexe


.5 sont toutes positives. dès lors, comment calculer une probabilité cumulée du type
ϕ(−0, 7) ? On utilise pour cela la propriété suivante.

✦ Propriété 1 : Puisque la densité de la loi normale centrée réduite N (0, 1)


est symétrique par rapport à son espérance égale à 0, on a :

ϕ(0) = 0, 5

ϕ(−x) = 1 − ϕ(x) ∀x ∈ R

➤ Exemple : On suppose que X ∼ N (0, 6 ; 4), déterminons les probabilités


P (X ≥ 1, 86) et P (X ≤ −0, 22) à partir de la table statistique de la loi normale
centrée et réduite.
P (X ≥ 1, 86) = 1 − P (X ≤ 1, 86)
!
X − 0, 6 1, 86 − 0, 6
=1−P √ ≤ √
4 4
= 1 − ϕ (0, 63) = 1 − 0, 735653 = 0, 264347

✦ Propriété 2 : Par définition, l’espérance et la variance sont égales aux para-


mètres de la loi :
E(X) = µ V(X) = σ 2

La loi normale est une distribution symétrique par rapport à E(X).

✦ Propriété 3 : Soit une variable aléatoire réelle X ∼ N (µ, σ 2 ) et soient deux


constantes (a, b) ∈ R2 , alors :

a + bX ∼ N (a + bµ, b2 σ 2 )

M. Daoui 57 M. El Hafidi
Ainsi, la transformée linéaire d’une variable normalement distribuée suit une loi
normale. Puisque l’espérance est un opérateur linéaire et la variance est un opérateur
quadratique, les moments de cette loi sont définies par :

E(a + bX) = a + bE(X) = a + bµ

V(a + bX) = b2 V(X) = b2 σ 2

✦ Propriété 4 : Soient X1 , ..., Xn des variables aléatoires réelles indépendantes


telles que Xi ∼ N(µi , σi2 ) pour i = 1, ..., n. Alors :

n  
Xi2 ∼ N µ, σ 2
X

i=1

n n
µi et σ 2 = σi2
P P
avec µ =
i=1 i=1

M. Daoui 58 M. El Hafidi
Annexe 1 : Table statistique de la loi binomiale

P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)

M. Daoui 59 M. El Hafidi
Annexe 2 : Table statistique de la loi binomiale (suite)

P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)

M. Daoui 60 M. El Hafidi
Annexe 3 : Table statistique de la loi binomiale (suite)

P ( X = k ) = C nk p k (1 − p) n − k
(k le nombre d’occurrences parmi n)

M. Daoui 61 M. El Hafidi
Annexe 4 : Table statistique de la loi de Poisson

µk
P( X = k ) = e − µ
k!

(µ le nombre d’occurrences moyen)

M. Daoui 62 M. El Hafidi
Annexe 5 : Table statistique de la loi normale centrée réduite
Probabilité qu'une variable aléatoire continue suivant une loi normale standard (ou centrée réduite) soit inférieure au seuil z.

1 −z2 2
p( z) = e

-∞ 0 z +∞
1
z
N(z) N ( z ) = ∫ p( z )dz
−∞

0
-∞ 0 z +∞
La table ci-dessous présente les valeurs pour z positif. Pour z négatif la valeur est N(z) = 1-N(-z)
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,500000 0,503989 0,507978 0,511966 0,515953 0,519939 0,523922 0,527903 0,531881 0,535856
0,1 0,539828 0,543795 0,547758 0,551717 0,555670 0,559618 0,563559 0,567495 0,571424 0,575345
0,2 0,579260 0,583166 0,587064 0,590954 0,594835 0,598706 0,602568 0,606420 0,610261 0,614092
0,3 0,617911 0,621720 0,625516 0,629300 0,633072 0,636831 0,640576 0,644309 0,648027 0,651732
0,4 0,655422 0,659097 0,662757 0,666402 0,670031 0,673645 0,677242 0,680822 0,684386 0,687933
0,5 0,691462 0,694974 0,698468 0,701944 0,705401 0,708840 0,712260 0,715661 0,719043 0,722405
0,6 0,725747 0,729069 0,732371 0,735653 0,738914 0,742154 0,745373 0,748571 0,751748 0,754903
0,7 0,758036 0,761148 0,764238 0,767305 0,770350 0,773373 0,776373 0,779350 0,782305 0,785236
0,8 0,788145 0,791030 0,793892 0,796731 0,799546 0,802337 0,805105 0,807850 0,810570 0,813267
0,9 0,815940 0,818589 0,821214 0,823814 0,826391 0,828944 0,831472 0,833977 0,836457 0,838913
1,0 0,841345 0,843752 0,846136 0,848495 0,850830 0,853141 0,855428 0,857690 0,859929 0,862143
1,1 0,864334 0,866500 0,868643 0,870762 0,872857 0,874928 0,876976 0,879000 0,881000 0,882977
1,2 0,884930 0,886861 0,888768 0,890651 0,892512 0,894350 0,896165 0,897958 0,899727 0,901475
1,3 0,903200 0,904902 0,906582 0,908241 0,909877 0,911492 0,913085 0,914657 0,916207 0,917736
1,4 0,919243 0,920730 0,922196 0,923641 0,925066 0,926471 0,927855 0,929219 0,930563 0,931888
1,5 0,933193 0,934478 0,935745 0,936992 0,938220 0,939429 0,940620 0,941792 0,942947 0,944083
1,6 0,945201 0,946301 0,947384 0,948449 0,949497 0,950529 0,951543 0,952540 0,953521 0,954486
1,7 0,955435 0,956367 0,957284 0,958185 0,959070 0,959941 0,960796 0,961636 0,962462 0,963273
1,8 0,964070 0,964852 0,965620 0,966375 0,967116 0,967843 0,968557 0,969258 0,969946 0,970621
1,9 0,971283 0,971933 0,972571 0,973197 0,973810 0,974412 0,975002 0,975581 0,976148 0,976705
2,0 0,977250 0,977784 0,978308 0,978822 0,979325 0,979818 0,980301 0,980774 0,981237 0,981691
2,1 0,982136 0,982571 0,982997 0,983414 0,983823 0,984222 0,984614 0,984997 0,985371 0,985738
2,2 0,986097 0,986447 0,986791 0,987126 0,987455 0,987776 0,988089 0,988396 0,988696 0,988989
2,3 0,989276 0,989556 0,989830 0,990097 0,990358 0,990613 0,990863 0,991106 0,991344 0,991576
2,4 0,991802 0,992024 0,992240 0,992451 0,992656 0,992857 0,993053 0,993244 0,993431 0,993613
2,5 0,993790 0,993963 0,994132 0,994297 0,994457 0,994614 0,994766 0,994915 0,995060 0,995201
2,6 0,995339 0,995473 0,995604 0,995731 0,995855 0,995975 0,996093 0,996207 0,996319 0,996427
2,7 0,996533 0,996636 0,996736 0,996833 0,996928 0,997020 0,997110 0,997197 0,997282 0,997365
2,8 0,997445 0,997523 0,997599 0,997673 0,997744 0,997814 0,997882 0,997948 0,998012 0,998074
2,9 0,998134 0,998193 0,998250 0,998305 0,998359 0,998411 0,998462 0,998511 0,998559 0,998605

Pour les valeurs de z supérieures à 3 :


z 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,8 4,0 4,5
N(z) 0,998650 0,999032 0,999313 0,999517 0,999663 0,999767 0,999841 0,999928 0,999968 0,999997

M. Daoui 63 M. El Hafidi
Bibliographie

[1] Anderson D., Sweeney D., Camm J., Williams T., Borsenberger C. & Cochran
J. (2015). Statistiques pour l’économie et la gestion. De Boeck.
[2] Cantoni E., Huber P. & Ronchetti E. (2009). Maîtriser l’aléatoire : Exercices
résolus de probabilités et statistique. Springer.
[3] Goldfarb B. & Pardoux C. (2011). Introduction à la méthode statistique - 6e
éd. : Économie, gestion. Dunod.
[4] Lecoutre J. (2015). TD Statistique et probabilités - 6e édition. Dunod.
[5] Lecoutre J. (2016). Statistique et probabilités - 6e éd. : Cours et exercices cor-
rigés. Dunod.
[6] Reischer C., Leblanc R. & Rémillard B. (2002). Théorie des Probabilités : Pro-
blèmes et Solutions. Presses de l’Universite du Quebec.
[7] Ross S. (2007). Initiation aux probabilités. Presses polytechniques et universi-
taires romandes.

64

View publication stats

Vous aimerez peut-être aussi