0% ont trouvé ce document utile (0 vote)
825 vues54 pages

Proba Stat

Ce document présente un polycopié de cours sur les probabilités et les statistiques. Il aborde des sujets tels que l'analyse combinatoire, le calcul des probabilités, les variables aléatoires et les lois de probabilités usuelles.

Transféré par

ahlem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
825 vues54 pages

Proba Stat

Ce document présente un polycopié de cours sur les probabilités et les statistiques. Il aborde des sujets tels que l'analyse combinatoire, le calcul des probabilités, les variables aléatoires et les lois de probabilités usuelles.

Transféré par

ahlem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE DE MOSTAGANEM ABDELHAMID IBN

BADIS

Faculté des Sciences Exactes et de l’Informatique

Département de Mathématiques-Informatique

Polycopié du cours Probabilités et Statistiques

Aueur: GHEZZAR Mohammed Amine

Mars 2018
Table des matiéres

1 L’analyse combinatoire 6
1.1 Théorie des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 La complémentarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Ensembles disjoints . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Réunion de deux ensembles . . . . . . . . . . . . . . . . . . . . . . 7
1.1.5 Intersection de deux ensembles . . . . . . . . . . . . . . . . . . . . 7
1.1.6 La différence de deux ensembles . . . . . . . . . . . . . . . . . . . . 8
1.1.7 Le cardinal d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.8 Une application entre deux ensembles . . . . . . . . . . . . . . . . . 9
1.2 Généralités sur l’analyse combinatoire . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 L’ensemble étudié : éléments discernables et éléments indiscernables 9
1.2.2 Les différentes dispositions . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Principe multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Les paires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5 Les multiplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.6 Arrangement avec répétition . . . . . . . . . . . . . . . . . . . . . . 11
1.2.7 Arrangement sans répétition . . . . . . . . . . . . . . . . . . . . . . 12
1.2.8 Permutation sans répétition . . . . . . . . . . . . . . . . . . . . . . 12
1.2.9 Permutation avec répétition . . . . . . . . . . . . . . . . . . . . . . 12
1.2.10 Combinaison sans répétition . . . . . . . . . . . . . . . . . . . . . . 12
1.2.11 Combinaison avec répétition . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Exercices sur l’analyse combinatoire et calculs simples de probabilités . . . 13
1.4 Corrigés des exercices d’analyse combinatoire et calculs simples de proba-
bilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2
3

2 Le calcul des probabilités 19


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Notion d’évènement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Définition et Mesure de la probabilité dans le cas Ω fini . . . . . . . . . . . 20
2.4 Définition axiomatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . 24
2.5.2 Probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.3 Evènements indépendants . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Le théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.8 Exercices sur les Probabilités totales et théorème de Bayes . . . . . . . . . 29
2.9 Corrigés des exercices des probabilités totales et théorème de Bayes . . . . 34

3 Variables aléatoire 41
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Les variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3 Les Variables Aléatoires Continues . . . . . . . . . . . . . . . . . . . . . . 43
3.3.1 Fonction de densité de probabilité . . . . . . . . . . . . . . . . . . . 43
3.3.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Variables aléatoires à deux dimensions . . . . . . . . . . . . . . . . . . . . 45
3.4.1 Les variables aléatoires discrètes à deux dimensions . . . . . . . . . 45
3.4.2 Les variables aléatoires continues bidimensionnelles . . . . . . . . . 46
3.5 Les Paramètres centrales d’une variable alèatoires . . . . . . . . . . . . . . 47
3.5.1 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2 Variance d’une distribution de probabilités . . . . . . . . . . . . . . 48

4 Lois de probabilités usuelles 49


4.1 Distribution binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.2 La loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Distribution de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Distribution de probabilités . . . . . . . . . . . . . . . . . . . . . . 51
4.3 La loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.1 Propriétés de la distribution normale . . . . . . . . . . . . . . . . . 52
4.4 Approximation par des lois normales . . . . . . . . . . . . . . . . . . . . . 52
4.4.1 Théorème central limite (ou de tendance normale) . . . . . . . . . . 52
4.4.2 Quelques exercices types . . . . . . . . . . . . . . . . . . . . . . . . 53
Avant-propos

Ce document est un support de cours pour l’enseignement des probabilités et des statis-
tiques. Il traite de l’analyse combinatoire, le calcul des probabilités, et des lois de proba-
bilités d’usage courant.
Ce support correspond approximativement aux enseignements des étudiants en licence
et master mathématiques ainsi que que les étudiants en 3ième année licence en Informa-
tique.
Pour élaborer ce document, je me suis appuyé sur différentes références, des ouvrages
reconnus dans la discipline, mais aussi des ressources en ligne qui sont de plus en plus
présents aujourd’hui dans la diffusion de la connaissance. Ces cours et travaux dirigés on
été dispensés au Département de Mathématiques-Informatique de la Faculté des Sciences
Exactes et de l’Informatique à l’Université Abdelhamid Ibn Badis de Mostaganem.
Enfin, ce texte n’engage que son auteur. Toutes suggestions ou commen-
taires qui peuvent l’améliorer seront les bienvenus.
[lemme]Définition

5
Chapitre 1
L’analyse combinatoire

1.1 Théorie des ensembles


Un ensemble est une collection d’objets appelés éléments.
Soit Ω un ensemble, on dit qu’un ensemble A est un sous ensemble de Ω ou une partie
de Ω, si tous les éléments de A sont éléments de Ω.
L’ensemble des parties de Ω est noté P (Ω) .

1.1.1 Inclusion
Soit E ⊂ Ω un évènement (un ensemble). E est inclus dans Ω si chaque élément e de E
appartient également à Ω.

∀e ∈ E =⇒ e ∈ Ω, alors E ⊂ Ω

Propriétés de l’inclusion

1. Transitivité : )
E⊂F
=⇒ E ⊂ F
F ⊂G

2. Réflexivité :
E ⊂ Etoujours vraie.

3. Antisymétrie : )
E⊂F
=⇒ E ≡ F
F ⊂E

6
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

L’inclusion est donc une relation d’ordre parmi les sous-ensembles de l’ensemble fon-
damental.

1.1.2 La complémentarité
Soit un sous-ensemble A de Ω. On appelle complémentaire de A par rapport à Ω, noté
A, le sous-ensemble de Ω constitué de tous les éléments qui n’appartiennent pas à A.

A = CΩA

1.1.3 Ensembles disjoints


Deux ensembles A et B sont dits disjoints s’ils n’ont pas d’éléments en commun. On
termes d’évènements, on dit que A et B sont incompatibles.

1.1.4 Réunion de deux ensembles


On appelle réunion de A et B, l’ensemble dont les éléments appartiennent soit à A, soit
à B, soit simultanément à A et B. On note généralement A ∪ B.
On a alors les propriètes suivantes :

1. )
A⊂C
=⇒ A ∪ B ⊂ C
B⊂C

2.
A ⊂ B =⇒ A ∪ B ≡ B

3. Commutativité :
A∪B ≡B∪A

4. Associativité :
(A ∪ B) ∪ C ≡ A ∪ (B ∪ C) ≡ A ∪ B ∪ C

1.1.5 Intersection de deux ensembles


Soient 2 ensembles A et B. On appelle intersection de A et B l’ensemble des éléments
qui appartiennent à la fois à A et à B. On note A ∩ B

1. Si A et B sont disjoints, alors


A ∩ B = ∅.

7
1.1. THÉORIE DES ENSEMBLES M.A. GHEZZAR

2.
A∩B ⊂A∪B

3. )
A⊂C
=⇒ A ∩ B ⊂ A ∪ B ⊂ C
B⊂C

4.
B ⊂ A =⇒ A ∩ B = B

5. Commutativité :
A∩B =B∩A

6. Associativité :
(A ∩ B) ∩ C = A ∩ (B ∩ C) = A ∩ B ∩ C

7. Distributivité à droite par rapport à la réunion :

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

et

(A ∪ B) ∩ (C ∪ D) = (A ∪ B) ∩ C) ∪ ((A ∪ B) ∩ D
= (A ∩ C) ∪ (B ∩ C) ∪ (A ∩ D) ∪ (B ∩ D)

La distributivité à gauche est valable également.

1.1.6 La différence de deux ensembles

Soient 2 ensembles A et B. On appelle la différence de A et B l’ensemble des éléments


qui appartiennent à A et n’appartiennent pas à B. On note A r B

1.1.7 Le cardinal d’un ensemble

Soit un sous ensembles A d’un ensemble fini Ω. On appelle cardinal de A, noté card (A)
le nombre d’éléments de A.

8
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

1.1.8 Une application entre deux ensembles


Soient deux ensembles E et F . Une application de E dans F est une correspondance qui
aux éléments x ∈ E associe des éléments y ∈ F.

1.2 Généralités sur l’analyse combinatoire


L’analyse combinatoire (A.C.) est le dénombrement des dispositions que l’on peut former
à l’aide des éléments d’un ensemble fini.

1.2.1 L’ensemble étudié : éléments discernables et éléments in-


discernables
Représentons les éléments d’un ensemble par e1 , e2 , ..., en .L’ensemble Ω comporte n éléments,
c.-à-d. card(Ω) = n.
Si ei et ej sont équivalents, on dit qu’ils sont indiscernables. Si ei et ej sont différents,
on dit qu’ils sont discernables.
L’ensemble Ω de n éléments peut être constitué d’éléments discernables 2 à 2. Exemple
: {a, b, c, d, e}.
Tous les éléments de Ω peuvent aussi être tous indiscernables. Exemple : {a; a; a; a; a}.
Les éléments d’un ensemble peuvent être discernables ou indiscernables. Exemple : Ω
= {a, b, a, a, c, d, d, c, a}, card(Ω) = 9.

1.2.2 Les différentes dispositions


Une disposition est l’ensemble formé d’éléments choisis parmi les n éléments de l’ensemble
étudié. Un élément figurant dans une disposition est caractérisé par :

• le nombre de fois où il figure dans l’ensemble;

• sa place dans la disposition.

Définition 1. Disposition sans répétition. C’est une disposition où un élément peut
apparaı̂tre au plus 1 fois.

Définition 2. Disposition avec répétition. Un élément peut figurer plus d’une fois.

Définition 3. Disposition ordonnée. L’ordre d’obtention d’un élément est important.

9
1.2. GÉNÉRALITÉS SUR L’ANALYSE COMBINATOIRE M.A. GHEZZAR

Définition 4. Disposition non-ordonnée. L’ordre d’obtention d’un élément n’est pas im-
portant, on n’en tient pas compte dans la caractérisation de la disposition.

Prenons un jeu de dé à 6 faces, Ω = {1; 2; 3; 4; 5; 6}. Après 3 jets, nous obtenons
A = (2, 5, 1) ; nous réitérons les jets et nous obtenons B = (5, 1, 2). A et B sont équivalents
si nous considérons que les dispositions sont non-ordonnées. En revanche, ils ne sont pas
équivalents si nous sommes dans le cadre d’une disposition non-ordonnée.

1.2.3 Principe multiplicatif

Soit ξ une expérience qui comporte 2 étapes : la 1ère qui a p résultats possibles et chacun
de ces résultats donne lieu à q résultats lors de la 2ème . Alors l’expérience ξ a p × q
résultats possibles.
On jette 3 dés identiques. Combien y-a-t-il de résultats possibles ?
le nombre de résultats possibles est : 6 × 6 × 6 = 63 .

1.2.4 Les paires

Soient 2 ensembles constitués respectivement de α éléments discernables et β éléments


discernables :
A = {a1 , a2 , a3 , ..., aα }

et
B = {b1 , b2 , b3 , ..., bβ } .

On appelle une paire une disposition de 2 éléments dont le 1er appartient à A, et le


2ème appartient à B. La paire est une disposition ordonnée, mais les 2 éléments sont de
nature différentes.
Pour décrire l’ensemble des paires possibles, il suffit de composer chaque élément de
A avec chaque élément de B. Il y a donc m = α × β paires possibles.
Combien y a-t-il de mots de 2 lettres ?
Il y a 26 lettres dans l’alphabet. On peut donc former 26×26 = 676 mots de 2 lettres.
Combien y a-t-il de mots de 2 lettres formés d’une consonne et d’une voyelle (sans
tenir compte de l’ordre) ?
Il y a 20 consonnes et 6 voyelles. Nous pouvons former 20×6 = 120 couples ”’consonne
× voyelle”’ et, 6×20 = 120 couples ”’voyelle × consonne”’. Il y a donc 240 mots possibles
formés par une consonne et une voyelle.

10
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

1.2.5 Les multiplets


Soient λ ensembles distincts formés d’éléments complètement discernables.

A = (a1 , a2 , a3 , ..., aα )
B = (b1 , b2 , b3 , ..., bβ )
C = (c1 , c2 , c3 , ..., cρ )
...
S = (s1 , s2 , s3 , ..., sλ )

On appelle multiplets une disposition ordonnée de λ éléments dont le 1er est un élément
de A, le second un élément de B,..., et le λème un élément de S.
Les multiplets sont de la forme (aiα , biβ , ciρ , ..., siλ ).
Un multiplet de λ éléments peut être considéré comme une paire où : le 1er élément
est constitué des (λ − 1) éléments, et le second élément, un élément de S.

(a, b, c, ..., s) = [(a, b, c, ...), s]

Pour obtenir le nombre de multiplets, nous pouvons raisonner par récurrence.

mλ = m(λ−1) × λ
= m(λ−2) × ρ × λ
...
= α × β × ... × λ

Quelle est la capacité d’un code constitué de mots où les 2 premiers symboles sont des
lettres de l’alphabet, et les 2 derniers symboles sont des chiffres ? Réponse :

m = 26 × 26 × 10 × 10 = 67600

1.2.6 Arrangement avec répétition


Soit Ω l’ensemble fondamental (référentiel, ensemble de référence, population mère) com-
posé de n éléments : card(Ω) = n.
Nous constituons une échantillon ω de taille p : card(ω) = p.

11
1.2. GÉNÉRALITÉS SUR L’ANALYSE COMBINATOIRE M.A. GHEZZAR

Si nous avons à choisir p éléments parmi n, la disposition étant ordonnée et avec


répétition, on dit qu’on a un arrangement de p éléments parmi n.

Apn = np

N.B. Il est possible que p > n.

1.2.7 Arrangement sans répétition


Soit Ω une population mère, avec card(Ω) = n. On constitue un échantillon de taille p, la
disposition est ordonnée et sans répétition. On dit qu’on a un arrangement sans répétition
de p éléments parmi n.
n!
Apn =
(n − p)!
Définition 5. Factorielle n, notée n! est définie par

n! = 1 × 2 × ... × n,

par convention 0! = 1.
1 Pour plus d’informations, voir http://fr.wikipedia.org/wiki/Factorielle

1.2.8 Permutation sans répétition


C’est un arrangement sans répétitions de n éléments parmi n.

n!
Pn = Ann = = n!
(n − n)!

1.2.9 Permutation avec répétition


On appelle permutation avec répétition de p éléments où n sont distincts (n 6 p), une
disposition ordonnée de l’ensemble de ces p éléments où le 1er figure p1 fois, le second p2
fois, etc., tel que p1 + p2 + ... + pn = p.

p!
P(p
p
1 ,p2 ,...)
=
p1 !p2 !...

1.2.10 Combinaison sans répétition


On considère une population mère Ω constitué de n éléments tous discernables. On forme
un échantillon de taille p. Si la disposition est non-ordonnée et sans répétition, on

12
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

dit que l’on a une combinaison sans répétition de p éléments parmi n.

n!
Cnp =
p!(n − p)!

1.2.11 Combinaison avec répétition


C’est une disposition non-ordonnée de p éléments, à choisir parmi n éléments discernables,
avec répétition.

p
Knp = Cn+p−1

Dans un jeu de domino, il y a 7 valeurs possibles {blanc, 1, 2, 3, 4, 5, 6}. Sur un domino,


2 valeurs sont inscrites, qu’importe l’ordre d’apparition des valeurs (retourner le domino
n’a aucune influence sur ce qu’elle représente). Le nombre total de dominos que nous
pouvons former est de p = 2 éléments choisis parmi n = 7, c.-à-d.

K72 = C7+2−1
2
= 28.

1.3 Exercices sur l’analyse combinatoire et calculs


simples de probabilités
Exercice 1. Dans un pays imaginaire, un numéro de téléphone comporte 5 chiffres. Il
doit commencer par 0, le second chiffre est compris entre 1 et 5, il indique la région. Les
autres chffres sont libres.
Combien de numéros de téléphones différents peut-on former dans ce pays ?

Exercice 2. Dans notre pays imaginaire ci-dessus, combien y a-t-il de numéros compor-
tant des chiffres tous différents ?

Exercice 3. On jette successivement 12 dés. On appelle ”’résultat”’ une suite ordonnée


de 12 chiffres de 1 à 6.

1. Combien y a-t-il de résultats possibles ?

2. Combien y a-t-il de résultats où chaque face est sortie 2 fois ?

13
1.3. EXERCICES SUR L’ANALYSE COMBINATOIRE ET CALCULS SIMPLES DE
PROBABILITÉS M.A. GHEZZAR

3. Combien y a-t-il de résultats où la face ”1” se retrouve 5 fois, ”2” se retrouve 3 fois,
”3” se retrouve 3 fois, et ”4” se retrouve 1 fois ?

Exercice 4. On tire 5 cartes dans un jeu de 32 cartes. Combien y a-t-il de résultats


possibles ?

Exercice 5. Quatre hommes déposent leur chapeau au vestiaire en entrant dans un restau-
rant et choisissent au hasard en sortant 1 des 4 chapeaux. Calculer les probabilités suiv-
antes.

1. Aucun des 4 hommes ne prend son propre chapeau.

2. Exactement 2 des 4 hommes prennent leur propre chapeau.

Exercice 6. Aicha et Zakaria jouent aux dés. Ils lancent tour à tour 2 dés et observent
les chiffres sortis. Quand la somme est 7 ou le produit 6, Aicha marque un point ; quand
la somme est 6 ou le produit 4, Zakaria en marque 1. Pour qui parieriez-vous ?

Exercice 7. Parmi les familles de 2 enfants, la moitié se trouve être bien répartie, c’est-
à-dire composée d’autant de garcons que de filles. En est-il de même parmi les familles de
4 enfants ? (On suppose ici que chaque naissance donne avec équiprobabilité un garçon
ou une fille.)

Exercice 8. On tire au hasard 2 cartes d’un jeu de cartes de poker (52 cartes). Quelle
est la probabilité qu’elles forment un black jack, ou autrement dit, que l’une soit un as et
l’autre un dix, un valet, une dame ou un roi?

Exercice 9. Problème posé par le Chevalier de Mérée à Pascal en 1654. Quel est
l’événement le plus probable : obtenir au moins 1 fois 1 as en lançant 4 fois un dé
ou obtenir au moins 1 fois 1 double as en lançant 24 fois 2 dés?

Exercice 10. On considère 3 événements A, B et C.

1. à l’aide d’un dessin des ensembles A, B et C, trouver une formule permettant de


calculer P (A ∪ B ∪ C) si l’on connaı̂t les probabilités de chacun de ces événements
et les probabilités des intersections de ces événements.

14
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

2. Démontrer cette formule à partir des axiomes de la théorie des probabilités.

Exercice 11. On considère une famille avec 2 enfants. On suppose que la venue d’une
fille est aussi certaine que celle d’un garçon.

1. Quelle est la probabilité que les 2 enfants soient des garçons sachant que l’aı̂né est
un garçon?

2. Quelle est la probabilité que les 2 enfants soient des garçons sachant qu’au moins
un des enfants est un garçon?

1.4 Corrigés des exercices d’analyse combinatoire et


calculs simples de probabilités
Solution 12. Les numéros de téléphones différents qu’on peut former dans ce pays sont :
Ω = {0, 1, ..., 9}; ω = {a, b, c, d, e}.
Pour les 3 derniers chiffres, le nombre d’arrangements avec répétition possible est :

A310 = 103 = 1000.

La capacité totale est

1 × 5 × A310 = 1 × 5 × 1000 = 5000.

(A pour un arrangement avec répétition).

Solution 13. Le nombre d’arrangements sans répétition possible est :

01abc → A38 = 336


02abc → A38 = 336
03abc → A38 = 336
04abc → A38 = 336
05abc → A38 = 336
Total = 1680

N.B. : Attention, dans 01abc par exemple, les chiffres (a, b et c) ne peuvent provenir
que de Ω = {2, 3, 4, 5, 6, 7, 8, 9}d’où la formule de l’arrangement A38 .
(A pour un arrangement sans répétition).

15
1.4. CORRIGÉS DES EXERCICES D’ANALYSE COMBINATOIRE ET CALCULS
SIMPLES DE PROBABILITÉS M.A. GHEZZAR
Solution 14. On jette successivement 12 dés. On appelle ”’résultat”’ une suite ordonnée
de 12 points emmenés. Ω = {1, 2, 3, 4, 5, 6}, n = card (Ω) = 6,

1. Les résultats possibles :


p = 12 éléments, ordonnés, avec répétition, donc le nombre des résultats possibles
est :
A612 = 612 = 2176782336

2. Le nombre de résultats où chaque face est sortie 2 fois est :

(2,2,2,2,2,2) 12! 479001600


P12 = = = 7484400
2!2!2!2!2!2! 2×2×2×2×2×2
(permutation avec répétition).

3. Le nombre de résultats où la face ”1” se retrouve 5 fois, ”2” se retrouve 3 fois, ”3”
se retrouve 3 fois, et ”4” se retrouve 1 fois est :

(5,3,3,1,0,0) 12! 479001600


P12 = = = 110880
5!3!3!1!0!0! 120 × 6 × 6
(permutation avec répétition).

Solution 15. Le nombre de résultats possibles est :

5 32! 28 × 29 × 30 × 31 × 32
C32 = = = 201376
5!(32-5)! 1×2×3×4×5

Solution 16. On numérote les chapeaux 1, 2, 3 et 4. Il y a 4! = 24 issues possibles



 ω1 = (1, 2, 3, 4)


ω2 = (1, 2, 4, 3)


 ...

où ω1 , ..., ω24 sont les issues possibles.

1. On compte les issues favorables, à savoir celles qui n’ont ni le 1 en 1re position, ni
le 2 en 2eme , ni le 3 en 3eme , ni le 4 en 4eme . On dénombre alors 9 issues favorables.
9 3
La probabilité est donc de = .
24 8
2. On procède de la même manière en choisissant comme issues favorables celles qui ont
exactement 2 chapeaux placés au bon endroit. On en dénombre 6 et la probabilité
6 1
est de = .
24 4

16
CHAPITRE 1. L’ANALYSE COMBINATOIRE M.A. GHEZZAR

Solution 17. Avec 2 dés de 6 faces, il y a 36 issues possibles. Aicha marque 1 point si
les dés montrent une des 8 combinaisons suivantes

(2, 3), (6, 1), (2, 5), (4, 3), (3, 2), (1, 6), (5, 2) ou (3, 4).

Zakaria marque 1 point si les dés donnent

(2, 2), (4, 1), (5, 1), (4, 2), (3, 3), (2, 4), (1, 5) ou (1, 4),

soit 8 issues favorables également. Donc

8 2
P (Aicha marque 1 point) = P (Ali marque 1 point) = = .
36 9
Les probabilités de marquer 1 point sont égales.

Solution 18. Soient F l’événement avoir une fille et G l’événement avoir un garçon .
Il y a 24 = 16 issues possibles pour une famille de 4 enfants. On dénombre 6 issues avoir
2 filles et 2 garçons :

(GGF F ), (GF GF ), (GF F G), (F GGF ), (F GF G), (F F GG),

6 3
et la probabilité cherchée est = . Il y a donc moins de familles bien réparties avec
16 8
4 enfants.

Solution 19. Le nombre d’issues possibles lorsqu’on tire 2 cartes parmi 52 est C252 . Le
nombre d’issues favorables (un 10 OU un valet OU une dame OU un roi) ET

un as est C41 × C16


1
. Ainsi

C41 × C16
1
4! × 16! × 2! × 50! 32
P (blackjack) = 2
= =
C52 3! × 15! × 52! 663

Solution 20. Soient les événements A obtenir au moins 1 as en lançant 4 fois un dé et
B obtenir au moins une paire d’as en lançant 24 fois 2 dés . Ainsi
 4
5
P (A) = 1 − P (A) = 1 − ' 0.518
6

et  24
35
P (B) = 1 − P (B) = 1 − ' 0.491.
36

17
1.4. CORRIGÉS DES EXERCICES D’ANALYSE COMBINATOIRE ET CALCULS
SIMPLES DE PROBABILITÉS M.A. GHEZZAR
L’événement le plus probable est A.

Solution 21. Soient 3 événements A, B et C.


Pour le calcul de P (A ∪ B ∪ C), on commence par additionner les probabilités P (A),
P (B) et P (C). En procédant de la sorte, on a compté une fois de trop les aires
W + X, Y + X et Z + X qu’il faut donc soustraire. Finalement, la surface X a été
additionnée 3 fois, puis soustraite 3 fois également. Pour arriver au résultat final,
il faut, par conséquent, l’ajouter encore une fois. Ainsi

P (A∪B∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (A∩C)−P (B∩C)+P (A∩B∩C).

Par les axiomes de la théorie des probabilités, on obtient le même résultat

P (A ∪ B ∪ C) = P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C)
= P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C))
= P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C).

Solution 22. Soient F l’événement avoir une fille et G l’événement avoir un garçon .
Dans une famille avec 2 enfants, il y a 4 issues possibles

(GG, GF, F G, F F ).

1. On cherche

P (GG) 1/4 1
P (GG|GF ∪ GG) = = = .
P (GF ) + P (GG) 1/4 + 1/4 2

2. Cette fois,
1
P (GG|GF ∪ F G ∪ GG) = .
3

18
Chapitre 2
Le calcul des probabilités

2.1 Introduction
Ce sont les jeux du hasard qui sont à l’origine du calcul des probabilités. Vers 1654, Pascal
et Fermat se sont confrontés au problème suivant : pourquoi en jetant 3 dés obtient-on
plus souvent la somme 11 que la somme 12 alors que avoir
la somme 11 : 146, 236, 155, 335, 443, 245.
la somme 12: 156, 246, 255, 345, 336, 444.
C’est à la suite de leur correspondance qu’est né le calcul des probabilités. Les prob-
abilités ont connu un grand essor au XIX e , mais ce n’est qu’en 1933 que grâce à Kol-
mogorov le calcul des probabilités s’inscrit enfin dans un cadre théorique rigoureux.
La découverte des théories modernes de l’imprévisibilité redonnent au calcul des prob-
abilités une place centrale dans la science.

Remarque 6. La complexité de définir la probabilité dépend de Ω, si Ω est fini ou infini


dénombrable ou infini non dénombrable.

2.2 Notion d’évènement


Une expérience aléatoire est action qui débouche sur plusieurs résultats possibles (par
exemple : tirage d’une carte, lancement d’un dé, ...). Les résultats possibles sont appelés
les éventualités ou les évènements élémentaires.
On appelle univers l’ensemble de ses éventualités, noté Ω.
Un évènement est défini comme un sous-ensemble de Ω. Il est constitué d’une ou
plusieurs éventualités.
Un évènement est dite élémentaire si elle n’est constituée que d’une seule éventualité.

19
2.3. DÉFINITION ET MESURE DE LA PROBABILITÉ DANS LE CAS
M.A.ΩGHEZZAR
FINI

les éventualités équiprobables, si ils ont la même probabilité de se réalisés


L’ensemble des évènements qui est l’ensemble des parties de Ω, on le note P (Ω) .

Remarque 7. Soit Ω un univers et soient A, B et C des évènements, on a les propriétés


suivantes :

• La complémentarité : CΩA = A, c’est la non-réalisation de l’évènement A, si bien


sûr A est réalisé.

• La réunion, la réunion de deux évènements A et B est l’évènement qui est réalisé


dès que l’un au moins des évènements A ou B l’est.

• L’Intersection, sa réalisation entraı̂ne la réalisation de A et de B.

2.3 Définition et Mesure de la probabilité dans le cas


Ω fini
Soit Ω un univers avec card (Ω) = n fini, on définit la probabilité P par

P : P (Ω) −→ R
A −→ P (A)

P (Ω) l’ensemble des parties de Ω, R l’ensemble des réels, P (A) est la probabilité de
réalisation de l’évènement A.
Soit A un évènement de Ω, constitué de nA éventualités équiprobables, avec card(A) =
nA . La probabilité de réalisation de l’évènement A est

nA
P (A) = .
n

Ω est constitué d’un jeu de 32 cartes. Il comporte 8 hauteurs {7, 8, 9, 10, J, D, K, A}.
Dans chaque hauteur, il y a 4 couleurs {pique, coeur, carreau, tref le}.

4
P (tirer la hauteur 7) =
32

7
P (tirer la couleur pique) =
32
Maintenant, si nous lançons un dé à 6 faces, les résultats possibles sont {1, 2, 3, 4, 5, 6}.

20
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

L’obtention de la face ”1” constitue un évènement. La ”chance” d’avoir la face ”1”


1
est de . C’est la probabilité d’avoir cette face. Il en est de même pour chacune des
6
faces du dé.

Axiomes de Kolmogorov
L’application P est restreinte par 3 axiomes, dites ”axiomes de Kolmogorov”.

• La positivité Toute probabilité de réalisation d’un évènement est toujours positif.

∀E ⊂ Ω, P (E) > 0.

• La certitude P (Ω) = 1, on dit que Ω est un évènement certain. (La probabilité


est normée, c.-à-d. 0 6 P 6 1).

• L’additivité Si E et F sont incompatibles (E ∩ F = ∅), alors P (E ∪ F ) = P (E) +


P (E).

1. L’évènement impossible : La probabilité de l’évènement impossible est nulle.


c-à-d: P (∅) = 0.

2. La probabilité d’un évènement complémentaire :. Soit, E le complémentaire



E, P E = 1 − P (E)

3. Probabilité et Réunion : Soient deux évènements E et B tels que E ∩ B 6= ∅,


alors P (E ∪ B) = P (E) + P (B) − P (E ∩ B) .

4. Probabilité et inclusion :. Si B ⊂ E, alors P (B) 6 P (E) .

Preuve

1. Soit un évènement quelconque E. On sait que


(
E∩∅=∅
E ∪ ∅ = E,

(tout évènement est incompatible avec l’évènement impossible).

A partir de l’axiome d’additivité de Kolmogorov,

P (E ∪ ∅) = P (E) + P (∅)

21
2.3. DÉFINITION ET MESURE DE LA PROBABILITÉ DANS LE CAS
M.A.ΩGHEZZAR
FINI

puisque E ∪ ∅ = E, alors
P (E ∪ ∅) = P (E)

donc
P (E) + P (∅) = P (E) .

Par conséquent,
P (∅) = 0.

2. On a E ∪ E = Ω et E ∩ E = ∅, grâce à l’axiome d’additivité de Kolmogorov

 
P E ∪ E = P (E) + P E

car E ∩ E = ∅ et


P E∪E = P (Ω)
= 1

implique

P (E) + P E = 1.

Par conséquent,

P E = 1 − P (E) .

3. On définit G tel que G = E∩F . On en déduit que E∩G = ∅. En effet, E∩E∩F = ∅.


E et G sont incompatibles.

On peut aussi déduire que


E∪G = E∪ E∩F

= E ∪ E ∩ (E ∪ F )
= Ω ∩ (E ∪ F )
= E ∪ F.

et
P (E ∪ G) = P (E) + P (G) = P (E ∪ F )

alors
P (G) = P (E ∪ F ) − P (E) .

22
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

Considérons maintenant les évènements G et E ∩ F . Ils sont incompatibles c.-à-d.

G ∩ (E ∩ F ) = ∅.

On constate aisément que

G ∪ (E ∩ F ) = F,
P (G ∪ (E ∩ F ) = F ) = P (F ) = P (G) + P (E ∩ F )

alors
P (G) = P (F ) − P (E ∩ F )

Avec (
P (G) = P (E ∪ F ) − P (E)
P (G) = P (F ) − P (E ∩ F )
nous en déduisons :

P (E ∪ F ) = P (F ) + P (E) − P (E ∩ F )

d’où le résultat.

4. F ⊂ E alors E = F ∪ (E r F ) d’où

P (E) = P (F ) + P (E r F )

et
P (E r F ) > 0

d’où le résultat.

2.4 Définition axiomatique


Les fondements de la probabilité mathématique sont dus à Kolmogorov (1933). Il faut
savoir qu’en 1919 Von Mises affirmait ” le calcul des probabilités n’est pas une discipline
mathématique”.

Remarque 8. Si Ω est infini, la définition précédente n’a pas de sens.

Définition 9. Soit Ω fini ou infini dénombrable, P une application de P (Ω) dans [0, 1],
est une probabilité si et seulement si

23
2.5. PROBABILITÉS COMPOSÉES M.A. GHEZZAR

1. P (Ω) = 1.

2. ∀ (Ai )i=1...n tels que Ai ∩ Aj = ∅, ∀i 6= j

3. ∀ (Ai )i tels que Ai ∩ Aj = ∅, ∀i 6= j

Remarque 10. Dans le cas Ω infini non dénombrable, on ne peut pas forcément définir
une probabilité sur P (Ω), qui satisfasse les axiomes (1) , (2) et (3) sur P (Ω) . On est obligé
de la définir sur une famille F de P (Ω) , qui vérifie certaines propriètés :

1. Si E ∈ F, E ∈ F.

2. Si E, F ∈ F, E ∪ F ∈ F et E ∩ F ∈ F.

3. (Ai )i∈N ∈ F alors


On dit que F est un σ-algèbre.

1. P (E) + P E = 1, ∀E ∈ P (Ω) (ou F).




2. P (E ∪ F ) = P (E) + P (F ) − P (E ∩ F ) .

3. Si F ⊂ E, alors P (F ) 6 P (E) .

2.5 Probabilités composées


Les notions d’indépendance et de probabilité conditionnelle sont définis explicitement par
Abraham De Moivre (1667-1754). on lui doit également un énoncé clair et précis de la
formule des probabilités composées.

2.5.1 Probabilités conditionnelles


Soit Ω un univers (lie à une expérience aléatoire ξ), P une probabilité sur P (Ω) (ou F).
Soient A, F deux évènements, A ⊂ Ω, P (A) > 0, F ⊂ Ω et A ∩ F 6= ∅.
La probabilité de réalisation de l’évènement F lorsque l’évènement A est réalisé
s’appelle ”probabilité de F sachant A”, que l’on note P (F A).
On calcule cette probabilité de la manière suivante :

P (B ∩ E)
P (F E) =
P (E)

24
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

2.5.2 Probabilités composées

A partir du résultat précédent, nous pouvons écrire

P (B ∩ A) = P (BA) × P (A) si P (A) > 0

et
P (B ∩ A) = P (AB) × P (B) si P (B) > 0

Théorèm 11. Soit A ∈ P (Ω) (ou F) tels que P (A) > 0, P une probabilité sur P (Ω) (ou
F)
PA : P (Ω) −→ [0, 1]
B −→ PA (B) = P (BA)

est une probabilité sur P (Ω) .

2.5.3 Evènements indépendants

Soient deux évènements A, B ∈ P (Ω) (ou F), avec


(
P (A) > 0
P (B) > 0,

On dit qu’Ils sont indépendants si la réalisation de A n’affecte pas la réalisation de B, et


inversement.
On peut alors écrire

P (AB) = P (A)
P (BA) = P (B)

On dit encore que A et B sont indépendants si et seulement la probabilité de réalisation


simultanée de ces évènements est égal au produit des probabilités individuelles.

P (A ∩ B) = P (A) × P (B)

2.6 Probabilités totales


Exemple introductif

25
2.6. PROBABILITÉS TOTALES M.A. GHEZZAR

Un premier sac contient 5 boules rouges et 15 boules jaunes. un deuxième sac contient
9 boules rouges.

L’expérience aléatoire ξ :

Etape 1 : On tire au hasard une boule du 1er sac et on la remet dans le deuxième sac
sans regarder la couleur.
Etape 2 : On tire alors une boule du 2ème sac.

Question :

Quelle est la probabilité que le 2ème tirage est une boule rouge ?

Commentaire : L’expérience ξ comporte 2 étapes. Puisque la 2ème étape dépend de la


1ère alors que faut-il faire ?

Réponse

L’évènement A : ”Avoir une boule rouge au 2ème tirage”


L’évènement B1 : ”Avoir la 1ère boule rouge”
L’évènement B2 : ”Avoir la 1ère boule jaune”
B1 ∩ B2 = ∅ et B1 ∪ B2 = Ω. Alors

A = (A ∩ B1 ) ∪ (A ∩ B2 ) ,

et
P (A) = P (A ∩ B1 ) + P (A ∩ B2 ) ,

puisque (
5 1
P (B1 ) = 20
= 4
>0
15 3
P (B2 ) = 20
= 4
> 0,
on peut utiliser la formule des probabilités composées

P (A) = P (AB1 ) × P (B1 ) + P (AB2 ) × P (B2 )


1 9 3
= 1× + ×
4 10 4
= 0.925.

La généralisation par la formule des probabilités totales

Soit Ω un univers, P une probabilité sur P (Ω) (ou F).

26
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

Soient (Bi )i=1...n ∈ P (Ω) (ou F), tels que


(
P (Bi ) > 0, ∀i
Bi ∩ Bj = ∅, ∀i 6= j.

Soit A ∈ P (Ω) (ou F), on a

n
X
P (A) = P (ABi ) × P (Bi ) .
i=1

Proof. on peut écrire

alors

2.7 Le théorème de Bayes


Exemple introductif

Soit un sac contenant 6 jetons (5 jetons contiennent le numéro ”1” et un jeton contient
le numéro ”2”).
Soient deux urnes :

• La 1ère urne contient 6 boules blanches et 4 boules noires.

• La 2ème urne contient 8 boules blanches et 2 boules noires.

L’expérience aléatoire ξ :

Etape 1 : On tire au hasard un jeton du sac et on regarde le numéro que contient le


jeton.
Etape 2 : On tire alors une boule de l’urne correspondante à ce numéro.

Question :

1. Quelle est la probabilité que la boule soit blanche ?

2. Sachant que la boule est blanche, quelle est la probabilité qu’elle provienne de la
1ère urne ?

27
2.7. LE THÉORÈME DE BAYES M.A. GHEZZAR

Commentaire : La aussi l’expérience ξ comporte 2 étapes et la 2ème étape dépend de


la 1ère .

Réponse

L’évènement A : ”Avoir une boule blanche”


L’évènement U1 : ”La boule blanche provienne de la 1ère urne”
L’évènement U2 : ”La boule blanche provienne de la 2ème urne”
U1 ∩ U2 = ∅ et U1 ∪ U2 = Ω. On a donc

A = (A ∩ U1 ) ∪ (A ∩ U2 ) ,

1.

P (A) = P (A ∩ U1 ) + P (A ∩ U2 )
= P (AU1 ) × P (U1 ) + P (AU2 ) × P (U2 )
6 5 8 1 7
= × + × =
10 6 10 6 15

2. On doit calculer P (U1 A), en effet

P (A ∩ U1 )
P (U1 A) =
P (A)
P (AU1 ) × P (U1 )
=
P (A)
P (AU1 ) × P (U1 )
=
P (AU1 ) × P (U1 ) + P (AU2 ) × P (U2 )
6
× 56 7
= 6 10 5 8 1 =
10
× 6 + 10 × 6 5

La généralisation par le théorème de Bayes

Théorèm 12. Soit Ω un univers, P une probabilité sur P (Ω) (ou F).
Soient (Bi )i=1...n ∈ P (Ω) (ou F), tels que
(
P (Bi ) > 0, ∀i
Bi ∩ Bj = ∅, ∀i 6= j.

28
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

Soit A ∈ P (Ω) (ou F), on a

P (ABk ) × P (Bk )
P (Bk A) = Pn .
i=1 P (ABi ) × P (Bi )

Un appareil peut être monté avec des pièces de haute qualité (40% des cas) et avec
des pièces ordinaires (60% des cas). Dans le premier cas, sa fiabilité (probabilité de
fonctionnement) sur une durée t est égale à 0.95 ; dans le second, elle est de 0.7. L’appareil
a été soumis à un essai et s’est avéré fiable (fonctionnement sans défaillance sur la durée
de référence). Déterminer la probabilité que l’appareil soit composé de pièces de haute
qualité.

Solution :

L’évènement A : ”l’appareil a fonctionné sans défaillance”.


L’évènement B1 : ”l’appareil est composé de pièces de haute qualité”
L’évènement B2 : ”l’appareil est composé de pièces de qualité ordinaire”
(
P (B1 ) = 0.4
P (B2 ) = 0.6
On nous indique que (
P (AB1 ) = 0.95
P (AB2 ) = 0.7.
En appliquant le théorème de Bayes, On obtient :

0.4 × 0.95 0.38


P (B1 A) = = = 0.475
0.4 × 0.95 + 0.6 × 0.7 0.8

2.8 Exercices sur les Probabilités totales et théorème


de Bayes
Exercice 23. Un certain système a 5 composantes. Une panne du système est causée 35
%, 30 %, 20 %, 10 % et 5 % des fois par une panne dans les composantes A,B,C,D et
E, respectivement. On suppose que les pannes simultanées dans plus d’une composante à
la fois sont si rares qu’on peut les négliger.

29
2.8. EXERCICES SUR LES PROBABILITÉS TOTALES ET THÉORÈME DE
BAYES M.A. GHEZZAR
1. Si une panne du système n’est pas causée par A, quelle est la probabilité qu’elle soit
causée par B?

2. Si une panne du système n’est causée ni par A, ni par B, quelle est la probabilité
qu’elle soit causée par C ou D?

Exercice 24. On compte respectivement 50, 75, et 100 employés dans 3 entrepôts A, B
et C, les proportions des femmes étant respectivement égales à 50%, 60% et 70%. Une
démission a autant de chance de se produire chez tous les employés, indépendamment de
leur sexe. Une employée donne sa démission. Quelle est la probabilité qu’elle vienne de
l’entrepôt C?

Exercice 25. Tous les meilleurs joueurs du monde sont inscrits au tournoi de boxe pour
lequel le 1er prix est un Lingot d’Or. On estime a priori que Ali a 4 chances sur 10 de
gagner, Othmane 3 chances sur 10 et Omar 2 sur 10. Si par hasard Ali se blesse et annule
sa participation au dernier moment, que deviennent les chances respectives de Othmane
et Omar de remporter le Lingot d’Or ?

Exercice 26. Une compagnie d’assurance répartit les assurés en 3 classes : personnes à
bas risque, risque moyen et haut risque. Ses statistiques indiquent que la probabilité qu’une
personne soit impliquée dans un accident sur une période d’un an est respectivement de
0, 05, 0, 15 et 0, 30. On estime que 20 % de la population est à bas risque, 50 % à risque
moyen et 30 % à haut risque.

1. Quelle est la proportion d’assurés qui ont eu un accident ou plus au cours d’une
année donnée?

2. Si un certain assuré n’a pas eu d’accidents l’année passée, quelle est la probabilité
qu’il fasse partie de la classe à bas risque?

Exercice 27. Un avion est porté disparu. On pense que l’accident a pu arriver aussi
bien dans n’importe laquelle de 3 régions données. Notons par 1 − αi la probabilité qu’on
découvre l’avion dans la région i s’il y est effectivement. Les valeurs αi représentent donc
la probabilité de manquer l’avion lors des recherches. On peut l’attribuer à diverses causes
d’ordre géographique ou à la végétation propre à la région. Quelle est la probabilité que
l’avion se trouve dans la ie région (i = 1, 2, 3) si les recherches dans la région 1 n’ont rien
donné?

30
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

Exercice 28. A Mostaganem il pleut en moyenne 1 jour sur 2 et donc la météo prévoit
de la pluie la moitié des jours. Les prévisions sont correctes 2 fois sur 3, c’est-à-dire les
probabilités qu’il pleuve quand on a prévu de la pluie et qu’il ne pleuve pas quand on a
2
prévu du temps sec sont égales à . Quand la météo prévoit de la pluie, Mr. Momo prend
3
toujours son parapluie. Quand la météo prévoit du temps sec il le prend avec probabilité
1
. Calculer :
3
1. la probabilité que Mr. Momo prenne son parapluie un jour quelconque ;

2. la probabilité qu’il n’ait pas pris son parapluie un jour pluvieux ;

3. la probabilité qu’il ne pleuve pas sachant qu’il porte son parapluie.

Exercice 29. Dans 2 urnes, on peut mettre 5 boules blanches (b) et 5 boules noires
(n). On répartis les boules dans les urnes, mais on rend ensuite les urnes indiscernables
(égales). On gagne si on tire une boule blanche.

1. Quelle est la probabilité que Mohammed gagne le tirage s’il place les 4 boules blanches
dans la 1ère urne et les 5 noires dans la 2ème ?

2. Même question avec 2b + 2n dans la 1ère urne et 2b + 3n dans la 2ème .

3. Même question 3b dans la 1ère urne et 1b + 4n dans la 2ème .

4. Comment Mohammed maximise-t-il ses gains?

Exercice 30. Les opératrices d’une clinique psychiatrique sont si occupées que :

• En moyenne seuls 60 % des patients téléphonant pour la 1ère fois obtiendront une
communication avec l’un de ces opérateurs.

• On demande aux autres de laisser leur numéro de téléphone. Trois fois sur 4 un
opérateur trouve le temps de rappeler le jour même, autrement le rappel a lieu le
lendemain.

L’expérience a montré que, dans cette clinique, la probabilité que le patient demande
une consultation est de 0.8 s’il a pu parler immédiatement à un opérateur, tandis qu’elle
tombe à 0.6 et 0.4 respectivement s’il y a eu rappel du patient le jour même ou le lendemain.

1. Quel pourcentage des patients qui appellent demande une consultation?

31
2.8. EXERCICES SUR LES PROBABILITÉS TOTALES ET THÉORÈME DE
BAYES M.A. GHEZZAR
2. Quel pourcentage des patients en consultation n’a pas eu à attendre qu’on les rap-
pelle?

Exercice 31. On a à disposition 2 tests sanguins pour le dépistage du HIV : d’une part
l’ELISA, relativement bon marché (environ 20 ) et raisonnablement fiable, et d’autre
part le W esternBlot (W B), nettement meilleur mais beaucoup plus cher (environ 100 ).
Un patient vient vers vous, un médecin, avec des symptômes vous suggérant qu’il peut
être HIV -positif. Pour ce patient, le prévalence du HIV est estimée par la littérature
médicale à P (A) = P (il est HIV −positif) = 0, 01. Les données concernant des personnes
dont on connaı̂t le statut HIV apportent :

P (ELISA positif | HIV - positif) = 0, 95;


P (ELISA négatif| HIV - négatif) = 0, 98.

En utilisant le théorème de Bayes, calculer :


(
P (HIV − positif|ELISA négatif)
P (HIV − négatif|ELISA positif).

Quelle(s) conséquence(s) peut-on en tirer sur l’utilisation de l’ELISA?

Exercice 32. L’hôpital d’une petite ville du Nord-Est de l’Algérie, compte parmi ses
malades 4 % qui sont Européen, 58 % Arabe, 32% Kabyle et 6 % Africain. Sachant que 3
% des Kabyles ont un sang de rhésus négatif, ainsi que 87 % des Européens et 22 % des
populations Arabes-Africains, quelle est la probabilité pour qu’une éprouvette de sang de
rhésus négatif provienne d’un malade européen?

Exercice 33. Depuis Alger (ALG) où il habite, Ali veut se rendre à Djedda (DJE)
pour assister à une conférence. S’y étant pris un peu tard, tous les avions pour aller en
Arabie Saoudite sont presque pleins. Trois itinéraires différents et équiprobables s’offrent
à lui : passer par Tunis (T U N ),Istanbul (IST ) ou Damas (DAM ). Un agent d’accueil
à l’aéroport, a une bonne expérience et fait l’estimation suivante :

1
• la correspondance partant de T U N a une probabilité de d’être pleine ;
5
1
• celle partant de IST , une probabilité de ;
4
32
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

1
• celle partant de DAM , une probabilité de .
2
Il existe encore une possibilité supplémentaire. Si Ali décide de passer par IST (et
la liaison IST − DJE est complète), il aura le temps de prendre un train rapide qui
l’amènera à DAM à temps pour prendre le vol DAM − DJE (à condition qu’une place
soit disponible dans l’avion, bien entendu). Cinq jours plus tard, Ali rencontre Mohammed
et lui témoigne le plaisir qu’il a eu de pouvoir assister à cette conférence. Quelle est la
probabilité qu’il soit passé par DAM ?

Exercice 34. Le petit Zakaria aime beaucoup les bonbons ; il en a toujours quelques-uns
dans les poches. Manquant d’esprit de décision quant à l’arôme qu’il préfère, il procède
au jeu suivant.
Dans sa poche gauche, il met 5 bonbons à l’orange et 3 à la fraise et, dans la droite, il
en met 4 à l’orange et 2 à la fraise. Il tire ensuite une pièce et si elle donne pile, il pioche
à gauche et si elle donne f ace, il se sert à droite. La pièce est bien sûr parfaitement
équilibrée.

1. Quelle est la probabilité qu’après 2 jets, il ait mangé 2 bonbons ayant le même
parfum?

2. Il rentre ensuite chez lui et vide ses poches sur une table. Sa mère, au courant du
jeu de son fils, trouve sur la table 7 bonbons à l’orange et 5 à la fraise. Aidez-la à
trouver la séquence des 2 jets de pièce la plus probable qu’a eue Zakaria.

3. Le lendemain, Zakaria n’a plus que des bonbons à l’orange. Il en met 5 à gauche
et 2 à droite. Il passe chez l’épicier pour en acheter à la fraise. Sachant qu’il les
mettra tous dans la poche droite, combien doit-il en acheter pour qu’au prochain jet,
il soit le plus près possible d’avoir autant de chances d’en tirer un à l’orange ou à
la fraise?

Exercice 35. Un tribunal de 3 juges déclare un individu coupable lorsque 2 au moins


des 3 juges estiment que cette décision est fondée. On admettra que si l’accusé est ef-
fectivement coupable, chaque juge se prononcera dans ce sens avec probabilité 0.7, ceci
indépendamment des 2 autres. Cette probabilité tombe à 0.2 dans le cas où l’accusé est
innocent. 70 % des accusés sont coupables. Calculer la probabilité que le juge 3 vote
coupable dans chacune des situations suivantes :

1. les juges 1 et 2 l’ont fait ;

33
2.9. CORRIGÉS DES EXERCICES DES PROBABILITÉS TOTALES ET
THÉORÈME DE BAYES M.A. GHEZZAR
2. le juge 1 a voté coupable ou le juge 2 a voté coupable ;

3. les juges 1 et 2 ont voté tous deux non coupables.

2.9 Corrigés des exercices des probabilités totales et


théorème de Bayes
Exercice 36. Soit A (respectivement B, C, D et E) l’événement la panne provient de
la composante A (respectivement B, C, D et E) .

1.
P (B ∩ A)
P (B|A) =
P (A)
Puisque B ⊂ A

P (B ∩ A) P (B) 0, 3 30
= = = ' 0, 46.
P (A) 1 − P (A) 1 − 0, 35 65

2. Par le même raisonnement, (C ∪ D) ⊂ (A ∪ B). De plus, les pannes ne peuvent pas


être simultanées ce qui implique que tous les événements sont indépendants. Ainsi

P (C ∪ D) P (C) + P (D) 30
P (C ∪ D|A ∪ B) = = = ' 0, 86.
P (C ∪ D ∪ E) P (C) + P (D) + P (E) 35

Exercice 37. Soit A (respectivement B et C) l’événement l’employé travaille dans


l’entrepôt A (respectivement B et C) et F l’événement l’employé est une femme . On
trouve alors

P (F |C) × P (C)
P (C|F ) =
P (F |A) × P (A) + P (F |B) × P (B) + P (F |C) × P (C)
0.7 × 100
225 1
= 50 75 100 = .
0.5 × 225 + 0.6 × 225 + 0.7 × 225 2

Exercice 38. Soient :


l’événement A : Ali gagne le tournoi
l’événement B : Othmane gagne le tournoi
l’événement C : Omar gagne le tournoi
On cherche P (B|A). De

P (B) = P (B|A) × P (A) + P (B|A) × P (A),

34
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

on déduit 3 4
P (B) − P (B|A) × P (A) 10
− 0× 10 1
P (B|A) = = 6 = .
P (A) 10
2
De la même manière, on trouve
1
P (C|A) = .
3
Exercice 39. Soient :
l’événement A : avoir 1 accident ou plus et
l’événement B1 : appartenir à la catégorie bas risque .
l’événement B2 : appartenir à la catégorie moyen risque
l’événement B3 : appartenir à la catégorie haut risque .

1.

P (A) = P (A|B1 ) × P (B1 ) + P (A|B2 ) × P (B2 ) + P (A|B3 ) × P (B3 )


= 0.05 × 0.2 + 0.15 × 0.5 + 0.3 × 0.3 = 0.175.

2.
P (A|B1 ) × P (B1 ) 0.95 × 0.2
P (B1 |A) = = ' 0.23.
P (A) 0.825

Exercice 40. Soient Ei l’événement l’avion est dans la région i et Mi l’événement on


ne trouve pas l’avion dans la région i , avec i = 1, 2, 3. On sait que

1
P (Ei ) = et P (Mi |Ei ) = αi , i = 1, 2, 3.
3

On cherche les probabilités que l’avion se trouve dans une des 3 régions en sachant que
les recherches dans la zone 1 n’ont rien donné

P (E1 ) × P (M1 |E1 ) α1 × 13 α1


P (E1 |M1 ) = P3 = = .
i=1 P (M1 |Ei ) × P (Ei )
α1 × 13 + 31 + 1
3
α1 + 2

Dans ce calcul, on a tenu compte du fait qu’il est certain de ne pas trouver l’avion dans la
zone 1 si ce dernier se trouve en réalité dans les zones 2 ou 3 (P (M1 |E2 ) = P (M1 |E3 ) =
1). On procède de la même manière pour

P (E2 ) × P (M1 |E2 ) 1


P (E2 |M1 ) = P3 = = P (E3 |M1 ).
i=1 P (M1 |Ei ) × P (Ei )
α1 + 2

Exercice 41. Soient :


l’événement A : la météo prévoit la pluie ,

35
2.9. CORRIGÉS DES EXERCICES DES PROBABILITÉS TOTALES ET
THÉORÈME DE BAYES M.A. GHEZZAR
l’événement B : il pleut
l’événement C : M. Momo prend son parapluie .
1
On sait que P (B) = .
2
1.
1 2 1 1 1 1 1 1 2 1 2
P (C) = × + × + × × + × × = ,
2 3 2 3 2 3 3 2 3 3 3

2. 1
P (C ∩ B) 2
× 31 × 2
3 2
P (C|B) = = 1 = ,
P (B) 2
9

3. 1
P (B ∩ C) 2
× 32 × 13 + 12 × 13 × 1 5
P (B|C) = = 2 = .
P (C) 3
12

Exercice 42. Soient :


l’événements U1 : Mohammed tire dans la 1ère urne
l’événements U2 : Mohammed tire dans la 2ème urne
l’événements S Mohammed a gagné .
Dans tous les cas suivants, on aura

P (S) = P (S|U1 ) × P (U1 ) + P (S|U2 ) × P (U2 ).

1. Quatre boules blanches sont placées dans U1 et 4 noires dans U2

1 1 1
P (S) = 1 × +0× = ;
2 2 2

2. Deux boules blanches et 2 boules noires sont placées dans chacune des 2 urnes

1 1 1 1 1
P (S) = × + × = ;
2 2 2 2 2

3. Trois boules blanches sont placées dans U1 et le reste dans U2

1 1 1 3
P (S) = 1 × + × = ;
2 5 2 5

4. Mohammed maximise ses gains en plaçant 1 boule blanche dans la 1ère urne et toutes
les autres dans la 2ème
1 3 1 5
P (S) = 1 × + × = .
2 7 2 7

Exercice 43. Soient :

36
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

l’événement A : le patient demande une consultation


l’événement B1 : le patient obtient immédiatement un entretien téléphonique .
l’événement B2 : le patient obtient le soir même un entretien téléphonique .
l’événement B3 : le patient obtient le lendemain un entretien téléphonique .

1. Le pourcentage des patients demandant une consultation parmi ceux qui appellent
est
3
X
P (A) = P (A|Bi ) × P (Bi )
i=1
= 0.8 × 0.6 + 0.6 × 0.4 × 0.75 + 0.4 × 0.4 × 0.25 = 0.7 = 70%.

2. Le pourcentage des patients en consultation qui n’ont pas eu à attendre d’être rappelés
est
P (A|B1 ) × P (B1 ) 0.8 × 0.6
P (B1 |A) = = ' 68.6%.
P (A) 0.7

Exercice 44. Soient :


l’événement HIV + : le patient est HIV -positif
l’événement HIV − : le patient est HIV -négatif
l’événement E + : ELISA est positif
l’événement E − : ELISA est négatif.
On trouve

P (E − |HIV + ) × P (HIV + )
P (HIV + |E − ) =
P (E − |HIV + ) × P (HIV + ) + P (E − |HIV − ) × P (HIV − )
0.05 × 0.01
= = 0.000515 = 0.05 %
0.05 × 0.01 + 0.98 × 0.99

et

P (E + |HIV − ) × P (HIV − )
P (HIV − |E + ) =
P (E + |HIV + ) × P (HIV + ) + P (E + |HIV − ) × P (HIV − )
0.02 × 0.99
= = 0.6758 = 67.58 %.
0.02 × 0.99 + 0.95 × 0.01

Au vu de ces résultats, il est évident que l’ELISA est un très bon test pour déterminer si un
patient n’est pas HIV -positif. Par contre, il est inefficace pour décider de la contamination
d’un patient. Il y a un autre test est utilisé pour déterminer si un patient est vraiment
malade.

Exercice 45. Soient :

37
2.9. CORRIGÉS DES EXERCICES DES PROBABILITÉS TOTALES ET
THÉORÈME DE BAYES M.A. GHEZZAR
l’événement A : le malade est Européen
l’événement B : le malade est Kabyle
l’événement C : le malade est Arabe ou Africain
l’événement RH + : le sang contenu dans une éprouvette est de rhésus positif
l’événement RH − : le sang contenu dans une éprouvette est de rhésus négatif.
On cherche la probabilité que le sang de rhésus négatif contenu dans une éprouvette
provienne d’un malade Européen :

P (A) = 0.04 P (B) = 0.32 P (Arabe) = 0.58


− −
P (RH |A) = 0.87 P (RH |B) = 0.03 P (af ricain) = 0.06

P (C) = P (Arabe) + P (af ricain) = 0.64


P (RH − |C) = 0.22

P (RH − |A) × P (A)


P (A|RH − ) =
P (RH − )
P (RH − |A) × P (A)
=
P (RH − |A) × P (A) + P (RH − |B) × P (B) + P (RH − |C) × P (C)
0.87 × 0.04
= = 0.1879.
0.87 × 0.04 + 0.03 × 0.32 + 0.22 × 0.64

Exercice 46. Soient :


l’événement T U N : Ali passe par Tunis
l’événement DAM : Ali passe par Damas
l’événement IST : Ali passe par Istanbul
l’événement P : Ali ne peut pas partir car l’avion est plein .

P (DAM ∩ P )
P (DAM |P ) =
P (P )
1 3 1 1 3
× + × ×
= 3 4 3 2 4
1 4 1 3 1 1 3 1 1
× + × + × × + ×
3 5 3 4 3 2 4 3 2
45
= ' 0.46.
97

Exercice 47. Soient :


l’événement P : ”la pièce donne pile”
l’événement O : ” le bonbon tiré est à l’orange”.

38
CHAPITRE 2. LE CALCUL DES PROBABILITÉS M.A. GHEZZAR

Au départ, Zakaria a 5 bonbons à l’orange et 3 à la fraise dans la poche gauche (5O +


3O) et 4 à l’orange et 2 à la fraise dans la droite (4O + 2O).

1. La probabilité de tirer 2 bonbons ayant le même parfum est alors

P (2 parfums identiques)
 
1 5 4 5 2 3 2 3 1 2 5 2 3 1 3 1 1
= × + × + × + × + × + × + × + × ' 0, 50.
4 8 7 8 3 8 7 8 3 3 8 3 5 3 8 3 5

2. Il reste 7 bonbons à l’orange et 5 à la fraise. Cela signifie que Zakaria a tiré 2 bonbons
à l’orange. Pour trouver la séquence la plus probable, on calcule la probabilité pour
chacune des quatre séquences possibles

P (OO|P P )P (P P ) 5/8 × 4/7 × 1/4


P (P P |OO) = = ' 0.23
P (OO) 0.40
P (OO|P P )P (P P ) 2/3 × 5/8 × 1/4
P (P P |OO) = = ' 0.26
P (OO) 0.40
P (OO|P P )P (P P ) 2/3 × 5/8 × 1/4
P (P P |OO) = = ' 0.26
P (OO) 0.40
P (OO|P P )P (P P ) 2/3 × 3/5 × 1/4
P (P P |OO) = = ' 0.25
P (OO) 0.40

avec  
1 5 4 5 2 2 3 2 5
P (OO) = × + × + × + × ' 0.40.
4 8 7 8 3 3 5 3 8
Les 2 séquences les plus probables sont P P et P P (elles sont équivalentes).

3. Soit X le nombre de bonbons à la fraise que Zakaria doit acheter. On veut que
1
P (O) =
2

1 2 1 1
P (O) = P (O|P ) × P (P ) + P (O|P ) × P (P ) = 1 × + × =
2 2+X 2 2
2
=⇒ = 0 =⇒ X¨→ ∞.
2+X

Il faudrait que Zakaria achète une infinité de bonbons pour équilibrer les chances de
tirer un bonbon à l’orange ou à la fraise.

Exercice 48. Soient


l’événement JC1 : ” le juge 1 vote coupable”
l’événement JC2 : ” le juge 2 vote coupable”
l’événement JC3 : ” le juge 3 vote coupable”

39
2.9. CORRIGÉS DES EXERCICES DES PROBABILITÉS TOTALES ET
THÉORÈME DE BAYES M.A. GHEZZAR
l’événement C : ” l’accusé est effectivement coupable”.

1. On cherche d’abord la probabilité que le 3ème juge vote coupable en sachant que les
2 premiers votent coupable

P (JC3 ∩ JC1 ∩ JC2 )


P (JC3 |JC1 ∩ JC2 ) = .
P (JC1 ∩ JC2 )

Il faut faire attention de ne pas utiliser lfindLependance dans cette équation directe-
ment. Il y a seulement indépendance entre les décisions des juges conditionnées
à la culpabilité (ou non culpabilité) de l’accusé. Ainsi, il est nécessaire de faire
apparaı̂tre des probabilitées conditionnelles pour utiliser l’hypothèse d’indépendance
:

P (JC3 |JC1 ∩ JC2 )


P (JC3 ∩ JC1 ∩ JC2 |C) × P (C) + P (JC3 ∩ JC1 ∩ JC2 |C) × P (C)
=
P (JC1 ∩ JC2 |C) × P (C) + P (JC1 ∩ JC2 |C) × P (C)
P (JC3 |C) × P (JC1 |C) × P (JC2 |C) × P (C)
=
P (JC1 |C) × P (JC2 |C) × P (C) + P (JC1 |C) × P (JC2 |C) × P (C)
P (JC3 |C) × P (JC1 |C) × P (JC2 |C) × P (C)
+
P (JC1 |C) × P (JC2 |C) × P (C) + P (JC1 |C) × P (JC2 |C) × P (C)
0.73 × 0.7 + 0.23 × 0.3 97
= 2 2
= ' 0.68.
0.7 × 0.7 + 0.2 × 0.3 142

2. Le raisonnement pour les 2 dernières questions est le même qu’en (1).

P (JC3 ∩ JC1 ∩ JC2 )


P (JC3 |JC1 ∩ JC2 ) =
P (JC1 ∩ JC2 )
0.72 × 0.3 × 0.7 + 0.22 × 0.8 × 0.3
= ' 0.58
0.7 × 0.3 × 0.7 + 0.2 × 0.8 × 0.3

3.

P (JC3 ∩ JC1 ∩ JC2 )


P (JC3 |JC1 ∩ JC2 ) =
P (JC1 ∩ JC2 )
0.7 × 0.32 × 0.7 + 0.2 × 0.82 × 0.3
= ' 0.32.
0.32 × 0.7 + 0.82 × 0.3

40
Chapitre 3
Variables aléatoire

3.1 Définition
Exemple 49. Dans un jeu decarte, 2 parieurs suivent le raisonnement suivant: si un
d”eux tire une carte noir il perd 500DA, s’il tire une carte rouge il gagne 1000 DA. Les
possibilités sont nombreuses, et les valeurs obtenues forment une variable aléatoire.

Définition 13. Soit l’ensemble fondamental Ω associé à une expérience aléatoire. Une
variable aléatoire est une application définie sur l’ensemble fondamental Ω des événements
élémentaires vers R. On note généralement les variables aléatoires par X, Y, Z ...etc.
Autrement dit, une variable aléatoire X est une application qui associe des valeurs numériques
à des événements aléatoires.
Les valeurs d’une variable aléatoire X sont notés xi , i = 1, 2, .....

Exemple 50. Le loto sportif est une variable alèatoire qui associe à chaque série de 6
numéros cochés, une somme d’argent appelée gain.

3.2 Les variables aléatoires discrètes


Dans tous ce qui suit, nous lons utliser le sympbolisme V.A pour désigner une variable
aléatoire

Définition 14. Une V.A discrète est une V.A qui ne prend que des valeurs entières, en
nombre fini ou dénombrable.

Dans l’étude d’une V.A X, il est important caractériser toutes ses valeurs les fréquemmentes
et les plus rarement, et les mettre dans un ensemble des valeurs permise pour X noté

41
3.2. LES VARIABLES ALÉATOIRES DISCRÈTES M.A. GHEZZAR

X(ω)Pour cela; nous devons calculer les probabilités associées à chacunes des valeurs de
la V.A.

Définition 15. On appelle la loi de probabilité d’une variable alèatoire X, la relation


liant chacune des valeurs possibles xi de la V.A à sa probabilité. Si ai étant un des
évenements d’apparition de la veleur xi alors

k
X
p(X = xi ) = p({ai }),
i=1

On notera V.A.D comme symbole des variables aléatoires discrétes.

Exemple 51. On jette consécutivement et à deux reprises, une pièce de monnaie non
truquée, et on compte le nombre d’apparitions du coté “face” (F). Pour calculer les prob-
abilités des événements, on pose X une V.A qui désigne le nombre de coté“F” obtenus.
La V.A est alors définie par X = nombre de“F” et X(ω) = {0, 1, 2}. (On note côté ”pile”
par ”P”).
On aura alors;

1
p1 = p(X = 0) = p(P, P) = ;
4
1
p2 = p(X = 1) = p(P, F) + p(F, P) = ;
2
1
p3 = p(X = 2) = p(F, F) = ;
4

La loi de probabilité est donnée dans le tableau suivant:

xi 0 1 2 somme
pi 0.25 0.5 0.25 1

3.2.1 Fonction de répartition


Définition 16. Soit X une V.A.D. La fonction de répartition d’une variable aléatoire X
notée F est définie pour chaque réel x par la relation suivante:

X
∀x ∈ R, F (x) = p(X ≤ x) = p(X = xi ).
xi ≤x

42
CHAPITRE 3. VARIABLES ALÉATOIRE M.A. GHEZZAR

La fonction de répratition étant toujours une fonction positive, croissante et etndant


vers 1. i.e.:

• La fonction de répartition est toujours croissante

• ∀x ∈ R, 0 ≤ F (x) ≤ 1

La fonction de répartition est représentée par un polygone, et a la forme su polygone des


fréquence cumulées relatives en statistiques.

3.3 Les Variables Aléatoires Continues

Définition 17. On appelle variable aléatoire continue toute V.A qui elle n’est pas discréte,
autrement dit; si elle prend toutes ces valeurs dans un intervalle fini ou infini.

(On usera du symbolisme V.A.C our les V.A continues)

3.3.1 Fonction de densité de probabilité

Cette fonction a les propriétés suivantes: a) f est une fonction toujours positive.

Z b
p(a < X ≤ b) = f (x) dx
a

c) L’aire totale comprise entre la courbe et (xx0 ) est égale à 1 :


Z
f (x) dx = 1.
R

e) Il résulte de a et c qu’une densité de probabilité est une fonction intégrable au sens


de Lebesgue sur R.

43
3.3. LES VARIABLES ALÉATOIRES CONTINUES M.A. GHEZZAR

3.3.2 Fonction de répartition


De même que pour les V.A.D, on peut définir la fonction de répartition F de la V.A.C
X qui nous donne la probabilité que X soit inférieure à une valeur réelle donnée :
Z x
F (x) = p(X ≤ x) = f (t) dt.
−∞

Propriété 52. 1. F est continue et croissante sur R.

2. ∀x ∈ R, F 0 (x) = f (x).

3. lim F (x) = 0, lim F (x) = 0.


x→−∞ x→+∞

4. p(a ≤ X ≤ b) = F (b) − F (a).

Exercice 53.

Soit f la fonction définie sur R par f (x) = ke−x si x ≥ 0, f (x) = 0 sinon.

1. Déterminer k pour que f soit la fonction de densité de probabilité d’une V.A X.

2. Définir la fonction de répartition de la variable X.

3. Calculer p(0.5 < X < 1.5).

Solution de l’exercice 53. Densité de probabilité.

1. f doit être une impérativement fonction positive, donc il faut trouver la valeur de
k. La fonction de densité de probabilité doit vérifier:
R R +∞ −x
R
f (x) dx = 1, donc 0
ke dx = 1. Donc par un simple calcule, on trouve
k = 1.

2. En utilisant la définition de la fonction de répartition de X on peut conclure que la


fonction F est définie par :
Z x
F (x) = e−t dt = 1 − e−x si x > 0,
0
= 0 sinon.

3.
Z 1.5
p(1 < X < 2) = e−x dx = e−0.5 − e−1.5 ∼ 0.16.
0.5

44
CHAPITRE 3. VARIABLES ALÉATOIRE M.A. GHEZZAR

3.4 Variables aléatoires à deux dimensions

3.4.1 Les variables aléatoires discrètes à deux dimensions


Dans cette partie, on s’interesse au cas où deux variables aléatoires s’interferent. Ces
situations sont récurentes dans la vie réelle, car les événement peuvent etre associés à
deux ou à plusieurs variables.

La Loi de probabilité conjointe

Considérons deux V.A.D X et Y . Pour cela, Il faut définir une fonction qui nous donne
la probabilité que (X = xi ) et que (Y = yj ) en même temps. Cette fonction est appelée la
loi de probabilité conjointe. Dans ce qui suit, nous allons considérer le cas ou l’interaction
est pour 2 V.A dicrétes et 2 V.A contnues.

Définition 18. Soit (X,Y ) un couple de deux V.A.D. Alors, associer à chaque couples
(xi , yj ) de (X, Y ), la probabilité f (xi , yj ), revient à définir la loi de probabilité conjointe
du couple de V.A.D (.X,Y ) (oû i=1,2,...,n et j=1,2,....,m)

f (xi , yj ) = p((X = xi ) et (Y = yj )).

Le couple (X, Y ) est appelé V.A bidimensionnelle ou (à deux dimensions) et prendra
m × n valeurs.

Proposition 54. 1. Pour tout i = 1, 2, . . . , n et j = 1, 2, . . . , m, 0 ≤ f (xi , yj ) ≤ 1.


n X
X m
2. f (xi , yj ) = 1.
i=1 j=1

Exemple 55. On tire une carte dans un jeu de rami de 52 cartes et soit X le nombre
de coeurs obtenus et Y le nombre de coeurs obtenus dans un deuxième tirage et cela sans
remise. X et Y ne peuvent prendre que les valeurs 0 et 1 (pas de pique) ou (un pique).

La loi du couple (X, Y ) est définie par ce qui suit:.

39 38 13 39
f (0, 0) = × = 0.56, f (1, 0) = × = 0.19,
52 51 52 51
39 13 39 12
f (0, 1) = × = 0.19, f (1, 1) = × = 0.06.
52 51 52 51

On peut toujours vérifier que la somme de ces valeurs est égale à 1.

45
3.4. VARIABLES ALÉATOIRES À DEUX DIMENSIONS M.A. GHEZZAR

La loi des probabilités marginales

Un outil trés important dans lacaractérisation des V.AD bidimensionnele étant le calcul
des probabilités marginales et cela biensur après avoir pris connaissance de la loi conjointe
des deux variables aléatoires X et Y .

Définition 19. Soit (X, Y ) un couple de V.A.D ayant comme loi de probabilité conjointe
f (x, y). Alors, les lois de probabilité marginales de X et Y sont respectivement définies
par
m
X
fX (xi ) = p(X = xi ) = f (xi , yj ) pour i = 1, 2, . . . , n,
j=1
n
X
fY (yj ) = p(Y = yi ) = f (xi , yj ) pour j = 1, 2, . . . , m.
i=1

Exemple 56. Lois marginales de l’exemple 55.

Y = y1 = 0 Y = y2 = 1 fX (xi )
X = x1 = 0 0.56 0.19 0.75
X = x2 = 1 0.19 0.06 0.25
fY (yj ) 0.75 0.25 1.00

Remarque 57. Le couple (X, Y ) et les deux variables X et Y constituent trois variables
aléatoires distinctes. La première est à deux dimensions, les deux autres à une dimension.

3.4.2 Les variables aléatoires continues bidimensionnelles


On peut toujours utiliser le même raisonnement et faire le paralelle avec la section précedante
pour arriver aux résulats.

La fonction de densité conjointe

La distribution conjointe de X et de Y est donnée par une fonction de densité conjointe


f (x, y). On peut déduire la formule suivante:
Z
p((c < X ≤ d) et (u < Y ≤ v)) = f (x, y) dx dy.
[c,d]×[u,v]

Propriété 58. 1. Pour chaque couple (x, y) ∈ R2 , f (x, y) ≥ 0.


R
2. R2
f (x, y) dx dy = 1.

46
CHAPITRE 3. VARIABLES ALÉATOIRE M.A. GHEZZAR

Densité de probabilité marginale

En usant du meme raisonnement, on peut définir pour les couples de V.A.D les fonctions
densités marginales. (Pour bienles définir, il suffit de remplacer les sommes par des
intégrales.)

Définition 20. Soit (X, Y ) une V.A.C bidimensionnelle qui admet comme densité con-
jointe sa fonction f (x, y). Donc, les densités marginales de X et Y sont réspectivement
définies par
Z
fX (x) = f (x, y) dy pour x ∈ R,
ZR
fY (y) = f (x, y) dx pour y ∈ R.
R

3.5 Les Paramètres centrales d’une variable alèatoires


Comme pour la statistique descriptive, on peut caractériser une série statistique, les même
parametres peuvent caractériser un variable alèatoire.

3.5.1 Espérance mathématique


Définition 21. 1. Pour les V.A.D

• Soit X une V.A.D. L’ espérance mathématique de X, notée E(X), est définie


par
n
X
E(X) = xi f (xi ).
i=1

• Si la V.A.D X prend un nombre dénombrable de valeurs x1 , x2 , . . . , xn , . . .,


alors à condition que la série converge absolument l’espérance mathématique
est définie par E(X) = ∞
P
i=1 xi f (xi ),

2. Pour les V.A.C l’espérance mathématique est définie:


Z
E(X) = xf (x) dx,
R

où f étant la fonction de densité, à condition que la fonction x 7→ xf (x) soit


intégrable sur R.

47
3.5. LES PARAMÈTRES CENTRALES D’UNE VARIABLE ALÈATOIRES
M.A. GHEZZAR

3.5.2 Variance d’une distribution de probabilités


Par les mêmes raisnonnement, on peut définir ce qui suit:

Définition 22. • La variance est définie par la relation suivante:

V ar(X) = E (X − E(X))2 = E(X 2 ) − E(X)2 .




• L’écart-type étant toujours la racine carrée de la variance.


p
σ(X) = V ar(X).

Dans le cas d’une V.A.D

Dans le cas d’une V.A.D


n n
!
X X
V ar(X) = (xi − E(X))2 f (xi ) = x2i f (xi ) − E(X)2 .
i=1 i=1

Dans le cas d’une V.A.C,


Z Z 
2
V ar(X) = (x − E(X)) f (x) dx = x f (x) dx − E(X)2 .
2
R R

Propriétés de l’espérance mathématique et de la variance

E(X + c) = E(X) + c E(aX) = aE(X) E(aX + c) = aE(X) + c


V ar(X + c) = V ar(X) V ar(aX) = a2 V ar(X) V ar(aX + c) = a2 V ar(X)
σ(X + c) = σ(X) σ(aX) = |a|σ(X) σ(aX + c) = |a|σ(X)
−2iπcu
ξX+c (u) = e ξX (u) ξaX (u) = ξX (au) ξaX+c (u) = e−2iπcu ξX (au)

48
Chapitre 4
Lois de probabilités usuelles

Introduction
Il exsite une multitude de lois usuelles pour la modélisation de phenomenes aléatoires.
L’étude des modèles stochastique et probabilistes pourra aider à mieux analyser les fluc-
tuations de certains phénomènes comme les finances, les assurances, la cilatologie ...etc.
Nous allons mettre en revue les 2 principales lois usuelles discrétes: La loi binomiale,
la loi de Poisson. Puis deux lois continues : la loi exponentielle et la loi normale.

4.1 Distribution binomiale

4.1.1 Loi de Bernoulli

Définition

Définition 23. Une variable aléatoire discrète qui ne prend que les valeurs 1 et 0 avec
les probabilités respectives p et q = 1 − p est appelée variable de Bernoulli.

La loi de Bernoulli est généralement utilisée lorsque l’experience n’a que deux résulatats
possibles, le succès (1) et l’échec (0).

Loi de probabilités

x 0 1
f (x) = p(X = x) q p

49
4.1. DISTRIBUTION BINOMIALE M.A. GHEZZAR

Les paramètres centraux On calcule

E(X) = 0.q + 1.p = p,


V (X) = E(X 2 ) − E(X)2 = (02 q + 12 p) − p2 = p − p2 = pq,

σ(X) = pq

4.1.2 La loi binomiale


Une expérience de Bernoulli quand elle est repétée n fois où ces n tests sont indépendants
entres elles suivra une loi binomiale.
Généralement on s’intéresse à la variable X = “nombre de succès au cours des n
expériences”.

Loi de probabilités

Si on désigne par Xi les variables de Bernoulli associées à chaque épreuve. On a :


X = X1 + X2 + · · · + Xn . X peut prendre n + 1 valeurs : 0, 1, . . . , n.
Si on cherche la probabilité d’obtenir k succès parmi les n épreuves, autrement dit
p(X = k).
La probabilité d’avoir k premiers succès pk q n−k (les résultats sont indépendants). Les
succès peuvent venir dans n’importe quel ordre , on auratoujours la même probabilité.
Par conséquent, on a
!
k
p(X = k) = pk q n−k .
n

On dit que la V.A X suit une loi binomiale de paramètres n et p, et on la note


X ,→ B(n, p).
On a
X = X1 + · · · + Xn avec E(Xi ) = p pour i = 1, 2, . . . , n, donc E(X) = E(X1 ) + · · · +
E(Xn ) = np.
V ar(Xi ) = pq pour i = 1, 2, . . . , n, donc V ar(X) = V ar(X1 )+· · ·+V ar(Xn ) = npq.


E(X) = np V (X) = npq σ(X) = npq

Propriétés de la loi binomiale Somme de deux variables binomiales

50
CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES M.A. GHEZZAR

Si X1 , X2 suivent B(n1 , p) et B(n2 , p) respectivement alors X1 + X2 suit une loi


binomiale B(n1 + n2 , p).

4.2 Distribution de Poisson


Quand les épreuves sont liées aux temps (arrivées de patients malades dans une clinique,
Panne d’ampoules éléctriques, appels téléphonique ...etc) ces phénomènes seront appelés
phénomènes d’attente.

4.2.1 Distribution de probabilités


On cherche la loi de probabilité X = “nombre de réalisations pendant un intervalle de
temps t”, sachant que le nombre moyen de réalisations de cet événement par unité de
temps est α. Or, on connait la loi binomiale B(n, p) “nombre de succès au cours de n
tests”.

Définition 24. On peut défini la loi de Poisson de paramètre λ comme la limite d’une loi
binomiale B(n, λ/n) lorsque n tend vers l’infini, le produit des paramètres n.λ/n restant
toujours constant égal à λ c’est-à-dire X ,→ P (λ).

Proposition 59. La loi de Poisson de paramètre λ est définie par la relation suivante:

λk
P (X = k) = e−λ .
k!

Les Paramètres centraux



E(X) = λ V ar(X) = λ σ(X) = λ

Approximation de la loi binomiale par la loi de Poisson

La loi binomiale n’est pas simple à utiliser car elle dépend de deux paramètres n et p. ,
par contre la loi de Poisson ne dépend que d’un seul paramètre.
On peut changer la loi binomiale par la loi de poisson lorsque n est grand et p petit,
de telle façon que le produit np = λ reste petit par rapport à n. On peut appliquer cette
approximation lorsque p est petit, et la loi de Poisson est appelée la loi des phénomenes
rares. En pratique, l’approximation est valable si n > 20, p ≤ 0.1 et np ≤ 5.

On approche B(n, p) par P (np) dès que n > 20, p ≤ 0.1 et np ≤ 5.

51
4.3. LA LOI NORMALE M.A. GHEZZAR

4.3 La loi normale


Définition 25. Une V.A.C suit une loi normale si sa fonction de densité est définie
comme suit:

1 1 x−m 2
f (x) = √ e− 2 ( σ ) , x ∈ R.
σ 2π

Cette loi dépend des deux paramétres réels m et σ et notée N(m, σ).

Les paramètre centraux L’espérance et variancer sont calculées à parti à partir


des dérivées de la fonction caractéristique

E(X) = m, V ar(X) = σ 2 , σ(X) = σ.

4.3.1 Propriétés de la distribution normale

Forme de la distribution normale

La fonction de densité de la loi normale a la forme d’une courbe en cloche .


Espérances identiques, écarts types 0.5, 1, 2 différents

La oi normale standardisée

Ou Loi normale centrée réduite. C’estla loi normale de paramètres 0 et 1 La loi stan-
dardisée est appelée loi normale centrée réduite, et notée N(0, 1).

X * N(m, σ) T * N(0, 1)
X−m
E(X) = m T = σ
E(T ) = 0
2
V ar(X) = σ V ar(T ) = 1

4.4 Approximation par des lois normales

4.4.1 Théorème central limite (ou de tendance normale)


Théorème 1. Soit (Xi ) i = 1, 2, ...n une suite de variables aléatoires vérifiant:

1. Elles sont indépendantes.

2. Leurs espérances mathématiqueset variances existent toutes.

52
CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES M.A. GHEZZAR

sup V ar(Xk )
3. lim Pn k = 0.
j=1 V ar(Xj )
n→∞

Alors : La variable somme X = X1 + X2 + · · · + Xn tend de la loi normale lorsque n tend


vers l’infini.

4.4.2 Quelques exercices types


Exercice 60. Dans une usine d’ampoule electriques, on affirme qu’au plus 8% de ses
ampoules sont défectueuses. Un client a veut acheter 150 ampoules. Pour avoir suffisa-
ment de piéces en marche, il passe une commande de 160. Si la prétention du vendeur
est juste, quelle est la probabilité que le client ait au moins 150 bonnes pièces ?

Solution de l’exercice 60. Bonnes pièces.


Posons X la V.A associé au “nombre de bonnes ampoules dans un lot de 140 pièces”.
X prend ses valeurs entre 0 et 150. Maintenant, pour chaque ampoule , on a deux
possibilités :
elle est bonne ou elle est défectueuse. La probabilité qu’une ampoules soit défectueuse
étant 0.08. donc elle est de 092 pour qu’elle soit bonne. On est en face d’un V.A qui suit
la loi de Binomiale. n = 150 et p = 0.92.
On veut czlculer la probabilité que le client reçoive au moins 150 bonnes pièces sur les
160, soit X ≥ 150. Donc il faut calculer
p(X = 150) + p(X = 151) + · · · + p(X = 160).
Puisque n ≥ 30, et np ≥ 15 et nq = 12, on pourra passer de la loi binomiale à une une
loi normale. On choisit la loi normale qui a la même espérance et le même écart-type.
Donc X qui suit la loi B(150, 0.92) sera approchée par Y qui suit la loi N(136, 2.75).
Conclusion : l’acheteur a 95 chances sur 100 de recevoir 120 bonnes pièces sur les 140
achetées.

53
Bibliography

[1] A. Borovkov, Mathematical statistics.,Gordon and Breach Science Publishers,


1998.

[2] N. Bouleau, Probabilités de lingénieur. Variables aléatoires et simulation. Her-


mann, 1986.

[3] J.F. Delmas, Introduction au calcul des probabilités et à la statistique. Polycopié,


ENSTA, 2008.

[4] H. Carrieu, Probabilité . EDP Sciences - Collection, 2008.

[5] O. Garet, A. Kurtzmann, De l’Intégration aux Probabilités. Editions Ellipses,


2011.

[6] B. Jourdain, Probabilités et statistique pour lingénieur. Polycopié, ENPC-Paris,


2018.

[7] M. Lethielleux, Probabilités : Estimation statistique . Dunod, 2004.

[8] L. Mejlbro, Discrete Distributions. Bookboon, 2009.

[9] C. Reder, PROBABILITES et STATISTIQUES : Cours et exercices . Polycopié,


IUP2-MIAGE-Bordeaux, 2003.

[10] S.M. Ross, Initiation aux probabilités. Les Presses polytechniques et universitaires
romandes, 2004.

[11] Y. Sinai, Probability theory : an introductory course. Springer Verlag, 1992.

54

Vous aimerez peut-être aussi