TESTS STATISTIQUES
• Les tests statistiques traitent de problèmes d’inférence
statistique comme le cas de l’estimation de paramètres.
En estimation paramétrique classique, on suppose qu’on
n’a aucun renseignement sur un certain paramètre et on
cherche à l’estimer au moyen d’une statistique définie à
partir d’un échantillon aléatoire. Dans le contexte d’un test
d’hypothèses, la situation se présente différemment : on
suppose au départ que l’on a une certaine connaissance de
la valeur d’un paramètre et on essaie de vérifier sa véracité.
Les tests statistiques se divisent en deux groupes : les tests
paramétriques et les tests non paramétriques.
TESTS PARAMETRIQUES
USUELS
• I) TESTS DE COMPARAISON A UNE
NORME
• II) COMPARAISON ENTRE DEUX
PARAMETRES
• III) CHOIX ENTRE DEUX PARAMETRES
I) Tests de comparaison à une norme
1) Cas de la moyenne
Ho : m = mo
H1 : m mo
m représente la moyenne inconnue sur l’ensemble de la
population.Si la distribution d’échantillonnage m’ de la
moyenne suit une loi normale de variance ² connue,
l’hypothèse Ho est acceptée avec une probabilité (1-), étant
le seuil de confiance donné, si
x- mo
----------- < z avec p(Z > z) = / 2
/ n
REMARQUES:
Si H1 : m > mo Ho est acceptée
si x < mo + z / n avec p(Z > z) =
Si H1 : m < mo Ho est acceptée
si x > mo - z / n avec p(Z > z) =
Z désigne la loi normale centrée et réduite.
Si ² est inconnue,remplacer / n par s/n -1
2) Cas de la proportion
Ho : p = po
H1 : p po
p désigne la proportion inconnue du caractère
e l’ o n a une c e rtaine c o nnais s an c e de la vale ur d’ un param è tre e t o n e s s
étudié.Si la distribution d’échantillonnage p’ de la
proportion suit une loi normale, l’hypothèse Ho est
acceptée si :
f - po
-------------- < z avec p(Z > z) = / 2
po(1 po) / n
REMARQUES
-Si H1 : p > po, Ho est acceptée
si f < po + z po(1 po) / n
avec p(Z > z) =
-Si H1 : p<po, Ho est acceptée
si f > po - z po(1 po) / n
avec p(Z > z) =
II) Test de comparaison entre 2 paramètres
1) Comparaison entre deux moyennes
Ho : m1 = m2
H1 : m1 m2
Si les deux populations initiales sont normales de variances 1² et
2² connues, et lorsque ces populations sont quelconques mais (n1
+ n2 – 2 ) > 30, l’hypothèse Ho est acceptée si :
x1 - x2
------------------------ < z avec p(Z > z) = / 2
1² / n1 2² / n2
x1 et x2 représentent les moyennes respectives du caractère étudié
dans les échantillons tirés des populations caractérisées par les
moyennes m1 et m2.
Cas particuliers
-Si les populations initiales sont normales de variances inconnues mais
égales, 1² et 2² sont remplacées par
^ n1 s1² + n2 s2²
² = ------------------
n1 + n2 -2
- Si les populations initiales sont normales de variances inconnues mais
différentes, 1² et 2² sont remplacées par leurs estimations respectives
-Si les populations étudiées sont normales de variances inconnues et de
plus (n1 + n2 – 2) < 30, la loi normale sera remplacée par la loi de
Student à (n1 + n2 – 2) degrés de liberté.
2)Comparaison entre deux proportions
Ho : p1 = p2
H1 : p1 p2
Si les tailles des échantillons sont grandes, l’hypothèse Ho est
acceptée si :
f1 – f2
------------------------------------ < z avec p(Z > z) = / 2
p(1 p)(1 / n1 1 / n2)
p^ étant l’estimation commune de p1 et p2 ; f1 et f2 les fréquences
respectives du caractère étudié dans les échantillons tirés des
populations caractérisées par les proportions p1 et p2.
p = (x1 +x2)/(n1 +n2)
3) Comparaison de variances :
Ho : 1² = 2²
H1 : 1² 2²
Soit F = 1^² / 2^² ( ou 2^² / 1^² , de telle sorte que F >1)
F suit une loi de Fisher à 1 2 degrés de liberté
Si les populations étudiées sont normalement distribuées,
l’hypothèse Ho est acceptée si :
F < F avec P ( F1 2 > F ) =
1 représente le nombre de degrés de liberté du numérateur
et 2 représente le nombre de degrés de liberté du dénominateur
III) Choix entre 2 paramètres
1)Choix entre 2 moyennes
Ho : m = mo
H1 : m = m1
Si les populations initiales sont normales de variances connues,
l’hypothèse Ho est acceptée si
x < = mo + z o / n = m1 - z 1 / n
avec P(Z> z) = et P(Z> z) = . est appelé risque de 1ère espèce
et le risque de seconde espèce.
2) Choix entre 2 proportions
Ho : p = po
H1 : p = p1
Si la taille de l’échantillon est grande, l’hypothèse Ho est
acceptée si :
f < vc = po + z po(1 po) / n
= p1 - z p1(1 p1) / n
TESTS NON PARAMETRIQUES
• Les tests non paramétriques portent sur les
distributions des variables étudiées
• -TESTS D’AJUSTEMENT
• -TESTS D’INDEPENDANCE
I) TEST D’AJUSTEMENT
• BUT: Ajuster une distribution empirique à une loi de
probabilité connue(si possible)
• PRINCIPE: Etudier les écarts entre la distribution
observée et la loi théorique
• On teste: H0: X suit L loi théorique (connue)
H1: X ne suit pas L
• MISE EN ŒUVRE:
- Calcul éventuel des paramètres de la loi
- Calcul des probabilités à l’aide de cette loi
- Calcul des effectifs théoriques npi
- Vérifier si tous les npi > 5. Sinon regrouper des
classes adjacentes
- Calculer l’indicateur d’écart d
d = ((ni – npi)²/npi)
- ou r représente le nombre final de classes
- Et k le nombre de paramètres estimés(de la loi)
d est à comparer à ²
avec p(²> ² ) = et = r – 1 – k
Règle de décision:
Accepter H0 avec une probabilité (1- ) si d< ²
TEST D’INDEPENDANCE
• On considère deux variables X et Y
• X prenant les modalités x1,….,xp
• Y prenant les modalités y1,…..,yq
• Soit nij l’effectif empirique observé lorsque
X=xi et Y=yj
• On teste: H0: X et Y indépendantes
• H1: X et Y liées
• L’effectif théorique (sous H0) est:
• Cij = n * pij
nij *nij
Càd cij =
nij
Les effectifs théoriques cij doivent vérifier
cij>5 sinon regrouper les lignes ou les
colonnes adjacentes
• Calcul de l’indicateur d’écart:
• d= (nij – cij)²/cij
• Règle de décision:
• Accepter H0 avec une probabilité (1- )
si d <²
• ² est déterminé à partir tablez de ² et est
tel que: p(²> ² ) = et = (p’-1)(q’-1)
p’ représente le nombre final de lignes
et q’ le nombre final de colonnes