0% ont trouvé ce document utile (0 vote)
76 vues18 pages

Introduction aux Tests Statistiques

Ce document décrit les principaux tests statistiques paramétriques et non paramétriques. Il présente les tests de comparaison à une norme, entre deux paramètres et le choix entre deux paramètres. Le document détaille également les tests d'ajustement et d'indépendance non paramétriques.

Transféré par

abdallah.elmallem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
76 vues18 pages

Introduction aux Tests Statistiques

Ce document décrit les principaux tests statistiques paramétriques et non paramétriques. Il présente les tests de comparaison à une norme, entre deux paramètres et le choix entre deux paramètres. Le document détaille également les tests d'ajustement et d'indépendance non paramétriques.

Transféré par

abdallah.elmallem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

TESTS STATISTIQUES

• Les tests statistiques traitent de problèmes d’inférence


statistique comme le cas de l’estimation de paramètres.
En estimation paramétrique classique, on suppose qu’on
n’a aucun renseignement sur un certain paramètre  et on
cherche à l’estimer au moyen d’une statistique définie à
partir d’un échantillon aléatoire. Dans le contexte d’un test
d’hypothèses, la situation se présente différemment : on
suppose au départ que l’on a une certaine connaissance de
la valeur d’un paramètre et on essaie de vérifier sa véracité.
Les tests statistiques se divisent en deux groupes : les tests
paramétriques et les tests non paramétriques.
TESTS PARAMETRIQUES
USUELS
• I) TESTS DE COMPARAISON A UNE
NORME

• II) COMPARAISON ENTRE DEUX


PARAMETRES

• III) CHOIX ENTRE DEUX PARAMETRES


I) Tests de comparaison à une norme

1) Cas de la moyenne

Ho : m = mo
H1 : m  mo

m représente la moyenne inconnue sur l’ensemble de la


population.Si la distribution d’échantillonnage m’ de la
moyenne suit une loi normale de variance ² connue,
l’hypothèse Ho est acceptée avec une probabilité (1-),  étant
le seuil de confiance donné, si

 x- mo
----------- < z avec p(Z > z) = / 2
/  n
REMARQUES:
Si H1 : m > mo Ho est acceptée
si x < mo + z  / n avec p(Z > z) = 

Si H1 : m < mo Ho est acceptée


si x > mo - z  / n avec p(Z > z) = 

Z désigne la loi normale centrée et réduite.


Si ² est inconnue,remplacer / n par s/n -1
2) Cas de la proportion

Ho : p = po
H1 : p  po

p désigne la proportion inconnue du caractère


e l’ o n a une c e rtaine c o nnais s an c e de la vale ur d’ un param è tre e t o n e s s

étudié.Si la distribution d’échantillonnage p’ de la


proportion suit une loi normale, l’hypothèse Ho est
acceptée si :
 f - po
-------------- < z avec p(Z > z) = / 2
po(1  po) / n
REMARQUES
-Si H1 : p > po, Ho est acceptée
si f < po + z po(1  po) / n
avec p(Z > z) = 

-Si H1 : p<po, Ho est acceptée


si f > po - z po(1  po) / n
avec p(Z > z) = 
II) Test de comparaison entre 2 paramètres

1) Comparaison entre deux moyennes


Ho : m1 = m2
H1 : m1  m2

Si les deux populations initiales sont normales de variances 1² et


2² connues, et lorsque ces populations sont quelconques mais (n1
+ n2 – 2 ) > 30, l’hypothèse Ho est acceptée si :

 x1 - x2 
------------------------ < z avec p(Z > z) = / 2
 1² / n1   2² / n2

x1 et x2 représentent les moyennes respectives du caractère étudié


dans les échantillons tirés des populations caractérisées par les
moyennes m1 et m2.
Cas particuliers

-Si les populations initiales sont normales de variances inconnues mais


égales, 1² et 2² sont remplacées par

^ n1 s1² + n2 s2²
² = ------------------
n1 + n2 -2

- Si les populations initiales sont normales de variances inconnues mais


différentes, 1² et 2² sont remplacées par leurs estimations respectives

-Si les populations étudiées sont normales de variances inconnues et de


plus (n1 + n2 – 2) < 30, la loi normale sera remplacée par la loi de
Student à (n1 + n2 – 2) degrés de liberté.
2)Comparaison entre deux proportions

Ho : p1 = p2
H1 : p1  p2

Si les tailles des échantillons sont grandes, l’hypothèse Ho est


acceptée si :
 f1 – f2 
------------------------------------ < z avec p(Z > z) = / 2
p(1  p)(1 / n1  1 / n2)
p^ étant l’estimation commune de p1 et p2 ; f1 et f2 les fréquences
respectives du caractère étudié dans les échantillons tirés des
populations caractérisées par les proportions p1 et p2.
p = (x1 +x2)/(n1 +n2)
3) Comparaison de variances :

Ho : 1² = 2²
H1 : 1²  2²

Soit F = 1^² / 2^² ( ou 2^² / 1^² , de telle sorte que F >1)

F suit une loi de Fisher à 1 2 degrés de liberté


Si les populations étudiées sont normalement distribuées,
l’hypothèse Ho est acceptée si :

F < F avec P ( F1 2 > F ) = 


1 représente le nombre de degrés de liberté du numérateur
et 2 représente le nombre de degrés de liberté du dénominateur
III) Choix entre 2 paramètres

1)Choix entre 2 moyennes

Ho : m = mo
H1 : m = m1

Si les populations initiales sont normales de variances connues,


l’hypothèse Ho est acceptée si

x <  = mo + z o / n = m1 - z 1 / n

avec P(Z> z) =  et P(Z> z) = .  est appelé risque de 1ère espèce
et  le risque de seconde espèce.
2) Choix entre 2 proportions

Ho : p = po
H1 : p = p1

Si la taille de l’échantillon est grande, l’hypothèse Ho est


acceptée si :
f < vc = po + z po(1  po) / n

= p1 - z p1(1  p1) / n
TESTS NON PARAMETRIQUES

• Les tests non paramétriques portent sur les


distributions des variables étudiées
• -TESTS D’AJUSTEMENT
• -TESTS D’INDEPENDANCE
I) TEST D’AJUSTEMENT
• BUT: Ajuster une distribution empirique à une loi de
probabilité connue(si possible)
• PRINCIPE: Etudier les écarts entre la distribution
observée et la loi théorique
• On teste: H0: X suit L loi théorique (connue)
H1: X ne suit pas L
• MISE EN ŒUVRE:
- Calcul éventuel des paramètres de la loi
- Calcul des probabilités à l’aide de cette loi
- Calcul des effectifs théoriques npi
- Vérifier si tous les npi > 5. Sinon regrouper des
classes adjacentes
- Calculer l’indicateur d’écart d
d =  ((ni – npi)²/npi)
- ou r représente le nombre final de classes
- Et k le nombre de paramètres estimés(de la loi)
d est à comparer à ²
avec p(²> ² ) =  et = r – 1 – k
Règle de décision:
Accepter H0 avec une probabilité (1- ) si d< ² 
TEST D’INDEPENDANCE
• On considère deux variables X et Y
• X prenant les modalités x1,….,xp
• Y prenant les modalités y1,…..,yq
• Soit nij l’effectif empirique observé lorsque
X=xi et Y=yj
• On teste: H0: X et Y indépendantes
• H1: X et Y liées
• L’effectif théorique (sous H0) est:
• Cij = n * pij
nij *nij
Càd cij =
nij

Les effectifs théoriques cij doivent vérifier


cij>5 sinon regrouper les lignes ou les
colonnes adjacentes
• Calcul de l’indicateur d’écart:
• d=  (nij – cij)²/cij
• Règle de décision:
• Accepter H0 avec une probabilité (1- )
si d <² 
• ²  est déterminé à partir tablez de ² et est
tel que: p(²> ² ) =  et = (p’-1)(q’-1)
p’ représente le nombre final de lignes
et q’ le nombre final de colonnes

Vous aimerez peut-être aussi