Top Qs
Chronologie
Chat
Contexte
Loi du χ²
loi statistique De Wikipédia, l'encyclopédie libre
Remove ads
En statistiques et en théorie des probabilités, la loi du χ2 centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k variables indépendantes suivant une loi normale centrée réduite.
La loi du χ2 est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ².
La loi du χ² non centrée généralise la loi du χ2.
Remove ads
Définition et caractéristiques
Résumé
Contexte
Définition
Soient k variables aléatoires X1, ... , Xk indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1. Alors par définition la variable X définie par
suit une loi du χ2 à k degrés de liberté. La loi de X est notée χ2 (k)[réf. nécessaire] ou χ 2
k.
Caractéristiques
La densité de probabilité de X notée fX est :
- pour tout x positif
où Γ est la fonction gamma[1].
Sa fonction de répartition est :
- où est la fonction gamma incomplète.
Remove ads
Approximation
Résumé
Contexte
Conformément au théorème central limite, lorsque k est « grand » (k > 100[2]), la loi d'une variable de χ2, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.
D'autres fonctions en χ2 peuvent converger plus rapidement vers la loi normale, notamment en ayant X ~ χ2(k) et k > 30 :
- √2X – √2k–1 peut être approchée par une loi normale centrée réduite (approximation de Ronald Aylmer Fisher[3]).
- 3√X/k peut être approchée par une loi normale de moyenne 1 – 29k et de variance 29k (approximation de Wilson et Hilferty, 1931[4]).
- √X peut être approchée par (approximation de Hoaglin[5]).
Remove ads
Utilisation
Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).
Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.
Histoire
Cette loi a été décrite pour la première fois par le géodésiste et statisticien allemand Friedrich Robert Helmert dans des articles de 1875–6,[6][7] où il a calculé la distribution d'échantillonnage de la variance de l'échantillon d'une population normale. Ainsi, en allemand, cela était traditionnellement connu sous le nom de Helmert'sche ("Helmertien") ou "distribution d'Helmert".
Cette loi a été redécouverte indépendamment par le mathématicien anglais Karl Pearson dans le contexte de la qualité de l'ajustement, pour lequel il a développé son test du χ² de Pearson, publié en 1900, avec une table calculée de valeurs publiées dans (Elderton 1902), recueillies dans (Pearson 1914, Table XII). Le nom "chi-carré" dérive finalement de la sténographie de Pearson pour l'exposant dans une loi normale multidimensionnelle avec la lettre grecque Chi, écrivant −12χ2 pour ce qui apparaîtrait dans la notation moderne comme −12xTΣ−1x' (Σ étant la matrice de covariance)[8].
L'idée d'une famille de "distributions du chi carré", cependant, n'est pas due à Pearson mais est apparue comme un développement ultérieur dû à Ronald Aylmer Fisher dans les années 1920[6].
Remove ads
Liens avec d'autres lois
Résumé
Contexte
Soient Xi des variables aléatoires indépendantes suivant des lois normales d'espérance μi et de variance σi2.
Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du χ2 à n degrés de liberté, X et Y étant indépendantes, alors suit une loi de Student à n degrés de liberté.
Si X suit une loi du χ2 à n degrés de liberté, et Y une loi du χ2 à m degrés de liberté, et si X et Y sont indépendantes, alors suit une loi de Fisher à n et m degrés de liberté.
Remove ads
Table de valeurs des quantiles
Le tableau suivant fournit les valeurs de certains quantiles de la loi du χ2 pour différents degrés de liberté k. Pour chaque valeur de α, le quantile donné est tel que la probabilité pour qu'une variable suivant une loi de χ2 à k degrés de liberté lui soit inférieur est de 1 – α. Par exemple, pour 1 – α = 0,95 et k = 7, si X suit une loi de χ2 à 7 degrés de liberté, on lit dans la table que
Remove ads
Lien avec les méthodes bayésiennes
Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le χ2 constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.
L'ouvrage de référence de Jaynes en donne également une démonstration en page 287[9].
Remove ads
Voir aussi
Liens externes
Bibliographie
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads