Statistiques

Un article de Wikipédia, l'encyclopédie libre
Aller à la navigation Aller à la recherche
La distribution normale , une densité de probabilité très courante , utile en raison du théorème central limite .
Les diagrammes de dispersion sont utilisés dans les statistiques descriptives pour montrer les relations observées entre différentes variables, en utilisant ici l' ensemble de données sur les fleurs d'iris .

La statistique est la discipline qui concerne la collecte, l'organisation, l'analyse, l'interprétation et la présentation des données . [1] [2] [3] En appliquant les statistiques à un problème scientifique, industriel ou social, il est conventionnel de commencer par une population statistique ou un modèle statistique à étudier. Les populations peuvent être divers groupes de personnes ou d'objets tels que "toutes les personnes vivant dans un pays" ou "chaque atome composant un cristal". Les statistiques traitent de tous les aspects des données, y compris la planification de la collecte des données en termes de conception d' enquêtes et d' expériences . [4]

Lorsque les données du recensement ne peuvent pas être collectées, les statisticiens collectent des données en élaborant des plans d'expérience et des échantillons d' enquête spécifiques . L'échantillonnage représentatif garantit que les inférences et les conclusions peuvent raisonnablement s'étendre de l'échantillon à la population dans son ensemble. Une étude expérimentale consiste à prendre des mesures du système à l'étude, à manipuler le système, puis à prendre des mesures supplémentaires en utilisant la même procédure pour déterminer si la manipulation a modifié les valeurs des mesures. En revanche, une étude observationnelle n'implique pas de manipulation expérimentale.

Deux méthodes statistiques principales sont utilisées dans l'analyse des données : les statistiques descriptives , qui résument les données d'un échantillon à l'aide d' indices tels que la moyenne ou l' écart type , et les statistiques inférentielles , qui tirent des conclusions à partir de données soumises à des variations aléatoires (par exemple, erreurs d'observation, variation d'échantillonnage). [5] La statistique descriptive s'intéresse le plus souvent à deux ensembles de propriétés d'une distribution (échantillon ou population) : la tendance centrale (ou localisation ) cherche à caractériser la valeur centrale ou typique de la distribution, tandis que la dispersion (ouvariabilité ) caractérise la mesure dans laquelle les membres de la distribution s'écartent de son centre et les uns des autres. Les inférences sur les statistiques mathématiques sont faites dans le cadre de la théorie des probabilités , qui traite de l'analyse de phénomènes aléatoires.

Une procédure statistique standard implique la collecte de données conduisant à tester la relation entre deux ensembles de données statistiques, ou un ensemble de données et des données synthétiques tirées d'un modèle idéalisé. Une hypothèse est proposée pour la relation statistique entre les deux ensembles de données, et celle-ci est comparée comme alternative à une hypothèse nulle idéalisée d'absence de relation entre deux ensembles de données. Le rejet ou la réfutation de l'hypothèse nulle se fait à l'aide de tests statistiques qui quantifient le sens dans lequel la valeur nulle peut être prouvée fausse, compte tenu des données utilisées dans le test. En travaillant à partir d'une hypothèse nulle, deux formes d'erreur de base sont reconnues : les erreurs de type I (l'hypothèse nulle est faussement rejetée donnant un « faux positif ») etErreurs de type II (l'hypothèse nulle n'est pas rejetée et une relation réelle entre les populations est manquée, ce qui donne un "faux négatif"). [6] De multiples problèmes ont été associés à ce cadre, allant de l'obtention d'une taille d'échantillon suffisante à la spécification d'une hypothèse nulle adéquate. [5]

Les processus de mesure qui génèrent des données statistiques sont également sujets à erreur. Bon nombre de ces erreurs sont classées comme aléatoires (bruit) ou systématiques ( biais ), mais d'autres types d'erreurs (p. La présence de données manquantes ou de censure peut entraîner des estimations biaisées et des techniques spécifiques ont été développées pour résoudre ces problèmes.

Présentation

La statistique est un corps mathématique de la science qui se rapporte à la collecte, l'analyse, l'interprétation ou l'explication et la présentation de données , [7] ou en tant que branche des mathématiques . [8] Certains considèrent les statistiques comme une science mathématique distincte plutôt qu'une branche des mathématiques. Alors que de nombreuses recherches scientifiques utilisent des données, les statistiques concernent l'utilisation de données dans un contexte d'incertitude et de prise de décision face à l'incertitude. [9] [10]

Lorsqu'on applique des statistiques à un problème, il est courant de commencer par une population ou un processus à étudier. Les populations peuvent être des sujets divers tels que "toutes les personnes vivant dans un pays" ou "chaque atome composant un cristal". Idéalement, les statisticiens compilent des données sur l'ensemble de la population (opération appelée recensement ). Cela peut être organisé par les instituts statistiques gouvernementaux. Les statistiques descriptives peuvent être utilisées pour résumer les données sur la population. Les descripteurs numériques incluent la moyenne et l' écart type pour les données continues (comme le revenu), tandis que la fréquence et le pourcentage sont plus utiles pour décrire les données catégorielles (comme l'éducation).

Lorsqu'un recensement n'est pas réalisable, un sous-ensemble choisi de la population appelé échantillon est étudié. Une fois qu'un échantillon représentatif de la population est déterminé, les données sont collectées pour les membres de l'échantillon dans un cadre d'observation ou expérimental . Encore une fois, des statistiques descriptives peuvent être utilisées pour résumer les données de l'échantillon. Cependant, le tirage de l'échantillon contient un élément d'aléatoire ; par conséquent, les descripteurs numériques de l'échantillon sont également sujets à l'incertitude. Pour tirer des conclusions significatives sur l'ensemble de la population, des statistiques déductives sont nécessaires. Il utilise des modèles dans les données de l'échantillon pour tirer des inférences sur la population représentée tout en tenant compte du caractère aléatoire. Ces inférences peuvent prendre la forme de réponses à des questions oui/non sur les données (test d'hypothèse ), estimer les caractéristiques numériques des données ( estimation ), décrire les associations au sein des données ( corrélation ) et modéliser les relations au sein des données (par exemple, à l'aide d' une analyse de régression ). L'inférence peut s'étendre à la prévision , la prédiction et l'estimation de valeurs non observées dans ou associées à la population étudiée. Il peut inclure l' extrapolation et l' interpolation de séries temporelles ou de données spatiales , et l'exploration de données .

Statistiques mathématiques

La statistique mathématique est l'application des mathématiques à la statistique. Les techniques mathématiques utilisées pour cela comprennent l'analyse mathématique , l'algèbre linéaire , l'analyse stochastique , les équations différentielles et la théorie des probabilités de mesure . [11] [12]

Histoire

Gerolamo Cardano , pionnier des mathématiques des probabilités.

Les premiers écrits sur l'inférence statistique remontent aux mathématiciens et cryptographes arabes , au cours de l' âge d'or islamique entre le VIIIe et le XIIIe siècle. Al-Khalil (717-786) a écrit le Livre des messages cryptographiques , qui contient la première utilisation de permutations et de combinaisons , pour répertorier tous les mots arabes possibles avec et sans voyelles. [13] Dans son livre, Manuscript on Deciphering Cryptographic Messages, Al-Kindi a donné une description détaillée de la façon d'utiliser l' analyse de fréquence pour déchiffrer les messages cryptés . Al-Kindi a également fait la première utilisation connue deinférence statistique , tandis que lui et plus tard les cryptographes arabes ont développé les premières méthodes statistiques pour décoder les messages cryptés. Ibn Adlan (1187-1268) a fait plus tard une contribution importante, sur l'utilisation de la taille de l' échantillon dans l'analyse de fréquence. [13]

Les premiers écrits européens sur les statistiques remontent à 1663, avec la publication de Natural and Political Observations on the Bills of Mortality par John Graunt . [14] Les premières applications de la pensée statistique a tourné autour des besoins des États de la politique sur la base des données démographiques et économiques, d' où son STAT étymologie . La portée de la discipline des statistiques s'est élargie au début du XIXe siècle pour inclure la collecte et l'analyse de données en général. Aujourd'hui, les statistiques sont largement utilisées dans le gouvernement, les affaires et les sciences naturelles et sociales.

Les fondements mathématiques de la statistique moderne ont été posés au XVIIe siècle avec le développement de la théorie des probabilités par Gerolamo Cardano , Blaise Pascal et Pierre de Fermat . La théorie mathématique des probabilités est née de l'étude des jeux de hasard , bien que le concept de probabilité ait déjà été examiné dans le droit médiéval et par des philosophes comme Juan Caramuel . [15] La méthode des moindres carrés a été décrite pour la première fois par Adrien-Marie Legendre en 1805.

Karl Pearson , un des fondateurs de la statistique mathématique.

Le domaine moderne de la statistique a émergé à la fin du 19e et au début du 20e siècle en trois étapes. [16] La première vague, au tournant du siècle, a été menée par les travaux de Francis Galton et Karl Pearson , qui ont transformé la statistique en une discipline mathématique rigoureuse utilisée pour l'analyse, non seulement en science, mais aussi en industrie et en politique. . Les contributions de Galton comprenaient l'introduction des concepts d' écart type , de corrélation , d' analyse de régression et l'application de ces méthodes à l'étude de la variété des caractéristiques humaines - taille, poids, longueur des cils, entre autres. [17] Pearson a développé leCoefficient de corrélation produit-moment de Pearson , défini comme un produit-moment, [18] la méthode des moments pour l'ajustement des distributions aux échantillons et la distribution de Pearson , entre autres choses. [19] Galton et Pearson ont fondé Biometrika en tant que premier journal de statistiques mathématiques et de biostatistique (alors appelé biométrie), et ce dernier a fondé le premier département de statistique universitaire au monde à l' University College de Londres . [20]

Ronald Fisher a inventé le terme hypothèse nulle au cours de l' expérience de dégustation du thé Lady , qui « n'est jamais prouvée ou établie, mais est peut-être réfutée, au cours de l'expérimentation ». [21] [22]

La deuxième vague des années 1910 et 20 a été initiée par William Sealy Gosset et a atteint son point culminant avec les idées de Ronald Fisher , qui a écrit les manuels qui devaient définir la discipline académique dans les universités du monde entier. Les publications les plus importantes de Fisher étaient son article fondateur de 1918, The Correlation between Relatives on the Supposition of Mendelian Inheritance (qui fut le premier à utiliser le terme statistique, variance ), son ouvrage classique de 1925 Statistical Methods for Research Workers et son 1935 The Design of Experiments , [23] [24] [25] où il a développé un plan d'expériences rigoureuxdes modèles. Il est à l'origine des concepts de suffisance , de statistiques auxiliaires , de discriminateur linéaire de Fisher et d' information de Fisher . [26] Dans son livre 1930 La Genetical théorie de la sélection naturelle , il a appliqué des statistiques à divers biologiques concepts tels que le principe de Fisher [27] (qui AWF Edwards appelle « probablement le plus l' argument célèbre dans la biologie évolutive ») et emballement fisherien , [28 ] [29] [30] [31] [32] [33] un concept danssélection sexuelle à propos d'un effet d'emballement de rétroaction positive trouvé dans l' évolution .

La dernière vague, qui a principalement vu le raffinement et l'expansion des développements antérieurs, a émergé du travail de collaboration entre Egon Pearson et Jerzy Neyman dans les années 1930. Ils ont introduit les concepts d' erreur de « Type II », de puissance d'un test et d' intervalles de confiance . Jerzy Neyman en 1934 a montré que l'échantillonnage aléatoire stratifié était en général une meilleure méthode d'estimation que l'échantillonnage raisonné (quota). [34]

Aujourd'hui, les méthodes statistiques sont appliquées dans tous les domaines qui impliquent la prise de décision, pour faire des inférences précises à partir d'un ensemble de données rassemblées et pour prendre des décisions face à l'incertitude sur la base d'une méthodologie statistique. L'utilisation d' ordinateurs modernes a accéléré les calculs statistiques à grande échelle et a également rendu possible de nouvelles méthodes qui ne sont pas pratiques à exécuter manuellement. Les statistiques continuent d'être un domaine de recherche active, par exemple sur le problème de l'analyse des mégadonnées . [35]

Données statistiques

Collecte de données

Échantillonnage

Lorsque les données complètes du recensement ne peuvent pas être collectées, les statisticiens collectent des données d'échantillon en élaborant des plans d'expérience et des échantillons d'enquête spécifiques . Les statistiques elles-mêmes fournissent également des outils de prédiction et de prévision grâce à des modèles statistiques .

Pour utiliser un échantillon comme un guide pour une population entière, il est important qu'il représente vraiment la population globale. L' échantillonnage représentatif garantit que les inférences et les conclusions peuvent s'étendre en toute sécurité de l'échantillon à la population dans son ensemble. Un problème majeur réside dans la détermination du degré de représentativité de l'échantillon choisi. Les statistiques offrent des méthodes pour estimer et corriger tout biais au sein de l'échantillon et des procédures de collecte de données. Il existe également des méthodes de conception expérimentale pour les expériences qui peuvent atténuer ces problèmes au début d'une étude, renforçant sa capacité à discerner des vérités sur la population.

La théorie de l'échantillonnage fait partie de la discipline mathématique de la théorie des probabilités . La probabilité est utilisée en statistique mathématique pour étudier les distributions d' échantillonnage des statistiques d'échantillon et, plus généralement, les propriétés des procédures statistiques . L'utilisation de toute méthode statistique est valable lorsque le système ou la population considérée satisfont aux hypothèses de la méthode. La différence de point de vue entre la théorie des probabilités classique et la théorie de l'échantillonnage est, grosso modo, que la théorie des probabilités part des paramètres donnés d'une population totale pour en déduireprobabilités relatives aux échantillons. L'inférence statistique, cependant, se déplace dans la direction opposée - inférant inductivement des échantillons aux paramètres d'une population plus large ou totale.

Études expérimentales et observationnelles

Un objectif commun pour un projet de recherche statistique est d'étudier la causalité , et en particulier de tirer une conclusion sur l'effet des changements dans les valeurs des prédicteurs ou des variables indépendantes sur les variables dépendantes . Il existe deux grands types d'études statistiques causales : les études expérimentales et les études observationnelles.. Dans les deux types d'études, l'effet des différences d'une variable indépendante (ou de variables) sur le comportement de la variable dépendante est observé. La différence entre les deux types réside dans la manière dont l'étude est réellement menée. Chacun peut être très efficace. Une étude expérimentale consiste à prendre des mesures du système à l'étude, à manipuler le système, puis à prendre des mesures supplémentaires en utilisant la même procédure pour déterminer si la manipulation a modifié les valeurs des mesures. En revanche, une étude observationnelle n'implique pas de manipulation expérimentale . Au lieu de cela, les données sont recueillies et les corrélations entre les prédicteurs et la réponse sont étudiées. Alors que les outils d'analyse de données fonctionnent mieux sur les données d' études randomisées, ils sont également appliqués à d'autres types de données - comme les expériences naturelles et les études observationnelles [36] - pour lesquelles un statisticien utiliserait une méthode d'estimation modifiée et plus structurée (par exemple, l' estimation des différences et les variables instrumentales , parmi beaucoup d'autres) qui produire des estimateurs cohérents .

Expériences

Les étapes de base d'une expérience statistique sont :

  1. Planifier la recherche, y compris trouver le nombre de répétitions de l'étude, à l'aide des informations suivantes : estimations préliminaires concernant la taille des effets du traitement , hypothèses alternatives et variabilité expérimentale estimée . La prise en compte du choix des sujets d'expérimentation et de l'éthique de la recherche est nécessaire. Les statisticiens recommandent que les expériences comparent (au moins) un nouveau traitement avec un traitement standard ou un contrôle, pour permettre une estimation impartiale de la différence dans les effets du traitement.
  2. Plan d'expériences , utilisant le blocage pour réduire l'influence des variables confusionnelles , et l' attribution aléatoire des traitements aux sujets pour permettre des estimations non biaisées des effets du traitement et de l'erreur expérimentale. A ce stade, les expérimentateurs et statisticiens rédigent le protocole expérimental qui guidera la réalisation de l'expérience et qui précise l' analyse primaire des données expérimentales.
  3. Réaliser l'expérience suivant le protocole expérimental et analyser les données suivant le protocole expérimental.
  4. Examiner plus avant l'ensemble de données dans les analyses secondaires, pour suggérer de nouvelles hypothèses pour une étude future.
  5. Documenter et présenter les résultats de l'étude.

Les expériences sur le comportement humain ont des préoccupations particulières. La célèbre étude Hawthorne a examiné les changements dans l'environnement de travail à l'usine Hawthorne de la Western Electric Company . Les chercheurs souhaitaient déterminer si un éclairage accru augmenterait la productivité des travailleurs de la chaîne de montage . Les chercheurs ont d'abord mesuré la productivité de l'usine, puis modifié l'éclairage dans une zone de l'usine et vérifié si les changements d'éclairage affectaient la productivité. Il s'est avéré que la productivité s'est effectivement améliorée (dans les conditions expérimentales). Cependant, l'étude est fortement critiquée aujourd'hui pour des erreurs dans les procédures expérimentales, en particulier pour l'absence d'un groupe témoin etcécité . L' effet Hawthorne fait référence à la constatation qu'un résultat (dans ce cas, la productivité des travailleurs) a changé en raison de l'observation elle-même. Ceux de l'étude Hawthorne sont devenus plus productifs non pas parce que l'éclairage a été modifié, mais parce qu'ils étaient observés. [37]

Étude observationnelle

Un exemple d'étude d'observation est celui qui explore l'association entre le tabagisme et le cancer du poumon. Ce type d'étude utilise généralement une enquête pour recueillir des observations sur la zone d'intérêt, puis effectue une analyse statistique. Dans ce cas, les chercheurs recueilleraient des observations à la fois de fumeurs et de non-fumeurs, peut-être par le biais d'une étude de cohorte , puis rechercheraient le nombre de cas de cancer du poumon dans chaque groupe. [38] Une étude cas-témoins est un autre type d'étude d'observation dans laquelle les personnes avec et sans le résultat d'intérêt (par exemple le cancer du poumon) sont invitées à participer et leurs antécédents d'exposition sont recueillis.

Types de données

Diverses tentatives ont été faites pour produire une taxonomie des niveaux de mesure . Le psychophysicien Stanley Smith Stevens a défini des échelles nominales, ordinales, d'intervalle et de rapport. Les mesures nominales n'ont pas d'ordre de classement significatif parmi les valeurs et permettent toute transformation un à un (injective). Les mesures ordinales ont des différences imprécises entre les valeurs consécutives, mais ont un ordre significatif pour ces valeurs et permettent toute transformation préservant l'ordre. Les mesures d'intervalle ont des distances significatives entre les mesures définies, mais la valeur zéro est arbitraire (comme dans le cas des mesures de longitude et de température en Celsius ou Fahrenheit), et autoriser toute transformation linéaire. Les mesures de rapport ont à la fois une valeur zéro significative et les distances entre différentes mesures définies, et permettent toute transformation de remise à l'échelle.

Étant donné que les variables conformes uniquement aux mesures nominales ou ordinales ne peuvent pas être raisonnablement mesurées numériquement, elles sont parfois regroupées en tant que variables catégorielles , tandis que les mesures de rapport et d'intervalle sont regroupées en tant que variables quantitatives , qui peuvent être soit discrètes, soit continues , en raison de leur nature numérique. De telles distinctions peuvent souvent être faiblement corrélées avec le type de données en informatique, en ce sens que les variables catégorielles dichotomiques peuvent être représentées avec le type de données booléen , les variables catégorielles polytomiques avec des entiers assignés arbitrairement dans le type de données intégral, et des variables continues avec le type de données réel impliquant un calcul à virgule flottante . Mais la mise en correspondance des types de données informatiques avec des types de données statistiques dépend de la catégorisation de ces derniers qui est mise en œuvre.

D'autres catégorisations ont été proposées. Par exemple, Mosteller et Tukey (1977) [39] distinguent les notes, les rangs, les fractions comptées, les comptes, les montants et les soldes. Nelder (1990) [40] a décrit des comptages continus, des ratios continus, des ratios de comptage et des modes catégoriels de données. (Voir aussi : Chrisman (1998), [41] van den Berg (1991). [42] )

La question de savoir s'il est approprié ou non d'appliquer différents types de méthodes statistiques aux données obtenues à partir de différents types de procédures de mesure est compliquée par des problèmes concernant la transformation des variables et l'interprétation précise des questions de recherche. "La relation entre les données et ce qu'elles décrivent reflète simplement le fait que certains types d'énoncés statistiques peuvent avoir des valeurs de vérité qui ne sont pas invariantes sous certaines transformations. Le fait qu'une transformation soit ou non raisonnable à envisager dépend de la question à laquelle on essaie de répondre. ." [43] : 82

Méthodes

Statistiques descriptives

Une statistique descriptive (au nom comptable sens) est un résumé statistique qui décrit quantitativement ou résume les caractéristiques d'un ensemble d' informations , [44] tandis que les statistiques descriptives sur le nom de masse logique est le processus d'utilisation et l' analyse de ces statistiques. Les statistiques descriptives se distinguent des statistiques inférentielles (ou statistiques inductives), en ce que les statistiques descriptives visent à résumer un échantillon plutôt que d'utiliser les données pour en savoir plus sur la population que l'échantillon de données est censé représenter.

Statistiques inférentielles

L'inférence statistique est le processus d'utilisation de l'analyse des données pour déduire les propriétés d'une distribution de probabilité sous-jacente . [45] L' analyse statistique inférentielle déduit les propriétés d'une population , par exemple en testant des hypothèses et en dérivant des estimations. On suppose que l'ensemble de données observé est échantillonné à partir d'une population plus large. Les statistiques inférentielles peuvent être opposées aux statistiques descriptives . Les statistiques descriptives ne concernent que les propriétés des données observées et ne reposent pas sur l'hypothèse que les données proviennent d'une population plus large.

Terminologie et théorie des statistiques inférentielles

Statistiques, estimateurs et quantités pivots

Considérons des variables aléatoires indépendantes à distribution identique (IID) avec une distribution de probabilité donnée : la théorie de l' inférence statistique et de l' estimation standard définit un échantillon aléatoire comme le vecteur aléatoire donné par le vecteur colonne de ces variables IID. [46] La population examinée est décrite par une distribution de probabilité qui peut avoir des paramètres inconnus.

Une statistique est une variable aléatoire qui est fonction de l'échantillon aléatoire, mais pas une fonction de paramètres inconnus . La distribution de probabilité de la statistique, cependant, peut avoir des paramètres inconnus. Considérons maintenant une fonction du paramètre inconnu : un estimateur est une statistique utilisée pour estimer une telle fonction. Les estimateurs couramment utilisés comprennent la moyenne d'échantillon , la variance d'échantillon sans biais et la covariance d'échantillon .

Une variable aléatoire qui est fonction de l'échantillon aléatoire et du paramètre inconnu, mais dont la distribution de probabilité ne dépend pas du paramètre inconnu est appelée quantité pivot ou pivot. Les pivots largement utilisés incluent le z-score , la statistique du chi carré et la valeur t de Student .

Entre deux estimateurs d'un paramètre donné, celui dont l' erreur quadratique moyenne est la plus faible est dit le plus efficace . De plus, un estimateur est dit sans biais si sa valeur attendue est égale à la vraie valeur du paramètre inconnu en cours d'estimation, et asymptotiquement sans biais si sa valeur attendue converge à la limite vers la vraie valeur de ce paramètre.

D'autres propriétés souhaitables pour les estimateurs comprennent : les estimateurs UMVUE qui ont la plus faible variance pour toutes les valeurs possibles du paramètre à estimer (c'est généralement une propriété plus facile à vérifier que l'efficacité) et les estimateurs cohérents qui convergent en probabilité vers la vraie valeur d'un tel paramètre .

Reste la question de savoir comment obtenir des estimateurs dans une situation donnée et effectuer le calcul, plusieurs méthodes ont été proposées : la méthode des moments , la méthode du maximum de vraisemblance , la méthode des moindres carrés et la méthode plus récente d' estimation des équations .

Hypothèse nulle et hypothèse alternative

L'interprétation des informations statistiques peut souvent impliquer le développement d'une hypothèse nulle qui est généralement (mais pas nécessairement) qu'aucune relation n'existe entre les variables ou qu'aucun changement ne s'est produit au fil du temps. [47] [48]

La meilleure illustration pour un novice est la situation difficile rencontrée par un procès pénal. L'hypothèse nulle, H 0 , affirme que l'accusé est innocent, tandis que l'hypothèse alternative, H 1 , affirme que l'accusé est coupable. L'acte d'accusation vient en raison de soupçons de culpabilité. Le H 0 (statu quo) s'oppose à H 1 et est maintenu à moins que H 1 soit étayé par des preuves « hors de tout doute raisonnable ». Cependant, « ne pas rejeter H 0 » dans cette affaire n'implique pas l'innocence, mais simplement que les preuves étaient insuffisantes pour condamner. Ainsi , le jury n'a pas nécessairement accepter H 0 , mais ne rejette pas H0 . Bien que l'on ne puisse pas "prouver" une hypothèse nulle, on peut tester à quel point elle est proche de la vérité avec un test de puissance , qui teste les erreurs de type II .

Ce que les statisticiens appellent une hypothèse alternative est simplement une hypothèse qui contredit l' hypothèse nulle .

Erreur

En partant d'une hypothèse nulle , deux grandes catégories d'erreurs sont reconnues :

  • Erreurs de type I où l'hypothèse nulle est faussement rejetée, donnant un « faux positif ».
  • Erreurs de type II où l'hypothèse nulle ne parvient pas à être rejetée et une différence réelle entre les populations est manquée, ce qui donne un « faux négatif ».

L'écart type fait référence à la mesure dans laquelle les observations individuelles dans un échantillon diffèrent d'une valeur centrale, telle que la moyenne de l'échantillon ou de la population, tandis que l'erreur type fait référence à une estimation de la différence entre la moyenne de l'échantillon et la moyenne de la population.

Une erreur statistique est le montant par lequel une observation diffère de sa valeur attendue , un résidu est le montant qu'une observation diffère de la valeur que l'estimateur de la valeur attendue suppose sur un échantillon donné (également appelé prédiction).

L'erreur quadratique moyenne est utilisée pour obtenir des estimateurs efficaces , une classe d'estimateurs largement utilisée. L'erreur quadratique moyenne est simplement la racine carrée de l'erreur quadratique moyenne.

Ajustement des moindres carrés : en rouge les points à ajuster, en bleu la ligne ajustée.

De nombreuses méthodes statistiques cherchent à minimiser la somme résiduelle des carrés , et celles - ci sont appelées « méthodes des moindres carrés » par opposition aux moindres écarts absolus . Ce dernier accorde un poids égal aux petites et aux grosses erreurs, tandis que le premier accorde plus de poids aux grosses erreurs. La somme des carrés résiduelle est également différentiable , ce qui fournit une propriété pratique pour effectuer une régression . Les moindres carrés appliqués à la régression linéaire sont appelés méthode des moindres carrés ordinaires et les moindres carrés appliqués à la régression non linéaire sont appelés moindres carrés non linéaires. Dans un modèle de régression linéaire également, la partie non déterministe du modèle est appelée terme d'erreur, perturbation ou plus simplement bruit. La régression linéaire et la régression non linéaire sont traitées par les moindres carrés polynomiaux , qui décrivent également la variance dans une prédiction de la variable dépendante (axe des y) en fonction de la variable indépendante (axe des x) et des écarts (erreurs, bruit, perturbations) à partir de la courbe estimée (ajustée).

Les processus de mesure qui génèrent des données statistiques sont également sujets à erreur. Bon nombre de ces erreurs sont classées comme aléatoires (bruit) ou systématiques ( biais ), mais d'autres types d'erreurs (p. La présence de données manquantes ou de censure peut entraîner des estimations biaisées et des techniques spécifiques ont été développées pour résoudre ces problèmes. [49]

Estimation de l'intervalle
Intervalles de confiance : la ligne rouge est la vraie valeur de la moyenne dans cet exemple, les lignes bleues sont des intervalles de confiance aléatoires pour 100 réalisations.

La plupart des études n'échantillonnent qu'une partie d'une population, de sorte que les résultats ne représentent pas entièrement l'ensemble de la population. Toutes les estimations obtenues à partir de l'échantillon ne font qu'approximer la valeur de la population. Les intervalles de confiance permettent aux statisticiens d'exprimer dans quelle mesure l'estimation de l'échantillon correspond à la vraie valeur dans l'ensemble de la population. Ils sont souvent exprimés sous forme d'intervalles de confiance à 95 %. Formellement, un intervalle de confiance à 95% pour une valeur est une plage où, si l'échantillonnage et l'analyse étaient répétés dans les mêmes conditions (donnant un ensemble de données différent), l'intervalle inclurait la vraie valeur (population) dans 95% de tous les cas possibles . Cela n'implique pas que la probabilité que la vraie valeur se trouve dans l'intervalle de confiance est de 95 %. Du fréquentisteperspective, une telle affirmation n'a même pas de sens, car la vraie valeur n'est pas une variable aléatoire . Soit la vraie valeur est ou n'est pas dans l'intervalle donné. Cependant, il est vrai qu'avant d'échantillonner des données et de disposer d'un plan sur la manière de construire l'intervalle de confiance, la probabilité est de 95 % que l'intervalle encore à calculer couvrira la vraie valeur : à ce stade, le les limites de l'intervalle sont des variables aléatoires non encore observées . Une approche qui donne un intervalle qui peut être interprété comme ayant une probabilité donnée de contenir la vraie valeur consiste à utiliser un intervalle crédible à partir des statistiques bayésiennes : cette approche dépend d'une manière différente d' interpréter ce que l'on entend par "probabilité", c'est comme une probabilité bayésienne .

En principe, les intervalles de confiance peuvent être symétriques ou asymétriques. Un intervalle peut être asymétrique car il fonctionne comme limite inférieure ou supérieure d'un paramètre (intervalle gauche ou intervalle droit), mais il peut également être asymétrique car l'intervalle bilatéral est construit en violant la symétrie autour de l'estimation. Parfois, les limites d'un intervalle de confiance sont atteintes asymptotiquement et celles-ci sont utilisées pour approximer les vraies limites.

Importance

Les statistiques donnent rarement une réponse simple de type Oui/Non à la question analysée. L'interprétation se résume souvent au niveau de signification statistique appliqué aux nombres et fait souvent référence à la probabilité qu'une valeur rejette avec précision l'hypothèse nulle (parfois appelée valeur p ).

Dans ce graphique, la ligne noire est la distribution de probabilité pour la statistique de test , la région critique est l'ensemble de valeurs à droite du point de données observé (valeur observée de la statistique de test) et la valeur p est représentée par la zone verte.

L'approche standard [46] consiste à tester une hypothèse nulle par rapport à une hypothèse alternative. Une région critique est l'ensemble des valeurs de l'estimateur qui conduit à réfuter l'hypothèse nulle. La probabilité d'erreur de type I est donc la probabilité que l'estimateur appartienne à la région critique étant donné que l'hypothèse nulle est vraie ( significativité statistique ) et la probabilité d'erreur de type II est la probabilité que l'estimateur n'appartienne pas à la région critique donnée que l'hypothèse alternative est vraie. La puissance statistique d'un test est la probabilité qu'il rejette correctement l'hypothèse nulle lorsque l'hypothèse nulle est fausse.

Faire référence à la signification statistique ne signifie pas nécessairement que le résultat global est significatif en termes réels. Par exemple, dans une grande étude d'un médicament, il peut être démontré que le médicament a un effet bénéfique statistiquement significatif mais très faible, de sorte que le médicament est peu susceptible d'aider le patient de manière notable.

Bien qu'en principe le niveau acceptable de signification statistique puisse être sujet à débat, le niveau de signification est la plus grande valeur p qui permet au test de rejeter l'hypothèse nulle. Ce test équivaut logiquement à dire que la valeur p est la probabilité, en supposant que l'hypothèse nulle est vraie, d'observer un résultat au moins aussi extrême que la statistique du test . Par conséquent, plus le niveau de signification est petit, plus la probabilité de commettre une erreur de type I est faible.

Certains problèmes sont généralement associés à ce cadre (Voir critique des tests d'hypothèses ):

  • Une différence qui est très statistiquement significative peut toujours n'avoir aucune signification pratique, mais il est possible de formuler correctement des tests pour en tenir compte. Une réponse consiste à aller au - delà des rapports que le niveau de signification pour inclure la p -value lors de la déclaration si une hypothèse est rejetée ou acceptée. La valeur p, cependant, n'indique pas la taille ou l'importance de l'effet observé et peut également sembler exagérer l'importance des différences mineures dans les grandes études. Une approche meilleure et de plus en plus courante consiste à déclarer les intervalles de confiance . Bien que ceux-ci soient produits à partir des mêmes calculs que ceux des tests d'hypothèses ou p-valeurs, elles décrivent à la fois l'ampleur de l'effet et l'incertitude qui l'entoure.
  • Sophisme du conditionnel transposé, alias le sophisme du procureur : des critiques surviennent parce que l'approche de test d'hypothèse force une hypothèse (l' hypothèse nulle ) à privilégier, puisque ce qui est évalué est la probabilité du résultat observé étant donné l'hypothèse nulle et non la probabilité de la hypothèse nulle étant donné le résultat observé. Une alternative à cette approche est offerte par l'inférence bayésienne , bien qu'elle nécessite d'établir une probabilité a priori . [50]
  • Le rejet de l'hypothèse nulle ne prouve pas automatiquement l'hypothèse alternative.
  • Comme tout dans les statistiques inférentielles, cela repose sur la taille de l'échantillon, et donc sous des queues grasses, les valeurs de p peuvent être gravement mal calculées. [ précisions nécessaires ]
Exemples

Certains tests et procédures statistiques bien connus sont :

Analyse exploratoire des données

L'analyse exploratoire des données ( AED ) est une approche d' analyse d' ensembles de données pour résumer leurs principales caractéristiques, souvent à l'aide de méthodes visuelles. Un modèle statistique peut être utilisé ou non, mais l'EDA sert principalement à voir ce que les données peuvent nous dire au-delà de la tâche de modélisation formelle ou de test d'hypothèses.

Abus

Une mauvaise utilisation des statistiques peut produire des erreurs subtiles mais graves dans la description et l'interprétation, subtiles dans le sens où même des professionnels expérimentés commettent de telles erreurs, et graves dans le sens où elles peuvent conduire à des erreurs de décision dévastatrices. Par exemple, la politique sociale, la pratique médicale et la fiabilité de structures comme les ponts reposent toutes sur l'utilisation appropriée des statistiques.

Même lorsque les techniques statistiques sont correctement appliquées, les résultats peuvent être difficiles à interpréter pour ceux qui manquent d'expertise. La signification statistique d'une tendance dans les données - qui mesure dans quelle mesure une tendance pourrait être causée par une variation aléatoire dans l'échantillon - peut ou non correspondre à un sens intuitif de sa signification. L'ensemble des compétences statistiques de base (et le scepticisme) dont les gens ont besoin pour gérer correctement l'information dans leur vie quotidienne est appelé littératie statistique .

Il existe une perception générale selon laquelle les connaissances statistiques sont trop souvent utilisées intentionnellement à mauvais escient en trouvant des moyens d'interpréter uniquement les données qui sont favorables au présentateur. [51] Une méfiance et une incompréhension des statistiques sont associées à la citation : « Il existe trois sortes de mensonges : les mensonges, les mensonges maudits et les statistiques ». L'utilisation abusive des statistiques peut être à la fois involontaire et intentionnelle, et le livre How to Lie with Statistics [51] présente une série de considérations. Pour tenter de faire la lumière sur l'utilisation et l'abus des statistiques, des examens des techniques statistiques utilisées dans des domaines particuliers sont menés (par exemple, Warne, Lazo, Ramos et Ritter (2012)). [52]

Les moyens d'éviter une mauvaise utilisation des statistiques incluent l'utilisation de diagrammes appropriés et l'évitement des biais . [53] Une mauvaise utilisation peut se produire lorsque les conclusions sont trop généralisées et prétendent être représentatives de plus qu'elles ne le sont réellement, souvent en négligeant délibérément ou inconsciemment le biais d'échantillonnage. [54] Les graphiques à barres sont sans doute les diagrammes les plus faciles à utiliser et à comprendre, et ils peuvent être réalisés à la main ou avec de simples programmes informatiques. [53] Malheureusement, la plupart des gens ne recherchent pas les biais ou les erreurs, ils ne sont donc pas remarqués. Ainsi, les gens peuvent souvent croire que quelque chose est vrai même si ce n'est pas bien représenté . [54]Pour rendre crédibles et exactes les données recueillies à partir des statistiques, l'échantillon prélevé doit être représentatif de l'ensemble. [55] Selon Huff, « la fiabilité d'un échantillon peut être détruite par [le biais]... permettez-vous un certain degré de scepticisme. » [56]

Pour aider à la compréhension des statistiques, Huff a proposé une série de questions à poser dans chaque cas : [51]

  • Qui le dit ? (A-t-il/elle une hache à moudre ?)
  • Comment sait-il ? (A-t-il les ressources pour connaître les faits ?)
  • Qu'est-ce qui manque ? (Est-ce qu'il/elle nous donne une image complète ?)
  • Quelqu'un a changé de sujet ? (Est-ce qu'il/elle nous offre la bonne réponse au mauvais problème ?)
  • Est-ce que ça fait du sens? (Sa conclusion est-elle logique et cohérente avec ce que nous savons déjà ?)
Le problème des variables confusionnelles : X et Y peuvent être corrélés, non pas parce qu'il existe une relation causale entre eux, mais parce que les deux dépendent d'une troisième variable Z . Z est appelé facteur de confusion.

Mauvaise interprétation : corrélation

Le concept de corrélation est particulièrement remarquable pour la confusion potentielle qu'il peut engendrer. L'analyse statistique d'un ensemble de données révèle souvent que deux variables (propriétés) de la population considérée ont tendance à varier ensemble, comme si elles étaient liées. Par exemple, une étude du revenu annuel qui examine également l'âge du décès pourrait constater que les personnes pauvres ont tendance à avoir une vie plus courte que les personnes aisées. Les deux variables sont dites corrélées ; cependant, ils peuvent ou non être la cause l'un de l'autre. Les phénomènes de corrélation pourraient être causés par un troisième phénomène, auparavant inconsidéré, appelé variable cachée ou variable de confusion. Pour cette raison, il n'y a aucun moyen de déduire immédiatement l'existence d'une relation causale entre les deux variables.

Applications

Statistiques appliquées, statistiques théoriques et statistiques mathématiques

Les statistiques appliquées comprennent les statistiques descriptives et l'application des statistiques inférentielles. [57] [58] Les statistiques théoriques concernent les arguments logiques sous-jacents à la justification des approches à l'inférence statistique , ainsi qu'englobant les statistiques mathématiques . Les statistiques mathématiques comprennent non seulement la manipulation des distributions de probabilités nécessaires pour dériver des résultats liés aux méthodes d'estimation et d'inférence, mais aussi divers aspects des statistiques informatiques et de la conception des expériences .

Les consultants statistiques peuvent aider les organisations et les entreprises qui ne disposent pas d'une expertise interne pertinente à leurs questions particulières.

Apprentissage automatique et exploration de données

Les modèles d' apprentissage automatique sont des modèles statistiques et probabilistes qui capturent des modèles dans les données grâce à l'utilisation d'algorithmes de calcul.

Statistiques dans le milieu universitaire

Les statistiques s'appliquent à une grande variété de disciplines universitaires , y compris les sciences naturelles et sociales , le gouvernement et les affaires. Les statistiques commerciales appliquent des méthodes statistiques en économétrie , en audit , en production et en opérations, y compris l'amélioration des services et la recherche marketing. [59] Une étude de deux revues de biologie tropicale a révélé que les 12 tests statistiques les plus fréquents sont : Analysis of Variance (ANOVA), Chi-Square Test , Student's T Test , Linear Regression , Pearson's Correlation Coefficient , Mann-Whitney U Test, Kruskal-Wallis test , indice de diversité de Shannon , test de Tukey , analyse Cluster , Spearman corrélation test et analyse en composantes principales . [60]

Un cours de statistique typique couvre les statistiques descriptives, les probabilités, les distributions binomiales et normales , le test d'hypothèses et d'intervalles de confiance, la régression linéaire et la corrélation. [61] Les cours de statistiques fondamentales modernes pour les étudiants de premier cycle se concentrent sur la sélection correcte des tests, l'interprétation des résultats et l'utilisation de logiciels de statistiques gratuits . [60]

Calcul statistique

Les augmentations rapides et soutenues de la puissance de calcul à partir de la seconde moitié du 20e siècle ont eu un impact substantiel sur la pratique de la science statistique. Les premiers modèles statistiques appartenaient presque toujours à la classe des modèles linéaires , mais des ordinateurs puissants, couplés à des algorithmes numériques appropriés , ont suscité un intérêt accru pour les modèles non linéaires (tels que les réseaux de neurones ) ainsi que la création de nouveaux types, tels que les modèles linéaires généralisés. et modèles à plusieurs niveaux .

L'augmentation de la puissance de calcul a également conduit à la popularité croissante des méthodes de calcul intensives basées sur le rééchantillonnage , telles que les tests de permutation et le bootstrap , tandis que des techniques telles que l' échantillonnage de Gibbs ont rendu l'utilisation de modèles bayésiens plus réalisable. La révolution informatique a des implications pour l'avenir des statistiques avec un nouvel accent mis sur les statistiques "expérimentales" et "empiriques". Un grand nombre de logiciels statistiques à usage général et spécial sont maintenant disponibles. Des exemples de logiciels disponibles capables de calculs statistiques complexes comprennent des programmes tels que Mathematica , SAS , SPSS etR .

Statistiques commerciales

En entreprise, la « statistique » est un outil de gestion et d' aide à la décision largement utilisé . Il est particulièrement appliqué dans la gestion financière , la gestion du marketing et la production , les services et la gestion des opérations . [62] [63] Les statistiques sont également fortement utilisées dans la comptabilité de gestion et l' audit . La discipline des sciences de gestion formalise l'utilisation des statistiques, et d'autres mathématiques, dans les affaires. ( L' économétrie est l'application de méthodes statistiques aux données économiquesafin de donner un contenu empirique aux relations économiques .)

Un cours typique de "Statistiques d'entreprise" est destiné aux majors des affaires et couvre [64] les statistiques descriptives ( collecte , description, analyse et résumé des données), les probabilités (généralement les distributions binomiale et normale ), le test d'hypothèses et les intervalles de confiance, régression linéaire et corrélation ; Les cours (suivis) peuvent inclure les prévisions , les séries chronologiques , les arbres de décision , la régression linéaire multiple et d'autres sujets de l'analyse commerciale plus généralement. Voir aussi Mathématiques commerciales § Niveau universitaire. Les programmes de certification professionnelle , tels que le CFA , incluent souvent des sujets en statistiques.

Statistiques appliquées aux mathématiques ou aux arts

Traditionnellement, les statistiques se préoccupaient de tirer des inférences à l'aide d'une méthodologie semi-standardisée qui était un « apprentissage requis » dans la plupart des sciences. [ citation nécessaire ] Cette tradition a changé avec l'utilisation de statistiques dans des contextes non inférentiels. Ce qui était autrefois considéré comme un sujet aride, pris dans de nombreux domaines comme une exigence de diplôme, est maintenant considéré avec enthousiasme. [ selon qui ? ] Initialement tourné en dérision par certains puristes mathématiques, il est désormais considéré comme une méthodologie essentielle dans certains domaines.

  • En théorie des nombres , les nuages ​​de points de données générés par une fonction de distribution peuvent être transformés avec des outils familiers utilisés dans les statistiques pour révéler des modèles sous-jacents, ce qui peut ensuite conduire à des hypothèses.
  • Les méthodes statistiques, y compris les méthodes prédictives de prévision, sont combinées à la théorie du chaos et à la géométrie fractale pour créer des œuvres vidéo considérées comme d'une grande beauté. [ citation nécessaire ]
  • L' art du processus de Jackson Pollock s'est appuyé sur des expériences artistiques au cours desquelles des distributions sous-jacentes dans la nature ont été révélées de manière artistique. [ citation nécessaire ] Avec l'avènement des ordinateurs, des méthodes statistiques ont été appliquées pour formaliser de tels processus naturels axés sur la distribution afin de créer et d'analyser l'art vidéo en mouvement. [ citation nécessaire ]
  • Les méthodes de statistiques peuvent être utilisées de manière prédicative dans l' art de la performance , comme dans un tour de cartes basé sur un processus de Markov qui ne fonctionne qu'une partie du temps, dont l'occasion peut être prédite à l'aide d'une méthodologie statistique.
  • Les statistiques peuvent être utilisées pour créer de l'art de manière prédicative, comme dans la musique statistique ou stochastique inventée par Iannis Xenakis , où la musique est spécifique à la performance. Bien que ce type d'art ne se présente pas toujours comme prévu, il se comporte de manière prévisible et ajustable à l'aide de statistiques.

Disciplines spécialisées

Les techniques statistiques sont utilisées dans un large éventail de types de recherche scientifique et sociale, notamment : la biostatistique , la biologie computationnelle , la sociologie computationnelle , la biologie des réseaux , les sciences sociales , la sociologie et la recherche sociale . Certains domaines d'enquête utilisent tellement les statistiques appliquées qu'ils ont une terminologie spécialisée . Ces disciplines comprennent :

En outre, il existe des types particuliers d'analyse statistique qui ont également développé leur propre terminologie et méthodologie spécialisée :

Les statistiques constituent également un outil de base clé dans les affaires et la fabrication. Il est utilisé pour comprendre la variabilité des systèmes de mesure, les processus de contrôle (comme dans le contrôle statistique des processus ou SPC), pour résumer les données et pour prendre des décisions basées sur les données. Dans ces rôles, c'est un outil clé, et peut-être le seul outil fiable. [ citation nécessaire ]

Voir aussi

Fondements et grands domaines de la statistique

Références

  1. ^ "Référence d'Oxford" .
  2. ^ Romijn, Jan-Willem (2014). "Philosophie des statistiques" . Encyclopédie de philosophie de Stanford .
  3. ^ "Dictionnaire de Cambridge" .
  4. ^ Dodge, Y. (2006) Le dictionnaire d'Oxford des termes statistiques , Oxford University Press. ISBN 0-19-920613-9 
  5. ^ un b Lund Research Ltd. "Statistiques descriptives et inférentielles" . statistiques.laerd.com . Récupéré le 23/03/2014 .
  6. ^ "Quelle est la différence entre les erreurs de test d'hypothèse de type I et de type II ?" . About.com Éducation . Récupéré le 2015-11-27 .
  7. ^ Moses, Lincoln E. (1986) Think and Explain with Statistics , Addison-Wesley, ISBN 978-0-201-15619-5 . p. 1–3 
  8. ^ Hays, William Lee, (1973) Statistiques pour les sciences sociales , Holt, Rinehart et Winston, p.xii, ISBN 978-0-03-077945-9 
  9. ^ Moore, David (1992). « Enseigner la statistique en tant que sujet respectable » . Dans F. Gordon ; S. Gordon (éd.). Statistiques pour le XXIe siècle . Washington, DC : L'Association mathématique d'Amérique. p.  14–25 . ISBN 978-0-88385-078-7.
  10. ^ Chance, Beth L. ; Rossman, Allan J. (2005). "Préface" (PDF) . Étude des concepts, applications et méthodes statistiques . Presse Duxbury. ISBN  978-0-495-05064-3.
  11. ^ Lakshmikantham, éd. par D. Kannan, V. (2002). Manuel d'analyse stochastique et d'applications . New York : M. Dekker. ISBN 0824706609.CS1 maint: extra text: authors list (link)
  12. ^ Schervish, Mark J. (1995). Théorie des statistiques (Corr. 2e impression. éd.). New York : Springer. ISBN 0387945466.
  13. ^ un b Broemeling, Lyle D. (1er novembre 2011). « Un compte d'inférence statistique précoce dans la cryptologie arabe ». Le statisticien américain . 65 (4) : 255-257. doi : 10.1198/tas.2011.10191 . S2CID 123537702 . 
  14. ^ Willcox, Walter (1938) "Le fondateur des statistiques". Revue de l' Institut international de statistique 5(4) : 321-328. JSTOR  1400906
  15. ^ J. Franklin, The Science of Conjecture: Evidence and Probability before Pascal, Johns Hopkins Univ Pr 2002
  16. ^ Helen Mary Walker (1975). Études d'histoire de la méthode statistique . Arno Presse. ISBN 9780405066283.
  17. ^ Galton, F (1877). "Les lois typiques de l'hérédité" . Nature . 15 (388) : 492-553. Bibcode : 1877Natur..15..492. . doi : 10.1038/015492a0 .
  18. ^ Stigler, SM (1989). "Le compte de Francis Galton de l'invention de la corrélation" . Sciences statistiques . 4 (2) : 73-79. doi : 10.1214/ss/1177012580 .
  19. ^ Pearson, K. (1900). "Sur le critère selon lequel un système donné d'écarts par rapport au probable dans le cas d'un système corrélé de variables est tel qu'il peut raisonnablement être supposé provenir d'un échantillonnage aléatoire" . Revue philosophique . Série 5. 50 (302) : 157–175. doi : 10.1080/14786440009463897 .
  20. ^ "Karl Pearson (1857-1936)" . Département des sciences statistiques – University College London . Archivé de l'original le 2008-09-25.
  21. ^ Fisher|1971|loc=Chapitre II. Les principes de l'expérimentation, illustrés par une expérience psycho-physique, section 8. L'hypothèse nulle
  22. ^ Citation OED : 1935 RA Fisher, La conception des expériences ii. 19, "Nous pouvons parler de cette hypothèse comme d'"hypothèse nulle", et l'hypothèse nulle n'est jamais prouvée ou établie, mais est peut-être réfutée, au cours de l'expérimentation."
  23. ^ Boîte, JF (février 1980). "RA Fisher et la conception des expériences, 1922-1926". Le statisticien américain . 34 (1) : 1–7. doi : 10.2307/2682986 . JSTOR 2682986 . 
  24. ^ Yates, F (juin 1964). « Sir Ronald Fisher et la conception des expériences ». Biométrie . 20 (2) : 307-321. doi : 10.2307/2528399 . JSTOR 2528399 . 
  25. ^ Stanley, Julian C. (1966). "L'influence de "La conception des expériences" de Fisher sur la recherche en éducation trente ans plus tard". Journal américain de recherche en éducation . 3 (3) : 223-229. doi : 10.3102/00028312003003223 . JSTOR 1161806 . S2CID 145725524 .  
  26. ^ Agresti, Alain; David B. Hichcock (2005). "Inférence bayésienne pour l'analyse de données catégoriques" (PDF) . Méthodes et applications statistiques . 14 (3) : 298. doi : 10.1007/s10260-005-0121-y . S2CID 18896230 .  
  27. ^ Edwards, AWF (1998). "La sélection naturelle et le rapport des sexes : les sources de Fisher". Naturaliste américain . 151 (6) : 564-569. doi : 10.1086/286141 . PMID 18811377 . S2CID 40540426 .  
  28. ^ Fisher, RA (1915) L'évolution de la préférence sexuelle. Revue eugénique (7) 184: 192
  29. ^ Fisher, RA (1930) La théorie génétique de la sélection naturelle . ISBN 0-19-850440-3 
  30. ^ Edwards, AWF (2000) Perspectives : Commentaires Anecdotiques, Historiques et Critiques sur la Génétique. La Société de génétique d'Amérique (154) 1419:1426
  31. ^ Andersson, Malte (1994). Sélection sexuelle . Presse de l'Université de Princeton. ISBN 0-691-00057-3.
  32. ^ Andersson, M. et Simmons, LW (2006) Sélection sexuelle et choix du partenaire. Tendances, écologie et évolution (21) 296:302
  33. ^ Gayon, J. (2010) Sélection sexuelle : Un autre processus darwinien. Comptes Rendus Biologies (333) 134:144
  34. ^ Neyman, J (1934). « Sur les deux aspects différents de la méthode représentative : la méthode d'échantillonnage stratifié et la méthode de sélection raisonnée ». Journal de la Royal Statistical Society . 97 (4) : 557-625. doi : 10.2307/2342192 . JSTOR 2342192 . 
  35. ^ « La science dans un monde complexe – Big Data : opportunité ou menace ? . Institut de Santa Fe .
  36. ^ Freedman, DA (2005) Modèles statistiques : théorie et pratique , Cambridge University Press. ISBN 978-0-521-67105-7 
  37. ^ McCarney R, Warner J, Iliffe S, van Haselen R, Griffin M, Fisher P (2007). « L'effet Hawthorne : un essai contrôlé randomisé » . Méthode BMC Med Res . 7 (1) : 30. doi : 10.1186/1471-2288-7-30 . PMC 1936999 . PMID 17608932 .  
  38. ^ Rothman, Kenneth J; Groenland, Sander ; Lash, Timothée, éd. (2008). "7". Épidémiologie moderne (3e éd.). Lippincott Williams & Wilkins. p. 100 .
  39. ^ Mosteller, F. ; Tukey, JW (1977). Analyse des données et régression . Boston : Addison-Wesley.
  40. ^ Nelder, JA (1990). Les connaissances nécessaires pour informatiser l'analyse et l'interprétation des informations statistiques. In Systèmes experts et intelligence artificielle : le besoin d'information sur les données . Library Association Report, Londres, 23-27 mars.
  41. ^ Chrisman, Nicholas R (1998). "Repenser les niveaux de mesure pour la cartographie". Cartographie et Sciences de l'Information Géographique . 25 (4) : 231–242. doi : 10.1559/152304098782383043 .
  42. ^ van den Berg, G. (1991). Choix d'une méthode d'analyse . Leyde : DSWO Press
  43. ^ Main, DJ (2004). Théorie et pratique de la mesure : Le monde à travers la quantification. Londres : Arnold.
  44. ^ Mann, Prem S. (1995). Statistiques d'introduction (2e éd.). Wiley. ISBN 0-471-31009-3.
  45. ^ Upton, G., Cook, I. (2008) Oxford Dictionary of Statistics , OUP. ISBN 978-0-19-954145-4 . 
  46. ^ a b Piazza Elio, Probabilità e Statistica, Esculapio 2007
  47. ^ Everitt, Brian (1998). Le Cambridge Dictionary of Statistics . Cambridge, Royaume-Uni New York : Cambridge University Press. ISBN 0521593468.
  48. ^ "Cohen (1994) La Terre est ronde (p < .05)" . YourStatsGuru.com.
  49. ^ Rubin, Donald B.; Little, Roderick JA, Analyse statistique avec données manquantes, New York : Wiley 2002
  50. ^ Ioannidis, JPA (2005). "Pourquoi la plupart des résultats de recherche publiés sont faux" . Médecine PLOS . 2 (8) : e124. doi : 10.1371/journal.pmed.0020124 . PMC 1182327 . PMID 16060722 .  
  51. ^ A b c Huff, Darrell (1954) Comment jouer avec les statistiques , WW Norton & Company, Inc. New York. ISBN 0-393-31072-8 
  52. ^ Warne, R. Lazo; Ramos, T.; Ritter, N. (2012). "Méthodes statistiques utilisées dans les revues d'éducation surdouées, 2006-2010". Enfant surdoué Trimestriel . 56 (3) : 134-149. doi : 10.1177/0016986212444122 . S2CID 144168910 . 
  53. ^ un b Drennan, Robert D. (2008). "Statistiques en archéologie". Dans Pearsall, Deborah M. (éd.). Encyclopédie d'archéologie . Elsevier Inc. pp.  2093 -2100. ISBN 978-0-12-373962-9.
  54. ^ un b Cohen, Jerome B. (décembre 1938). « Mauvais usage des statistiques ». Journal de l'Association statistique américaine . JSTOR. 33 (204) : 657-674. doi : 10.1080/01621459.1938.10502344 .
  55. ^ Freund, JE (1988). "Statistiques élémentaires modernes". Référence Credo .
  56. ^ Huff, Darrell; Irving Geis (1954). Comment mentir avec les statistiques . New-York : Norton. La fiabilité d'un échantillon peut être détruite par [biais]... permettez-vous un certain degré de scepticisme.
  57. ^ Nikoletseas, MM (2014) "Statistiques : concepts et exemples". ISBN 978-1500815684 
  58. ^ Anderson, DR ; Sweeney, DJ ; Williams, TA (1994) Introduction to Statistics: Concepts and Applications , pp. 5-9. Groupe de l'Ouest. ISBN 978-0-314-03309-3 
  59. ^ "Journal des statistiques commerciales et économiques" . Journal des statistiques commerciales et économiques . Taylor & François . Récupéré le 16 mars 2020 .
  60. ^ Un b Natalia Loaiza Velásquez, María Isabel González Lutz & Julián-Monge Nájera (2011). « Quelles statistiques les biologistes tropicaux devraient-ils apprendre ? » (PDF) . Revista Biologie Tropicale . 59 : 983–992.
  61. ^ Pekoz, Erol (2009). Le guide du gestionnaire des statistiques . Erol Pekoz. ISBN 9780979570438.
  62. ^ "Objectifs et portée" . Journal des statistiques commerciales et économiques . Taylor & François . Récupéré le 16 mars 2020 .
  63. ^ "Journal des statistiques commerciales et économiques" . Journal des statistiques commerciales et économiques . Taylor & François . Récupéré le 16 mars 2020 .
  64. ^ De nombreux textes sont disponibles, reflétant l'étendue et la portée de la discipline dans le monde des affaires :
    • Sharpe, N. (2014). Statistiques d'entreprise , Pearson. ISBN 978-0134705217 
    • Wegner, T. (2010). Statistiques commerciales appliquées : méthodes et applications basées sur Excel, Juta Academic. ISBN 0702172863 
    Deux manuels ouverts sont :

Lectures complémentaires

Liens externes