À l’aide de cet exemple, créez une série de variations d’intervalles. Série de variations et ses caractéristiques. Historique du développement du test t

Glossaire de termes statistiques

Questions de statistiques générales

QUE SONT LES STATISTIQUES MÉDICALES ?

Les statistiques sont la description quantitative et la mesure d'événements, de phénomènes et d'objets. Il est considéré comme une industrie activités pratiques(collecte, traitement et analyse de données sur les phénomènes de masse), en tant que branche de la connaissance, c'est-à-dire une discipline scientifique particulière et, sous forme d'ensemble d'indicateurs numériques récapitulatifs et finaux, collectés pour caractériser n'importe quel domaine des phénomènes sociaux.

La statistique est une science qui étudie les modèles de phénomènes de masse en utilisant la méthode de généralisation des indicateurs.

Statistiques médicales – indépendantes science sociale, étudier côté quantitatif des phénomènes sociaux de masse inextricablement lié à leur côté qualitatif, permettant méthode de généralisation des indicateursétudier les schémas de ces phénomènes, les processus les plus importants de la vie économique et sociale de la société, sa santé et le système d'organisation des soins médicaux à la population.

Les méthodes statistiques sont un ensemble de techniques de traitement des matériaux d'observation de masse, qui comprennent : le regroupement, la synthèse, l'obtention d'indicateurs, leur analyse statistique, etc.

Les méthodes statistiques en médecine sont utilisées pour :

  1. étude de l'état du public santé publique en général et ses principaux groupes en collectant et en analysant des données statistiques sur la taille et la composition de la population, sa reproduction, Développement physique, la prévalence et la durée de diverses maladies, etc. ;
  2. identifier et établir des liens niveau général la morbidité et la mortalité dues à toute maladie individuelle liée à divers facteurs environnementaux ;
  3. collecte et étude de données numériques sur le réseau d'établissements médicaux, leurs activités et leur personnel pour planifier les activités de soins de santé, suivre la mise en œuvre des plans de développement du réseau et des activités des établissements de santé et évaluer la qualité du travail des établissements médicaux individuels ;
  4. évaluer l'efficacité des mesures visant à prévenir et à traiter les maladies ;
  5. détermination de la signification statistique des résultats de la recherche en clinique et en expérience.

Sections de statistiques médicales :

CRÉATION D'UNE BASE DE DONNÉES SOUS MS EXCEL

Pour que la base de données soit pratique pour un traitement ultérieur, des principes simples doivent être suivis :

1) Le programme optimal pour créer une base de données est MS Excel. Les données d'Excel peuvent ensuite être facilement transférées vers d'autres logiciels statistiques spécialisés, tels que Statistica, SPSS, etc. pour des manipulations plus complexes. Cependant, jusqu'à 80 à 90 % des calculs peuvent être facilement effectués dans Excel lui-même à l'aide du complément Data Analysis.

2) La ligne supérieure du tableau avec la base de données est conçue comme un en-tête, où sont saisis les noms des indicateurs pris en compte dans cette colonne. Il n'est pas souhaitable d'utiliser la fusion de cellules (cette exigence s'applique généralement à l'ensemble de la base de données), car cela rendrait invalides de nombreuses opérations. De plus, vous ne devez pas créer un en-tête « à deux étages », dans lequel la ligne du haut indique le nom d'un groupe d'indicateurs homogènes et la ligne du bas indique des indicateurs spécifiques. Pour regrouper des indicateurs homogènes, il est préférable de les marquer d'un remplissage monochrome ou d'inclure une fonction de regroupement entre parenthèses dans leur nom.

Par exemple, pas de cette façon :

ANALYSE GÉNÉRALE DU SANG
urgence UFE TR
ER(UAC) LEU(UAC) TR(UAC)

dans cette dernière version, à la fois l'en-tête « à histoire unique » et l'homogénéité visuelle des données sont assurées (elles concernent toutes des indicateurs UAC).

3) La première colonne doit contenir le numéro de série du patient dans cette base de données, sans le lier à aucun des indicateurs étudiés. Cela vous permettra par la suite d'assurer un retour facile à l'ordre initial des patients à tout moment, même après de nombreux tris de la liste.

4) La deuxième colonne est généralement remplie avec les noms de famille (ou noms complets) des patients.

5) Les indicateurs quantitatifs (ceux qui sont mesurés en chiffres, par exemple - taille, poids, tension artérielle, fréquence cardiaque, etc.) sont saisis dans le tableau sous forme numérique. Il semblerait que cela soit déjà clair, mais n'oubliez pas que dans Excel, à partir de la version 2007, les valeurs fractionnaires sont désignées par un point : 4,5. Si vous écrivez un nombre séparé par une virgule, il sera perçu comme du texte et ces colonnes devront être réécrites.

6) C’est plus difficile avec des indicateurs qualitatifs. Ceux qui ont deux valeurs possibles (les valeurs dites binaires : Oui-Non, Présent-Absent, Homme-Femme) sont mieux convertis au système binaire : 0 et 1. La valeur 1 est généralement attribuée à une valeur positive. (Oui, Présent) , 0 - négatif (Non, Absent).

7) Les indicateurs qualitatifs qui ont plusieurs valeurs, différant par la gravité et le niveau du phénomène (Faible-Moyen-Fort ; Froid-Chaud-Chaud) peuvent être classés et, par conséquent, également traduits en chiffres. Le niveau le plus bas du phénomène se voit attribuer le rang le plus bas - 0 ou 1, les degrés suivants sont indiqués par les valeurs des rangs dans l'ordre. Par exemple : Aucune maladie - 0, degré léger - 1, degré modéré - 2, degré grave - 3.

8) Parfois, plusieurs valeurs correspondent à un seul indicateur de qualité. Par exemple, dans la colonne « Diagnostic concomitant », s’il y a plusieurs maladies, on souhaite les indiquer séparées par des virgules. Cela ne devrait pas être fait, car le traitement de ces données est très difficile et ne peut pas être automatisé. Il est donc préférable de faire plusieurs colonnes avec des groupes spécifiques de maladies (« maladies du système cardiovasculaire », « maladies du tractus gastro-intestinal », etc.) ou certaines nosologies (« gastrite chronique », « IHD », etc.) , dans lequel nous saisissons les données sous forme binaire : 1 (ce qui signifie « Cette maladie existe ») - 0 (« Cette maladie n'existe pas »).

9) Pour distinguer les groupes individuels d'indicateurs, vous pouvez utiliser activement la couleur : par exemple, les colonnes avec les indicateurs UAC sont surlignées en rouge, les données OAM en jaune, etc.

10) Chaque patient doit correspondre à une ligne du tableau.

Une telle conception de la base de données permet non seulement de simplifier considérablement le processus de son traitement statistique, mais également de faciliter son complétion au stade de la collecte du matériel.

QUELLE MÉTHODE CHOISIR POUR L’ANALYSE STATISTIQUE ?

Une fois toutes les données collectées, chaque chercheur est confronté à la question du choix de la méthode de traitement statistique la plus appropriée. Et ce n'est pas surprenant : les statistiques modernes unissent grande quantité divers critères et méthodes. Ils ont tous leurs propres caractéristiques et peuvent ou non convenir à deux situations apparemment similaires. Dans cet article, nous essaierons de systématiser toutes les méthodes principales et les plus courantes d'analyse statistique en fonction de leur objectif.

Mais d’abord, quelques mots sur le type de données statistiques, car c’est ce qui détermine le choix de la méthode d’analyse la plus adaptée.

Échelle de mesure

Lors de la réalisation d'une étude, les valeurs de chaque unité d'observation sont déterminées divers signes. Selon l'échelle sur laquelle ils sont mesurés, tous les signes sont divisés en quantitatif Et qualité. Les indicateurs qualitatifs dans les études sont répartis selon ce qu'on appelle nominaléchelle. De plus, les indicateurs peuvent être présentés selon rangéchelle.

Par exemple, une comparaison est faite entre les performances cardiaques des athlètes et des personnes menant une vie sédentaire.

Dans ce cas, les signes suivants ont été déterminés chez les sujets :

  • sol- est nominal un indicateur qui prend deux valeurs - masculine ou féminine.
  • âge - quantitatif indice,
  • des sports - nominal un indicateur qui prend deux significations : engagé ou non engagé,
  • rythme cardiaque - quantitatif indice,
  • tension artérielle systolique - quantitatif indice,
  • présence de plaintes de douleurs thoraciques- est haute qualité indicateur dont les valeurs peuvent être déterminées à la fois par nominal(il y a des plaintes - il n'y a pas de plaintes), et selon rangéchelle en fonction de la fréquence (par exemple, si la douleur survient plusieurs fois par jour - l'indicateur est classé au rang 3, plusieurs fois par mois - rang 2, plusieurs fois par an - rang 1, s'il n'y a pas de plaintes de douleurs thoraciques - rang 0 ) .

Nombre de populations comparées

La prochaine question qui doit être résolue pour sélectionner méthode statistique, réside dans le nombre de populations comparées au sein de l’étude.

  • Dans la plupart des cas, dans Etudes cliniques nous avons affaire à deux groupes de patients - basique Et contrôle. Basique, ou expérimenté, est considéré comme le groupe dans lequel la méthode de diagnostic ou de traitement étudiée a été appliquée, ou dans lequel les patients souffrent de la maladie qui fait l'objet de cette étude. Test le groupe, en revanche, est constitué de patients recevant les soins habituels, d'un placebo ou de ceux qui ne sont pas atteints de la maladie étudiée. Ces populations, représentées par différents patients, sont appelées sans rapport.
    Il y a toujours en rapport, ou double, agrégats, quand on parle des mêmes personnes, mais les valeurs de certaines caractéristiques obtenues sont comparées avant et après recherche. Le nombre de populations comparées est également égal à 2, mais des techniques différentes leur sont appliquées par rapport à celles qui ne sont pas apparentées.
  • Une autre option consiste à décrire un totalité qui, il faut bien l'admettre, sous-tend généralement toute recherche. Même si l'objectif principal du travail est de comparer deux ou plusieurs groupes, chacun d'eux doit d'abord être caractérisé. Méthodes utilisées pour cela statistiques descriptives. De plus, pour une population donnée, les méthodes peuvent être appliquées analyse de corrélation, utilisé pour trouver une relation entre deux ou plusieurs caractéristiques étudiées (par exemple, la dépendance de la taille sur le poids corporel ou la dépendance de la fréquence cardiaque sur la température corporelle).
  • Enfin, plusieurs populations peuvent être comparées. Ceci est très courant dans la recherche médicale. Les patients peuvent être regroupés en fonction de l'utilisation de divers médicaments (par exemple, en comparant l'efficacité des médicaments antihypertenseurs : groupe 1 - inhibiteurs de l'ECA, 2 - bêtabloquants, 3 - médicaments à action centrale), selon la gravité de la maladie ( groupe 1 - léger, 2 - moyen, 3 - lourd), etc.

Il est également important de demander normalité de la distribution populations étudiées. Ceci détermine si les méthodes peuvent être appliquées analyse paramétrique ou juste non paramétrique. Les conditions qui doivent être remplies dans des populations normalement réparties sont :

  1. proximité ou égalité maximale des valeurs de la moyenne arithmétique, du mode et de la médiane ;
  2. respect de la règle des « trois sigma » (au moins 68,3 % de variants sont dans l'intervalle M±1σ, au moins 95,5 % de variants sont dans l'intervalle M±2σ, au moins 99,7 % de variants sont dans l'intervalle M±3σ) ;
  3. les indicateurs sont mesurés sur une échelle quantitative ;
  4. résultats positifs des tests de normalité de distribution utilisant des critères spéciaux - Kolmogorov-Smirnov ou Shapiro-Wilk.

Après avoir déterminé toutes les caractéristiques que nous avons indiquées pour les populations étudiées, nous suggérons d'utiliser le tableau suivant pour sélectionner la méthode d'analyse statistique la plus optimale.

Méthode Échelle de mesure de l'indicateur Nombre de populations comparées Finalité du traitement Distribution des données
Test t de Student quantitatif 2 normale
Test t de Student avec correction de Bonferroni quantitatif 3 ou plus comparaison de populations non apparentées normale
Test t de Student apparié quantitatif 2 normale
Analyse de variance unidirectionnelle (ANOVA) quantitatif 3 ou plus comparaison de populations non apparentées normale
Analyse de variance unidirectionnelle (ANOVA) avec mesures répétées quantitatif 3 ou plus comparaison de populations apparentées normale
Test U de Mann-Whitney quantitatif, classement 2 comparaison de populations non apparentées n'importe lequel
Test Q de Rosenbaum quantitatif, classement 2 comparaison de populations non apparentées n'importe lequel
Test de Kruskal-Wallis quantitatif 3 ou plus comparaison de populations non apparentées n'importe lequel
Test de Wilcoxon quantitatif, classement 2 comparaison de populations apparentées n'importe lequel
Test du signe G quantitatif, classement 2 comparaison de populations apparentées n'importe lequel
Critère de Friedman quantitatif, classement 3 ou plus comparaison de populations apparentées n'importe lequel
Test χ2 de Pearson nominal 2 ou plus comparaison de populations non apparentées n'importe lequel
Test exact de Fisher nominal 2 comparaison de populations non apparentées n'importe lequel
Test de McNemar nominal 2 comparaison de populations apparentées n'importe lequel
Test Q de Cochran nominal 3 ou plus comparaison de populations apparentées n'importe lequel
Risque relatif (ratio de risque, RR) nominal 2 comparaison de populations non apparentées dans des études de cohorte n'importe lequel
Rapport de cotes (OR) nominal 2 comparaison de populations non apparentées dans des études cas-témoins n'importe lequel
Coefficient de corrélation de Pearson quantitatif 2 rangées de mesures normale
Coefficient de corrélation de rang de Spearman quantitatif, classement 2 rangées de mesures identifier les liens entre les signes n'importe lequel
Coefficient de corrélation de Kendall quantitatif, classement 2 rangées de mesures identifier les liens entre les signes n'importe lequel
Coefficient de concordance de Kendall quantitatif, classement 3 rangées ou plus de mesures identifier les liens entre les signes n'importe lequel
Calcul des valeurs moyennes (M) et des erreurs moyennes (m) quantitatif 1 statistiques descriptives n'importe lequel
Calcul des médianes (Me) et des centiles (quartiles) rang 1 statistiques descriptives n'importe lequel
Calcul des valeurs relatives (P) et des erreurs moyennes (m) nominal 1 statistiques descriptives n'importe lequel
Test de Shapiro-Wilk quantitatif 1 analyse de distribution n'importe lequel
Critère de Kolmogorov-Smirnov quantitatif 1 analyse de distribution n'importe lequel
Critère de Smirnov-Cramer-von Mises ω 2 quantitatif 1 analyse de distribution n'importe lequel
Méthode Kaplan-Meier n'importe lequel 1 analyse de survie n'importe lequel
Modèle à risques proportionnels de Cox n'importe lequel 1 analyse de survie n'importe lequel

Grands statisticiens

Karl Pearson (27 mars 1857 – 27 avril 1936)

Karl Pearson, le grand mathématicien, statisticien, biologiste et philosophe anglais, est né le 27 mars 1857 ; fondateur de la statistique mathématique, l'un des fondateurs de la biométrie.

Ayant obtenu un poste de professeur de mathématiques appliquées à l'University College de Londres à l'âge de 27 ans, Karl Pearson commence à étudier les statistiques, qu'il perçoit comme un outil scientifique général qui correspond à ses réflexions pas du tout conventionnelles sur la nécessité de fournir aux étudiants une perspective large.

Les principales réalisations de Pearson dans le domaine des statistiques comprennent le développement des fondements de la théorie de la corrélation et de la conjugaison des signes, l'introduction des « courbes de Pearson » pour décrire les distributions empiriques et exclusivement critère important chi carré, ainsi que la compilation d'un grand nombre de tableaux statistiques. Pearson a appliqué la méthode statistique et notamment la théorie de la corrélation dans de nombreuses branches de la science.

Voici l'une de ses déclarations : "La première introduction amateur de méthodes statistiques modernes dans la science établie se heurte au mépris typique. Mais j'ai vécu jusqu'à l'époque où beaucoup d'entre eux ont commencé à appliquer secrètement les mêmes méthodes qu'ils avaient initialement condamnées."

Et déjà en 1920, Pearson écrivait une note dans laquelle il affirmait que le but de l'école biométrique était « de transformer les statistiques en une branche des mathématiques appliquées, de généraliser, d'écarter ou de justifier les maigres méthodes de la vieille école des statisticiens politiques et sociaux ». , et, en général, transformer la statistique du terrain de jeu des amateurs et des débatteurs en une branche sérieuse de la science. Il fallait critiquer les méthodes imparfaites et souvent erronées en médecine, en anthropologie, en craniométrie, en psychologie, en criminologie, en biologie, en sociologie, en afin de doter ces sciences de moyens nouveaux et plus puissants. La bataille a duré près de vingt ans, mais de nombreux signes sont apparus indiquant que les anciennes hostilités étaient abandonnées et que de nouvelles méthodes étaient universellement acceptées.

Karl Pearson avait des intérêts très divers : il étudiait la physique à Heidelberg, s'intéressait au rôle social et économique de la religion et donnait même des conférences sur l'histoire et la littérature allemandes à Cambridge et à Londres.

Un fait peu connu est qu'à l'âge de 28 ans, Karl Pearson donnait des conférences sur la « question des femmes » et fondait même le Men and Women's Club, qui existait jusqu'en 1889, dans lequel tout ce qui concernait les femmes, y compris les relations entre les sexes, était discuté librement et sans restriction.

Le club était composé de nombre égal des hommes et des femmes, pour la plupart issus de la classe moyenne libérale, socialistes et féministes.

Le sujet des discussions du club était les questions de large éventail: des relations sexuelles dans Athènes grecque antiqueà la situation des religieuses bouddhistes, des attitudes à l'égard du mariage aux problèmes de prostitution. Essentiellement, le Men and Women Club a remis en question les normes établies de longue date en matière d’interaction entre hommes et femmes, ainsi que les idées sur la « bonne » sexualité. Dans l’Angleterre victorienne, où la sexualité était considérée par beaucoup comme « basse » et « animale » et où l’ignorance en matière d’éducation sexuelle était répandue, le débat sur ces questions était véritablement radical.

En 1898, Pearson reçut la médaille Darwin de la Royal Society, qu'il refusa, estimant que des récompenses « devraient être décernées aux jeunes pour les encourager ».

Florence Nightingale (12 mai 1820-13 août 1910)

Florence Nightingale (1820-1910) - infirmière et personnalité publique en Grande-Bretagne, à l'occasion de l'anniversaire de laquelle nous célébrons aujourd'hui la Journée internationale des infirmières.

Elle est née à Florence dans une riche famille aristocratique, a reçu une excellente éducation et connaissait six langues. Dès son plus jeune âge, elle rêvait de devenir sœur de miséricorde. En 1853, elle reçut une formation d'infirmière dans la communauté des sœurs du pasteur Flender à Kaiserwerth et devint directrice d'un petit hôpital privé à Londres.

En octobre 1854, pendant Guerre de Crimée, Florence, accompagnée de 38 assistants, s'est rendue dans les hôpitaux de campagne en Crimée. Tout en organisant les soins aux blessés, elle a systématiquement mis en œuvre les principes d'assainissement et d'hygiène. Résultat, en moins de six mois, la mortalité dans les hôpitaux est passée de 42 à 2,2 % !

M'étant donné pour tâche de réformer service médical dans l'armée, Nightingale veillait à ce que les hôpitaux soient équipés de systèmes de ventilation et d'égouts ; Le personnel hospitalier doit suivre la formation nécessaire. Une école de médecine militaire a été organisée et un travail de sensibilisation a été mené auprès des soldats et des officiers sur l'importance de la prévention des maladies.

Les grandes contributions de Florence Nightingale aux statistiques médicales !

  • Son livre de 800 pages, Notes sur les facteurs affectant la santé, l'efficacité et la gestion hospitalière armée britannique" (1858) contenait une section entière consacrée aux statistiques et illustrée de diagrammes.
  • Nightingale était un innovateur dans l'utilisation d'images graphiques en statistiques. Elle a inventé les diagrammes circulaires, qu'elle a appelés « crête de coq » et utilisés pour décrire la structure de la mortalité. Beaucoup de ses dossiers ont été inclus dans le rapport de la Commission sur les problèmes de santé dans l'armée, qui a conduit à la décision de réformer la médecine militaire.
  • Elle a développé le premier formulaire de collecte de statistiques dans les hôpitaux, qui est le prédécesseur des formulaires modernes de reporting sur les activités hospitalières.

En 1859, elle fut élue membre de la Royal Statistical Society et devint par la suite membre honoraire de l'American Statistical Association.

Johann Carl Friedrich Gauss (30 avril 1777 – 23 février 1855)

Le 30 avril 1777, le grand mathématicien, mécanicien, physicien, astronome, géomètre et statisticien allemand Johann Carl Friedrich Gauss est né à Braunschweig.

Il est considéré comme l’un des plus grands mathématiciens de tous les temps, le « Roi des Mathématiciens ». Lauréat de la médaille Copley (1838), membre étranger des académies des sciences suédoise (1821) et russe (1824) et de la Royal Society anglaise.

Déjà à l’âge de trois ans, Karl savait lire et écrire, corrigeant même les erreurs de calcul de son père. Selon la légende, le professeur de mathématiques de l'école, pour occuper les enfants, pendant longtemps, leur a demandé de compter la somme des nombres de 1 à 100. Le jeune Gauss a remarqué que les sommes par paires aux extrémités opposées sont les mêmes : 1+100=101, 2+99=101, etc., et a immédiatement obtenu le résultat : 50 ×101=5050 . Jusqu’à ses vieux jours, il avait l’habitude de faire la plupart de ses calculs de tête.

Les principales réalisations scientifiques de Carl Gauss en statistique sont la création de la méthode des moindres carrés, qui sous-tend l'analyse de régression.

Il a également étudié en détail la loi de distribution normale répandue dans la nature, dont le graphique a depuis été souvent appelé le gaussien. La règle des « trois sigma » (règle de Gauss) décrivant la distribution normale est devenue largement connue.

Lev Semionovitch Kaminsky (1889 – 1962)

À l'occasion du 75e anniversaire de la Victoire dans le Grand Guerre patriotique Je voudrais me souvenir et parler d'un merveilleux scientifique, l'un des fondateurs des statistiques médicales et sanitaires militaires en URSS - Lev Semenovich Kaminsky (1889-1962).

Il est né le 27 mai 1889 à Kiev. Après avoir obtenu son diplôme avec distinction de la Faculté de médecine de l'Université de Petrograd en 1918, Kaminsky était dans les rangs de l'Armée rouge. D'avril 1919 à la fin de 1920, il occupa le poste de médecin-chef du 136e hôpital d'évacuation consolidé du Sud. Front de l'Est.

Depuis 1922, Lev Semyonovich était responsable du département sanitaire et épidémiologique du service médical et sanitaire du Nord-Ouest. chemin de fer. Au cours de ces années, cela a commencé activité scientifique Kaminsky sous la direction du prof. S.A. Novoselsky. Dans leur ouvrage fondamental commun « Losses in Past Wars », ils ont analysé matériel statistique sur les pertes humaines dans les guerres de diverses armées du monde de 1756 à 1918. Dans des travaux ultérieurs, Kaminsky a développé et étayé une nouvelle classification plus précise des pertes militaires.

La monographie « Nutrition nationale et santé publique » (1929) examine en détail les aspects sanitaires et hygiéniques de l'impact des guerres sur la santé publique, ainsi que les questions d'organisation des soins médicaux pour la population et l'armée pendant la guerre.

De 1935 à 1943, Lev Semenovich a dirigé le Département des statistiques sanitaires (depuis 1942 - médicales) du Commissariat du peuple à la santé de l'URSS. En octobre 1943, le professeur Kaminsky devient chef du département de statistiques médicales militaires à l'Académie de médecine militaire du même nom. S.M. Kirov, et depuis 1956, il occupe le poste de professeur au Département de statistique et de comptabilité de l'Université d'État de Léningrad.

Lev Semyonovich a préconisé l'introduction généralisée de méthodes quantitatives dans la pratique des statistiques sanitaires et médicales. En 1959, sous sa direction, il fut publié Didacticiel« Traitement statistique des données de laboratoire et cliniques : application des statistiques à des fins scientifiques et Travaux pratiques docteur", qui est devenu pendant de nombreuses années l'un des meilleurs manuels nationaux de statistiques médicales. Dans la préface, L.S. Kaminsky note :
"... Il semble important que les médecins traitants sachent se mettre au travail et sachent collecter et traiter les chiffres corrects, adaptés aux comparaisons et aux comparaisons."

Critères et méthodes

CRITÈRE t DE L'ÉTUDIANT POUR LES POPULATIONS INDÉPENDANTES

Le test t de Student est un nom général pour une classe de méthodes de test statistique d'hypothèses (tests statistiques) basées sur la distribution de Student. Les utilisations les plus courantes du test t consistent à tester l’égalité des moyennes sur deux échantillons.

Ce critère a été développé William Seeley Gossett

2. À quoi sert le test t de Student ?

Le test t de Student est utilisé pour déterminer la signification statistique des différences de moyennes. Il peut être utilisé aussi bien en cas de comparaison d'échantillons indépendants (par exemple, un groupe de patients diabétiques et un groupe de personnes en bonne santé) que pour comparer des populations apparentées (par exemple, la fréquence cardiaque moyenne des mêmes patients avant et après la prise un médicament antiarythmique). Dans ce dernier cas, on calcule test t apparié Test de l'étudiant

3. Dans quels cas le test t de Student peut-il être utilisé ?

Pour appliquer le test t de Student, il est nécessaire que les données originales aient une distribution normale. L'égalité des variances (distributions) des groupes comparés (homoscédasticité) est également importante. Pour les variances inégales, le test t modifié par Welch (t de Welch) est utilisé.

Avec absence distribution normaleéchantillons comparés, au lieu du test t de Student, des méthodes similaires de statistiques non paramétriques sont utilisées, parmi lesquelles la plus connue est Test U de Mann-Whitney.

4. Comment calculer le test t de Student ?

Pour comparer les valeurs moyennes, le test t de Student est calculé à l'aide de la formule suivante :

M1- moyenne arithmétique de la première population (groupe) comparée, M2- moyenne arithmétique de la deuxième population (groupe) comparée, m1- erreur moyenne de la première moyenne arithmétique, m2- erreur moyenne de la deuxième moyenne arithmétique.

La valeur du test t de Student résultante doit être interprétée correctement. Pour ce faire, il faut connaître le nombre de sujets dans chaque groupe (n 1 et n 2). Trouver le nombre de degrés de liberté F selon la formule suivante :

F = (n 1 + n 2) - 2

Après cela, nous déterminons la valeur critique du test t de Student pour le niveau de signification requis (par exemple, p = 0,05) et pour un nombre de degrés de liberté donné. F selon le tableau (voir ci-dessous).

  • Si la valeur calculée du test t de Student est égale ou supérieure à la valeur critique trouvée dans le tableau, nous concluons que les différences entre les valeurs comparées sont statistiquement significatives.
  • Si la valeur du test t de Student calculé est inférieure à la valeur du tableau, alors les différences entre les valeurs comparées ne sont pas statistiquement significatives.

Pour étudier l'efficacité d'une nouvelle préparation de fer, deux groupes de patients anémiques ont été sélectionnés. Dans le premier groupe, les patients ont reçu un nouveau médicament pendant deux semaines et dans le deuxième groupe, un placebo. Ensuite, les taux d’hémoglobine dans le sang périphérique ont été mesurés. Dans le premier groupe niveau moyen l'hémoglobine était de 115,4 ± 1,2 g/l, et dans la seconde - 103,7 ± 2,3 g/l (données présentées au format M ± m), les populations comparées ont une distribution normale. Le nombre du premier groupe était de 34 et celui du second de 40 patients. Il est nécessaire de tirer une conclusion sur la signification statistique des différences obtenues et sur l'efficacité de la nouvelle préparation à base de fer.

Solution: Pour évaluer la signification des différences, nous utilisons le test t de Student, calculé comme la différence des valeurs moyennes divisée par la somme des erreurs quadratiques :

Après avoir effectué les calculs, la valeur du test t s'est avérée être de 4,51. Nous trouvons le nombre de degrés de liberté comme (34 + 40) - 2 = 72. Nous comparons la valeur du test t de Student résultante de 4,51 avec la valeur critique à p = 0,05 indiquée dans le tableau : 1,993. La valeur calculée du critère étant supérieure à la valeur critique, nous concluons que les différences observées sont statistiquement significatives (niveau de signification p<0,05).


T-TEST DE L'ÉTUDIANT PAIRE

Le test t de Student apparié est l'une des modifications de la méthode de Student, utilisée pour déterminer la signification statistique des différences dans les mesures appariées (répétées).

1. Historique du développement du test t

Le test t a été développé William Gossett pour évaluer la qualité de la bière dans la société Guinness. En raison des obligations envers l'entreprise en matière de non-divulgation des secrets commerciaux, l'article de Gosset fut publié en 1908 dans la revue Biometrics sous le pseudonyme « Student ».

2. À quoi sert le test t de Student apparié ?

Le test t de Student apparié est utilisé pour comparer deux échantillons dépendants (appariés). Les mesures dépendantes sont celles prises chez les mêmes patients mais à des moments différents, par exemple la tension artérielle chez les patients hypertendus avant et après la prise d'un médicament antihypertenseur. L'hypothèse nulle affirme qu'il n'y a pas de différences entre les échantillons comparés, l'hypothèse alternative indique qu'il existe des différences statistiquement significatives.

3. Dans quels cas peut-on utiliser le test t de Student apparié ?

La condition principale est la dépendance des échantillons, c'est-à-dire que les valeurs comparées doivent être obtenues à partir de mesures répétées d'un paramètre chez les mêmes patients.

Comme dans le cas des comparaisons d’échantillons indépendants, pour utiliser un test t apparié, les données originales doivent être distribuées normalement. Si cette condition n'est pas remplie, des méthodes statistiques non paramétriques doivent être utilisées pour comparer les moyennes des échantillons, telles que Test du signe G ou Test T de Wilcoxon.

Le test t apparié ne peut être utilisé que pour comparer deux échantillons. Si vous devez comparer trois mesures répétées ou plus, vous devez utiliser analyse de variance unidirectionnelle (ANOVA) pour les mesures répétées.

4. Comment calculer le test t de Student apparié ?

Le test t de Student apparié est calculé à l'aide de la formule suivante :

Md- moyenne arithmétique des écarts entre les indicateurs mesurés avant et après, σ ré- écart type des différences d'indicateurs, n- nombre de matières étudiées.

5. Comment interpréter la valeur du test t de Student ?

L'interprétation de la valeur du test t de Student appariée qui en résulte ne diffère pas de l'évaluation du test t pour des populations non apparentées. Tout d'abord, il faut trouver le nombre de degrés de liberté F selon la formule suivante :

F = n-1

Après cela, nous déterminons la valeur critique du test t de Student pour le niveau de signification requis (par exemple, p<0,05) и при данном числе степеней свободы F selon le tableau (voir ci-dessous).

On compare les valeurs critiques et calculées du critère :

  • Si la valeur calculée du test t de Student apparié est égale ou supérieure à la valeur critique trouvée dans le tableau, nous concluons que les différences entre les valeurs comparées sont statistiquement significatives.
  • Si la valeur du test t de Student apparié calculé est inférieure à la valeur du tableau, alors les différences entre les valeurs comparées ne sont pas statistiquement significatives.

6. Exemple de calcul du test t de Student

Pour évaluer l'efficacité du nouvel agent hypoglycémiant, la glycémie a été mesurée chez des patients atteints de diabète sucré avant et après la prise du médicament. En conséquence, les données suivantes ont été obtenues :

Solution:

1. Calculez la différence de chaque paire de valeurs (d) :

Patient N Niveau de glycémie, mmol/l Différence (d)
avant de prendre le médicament après avoir pris le médicament
1 9.6 5.7 3.9
2 8.1 5.4 2.7
3 8.8 6.4 2.4
4 7.9 5.5 2.4
5 9.2 5.3 3.9
6 8.0 5.2 2.8
7 8.4 5.1 3.3
8 10.1 6.9 3.2
9 7.8 7.5 2.3
10 8.1 5.0 3.1

2. Trouvez la moyenne arithmétique des différences à l'aide de la formule :

3. Trouvez l'écart type des différences par rapport à la moyenne à l'aide de la formule :

4. Calculez le test t de Student apparié :

5. Comparons la valeur obtenue du test t de Student 8,6 avec la valeur du tableau qui, avec le nombre de degrés de liberté f égal à 10 - 1 = 9 et le niveau de signification p = 0,05, est de 2,262. Étant donné que la valeur obtenue est supérieure à la valeur critique, nous concluons qu'il existe des différences statistiquement significatives dans les niveaux de glycémie avant et après la prise du nouveau médicament.

Afficher le tableau des valeurs critiques du test t de Student

CRITÈRE U DE MANN-WHITNEY

Le test Mann-Whitney U est un test statistique non paramétrique utilisé pour comparer deux échantillons indépendants en termes de niveau d'un trait mesuré quantitativement. La méthode est basée sur la détermination si la zone de valeurs qui se croisent entre deux séries de variations (une série classée de valeurs de paramètres dans le premier échantillon et la même dans le deuxième échantillon) est suffisamment petite. Plus la valeur du critère est faible, plus il est probable que les différences entre les valeurs des paramètres dans les échantillons soient fiables.

1. Historique du développement du critère U

Cette méthode d'identification des différences entre échantillons a été proposée en 1945 par un chimiste et statisticien américain. Frank Wilcoxon.
En 1947, il fut considérablement révisé et élargi par des mathématiciens. H.B. Mann(H.B. Mann) et D.R. Whitney(D.R. Whitney), par les noms desquels on l'appelle aujourd'hui habituellement.

2. À quoi sert le test U de Mann-Whitney ?

Le test Mann-Whitney U est utilisé pour évaluer les différences entre deux échantillons indépendants en termes de niveau de toute caractéristique quantitative.

3. Dans quels cas le test U de Mann-Whitney peut-il être utilisé ?

Le test U de Mann-Whitney est donc un test non paramétrique, contrairement à Test t de Student

Le test U convient à la comparaison de petits échantillons : chaque échantillon doit avoir au moins 3 valeurs caractéristiques. Il est permis qu'il y ait 2 valeurs dans un échantillon, mais le second doit alors en avoir au moins cinq.

La condition d'application du test Mann-Whitney U est l'absence de valeurs d'attribut correspondantes dans les groupes comparés (tous les nombres sont différents) ou un très petit nombre de telles correspondances.

Un analogue du test U de Mann-Whitney pour comparer trois groupes ou plus est Test de Kruskal-Wallis.

4. Comment calculer le test U de Mann-Whitney ?

Premièrement, à partir des deux échantillons comparés, un série à classement unique, en organisant les unités d'observation selon le degré d'attribut croissant et en attribuant un rang inférieur à une valeur plus petite. Dans le cas de valeurs égales d'une caractéristique pour plusieurs unités, chacune d'elles se voit attribuer la moyenne arithmétique des valeurs de rang successives.

Par exemple, deux unités occupant la 2e et la 3e place (rang) dans une même ligne classée ont les mêmes valeurs. Ainsi, chacun d’eux se voit attribuer un rang égal à (3 + 2) / 2 = 2,5.

Dans la série compilée à classement unique, le nombre total de rangs sera égal à :

N = n 1 + n 2

où n 1 est le nombre d'éléments dans le premier échantillon et n 2 est le nombre d'éléments dans le deuxième échantillon.

Ensuite, nous divisons à nouveau la série classée unique en deux, constituées respectivement d'unités du premier et du deuxième échantillons, tout en nous souvenant des valeurs de classement pour chaque unité. Nous calculons séparément la somme des rangs qui tombent sur la part des éléments du premier échantillon, et séparément - sur la part des éléments du deuxième échantillon. Nous déterminons la plus grande des deux sommes de rang (T x) correspondant à un échantillon de n x éléments.

Enfin, on retrouve la valeur du test U de Mann-Whitney à l'aide de la formule :

5. Comment interpréter la valeur du test U de Mann-Whitney ?

Nous comparons la valeur résultante du test U à l'aide du tableau pour le niveau de signification statistique sélectionné (p=0,05 ou p=0,01) avec la valeur critique de U pour un nombre donné d'échantillons comparés :

  • Si la valeur résultante U moins tabulaire ou équivaut à lui, alors la signification statistique des différences entre les niveaux du trait dans les échantillons considérés est reconnue (l'hypothèse alternative est acceptée). Plus la valeur U est petite, plus la fiabilité des différences est élevée.
  • Si la valeur résultante U plus tabulaire, l’hypothèse nulle est acceptée.
Afficher le tableau des valeurs critiques du test U de Mann-Whitney à p=0,05

CRITÈRE WILCOxon

Le test de Wilcoxon pour les échantillons apparentés (également appelé test T de Wilcoxon, test de Wilcoxon, test de rang signé de Wilcoxon, test de somme de rang de Wilcoxon) est un test statistique non paramétrique utilisé pour comparer deux échantillons apparentés (appariés) en termes de niveau de toute caractéristique quantitative mesurée. sur une échelle continue ou ordinale.

L'essence de la méthode est que les valeurs absolues de la gravité des changements dans un sens ou dans l'autre sont comparées. Pour ce faire, toutes les valeurs absolues des changements sont d'abord classées, puis les classements sont résumés. Si les changements dans un sens ou dans un autre se produisent de manière aléatoire, alors les sommes de leurs rangs seront approximativement égales. Si l'intensité des changements dans une direction est plus grande, alors la somme des rangs des valeurs absolues des changements dans la direction opposée sera nettement inférieure à ce qu'elle pourrait être avec des changements aléatoires.

1. Historique du développement du test de Wilcoxon pour des échantillons apparentés

Le test a été proposé pour la première fois en 1945 par le statisticien et chimiste américain Frank Wilcoxon (1892-1965). Dans le même ouvrage scientifique, l'auteur décrit un autre critère utilisé dans le cas de comparaison d'échantillons indépendants.

2. A quoi sert le test de Wilcoxon ?

Le test Wilcoxon T est utilisé pour évaluer les différences entre deux séries de mesures prises sur la même population mais dans des conditions ou à des moments différents. Ce test peut révéler la direction et la gravité des changements, c'est-à-dire si les indicateurs évoluent davantage dans un sens que dans un autre.

Un exemple classique de situation dans laquelle le test T de Wilcoxon peut être utilisé pour des populations apparentées est une étude avant-après qui compare les scores avant et après traitement. Par exemple, lors de l’étude de l’efficacité d’un antihypertenseur, la tension artérielle est comparée avant et après la prise du médicament.

3. Conditions et limites d'utilisation du test T de Wilcoxon

  1. Le test de Wilcoxon est donc un test non paramétrique, contrairement à test t de Student apparié, ne nécessite pas une répartition normale des populations comparées.
  2. Le nombre de sujets lors de l'utilisation du test T de Wilcoxon doit être d'au moins 5.
  3. Le trait étudié peut être mesuré aussi bien sur une échelle quantitative continue (tension artérielle, fréquence cardiaque, teneur en leucocytes dans 1 ml de sang) que sur une échelle ordinale (nombre de points, gravité de la maladie, degré de contamination par des micro-organismes).
  4. Ce critère n'est utilisé que lors de la comparaison de deux séries de mesures. Un analogue du test T de Wilcoxon pour comparer trois populations apparentées ou plus est Critère de Friedman.

4. Comment calculer le test T de Wilcoxon pour des échantillons apparentés ?

  1. Calculez la différence entre les valeurs des mesures appariées pour chaque sujet. Les décalages zéro ne sont plus pris en compte.
  2. Déterminez lesquelles des différences sont typiques, c'est-à-dire correspondent à la direction de changement de l'indicateur qui est dominante en fréquence.
  3. Classez les différences des paires selon leurs valeurs absolues (c'est-à-dire sans tenir compte du signe), par ordre croissant. La plus petite valeur absolue de la différence se voit attribuer un rang inférieur.
  4. Calculez la somme des rangs correspondant aux déplacements atypiques.

Ainsi, le test T de Wilcoxon pour les échantillons apparentés est calculé à l'aide de la formule suivante :

où ΣRr est la somme des rangs correspondant aux évolutions atypiques de l’indicateur.

5. Comment interpréter la valeur du test de Wilcoxon ?

La valeur résultante du test T de Wilcoxon est comparée à la valeur critique selon le tableau pour le niveau de signification statistique sélectionné ( p=0,05 ou p=0,01) pour un nombre donné d'échantillons comparés n :

  • Si la valeur calculée (empirique) de T em. inférieur au T cr tabulé. ou égal à celui-ci, alors la signification statistique des changements de l'indicateur dans la direction typique est reconnue (l'hypothèse alternative est acceptée). Plus la valeur T est faible, plus la fiabilité des différences est élevée.
  • Si Temp. plus T cr. , l'hypothèse nulle concernant l'absence de signification statistique des changements dans l'indicateur est acceptée.

Exemple de calcul du test de Wilcoxon pour des échantillons associés

Une société pharmaceutique étudie un nouveau médicament du groupe des anti-inflammatoires non stéroïdiens. A cet effet, un groupe de 10 volontaires souffrant d'ARVI avec hyperthermie a été sélectionné. Leur température corporelle a été mesurée avant et 30 minutes après la prise du nouveau médicament. Il est nécessaire de tirer une conclusion sur l'importance de la diminution de la température corporelle résultant de la prise du médicament.

  1. Les données sources sont présentées dans le tableau suivant :
  2. Pour calculer le test T de Wilcoxon, nous calculons les différences entre des indicateurs appariés et classons leurs valeurs absolues. Dans ce cas, nous mettons en évidence en rouge les rangs atypiques :
    N Nom de famille corps t avant de prendre le médicament corps après avoir pris le médicament Différence d'indicateurs, d |d| Rang
    1. Ivanov 39.0 37.6 -1.4 1.4 7
    2. Petrov 39.5 38.7 -0.8 0.8 5
    3. Sidorov 38.6 38.7 0.1 0.1 1.5
    4. Popov 39.1 38.5 -0.6 0.6 4
    5. Nikolaïev 40.1 38.6 -1.5 1.5 8
    6. Kozlov 39.3 37.5 -1.8 1.8 9
    7. Ignatiev 38.9 38.8 -0.1 0.1 1.5
    8. Semenov 39.2 38.0 -1.2 1.2 6
    9. Egorov 39.8 39.8 0
    10. Alekseev 38.8 39.3 0.5 0.5 3
    Comme nous le voyons, changement typique l'indicateur est sa diminution, constatée dans 7 cas sur 10. Dans un cas (chez le patient Egorov), la température n'a pas changé après la prise du médicament et ce cas n'a donc pas été utilisé dans une analyse plus approfondie. Dans deux cas (chez les patients Sidorov et Alekseev), il a été noté changement atypique températures à la hausse. Les rangs correspondant à un décalage atypique sont 1,5 et 3.
  3. Calculons le test T de Wilcoxon, qui est égal à la somme des rangs correspondant au déplacement atypique de l'indicateur :

    T = ΣRr = 3 + 1,5 = 4,5

  4. Comparons Temp. avec T cr. , qui au niveau de signification p=0,05 et n=9 est égal à 8. Par conséquent, T emp.
  5. Nous concluons : la diminution de la température corporelle chez les patients atteints d'ARVI suite à la prise d'un nouveau médicament est statistiquement significative (p<0.05).
Afficher le tableau des valeurs critiques du test T de Wilcoxon

CRITÈRE DU CHI CARRÉ DE PEARSON

Le test χ 2 de Pearson est une méthode non paramétrique qui nous permet d'évaluer l'importance des différences entre le nombre réel (révélé) de résultats ou de caractéristiques qualitatives de l'échantillon qui entrent dans chaque catégorie et le nombre théorique qui serait attendu dans les groupes étudiés si l'hypothèse nulle est vraie. Pour faire simple, la méthode permet d'évaluer la signification statistique des différences entre deux ou plusieurs indicateurs relatifs (fréquences, proportions).

1. Historique du développement du critère χ 2

Le test du chi carré pour analyser les tableaux de contingence a été développé et proposé en 1900 par un mathématicien, statisticien, biologiste et philosophe anglais, fondateur de la statistique mathématique et l'un des fondateurs de la biométrie. Karl Pearson(1857-1936).

2. Pourquoi le test χ 2 de Pearson est-il utilisé ?

Le test du chi carré peut être utilisé dans l'analyse Tableaux de contingence contenant des informations sur la fréquence des résultats en fonction de la présence d’un facteur de risque. Par exemple, un tableau de contingence à quatre champs ressemble à ceci :

Il y a un résultat (1) Aucun résultat (0) Total
Il existe un facteur de risque (1) UN B A+B
Aucun facteur de risque (0) C D C+D
Total A+C B+D A+B+C+D

Comment remplir un tel tableau de contingence ? Regardons un petit exemple.

Une étude est en cours sur l'effet du tabagisme sur le risque de développer une hypertension artérielle. A cet effet, deux groupes de sujets ont été sélectionnés : le premier comprenait 70 personnes fumant au moins 1 paquet de cigarettes par jour, le second comprenait 80 non-fumeurs du même âge. Dans le premier groupe, 40 personnes souffraient d’hypertension. Dans la seconde, une hypertension artérielle a été observée chez 32 personnes. En conséquence, la tension artérielle normale dans le groupe des fumeurs était de 30 personnes (70 - 40 = 30) et dans le groupe des non-fumeurs - de 48 (80 - 32 = 48).

Nous remplissons le tableau de contingence à quatre champs avec les données initiales :

Dans le tableau de contingence qui en résulte, chaque ligne correspond à un groupe spécifique de sujets. Les colonnes indiquent le nombre de personnes souffrant d'hypertension artérielle ou de tension artérielle normale.

La tâche qui se pose au chercheur est la suivante : existe-t-il des différences statistiquement significatives entre la fréquence des personnes souffrant de tension artérielle chez les fumeurs et les non-fumeurs ? On peut répondre à cette question en calculant le test du chi carré de Pearson et en comparant la valeur résultante avec la valeur critique.

  1. Les indicateurs comparables doivent être mesurés sur une échelle nominale (par exemple, le sexe du patient est un homme ou une femme) ou sur une échelle ordinale (par exemple, le degré d'hypertension artérielle, allant de 0 à 3).
  2. Cette méthode vous permet d'analyser non seulement des tableaux à quatre champs, lorsque le facteur et le résultat sont des variables binaires, c'est-à-dire qu'ils n'ont que deux valeurs possibles (par exemple, le sexe masculin ou féminin, la présence ou l'absence d'un certaine maladie dans l'anamnèse...). Le test du Chi carré de Pearson peut également être utilisé dans le cas de l'analyse de tableaux multichamps, lorsqu'un facteur et (ou) un résultat prend trois valeurs ou plus.
  3. Les groupes comparés doivent être indépendants, c'est-à-dire que le test du chi carré ne doit pas être utilisé pour comparer les observations avant-après. Test de McNemar(lors de la comparaison de deux populations apparentées) ou calculé Test Q de Cochran(en cas de comparaison de trois groupes ou plus).
  4. Lors de l'analyse de tables à quatre champs valeurs attendues dans chaque cellule il doit y en avoir au moins 10. Si dans au moins une cellule le phénomène attendu prend une valeur de 5 à 9, le test du chi carré doit être calculé avec l'amendement de Yates. Si dans au moins une cellule le phénomène attendu est inférieur à 5, alors l'analyse doit utiliser Test exact de Fisher.
  5. Lors de l'analyse de tableaux multichamps, le nombre attendu d'observations ne doit pas être inférieur à 5 dans plus de 20 % des cellules.

4. Comment calculer le test du Chi carré de Pearson ?

Pour calculer le test du Chi carré, vous avez besoin de :

Cet algorithme est applicable aux tables à quatre champs et à plusieurs champs.

5. Comment interpréter la valeur du test du Chi carré de Pearson ?

Si la valeur obtenue du critère χ 2 est supérieure à la valeur critique, nous concluons qu'il existe une relation statistique entre le facteur de risque étudié et le résultat au niveau de signification approprié.

6. Exemple de calcul du test du Chi carré de Pearson

Déterminons la signification statistique de l'influence du facteur tabagisme sur l'incidence de l'hypertension artérielle à l'aide du tableau discuté ci-dessus :

  1. Nous calculons les valeurs attendues pour chaque cellule :
  2. Trouvez la valeur du test du chi carré de Pearson :

    χ 2 = (40-33,6) 2 /33,6 + (30-36,4) 2 /36,4 + (32-38,4) 2 /38,4 + (48-41,6) 2 /41,6 = 4,396.

  3. Le nombre de degrés de liberté f = (2-1)*(2-1) = 1. À l'aide du tableau, nous trouvons la valeur critique du test du chi carré de Pearson, qui au niveau de signification p=0,05 et le nombre de degrés de liberté 1 est 3,841.
  4. Nous comparons la valeur obtenue du test du chi carré avec la valeur critique : 4,396 > 3,841, par conséquent, la dépendance de l'incidence de l'hypertension artérielle sur la présence de tabagisme est statistiquement significative. Le niveau de signification de cette relation correspond à p<0.05.
Afficher le tableau des valeurs critiques du test du chi carré de Pearson

LE CRITÈRE EXACT DE FISCHER

Le test exact de Fisher est un test utilisé pour comparer deux indicateurs relatifs qui caractérisent la fréquence d'une caractéristique particulière ayant deux valeurs. Les données initiales permettant de calculer le test exact de Fisher sont généralement regroupées sous la forme d'un tableau à quatre champs.

1. Historique de l'évolution du critère

Le critère a été proposé pour la première fois Ronald Fisher dans son livre Conception d'expériences. Cela s'est produit en 1935. Fischer lui-même a affirmé que Muriel Bristol l'avait incité à cette idée. Au début des années 1920, Ronald, Muriel et William Roach étaient en poste en Angleterre dans une station expérimentale agricole. Muriel affirmait qu'elle pouvait déterminer l'ordre dans lequel le thé et le lait étaient versés dans sa tasse. A cette époque, il n’était pas possible de vérifier l’exactitude de sa déclaration.

Cela a donné naissance à l'idée de Fisher de « l'hypothèse nulle ». Le but n’était pas de prouver que Muriel pouvait faire la différence entre des tasses de thé préparées différemment. Il a été décidé de réfuter l'hypothèse selon laquelle une femme fait un choix au hasard. Il a été déterminé que l’hypothèse nulle ne pouvait être ni prouvée ni justifiée. Mais cela peut être réfuté lors d’expérimentations.

8 tasses ont été préparées. Les quatre premiers sont d'abord remplis de lait, les quatre autres de thé. Les tasses étaient mélangées. Bristol a proposé de goûter le thé et de répartir les tasses selon la méthode de préparation du thé. Le résultat aurait dû être deux groupes. L'histoire dit que l'expérience a été un succès.

Grâce au test de Fisher, la probabilité que Bristol agisse intuitivement a été réduite à 0,01428. C'est-à-dire qu'il a été possible d'identifier correctement la coupe dans un cas sur 70. Mais pour autant, il n'y a aucun moyen de réduire à zéro les chances que Madame détermine par hasard. Même si vous augmentez le nombre de tasses.

Cette histoire a donné une impulsion au développement de « l’hypothèse nulle ». Dans le même temps, le critère exact de Fisher a été proposé, dont l'essence est d'énumérer toutes les combinaisons possibles de variables dépendantes et indépendantes.

2. À quoi sert le test exact de Fisher ?

Le test exact de Fisher est principalement utilisé pour comparer de petits échantillons. Il y a deux bonnes raisons à cela. Premièrement, le calcul du critère est assez lourd et peut prendre beaucoup de temps ou nécessiter des ressources informatiques puissantes. Deuxièmement, le critère est assez précis (ce qui se reflète même dans son nom), ce qui lui permet d'être utilisé dans des études avec un petit nombre d'observations.

Une place particulière est accordée au test exact de Fisher en médecine. Il s’agit d’une méthode importante de traitement des données médicales qui a trouvé son application dans de nombreuses études scientifiques. Grâce à lui, il est possible d'étudier la relation entre certains facteurs et résultats, de comparer la fréquence des états pathologiques entre deux groupes de sujets, etc.

3. Dans quels cas le test exact de Fisher peut-il être utilisé ?

  1. Les variables comparées doivent être mesurées sur une échelle nominale et n'avoir que deux valeurs, par exemple, la pression artérielle est normale ou élevée, l'évolution est favorable ou défavorable, il existe ou non des complications postopératoires.
  2. Le test exact de Fisher est conçu pour comparer deux groupes indépendants divisés par facteur. En conséquence, le facteur ne devrait également avoir que deux valeurs possibles.
  3. Le critère est adapté à la comparaison de très petits échantillons : le test exact de Fisher peut être utilisé pour analyser des tableaux à quatre complets dans le cas de valeurs du phénomène attendu inférieures à 5, ce qui constitue une limitation d'application. Test du chi carré de Pearson, même en tenant compte de l'amendement Yates.
  4. Le test exact de Fisher peut être unilatéral ou bilatéral. Avec une option unilatérale, on sait exactement où l'un des indicateurs s'écartera. Par exemple, une étude compare le nombre de patients guéris par rapport à un groupe témoin. On suppose que la thérapie ne peut pas aggraver l'état des patients, mais seulement le guérir ou non.
    Un test bilatéral évalue les différences de fréquence dans deux directions. C'est-à-dire que la probabilité d'une fréquence à la fois plus élevée et plus faible du phénomène dans le groupe expérimental par rapport au groupe témoin est évaluée.

Un analogue du test exact de Fisher est Test du chi carré de Pearson, tandis que le test exact de Fisher a une puissance plus élevée, en particulier lors de la comparaison de petits échantillons, et présente donc un avantage dans ce cas.

4. Comment calculer le test exact de Fisher ?

Disons que nous étudions la dépendance de la fréquence des naissances d'enfants atteints de malformations congénitales (CDD) au tabagisme maternel pendant la grossesse. Pour cela, deux groupes de femmes enceintes ont été sélectionnés, l'un étant un groupe expérimental composé de 80 femmes ayant fumé au cours du premier trimestre de la grossesse, et le second étant un groupe témoin comprenant 90 femmes menant un mode de vie sain tout au long de la grossesse. Le nombre de cas de malformation congénitale fœtale dans le groupe expérimental était de 10, dans le groupe témoin - 2.

Tout d’abord, nous créons un tableau de contingence à quatre champs :

Le test exact de Fisher est calculé à l'aide de la formule suivante :

où N est le nombre total de sujets répartis en deux groupes ; ! - factorielle, qui est le produit d'un nombre et d'une suite de nombres dont chacun est inférieur au précédent de 1 (par exemple, 4 ! = 4 3 2 1)

À la suite des calculs, nous constatons que P = 0,0137.

5. Comment interpréter la valeur du test exact de Fisher ?

L’avantage de la méthode est que le critère résultant correspond à la valeur exacte du niveau de significativité p. C'est-à-dire que la valeur de 0,0137 obtenue dans notre exemple est le niveau de signification des différences entre les groupes comparés dans la fréquence de développement de malformations congénitales du fœtus. Il suffit de comparer ce nombre avec le niveau de signification critique, généralement pris en recherche médicale à 0,05.

  • Si la valeur du test exact de Fisher est supérieure à la valeur critique, l'hypothèse nulle est acceptée et on conclut qu'il n'y a pas de différences statistiquement significatives dans la fréquence des résultats en fonction de la présence du facteur de risque.
  • Si la valeur du test exact de Fisher est inférieure à la valeur critique, l'hypothèse alternative est acceptée et on conclut qu'il existe des différences statistiquement significatives dans la fréquence des résultats en fonction de l'exposition au facteur de risque.

Dans notre exemple P< 0,05, в связи с чем делаем вывод о наличии прямой взаимосвязи курения и вероятности развития ВПР плода. Частота возникновения врожденной патологии у детей курящих женщин статистически значимо выше, чем у некурящих.


RAPPORT DE CHANCES

Le rapport de cotes est un indicateur statistique (en russe, son nom est généralement abrégé en OR, et en anglais - OR de "rapport de cotes"), l'un des principaux moyens de décrire en termes numériques à quel point l'absence ou la présence d'un certain résultat est liés à la présence ou à l’absence d’un certain facteur dans un groupe statistique spécifique.

1. Historique du développement de l'indicateur d'odds ratio

Le terme « hasard » vient de la théorie du jeu, où ce concept était utilisé pour désigner le rapport entre les positions gagnantes et les positions perdantes. En scientifique littérature médicale l'indicateur du rapport de cotes a été mentionné pour la première fois en 1951 dans les travaux de J. Kornfield. Par la suite, ce chercheur a publié des articles soulignant la nécessité de calculer un intervalle de confiance de 95 % pour l’odds ratio. (Cornfield, J. Une méthode d'estimation des taux comparatifs à partir de données cliniques. Applications au cancer du poumon, du sein et du col de l'utérus // Journal of the National Cancer Institute, 1951. - N.11. - P.1269-1275.)

2. À quoi sert l’odds ratio ?

L'odds ratio estime l'association entre un résultat particulier et un facteur de risque.

L'odds ratio vous permet de comparer des groupes d'étude en fonction de la fréquence de détection d'un certain facteur de risque. Il est important que le résultat de l'application du rapport de cotes soit non seulement la détermination de la signification statistique de la relation entre le facteur et le résultat, mais également son évaluation quantitative.

3. Conditions et limites d'utilisation des odds ratios

  1. Les indicateurs de résultats et de facteurs doivent être mesurés sur une échelle nominale. Par exemple, le signe efficace est la présence ou l’absence d’une malformation congénitale chez le fœtus, le facteur étudié est le tabagisme de la mère (fume ou ne fume pas).
  2. Cette méthode permet d'analyser uniquement des tableaux à quatre champs, lorsque le facteur et le résultat sont des variables binaires, c'est-à-dire qu'ils n'ont que deux valeurs possibles (par exemple, sexe - homme ou femme, hypertension artérielle - présence ou absence, évolution de la maladie - avec ou sans amélioration...).
  3. Les groupes comparés doivent être indépendants, c'est-à-dire que l'odds ratio n'est pas adapté aux comparaisons avant-après.
  4. L'indicateur de rapport de cotes est utilisé dans les études cas-témoins (par exemple, le premier groupe est constitué de patients souffrant d'hypertension, le second est constitué de personnes relativement en bonne santé). Pour les études prospectives, lorsque des groupes sont constitués en fonction de la présence ou de l'absence d'un facteur de risque (par exemple, le premier groupe est constitué de fumeurs, le deuxième groupe est de non-fumeurs), il peut également être calculé risque relatif.

4. Comment calculer le rapport de cotes ?

Le rapport de cotes est la valeur d'une fraction dans laquelle le numérateur contient les chances d'un certain événement pour le premier groupe et le dénominateur contient les chances du même événement pour le deuxième groupe.

Chance est le rapport entre le nombre de sujets qui possèdent une certaine caractéristique (résultat ou facteur) et le nombre de sujets qui ne possèdent pas cette caractéristique.

Par exemple, un groupe de patients opérés d'une nécrose pancréatique a été sélectionné, composé de 100 personnes. Après 5 ans, 80 d’entre eux étaient encore en vie. En conséquence, les chances de survie étaient de 80 sur 20, soit 4.

Un moyen pratique consiste à calculer le rapport de cotes en résumant les données dans un tableau 2x2 :

Il y a un résultat (1) Aucun résultat (0) Total
Il existe un facteur de risque (1) UN B A+B
Aucun facteur de risque (0) C D C+D
Total A+C B+D A+B+C+D

Pour ce tableau, l’odds ratio est calculé à l’aide de la formule suivante :

Il est très important d'évaluer la signification statistique de l'association identifiée entre le résultat et le facteur de risque. Cela est dû au fait que même avec de faibles valeurs du rapport de cotes, proches de l'unité, la relation peut néanmoins s'avérer significative et doit être prise en compte dans les conclusions statistiques. A l’inverse, avec des valeurs OR élevées, l’indicateur s’avère statistiquement non significatif et, par conséquent, la relation identifiée peut être négligée.

Pour évaluer la signification de l'odds ratio, les limites de l'intervalle de confiance à 95 % sont calculées (l'abréviation 95 % CI ou 95 % CI de l'anglais «confidence interval» est utilisée). Formule pour trouver la valeur limite supérieure de l'IC à 95 % :

Formule pour trouver la valeur de la limite inférieure de l'IC à 95 % :

5. Comment interpréter la valeur du odds ratio ?

  • Si l’odds ratio est supérieur à 1, cela signifie que les chances de trouver un facteur de risque sont plus grandes dans le groupe où le résultat est présent. Ceux. le facteur a un lien direct avec la probabilité que le résultat se produise.
  • Un odds ratio inférieur à 1 indique que les chances de détecter un facteur de risque sont plus grandes dans le deuxième groupe. Ceux. le facteur a une relation inverse avec la probabilité que le résultat se produise.
  • Avec un odds ratio égal à un, les chances de détecter un facteur de risque dans les groupes comparés sont les mêmes. Par conséquent, le facteur n’a aucun impact sur la probabilité du résultat.

De plus, dans chaque cas, la signification statistique de l'odds ratio est nécessairement évaluée sur la base des valeurs de l'intervalle de confiance à 95 %.

  • Si l'intervalle de confiance n'inclut pas 1, c'est-à-dire les deux valeurs des limites sont supérieures ou inférieures à 1, une conclusion est tirée sur la signification statistique de la relation identifiée entre le facteur et le résultat au niveau de signification p<0,05.
  • Si l'intervalle de confiance inclut 1, c'est-à-dire sa limite supérieure est supérieure à 1 et sa limite inférieure est inférieure à 1, on conclut qu'il n'y a pas de signification statistique de la relation entre le facteur et le résultat à un niveau de signification de p>0,05.
  • La taille de l'intervalle de confiance est inversement proportionnelle au niveau de signification de la relation entre le facteur et le résultat, c'est-à-dire plus l'IC à 95 % est petit, plus la relation identifiée est significative.

6. Exemple de calcul de l'indicateur d'odds ratio

Imaginons deux groupes : le premier était composé de 200 femmes ayant reçu un diagnostic de malformation congénitale du fœtus (Exodus+). Parmi elles, 50 personnes ont fumé pendant la grossesse (Facteur+) (UN), étaient non-fumeurs (Facteur-) - 150 personnes (AVEC).

Le deuxième groupe était composé de 100 femmes sans signes de malformation congénitale du fœtus (Résultat -) parmi lesquelles 10 personnes ont fumé pendant la grossesse (Facteur+). (B), n'a pas fumé (Facteur-) - 90 personnes (D).

1. Créons un tableau de contingence à quatre champs :

2. Calculez la valeur du rapport de cotes :

OU = (A * D) / (B * C) = (50 * 90) / (150 * 10) = 3.

3. Trouvez les limites de l'IC à 95 %. La valeur de la limite inférieure calculée à l'aide de la formule ci-dessus était de 1,45 et la limite supérieure était de 6,21.

Ainsi, l'étude a montré que les chances de rencontrer une femme qui fume parmi les patientes présentant une malformation congénitale du fœtus diagnostiquée sont 3 fois plus élevées que chez les femmes sans signes de malformation congénitale du fœtus. La dépendance observée est statistiquement significative, puisque l'IC à 95 % n'inclut pas 1, les valeurs de ses limites inférieure et supérieure sont supérieures à 1.


RISQUE RELATIF

Le risque est la probabilité qu’un résultat particulier, tel qu’une maladie ou une blessure, se produise. Le risque peut prendre des valeurs allant de 0 (il n'y a aucune probabilité que le résultat se produise) à 1 (un résultat défavorable est attendu dans tous les cas). Dans les statistiques médicales, en règle générale, les modifications du risque d'issue sont étudiées en fonction d'un facteur. Les patients sont conditionnellement divisés en 2 groupes, dont l'un est affecté par le facteur, l'autre ne l'est pas.

Le risque relatif est le rapport entre la fréquence des résultats chez les sujets influencés par le facteur étudié et la fréquence des résultats chez les sujets qui n'ont pas été influencés par ce facteur. Dans la littérature scientifique, le nom abrégé de l'indicateur est souvent utilisé - RR ou RR (de l'anglais « risque relatif »).

1. Historique du développement de l'indicateur de risque relatif

Le calcul du risque relatif est emprunté par les statistiques médicales à l’économie. Une évaluation correcte de l'influence des facteurs politiques, économiques et sociaux sur la demande d'un produit ou d'un service peut conduire au succès, et une sous-estimation de ces facteurs peut conduire à l'échec financier et à la faillite de l'entreprise.

2. À quoi sert le risque relatif ?

Le risque relatif est utilisé pour comparer la probabilité d'un résultat en fonction de la présence d'un facteur de risque. Par exemple, lors de l'évaluation de l'effet du tabagisme sur l'incidence de l'hypertension, lors de l'étude de la dépendance de l'incidence du cancer du sein sur l'utilisation de contraceptifs oraux, etc. Le risque relatif est l'indicateur le plus important pour prescrire certaines méthodes de traitement ou mener des études avec les effets secondaires possibles.

3. Conditions et limites d'application du risque relatif

  1. Les indicateurs de facteurs et de résultats doivent être mesurés sur une échelle nominale (par exemple, sexe du patient – ​​homme ou femme, hypertension artérielle – présente ou non).
  2. Cette méthode permet d'analyser uniquement des tableaux à quatre champs, lorsque le facteur et le résultat sont des variables inaires, c'est-à-dire qu'ils n'ont que deux valeurs possibles (par exemple, l'âge inférieur ou supérieur à 50 ans, la présence ou absence d'une certaine maladie dans l'anamnèse).
  3. Le risque relatif est utilisé dans les études prospectives, lorsque des groupes d'étude sont constitués en fonction de la présence ou de l'absence d'un facteur de risque. Dans les études cas-témoins, le risque relatif doit être utilisé plutôt que rapports de cotes.

4. Comment calculer le risque relatif ?

Pour calculer le risque relatif, vous avez besoin de :

5. Comment interpréter la valeur relative du risque ?

L'indicateur de risque relatif est comparé à 1 afin de déterminer la nature de la relation entre le facteur et le résultat :

  • Si le RR est égal à 1, on peut conclure que le facteur étudié n'affecte pas la probabilité du résultat (pas de relation entre le facteur et le résultat).
  • Pour les valeurs supérieures à 1, on conclut que le facteur augmente la fréquence des résultats (relation directe).
  • Pour les valeurs inférieures à 1, cela indique une diminution de la probabilité du résultat lorsqu'il est exposé au facteur (rétroaction).

Les valeurs des limites de l'intervalle de confiance à 95 % sont également nécessairement estimées. Si les deux valeurs - la limite inférieure et la limite supérieure - sont du même côté de 1 ou, en d'autres termes, l'intervalle de confiance n'inclut pas 1, alors une conclusion est tirée sur la signification statistique de la relation identifiée entre le facteur et le résultat avec une probabilité d'erreur de p<0,05.

Si la limite inférieure de l'IC à 95 % est inférieure à 1 et la limite supérieure est supérieure, alors on conclut qu'il n'y a pas de signification statistique de l'influence du facteur sur la fréquence du résultat, quelle que soit la valeur de l'IC à 95 %. FR (p>0,05).

6. Exemple de calcul de l'indicateur de risque relatif

En 1999, une étude a été menée en Oklahoma sur l'incidence des ulcères d'estomac chez les hommes. La consommation régulière de restauration rapide a été choisie comme facteur d'influence. Dans le premier groupe, il y avait 500 hommes qui mangeaient constamment de la restauration rapide, parmi lesquels des ulcères d'estomac ont été diagnostiqués chez 96 personnes. Le deuxième groupe comprenait 500 partisans d'une alimentation saine, parmi lesquels des ulcères d'estomac ont été diagnostiqués dans 31 cas. Sur la base des données obtenues, le tableau de contingence suivant a été construit :


CRITÈRE DE CORRÉLATION DE PEARSON

​ Le test de corrélation de Pearson est une méthode de statistiques paramétriques qui permet de déterminer la présence ou l'absence d'une relation linéaire entre deux indicateurs quantitatifs, ainsi que d'évaluer sa proximité et sa signification statistique. En d'autres termes, le test de corrélation de Pearson permet de déterminer si un indicateur change (augmente ou diminue) en réponse aux changements d'un autre ? Dans les calculs et les inférences statistiques, le coefficient de corrélation est généralement noté r xy ou R xy.

1. Historique du développement du critère de corrélation

Le test de corrélation de Pearson a été développé par une équipe de scientifiques britanniques dirigée par Karl Pearson(1857-1936) dans les années 90 du XIXe siècle, pour simplifier l'analyse de la covariance de deux variables aléatoires. En plus de Karl Pearson, des personnes ont également travaillé sur le critère de corrélation de Pearson. Francis Edgeworth Et Raphaël Weldon.

2. A quoi sert le test de corrélation de Pearson ?

Le test de corrélation de Pearson permet de déterminer l'étroitesse (ou la force) de la corrélation entre deux indicateurs mesurés sur une échelle quantitative. À l’aide de calculs supplémentaires, vous pouvez également déterminer le degré de signification statistique de la relation identifiée.

Par exemple, en utilisant le critère de corrélation de Pearson, vous pouvez répondre à la question de savoir s'il existe un lien entre la température corporelle et la teneur en leucocytes dans le sang lors d'infections respiratoires aiguës, entre la taille et le poids du patient, entre la teneur en fluorure dans l'eau potable et l'incidence des caries dentaires dans la population.

3. Conditions et limites d'application du test du Chi carré de Pearson

  1. Des indicateurs comparables doivent être mesurés sur une échelle quantitative (par exemple, fréquence cardiaque, température corporelle, nombre de globules blancs pour 1 ml de sang, pression artérielle systolique).
  2. En utilisant le critère de corrélation de Pearson, vous pouvez uniquement déterminer la présence et la force d'une relation linéaire entre les quantités. D'autres caractéristiques de la relation, notamment la direction (directe ou inverse), la nature des changements (rectilignes ou curvilignes), ainsi que la présence de dépendance d'une variable par rapport à une autre, sont déterminées à l'aide analyse de régression.
  3. Le nombre de grandeurs comparées doit être égal à deux. Dans le cas de l'analyse de la relation entre trois paramètres ou plus, vous devez utiliser la méthode analyse factorielle.
  4. Le critère de corrélation de Pearson est paramétrique, et donc la condition de son application est la distribution normale de chacune des variables comparées. S'il est nécessaire d'effectuer une analyse de corrélation d'indicateurs dont la distribution diffère de la normale, y compris ceux mesurés sur une échelle ordinale, vous devez utiliser Coefficient de corrélation de rang de Spearman.
  5. Les notions de dépendance et de corrélation doivent être clairement distinguées. La dépendance des quantités détermine la présence d'une corrélation entre elles, mais pas l'inverse.

Par exemple, la taille d'un enfant dépend de son âge, c'est-à-dire que plus l'enfant est âgé, plus il est grand. Si nous prenons deux enfants d’âges différents, il est fort probable que la croissance de l’enfant plus âgé sera supérieure à celle du plus jeune. Ce phénomène est appelé dépendance, impliquant une relation de cause à effet entre les indicateurs. Bien entendu, il existe également une corrélation entre eux, ce qui signifie que les modifications d’un indicateur s’accompagnent de modifications d’un autre indicateur.

Dans une autre situation, considérons la relation entre la taille d’un enfant et la fréquence cardiaque (FC). Comme on le sait, ces deux valeurs dépendent directement de l'âge, donc dans la plupart des cas, les enfants de plus grande taille (et donc plus âgés) auront des valeurs de fréquence cardiaque plus faibles. Autrement dit, une corrélation sera observée et pourra être assez étroite. Cependant, si nous prenons des enfants du même âge, mais de tailles différentes, leur fréquence cardiaque sera très probablement différente de manière insignifiante et nous pouvons donc conclure que la fréquence cardiaque est indépendante de la taille.

L'exemple ci-dessus montre à quel point il est important de distinguer les notions de connexion et de dépendance des indicateurs, fondamentales en statistique, afin de tirer des conclusions correctes.

4. Comment calculer le coefficient de corrélation de Pearson ?

Le coefficient de corrélation de Pearson est calculé à l'aide de la formule suivante :

5. Comment interpréter la valeur du coefficient de corrélation de Pearson ?

Les valeurs du coefficient de corrélation de Pearson sont interprétées en fonction de leurs valeurs absolues. Les valeurs possibles du coefficient de corrélation varient de 0 à ±1. Plus la valeur absolue de r xy est grande, plus la relation entre les deux quantités est étroite. r xy = 0 indique une absence totale de communication. r xy = 1 – indique la présence d'une connexion absolue (fonctionnelle). Si la valeur du critère de corrélation de Pearson s'avère être supérieure à 1 ou inférieure à -1, une erreur a été commise dans les calculs.

Pour évaluer l'étroitesse, ou la force, d'une corrélation, on utilise généralement des critères généralement acceptés, selon lesquels les valeurs absolues de r xy< 0.3 свидетельствуют о faible connexion, valeurs r xy de 0,3 à 0,7 - à propos de la connexion moyenneétanchéité, valeurs de r xy > 0,7 - o fort communications.

Une évaluation plus précise de la force de la corrélation peut être obtenue en utilisant le tableau de Chaddock :

La signification statistique du coefficient de corrélation r xy est évaluée à l'aide du test t, calculé à l'aide de la formule suivante :

La valeur t r obtenue est comparée à la valeur critique à un certain niveau de signification et au nombre de degrés de liberté n-2. Si t r dépasse t crit, alors une conclusion est tirée sur la signification statistique de la corrélation identifiée.

6. Exemple de calcul du coefficient de corrélation de Pearson

Le but de l'étude était d'identifier, de déterminer l'étroitesse et la signification statistique de la corrélation entre deux indicateurs quantitatifs : le niveau de testostérone dans le sang (X) et le pourcentage de masse musculaire dans le corps (Y). Les données initiales pour un échantillon composé de 5 sujets (n = 5) sont résumées dans le tableau :


CRITÈRE DE SPEARMAN

Le coefficient de corrélation de rang de Spearman est une méthode non paramétrique utilisée dans le but d'étudier statistiquement la relation entre les phénomènes. Dans ce cas, le degré réel de parallélisme entre les deux séries quantitatives des caractéristiques étudiées est déterminé et une évaluation de l'étroitesse du lien établi est donnée à l'aide d'un coefficient exprimé quantitativement.

1. Historique de l'évolution du coefficient de corrélation de rang

Ce critère a été développé et proposé pour l'analyse de corrélation en 1904 Charles Édouard Spearman, psychologue anglais, professeur aux universités de Londres et de Chesterfield.

2. A quoi sert le coefficient de Spearman ?

Le coefficient de corrélation de rang de Spearman est utilisé pour identifier et évaluer l'étroitesse de la relation entre deux séries d'indicateurs quantitatifs comparés. Si les rangs des indicateurs, classés par degré d'augmentation ou de diminution, coïncident dans la plupart des cas (une plus grande valeur d'un indicateur correspond à une plus grande valeur d'un autre indicateur - par exemple, lorsque l'on compare la taille d'un patient et son poids corporel), une conclusion est fait sur la présence droit connexion de corrélation. Si les rangs des indicateurs ont le sens opposé (une valeur plus élevée d'un indicateur correspond à une valeur inférieure d'un autre - par exemple, lorsque l'on compare l'âge et la fréquence cardiaque), alors ils parlent de inverse liens entre les indicateurs.

    Le coefficient de corrélation de Spearman a les propriétés suivantes :
  1. Le coefficient de corrélation peut prendre des valeurs de moins un à un, et avec rs=1 il existe une relation strictement directe, et avec rs= -1 il existe une relation strictement de rétroaction.
  2. Si le coefficient de corrélation est négatif, il existe une relation de rétroaction ; s’il est positif, il existe une relation directe.
  3. Si le coefficient de corrélation égal à zéro, alors il n'y a pratiquement aucun lien entre les quantités.
  4. Plus le module du coefficient de corrélation est proche de l'unité, plus la relation entre les grandeurs mesurées est forte.

3. Dans quels cas le coefficient de Spearman peut-il être utilisé ?

Étant donné que le coefficient est une méthode d’analyse non paramétrique, il n’est pas nécessaire de tester la normalité de la distribution.

Des indicateurs comparables peuvent être mesurés aussi bien sur une échelle continue (par exemple, le nombre de globules rouges dans 1 µl de sang) que sur une échelle ordinale (par exemple, des points d'expertise de 1 à 5).

L'efficacité et la qualité de l'évaluation de Spearman diminuent si la différence entre différentes significations l'une des quantités mesurées est suffisamment grande. Il n'est pas recommandé d'utiliser le coefficient de Spearman s'il existe une répartition inégale des valeurs de la grandeur mesurée.

4. Comment calculer le coefficient de Spearman ?

Le calcul du coefficient de corrélation de rang de Spearman comprend les étapes suivantes :

5. Comment interpréter la valeur du coefficient de Spearman ?

Lors de l'utilisation du coefficient de corrélation de rang, l'étroitesse du lien entre les caractéristiques est évaluée de manière conditionnelle, en considérant les valeurs du coefficient inférieures à 0,3 comme un signe de lien faible ; les valeurs supérieures à 0,3 mais inférieures à 0,7 sont le signe d'une proximité modérée de la connexion, et les valeurs de 0,7 ou plus sont le signe d'une forte proximité de la connexion.

Il peut également être utilisé pour évaluer l’étanchéité de la connexion. Échelle de Chaddock.

La signification statistique du coefficient obtenu est évaluée à l'aide du test t de Student. Si la valeur calculée du test t est inférieure à la valeur tabulée pour un nombre donné de degrés de liberté, la relation observée n'est pas statistiquement significative. Si elle est supérieure, la corrélation est considérée comme statistiquement significative.


MÉTHODE KOLMOGOROV-SMIRNOV

Le test de Kolmogorov-Smirnov est un test d'ajustement non paramétrique, au sens classique, il est destiné à tester des hypothèses simples quant à savoir si l'échantillon analysé appartient à une loi de distribution connue. L'application la plus connue de ce critère est de vérifier la normalité de la distribution des populations étudiées.

1. Historique du développement du critère de Kolmogorov-Smirnov

Le critère de Kolmogorov-Smirnov a été développé par des mathématiciens soviétiques Andreï Nikolaïevitch Kolmogorov Et Nikolaï Vassilievitch Smirnov.
Kolmogorov A.N. (1903-1987) - Héros Travailliste socialiste, professeur de Moscou Université d'État, académicien de l'Académie des sciences de l'URSS - le plus grand mathématicien du XXe siècle, est l'un des fondateurs théorie moderne probabilités.
Smirnov N.V. (1900-1966) - Membre correspondant de l'Académie des sciences de l'URSS, l'un des créateurs de méthodes non paramétriques de statistiques mathématiques et de la théorie des distributions limites des statistiques d'ordre.

Par la suite, le test d'adéquation de Kolmogorov-Smirnov a été modifié pour être utilisé pour tester la normalité de distribution des populations par un statisticien américain, professeur à l'Université George Washington. Hubert Lilliefors(Hubert Whitman Lilliefors, 1928-2008). Le professeur Lilliefors a été l'un des pionniers de l'utilisation de la technologie informatique dans les calculs statistiques.

Hubert Lilliefors

2. Pourquoi le critère de Kolmogorov-Smirnov est-il utilisé ?

Ce critère permet d'évaluer l'importance des différences entre les distributions de deux échantillons, y compris la possibilité de l'utiliser pour évaluer la conformité de la distribution de l'échantillon étudié avec la loi de distribution normale.

3. Dans quels cas le critère de Kolmogorov-Smirnov peut-il être utilisé ?

Le test de Kolmogorov-Smirnov est conçu pour tester la distribution normale d'ensembles de données quantitatives.

Pour une plus grande fiabilité des données obtenues, les volumes des échantillons considérés doivent être suffisamment importants : n ≥ 50. Lorsque la taille de la population estimée est de 25 à 50 éléments, il est conseillé d'utiliser la correction Bolchev.

4. Comment calculer le critère de Kolmogorov-Smirnov ?

Le critère de Kolmogorov-Smirnov est calculé à l'aide de programmes statistiques spéciaux. Il est basé sur des statistiques de la forme :

souper S- le suprême de l'ensemble S, Fn- fonction de répartition de la population étudiée, F(x)- fonction de distribution normale

Les valeurs de probabilité déduites reposent sur l'hypothèse que la moyenne et l'écart type d'une distribution normale sont connus a priori et ne sont pas estimés à partir des données.

Cependant, en pratique, les paramètres sont généralement calculés directement à partir des données. Dans ce cas, le test de normalité implique une hypothèse composite (« quelle est la probabilité d’obtenir une statistique D de signification égale ou supérieure en fonction de la moyenne et de l’écart type calculés à partir des données ») et les probabilités de Lilliefors sont données (Lilliefors, 1967). ).

5. Comment interpréter la valeur du test de Kolmogorov-Smirnov ?

Si les statistiques de D Kolmogorov-Smirnov sont significatives (p<0,05), то гипотеза о том, что соответствующее распределение нормально, должна быть отвергнута.


Un exemple de solution de test pour statistiques mathématiques

Problème 1

Donnée initiale : les étudiants d'un certain groupe composé de 30 personnes ont réussi un examen dans le cours « Informatique ». Les notes reçues par les étudiants forment la série de nombres suivante :

I. Créons une série de variations

m X

w X

m X nak

w X nak

Total:

II. Représentation graphique des informations statistiques.

III. Caractéristiques numériques de l'échantillon.

1. Moyenne arithmétique

2. Moyenne géométrique

3. Mode

4. Médiane

222222333333333 | 3 34444444445555

5. Écart de l'échantillon

7. Coefficient de variation

8. Asymétrie

9. Coefficient d'asymétrie

10. Excédent

11. Coefficient d'aplatissement

Problème 2

Donnée initiale : Les étudiants d'un groupe ont rédigé leur test final. Le groupe est composé de 30 personnes. Les points marqués par les élèves forment la série de nombres suivante

Solution

I. Étant donné que la caractéristique prend de nombreuses valeurs différentes, nous allons construire une série de variations d'intervalles pour elle. Pour ce faire, définissez d'abord la valeur de l'intervalle h. Utilisons la formule de Stanger

Créons une échelle d'intervalle. Dans ce cas, on prendra comme limite supérieure du premier intervalle la valeur déterminée par la formule :

Nous déterminons les limites supérieures des intervalles suivants à l'aide de la formule récurrente suivante :

, Alors

Nous terminons de construire l'échelle d'intervalle, puisque la limite supérieure de l'intervalle suivant est devenue supérieure ou égale à la valeur maximale de l'échantillon
.

II. Affichage graphique des séries de variations d'intervalle

III. Caractéristiques numériques de l'échantillon

Pour déterminer les caractéristiques numériques de l'échantillon, nous composerons un tableau auxiliaire

Somme:

1. Moyenne arithmétique

2. Moyenne géométrique

3. Mode

4. Médiane

10 11 12 12 13 13 13 13 14 14 14 14 15 15 15 |15 15 15 16 16 16 16 16 17 17 18 19 19 20 20

5. Écart de l'échantillon

6. Exemple d'écart type

7. Coefficient de variation

8. Asymétrie

9. Coefficient d'asymétrie

10. Excédent

11. Coefficient d'aplatissement

Problème 3

Condition : la valeur de division de l'échelle de l'ampèremètre est de 0,1 A. Les lectures sont arrondies à la division entière la plus proche. Trouvez la probabilité que lors de la lecture, une erreur supérieure à 0,02 A soit commise.

Solution.

L'erreur d'arrondi de l'échantillon peut être considérée comme une variable aléatoire X, qui est réparti uniformément dans l'intervalle entre deux divisions entières adjacentes. Densité de distribution uniforme

,


- longueur de l'intervalle contenant les valeurs possibles X; en dehors de cet intervalle
Dans ce problème, la longueur de l'intervalle contenant les valeurs possibles est X, est égal à 0,1, donc

L'erreur de lecture dépassera 0,02 si elle se situe dans l'intervalle (0,02 ; 0,08). Alors

Répondre: R.=0,6

Problème 4

Donnée initiale: espérance mathématique et écart type d'une caractéristique normalement distribuée X respectivement égaux à 10 et 2. Trouver la probabilité qu'à la suite du test X prendra la valeur contenue dans l'intervalle (12, 14).

Solution.

Utilisons la formule

Et les fréquences théoriques

Solution

Pour X, son espérance mathématique est M(X) et sa variance D(X). Solution. Trouvons la fonction de distribution F(x) de la variable aléatoire... erreur d'échantillonnage). Composons variationnel rangée Largeur d'intervalle sera: Pour chaque valeur rangée Calculons combien...

  • Solution : équation séparable

    Solution

    Sous la forme Pour trouver le quotient solutionséquation inhomogène tournons la page systèmeRésolvons le système résultant... ; +47 ; +61 ; +10 ; -8. Intervalle de construction variationnel rangée. Donner des estimations statistiques de la valeur moyenne...

  • Solution : Calculons les augmentations absolues en chaîne et de base, les taux de croissance, les taux de croissance. Nous résumons les valeurs obtenues dans le tableau 1

    Solution

    Volume de production. Solution: Moyenne arithmétique de l'intervalle variationnel rangée est calculé comme suit : pour... Erreur marginale d'échantillonnage avec probabilité 0,954 (t=2) sera: Δ w = t*μ = 2*0,0146 = 0,02927 Définissons les limites...

  • Solution. Signe

    Solution

    À propos de quelle expérience professionnelle et composééchantillon. L'échantillon d'expérience de travail moyenne... de ces employés et composééchantillon. La durée moyenne de l'échantillon... 1,16, niveau de signification α = 0,05. Solution. Variationnel rangée de cet échantillon ressemble à : 0,71 ...

  • Programme de travail en biologie pour les classes 10-11 Compilé par : Polikarpova S. V.

    Programme de travail

    Les schémas de croisement les plus simples" 5 L.r. " Solution problèmes génétiques élémentaires" 6 L.b. " Solution problèmes génétiques élémentaires" 7 L.b. "..., 110, 115, 112, 110. Composer variationnel rangée, dessiner variationnel courbe, trouver la valeur moyenne de la caractéristique...

  • Lignes construites sur une base quantitative, sont appelés variationnel.

    Les séries de distribution comprennent choix(valeurs caractéristiques) et fréquences(nombre de groupes). Les fréquences exprimées en valeurs relatives (fractions, pourcentages) sont appelées fréquences. La somme de toutes les fréquences est appelée le volume de la série de distribution.

    Par type, les séries de distribution sont divisées en discret(construit sur la base de valeurs discontinues de la caractéristique) et intervalle(basé sur des valeurs continues de la caractéristique).

    Série de variantes représente deux colonnes (ou lignes) ; dont l'un fournit des valeurs individuelles d'une caractéristique variable, appelées variantes et notées X ; et dans l'autre - des nombres absolus indiquant combien de fois (à quelle fréquence) chaque option se produit. Les indicateurs de la deuxième colonne sont appelés fréquences et sont classiquement notés f. Notons encore une fois que dans la deuxième colonne des indicateurs relatifs peuvent être utilisés, caractérisant la part de la fréquence des options individuelles dans la somme totale des fréquences. Ces indicateurs relatifs sont appelés fréquences et sont classiquement notés ω. La somme de toutes les fréquences dans ce cas est égale à un. Cependant, les fréquences peuvent également être exprimées en pourcentages, la somme de toutes les fréquences donnant alors 100 %.

    Si les variantes d'une série de variations sont exprimées sous forme de quantités discrètes, alors une telle série de variations est appelée discret.

    Pour les caractéristiques continues, les séries de variations sont construites comme intervalle, c'est-à-dire que les valeurs de l'attribut qu'ils contiennent sont exprimées « de... à... ». Dans ce cas, les valeurs minimales de la caractéristique dans un tel intervalle sont appelées la limite inférieure de l'intervalle et le maximum - la limite supérieure.

    Des séries de variations d'intervalles sont également construites pour des caractéristiques discrètes qui varient sur une large plage. Les séries d'intervalles peuvent être avec égal Et inégalà intervalles.

    Considérons comment la valeur des intervalles égaux est déterminée. Introduisons la notation suivante :

    je– taille de l'intervalle ;

    - la valeur maximale de la caractéristique pour les unités de population ;

    – la valeur minimale de la caractéristique pour les unités de population ;

    n – nombre de groupes attribués.

    , si n est connu.

    Si le nombre de groupes à distinguer est difficile à déterminer à l'avance, alors pour calculer la valeur optimale de l'intervalle avec une taille de population suffisante, la formule proposée par Sturgess en 1926 peut être préconisée :

    n = 1+ 3,322 log N, où N est le nombre d'unités dans l'agrégat.

    La taille des intervalles inégaux est déterminée dans chaque cas individuel, en tenant compte des caractéristiques de l'objet d'étude.

    Répartition statistique de l'échantillon appeler une liste d'options et leurs fréquences correspondantes (ou fréquences relatives).

    La répartition statistique de l'échantillon peut être précisée sous la forme d'un tableau, dans la première colonne duquel se trouvent les options, et dans la seconde - les fréquences correspondant à ces options ni, ou fréquences relatives Pi .

    Répartition statistique de l'échantillon

    Les séries d'intervalles sont des séries de variations dans lesquelles les valeurs des caractéristiques qui sous-tendent leur formation sont exprimées dans certaines limites (intervalles). Dans ce cas, les fréquences ne se réfèrent pas aux valeurs individuelles de l'attribut, mais à l'ensemble de l'intervalle.

    Les séries de distribution d'intervalles sont construites sur la base de caractéristiques quantitatives continues, ainsi que de caractéristiques discrètes qui varient dans des limites significatives.

    Une série d'intervalles peut être représentée par la distribution statistique d'un échantillon indiquant les intervalles et leurs fréquences correspondantes. Dans ce cas, la somme des fréquences des variantes comprises dans cet intervalle est prise comme fréquence de l'intervalle.

    Lors du regroupement par caractéristiques quantitatives continues, il est important de déterminer la taille de l'intervalle.

    En plus de la moyenne de l'échantillon et de la variance de l'échantillon, d'autres caractéristiques de la série de variations sont également utilisées.

    Mode La variante qui a la fréquence la plus élevée est appelée.

    Regroupement- c'est la division d'une population en groupes homogènes selon certaines caractéristiques.

    Objet de la prestation. Grâce au calculateur en ligne, vous pouvez :

    • construire une série de variations, construisez un histogramme et un polygone ;
    • trouver des indicateurs de variation (moyenne, mode (y compris graphiquement), médiane, plage de variation, quartiles, déciles, coefficient de différenciation quartile, coefficient de variation et autres indicateurs) ;

    Instructions. Pour regrouper une série, vous devez sélectionner le type de série de variations obtenue (discrète ou intervalle) et indiquer la quantité de données (nombre de lignes). La solution obtenue est enregistrée dans un fichier Word (voir exemple de regroupement de données statistiques).

    Si le regroupement a déjà été effectué et que le série à variation discrète ou série d'intervalles, vous devez alors utiliser le calculateur en ligne Indices de Variation. Tester l'hypothèse sur le type de distribution s'effectue à l'aide du service Etude du formulaire de répartition.

    Types de regroupements statistiques

    Série de variantes. Dans le cas d'observations d'une variable aléatoire discrète, la même valeur peut être rencontrée plusieurs fois. De telles valeurs x i d'une variable aléatoire sont enregistrées en indiquant n i le nombre de fois où elle apparaît dans n observations, c'est la fréquence de cette valeur.
    Dans le cas d'une variable aléatoire continue, le regroupement est utilisé en pratique.
    1. Regroupement typologique- c'est la division de la population qualitativement hétérogène étudiée en classes, types socio-économiques, groupes d'unités homogènes. Pour construire ce regroupement, utilisez le paramètre Série de variations discrètes.
    2. Un regroupement est dit structurel, dans lequel une population homogène est divisée en groupes qui caractérisent sa structure selon des caractéristiques variables. Pour créer ce regroupement, utilisez le paramètre de série Intervalle.
    3. Un regroupement qui révèle les relations entre les phénomènes étudiés et leurs caractéristiques est appelé groupe analytique(voir regroupement analytique des séries).

    Exemple n°1. Sur la base des données du tableau 2, construisez des séries de distribution pour 40 banques commerciales de la Fédération de Russie. À l'aide de la série de distribution obtenue, déterminez : le bénéfice en moyenne par banque commerciale, les investissements en crédit en moyenne par banque commerciale, la valeur modale et médiane du profit ; quartiles, déciles, plage de variation, écart linéaire moyen, écart type, coefficient de variation.

    Solution:
    Au chapitre "Type de série statistique" sélectionnez Série discrète. Cliquez sur Insérer à partir d'Excel. Nombre de groupes : selon la formule de Sturgess

    Principes de construction de regroupements statistiques

    Une série d’observations classées par ordre croissant est appelée série de variations.. Fonction de regroupement est une caractéristique par laquelle une population est divisée en groupes distincts. C'est ce qu'on appelle la base du groupe. Le regroupement peut être basé sur des caractéristiques à la fois quantitatives et qualitatives.
    Après avoir déterminé la base du regroupement, il convient de trancher la question du nombre de groupes en lesquels la population étudiée doit être divisée.

    Lors de l'utilisation d'ordinateurs personnels pour traiter des données statistiques, le regroupement des unités d'objets est effectué à l'aide de procédures standard.
    L'une de ces procédures est basée sur l'utilisation de la formule de Sturgess pour déterminer le nombre optimal de groupes :

    k = 1+3,322*log(N)

    Où k est le nombre de groupes, N est le nombre d'unités de population.

    La longueur des intervalles partiels est calculée comme h=(x max -x min)/k

    Ensuite, le nombre d'observations tombant dans ces intervalles est compté, qui sont pris comme fréquences n i . Peu de fréquences dont les valeurs sont inférieures à 5 (n i< 5), следует объединить. в этом случае надо объединить и соответствующие интервалы.
    Les valeurs médianes des intervalles x i =(c i-1 +c i)/2 sont prises comme nouvelles valeurs.

    Exemple n°3. À la suite d'un échantillon aléatoire de 5 %, la répartition suivante des produits selon la teneur en humidité a été obtenue. Calculer : 1) le pourcentage moyen d’humidité ; 2) des indicateurs caractérisant les variations d'humidité.
    La solution a été obtenue à l'aide d'une calculatrice : Exemple n°1

    Construisez une série de variations. Sur la base de la série trouvée, construisez un polygone de distribution, un histogramme et cumulez. Déterminez le mode et la médiane.
    Télécharger la solution

    Exemple. D'après les résultats de l'observation de l'échantillon (échantillon A, annexe) :
    a) faire une série de variations ;
    b) calculer les fréquences relatives et les fréquences relatives accumulées ;
    c) construire un polygone ;
    d) créer une fonction de distribution empirique ;
    e) tracer la fonction de distribution empirique ;
    f) calculer des caractéristiques numériques : moyenne arithmétique, dispersion, écart type. Solution

    Sur la base des données données dans le tableau 4 (Annexe 1) et correspondant à votre option, faites :

    1. Sur la base du regroupement structurel, construisez des séries de fréquence variationnelle et de distribution cumulative en utilisant des intervalles fermés égaux, en prenant le nombre de groupes égal à 6. Présentez les résultats sous forme de tableau et affichez-les graphiquement.
    2. Analysez la série de variations de la distribution en calculant :
      • valeur moyenne arithmétique de la caractéristique ;
      • mode, médiane, 1er quartile, 1er et 9ème décile ;
      • écart-type;
      • le coefficient de variation.
    3. Conclure.

    Obligatoire : classer la série, construire une série de distribution d'intervalles, calculer la valeur moyenne, la variabilité de la valeur moyenne, le mode et la médiane pour les séries classées et par intervalles.

    Sur la base des données initiales, construire une série de variations discrètes ; présentez-le sous la forme d’un tableau statistique et de graphiques statistiques. 2). Sur la base des données initiales, construisez une série de variations d'intervalles avec des intervalles égaux. Choisissez vous-même le nombre d'intervalles et expliquez ce choix. Présentez la série de variations résultante sous la forme d’un tableau statistique et de graphiques statistiques. Indiquez les types de tableaux et de graphiques utilisés.

    Afin de déterminer la durée moyenne de service client dans une caisse de pension dont le nombre de clients est très important, une enquête auprès de 100 clients a été réalisée selon un plan d'échantillonnage aléatoire non répétitif. Les résultats de l'enquête sont présentés dans le tableau. Trouver:
    a) les limites dans lesquelles est contenue, avec une probabilité de 0,9946, la durée moyenne d'activité de tous les clients de la caisse de pension ;
    b) la probabilité que la part de tous les clients du fonds ayant une durée de service inférieure à 6 minutes ne diffère pas de plus de 10 % de la part de ces clients dans l'échantillon (en valeur absolue) ;
    c) le volume d'échantillonnage répété, dans lequel avec une probabilité de 0,9907, on peut affirmer que la part de tous les clients du fonds avec une durée de service inférieure à 6 minutes ne diffère pas de plus de 10 de la part de ces clients dans l'échantillon % (en valeur absolue).
    2. Selon la tâche 1, à l’aide du test X2 de Pearson, au niveau de signification α = 0,05, tester l’hypothèse selon laquelle valeur aléatoire X – temps de service client – ​​est réparti selon une loi normale. Construisez un histogramme de la distribution empirique et de la courbe normale correspondante dans un seul dessin.
    Télécharger la solution

    Un échantillon de 100 éléments est donné. Nécessaire:

    1. Construire une série de variations classées ;
    2. Trouver les durées maximales et minimales de la série ;
    3. Trouvez la plage de variation et le nombre d'intervalles optimaux pour construire une série d'intervalles. Trouver la longueur de l'intervalle de la série d'intervalles ;
    4. Construisez une série d’intervalles. Trouvez les fréquences des éléments de l'échantillon tombant dans les intervalles composés. Trouvez les points médians de chaque intervalle ;
    5. Construisez un histogramme et un polygone de fréquence. Comparez avec la distribution normale (analytiquement et graphiquement) ;
    6. Tracez la fonction de distribution empirique ;
    7. Calculer les caractéristiques numériques de l'échantillon : moyenne de l'échantillon et moment central de l'échantillon ;
    8. Calculez les valeurs approximatives de l'écart type, de l'asymétrie et de l'aplatissement (à l'aide du progiciel d'analyse MS Excel). Comparez les valeurs calculées approximatives avec les valeurs exactes (calculées à l'aide de formules MS Excel) ;
    9. Comparez les caractéristiques graphiques sélectionnées avec les caractéristiques théoriques correspondantes.
    Télécharger la solution

    Les exemples de données suivants sont disponibles (échantillon de 10 %, mécanique) sur la production de produits et le montant du bénéfice, en millions de roubles. D'après les données originales :
    Tâche 13.1.
    13.1.1. Construire une série statistique de répartition des entreprises selon le montant des bénéfices, formant cinq groupes à intervalles égaux. Construire des graphiques de séries de distribution.
    13.1.2. Calculer les caractéristiques numériques de la série de distribution des entreprises par le montant du profit : moyenne arithmétique, écart type, dispersion, coefficient de variation V. Tirer des conclusions.
    Tâche 13.2.
    13.2.1. Déterminez les limites dans lesquelles se situe, avec une probabilité de 0,997, le montant des bénéfices d'une entreprise dans la population générale.
    13.2.2. À l’aide du test x2 de Pearson, au niveau de signification α, testez l’hypothèse selon laquelle la variable aléatoire X – le montant du profit – est distribuée selon une loi normale.
    Tâche 13.3.
    13.3.1. Déterminez les coefficients de l’équation de régression de l’échantillon.
    13.3.2. Établir la présence et la nature de la corrélation entre le coût des produits manufacturés (X) et le montant du profit par entreprise (Y). Construisez un nuage de points et une droite de régression.
    13.3.3. Calculez le coefficient de corrélation linéaire. À l’aide du test t de Student, testez la signification du coefficient de corrélation. Tirez une conclusion sur la relation étroite entre les facteurs X et Y à l'aide de l'échelle de Chaddock.
    Des lignes directrices. La tâche 13.3 est effectuée à l'aide de ce service.
    Télécharger la solution

    Tâche. Les données suivantes représentent le temps consacré par les clients à la conclusion des contrats. Construisez une série de variations d'intervalle des données présentées, un histogramme, trouvez une estimation non biaisée de l'espérance mathématique, une estimation biaisée et non biaisée de la variance.

    Exemple. D'après le tableau 2 :
    1) Construire des séries de distribution pour 40 banques commerciales de la Fédération de Russie :
    A) en termes de profit ;
    B) par le montant des investissements à crédit.
    2) À l'aide de la série de distribution obtenue, déterminez :
    A) bénéfice moyen par banque commerciale ;
    B) investissements à crédit en moyenne par banque commerciale ;
    C) valeur modale et médiane du profit ; quartiles, déciles ;
    D) valeur modale et médiane des investissements à crédit.
    3) À l'aide des lignes de distribution obtenues à l'étape 1, calculez :
    a) plage de variation ;
    b) écart linéaire moyen ;
    c) écart type ;
    d) coefficient de variation.
    Effectuez les calculs nécessaires sous forme de tableau. Analysez les résultats. Conclure.
    Tracez des graphiques de la série de distribution résultante. Déterminez graphiquement le mode et la médiane.

    Solution:
    Pour construire un regroupement à intervalles égaux, nous utiliserons le service Regroupement de données statistiques.

    Figure 1 – Saisie des paramètres

    Description des paramètres
    Nombre de lignes: nombre de données d'entrée. Si la taille du rang est petite, indiquez sa quantité. Si la sélection est suffisamment grande, cliquez sur le bouton Insérer à partir d'Excel.
    Nombre de groupes: 0 – le nombre de groupes sera déterminé par la formule de Sturgess.
    Si un nombre spécifique de groupes est spécifié, spécifiez-le (par exemple, 5).
    Type de série: Série discrète.
    Niveau de signification: par exemple 0,954 . Ce paramètre est défini pour déterminer l'intervalle de confiance de la moyenne.
    Échantillon: Par exemple, un échantillonnage mécanique à 10% a été réalisé. Nous indiquons le chiffre 10. Pour nos données nous indiquons 100.

    Une place particulière dans l'analyse statistique appartient à la détermination du niveau moyen de la caractéristique ou du phénomène étudié. Le niveau moyen d'un trait est mesuré par des valeurs moyennes.

    La valeur moyenne caractérise le niveau quantitatif général de la caractéristique étudiée et est une propriété de groupe de la population statistique. Il nivelle, affaiblit les écarts aléatoires des observations individuelles dans un sens ou dans l'autre et met en évidence la propriété principale et typique de la caractéristique étudiée.

    Les moyennes sont largement utilisées :

    1. Évaluer l'état de santé de la population : caractéristiques de développement physique (taille, poids, tour de poitrine, etc.), identifier la prévalence et la durée de diverses maladies, analyser les indicateurs démographiques (mouvements vitaux de la population, espérance de vie moyenne, reproduction de la population, population moyenne, etc.).

    2. Étudier les activités des établissements médicaux, du personnel médical et évaluer la qualité de leur travail, planifier et déterminer les besoins de la population en différents types de soins médicaux (nombre moyen de demandes ou de visites par résident et par an, durée moyenne de séjour d'un patient hospitalisé, durée moyenne d'examen du patient, disponibilité moyenne des médecins, des lits, etc.).

    3. Caractériser l'état sanitaire et épidémiologique (teneur moyenne en poussières de l'air dans l'atelier, surface moyenne par personne, consommation moyenne de protéines, graisses et glucides, etc.).

    4. Déterminer les indicateurs médicaux et physiologiques dans des conditions normales et pathologiques, lors du traitement des données de laboratoire, pour établir la fiabilité des résultats d'une étude par sondage dans des études sociales, hygiéniques, cliniques et expérimentales.

    Le calcul des valeurs moyennes est effectué sur la base de séries de variations. Série de variantes est une population statistique qualitativement homogène, dont les unités individuelles caractérisent les différences quantitatives de la caractéristique ou du phénomène étudié.

    La variation quantitative peut être de deux types : discontinue (discrète) et continue.

    Un attribut discontinu (discret) s'exprime uniquement sous forme d'entier et ne peut avoir de valeurs intermédiaires (par exemple, le nombre de visites, la population du site, le nombre d'enfants dans la famille, la gravité de la maladie en points , etc.).

    Un signe continu peut prendre n'importe quelle valeur dans certaines limites, y compris fractionnaires, et n'est exprimé qu'approximativement (par exemple, le poids - pour les adultes, il peut être limité aux kilogrammes et pour les nouveau-nés - aux grammes ; taille, tension artérielle, temps passé à voir un patient, etc.).



    La valeur numérique de chaque caractéristique ou phénomène individuel inclus dans la série de variations est appelée variante et est désignée par la lettre V . D'autres notations se retrouvent également dans la littérature mathématique, par exemple X ou y.

    Une série de variantes, où chaque option est indiquée une fois, est dite simple. De telles séries sont utilisées dans la plupart des problèmes statistiques liés au traitement informatique des données.

    À mesure que le nombre d’observations augmente, des valeurs variables répétitives ont tendance à se produire. Dans ce cas, il est créé série de variations groupées, où est indiqué le nombre de répétitions (fréquence, désignée par la lettre " R. »).

    Série de variations classées se compose d’options classées par ordre croissant ou décroissant. Des séries simples et groupées peuvent être compilées avec classement.

    Série de variations d'intervalle compilé afin de simplifier les calculs ultérieurs effectués sans utilisation d'ordinateur, avec un très grand nombre d'unités d'observation (plus de 1000).

    Série à variation continue inclut les valeurs d’option, qui peuvent être n’importe quelle valeur.

    Si dans une série de variations les valeurs d'une caractéristique (variantes) sont données sous la forme de nombres spécifiques individuels, alors une telle série est appelée discret.

    Les caractéristiques générales des valeurs de la caractéristique reflétées dans la série de variations sont les valeurs moyennes. Parmi eux, les plus utilisés sont : la moyenne arithmétique M, mode Mo et médiane Moi. Chacune de ces caractéristiques est unique. Ils ne peuvent pas se remplacer et ce n'est qu'ensemble qu'ils représentent les caractéristiques de la série de variations de manière complète et condensée.

    Mode (Mo) nommer la valeur des options les plus fréquentes.

    Médian (Moi) – c'est la valeur de l'option divisant la série de variations classées en deux (de chaque côté de la médiane il y a la moitié de l'option). Dans de rares cas, lorsqu'il existe une série de variations symétriques, le mode et la médiane sont égaux et coïncident avec la valeur de la moyenne arithmétique.

    La caractéristique la plus typique des valeurs d'options est moyenne arithmétique valeur( M. ). Dans la littérature mathématique, cela est noté .

    Moyenne arithmétique (M, ) est une caractéristique quantitative générale d'une certaine caractéristique des phénomènes étudiés, constituant une population statistique qualitativement homogène. Il existe des moyennes arithmétiques simples et pondérées. La moyenne arithmétique simple est calculée pour une série de variations simples en additionnant toutes les options et en divisant cette somme par le nombre total d'options incluses dans cette série de variations. Les calculs sont effectués selon la formule :

    Où: M. - moyenne arithmétique simple ;

    Σ V - option de montant ;

    n- nombre d'observations.

    Dans les séries de variations groupées, la moyenne arithmétique pondérée est déterminée. La formule pour le calculer :

    Où: M. - moyenne arithmétique pondérée ;

    Σ Vice-président - la somme des produits de la variante par leurs fréquences ;

    n- nombre d'observations.

    Avec un grand nombre d'observations, dans le cas de calculs manuels, la méthode des moments peut être utilisée.

    La moyenne arithmétique a les propriétés suivantes :

    · somme des écarts par rapport à la moyenne ( Σ d ) est égal à zéro (voir tableau 15) ;

    · lors de la multiplication (divisation) de toutes les options par le même facteur (diviseur), la moyenne arithmétique est multipliée (divisée) par le même facteur (diviseur) ;

    · si vous ajoutez (soustrayez) le même nombre à toutes les options, la moyenne arithmétique augmente (diminue) du même nombre.

    Les moyennes arithmétiques, prises seules, sans tenir compte de la variabilité de la série à partir de laquelle elles sont calculées, peuvent ne pas refléter pleinement les propriétés de la série de variation, surtout lorsqu'une comparaison avec d'autres moyennes est nécessaire. Des moyennes proches en valeur peuvent être obtenues à partir de séries présentant différents degrés de diffusion. Plus les options individuelles sont proches les unes des autres en termes de caractéristiques quantitatives, moins dispersion (oscillation, variabilité) série, plus sa moyenne est typique.

    Les principaux paramètres qui permettent d’évaluer la variabilité d’un caractère sont :

    · Portée;

    · Amplitude;

    · Écart-type;

    · Le coefficient de variation.

    La variabilité d'un trait peut être jugée approximativement par la plage et l'amplitude de la série de variations. La plage indique les options maximale (V max) et minimale (V min) de la série. L'amplitude (A m) est la différence entre ces options : A m = V max - V min.

    La principale mesure généralement acceptée de la variabilité d'une série de variations est dispersion (D ). Mais le plus souvent utilisé est un paramètre plus pratique calculé sur la base de la dispersion - l'écart type ( σ ). Il prend en compte l'ampleur de l'écart ( d ) de chaque série de variations à partir de sa moyenne arithmétique ( d = V - M ).

    Puisque les écarts par rapport à la moyenne peuvent être positifs et négatifs, une fois additionnés, ils donnent la valeur « 0 » (S d=0). Pour éviter cela, les valeurs d'écart ( d) sont élevés à la puissance seconde et moyennés. Ainsi, la dispersion d'une série de variations est le carré moyen des écarts d'une variante par rapport à la moyenne arithmétique et se calcule par la formule :

    C'est la caractéristique la plus importante de la variabilité et elle est utilisée pour calculer de nombreux critères statistiques.

    La dispersion étant exprimée comme le carré des écarts, sa valeur ne peut être utilisée en comparaison avec la moyenne arithmétique. À ces fins, il est utilisé écart-type, qui est désigné par le signe « Sigma » ( σ ). Il caractérise l'écart moyen de toutes les variantes d'une série de variations par rapport à la valeur moyenne arithmétique dans les mêmes unités que la valeur moyenne elle-même, afin qu'elles puissent être utilisées ensemble.

    L'écart type est déterminé par la formule :

    La formule spécifiée est appliquée lorsque le nombre d'observations ( n ) plus de 30. Avec un plus petit nombre n la valeur de l'écart type aura une erreur associée au décalage mathématique ( n - 1). À cet égard, un résultat plus précis peut être obtenu en prenant en compte un tel biais dans la formule de calcul de l'écart type :

    écart-type (s ) est une estimation de l'écart type d'une variable aléatoire X par rapport à son espérance mathématique basée sur une estimation impartiale de sa variance.

    Avec des valeurs n > 30 écart-type ( σ ) et l'écart type ( s ) sera pareil ( σ =s ). Par conséquent, dans la plupart aides pratiques ces critères sont considérés comme ayant des significations différentes. Dans Excel, l'écart type peut être calculé à l'aide de la fonction =STDEV(range). Et pour calculer l'écart type, vous devez créer une formule appropriée.

    Le carré moyen ou écart type permet de déterminer dans quelle mesure les valeurs d'une caractéristique peuvent différer de la valeur moyenne. Supposons qu'il y ait deux villes avec la même température quotidienne moyenne en été. L'une de ces villes est située sur la côte et l'autre sur le continent. On sait que dans les villes situées sur la côte, les différences de températures diurnes sont moindres que dans les villes situées à l'intérieur des terres. Par conséquent, l’écart type des températures diurnes pour la ville côtière sera inférieur à celui de la deuxième ville. En pratique, cela signifie que la température moyenne de l'air de chaque jour spécifique dans une ville située sur le continent différera davantage de la moyenne que dans une ville côtière. De plus, l'écart type vous permet d'évaluer les éventuels écarts de température par rapport à la moyenne avec le niveau de probabilité requis.

    Selon la théorie des probabilités, dans les phénomènes qui obéissent à la loi de distribution normale, il existe une relation stricte entre les valeurs de la moyenne arithmétique, de l'écart type et des options ( règle des trois sigma). Par exemple, 68,3 % des valeurs d'une caractéristique variable se situent dans M ± 1 σ , 95,5% - dans M ± 2 σ et 99,7% - dans M ± 3 σ .

    La valeur de l'écart type permet de juger de la nature de l'homogénéité de la série de variation et du groupe d'étude. Si la valeur de l'écart type est faible, cela indique une homogénéité assez élevée du phénomène étudié. La moyenne arithmétique dans ce cas doit être considérée comme tout à fait caractéristique pour une série de variations donnée. Cependant, une valeur sigma trop faible fait penser à une sélection artificielle des observations. Avec un très grand sigma, la moyenne arithmétique caractérise dans une moindre mesure la série de variations, ce qui indique une variabilité importante de la caractéristique ou du phénomène étudié ou l'hétérogénéité du groupe étudié. Cependant, la comparaison de la valeur de l’écart type n’est possible que pour des entités de même dimension. En effet, si l’on compare la diversité des poids des nouveau-nés et des adultes, on obtiendra toujours des valeurs sigma plus élevées chez les adultes.

    La comparaison de la variabilité des caractéristiques de différentes dimensions peut être effectuée en utilisant coefficient de variation. Il exprime la diversité en pourcentage de la moyenne, permettant des comparaisons entre différents traits. Le coefficient de variation dans la littérature médicale est indiqué par le signe « AVEC ", et en mathématique " v" et calculé par la formule :

    Les valeurs du coefficient de variation inférieures à 10 % indiquent une faible diffusion, de 10 à 20 % - environ en moyenne, plus de 20 % - une forte diffusion autour de la moyenne arithmétique.

    La moyenne arithmétique est généralement calculée sur la base des données d'un échantillon de population. Avec des études répétées, sous l'influence de phénomènes aléatoires, la moyenne arithmétique peut changer. Cela est dû au fait qu'en règle générale, seule une partie des unités d'observation possibles est étudiée, c'est-à-dire l'échantillon de population. Des informations sur toutes les unités possibles représentant le phénomène étudié peuvent être obtenues en étudiant l'ensemble de la population, ce qui n'est pas toujours possible. Parallèlement, dans le but de généraliser les données expérimentales, la valeur de la moyenne dans la population générale présente un intérêt. Par conséquent, pour formuler conclusion générale Concernant le phénomène étudié, les résultats obtenus à partir de l'échantillon de population doivent être transférés à la population générale à l'aide de méthodes statistiques.

    Pour déterminer le degré de concordance entre une étude sur échantillon et la population générale, il est nécessaire d'estimer l'ampleur de l'erreur qui survient inévitablement lors de l'observation d'un échantillon. Cette erreur s'appelle " L'erreur de représentativité"ou "Erreur moyenne de la moyenne arithmétique." Il s'agit en fait de la différence entre les moyennes obtenues à partir d'une observation statistique sélective et des valeurs similaires qui seraient obtenues à partir d'une étude continue du même objet, c'est-à-dire lorsqu’on étudie une population générale. Puisque la moyenne de l’échantillon est une variable aléatoire, une telle prévision est réalisée avec un niveau de probabilité acceptable pour le chercheur. Dans la recherche médicale, c'est au moins 95 %.

    L’erreur de représentativité ne peut être confondue avec des erreurs d’enregistrement ou des erreurs d’attention (erreurs de calcul, fautes de frappe, etc.), qui doivent être minimisées par des méthodes et outils adéquats utilisés lors de l’expérimentation.

    L’ampleur de l’erreur de représentativité dépend à la fois de la taille de l’échantillon et de la variabilité du caractère. Comment plus grand nombre observations, plus l’échantillon est proche de la population et plus l’erreur est faible. Plus le signe est variable, plus l’erreur statistique est grande.

    En pratique, pour déterminer l'erreur de représentativité dans les séries de variations, la formule suivante est utilisée :

    Où: m – erreur de représentativité ;

    σ - écart-type;

    n– nombre d'observations dans l'échantillon.

    La formule montre que la taille de l'erreur moyenne est directement proportionnelle à l'écart type, c'est-à-dire à la variabilité de la caractéristique étudiée, et inversement proportionnelle à la racine carrée du nombre d'observations.

    Lors de l’exécution d’une analyse statistique basée sur le calcul de valeurs relatives, la construction d’une série de variations n’est pas nécessaire. Dans ce cas, la détermination de l'erreur moyenne pour les indicateurs relatifs peut être effectuée à l'aide d'une formule simplifiée :

    Où: R.– la valeur de l'indicateur relatif, exprimée en pourcentage, ppm, etc. ;

    q– l'inverse de P et exprimé par (1-P), (100-P), (1000-P), etc., selon la base sur laquelle l'indicateur est calculé ;

    n– nombre d'observations dans la population échantillon.

    Cependant, la formule spécifiée pour calculer l'erreur de représentativité pour les valeurs relatives ne peut être appliquée que lorsque la valeur de l'indicateur est inférieure à sa base. Dans un certain nombre de cas de calcul d'indicateurs intensifs, cette condition n'est pas remplie et l'indicateur peut être exprimé sous la forme d'un nombre supérieur à 100 % ou 1 000 %. Dans une telle situation, une série de variations est construite et l'erreur de représentativité est calculée à l'aide de la formule des valeurs moyennes basée sur l'écart type.

    La prévision de la valeur de la moyenne arithmétique dans la population s'effectue en indiquant deux valeurs – le minimum et le maximum. Ces valeurs extrêmes d'écarts possibles, à l'intérieur desquelles la valeur moyenne souhaitée de la population peut fluctuer, sont appelées « Limites de confiance».

    Les postulats de la théorie des probabilités ont prouvé qu'avec une distribution normale d'une caractéristique avec une probabilité de 99,7 %, les valeurs extrêmes des écarts de la moyenne ne seront pas supérieures à la valeur du triple de l'erreur de représentativité ( M. ± 3 m ); dans 95,5% – pas plus de deux fois l'erreur moyenne de la valeur moyenne ( M. ± 2 m ); dans 68,3% – pas plus d'une erreur moyenne ( M. ± 1 m ) (Fig. 9).

    P%

    Riz. 9. Densité de probabilité de distribution normale.

    Notez que la déclaration ci-dessus n'est vraie que pour une caractéristique qui obéit à la loi de distribution gaussienne normale.

    La plupart des études expérimentales, y compris dans le domaine de la médecine, sont associées à des mesures dont les résultats peuvent prendre presque n'importe quelle valeur dans un intervalle donné. Par conséquent, en règle générale, elles sont décrites par un modèle de variables aléatoires continues. À cet égard, la plupart des méthodes statistiques considèrent des distributions continues. Une de ces distributions, qui joue un rôle fondamental dans les statistiques mathématiques, est distribution normale ou gaussienne.

    Cela est dû à un certain nombre de raisons.

    1. Tout d’abord, de nombreuses observations expérimentales peuvent être décrites avec succès en utilisant la distribution normale. Il convient de noter immédiatement qu'il n'existe pas de distributions de données empiriques qui seraient tout à fait normales, puisqu'une variable aléatoire normalement distribuée va de à , ce qui n'est jamais rencontré dans la pratique. Cependant, la distribution normale fonctionne très souvent comme approximation.

    Qu'il s'agisse de mesurer le poids, la taille et d'autres paramètres physiologiques du corps humain, les résultats sont toujours influencés par un très grand nombre de facteurs aléatoires (causes naturelles et erreurs de mesure). De plus, en règle générale, l’effet de chacun de ces facteurs est insignifiant. L'expérience montre que les résultats dans de tels cas seront à peu près normalement distribués.

    2. De nombreuses distributions associées à l'échantillonnage aléatoire deviennent normales à mesure que le volume de ce dernier augmente.

    3. La distribution normale convient bien comme approximation d'autres distributions continues (par exemple asymétriques).

    4. La distribution normale possède un certain nombre de propriétés mathématiques favorables qui garantissent en grande partie son utilisation généralisée en statistique.

    Dans le même temps, il convient de noter que dans les données médicales, il existe de nombreuses distributions expérimentales qui ne peuvent être décrites par un modèle de distribution normal. Pour cela, les statistiques ont développé des méthodes communément appelées « Non paramétriques ».

    Le choix d'une méthode statistique adaptée au traitement des données d'une expérience particulière doit être fait selon que les données obtenues appartiennent ou non à la loi de distribution normale. Le test de l'hypothèse de subordination d'un signe à la loi de distribution normale s'effectue à l'aide d'un histogramme (graphique) de distribution de fréquence, ainsi que d'un certain nombre de critères statistiques. Parmi eux:

    Critère d'asymétrie ( b );

    Critère de test d'aplatissement ( g );

    Test de Shapiro-Wilks ( W ) .

    Une analyse de la nature de la distribution des données (appelée aussi test de normalité de distribution) est réalisée pour chaque paramètre. Pour juger avec confiance si la distribution d'un paramètre correspond à la loi normale, un nombre suffisamment grand d'unités d'observation (au moins 30 valeurs) est nécessaire.

    Pour une distribution normale, les critères d'asymétrie et d'aplatissement prennent la valeur 0. Si la distribution est décalée vers la droite b > 0 (asymétrie positive), avec b < 0 - график распределения смещен влево (отрицательная асимметрия). Критерий асимметрии проверяет форму кривой распределения. В случае loi normale g =0. À g > 0 la courbe de distribution est plus nette si g < 0 пик более сглаженный, чем функция нормального распределения.

    Pour vérifier la normalité à l'aide du critère de Shapiro-Wilks, il est nécessaire de retrouver la valeur de ce critère à l'aide de tableaux statistiques au niveau de significativité requis et en fonction du nombre d'unités d'observation (degrés de liberté). Annexe 1. L'hypothèse de normalité est rejetée aux petites valeurs de ce critère, en règle générale, à w <0,8.