Comparaison de deux moyennes sur groupes indépendants

Type de problème

Le psychologue est très souvent amené à comparer les manifestations d'un phénomène psychologique dans deux groupes indépendants :

  • comparaison de l'efficacité de deux méthodes d'apprentissage de la lecture dans deux classes distinctes,
  • comparaison de deux conditions expérimentales de mémorisation (avec ou sans imagerie associée),
  • comparaison d'un groupe traitement à un groupe témoin en psychologie clinique,
  • etc.
Dans cette situation, deux modalités expérimentales sont testées et comparées sur deux groupes distincts de sujets. Le type de problème statistique correspondant est la comparaison de deux moyennes inconnues sur échantillons indépendants.

Statistique de base

On appelle $\bar{X}_{1}$ et $\bar{X}_{2}$ les variables moyennes d'échantillon des deux groupes indépendants.

Nous savons que nous pouvons exprimer la distribution d'échantillonnage de ces deux statistiques en fonction des paramètres de scores dans les populations par : $$\begin{aligned} \bar{X}_{1} \sim N\left(\mu_{1},\frac{\sigma_{1}^{2}}{n_{1}}\right) \\ \bar{X}_{2} \sim N\left(\mu_{2},\frac{\sigma_{2}^{2}}{n_{2}}\right) \\ \end{aligned} $$

Mais s'intéresser à la différence de niveau entre les deux groupes ne nécessite pas de caractériser séparément l'amplitude de chaque moyenne. Il est suffisant de s'intéresser à la variable aléatoire différence des deux moyennes : $$D=\bar{X}_{1}-\bar{X}_{2}$$ C'est la distribution de cette nouvelle variable différence que nous cherchons à décrire ci-dessous.

Somme de variables normales indépendantes

Théorème. Si deux variables suivent indépendamment des lois normales, leur somme suit aussi une loi normale.


Remarques : i) c'est spécifique à la loi normale. ii) c'est un résultat exact, et non une approximation comme le théorème central-limite.


La statistique $D=\bar{X}_{1}-\bar{X}_{2}$ peut aussi s'écrire $D=\bar{X}_{1}+(-\bar{X}_{2})$. Nous savons que $\bar{X}_{1}$ suit une loi normale. Et puisque $\bar{X}_{2}$ suit de la même manière une loi normale, $-\bar{X}_{2}$, obtenue par changement d'échelle, suit aussi une loi normale de moyenne $-\mu_{2}$. La somme $\bar{X}_{1}+(-\bar{X}_{2})$ suit donc une loi normale elle aussi, par le théorème précédent.

Par application des règles de calcul sur les espérances (voir manuel de cours, chapitre 5, p. 87), les paramètres de cette loi normale sont : $$\mu_{D} = E(\bar{X}_{1}-\bar{X}_{2})=E(\bar{X}_{1})+E(-\bar{X}_{2})=E(\bar{X}_{1})-E(\bar{X}_{2})=\mu_{1}-\mu_{2}$$ et (les variables $\bar{X}_{1}$ et $\bar{X}_{2}$ étant indépendantes car obtenues sur des groupes indépendants) : $$\sigma_{D}^{2} = V(\bar{X}_{1}-\bar{X}_{2})=V(\bar{X}_{1})+V(-\bar{X}_{2})=V(\bar{X}_{1})+V(\bar{X}_{2})=\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}} $$ On a donc au final : $$\bar{X}_{1}-\bar{X}_{2}\sim N\left(\mu_{1}-\mu_{2},\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}\right)$$

La variable $D=\bar{X}_{1}-\bar{X}_{2}$ peut aussi être standardisée. On a alors : $$Z=\frac{(\bar{X}_{1}-\bar{X}_{2})-(\mu_{1}-\mu_{2})}{\sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}}}\sim N(0,1)$$ avec les paramètres de population connus.

Si nous connaissons $\sigma_{1}^{2}$ et $\sigma_{2}^{2}$, nous pouvons donc utiliser le calculateur de probabilités et la loi normale, au prix d'une hypothèse sur l'espérance de $D$, pour juger de son amplitude observée dans une étude donnée.

Le problème de l'hétérogénéité

En pratique cependant, nous ne connaissons aucun des quatre paramètres des populations parentes ($\mu_1$, $\mu_2$, $\sigma_{1}^{2}$, $\sigma_{2}^{2}$). C'est beaucoup de paramètres inconnus pour mener un raisonnement sur une simple différence de deux moyennes.

Les moyennes ne posent pas réellement problème car nous pouvons faire l'hypothèse nulle : $$H_{0}:\mu_{1}=\mu_{2}\Leftrightarrow\mu_{1}-\mu_{2}=0$$

On a alors, si $H_{0}$ est vraie, une statistique simplifiée avec deux paramètres inconnus en moins : $$U=\frac{\bar{X}_{1}-\bar{X}_{2}}{\sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}}}\sim N(0,1)$$ Mais les variances restent inconnues. On mène alors sur les variances le raisonnement méthodologique illustré dans l'atelier suivant.

Atelier 1 : problématique des variances hétérogènes

Cet atelier vise à vous faire toucher du doigts la difficulté conceptuelle inhérente à la comparaison de deux distributions quand deux paramètres (ici moyenne et écart-type) peuvent potentiellement changer.

On représente ci-dessous par des lois normales de moyennes et écarts-type potentiellement différents les distributions de scores en maîtrise du langage dans deux populations parentes : les hommes (en bleu) et les femmes (en orange). On peut changer les moyennes et écarts-type soit en saisissant directement des valeurs numériques dans les champs en dessous du graphique, soit en faisant glisser les points colorés à la souris. Dans cet exercice, on considère comme performance élevée le fait d'obtenir un score au moins égal à 140.

  • expand_moreEn résumé

    En répondant aux questions de cet exercice, vous avez pu comprendre que la comparaison de deux moyennes quand les variances de population sont différentes est problématique :

    • Avec une moyenne inférieure mais une large variance, une population peut quand même avoir un nombre non négligeable d'individus avec des scores plus élevés que dans l'autre population, supposée plus performante.
    • Avec des moyennes égales mais des variances différentes, on a l'impression que la performance est mesurée dans les deux populations sur des échelles différentes, ce qui rend la comparaison des moyennes délicate.

    Si l'on veut pouvoir comparer deux distributions, il est donc préférable de ne les contraster que sur un aspect à la fois. Dans la construction de notre statistique, on considérera donc pour l'instant uniquement le scénario simplifié où les variances sont identiques dans les deux populations : $$\sigma_{1}^{2}=\sigma_{2}^{2}=\sigma^{2}$$ C'est ce qu'on appelle l'hypothèse d'homogénéité des variances.

    Elle se justifie par le fait qu'en comparant deux conditions distinctes, nous nous attendons à une éventuelle différence de moyennes, mais pas à une différence de variabilité des scores. Si une différence franche de variabilité était observée dans les deux conditions comparées, on pourrait se poser des questions sur la légitimité de la comparaison des moyennes, car la variance est un indice indirect de qualité de résumé des données par leur moyenne.

    Par ailleurs, dans la conception d'une étude expérimentale centrée sur des groupes, toute différence intersujets dans un groupe (contribuant donc à sa variance) est considérée comme de l'erreur, c'est-à-dire comme l'impact combiné d'un grand nombre de facteurs inconnus (par exemple la motivation, la fatigue, le milieu socio-culturel etc.), qui ne relèvent pas de celui qui est testé. Il est donc raisonnable d'attendre que cette erreur soit de même amplitude moyenne dans les groupes, car pour une juste comparaison, aucun de ces facteurs externes ne devrait agir plus fortement dans un groupe que dans l'autre. Une nette différence de variances est souvent un révélateur de ce que les conditions de passation dans l'un et l'autre groupe ne sont pas homogènes, ou que les individus dans l'un ou l'autre groupe diffèrent de manière systématique dans leur sensibilité aux sources de perturbations de la performance. Cette hypothèse d'homogénéité des variances n'est donc pas simplement une commodité statistique : elle a un vrai sens méthodologique.

La statistique de Student

Dans la construction de notre statistique, on simplifie donc les choses en supposant que les variances sont identiques dans les deux populations : $$\sigma_{1}^{2}=\sigma_{2}^{2}=\sigma^{2}$$ On appelle variance commune le paramètre inconnu $\sigma^{2}$. Naturellement, cette hypothèse d'homogénéité des variances doit faire l'objet d'un test statistique spécifique. Cela nécessite l'étude de la distribution de Fisher, qui sera vue plus loin.

Avec cette hypothèse supplémentaire, notre statistique devient : $$U=\frac{\bar{X}_{1}-\bar{X}_{2}}{\sqrt{\frac{\sigma^2}{n_{1}}+\frac{\sigma^2}{n_{2}}}}=\frac{\bar{X}_{1}-\bar{X}_{2}}{\sigma\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}\sim N(0,1)$$ Nous avons donc réduit le nombre de paramètres inconnus de trois à deux, au détour de cette hypothèse. Mais la variance commune est encore inconnue, et, en l'absence d'hypothèse plausible sur la valeur de $\sigma^{2}$, elle doit être estimée sur les données.

Si l'on connaissait les moyennes vraies $\mu_{1}$ et $\mu_{2}$, on aurait immédiatement l'estimation sans biais : $$S_{\mu_{1,2}}^{2}=\frac{\sum_{i=1}^{n_{1}}(X_{i1}-\mu_{1})^{2}+\sum_{j=1}^{n_{2}}(X_{j2}-\mu_{2})^{2}}{n_{1}+n_{2}}$$ ou $X_{i1}$ désigne la variable score du sujet $i$ dans le groupe 1. Cette formule est un calcul de variance à deux groupes, où la variabilité des scores est mesurée par rapport à deux points de références centraux simultanés.

Mais les moyennes de population ne sont pas connues et on les remplace dans cette expression par leurs estimateurs $\bar{X}_{1}$ et $\bar{X}_{2}$ : $$S_{\bar{X}_{1,2}}^{2}=\frac{\sum_{i=1}^{n_{1}}(X_{i1}-\bar{X}_{1})^{2}+\sum_{j=1}^{n_{2}}(X_{j2}-\bar{X}_{2})^{2}}{n_{1}+n_{2}}$$ Cet estimateur de la variance est biaisé car nous estimons ici deux moyennes inconnues par des statistiques empiriques, sans pouvoir évaluer leurs variabilités propres. Par un raisonnement et un calcul très semblables à ceux du cas d'une variance calculée avec une moyenne inconnue, on montre qu'une statistique sans biais (corrigée) est obtenue par (voir Manuel de cours, chapitre 9, section 9.5.1, p. 250)  : $$S^{2}=\frac{\sum_{i=1}^{n_{1}}(X_{i1}-\bar{X}_{1})^{2}+\sum_{j=1}^{n_{2}}(X_{j2}-\bar{X}_{2})^{2}}{n_{1}+n_{2}-2}$$ car deux paramètres de moyennes ont été estimés à partir des données disponibles. On peut voir alors que : $$V = (n_{1}+n_{2}-2)\frac{S^{2}}{\sigma^{2}} = \frac{\sum_{i=1}^{n_{1}}(X_{i1}-\bar{X}_{1})^{2}+\sum_{j=1}^{n_{2}}(X_{j2}-\bar{X}_{2})^{2}}{\sigma^{2}} = \sum_{i=1}^{n_{1}}\left(\frac{X_{i1}-\bar{X}_{1}}{\sigma}\right)^{2}+\sum_{j=1}^{n_{2}}\left(\frac{X_{j2}-\bar{X}_{2}}{\sigma}\right)^{2}$$ Si les scores suivent une loi normale dans la première population et aussi dans la deuxième, $V$ est la somme de deux $\chi^{2}$ indépendantes, à $n_{1}-1$ et $n_{2}-1$ degrés de liberté, soit : $$V\sim\chi^{2}(n_{1}+n_{2}-2)$$ Sous ces hypothèses supplémentaires, et par définition de la loi de Student, on sait que : $$T = \frac{U}{\sqrt{\frac{V}{n_{1}+n_{2}-2}}}=\frac{\frac{\bar{X}_{1}-\bar{X}_{2}}{\sqrt{\frac{\sigma^{2}}{n_{1}}+\frac{\sigma^{2}}{n_{2}}}}}{\frac{S}{\sigma}}=\frac{\frac{\bar{X}_{1}-\bar{X}_{2}}{{\color{orange}\sigma}\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}}{\frac{S}{{\color{orange}\sigma}}}=\frac{\bar{X}_{1}-\bar{X}_{2}}{S\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}\sim Student(n_{1}+n_{2}-2)$$ Là encore, le paramètre inconnu de variance (supposé identique dans les deux groupes) disparaît et nous pouvons faire des hypothèses sur la différence des moyennes sans avoir à en faire sur la variance (à part l'homogénéité bien entendu).

Exercice type : test sur une différence de deux moyennes

Dans une étude sur l'intelligence, sur 60 étudiants ayant passé la WAIS, 30 sont de sexe féminin. Les filles ont obtenu $\bar{x}_{1}=106.9333$ de moyenne ($s_{1}=15.17469$) et les garçons $\bar{x}_{2}=102$ ($s_{2}=15.47857$). Peut-on dire que les niveaux de performance des filles et des garçons diffèrent significativement (au seuil de décision $\alpha=0.05$) ?

L'application de la méthode par valeur $p$ à ce type de situation suppose de passer par 6 étapes, qui sont détaillées ci-dessous.

play_arrowIdentification de la nature des données

Pour pouvoir calculer des valeurs $p$, et juger du caractère surprenant de certains résultats, toute statistique fait une certaine hypothèse sur la distribution des données. Le choix qu'on fait pour cette distribution dépend de la nature des données. Par exemple, nous avons vu que sur des données de type comptages (numériques, discrètes, bornées à gauche et à droite), on pouvait à certaines conditions (indépendance des observations, stabilité d'une probabilité unique) utiliser les lois binomiale et multinomiale.

Les résultats à un test de QI ne sont pas des comptages à proprement parler. Il est usuel en psychologie de les considérer comme des variables numériques continues. Dans ces cas, on utilise souvent la loi normale comme modèle de distribution pour les données. Strictement parlant, la loi normale est une distribution pour variables numériques continues sans bornes, ce qui n'est jamais le cas avec des scores psychologiques. Mais comme elle est aussi par nature une loi limite, c'est-à-dire jamais véritablement exacte, nous prendrons l'habitude de tester la qualité de l'approximation qu'elle propose pour nos données (test de normalité). En général, elle sera acceptable dans un grand nombre de cas si les données ne sont pas victimes d'un effet de borne (effet seuil ou effet plafond). Nous supposons donc ici la distribution normale pour ces scores (mais apprendrons à le tester formellement plus loin).

play_arrowType de problème statistique

La loi normale a deux paramètres nommés moyenne et variance (ou paramètres de position et d'échelle). Si on note $X_1$ la variable score au QI chez les filles, et $X_2$ pour les garçons, on pose les hypothèses distributionnelles $X_1\sim N(\mu_1,\sigma_{1}^{2})$ et $X_2\sim N(\mu_2,\sigma_{2}^{2})$. La question posée, en termes de niveau général des groupes, revient à faire des hypothèses sur le premier de ces paramètres (les moyennes) en supposant égales les variances. Le type de problème statistique ici est la comparaison de deux moyennes inconnues sur groupes indépendants, dans le cas où la variance vraie (commune aux deux populations) est inconnue.

play_arrowHypothèses statistiques

Les hypothèses statistiques en concurrence supposent respectivement que les moyennes de population sont identiques ou différentes : $$\begin{aligned} H_{0}:\mu_{1} = \mu_{2} \\ H_{1}:\mu_{1} \neq \mu_{2} \\ \end{aligned} $$ L'alternative est ici bilatérale : il n'y a pas d'hypothèse sur le sens d'une éventuelle différence de performance. Aucune indication en ce sens n'est donnée dans l'énoncé.

play_arrowStatistique de décision

La procédure de décision consiste à calculer la statistique : $$T=\frac{\bar{X}_{1}-\bar{X}_{2}}{S\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}}$$ avec l'écart-type unique : $$S=\sqrt{\frac{\sum_{i=1}^{n_{1}}(X_{i1}-\bar{X}_{1})^{2}+\sum_{j=1}^{n_{2}}(X_{j2}-\bar{X}_{2})^{2}}{n_{1}+n_{2}-2}}$$ On sait que la statistique $T$ suit dans ce contexte une loi de Student à $n_{1}+n_{2}-2$ degrés de liberté si 4 conditions sont acceptables : i) l'hypothèse nulle est vraie, ii) les variances sont égales dans les populations parentes, iii) les variables scores sont normalement distribuées dans chaque population, et iv) les scores sont indépendants.

Pour les calculs à la main, lorsque $s_{1}$ et $s_{2}$ sont fournis (comme c'est le cas ici), on peut récupérer les sommes d'écarts carrés dans chaque groupe en remultipliant les variances par les effectifs corrigés  : $$\begin{aligned} \sum_{i=1}^{n_{1}}(X_{i1}-\bar{X}_{1})^{2} = (n_{1}-1)S_{1}^{2} \\ \sum_{j=1}^{n_{2}}(X_{j2}-\bar{X}_{2})^{2} = (n_{2}-1)S_{2}^{2} \end{aligned} $$

L'écart-type unique aux deux populations peut être estimé par : $$\begin{aligned} s &= \sqrt{\frac{(n_{1}-1)s_{1}^{2}+(n_{2}-1)s_{2}^{2}}{(n_{1}-1)+(n_{2}-1)}} \\ &= \sqrt{\frac{29\times s_{1}^{2}+29\times s_{2}^{2}}{58}} \\ &\approx 15.3274 \end{aligned} $$ Si $H_{0}$ est vraie, on a $T\sim Student(n_{1}+n_{2}-2)$. On calcule : $$\begin{aligned} t &= \frac{\bar{x}_{1}-\bar{x}_{2}}{s\sqrt{\frac{1}{n_{1}}+\frac{1}{n_{2}}}} \\ &= \frac{106.9333-102}{15.3274\sqrt{\frac{1}{30}+\frac{1}{30}}} \\ &\approx 1.2466 \end{aligned} $$

play_arrowConclusion statistique
A l'aide du calculateur de probabilité, on trouve $P(\left|T_{58}\right|>1.2466)=0.2176$. Cette probabilité est supérieure au seuil $\alpha=0.0$5 et on ne peut donc rejeter l'hypothèse nulle.
play_arrowConclusion psychologique

Il n'est pas possible de conclure psychologiquement à une différence de niveau de performance entre les filles et les garçons à cette épreuve.

Atelier 2 : mise en oeuvre de la comparaison de deux moyennes

Reprenez les données de l'exercice modèle précédent pour traiter le problème avec le calculateur automatique ci-dessous. Familiarisez-vous avec lui car c'est lui que vous retrouverez dans la page des calculateurs, à utiliser pendant les tests. Notez que ce calculateur fournit aussi un test de l'hypothèse d'homogénéité des variances, dont le principe et l'interprétation seront vus en détail dans la fiche suivante.

Mesure de la taille de l'effet

Dans une étude sur l'intelligence, sur 60 étudiants ayant passé la WAIS, 30 sont de sexe féminin. Les filles ont obtenu $\bar{x}_{1}=106.9333$ de moyenne ($s_{1}=15.17469$) et les garçons $\bar{x}_{2}=102$ ($s_{2}=15.47857$). Peut-on dire que les niveaux de performance des filles et des garçons diffèrent significativement (au seuil de décision $\alpha=0.05$) ?

Puissance statistique

Définition. On appelle puissance d'un test statistique la probabilité qu'il détecte un effet expérimental quand celui-ci existe.

La puissance statistique varie en fonction de plusieurs paramètres :

  1. le nombre d'observations disponibles,
  2. la taille de l'effet dans la population (par exemple la différence des moyennes vraies $D=\mu_{1}-\mu_{2}$ dans le type de problème traité dans cette fiche),
  3. et le seuil de décision $\alpha$ qu'on se donne pour le test.

Les revues internationales de psychologie exigent maintenant que tout résultat statistique soit accompagné d'une mesure de la taille de l'effet expérimental. On peut en effet mettre en évidence une différence de moyenne significative, sans que cette différence soit de très grande amplitude, notamment si les échantillons sont de grande taille. Avec une taille d'effet très petite, une différence même reconnue comme significative n'a pas beaucoup d'intérêt d'un point de vue psychologique. Il faut donc distinguer entre la conclusion qu'on tire au vu de la valeur $p$ (dont la petitesse n'est pas simplement liée à la taille de l'effet), et la qualification de l'amplitude de cet effet.

En pratique, Cohen (1988) propose de mesurer la taille de l'effet expérimental en proportion de l'erreur de mesure $\sigma$, pour pouvoir établir plus facilement des normes applicables à tous les contextes expérimentaux : $$D'=\frac{|\mu_{1}-\mu_{2}|}{\sigma}$$ Les quantités concernées sont inconnues et on calcule en pratique un indice de taille d'effet sur les estimations disponibles : $$d=\frac{|\bar{x}_{1}-\bar{x}_{2}|}{s}$$ ou s est l'écart-type commun (ce qui implique l'hypothèse d'homogénéité des variances).

Dans l'exemple précédent, la différence des deux moyennes empiriques était $\bar{x}_1-\bar{x}_2=106.9333-102=4.933$, et la variance commune corrigée $s^2=234.9287$. On peut calculer : $$d=\frac{|4.933|}{\sqrt{234.9287}}=0.3218$$ Cette valeur est calculée automatiquement par le calculateur intégré ci-dessus.

Cohen (1992) et Rosenthal (1996) donnent pour l'appréciation de la taille d'effet (en valeur absolue) des repères arbitraires mais basés sur une certaine expérience des données et consacrés par l'usage :

$d$ de Cohen Taille d'effet
$d < 0.20$ Négligeable
0.2-0.5 Faible
0.5-0.8 Moyenne
$d > 0.8$ Elevée
$d > 1.3$ Très élevée
On dira ici que, en dépit d'une différente significative, notre taille d'effet $d=0.3218$ est faible.

Exercices d'entraînement


  1. Rankin & Wikoff (1964) cherchent à mettre en évidence des différences psychométriques entre sujets délinquants et non délinquants. Ils utilisent pour cela la sous-échelle d'Ego (dite « force du Moi ») de l'Arrow Dot Test, et obtiennent les résultats suivants :
    Groupes $(j=1,2)$ Effectifs $(n_j)$ Moyennes $(\bar{x}_j)$ Ecarts-type $(\sigma_j)$
    Délinquants 15 17.66667 2.43975
    Non délinquants 14 19.64286 3.564939
    Diriez-vous que délinquants et non délinquants ont en moyenne des scores différents à ce test (\alpha=0.05) ?
  2. Dans une étude sur les enfants qui sont nés avec un poids réduit à la naissance, on compare sur un index de développement mental deux groupes d'enfants, selon que leurs parents ont (groupe expérimental) ou non (groupe témoin) suivi un programme de formation à la lecture des signaux comportementaux perturbés que ces enfants envoient (Howell, 1998, p. 221). Les enfants ont été répartis aléatoirement dans les conditions. Les résultats pour les deux groupes sont résumés ci-dessous :
    Groupes $(j=1,2)$ Effectifs $(n_j)$ Moyennes $(\bar{x}_j)$ Ecarts-type $(\sigma_j)$
    Expérimental 25 117.2 12.682
    Témoin 31 106.71 12.954
    1. Diriez-vous que l'évolution des enfants dans le groupe expérimental a été plus favorable ($\alpha=0.05$) ?
    2. Commentez la taille de l'effet.
    3. Quelle précaution méthodologique devons-nous prendre pour que cette comparaison ait du sens ?
    4. Comment cela a-t-il été contrôlé dans l'étude ?
  3. Cao, Forgasz & Bishop (2005) étudient le degré d'implication des parents dans le parcours scolaire de leurs enfants en Australie. Ils s'intéressent en particulier à ceux des enfants de la population australienne issus de l'immigration chinoise. Leur hypothèse est que la situation d'immigration conduit les parents à s'impliquer davantage dans le parcours scolaire de leurs enfants, pour leur permettre de mieux s'insérer dans la société australienne. Les données, collectées à l'aide d'une échelle d'Influence Parentale Perçue, sont résumées ci-dessous :
    Groupes $(j=1,2)$ Effectifs $(n_j)$ Moyennes $(\bar{x}_j)$ Ecarts-type $(\sigma_j)$
    Australiens anglophones 235 2.83 0.52
    Immigrants chinois 47 3.11 0.44
    1. Ces données vous paraissent-elles aller dans le sens de cette hypothèse ?
    2. Commentez la taille de l'effet.

  • expand_moreCorrection

    1. On trouve $t_{27}=-1.7527$, $p=P(\left|T_{27}\right|>1.7527)=0.090997$, avec une alternative bilatérale. On ne peut donc rejeter l'hypothèse nulle au seuil $\alpha=0.05$. Ce test ne permet pas de différencier les sujets délinquants des non-délinquants.
    2. On trouve $t_{54}=3.0407$, $p=P(T_{54}>3.0407)=0.001818$, avec une alternative unilatérale à droite. L'évolution du sous-groupe expérimental est donc significativement meilleure, au seuil $\alpha=0.05$. La taille de cet effet est grande ($d=0.8173$). Pour que la comparaison soit valide, il était important de s'assurer qu'en moyenne les deux groupes ne se distinguaient pas non plus avant tout accompagnement. Cela a été contrôlé par une affectation aléatoire des sujets dans les groupes.
    3. On trouve $t_{280}=-3.4513$, $p=P(T_{280} < -3.4513)=0.00032$, avec une alternative unilatérale à gauche. La performance du sous-groupe immigrant est donc en moyenne meilleure, au seuil nominal. La taille d'effet est moyenne ($d=0.5514$).