L'analyse de la variance
Notion de déviance
Modèles de groupes
L'approche par $T$ de Student est appropriée quand on souhaite comparer deux moyennes : on teste le fait que la différence des deux moyennes puisse être nulle dans les populations parentes. Dans cette partie, nous étudions un principe différent de comparaisons de moyennes, qui a l'avantage de pouvoir traiter la comparaison simultanée de plus de deux moyennes. Elle s'appuie sur la notion de modèle et d'erreur (ou de déviance) de modèle. Comme cette approche est valide également pour deux groupes, nous la présentons ci-après dans le cas de deux groupes, par simplicité, et sans perte de généralité.
Le test de l'égalité de deux moyennes peut être présenté comme la mise en concurrence de deux modèles : un modèle qui affirme l'égalité des moyennes (appelons-le $M_0$), et un modèle qui affirme leur différence (appelons-le $M_1$).
Dans ce qui suit, on va noter par $j=1,\ldots,J$ le numéro du groupe qu'on considère (dans cet exemple le nombre de groupes est $J=2$), et par $Y_j$ la variable dépendante (par exemple le QI) dans le groupe $j$.
Si l'on suppose que la variable dépendante suit une loi normale, ces deux modèles peuvent s'écrire de façon très analogue à ce que nous avons écrit pour les modèles binomiaux : $$\begin{aligned} M_{0}&:\ Y_{j}\sim N(\mu,\sigma^{2}) \\ M_{1}&:\ Y_{j}\sim N(\mu_{j},\sigma^{2}) \end{aligned} $$
La première expression signifie qu'on suppose que c'est exactement la même distribution normale dans les deux groupes, avec une unique moyenne $\mu$ et une unique variance $\sigma^2$. Si les scores ont la même distribution, c'est qu'il n'y a pas de différence entre les garçons et les filles du point de vue de cette performance, dans l'étude sur le QI et le genre.
La seconde expression signifie qu'on suppose que les deux populations sont caractérisées par deux distributions normales différentes, avec deux moyennes $\mu_1$ et $\mu_2$, mais une unique variance $\sigma^2$ (par hypothèse d'homogénéité des variances, déjà discutée). Si les scores ont une distribution différente, c'est qu'il y a bien une différence entre les garçons et les filles du point de vue de cette performance.
Les deux modèles annoncent donc une structure de moyenne différente sur les données. Les valeurs $\mu$, $\mu_1$ et $\mu_2$ sont évidemment inconnues dans l'une ou l'autre hypothèse, mais dans ce qui suit, on les estime au maximum de vraisemblance par les moyennes empiriques $\bar{Y}$ (moyenne générale de tous les scores observés), $\bar{Y}_1$ (moyenne observée dans le groupe 1), et $\bar{Y}_2$ (moyenne observée dans le groupe 2).
La question est alors de savoir quel modèle a le meilleur pouvoir descriptif pour un jeu de données. Nous sommes ici dans le cas le plus simple de ce qu'on appelle une approche par comparaison de modèles.
La déviance : une mesure de la divergence entre modèle et données
Dans ce qui suit, on numérote par $i$ ($i=1,...,n_j$) les $n_j$ sujets du groupe $j$, on numérote par $j$ les groupes expérimentaux ($j=1,\ldots,J$) et on note la variable de score pour un sujet $i$ dans le groupe $j$ par $Y_{ij}$.
Pour juger de la qualité du modèle $M_0$, nous allons calculer une quantité nommée déviance : $$D_{0}=\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y}\right)^{2}$$ On peut voir cette mesure comme une mesure de distance entre les données observées $Y_{ij}$ et une certaine hypothèse de moyenne (ici unique $\mu$). Si les données sont effectivement massées autour d'un seul centre, cette quantité devrait être faible.
Mais s'il existe en réalité deux sous-groupes sous-jacents de scores et non un seul, cette quantité sera inutilement grande, à cause de la contrainte excessive d'un point central unique, et $M_1$ sera un modèle approprié. De façon analogue pour $M_1$, nous allons calculer : $$D_{1}=\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y_j}\right)^{2}$$ Si la structure vraie est à deux groupes latents, on devrait avoir $D_1 < D_0$. Dans cette approche, toute la question de décider si deux moyennes inconnues sont différentes ou identiques revient donc à décider si la déviance est plus faible pour le modèle $M_1$ que pour $M_0$. Il est équivalent de décider si la réduction de la déviance : $$R_{01}=D_0-D_1=\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y}\right)^{2}-\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y_j}\right)^{2}$$ est faible.
Après un petit calcul, on montre que cette expression peut être réécrite sous la forme (voir Manuel de cours, chapitre 9) : $$R_{01}=\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(\bar{Y_j}-\bar{Y}\right)^{2}=\sum_{j=1}^{J}n_j\left(\bar{Y_j}-\bar{Y}\right)^{2}$$
Il est habituel dans les manuels de réunir les trois quantités (déviance de $M_0$, déviance de $M_1$ et réduction de la déviance) en une seule expression sous la forme : $$\begin{array}{ccccc} D_{0} & = & R_{01} & + & D_{1}\\ \sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y}\right)^{2} & = & \sum_{j=1}^{J}n_{j}\left(\bar{Y_{j}}-\bar{Y}\right)^{2} & + & \sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y_{j}}\right)^{2} \end{array}$$
La déviance nulle $D_0$ est aussi appelée somme des carrés totale, $R_{01}$ est aussi appelée somme des carrés inter-groupe (car elle mesure strictement une dispersion des moyennes de groupe) et $D_1$ somme des carrés intra-groupe (car elle mesure la dispersion des scores individuels dans chaque groupe). Néanmoins ce vocabulaire est restreint aux modèles gaussiens car dans les autres distributions, la déviance ne prend pas la forme de sommes de carrés et on préférera donc dans ce cours parler de déviances.
Atelier : calcul de déviances
Le tableau ci-dessous contient les scores de coopération des sujets, dans les conditions Publique et Anonyme. Il contient également les valeurs prévues par les modèles $M_0$ (modèle constant ou nul) et le modèle $M_1$ (modèle de la différence inter-conditions). On note que les prévisions de scores réalisées par ces modèles sont simplement des moyennes : la moyenne générale dans le modèle qui ne distingue pas les groupes, et les moyennes de groupe dans le modèle de la différence inter-conditions.
Calculs des résidus
- Cliquez sur le bouton de téléchargement ci-dessous pour ouvrir le fichier dans un tableur (nous allons faire un peu de calcul).
- Calculez dans une cinquième colonne (Résidus M0) les résidus du modèle nul.
- Calculez dans la colonne suivante (Résidus M1) les résidus du modèle de la différence des conditions.
Calculs des déviances et réduction
La déviance est simplement la somme des carrés des résidus d'un modèle.
-
Calculez la déviance de M0, en bas de la colonne Résidus M0 :
=SOMME.CARRES(E2:E21). -
Faites de même pour M1, en bas de la colonne Résidus M1 :
=SOMME.CARRES(F2:F21). - Calculez enfin la différence des deux déviances dans une case adjacente.
Le fichier final obtenu peut être téléchargé au format OpenOffice ou EXCEL.
La valeur $R_{10}=1095.2$ représente la réduction de la déviance que l'on obtient quand on passe d'un modèle constant à un modèle à deux niveaux de groupe. Nous dirons que $M_1$ est un meilleur modèle si nous pouvons montrer que cette réduction est significative. Pour juger qu'elle l'est, nous avons besoin d'un modèle de distribution sur cette réduction, quand les moyennes sont en réalité égales dans les populations parentes.
Inférence
La réduction de la déviance, divisée par la variance vraie des données, a une distribution connue : $$\frac{R_{01}}{\sigma^2}=\sum_{j=1}^{J}n_j\left(\frac{\bar{Y_j}-\bar{Y}}{\sigma}\right)^{2}=\sum_{j=1}^{J}\left(\frac{\bar{Y_j}-\bar{Y}}{\sigma/\sqrt{n_j}}\right)^{2} \sim \chi^2(J-1)$$
Nous faisons en effet dans cette expression la somme de $J$ (ici $J=2$) carrés de lois normales centrées (par soustraction des moyennes de groupe empiriques $\bar{Y_j}$) et réduites, indépendantes. La loi est une $\chi^2$ mais à $J-1$ (ici $J-1=1$) degrés de liberté, une fois soustrait le degré imputable au remplacement de la moyenne vraie $\mu$ inconnue par son estimation $\bar{Y}$.
Par ailleurs, la déviance de $M_1$ divisée par la variance vraie des données a aussi une distribution connue : $$\frac{D_1}{\sigma^2}=\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(\frac{Y_{ij}-\bar{Y_j}}{\sigma}\right)^{2}\sim \chi^2(N-2)$$
Nous faisons en effet dans l'expression précédente une somme de $n_1+n_2=N$ termes, qui sont tous des scores centrés et réduits. La distribution est $\chi^2$ si on pense que les scores sont issus d'une population normale. On retranche néanmoins $J$ (ici $J=2$) degrés de liberté car le centrage a été réalisé par rapport à $J$ moyennes estimées, en lieu et place des moyennes vraies inconnues.
Bien sûr, dans ces deux expressions, nous manipulons un paramètre $\sigma^2$ de variance inconnue, mais la construction de Fisher nous permet de nous en affranchir. En faisant le rapport de ces deux statistiques, préalablement divisée par leurs degrés de liberté, on a : $$\begin{aligned} F&=\frac{R_{01}/\sigma^2/(J-1)}{D_{1}/\sigma^2/(N-J)} \\ &=\frac{\left[\sum_{j=1}^{J}n_{j}\left(\bar{Y}_{j}-\bar{Y}\right)^{2}\right]/(J-1)}{\left[\sum_{j=1}^{J}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y}_{j}\right)^{2}\right]/(N-J)}\sim Fisher(J-1,N-J) \end{aligned} $$
Cette statistique, nommée $F$ de Fisher, permet de juger du caractère significatif de la réduction de la déviance apportée par le modèle $M_1$, par rapport à ce qu'est la déviance de $M_0$, dans ce cas simple à deux moyennes. Mais elle peut en réalité être utilisée pour tester la réduction de la déviance apportée par n'importe quel modèle (à 2, 3, etc. moyennes) par rapport à un modèle plus simple. C'est ce que nous verrons dans la section suivante.
Dans le cas présent où nous n'avons que deux groupes ($J=2$), la statistique et la distribution de référence deviennent : $$F=\frac{\left[\sum_{j=1}^{J}n_{j}\left(\bar{Y}_{j}-\bar{Y}\right)^{2}\right]/(1)}{\left[\sum_{j=1}^{2}\sum_{i=1}^{n_{j}}\left(Y_{ij}-\bar{Y}_{j}\right)^{2}\right]/(N-2)}\sim Fisher(1,N-2) $$
Atelier
R2STATS calcule automatiquement les déviances, la réduction, le $F$ de Fisher et la valeur $p$ associés :
- Rechargez le fichier guyer0.csv dans R2STATS.
- Testez le modèle $M_0$, en sélectionnant correctement la variable dépendante et en entrant dans la boite des variables indépendantes le code '1'. Le symbole '1' sert à représenter une "variable" qui ne contient que des 1 (en réalité une constante). Le logiciel comprend alors que nous voulons tester un modèle prévoyant la même valeur constante de performance pour tous les sujets.
- Testez le modèle $M_1$, en sélectionnant correctement la variable dépendante et la variable indépendante.
- Dans la page des résultats, sélectionnez M0 et M1 dans la liste des modèles et cliquez sur le bouton Comparer : vous obtenez automatiquement un tableau de comparaison des déviances de $M_1$ et de $M_0$.
- Repérez dans le tableau de comparaison des déviances les valeurs de déviance de chaque modèle. Repérez ensuite la valeur de réduction de la déviance, le $F$ de Fisher associé et la valeur $p$ correspondante.
-
expand_moreEn résumé
Cet exercice a permis de mettre en oeuvre la comparaison de modèles par réduction de déviance (aussi appelée Analyse de la Variance ou ANOVA en abrégé) :
- On peut constater que dans le cas de la comparaison de deux moyennes seulement, la valeur $p$ du test de Fisher est exactement la même que celle du $T$ de Student de comparaison de deux moyennes. La conclusion est donc identique : nous déclarons les deux moyennes significativement différentes (en pratique, on observe plus de coopération dans le groupe où la décision est publique).
- On peut constater également que la valeur du $F$ de Fisher est égale au carré du $T$ de Student. Dans le cas à deux groupes, les deux statistiques donnent donc exactement la même conclusion. Attention cependant : le $F$ de Fisher révèle éventuellement une différence, mais de façon non signée (il est toujours positif) et le test est donc bilatéral par défaut.
- L'approche par analyse de la déviance a l'avantage cependant de permettre de comparer un nombre quelconques de moyennes, ce qui n'était pas possible avec le $T$. Dans ce contexte, les notions d'unilatéral et de bilatéral perdent leur sens : le $F$ est multilatéral par nature (il révèle toute différence perceptible entre un nombre quelconque de moyennes).
- Pour peu que la variable dépendante soit bien la même, cette approche permet de comparer n'importe quelle paire de modèles.
Test de contrastes locaux
Pour illustrer la possibilité de comparer un nombre quelconque de modèles différents sur la même variable dépendante, nous éudions ci-dessous la comparaison simultanée de 5 moyennes par cette approche.
Une expérience : rappel et contexte d'apprentissage
Dans une réplique d'une expérience de Smith (1979), on souhaite mettre en évidence l'effet facilitateur du contexte d'acquisition sur le rappel. Dans un premier temps, les sujets apprennent une liste de quatre-vingts mots dans une pièce orange décorée avec des draperies, posters, et tableaux. Les sujets subissent quelques minutes après leur apprentissage un test de reconnaissance dont le but est simplement de leur laisser croire que l'expérience s'arrête là. Le lendemain, on demande aux sujets de noter les mots dont ils peuvent se souvenir, et on les compte.
Le rappel se déroule dans différentes conditions qui définissent cinq groupes expérimentaux (les sujets étant affectés aléatoirement à chaque groupe) :
- Même contexte : les sujets se trouvent dans la même pièce orange où ils ont appris la liste la veille.
- Contexte différent : les sujets se trouvent dans une pièce nettement différente de celle où ils ont appris la veille.
- Contexte imaginé : les sujets sont dans la pièce du groupe (2). Mais on leur conseille de se rappeler d'abord la pièce orange (on les aide en leur posant des questions).
- Contexte photographié : les sujets se trouvent dans la condition (3), mais on leur montre plusieurs photographies de la pièce orange.
- Contexte placebo : les sujets sont dans la même pièce que le groupe (2). Mais on leur demande de se rappeler d'abord leur chambre à coucher à titre « d'échauffement intellectuel ».
Dans cette situation, on s'attend à ce que la proximité entre les conditions de l'apprentissage et les conditions du rappel favorise la performance au rappel. Si cette hypothèse est correcte, on devrait observer de meilleures performances en moyenne quand le rappel a lieu dans le même contexte que l'apprentissage. Il se peut aussi que si l'on réactive les conditions de l'apprentissage avec une photo, ou une consigne d'imaginer le contexte, la performance soit meilleure que lorsque le contexte est franchement différent. Ce sont ces différentes nuances de l'effet que l'on cherche à évaluer.
Atelier
Les données sont dans le fichier contexte2.csv. Testez sous R2STATS les modèles qui affirment les choses suivantes :
- $M_c$ : les cinq conditions se distinguent dans leurs effets moyens sur le rappel. Testez les conditions d'application du modèle de groupe. Examinez et interpréter les effets du tableau final des paramètres estimés. Note : ces effets sont tous calculés par rapport à la moyenne du groupe de base Placebo.
- $M_3$ : les cinq conditions diffèrent sauf les conditions « placebo » et « contexte différent » qui ne se distinguent pas entre elles.
- $M_2$ : les conditions « placebo » et « contexte différent » ne se distinguent pas entre elles, et les conditions « même » et « photographié » ne se distinguent pas entre elles.
- $M_1$ : aux deux précédentes contraintes d'égalité, on ajoute enfin que la condition 3 ne se distingue pas de la 1 et de la 4.
- $M_0$ : les cinq conditions ne se distinguent pas entre elles.
Utilisez pour cela les facteurs de groupe simplifiés f1, f2 et f3, fournis dans le fichier de données. Chacun d'entre eux représente l'une des hypothèses possibles sur la structure de groupe sous-jacente, selon qu'on considère réelle ou non certaines différentes de moyennes. Ils peuvent être utilisés tour à tour comme variable indépendante, en lieu et place du facteur Condition de départ.
Il représentent les hypothèses statistiques suivantes sur les moyennes (ou les indices représentent les numéros de groupes fusionnés dans l'hypothèse) :
Condition / Modèle | $M_c$ | $M_3$ | $M_2$ | $M_1$ | $M_0$ |
---|---|---|---|---|---|
Même contexte | $\mu_{1}$ | $\mu_{1}$ | $\mu_{14}$ | $\mu_{134}$ | $\mu_{12345}$ |
Contexte différent | $\mu_{2}$ | $\mu_{25}$ | $\mu_{25}$ | $\mu_{25}$ | $\mu_{12345}$ |
Contexte imaginé | $\mu_{3}$ | $\mu_{3}$ | $\mu_{3}$ | $\mu_{134}$ | $\mu_{12345}$ |
Contexte Photographié | $\mu_{4}$ | $\mu_{4}$ | $\mu_{14}$ | $\mu_{134}$ | $\mu_{12345}$ |
Contexte placebo | $\mu_{5}$ | $\mu_{25}$ | $\mu_{25}$ | $\mu_{25}$ | $\mu_{12345}$ |
-
expand_moreCorrection
Cet exercice a permis de mettre en oeuvre la comparaison de modèles par réduction de déviance, dans le cas de 5 moyennes, avec tests sur contrastes.
- On teste d'abord le modèle complet $M_c$, c'est-à-dire celui qui teste l'effet global de la condition, sans introduire de contrainte. Ce modèle complet doit toujours être testé en premier car c'est celui qui nous donne le grain le plus fin sur les éventuelles différences de groupe. C'est aussi celui dont la déviance va être prise comme référence pour le calcul de tous les $F$ de Fisher de la table des comparaisons. A ce titre, c'est lui qui sert de base pour les tests d'homogénéité des variances et de normalité (qui ne seront pas testés sur les autres modèles).
On note que ces deux hypothèses du modèle de groupe sont acceptables ici, car le deux valeurs $p$ des tests de normalité et d'homogénéité des variances sont supérieures à $\alpha=0.10$ ($W = 0.96248, p < 0.2710$ et $F = 0.22168, p < 0.9242$). Remarque : le $F$ de Levene est un test d'homogénéité des variances approprié quand on a plus de deux variances. Sa lecture et son interprétation sont exactement identiques au $F$ de Fisher pour deux variances.
- On cherche maintenant à se convaincre qu'il y a bien de la différence quelque part entre les moyennes. Si c'est vrai, on devrait avoir une réduction de déviance significative quand on compare M0 (modèle constant) et Mc (modèle complet). Dans l'onglet Résultats, cliquez sur Mc puis sur le bouton Comparer : un tableau des déviances apparaît en bas de page. On voit que la déviance de Mc ($D_c=705.4286$) est plus faible que celle de M0 ($D_0=961.8857$) et que la différence entre les deux ($R_{c0}=256.4571$) est significative ($F=2.7266, p < 0.0477$). On peut donc dire qu'il y a un effet global significatif de la similarité du contexte sur la qualité du rappel.
- On cherche maintenant à identifier dans quel sens (favorisant / défavorisant) va cet effet, et entre quels groupes il est le plus notable. On va regarder le graphique des moyennes (onglet Graphiques). Deux moyennes sont particulièrement proches l'une de l'autre : celles des groupes 2 et 5 (Différent et Placebo). Il se peut qu'un modèle ne les distinguant pas amène pratiquement la même réduction de déviance par rapport à $M_0$. On teste ce modèle $M_3$ en remplaçant le facteur Condition par le facteur f3 du fichier, qui ne compte que 4 modalités de groupe (car les groupes 2 et 5 y ont été fusionnés). C'est ce qu'on appelle fixer une contrainte d'égalité dans un modèle de moyennes. Quand on compare entre eux $M_c$, $M_3$ et $M_0$, on constate que $M_3$ amène une réduction de déviance significative par rapport à $M_0$ ($F=3.599, p < 0.0248$) mais que $M_c$ n'apporte pas de gain explicatif (ou de réduction de déviance) significatif par rapport à $M_3$ ($F=0.1094, p < 0.7432$). $M_3$ est donc pour nous un meilleur modèle que $M_c$, avec une réduction de déviance à peu près équivalente et une structure de moyennes plus simple.
- Cela dit, quand on regarde les moyennes au sein du modèle $M_3$, on note que les moyennes des groupes 1 et 4 sont plutôt proches, et on peut souhaiter les mettre à l'épreuve. Il se peut en effet qu'un modèle intermédiaire, plus simple que $M_3$ suffise à réduire significativement la déviance par rapport à $M_0$, et que ni $M_3$ ni $M_c$ ne fassent significativement mieux. On teste le modèle $M_2$ correspondant à cette nouvelle contrainte $\mu_1=\mu_4$. Il apporte une réduction de déviance significative par rapport à $M_0$, et ni $M_3$ ni $Mc$ ne réduisent ensuite significativement sa déviance. C'est donc notre meilleur modèle dans cette situation.
- Un raisonnement semblable nous amène à réaliser qu'un modèle $M_1$ fixant l'égalité supplémentaire $\mu_3=\mu_{14}$ amène une réduction significative de la déviance ($F=9.4484, p < 0.0045$) et que ni $M_2$, ni $M_3$, ni $M_c$ n'apportent ensuite de réduction supplémentaire significative. $M_1$ est donc le meilleur de nos modèles dans cette situation. Les 5 conditions expérimentales se réduisent en fait à deux clusters de groupes : (134) d'une part, et (25) d'autre part.
- Une fois le meilleur modèle identifié, on l'inteprète : on voit que dans les groupes 1, 3 et 5 (où la proximité de contexte est élevée), le score moyen de rappel est plus élevé que dans les conditions 2 et 5 (où la proximité de contexte est nulle). Il y a donc bien un effet favorisant de la similarité de contexte sur le rappel.
- Remarque importante : pour que toute cette démarche de comparaison de modèles par valeur $p$ soit valide, il est important que toute contrainte d'égalité acceptée à une étape soit maintenue aux étapes suivantes. De cette manière, chaque contrainte vient tester un effet qui n'a pas encore été testé (notion de contrastes orthogonaux). Pour la facilité de l'inteprétation, on commence par contraindre les plus petites différences de moyennes, puis les plus grandes.
- On teste d'abord le modèle complet $M_c$, c'est-à-dire celui qui teste l'effet global de la condition, sans introduire de contrainte. Ce modèle complet doit toujours être testé en premier car c'est celui qui nous donne le grain le plus fin sur les éventuelles différences de groupe. C'est aussi celui dont la déviance va être prise comme référence pour le calcul de tous les $F$ de Fisher de la table des comparaisons. A ce titre, c'est lui qui sert de base pour les tests d'homogénéité des variances et de normalité (qui ne seront pas testés sur les autres modèles).
Exercices d'application
- Reprenez l'exemple des scores QI par groupe de genre (fichier wais2.csv), dans l'interface R2STATS, et vérifiez les deux
points suivants :
- Le $F$ de Fisher fourni dans la page des résultats est (dans ce cas particulier à deux groupes) exactement égal au carré du $T$ de Student.
- La valeur $p$ du test de Fisher est exactement celle du $T$ de Student.
-
Téléchargez le fichier anorexie.csv. Il contient les poids (en livres car l'étude est anglaise) avant et après traitement (suivi 3 mois) de 3 groupes indépendants de jeunes femmes anorexiques, suivies respectivement en a) hospitalisation classique, b) thérapie cognitive-comportementale, c) thérapie familiale. On admettra que les poids initiaux (PoidsAvant) des patientes dans les 3 conditions ne se distinguaient pas en moyenne. On se pose la question suivante : les 3 types d'accompagnement ont-ils la même efficacité ? On regardera pour en juger uniquement la variable dépendante PoidsApres (poids après traitement).
- Analyse des conditions. Construisez d'abord le modèle complet $M_c$ et examinez les conditions d'application du modèle de groupe. Peut-on poursuivre l'analyse selon vous ?
- Analyse de contraste. Repérez la plus petite différence de moyennes : quels groupes concerne-t-elle ? Est-elle significative ? Qu'en déduisez-vous quant à l'efficacité propre de la thérapie familiale ?
- Conclusion générale. Quelle est votre conclusion générale sur le traitement de l'anorexie ?
-
expand_moreCorrection
-
On vérifie facilement que :
- dans cette analyse, la comparaison de $M_1$ et $M_0$ donne $F(1,58)=1.5539$ et que le simple $t$ de Student, apparaissant à la ligne SexeM du tableau des coefficients est $t(58)=-1.2466$. A l'arrondi près, on a bien $t^2=F$.
- la valeur $p$ ($p < 0.2176$) est la même dans les deux approches. Dans le cas de deux groupes, l'approche par comparaison des déviances (ou analyse de la variance) donne exactement la même décision et correspond au même modèle de groupe (avec hypothèse de normalité et d'homogénéité des variances). L'avantage de l'ANOVA n'apparaît que lorsqu'on commence à vouloir comparer plus de deux groupes.
-
On commence par tester le modèle complet $M_c$, supposant que les 3 populations sous-jacentes, dont les groupes sont issus, n'ont pas la même moyenne vraie de reprise de poids après traitement. Ce modèle est caractérisé par un triplet de moyennes vraies différentes qu'on peut noter $(\mu_1,\mu_2,\mu_3)$.
-
L'estimation des 4 paramètres de ce modèle (3 moyennes estimées et une erreur standard commune) permettent de tester les hypothèse de normalité ($W = 0.98419$, $p < 0.5036$) et d'homogénéité des variances ($F = 1.76713$, $p < 0.1785$) : les deux tests ne conduisent au rejet d'aucune des deux et on considérera donc que ces conditions sont acceptables. On peut donc poursuivre l'analyse.
-
A partir du tableau de moyennes sous le modèle $M_c$ (ou à partir du tableau des coefficients qui donne les différences au groupe contrôle), on voit que la différence entre Groupe Contrôle et groupe TCC est la plus faible. On décide donc de tester cette différence en premier car si elle est significative, on sait que toute autre différence plus grande le sera aussi. Cette comparaison peut être réalisée en testant un modèle $M_2$ où les deux conditions Contrôle et TCC sont considérées comme ne faisant plus qu'un seul groupe (hypothèse $\mu_1=\mu_2$, portée par le contraste 2 dans le fichier de données). On met à l'épreuve cette hypothèse en regardant si le modèle $M_c$ précédent est capable de réduire significativement la déviance par rapport à $M_2$. La comparaison nous donne une réduction significative $R_{c2}=288.681$ ($F(1,69)=5.4348$, $p < 0.0227$), apportée par $M_c$. On rejette donc $M_2$ et on peut donc dire que la différence des moyennes des deux conditions est significative : l'approche TCC est donc efficace. Comme c'est la plus petite différence que nous avons testée, nous savons que toutes les autres différences seront significatives aussi (différence TCC/TF, et a fortiori différence Contrôle / TF). L'approche TF est donc encore plus efficace.
-
Il y a donc un effet traitement global dans cette expérience, qui mène à une claire hiérarchie des méthodes : la TCC est plus efficace que le traitement hospitalier de base, mais la TF est encore plus efficace que la TCC dans ce contexte (ce ne serait pas nécessairement le cas cliniquement pour tous les types de troubles).
-
-