Inférence sur deux probabilités

La théorie de la dissonance cognitive

La théorie de la dissonance cognitive (Festinger, 1957) prévoit qu'en acceptant un acte qu'on aurait d'ordinaire réprouvé, on a tendance après-coup à le surjustifier. Cette surjustification permet de réduire la dissonance cognitive interne induite par l'acte.

La théorie prévoit que ce phénomène est d'autant plus marqué qu'on ne trouve pas de justification externe (menace ou récompense).

Pour tester cette dernière hypothèse, Zimbardo (1969) met des sujets dans une situation ou un expérimentateur les convainc de manger des sauterelles grillées. Tous les sujets ont accepté de le faire. Dans une condition, l'expérimentateur était « antipathique » (pas de justification externe) et dans l'autre il était « sympathique » (justification externe). A la fin de l'expérience, on demande aux sujets s'ils acceptent de recommander la même expérience à une autre personne. Cela est considéré comme une mesure de justification a posteriori du comportement. On cherche à voir dans quelle condition la justification a posteriori sera la plus fréquente.

Atelier 1 : identification des variables de l'expérience
Notion de variables expérimentales

Dans la construction d'une expérience en psychologie, on distingue deux grands types de variables :

  • Les variables dépendantes : ce sont les mesures comportementales, encore appelées mesures d'effet. Elles permettent de mesurer l'amplitude du changement comportemental, dû à la manipulation expérimentale,
  • Les variables indépendantes : ce sont les conditions de l'expérience manipulées par l'expérimentateur. On cherche à voir si leur modulation impacte concrètement le comportement, et avec quelle amplitude.

Dans la relation variables indépendantes (VI) / dépendantes (VD), les VI ont le statut de causes et les VD le statut d'effets.

  • expand_moreCorrection

    Dans cette expérience, on a deux variables :

    • une variable dépendante : le fait de recommander l'expérience à quelqu'un d'autre après l'avoir passée soi-même. Si on le fait, c'est qu'on y a trouvé quelque chose de positif (surjustification). C'est donc une mesure de l'impact de l'expérience sur le comportement du sujet.
    • une variable indépendante : l'attitude « antipathique » vs. « sympathique » de l'expérimentateur. Cette variation du contexte vise à manipuler l'absence / présence de ce que la théorie appelle une justification externe.

    La théorie prévoit qu'en l'absence de justification externe, la justification interne sera plus importante, pour réduire la dissonance interne introduite par l'acceptation d'un acte peu ordinaire ou déplaisant. Cela conduit à cette attente expérimentale, plutôt contre-intuitive, qu'on devrait observer plus de recommandations de cette expérience désagréable dans la condition ou l'expérimentateur s'est montré plus antipathique !

Type de problème statistique

Sur 30 sujets dans chaque condition, Zimbardo a observé que 12 sujets (avec l'expérimentateur antipathique) et 4 sujets (avec l'expérimentateur sympathique) recommandent l'expérience à quelqu'un d'autre. Peut-on dire qu'il y a eu un impact de la présence / absence de justification externe sur l'internalisation du comportement ?

Le problème ne se réduit pas à la seule comparaison des fréquences observées de réponse (12/30 et 4/30), car nous savons bien qu'une réplication de la même expérience n'amènerait probablement pas les mêmes valeurs de fréquences empiriques (revoir l'atelier sur le lancer de dé ou celui sur l'échantillonnage d'une proportion, au besoin) pour les mêmes probabilités sous-jacentes. C'est toute la problématique de l'erreur d'échantillonnage. Par contre, nous savons modéliser cette erreur d'échantillonnage grâce à la loi binomiale : pour une valeur de probabilité donnée dans une population, nous savons dire avec quelle probabilité telle ou telle fréquence est susceptible d'apparaître.

Si les réponses des personnes dans l'expérience sont bien indépendantes (les passations étaient individuelles et les personnes ne se sont pas parlé entre les sessions), et que chaque condition se caractérise par une probabilité unique stable de recommandation, alors les nombres de personnes $X_1$ et $X_2$ qui recommandent l'expérience à l'issue suivent des lois binomiales : $$\begin{aligned} X_{1} &\sim\mathcal{B}(30,\pi_{1}) \\ X_{2} &\sim\mathcal{B}(30,\pi_{2}) \end{aligned}$$

La question psychologique posée se traduit donc statistiquement par : pouvons-nous dire, au vu des fréquences observées, que ces deux conditions amènent la réponse de recommandation avec des probabilités différentes, dans les populations virtuellement infinies de personnes qu'on pourrait faire passer par cette expérience ? Ou encore, ce qui revient au même : est-ce la même loi binomiale qui décrit la distribution d'échantillonnage des deux comptages ?

On note que dans cette situation, aucun raisonnement théorique ne nous permet de fixer une certaine valeur numérique pour l'une ou l'autre probabilité inconnue, comme c'était le cas dans nos problèmes précédents. C'est la spécificité de ce problème : la question est essentiellement de savoir si les deux probabilités sous-jacentes sont identiques ou différentes, quelles que soient leurs valeurs.

Cela revient à opposer deux hypothèses, au sein du modèle binomial (1) : $$\begin{aligned} H_{0}:\,\pi_{1} &= \pi_{2}=\pi_{12}\,,\\ H_{1}:\,\pi_{1} &\neq \pi_{2}\,. \end{aligned}$$ Le symbole $\pi_{12}$ (lire « pi-un-deux ») sert à représenter une probabilité inconnue unique pour les deux conditions. Pour choisir un bon modèle à l'aide de sa vraisemblance La vraisemblance d'un modèle est la probabilité des données observées, d'après ce modèle., il va donc nous falloir raisonner sur des ensembles de valeurs possibles des paramètres inconnus, et calculer des vraisemblances intégrées.

Atelier 2 : échantillonnage dans deux distributions binomiales

Dans cet atelier, les traits verticaux pointillés représentent les comptages observés ($k_1=12$ et $k_2=4$). On peut tester plusieurs modèles de probabilités, qui supposent les probabilités identiques (option « $\pi_1=\pi_2$ ») ou différentes.

Ces probabilités peuvent être réglées à des valeurs numériques précises, par saisie directe ou avec les curseurs, pour comprendre quels modèles sont plus appropriés pour les données observées.

  • expand_moreEn résumé

    Dans cet atelier, vous avez découvert les points suivants :

    • Dans le calcul de la vraisemblance d'un modèle de groupe, on multiplie la probabilité des données dans le premier groupe par la probabilité des données dans le second groupe, par application de la loi du produit. Celle-ci est justifiée si les groupes sont bien indépendants (ils sont constitués de sujets différents n'ayant pas communiqué). Le calcul s'écrit symboliquement : $$\begin{aligned} L_{1}(\pi_{1},\pi_{2})&=P\left[(X_{1}=k_{1})\cap(X_{2}=k_{2})|\pi_{1},\pi_{2}\right] \\ &={\color{teal}P(X_{1}=k_{1}|\pi_{1})}\times{\color{orange}P(X_{2}=k_{2}|\pi_{2})} \\ &={\color{teal}C_{n_{1}}^{k_{1}}\pi_{1}^{k_{1}}(1-\pi_{1})^{n_{1}-k_{1}}}\times{\color{orange}C_{n_{2}}^{k_{2}}\pi_{2}^{k_{2}}(1-\pi_{2})^{n_{2}-k_{2}}} \end{aligned}$$
    • Plus les probabilités théoriques choisies dans le modèle se rapprochent des fréquences empiriques (lignes verticales pointillées), plus la vraisemblance globale du modèle augmente.
    • Quand on se restreint aux modèles de l'égalité ($\pi_1 = \pi_2$), le meilleur modèle parmi eux est celui qui se positionne sur une fréquence intermédiaire. Si les données observées sont trop différentes (ce qui est le cas ici), ce compromis n'aura pas une très forte vraisemblance. Dans d'autres situations, si les résultats de groupes sont proches, il pourra avoir une vraisemblance presque aussi bonne qu'un modèle de la différence, avec un paramètre de moins.

Calcul des vraisemblances intégrées

Dans l'atelier précédent, nous avons testé des modèles en choisissant pour les paramètres de probabilité inconnus des valeurs arbitraires. En déplaçant le curseur, vous avez observé ce qui se passait quand on prenait en compte un grand nombre de valeurs possibles. C'est cette approche d'intégration de toutes les valeurs possibles que nous adoptons dans cette partie. Elle va nous permettre de traiter les inconnues en incorporant éventuellement des informations a priori que nous pourrions avoir d'études antérieures.

Dans ce qui suit, on adopte les notations suivantes :

  • $X_{1}$ et $X_{2}$ les variables aléatoires « nombre de réponses de recommandation » dans chaque groupe,
  • $\pi_{1}$ et $\pi_{2}$ les probabilités d'apparition de la réponse,
  • $n_{1}$ et $n_{2}$ les effectifs des deux groupes, et $N=n_{1}+n_{2}$ l'effectif total,
  • $k_{1}$ et $k_{2}$ les nombres de sujets observés dans chaque groupe qui acceptent effectivement de recommander l'expérience, et $K=k_{1}+k_{2}$ leur nombre total.

Les données observées sont des comptages. Si on suppose qu'ils ont été obtenus sur des sujets interrogés séparément, les réponses correspondantes peuvent être considérées comme indépendantes. Si en outre on suppose que la probabilité de recommander l'expérience est la même dans une condition donnée (mais potentiellement différente d'une condition à l'autre), la distribution d'échantillonnage de ces comptages est la loi binomiale à l'intérieur d'un groupe donné : $$\begin{aligned} X_{1} &\sim\mathcal{B}(n_{1},\pi_{1}) \\ X_{2} &\sim\mathcal{B}(n_{2},\pi_{2}) \end{aligned}$$

A l'intérieur de ce modèle général, on peut envisager nos deux familles de sous-modèles, portées par les hypothèses : $$\begin{aligned} H_{0}:\,\pi_{1} &= \pi_{2}=\pi_{12}\,,\\ H_{1}:\,\pi_{1} &\neq \pi_{2}\,. \end{aligned}$$ On appelle $M_1$ le modèle de la différence et $M_0$ le modèle de l'égalité. Avec la contrainte d'égalité qui lui est propre, ce dernier peut être réécrit comme : $$\begin{aligned} X_{1} &\sim\mathcal{B}(n_{1},\pi_{12}) \\ X_{2} &\sim\mathcal{B}(n_{2},\pi_{12}) \end{aligned}$$

Au sein du modèle binomial général, les deux hypothèses sur les paramètres peuvent aussi être représentées sous la forme d'un tableau des probabilités théoriques :

$M_0$ $M_1$
Recommandation Oui Non Oui Non
Pas de justif. $\pi_{12}$ $1-\pi_{12}$ $\pi_1$ $1-\pi_1$
Justif. externe $\pi_{12}$ $1-\pi_{12}$ $\pi_2$ $1-\pi_2$

Dans cette situation, comme les probabilités $\pi_1$ et $\pi_2$ dans $M_1$, et $\pi_{12}$ dans $M_2$, sont inconnues, on calcule la vraisemblance intégrée de chaque modèle en moyennant toutes les vraisemblances qu'on peut obtenir en faisant varier ces paramètres pour toutes leurs valeurs possibles. Quand les poids sont tous identiques dans cette moyenne (a priori non informatif), on peut montrer (voir démonstration ci-dessous) que les vraisemblances ont la forme suivante : $$\begin{aligned} L_{0} &= \left[\frac{C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}}{C_{N}^{K}}\right]\left[\frac{1}{N+1}\right] \\ L_{1} &= \left[\frac{1}{n_{1}+1}\right]\left[\frac{1}{n_{2}+1}\right] \end{aligned}$$ En général, comme les vraisemblances sont des nombres à écriture décimale longue, on préfère présenter la comparaison des vraisemblances sous la forme d'un rapport : $$B_{10}=\frac{L_{1}}{L_{0}}=\frac{\left[\frac{1}{n_{1}+1}\right]\left[\frac{1}{n_{2}+1}\right]}{\left[\frac{C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}}{C_{N}^{K}}\right]\left[\frac{1}{N+1}\right]}=\frac{C_{N}^{K}(N+1)}{C_{n_{1}}^{k_{1}}(n_{1}+1)C_{n_{2}}^{k_{2}}(n_{2}+1)}$$

  • expand_moreDémonstration (facultative)
    Vraisemblance du modèle de la différence

    La vraisemblance du modèle de la différence est une fonction à deux paramètres : $$\begin{aligned} L_{1}(\pi_{1},\pi_{2})&=P\left[(X_{1}=k_{1})\cap(X_{2}=k_{2})|\pi_{1},\pi_{2}\right] \\ &={\color{teal}P(X_{1}=k_{1}|\pi_{1})}\times{\color{orange}P(X_{2}=k_{2}|\pi_{2})} \\ &={\color{teal}C_{n_{1}}^{k_{1}}\pi_{1}^{k_{1}}(1-\pi_{1})^{n_{1}-k_{1}}}\times{\color{orange}C_{n_{2}}^{k_{2}}\pi_{2}^{k_{2}}(1-\pi_{2})^{n_{2}-k_{2}}} \end{aligned}$$

    Nous ne connaissons pas les valeurs de $\pi_1$ et $\pi_2$ dans cette expression, mais comme ils apparaissent séparables dans l'expression ci-dessus, nous pouvons utiliser la formule de la vraisemblance binomiale intégrée dans chaque groupe. On obtient : $$ \boxed{L_{1}={\color{teal}\left[\frac{1}{n_{1}+1}\right]}{\color{orange}\left[\frac{1}{n_{2}+1}\right]}} $$

    Vraisemblance du modèle nul

    La vraisemblance du modèle nul est une fonction à un seul paramètre de probabilité : $$\begin{aligned} L_{0}(\pi_{12}) &= P\left[(X_{1}=k_{1})\cap(X_{2}=k_{2})|\pi_{12}\right] \\ &= P(X_{1}=k_{1}|\pi_{12})P(X_{2}=k_{2}|\pi_{12}) \\ &= C_{n_{1}}^{k_{1}}{\color{blue}\pi_{12}^{k_{1}}}{\color{red}(1-\pi_{12})^{n_{1}-k_{1}}}C_{n_{2}}^{k_{2}}{\color{blue}\pi_{12}^{k_{2}}}{\color{red}(1-\pi_{12})^{n_{2}-k_{2}}} \\ &= C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}{\color{blue}\pi_{12}^{k_{1}+k_{2}}}{\color{red}(1-\pi_{12})^{n_{1}-k_{1}+n_{2}-k_{2}}} \\ &= C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}{\color{blue}\pi_{12}^{K}}{\color{red}(1-\pi_{12})^{N-K}} \end{aligned}$$ Nous ne connaissons pas la valeur de $\pi_{12}$ mais nous pouvons calculer une vraisemblance moyennée (intégrée) sur toutes les valeurs candidates de $\pi_{12}$ (celles qui s'affichent quand vous déplacez le curseur dans l'atelier précédent, dans le scénario $\pi_1=\pi_2$). Pour pouvoir utiliser la formule de vraisemblance binomiale intégrée, on ré-écrit simplement l'expression ci-dessus sous une forme qui fait apparaître une binomiale : $$ L_{0}(\pi_{12})=\left[\frac{C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}}{{\color{red}C_{N}^{K}}}\right]{\color{red}C_{N}^{K}}\pi_{12}^{K}(1-\pi_{12})^{N-K} $$

    Après intégration, on trouve : $$ \boxed{L_{0}=\left[\frac{C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}}{C_{N}^{K}}\right]\left[\frac{1}{N+1}\right]} $$

    Rapport des vraisemblances

    En pratique, on préfère rapporter un rapport des vraisemblances, car les vraisemblances sont souvent des nombres avec un développement décimal assez long. Pour ce problème, le rapport des deux vraisemblances s'écrit, en réarrangeant les fractions : $$B_{10}=\frac{L_{1}}{L_{0}}=\frac{\left[\frac{1}{n_{1}+1}\right]\left[\frac{1}{n_{2}+1}\right]}{\left[\frac{C_{n_{1}}^{k_{1}}C_{n_{2}}^{k_{2}}}{C_{N}^{K}}\right]\left[\frac{1}{N+1}\right]}=\frac{C_{N}^{K}(N+1)}{C_{n_{1}}^{k_{1}}(n_{1}+1)C_{n_{2}}^{k_{2}}(n_{2}+1)}$$

Atelier 3 : sélection de modèles par comparaison de vraisemblances

Dans cet atelier, on vous fournit un calculateur automatique de vraisemblances intégrées pour le modèle de l'égalité et de la différence. Nous adoptons ici un mode de saisie des données un peu différent, qui va nous permettre de mieux aborder plus loin les modèles plus généraux : au lieu de saisir l'effectif total du groupe et son nombre de succès (dans le cas présent, le succès est défini comme le fait d'accepter de recommander l'expérience), on saisit les nombres de succès et d'échecs. Le rapport de vraisemblance est également rapporté, pour vous permettre de prendre une décision sur le poids de l'évidence en faveur de l'un des modèles.

  • expand_moreEn résumé

    En répondant aux questions de cet exercice, vous vous êtes familiarisés avec les principes de la méthode de comparaisons de modèles.

    La démarche peut être résumée en 6 étapes :

    1. On formule des théories psychologiques concurrentes sur la situation. Par exemple qu'il existe un phénomène de surjustification en contexte de dissonance cognitive, ou bien qu'il n'en existe pas.
    2. On identifie, au vu de la nature de la variable dépendante (ici le comportement de recommandation de l'expérience, qui se trouve dénombré par groupe), le modèle de l'échantillonnage approprié. Si la probabilité de recommander est bien la même pour tous les sujets d'un même groupe, et si les réponses des sujets étaient indépendantes (passations individuelles), le modèle binomial est approprié pour ces comptages.
    3. Au sein de ce modèle d'échantillonnage, on traduit les hypothèses psychologiques en hypothèses statistiques. Ici, la théorie de la dissonance se traduit par un modèle de la différence sur les probabilités de recommander ( $H_1:\,\pi_1\neq\pi_2$ ), tandis que la théorie de l'absence d'effet se traduit par un modèle de l'égalité ( $H_0:\,\pi_1=\pi_2$ ).
    4. On calcule les vraisemblances intégrées des deux modèles et on les compare, soit directement, soit via le rapport de vraisemblance (ce que nous prendrons l'habitude de faire). On sélectionne le modèle le plus vraisemblable. On a ici $B_{10}=4.0064$ : la balance penche en faveur de $M_1$ avec une évidence positive ($B_{10}>3$).
    5. On calcule les estimations de paramètres au sein du modèle retenu. Ici, nous avons retenu le modèle $M_1$ de la différence et nos estimations sont les fréquences par groupe $f_1=0.4$ et $f_2=0.1333$. On note que si le meilleur modèle avait été $M_0$, c'est-à-dire un modèle affirmant l'absence de différence des probabilités, la meilleure estimation est alors la fréquence observée sur les deux groupes fusionnés.
    6. On apporte une conclusion psychologique en observant (si une différence a été retenue) dans quel sens s'est manifestée cette différence, lisible à travers les estimations. On a ici une fréquence de recommandation plus élevée dans le groupe 1 (expérimentateur « antipathique ») et on peut donc conclure à un effet de surjustification en condition d'absence de justification externe, conformément à la théorie.

Exercices d'entraînement

Dans les exercices qui suivent, suivez les 6 étapes détaillées dans l'atelier précédent, et utilisez le calculateur ci-dessus, pour répondre à la question psychologique posée.

  1. Dellatolas et collaborateurs (1997), dans une étude portant sur 1155 enfants âgés de 2 ans et demi à 6 ans (560 garçons et 595 filles), ont constaté que 78 garçons et 52 filles étaient gauchers. La prévalence de la latéralité gauche est-elle la même chez les filles et les garçons de cette tranche d'âge ?
  2. Pugh (1983) étudie les déterminants de la décision du jury dans des affaires (fictives) de viol. En particulier, Pugh cherche à savoir si le fait de fournir aux jurys des informations sur le style de vie de la victime (mœurs libres ou moralité stricte) peut biaiser la décision finale concernant l'accusé (coupable/non coupable). Sur 177 cas où la victime a été présentée comme de « haute moralité », on compte 153 verdicts « coupables » pour l'accusé. Sur 181 cas où la « moralité » de la victime a été mise en doute, on compte 105 verdicts « coupables » pour l'accusé. Diriez-vous que la probabilité du verdict « coupable » est la même dans ces deux cas ?
  3. Johnson et al. (2000) trouvent que sur 103 adolescents diagnostiqués à « troubles de la personnalité » au sens du DSM-IV, 39 sont impliqués dans des actes violents. Ils sont 117 dans le groupe de 614 adolescents sans troubles de la personnalité à être impliqués dans les mêmes actes. Diriez-vous que les troubles de la personnalité à l'adolescence sont associés plus souvent à la violence ?
  • expand_moreCorrections

    1. Latéralité chez les filles et les garçons . Les données suggèrent une prévalence légèrement supérieure chez les garçons mais l'évidence est négligeable. Dans cette situation, il est préférable de ne pas conclure. Davantage de données seraient nécessaires pour voir éventuellement la balance pencher en faveur d'un modèle ou d'un autre. On préfère également ne pas regarder les estimations de fréquences, faute d'avoir pu détecter un meilleur modèle.
    2. Impact des préjugés dans les jugements pour viol. L'évidence ici est très forte en faveur de l'impact des informations fournies a priori sur la « moralité » de la victime, c'est-à-dire en faveur du modèle de la différence. En regardant les estimations, on voit que les jugements de culpabilité contre l'accusé sont prononcés dans 86% des cas (contre 58%) si un préjugé de moralité de la victime a été construit chez les juges.
    3. Troubles de la personnalité et violence. L'évidence en faveur d'une association positive entre troubles de la personnalité et passages à l'acte violent est ici très forte ($B_{10}>150$). On voit qu'on observe des actes violents deux fois plus souvent (38% des cas contre 19%) chez les adolescents souffrant de troubles de la personnalité.