
Des centaines de poulets jetés dans des fosses et brûlés avec de l’essence. Des agents de sécurité vêtus de combinaisons intégrales, pulvérisant des produits stérilisants sur des enclos à volailles. À la fin de 2005, ces scènes se déroulaient loin de chez nous, mais nous avons été nombreux à penser : « Ça y est, la grippe aviaire va arriver chez nous ! » Passées en boucle sur toutes les chaînes de télévision, avec un luxe de détails sur les méthodes de détection et les élevages contaminés, elles ont créé un début de panique. Pourquoi ces images ont-elles déformé notre perception du risque ?
Lorsque nous essayons de nous représenter la probabilité pour qu’un événement arrive, nous rassemblons à toute vitesse des images mentales liées à cet événement, et plus nous trouvons d’images mentales, plus nous jugeons l’événement susceptible de se produire. C’est ce qu’on nomme l’heuristique de disponibilité : plus les images mentales sont disponibles, plus la probabilité estimée est grande. C’est ce qu’a révélé une expérience :
En 1973, deux économistes, Daniel Kahneman et Amos Tversky, ont réuni des volontaires pour une expérience et leur ont demandé si, d’après eux, la lettre R apparaissait le plus souvent à la première place d’un mot (en anglais) ou à la troisième place. Ils ont alors constaté que la plupart des gens croyaient (à tort) que la lettre R apparaissait plus souvent en première place d’un mot qu’en troisième. Puisqu’ils arrivaient plus facilement à trouver des exemples de mots commençant par R, ils ont cru qu’il y en avait davantage, et ont donc confondu la facilité de trouver des mots avec la fréquence réelle des mots.
En psychologie, on dit qu’ils avaient davantage d’exemples disponibles à la conscience, d’où le nom d’heuristique de disponibilité.
Que se passe-t-il si la télévision et les journaux nous alimentent constamment en images consacrées à la grippe aviaire ? Nous avons alors toute une banque d’images disponibles à notre conscience et nous croyons, d’après l’heuristique de disponibilité, que c’est un phénomène courant.
Cette heuristique de disponibilité nous fait juger involontairement comme très élevé le risque d’une épidémie réelle. Cette heuristique de disponibilité est flagrante dans un autre exemple, bien connu : nous avons plus peur de l’avion que de la voiture. Pourquoi ? Parce que nous avons (grâce aux médias) de nombreuses images de crashs aériens en tête, et que ces images nourrissent notre heuristique de disponibilité. Les images de crashs aériens, à cause de leur côté télégénique, remplissent nos écrans et faussent notre perception du risque statistique réel. C’est ainsi que l’on en vient à se tromper complètement sur la probabilité d’une catastrophe, ce qu’a montré une expérience :
En 1991, trois psychologues de l’Université de Zurich, Carmen Keller, Michael Siegrist et Heinz Gutscher, ont distribué à des volontaires des notices d’information sur les inondations dans la région, et ont étudié la façon dont ces volontaires percevaient le risque.
Une première version de la notice comportait un descriptif des risques sur les trente dernières années, l’autre version se concentrant sur une durée d’un an. La première version proposait donc davantage d’images d’inondations, même si le nombre de sinistres par unité de temps était le même. Cependant, les volontaires exposés à cette notice ont jugé les risques bien supérieurs !
Ils avaient davantage d’images mentales disponibles pour fonder leur estimation. L’heuristique de disponibilité leur faisait donc surestimer le risque.
A priori, ces effets semblent donc s’expliquer par un mécanisme simple : plus nous avons d’images disponibles pour un événement, plus nous jugeons cet événement probable. Mais le mécanisme fondamental pourrait être légèrement différent : c’est la facilité avec laquelle nous pouvons nous représenter un événement qui nous le fait paraître plus probable. Cela est compatible avec le nombre d’images disponibles (plus on nous propose d’images parlantes et originales, plus il nous sera facile de nous représenter l’événement), mais cela se situe à un échelon légèrement plus fondamental. C’est ce que montre une expérience :
Le psychologue Norbert Schwarz, à l’Université du Michigan, a demandé à des volontaires de citer soit six exemples, soit douze exemples de situations où ils s’étaient illustrés par leur bonne analyse d’une situation, et où leur avis avait permis d’aboutir à un succès. Lorsque les volontaires ont fini de dresser leur liste, il leur a demandé de s’évaluer euxmêmes : ils devaient estimer à quel point ils étaient dotés d’une bonne intelligence et d’une bonne capacité d’analyse.
N. Schwarz a alors constaté que les personnes ayant dû trouver six exemples de situations avaient une bonne opinion d’elles-mêmes, s’estimant douées d’un bon sens d’analyse et se trompant rarement. Mais les autres, à qui l’on avait demandé de trouver douze exemples de situations, avaient une moins bonne opinion d’elles-mêmes. Elles se disaient plutôt débrouillardes, mais pas davantage que la moyenne.
Comment expliquer cette différence ? Tout simplement par le fait qu’il est bien plus facile de trouver 6 exemples de situations où l’on a été efficace, que 12 exemples. Les personnes ayant dû trouver 6 exemples de l’événement « j’ai une bonne capacité d’analyse » ont eu de grandes facilités à le faire, et elles ont tenu le raisonnement : « S’il est facile de trouver des exemples, c’est que c’est vrai. » Au contraire, les personnes ayant dû trouver 12 exemples de l’événement « j’ai une bonne capacité d’analyse » ont eu des difficultés à le faire, et elles ont tenu le raisonnement : « S’il est malaisé de trouver des exemples, c’est peut-être que ce n’est pas vrai. »
On s’aperçoit de la subtilité et du caractère insidieux de ce mécanisme. Lorsque les médias nous abreuvent d’images, de reportages et d’articles sur un événement possible, il nous devient facile de trouver des « façons dont cela pourrait arriver », et nous pensons inconsciemment : « S’il est facile de trouver des façons dont cela pourrait arriver, c’est que cela a de bonnes chances d’arriver. » Bien sûr, tout cela se fait sur le mode de l’automatisme mental, et il est très difficile de le démêler. Plus un média livre des descriptions imagées et détaillées d’un événement (même si celui-ci est rare), plus il augmente la facilité avec laquelle le spectateur pourra se représenter cet événement. Inconsciemment, le cerveau interprétera cette facilité de représentation comme une probabilité importante que l’événement se produise.
Conclusion
Le niveau de détail d’un reportage, ou la répétition des images sur un thème donné, alimentent notre cerveau en « exemples » qui peuvent nous faire percevoir un événement comme hautement probable. Cela peut prendre de multiples formes à l’écran, à la radio ou dans les journaux. Les accumulations de témoignages, par exemple, jouent en ce sens. Même un homme politique qui, pour nous convaincre de la nécessité d’abolir la loi sur les 35 heures, nous cite de multiples cas de personnes rencontrant des difficultés dans leur vie à cause de cette loi, augmente le nombre d’exemples selon lesquels « la loi des 35 heures est mauvaise », et la probabilité que nous trouvions cette loi mauvaise.
Poster un Commentaire