Y croire même quand c'est faux

Y croire même quand c'est faux

La manipulation des médias est une réalité de notre temps, mais la crédulité, elle, est universelle. Une étude en psychologie s’est penchée — encore une fois — sur les raisons qui rendent certaines personnes plus susceptibles de croire en une information fausse, qu’elle leur parvienne des médias ou des politiciens.

À la base, ces chercheurs partent d’un constat récent, qui a été révélé ces dernières années par l’analyse de nos cerveaux : rejeter une information demande plus « d’efforts » que d'y croire. Notre cerveau doit en effet analyser — la fiabilité de la source d’information et le caractère plausible ou non de l’histoire — avant de la rejeter. En comparaison, si on choisit d’y croire, notre cerveau peut faire une sieste...

Mais c’est plus compliqué que ça, écrivent le psychologue australien Stephan Lewandowsky et ses collègues. D’une part, si le sujet n’est pas déjà important pour vous, la fausse information risque de s’enraciner plus facilement dans votre esprit — et il sera par la suite très difficile de l’en déloger.

Or, même lorsque le sujet est important pour vous, et que vous prenez donc le temps d’analyser l’information, cela se fait si vite qu’il n’y a que quelques éléments auxquels vous portez attention : la source d’information est-elle crédible? Quelles sont les autres personnes de mon entourage qui y croient? Est-ce que cette information est « compatible avec d’autres choses auxquelles je crois »?

Qu’ont en commun ces éléments auxquels vous portez attention? Le groupe auquel vous vous identifiez, les idéologies auxquelles vous adhérez, bref, tout ce qui prédétermine déjà votre vision du monde, sera crucial dans votre choix de croire ou non à une information — et ce, qu'elle soit vraie ou fausse.

Ces conclusions n’étonnent pas quand on pense politique : l’électeur qui préfère le parti X sera davantage enclin à croire au chef du parti X. Mais quand on pense science, ces constats deviennent gênants : on peut pratiquement prévoir à l’avance quels groupes croiront spontanément que la vaccination cause l’autisme, que les OGM sont dangereux ou que le réchauffement climatique est un canular, pour reprendre trois des exemples cités par Lewandowsky et ses trois collègues américano-australiens.

« Il y a un coût social à la désinformation », écrivent les auteurs. Arrive un moment où une fausse croyance est si bien enracinée qu’elle influence les décisions politiques. Et sachant cela, des groupes bien organisés peuvent arriver à répandre de fausses informations, par le biais des médias, de la rumeur publique et même des politiciens : c’est le mécanisme qu’on a vu à l’œuvre dans les années 1980 chez les défenseurs du tabac et, depuis les années 1990, chez les climatosceptiques.

Les solutions qui en découlent sont donc à l’envers de ce qui est couramment défendu par les scientifiques : se contenter de « démythifier », ce qui serait le réflexe premier des scientifiques, n’est guère utile si la croyance est déjà profondément enracinée. Il faut travailler en amont, notamment — quand c’est possible — en prévenant les gens que « l’information qu’ils vont recevoir peut être trompeuse ».

Les avertissements peuvent induire un état temporaire de scepticisme, qui peut maximiser l’aptitude des gens à discriminer entre une vraie et une fausse information.

Une autre piste de solution est de fournir une « explication alternative » aux causes d’un événement. Cela peut permettre d'ouvrir une voie de sortie à certaines personnes qui ont entendu dire que leur information était fausse, mais qui ne savent pas comment en « décrocher ».

Combattre les mythes peut avoir l’effet contraire

On doit aussi à Stephan Lewandowsky The Debunking Handbook, un livret de 8 pages qui vise à faire comprendre aux scientifiques que ce qui importe, ce n’est pas juste de s’attaquer aux fausses croyances, mais de se demander pourquoi telle croyance est bien enracinée. Si on n'en comprend pas les causes, se contenter de pointer les erreurs et les mythes peut avoir un effet contraire à celui souhaité (backfire effect).

Pour en savoir plus :

- L’étude : Misinformation and Its Correction. Continued Influence and Successful Debiasing.

- Lire aussi ce billet : La vulgarisation en retard sur la psychologie.