Le biais de proportionnalité est notre tendance à associer des effets de grande ampleur à des causes tout aussi importantes.
Lorsqu’un événement marquant se produit, notre esprit refuse spontanément l’idée qu’une cause mineure puisse en être responsable.
Qu’est-ce que le biais de proportionnalité ?
Le biais de proportionnalité se présente sous deux formes distinctes. Dans la première forme, nous associons instinctivement la gravité d’un événement à celle de sa cause : plus l’événement est grave, plus nous attendons une explication d’égale ampleur¹. Dans la seconde forme, nous supposons que si les manifestations d’un phénomène augmentent, le phénomène lui-même se répand, sans tenir compte du fait que cette progression peut résulter d’une amélioration des outils de détection².
Notre cerveau cherche naturellement une symétrie entre cause et effet, même lorsque les données orientent vers une interprétation différente. En effet, cette recherche de cohérence narrative s’opère de manière automatique, avant même que nous ayons examiné les preuves disponibles.
L’illusion de la causalité proportionnelle
Notre intuition refuse que des événements de grande ampleur puissent avoir des origines modestes. Lors de la crise financière de 2008, la faillite de Lehman Brothers a été largement perçue comme la cause directe du séisme économique mondial, ce qui a alimenté des scénarios de manipulation délibérée par les grandes banques internationales. Or les économistes Reinhart et Rogoff, dans leur analyse comparative de huit siècles de crises financières, ont mis en lumière une configuration récurrente : la véritable origine résidait dans des années d’accumulation structurelle, notamment l’expansion du crédit subprime depuis le début des années 2000 et la titrisation massive de dettes à risque élevé³.
Le biais de proportionnalité joue un rôle documenté dans notre propensité à adhérer aux théories conspirationnistes. Les chercheurs en psychologie sociale ont montré que plus un événement perturbe notre quotidien, plus nous cherchons une explication à la mesure de son impact⁴. Notre cerveau rejette les scénarios simples lorsqu’ils ne semblent pas à la hauteur de ce qui s’est passé, même si aucune preuve ne vient étayer une version plus complexe.
On retrouve un mécanisme voisin dans les corrélations illusoires que nous établissons entre événements : nous attribuons automatiquement une cause proportionnelle à un effet visible, même en l’absence de lien causal réel.
Le piège de l’observation
La seconde forme du biais concerne notre interprétation des données chiffrées. Nous tendons à confondre une augmentation des détections avec une augmentation réelle du phénomène observé, sans isoler les variables en jeu.
En France, les panoramas annuels publiés par l’ANSSI (Agence nationale de la sécurité des systèmes d’information) témoignent d’une hausse marquée du nombre d’incidents déclarés depuis la création de l’agence en 2009. De nombreux observateurs en déduisent que la menace informatique a connu une croissance exponentielle. Or plusieurs facteurs structurels expliquent cette progression : la transposition de la directive européenne NIS en 2018 a rendu obligatoire la déclaration d’incidents pour les opérateurs d’infrastructures critiques, ce qui a entraîné une hausse considérable du nombre de signalements, et les outils de détection se sont profondément améliorés depuis lors⁵·⁶.
Comment se manifeste ce biais au quotidien ?
Dans les domaines économique, technologique et environnemental, ce biais pousse régulièrement à surestimer la gravité des causes en fonction de la visibilité des effets. Les études suggèrent que cette tendance s’amplifie lorsqu’un événement fait l’objet d’une couverture médiatique importante, ce qui renforce l’impression que son origine ne peut être ordinaire⁴. On retrouve un mécanisme voisin dans le biais de disponibilité, où les événements les plus frappants semblent plus fréquents qu’ils ne le sont réellement.
Comment identifier et dépasser le biais de proportionnalité ?
La prise de conscience reste le premier outil. Lorsqu’un événement nous semble grave et que nous cherchons une cause à sa mesure, il vaut la peine de s’interroger : est-ce que je suppose cette cause parce que les données le justifient, ou parce que l’ampleur de l’événement me semble incompatible avec une explication simple ?
Plusieurs stratégies peuvent aider à contrer cette tendance :
- Consulter les données brutes plutôt que de se fier à l’impression subjective de l’ampleur d’un phénomène, en vérifiant si une évolution réelle existe indépendamment des outils de mesure utilisés,
- Distinguer systématiquement entre une augmentation de détections et une augmentation réelle, en prenant en compte les évolutions technologiques et méthodologiques qui accompagnent les changements d’observation.
Gérald Bronner, dans ses travaux sur les croyances collectives, souligne que notre cerveau opère naturellement ce raccourci cognitif pour simplifier la réalité¹. La vigilance ne vise pas à éliminer ce biais, ce qui reste difficile, mais à l’identifier suffisamment tôt pour ajuster notre jugement.
Références
- ¹ Bronner, G. (2013). La démocratie des crédules. Paris : PUF.
- ² Ouatik, B. (2019). « Pourquoi croit-on les fausses nouvelles ? ». Radio-Canada, 5 juin 2019.
- ³ Reinhart, C. & Rogoff, K. (2010). Cette fois c’est différent : huit siècles de folie financière. Princeton : Princeton University Press.
- ⁴ Chen, A. (2015). « ‘Suspicious Minds,’ by Rob Brotherton ». The New York Times, 31 décembre 2015.
- ⁵ ANSSI. (2023). Panorama de la menace cybernétique 2022. Paris : Agence nationale de la sécurité des systèmes d’information.
- ⁶ Heredia, R. (2020). « Valider l’information à l’aide d’éléments métacognitifs et scientifiques ». Prof & Doc, académie de Besançon.




