Arrêtez vos biais-tises

Published by

on

Les théories néoclassiques économiques ont cherché à modéliser un comportement rationnel, amenant à la théorie du choix rationnel. Si les économistes étaient satisfaits des résultats de cette théorie, ils se sont rendu compte qu’elle prédisait mal certains choix faits par les êtres humains. En somme, les meilleurs choix sont les choix rationnels modélisés par les théories néoclassiques, et les choix humains sont sous-performants, faisant des erreurs de choix qui sont parfois systématiques, appelés des biais.

Pourtant, cette vision des choix « rationnels et biaisés » était déjà critiquée par les chercheurs en économie… dès leur mise en évidence. Simon (1979, 1989) voulait inciter les chercheurs à remettre en question l’idéal de la théorie de l’utilité espéré en étudiant les choix dans des situations réelles, plutôt que dans des situations de scénarios imaginaires. Sans beaucoup de succès.

Le programme des « heuristiques et biais », qui s’est développé dans les années 80, a permis aux chercheurs de négliger les critiques émises sur la modélisation de la rationalité, pour se focaliser sur les déviations systématiques de cette rationalité.

Le programme développe 4 arguments d’irrationalité :

  • Manque de rationalité : les individus sont systématiquement biaisés.
  • Persistance : les biais ne sont pas corrigibles par l’éducation.
  • Coût substantiel : les biais entraînent des coûts importants pour l’individu (sa santé, ses finances, son bonheur) et pour la société.
  • Justification du paternalisme : les états peuvent protéger les individus de ces biais en les guidant vers les bons choix.

La plupart des études en économie expérimentale ne prennent pas en compte les contextes, en particulier le contexte social du choix. La plupart des études en psychologie ou sociologie ne prennent pas en compte le fait que l’irrationalité n’est définie qu’en contradiction avec les théories rationnelles des théories néoclassiques, et non pas selon une définition « humaine » de la rationalité.

Cela amène à des malentendus désastreux. L’exemple emblématique des biais cognitifs est l’aversion à la perte : le fait que la perte ait un impact plus important que le gain. Pourtant, les connaissances actuelles indiquent que l’aversion à la perte n’existe que dans des scénarios et des contextes très réduits, que dans d’autres il y a une aversion au gain, et que nous n’avons pas de compréhension claire des raisons de ces changements (Gal & Rucker, 2018). En 2024, Spektor et al. concluaient “des recherches supplémentaires sont nécessaires pour établir comment les comportements des individus [en cadre de perte et de gain] sont affectés par la dépendance au contexte “dans la nature” (autrement dit, en dehors du contrôle des scénarios en laboratoire).”

Pourtant, une vaste majorité des chercheurs en économie et en psychologie pensent que l’aversion à la perte est un biais cognitif robuste et généralisable.

Il est donc nécessaire d’examiner les quatre arguments d’irrationalité pour montrer qu’ils ne sont pas aussi importants que supposés par l’économie comportementale et par ceux qui s’en servent sans en comprendre le manque de robustesse.

Tversky et Kahneman, en train de révolutionner le monde de l’économie comportementale.

Le manque de rationalité

Entre les années 1940 et 1980, les chercheurs, économistes comme psychologues, voyaient les humains comme fortement rationnels. Lorsque l’on donne aux individus du temps et une opportunité d’apprendre de leurs erreurs, ils arrivent à ne presque jamais se tromper dans leurs choix.

Lorsque Kahneman et Tversky, en 1974, renversent le paradigme en indiquant que les humains font systématiquement des choix qui violent les lois de probabilité, ils ont surpris leurs contemporains. Leur résultat s’explique pourtant essentiellement par l’utilisation d’une « nouvelle » méthode de test, dans laquelle les chercheurs font passer des descriptions de scénarios imaginaires (plutôt que des choix concrets basés sur des gains/pertes d’argent), et en une seule fois (one shot), ce qui empêche toute forme d’apprentissage.

Pourtant, leur programme de biais cognitif s’est imposé pour plusieurs raisons :

–        Le coût des recherches était bien moins élevé, car il n’y avait plus besoin de payer de bonus aux participants selon leur réussite

–        Le temps pour acquérir des données était réduit, car il n’y avait plus besoin de faire des dizaines voir des centaines d’essais par participant.

–        Cela permettait aux chercheurs de développer de nouvelles lignes de recherches prometteuses pour leur carrière

Ainsi, les chercheurs sont passés d’une vision de l’individu comme fortement rationnel à des individus systématiquement biaisés dans leurs choix uniquement par un changement dans les méthodes d’expérimentation, à tel point que Thalers, en 1991, dira « Les illusions mentales doivent être considérées comme la règle plutôt que comme l’expression ». Alison Gopnik posa la question : « Pourquoi les adultes sont-ils souvent si stupides en matière de probabilités alors que même les bébés et les chimpanzés peuvent être si intelligents ? » (repris par Gutíerrez, 2014). La réponse se trouve essentiellement dans les méthodes utilisées pour comprendre les raisonnements statistiques.

Mais qu’est-ce qu’un biais ?

Un biais est un écart systématique entre le jugement (moyen) d’une personne ou un groupe et une valeur théorique. La plupart des biais statistiques sont définis comme des écarts par rapport à des principes statistiques (utilité espérée, probabilités bayésiennes etc).

Cependant, ces principes ne peuvent pas être appliqués à toutes les situations et tous les comportements, et sont déjà difficilement transposables à l’extérieur de choix économiques (où du moins, faudrait-il le prouver). Ainsi, il y a une tendance à généraliser des principes issus de théories économiques à des contextes non-économiques, ou encore, à avoir un biais du biais.

Le biais du biais est la tendance à voir des biais dans des comportements issus de contexte dans lequel il y a des erreurs non systématiques ou non vérifiables.

Pourquoi des chercheurs, des « membres » d’esprit critique, ou des coachs en développement personnes peuvent développer des « biais de biais » ?

En premier, la théorie des biais cognitifs est centrale dans l’économie comportementale et a modifié durablement les manières de voir le monde d’économistes et psychologues. S’il n’y a pas de déviation vis à vis de la théorie du choix rationnel, soit parce que la théorie est trop limitée, soit parce que ces déviations ne sont pas systématiques, alors l’ensemble de l’économie comportementale s’effondre.

En second lieu, il y a un principe de validation de ses croyances (certains diraient un biais de confirmation) : Si je crois être en capacité de comprendre pourquoi les autres agissent mal grâce à mes connaissances en biais cognitifs, alors je vais définir leurs comportements systématiquement à travers ma connaissance des biais cognitifs.

Ce n’est pas nouveau. Popper en 1919 relate cette discussion avec Alfred Adler, père de la psychanalyse (Décrite dans Angner, 2023):

Une fois, en 1919, je lui rapportai un cas qui ne me paraissait pas particulièrement Adlérien, mais qu’il n’eut aucune difficulté à analyser d’après sa théorie des sentiments d’infériorité, bien qu’il n’eût même pas vu l’enfant. Légèrement choqué, je lui ai demandé comment il pouvait en être si sûr. — j’ai au moins mille expériences similaires, répondit-il ; Sur quoi je ne pus m’empêcher de dire : « Et avec ce nouveau cas, je suppose, votre expérience est de mille et une fois. »

 Une troisième explication est la relation économique et de pouvoir liés à cette vision du monde : il est possible de monétiser des interventions sociales (type Nudge), des formations aux biais cognitifs, d’utiliser les biais cognitifs comme manière d’être une « meilleure version de soi-même » mais aussi de critiquer des opposants politiques, voir opposants dans le domaine de la justice, par exemple en indiquant que des témoins ont été victimes de biais cognitifs.

Vignette de la vidéo Youtube « TOP 10 BIAIS COGNITIFS UTILISES PAR LES POLITIQUES PENDANT LES ÉLECTIONS » de Biais Business

L’objectif de ce billet n’est pas de dire que les biais cognitifs n’existent pas, mais que l’on peut facilement voir des biais partout, et en particulier dans des contextes sur lesquels on observe principalement du bruit (des choix et jugements qui ne sont ni liés à une norme théorique, ni systématiques), ou des erreurs non systématiques. Il y a des cas clairement définis dans lesquels nous agissons contre une norme de rationalité. Mais ces cas sont difficilement généralisables, et les biais ne sont pas aussi persistants que ce que l’on a cru par le passé.

La persistance du biais cognitif

 La croyance que les biais cognitifs sont persistants sont en lien avec la théorie du système 1 système 2 de Kahneman. En somme, le système 1 n’est pas possible à éduquer, ayant des bases biologiques profondes, et notre capacité à nous débiaiser limitée. La métaphore utilisée est celle des illusions d’optique : même si nous connaissons l’illusion, nous continuons à la voir. Il en est de même pour nos illusions de jugement.

Sauf que…

1) l’exemple des illusions visuelles prouve en réalité que nous ne sommes pas irrationnels.

2) contrairement aux illusions visuelles, on peut améliorer notre raisonnement statistique.

Les illusions visuelles :

Il n’est pas possible de voir en trois dimensions avec un œil en deux dimensions. C’est ainsi que l’humain arrive, grâce à un processus complexe d’inférence entre la mémoire, et la visualisation des deux yeux, à créer une vision, à l’intérieur du cerveau. Ainsi, il est extrêmement difficile de piéger le cerveau dans des illusions d’optique. L’essentiel de ce qu’on voit… n’est pas biaisé. Pour reprendre les mots de Shepard (1990), « tromper un système visuel qui a une vue binoculaire complète et librement mobile d’une scène bien éclairée est presque impossible ». On est loin d’une comparaison avec la vision de biais généralisé à toutes les décisions et jugements. Les biais visuels n’existent que dans des cas très précis qui n’existent pas dans notre quotidien. Ils ne sont pas des erreurs systématiques qui existent à chaque fois que l’on regarde quelque chose, contrairement à la généralisation qui est faite des biais cognitifs. Si l’on appliquait réellement les illusions visuelles aux biais cognitifs, on ne devrait pas l’appliquer aux décisions quotidiennes. Autrement dit, la comparaison avec les illusions visuelles nous amène à penser que les biais cognitifs sont limités dans leur potentiel d’explication de nos choix au quotidien.

Le raisonnement statistique :

En 1972, Kahneman et Tversky indiquent que « les humains n’ont aucun raisonnement bayésien ». Cette phrase est correcte uniquement si 1) les individus n’ont aucune connaissance statistique et 2) n’ont pas l’ensemble des informations nécessaires pour effectuer des probabilités conditionnelles. L’essentiel des expérimentations sur le sujet sont sur des thèmes pour lesquels les individus n’ont pas d’expérience où sont suffisamment complexes pour que leur expérience ne s’applique pas bien.

Par exemple, comparons ces deux scénarios :

Supposons qu’à partir de statistiques antérieures sur une certaine population, ce qui suit est connu. À tout moment, 1 % des femmes ont un cancer du sein. Le test administré est correct dans 90 % des cas.Si la femme a un cancer, il y a une probabilité de 90 % que le test soit positif et une probabilité de 10 % qu’il soit négatif. Si la femme n’a pas de cancer, il y a une probabilité de 10 % que le test soit positif et une probabilité de 90 % qu’il soit négatif. Supposons qu’une femme ait un test positif lors d’une mammographie de dépistage de routine. Sans connaître d’autres symptômes, quelle est la probabilité qu’elle ait un cancer du sein ?Sur 100 personnes, on s’attend à ce que 10 soient atteintes d’une maladie. Parmi ces 10 personnes, neuf devraient être correctement testées positives. Parmi les 90 personnes non atteintes de la maladie, neuf devraient être faussement testées positives. Quelle est la proportion de personne dont le test est positif qui ont réellement la maladie ? 

Le premier scénario a été plusieurs fois utilisé dans des études en économie comportementale, tandis que le second presque aucune fois (Hoffrage et al., 2000). Pourtant, le premier scénario indique systématiquement une surestimation drastique de la probabilité (la probabilité est de 8% alors que les personnes indiquent une probabilité autour de 80 à 90%), amenant à la « découverte » du biais de négligence du taux de base, tandis que pour le second scénario, les participants ne se trompent que rarement dans la probabilité (9/(9+9) = 50%).

Pourquoi dans un scénario, il y a une différence énorme entre les probabilités réelles et perçues et pas dans le second scénario ? Le second scénario est écrit dans un langage facilement compréhensible par les humains, selon une règle de « fréquence naturelle » tandis que le premier est écrit selon une règle de probabilité conditionnelle, nécessitant un entraînement spécifique aux statistiques. Le biais existe (il y a une erreur systématique par rapport à la valeur probabiliste) uniquement dans le scénario de probabilité conditionnelle, parce qu’il est écrit dans un style de langage difficilement compréhensible. 

En 2007, Gigerenzer et al. ont montré que seulement 21% des 160 gynécologues arrivaient à correctement évaluer un test positif selon les probabilités conditionnelles, mais 87% d’entre eux ont évalué correctement les risques associés au test positif avec des fréquences naturelles, pour les mêmes probabilités.

S’il y a un biais, il se trouve dans la présentation du scénario plutôt que dans les cognitions des êtres humains. On parle d’ailleurs de « debiasing effect » pour parler de la possibilité de retirer le biais en présentant l’information de manière plus humaine.

En conclusion, il n’y a pas vraiment de persistance des biais cognitifs s’il suffit de présenter l’information différemment pour l’annuler, ce qui est valable pour beaucoup de biais cognitifs.

Les coûts des biais

Les biais cognitifs sont des justifications faciles pour expliquer pourquoi les citoyens ne se comportent pas correctement, que cela soit pour expliquer pourquoi ils sont obèses, fument, ne font pas preuve de civisme, où ne se comportent pas écologiquement.

Il est par exemple plus facile de dire que l’addiction au tabac provient d’une négligence des probabilités de décès plutôt que par l’agressivité marketing de l’industrie du tabac.

Les anti-vaccins sont victimes de biais cognitifs (Slate, 2018).
Mais les pro-vaccins aussi, et le gouvernement se sert des biais cognitifs pour vous convaincre (LeHuffPost, 2022). Du coup, je ne sais plus qui est victime de biais cognitifs ?

En 2010, Schneider avait écrit qu’il était facile d’expliquer la crise financière de 2008 à travers au moins 17 biais cognitifs des investisseurs.

De nombreux politiciens et chercheurs en économie pensent que les pauvres le sont à cause de leurs biais cognitifs, les amenant à faire de mauvais choix. Pourtant, la méta-analyse de Ruggeri et al. (2022) indique clairement qu’il n’y a aucun lien entre statut socio-économique et biais cognitif, peu importe le pays (27 pays testés).

De manière plus générale, il est dangereux de discuter de sujets collectifs à travers les biais cognitifs. Les biais cognitifs se situent au niveau individuel, niant les relations de pouvoir, les status économiques, le cadre démocratique qui entourent les décisions collectives, remettant les conditions d’existence aux seuls choix individuels.

C’est la raison pour laquelle les industries font systématiquement appels aux biais cognitifs pour influencer les politiques globales : il faut « penser » à éteindre la lumière et fermer le robinet, il faut « adopter un comportement responsable et préférer le vélo à la voiture », il faut « manger 5 fruits et légumes par jour ». L’agenda politique préfère toujours faire de la prévention des comportements individuels, plutôt que de réguler le marché en utiliser la taxation (Chater & Loewenstein, 2022), quitte à prendre des libertés avec les potentiels de généralisation des biais cognitifs.

Il n’y a aujourd’hui aucune preuve que les biais cognitifs ont un coût social, car 1) les chercheurs sont victimes de biais du biais : voir les coûts comme provenant des biais cognitifs alors qu’ils peuvent venir d’autres facteurs et 2) Les biais sont définis comme des déviations de jugement à partir d’une règle ou logique statistique dans un contexte de laboratoire, et n’ont pas nécessairement d’impact sur la santé, les finances ou le bonheur dans la vraie vie (Gigerenzer, 2018).

En finir avec une vision paternaliste.

La croyance bien ancrée qu’il y a un manque de rationalité, persistant, et avec des coûts pour la société, a permis de développer une vision paternaliste des croyances.

Il y a ceux qui savent comment bien penser (les politiciens, les chercheurs en économie comportementale et psychologie sociale, les coachs et formateurs en esprit critique), et ceux qui sont victimes de leurs biais, qu’il faut alors guider grâce aux connaissances poussées de la décision humaine.

La critique à la fois de la théorisation du biais cognitif, du manque de généralisation des procédures ayant montré les biais et du manque d’efficacité des nudges, les coups de pouces censés modifier ces comportements, amènent à repenser l’intérêt de cette vision des comportements.

Plutôt que de développer une vision paternaliste du choix, il est possible d’amener les citoyens à fixer leurs propres objectifs, par exemple en enseignant les fréquences naturelles à l’école, développer des heuristiques de choix efficaces dans le domaine de la santé, des finances ou dans l’utilisation des médias sociaux. Dans la littérature scientifique, on parle de « boosting » en opposition de « nudging ».

Conclusion

Les biais cognitifs existent. Ils sont des déviations systématiques par rapport à une norme ou une valeur théorique en contexte de choix ou de jugement essentiellement statistiques.

Ils ne sont pas ou peu généralisables en dehors de ce contexte, et pour beaucoup, on se rend de plus en plus compte qu’ils ne sont pas si systématiques que ça. C’est par exemple le cas de l’aversion à la perte (Voir l’exemple au-dessus). On Peut aussi citer le biais de conjonction, dont Linda, ayant un master en philosophie, aurait plus de probabilité d’être féministe et secrétaire de banque que d’être seulement féministe ou seulement secrétaire de banque. Chandrashekar et al. (2021) ont réussi à parfaitement répliquer l’effet de ce scénario, mais ont testé un scénario presque identique, remplaçant le nom et le métier du personnage, et le biais avait complètement disparu. 

Pourtant, les biais cognitifs ont été utilisés pour expliquer toutes sortes de comportements, pour la plupart sans aucun lien avec une norme statistique, pour satisfaire un “biais de biais”, une volonté d’expliquer les comportements et choix de chacun par le fait que “notre  cerveau nous trompe”. Si l’idée est séduisante, elle ne correspond ni à la définition d’un biais cognitif, ni à une systématisation du choix, bien au contraire. 

Un dernier mot sur le biais cognitif le plus facile à utiliser, le biais de confirmation. Il permet de tout expliquer : les pensées conspirationnistes, les utilisations d’alternative à la médecine, la polarisation politique, etc, la dernière partie du biais est toujours négligé. En fait, le biais ne s’appelle pas un biais de confirmation de croyance, mais un biais de confirmation d’hypothèse. Dès l’origine de la découverte du biais par des chercheurs en psychologie (Johnson-Laird, 1972, Mynatt et al. 1977), les chercheurs se sont demandés si les individus testaient un certain type de jugement plutôt qu’un autre, et non pas s’ils testaient des croyances à confirmer.  À ce sujet, le biais de confirmation est d’ailleurs difficile à mettre en évidence, les recherches mentionnées ci-dessus ont d’ailleurs été répliquées sans succès par la suite (Koslowski et Maqueda, 1993).

En fait, il n’existe aujourd’hui aucune preuve d’existence d’un biais cognitif qui ressemblerait à un biais de confirmation, car l’ensemble des “erreurs” de confirmation n’ont jamais réussi à être prouvé comme systématique. 

Marion Vorms concluait en 2021 dans l’article le biais de confirmation en question « en l’absence d’une norme claire vis-à-vis de laquelle une infraction systématique serait établie, et dans la mesure où un modèle normatif qui, à terme, maximise l’exactitude des représentations semble compatible avec les réponses des participants, rien n’autorise, semble-t-il, à conclure à l’irrationalité. En bref, il ne semble pas rester grand-chose, au terme de ce tour d’horizon, en faveur de l’existence de biais [de confirmation]”.

Très recemment, des chercheurs ont indiqué que le wishful thinking, des croyances optimistes liées au biais de confirmation, est compatible avec les probabilités bayésiennes, ce qui peut indiquer que la confirmation d’hypothèse serait… rationnelle (Melnikoff & Strohminger, 2024).

*Certains préfèrent le terme assimilation biaisée qui faire référence à un biais de croyance. Certains parlent aussi de biais idéologiques. La définition de ces termes reste floue et ils n’ont aucun rapport avec les biais cognitifs, car ils ne sont pas systématiques et pas généralisables. Que signifie biais dans ce sens? Quelle est la norme ? Qui la définit et comment est-elle définie ?

**Notez que l’exemple en image de la vaccination illustre également le propos de l’échec des politiques de santé publique. Plutôt que d’éduquer les citoyens au fonctionnement et à l’importance de la vaccination pour protéger toute la population, et à l’obligation vaccinale, le gouvernement préfère utiliser des « spots de prévention » utilisant des « biais cognitifs ». Comme ça, si les citoyens ne se font pas vacciner, ce n’est pas le problème du gouvernement, mais des citoyens qui « pensent mal ».

Référence

  • Angner, E. (2020). A Course in Behavioral Economics. Red Globe Press.
  • Chandrashekar, S. P., Cheng, Y. H., Fong, C. L., Leung, Y. C., Wong, Y. T., Cheng, B. L., & Feldman, G. (2021). Frequency estimation and semantic ambiguity do not eliminate ‎conjunction bias, when it ‎occurs : Replication and extension of ‎Mellers, Hertwig, and Kahneman (2001)‎. Meta-psychology, 5. https://doi.org/10.15626/mp.2020.2474
  • Chater, N. & Loewenstein, G. (in press). The i-frame and the s-frame: How focusing on individual-level solutions has led behavioral public policy astray. Behavioral and Brain Sciences. DOI: https://doi.org/10.1017&am
  • Gal, D., & Rucker, D. D. (2018). The loss of loss aversion: Will it loom larger than its gain? Journal of Consumer Psychology, 28(3), 497–516. https://doi.org/10.1002/jcpy.1047
  • Gigerenzer, G., W. Gaissmaier, E. Kurz-Milcke, L. M. Schwartz, and S. Woloshin. 2007. “Helping doctors and patients to make sense of health statistics”. Psychological Science in the Public Interest. 8: 53–96. doi:10.1111/j.1539-6053.2008.00033.x.
  • Gigerenzer, G. (2018). The Bias Bias in Behavioral Economics. Review of Behavioral Economics.5: 303–336
  •  Hoffrage, U., S. Lindsey, R. Hertwig, and G. Gigerenzer. 2000. “Communicating statistical information”. Science. 290: 2261–2262.
  • Johnson-Laird P. N. Legrenzi P. Legrenzi M. S. (1972). Reasoning and a sense of reality. British Journal of Psychology 63, 395–400.
  • Kahneman, D. and A. Tversky. 1972. “Subjective probability: A judgment of representativeness”. Cognitive Psychology. 3: 430–454.
  • Koslowski, B., & Maqueda, M. (1993). What Is Confirmation Bias and When Do People Actually Have It. Merrill-palmer Quarterly, 39, 104-130.
  • Melnikoff, D.E., Strohminger, N. Bayesianism and wishful thinking are compatible. Nat Hum Behav (2024). https://doi.org/10.1038/s41562-024-01819-6
  • Ruggeri, K., Ashcroft-Jones, S., Abate Romero Landini, G., Al-Zahli, N., Alexander, N., Andersen, M. H., … Stock, F. (2022, August 28). Poor but not by choice (s): The persistence of cognitive biases across economic groups. https://doi.org/10.31234/osf.io/mrxy6
  • Simon, H. A. 1979. “Information processing models of cognition”. Annual Review of Psychology. 30: 363–396.
  • Simon, H. A. 1989. “The scientist as problem solver”. In: Complex information processing: The impact of Herbert A. Simon. Ed. by D. Klahr and K. Kotovsky. Hillsdale, NJ: Erlbaum. 375–398.
  • Spektor, M. S., Kellen, D., Rieskamp, J., & Klauer, K. C. (2024). Absolute and relative stability of loss aversion across contexts. Journal of Experimental Psychology: General, 153(2), 454–472. https://doi.org/10.1037/xge0001513
  • Tversky, A. and D. Kahneman. 1974. “Judgment under uncertainty: Heuristics and biases”. Science. 185: 1124–1131.
  • Mynatt, C. R., Doherty, M. E., & Tweney, R. D. (1977). Confirmation Bias in a Simulated Research Environment : An Experimental Study of Scientific Inference. Quarterly Journal Of Experimental Psychology, 29(1), 85‑95. https://doi.org/10.1080/00335557743000053
  • Vorms, M. (2021). Bayes et les biais. Le « biais de confirmation » en question. Revue de métaphysique et de morale, 112, 567-590. https://doi.org/10.3917/rmm.214.0567

Titres alternatifs non validé par la direction:

  • Être biaisés par les biais cognitifs
  • Voir tout par le prisme des biais cognitifs
  • L’explication fourre-tout des biais cognitifs
  • Comment les biais-cognitifs m’ont (bien) biaisé
  • To biais or not to biais
  • Se tirer une balle dans le biais
  • Biaise Pascal
  • La voie du biais n’était pas la bonne
  • Vous n’avez rien compris aux biais ❌
  • Biaise qui peut
  • Une bonne grosse biaise
  • Le biaisodrome
  • Les biais nickelés
  • Abiaiser sa garde
  • Arrêtez vos biais-tises
  • Prendre son biais
  • Les biaiseurs de maman (notons que beaucoup de ces idées viennent de Marine, pas merci à elle).

Merci à Nathanael Larigaldie et Marine Teyssou Mathieu pour l’aide et la relecture attentive.

Laisser un commentaire