La tyrannie des experts (présumés) – AIER

Détrompez-vous si vous pensez que les contrôles draconiens recommandés par quelques (mais loin de tous) experts médicaux sauvent de nombreuses vies avec COVID-19. Les faits rapportés par le mathématicien Yitzhak Ben Israel de l'Université de Tel Aviv ne soutiennent pas de telles croyances.

Le professeur Israël a constaté que peu importe combien ou peu de politiciens mettaient la population en quarantaine, «le coronavirus atteignait son apogée et diminuait de la même manière». Que le pays se soit appuyé sur des politiciens pour fermer le pays (États-Unis et Royaume-Uni, par exemple) ou sur des actions volontaires privées (Suède), le travail du professeur Israël montre que «tous les pays ont connu des schémas d'infection à coronavirus apparemment identiques, le nombre de la sixième semaine et s'estompant rapidement d'ici la huitième semaine. »

En bref, les mesures coercitives imposées pour protéger le public contre le COVID-19 sont aussi efficaces que de jeter de la «poussière de tigre» magique dans Central Park pour tenir les tigres à distance à Manhattan.

Pourquoi sommes-nous si amoureux des experts et de leur poussière de tigre? Simplement, nous ne comprenons pas la faillibilité inhérente aux êtres humains. Les experts bien intentionnés peuvent être aussi destructeurs que les politiciens autoritaires.

Le prix Nobel Daniel Kahneman est économiste comportemental et psychologue. Dans son livre Penser, vite et lentement, écrit-il, « Chaque question politique implique des hypothèses sur la nature humaine, en particulier sur les choix que les gens peuvent faire et les conséquences de leurs choix pour eux-mêmes et pour la société. » Des hypothèses erronées ou non examinées corrompent la prise de décision.

Les experts ont des biais cognitifs

Dans Penser, vite et lentement, Kahneman répertorie les nombreux biais cognitifs affectant les êtres humains. Kahneman et son défunt partenaire de recherche Amos Tversky « ont documenté des erreurs systématiques dans la pensée des gens normaux, et (ils) ont retracé ces erreurs à la conception de la machinerie de la cognition plutôt qu'à la corruption de la pensée par l'émotion. » En bref, des «erreurs graves et systématiques» dans la cognition nous empêchent d’être les penseurs rationnels que nous aimerions penser être.

Rapportant le travail du psychologue Paul Slovic, Kahneman écrit: «(Le slovène) en sait probablement plus sur les particularités du jugement humain sur le risque que tout autre individu.»

Slovic a trouvé que «une heuristique affective» conduit les gens à «laisser leurs goûts et dégoûts déterminer leurs croyances sur le monde». Si vous êtes partisan d'une action gouvernementale forte pour lutter contre le coronavirus, vous penserez que «les avantages sont substantiels et ses coûts plus gérables que les coûts des alternatives», comme s'appuyer davantage sur des ajustements volontaires des entreprises et du public.

Kahneman écrit: «L'heuristique d'affect est un exemple de substitution, dans lequel la réponse à une question facile (comment je m'en sens?) Sert de réponse à une question beaucoup plus difficile (qu'en pense-je?).»

La couverture médiatique de l'impact du coronavirus est «biaisée vers la nouveauté et le caractère poignant». La réaction émotionnelle qui en résulte façonne nos estimations du risque; beaucoup craignent les conséquences si des actions draconiennes ne sont pas imposées par le gouvernement.

Si vous pensez, c'est pourquoi nous devons confier ces décisions à des experts, vous vous trompez: les experts ont les mêmes biais cognitifs que le reste d'entre nous.

En raison de la partialité des experts, Slovic «résiste fermement à l'idée que les experts devraient gouverner» et nous dissuade de croire que «leurs opinions devraient être acceptées sans aucun doute lorsqu'elles entrent en conflit avec les opinions et les souhaits des autres citoyens».

Kahneman est clair sur les implications du travail de Slovic. Le public et les décideurs politiques experts ont souvent des valeurs contradictoires. Le public fait la distinction entre les types de décès, comme un homme de 90 ans souffrant d'une maladie cardiaque et une mère de 30 ans en bonne santé. Les nuances sont perdues dans les statistiques agrégées.

Kahneman conclut: «Slovic soutient à partir de telles observations que le public a une conception plus riche des risques que les experts.»

Le risque n'est pas objectif. Kahneman écrit: «Dans son désir de confier le contrôle exclusif de la politique des risques aux experts, Slovic a remis en question le fondement de leur expertise. Kahneman cite le slovène:

Le «risque» n'existe pas «là-bas», indépendamment de notre esprit et de notre culture, en attendant d'être mesuré. Les êtres humains ont inventé le concept de «risque» pour les aider à comprendre et à faire face aux dangers et aux incertitudes de la vie. Bien que ces dangers soient réels, il n'existe pas de «risque réel» ou de «risque objectif».

Notre évaluation du risque «peut avoir été guidée par une préférence pour un résultat ou un autre». «La définition du risque est donc un exercice de pouvoir», explique Slovik.

En d'autres termes, quelle que soit la sincérité des experts, leur préférence pour une action décisive de la part du gouvernement faussera leur conception du risque et orientera leurs recommandations politiques.

Ne vous laissez pas berner par l’apparence de confiance des experts. Leur confiance n'est pas une raison pour leur faire confiance. Kahneman prévient: «Les professionnels trop confiants croient sincèrement qu'ils ont une expertise, agissent comme des experts et ressemblent à des experts. Vous devrez vous battre pour vous rappeler qu'ils peuvent être en proie à une illusion. »

L'arrogant ne peut pas résoudre les problèmes

« Notre ignorance donne à réfléchir et sans limites », a observé le philosophe Karl Popper.

Le monde est plein de problèmes difficiles, tels que le coronavirus, et les individus ont une ignorance sans bornes. Il n'est pas surprenant que Popper ait cru: «Il n'y a pas de sources ultimes de connaissances.» Nous pouvons seulement «espérer détecter et éliminer les erreurs». Nous détectons et éliminons les erreurs en permettant la critique des théories des autres et des nôtres.

Popper nous a fourni ce qui pourrait être un credo pour des individus humbles désireux d'admettre les limites de la connaissance individuelle:

À chaque pas en avant, à chaque problème que nous résolvons, non seulement nous découvrons des problèmes nouveaux et non résolus, mais nous découvrons également que là où nous pensions être sur un terrain ferme et sûr, toutes choses sont, en vérité, précaires et dans un état de flux.

Les arrogants ne peuvent pas résoudre les problèmes car ils sont aveugles à leurs limites. Les décideurs, dévorés par l'orgueil, ignorant leur compréhension limitée, ne puisent pas dans les connaissances détenues par les autres.

En vérité, chacun de nous en sait très peu. En tant qu'individus, nous sommes des décideurs faillibles. Nous ne savons pas où les solutions vont émerger, ou comme l'économiste William Easterly nous le dit dans son livre, La tyrannie des experts, «Quelle sera la solution» ou «qui aura la solution».

Diversité cognitive

Dans son livre La sagesse des foules, James Surowiecki explique « il n'y a aucune preuve réelle que l'on puisse devenir expert dans quelque chose d'aussi vaste que la » prise de décision « ou la » politique « . »

Parmi les scientifiques qui font face à un «torrent d'informations» chaque jour, souligne Surowiecki, «la vénération pour les personnes connues s'accompagne généralement d'un dédain pour les personnes moins connues».

Surowiecki ne prétend pas «que la réputation ne devrait pas être pertinente», pourtant la réputation «ne devrait pas devenir la base d'une hiérarchie scientifique». Au lieu de cela, un «engagement résolu envers la méritocratie» alimente la découverte. Dans la crise actuelle, où les voix dissidentes sont exclues, il est difficile de voir comment l'engagement envers la méritocratie est maintenu.

Surowiecki souligne que la «diversité cognitive» est la clé pour former des équipes qui sont plus que la somme de leurs membres. Surowiecki a des conclusions contre-intuitives pour ceux qui croient en la prise de décision par des experts d'élite:

Si vous pouvez rassembler un groupe diversifié de personnes possédant divers degrés de connaissances et de perspicacité, vous feriez mieux de lui confier des décisions importantes plutôt que de les laisser entre les mains d'une ou deux personnes, quelle que soit l'intelligence de ces personnes.

Surowiecki met en garde contre la pensée de groupe qui se produit en groupe, nous insistons sur «le consensus sur la dissidence».

Examiner la prise de décision à la National Aeronautics and Space Administration (NASA) pendant la navette spatiale Columbia catastrophe, Surowiecki a trouvé une leçon abjecte: « Au lieu de rendre les gens plus sages, être en groupe peut en fait les rendre plus stupides. »

Dans cette crise, «les membres de l’équipe ont été invités à maintes reprises à recueillir les informations dont ils avaient besoin pour faire une estimation raisonnable de la sécurité de la navette».

La preuve était là des conséquences potentielles de la grève des débris sur le Columbia Navette.

Pourtant, lors de la réunion du groupe après que des débris ont frappé Columbia, il y avait «l'absence totale de débat et d'opinions minoritaires».

L’équipe aurait pu faire «des choix différents qui auraient pu améliorer considérablement les chances de survie de l’équipage», mais ils «n’ont jamais été sur le point de prendre la bonne décision Columbia.« 

Pourquoi? « Premièrement, l'équipe n'a pas commencé avec un esprit ouvert mais à partir de l'hypothèse que la question de savoir si une frappe de mousse pouvait sérieusement endommager la navette avait déjà été résolue. » Surowiecki explique:

Plutôt que de commencer par les preuves et de travailler vers une conclusion, les membres de l'équipe ont travaillé dans la direction opposée. De manière plus flagrante, leur scepticisme quant à la possibilité que quelque chose ne tourne vraiment pas les a poussés à rejeter la nécessité de recueillir plus d'informations.

Aujourd'hui, pendant la crise des coronavirus, les décideurs ont commencé par conclure que les conséquences humaines sur l'économie sont moins critiques que leurs méthodes préférées pour contenir le virus.

Dans le cas de Columbia, la «conviction que rien n'était mal a limité la discussion et leur a fait écarter les preuves du contraire». Nous tous, y compris les experts, sommes soumis à un biais de confirmation, «ce qui amène les décideurs à rechercher inconsciemment ces informations qui confirment leurs intuitions sous-jacentes».

Dans les équipes d'élaboration des politiques, écrit Surowiecki, «les preuves suggèrent que l'ordre dans lequel les gens parlent a un effet profond sur le cours d'une discussion». Il ajoute: «Les commentaires antérieurs sont plus influents et ont tendance à fournir un cadre dans lequel la discussion se déroule. Comme dans une cascade d'informations, une fois ce cadre en place, il est difficile pour un dissident de le décomposer.  »

Le Dr Anthony Fauci, le Dr Deborah Birx et d'autres recommandant une politique sont des êtres humains faillibles. Comme nous, ces experts ne sont pas en mesure de voir facilement ce qu'ils ne savent pas. Kahneman et Slovic nous diraient qu'ils sont soumis aux mêmes biais cognitifs que les autres êtres humains. Ils et les autres membres de leur équipe ne sont pas exempts de fragilités humaines, telles que le désir de pouvoir. Ils ont tendance à être trop confiants. Leur expertise est probablement «spectaculairement étroite».

Surowiecki nous demande de réfléchir aux raisons pour lesquelles nous «nous accrochons si fermement» à la fausse croyance «que le bon expert nous sauvera». Pourquoi pensons-nous que les bons experts font avancer les choses et démontrent leur expertise supérieure? Surowiecki nous indique une série d'études de ceux qui ont trouvé que «les jugements d'experts n'étaient ni cohérents avec les jugements d'autres experts dans le domaine ni cohérents en interne».

En ne regardant que dans une seule direction, la pensée de groupe est le résultat. Surowiecki prévient que la pensée de groupe «fonctionne moins en censurant la dissidence qu'en faisant paraître la dissidence improbable».

Il existe une alternative aux politiciens et aux experts qui décident de rouvrir le pays. Les décisions prises sur le marché par les entreprises et les particuliers sont naturellement diverses sur le plan cognitif. Munis d'informations non censurées, lorsqu'ils seront libres d'utiliser leurs connaissances et leur sagesse, ils prendront de meilleures décisions que les experts et les politiciens.

Barry Brownstein

Barry Brownstein

Barry Brownstein est professeur émérite d'économie et de leadership à l'Université de Baltimore.
Il est collaborateur senior chez Intellectual Takeout et auteur de The Inner-Work of Leadership.

Soyez informé des nouveaux articles de Barry Brownstein et AIER. SOUSCRIRE

Vous pourriez également aimer...