L’économie dans l’impasse ?

Les économistes sont-ils responsables de la crise ?

Par Mis en ligne le 27 février 2011

À la faveur de la crise, la science éco­no­mique s’est vue remise en cause dans ses pré­sup­po­sés, ses méthodes et ses recom­man­da­tions. A de rares excep­tions – Saint Roubini priez pour nous 1 – les éco­no­mistes ont été sommés par les pro­fanes de s’expliquer sur leur inca­pa­cité à pré­voir l’éclatement de la bulle immo­bi­lière amé­ri­caine et ses consé­quences, voire accu­sés d’avoir promu les idées et les poli­tiques qui ont mené à la plus impor­tante per­tur­ba­tion de l’économie mon­diale depuis la Seconde Guerre Mondiale. Dans Zombie Economics, John Quiggin, éco­no­miste « beha­vio­ra­liste » aus­tra­lien, reprend à son compte cette demande sociale de renou­vel­le­ment, tente d’en trou­ver les jus­ti­fi­ca­tions dans les limites intrin­sèques de la théo­rie éco­no­mique et tire un pre­mier bilan – pes­si­miste – du chemin déjà par­couru par la pro­fes­sion.

Vie, mort et résur­rec­tion des doc­trines éco­no­miques

L’auteur endosse de fait la ver­sion maxi­ma­liste de l’argument. Une réno­va­tion pro­fonde est néces­saire moins parce que les éco­no­mistes ont été inutiles comme obser­va­teurs de l’enchaînement des évé­ne­ments que parce qu’ils en ont été des agents 2 en four­nis­sant les outils intel­lec­tuels des poli­tiques qui ont déman­telé les ins­ti­tu­tions qui ont permis la crois­sance har­mo­nieuses des Trente Glorieuses. De manière par­fois légè­re­ment désin­volte, la crise finan­cière est sys­té­ma­ti­que­ment pré­sen­tée comme le test ultime d’une série d’idées fon­da­men­tales de l’orthodoxie éco­no­mique : l’efficience des mar­chés finan­ciers (les prix des actifs finan­ciers intègrent l’ensemble de l’information per­ti­nente dis­po­nible), la « Grande Modération » (l’économie mon­diale est deve­nue moins vola­tile depuis les années 1980), les modèles sto­chas­tiques d’équilibre géné­ral (l’analyse macroé­co­no­mique doit être fondée sur une ana­lyse des com­por­te­ments indi­vi­duels, « micro­fon­dée » dans le jargon), la vertu des inéga­li­tés (les inéga­li­tés ne posent pas pro­blème dans une éco­no­mie entre­pre­neu­riale flo­ris­sante), la per­ti­nence des pri­va­ti­sa­tions (les res­sources sont uti­li­sées de manière plus effi­cace sous action­na­riat privé).

Ces idées ont en commun d’être des « zom­bies » : alors qu’elles ont mas­si­ve­ment échoué au test de la crise, elles conti­nuent à frap­per depuis le cime­tière où elles devraient avoir été relé­guées, car les habi­tudes intel­lec­tuelles, par rou­tine, par manque d’alternatives immé­dia­te­ment appli­cables, voire par mau­vaise foi, ne sont pas si faciles à éra­di­quer.
L’ouvrage consacre chacun de ses cinq cha­pitres à retra­cer la nais­sance, la vie, la mort et la résur­rec­tion de ces idées mort-vivantes. Ceci dit, bien que les trai­tant de manière ana­logue, l’auteur ne place pas tous ses adver­saires sur un pied d’égalité. L’affirmation selon laquelle la crois­sance rend la ques­tion des inéga­li­tés obso­lète, que résume l’adage « la marée mon­tante sou­lève tous les bateaux » 3 mérite ainsi à peine le titre de théo­rie, tant les sou­bas­se­ments empi­riques lui ont de tous temps fait défaut. De l’évidence selon laquelle une impo­si­tion spo­lia­trice réduit les reve­nus de l’Etat en décou­ra­geant toute acti­vité d’enrichissement per­son­nel, connue sous le nom de courbe de Laffer, a été tirée une « théo­rie » de l’impôt jus­ti­fiant la sup­pres­sion de la pro­gres­si­vité de l’impôt sur le revenu via le rabo­tage des taux mar­gi­naux et célé­brant le rôle moteur des plus riches dans la crois­sance éco­no­mique.

Sa pré­va­lence dans le débat éco­no­mique anglo-saxon puis à un moindre degré euro­péen est impu­tée à sa congruence avec le recul de la capa­cité des Etats à redis­tri­buer les reve­nus dans un monde de capi­taux plus mobiles, d’une part, et au rôle qu’a joué le recours crois­sant à l’endettement des ménages pour occul­ter la crois­sance des inéga­li­tés de reve­nus, en par­ti­cu­lier aux Etats-Unis, d’autre part. Quiggin met en regard la dif­fu­sion des poli­tiques ins­pi­rées des idées de Laffer et la chro­no­lo­gie des inéga­li­tés de revenu, prin­ci­pa­le­ment aux Etats-Unis.

Les années 1980, moment où Reagan met en place son très laf­fé­rien trip­tyque « baisse des impôts, aug­men­ta­tion des dépenses mili­taires, équi­libre bud­gé­taire », marquent le pas­sage de la « Grande Contraction » de l’après Guerre, où selon Quiggin les poli­tiques de redis­tri­bu­tion et de sti­mu­la­tion de la demande ont permis la réduc­tion des inéga­li­tés de reve­nus et l’accession d’une frac­tion crois­sante de la popu­la­tion à la classe moyenne, à la période de la « Grande Divergence » où le fossé recom­mence à s’élargir entre les plus riches et les plus pauvres. L’entreprise de démys­ti­fi­ca­tion atteint son but dans l’ensemble, mais face à une oppo­si­tion aussi faible Quiggin veut pous­ser son avan­tage trop loin en fai­sant de l’évolution des poli­tiques fis­cales le moteur de l’évolution des inéga­li­tés de reve­nus. Peut-être par excès de zèle contre les figures néo­con­ser­va­trices impli­quées dans cette his­toire (la légende veut qu’Arthur Laffer ait pour la pre­mière fois tracé sa fameuse courbe sur une ser­viette en papier au cours d’un déjeu­ner avec Donald Rumsfeld et Dick Cheney), Quiggin en oublie de dis­cu­ter sérieu­se­ment le rôle de l’évolution des tech­no­lo­gies de pro­duc­tion dans l’augmentation des dif­fé­rences de pro­duc­ti­vité et donc de reve­nus, théo­rie autre­ment plus en cours chez les éco­no­mistes. Victoire facile, mais pas tota­le­ment convain­cante, donc.

Le mythe de la « Grande Modération »

Plus pro­bante, car plus fer­me­ment appuyée sur l’exploitation des connais­sances empi­riques, est la réfu­ta­tion de la thèse de la « Grande Modération ». L’argument en est le sui­vant : grâce à une meilleure ingé­nie­rie moné­taire de la part des banques cen­trales et finan­cière de la part des acteurs privés, le temps des fluc­tua­tions éco­no­miques bru­tales est désor­mais révolu. La vola­ti­lité de la pro­duc­tion agré­gée a en effet connu une baisse signi­fi­ca­tive depuis les années 1980, ainsi qu’en témoignent les sta­tis­tiques. Le per­fec­tion­ne­ment de l’industrie de la ges­tion du risque permet à l’économie de sup­por­ter un niveau de risque agrégé plus élevé. Ce type de rai­son­ne­ment, accré­dité par l’autorité entre autres de l’oracle Alan Greenspan, est rendu res­pon­sable du déve­lop­pe­ment incon­trôlé du marché des sub­primes aux Etats-Unis. Quiggin frappe juste, c’est-à-dire à la racine, en démon­trant que la baisse de la vola­ti­lité de la pro­duc­tion est lar­ge­ment un arte­fact sta­tis­tique. Ou plus pré­ci­sé­ment, si baisse du risque agrégé il y a eu, elle n’a rien de conco­mi­tant avec le boom finan­cier des années 1980 et 1990. Pour Olivier Blanchard et John Simon, le déclin de la vola­ti­lité de la pro­duc­tion a com­mencé dans les années 1950, a été inter­rompu dans les années 1970 et au début des années 1980, pour reprendre son rythme de croi­sière du milieu des années 1980 jusqu’à la fin des années 2000. L’impression que le risque macroé­co­no­mique a été éra­di­qué est en large partie due à une erreur de cadrage. Une autre dif­fi­culté de la thèse de la Grande Modération est qu’elle ne prend pas en compte le niveau moyen de crois­sance de la pro­duc­tion. L’écart-type de la pro­duc­tion amé­ri­caine dans les années 1960 était de 2%, contre 1.5% dans les années 1990, certes. Mais la crois­sance moyenne était de 4.3% durant la pre­mière période, contre 3% dans la seconde. Rapportée au niveau de crois­sance, la vola­ti­lité était donc infé­rieure dans les années 1960. En par­ti­cu­lier, la pro­ba­bi­lité impli­cite d’une réces­sion était elle aussi plus faible dans les années 1960. Au-delà de ces consi­dé­ra­tions arith­mé­tiques, les évo­lu­tions de la tech­no­lo­gie de pro­duc­tion ont altéré les impli­ca­tions des cycles éco­no­miques pour les ménages. Les phases de crois­sance forte des années 1990 ont été moins inten­sives en emploi. Non seule­ment le risque agrégé n’a pas dimi­nué, mais l’écart entre celui-ci et le risque sup­porté par les indi­vi­dus et les ménages a, lui, aug­menté.

La réponse amé­ri­caine à cet état de fait a été ce que Quiggin appelle la « culture de l’endettement ». Les ménages se sont endet­tés plus mas­si­ve­ment, ce qui a permis de main­te­nir la consom­ma­tion à des niveaux de crois­sance élevés malgré la rela­tive stag­na­tion des reve­nus. Cette solu­tion a l’inconvénient d’être extrê­me­ment instable car condi­tion­nelle à l’augmentation inin­ter­rom­pue du col­la­té­ral des ménages, c’est-à-dire essen­tiel­le­ment de leurs actifs immo­bi­liers. A ce point de son argu­men­ta­tion, l’ouvrage rejoint les expli­ca­tions conven­tion­nelles de l’inflation et de l’éclatement brutal de la bulle immo­bi­lière amé­ri­caine. La démons­tra­tion emporte la convic­tion, en ce qu’elle recon­naît dans les méca­nismes mêmes qui ont permis la crois­sance amé­ri­caine des années 2000 les sources de la crise. Le crédit à la consom­ma­tion et la poli­tique de sou­tien à l’accès au loge­ment ont en effet sou­tenu l’expansion du sec­teur des ser­vices finan­ciers, lui-même fort moteur de crois­sance. Mais pour reprendre le titre de l’ouvrage de Carmen Reinhart et Ken Rogoff, l’impression que « cette fois c’est dif­fé­rent », que l’ingénierie finan­cière avait atteint un degré de maî­trise du risque sans pré­cé­dent, a empê­ché de prendre la mesure de la fra­gi­lité du nou­veau modèle de crois­sance.
Inefficience des mar­chés ou des inci­ta­tions ?

Des idées plus enra­ci­nées dans la tra­di­tion aca­dé­mique telles que l’efficience des mar­chés finan­ciers ou l’usage de la micro­fon­da­tion des équi­libres macroé­co­no­miques sont des adver­saires plus coriaces contre les­quels Quiggin doit fer­railler plus vigou­reu­se­ment. Ces théo­ries sont essen­tiel­le­ment cri­ti­quées pour avoir été extra­po­lées, pri­vées de mise à l’épreuve empi­rique ou trans­for­mées en agen­das poli­tiques. En adop­tant un point de vue peut-être plus nuancé que celui de l’auteur, l’on peut avan­cer que l’hypothèse d’efficience des mar­chés finan­ciers est typique du pre­mier type de défaut. Dans sa forme la plus simple (dite forme « faible »), l’hypothèse ne dit rien d’autre que les prix des actifs finan­ciers reflètent l’ensemble de l’information conte­nue dans les prix passés, si bien qu’il est impos­sible de faire un profit sans risque en exploi­tant une quel­conque régu­la­rité sta­tis­tique des prix. Il n’y a pas grand-chose à contes­ter ici, et Quiggin ne s’aventure pas sur un ter­rain aussi glis­sant.

Plus pro­blé­ma­tique selon lui est le pas­sage de la forme faible à la forme « forte » selon laquelle les prix incor­porent l’ensemble de l’information publique et privée (si bien que même les délits d’initiés ne pro­duisent que des gains modestes voire nuls), puis à une forme « super forte » qui revient à affir­mer que le menu d’instruments finan­ciers est si étendu qu’il permet aux indi­vi­dus, aux ménages et aux firmes de s’assurer contre toutes les contin­gences ima­gi­nables. Là encore, l’argumentation fait de la crise de 2008 le test cri­tique contre lequel ce bloc fon­da­men­tal de l’économie finan­cière à échoué. Les plus fer­vents par­ti­sans de l’efficience des mar­chés finan­ciers ont dans leur immense majo­rité échoué à diag­nos­ti­quer l’ampleur et les dan­gers de l’évolution des prix immo­bi­liers et bour­siers. Sans remettre en cause la per­ti­nence de ce cha­pitre, force est de recon­naître qu’il a bien plus trait à un échec de la régu­la­tion publique et des méca­nismes de contrôle pru­den­tiel privés qu’à de sup­po­sés tares internes à la théo­rie. Comme l’équilibre géné­ral wal­ra­sien ou le théo­rème de neu­tra­lité de la struc­ture finan­cière des firmes Modigliani et Miller, le résul­tat d’efficience des mar­chés finan­ciers com­porte éga­le­ment une valeur heu­ris­tique : ses hypo­thèses très exi­geantes consti­tuent moins une ten­ta­tive de des­crip­tion de la réa­lité ou un idéal à atteindre qu’une réfé­rence par rap­port à laquelle il devient pos­sible de détec­ter les causes des écarts entre les pré­dic­tions théo­riques et les réa­li­sa­tions empi­riques. Il se trou­ve­rait peu d’économistes pour croire que le monde est aussi simple que peuvent le décrire une série de quatre ou cinq hypo­thèses, ou pour prendre pour argent comp­tant la logor­rhée des ven­deurs de crédit. Dans la même veine, trop de poids est peut-être accordé à la croyance aveugle des acteurs dans leur modèle d’évaluation rela­ti­ve­ment à leurs inci­ta­tions.

Pour Quiggin, le déve­lop­pe­ment du marché sub­prime aux Etats-Unis s’est fait hors de toute pru­dence car les modèles d’évaluation étaient fondés sur l’hypothèse qu’une réces­sion d’ampleur natio­nale était impos­sible. Cela est peut-être vrai, ou peut-être faux, mais de plus d’importance est le fait que les acteurs du sec­teur immo­bi­lier d’un bout à l’autre de la chaîne avaient inté­rêt à agir comme si cela était vrai. L’attaque contre la théo­rie en elle-même ne touche donc pas vrai­ment. Plus convain­cants sont les déve­lop­pe­ments consa­crés pré­ci­sé­ment au design défi­cient des inci­ta­tions des acteurs du sys­tème finan­cier. Le gros de l’argumentation est désor­mais clas­sique. Protégées par la res­pon­sa­bi­lité limi­tée, les prin­ci­pales ins­ti­tu­tions finan­cières ont pris des risques déme­su­rés, cer­tains d’être « too big to fail ». Ou plutôt, selon l’heureuse expres­sion de l’auteur, « too inter­con­nec­ted to fail » 4, façon de sug­gé­rer que sous le nou­veau régime finan­cier la taille cri­tique à partir de laquelle une ins­ti­tu­tion peut mettre en danger l’ensemble du sys­tème a for­te­ment baissé, le résul­tat en étant une insta­bi­lité accrue. Les sus­pects sont éga­le­ment assez usuels : LTCM, Lehmann, Greenspan, Fannie Mae et Freddie Mac. Plus ori­gi­nal, et à coup sûr plus déran­geantes tant pour la théo­rie éco­no­mique et les éco­no­mistes, sont selon Quiggin les impli­ca­tions en termes de pro­duc­tion du savoir éco­no­mique.

Selon lui, les plus farouches défen­seurs de l’efficience infor­ma­tion­nelle des mar­chés ont été vic­times du biais de confir­ma­tion, ten­dance fâcheuse pour un scien­ti­fique à sur­pon­dé­rer les faits qui confirment sa théo­rie et à négli­ger ceux qui plaident contre elle. C’est en ce sens que sont inter­pré­tés les tra­vaux sur les bulles ration­nelles ou le peu d’échos reçu par les mises en garde pré­coces de pro­fes­seurs de finance pour­tant fort renom­més comme Nouriel Roubini ou Robert Shiller.
C’est pré­ci­sé­ment cette rési­lience de théo­ries appa­rem­ment contre­dites par les faits qui donnent son titre, son orga­ni­sa­tion et sa tona­lité glo­ba­le­ment pes­si­miste à l’ouvrage. Sans conteste, l’auteur fait montre d’un grand talent dans le rendu de l’évolution des théo­ries 5.

De l’effectivité des théo­ries éco­no­miques

Ceci dit, la partie la plus inté­res­sante de l’ouvrage consiste dans le suivi de la trans­for­ma­tion – la per­ver­sion est-on tenté de dire – de théo­ries en rhé­to­riques poli­tiques. Ce mou­ve­ment ne s’accomplit pas par une quel­conque vie auto­nome des idées. Des forces poli­tiques et des groupes sociaux en sont les agents bien réels.
Certaines des impli­ca­tions des théo­ries éco­no­miques rela­tées, pour être bien connues, n’en méritent pas moins d’être rap­pe­lées. Il est ainsi évident que la théo­rie d’efficience des mar­chés finan­ciers appelle le déman­tè­le­ment des obs­tacles à la conver­gence des prix des actifs vers leur valeur fon­da­men­tale, évo­lu­tion lar­ge­ment enté­ri­née dans les années 1980. De même les impli­ca­tions de l’idée de pri­va­ti­sa­tion vont de soi. L’intérêt du cha­pitre qui lui est consa­crée réside plus par­ti­cu­liè­re­ment dans le compte rendu des forces réelles qui ont assuré l’effectivité du « consen­sus de Washington » qui en a été tiré. Plus sub­ti­le­ment, et pour reve­nir à l’efficience des mar­chés de capi­taux, l’accent mis sur la juste valo­ri­sa­tion des actifs invi­te­rait à adop­ter une atti­tude désin­volte face aux dés­équi­libres de la balance com­mer­ciale, en rup­ture avec l’analyse key­né­sienne qui y voit un signe annon­cia­teur de dif­fi­cul­tés 6. Une fois que l’hypothèse d’efficience des mar­chés finan­ciers est accep­tée, les dés­équi­libres macroé­co­no­miques ne sont plus vus que comme la résul­tante d’échanges bila­té­raux entre adultes consen­tants sur la base de l’information de marché. Il n’y a pas lieu d’intervenir pour équi­li­brer les échanges, le seul rôle dévolu aux gou­ver­ne­ments et aux ins­ti­tu­tions inter­na­tio­nales consiste à faci­li­ter l’accès des agents privés à l’information. Si le gou­ver­ne­ment pos­sède une infor­ma­tion supé­rieure à celle des acteurs de marché, il n’a pas à agir en consé­quence mais doit se conten­ter de la divul­guer. Autrement dit, la pré­gnance de l’efficience des mar­chés conduit direc­te­ment à la doc­trine de la négli­gence (« benign neglect ») face aux défi­cits de la balance com­mer­ciale ou des capi­taux, et plus lar­ge­ment à l’idée de « fin de l’Etat-nation » et de « monde sans fron­tières », selon le titre des ouvrages de Kenichi Ohmae. Mieux, dans sa ver­sion « super forte », elle rend obso­lètes les méca­nismes col­lec­tifs de pro­tec­tion sociale, puisque les socié­tés d’assurance et les fonds de pen­sion s’y sub­sti­tuent avan­ta­geu­se­ment. Pour Quiggin, cette théo­rie hyper­tro­phiée est à la source de l’agenda rea­gano-that­ché­rien qui a marqué le monde anglo-saxon des années 1980.

L’examen des rami­fi­ca­tions de l’idée que l’enrichissement des plus riches pro­fite à tous donne lieu à l’une des par­ties les plus sti­mu­lantes de l’ouvrage. Dans le dis­cours de ses sup­por­ters, le haut niveau d’inégalité éco­no­mique dans un pays tel que les Etats-Unis est com­pensé par une mobi­lité sociale forte, de telle sorte que chacun a en droit l’opportunité et l’espoir de deve­nir lui-même un « happy few ». Totalement dénuée de fon­de­ment empi­rique (Quiggin cite ainsi un article de Ron Haskins et Isabel Sawhill de la Brookings Institution qui montre qu’aux Etats-Unis 42% des fils dont le père fait partie du pre­mier quin­tile de la dis­tri­bu­tion des reve­nus se situent éga­le­ment dans ce même quin­tile, l’un des scores les plus élevés parmi les pays déve­lop­pés), cette posi­tion ne fait qu’actualiser le mythe du Nouveau Monde comme terre de tous les pos­sibles (« land of oppor­tu­nity »). Le nœud du pro­blème, argu­mente Quiggin, est qu’en éti­rant au maxi­mum la dis­tinc­tion entre éga­lité des chances et éga­lité des résul­tats, cette idéo­lo­gie tend à dis­cré­di­ter les ins­ti­tu­tions mêmes qui font du prin­cipe d’égalité des chances autre chose qu’une belle his­toire à l’usage des enfants. Quiggin l’illustre par une variante éco­no­mique de la repro­duc­tion bour­dieu­sienne. Le haut niveau d’inégalités des des­tins est sup­po­sé­ment contre­ba­lancé par l’accès uni­ver­sel à l’éducation et plus lar­ge­ment par un sys­tème dont le prin­cipe de clas­se­ment est le mérité par oppo­si­tion au statut social hérité. Cela peut fonc­tion­ner sur une géné­ra­tion, mais à la seconde géné­ra­tion il serait sur­pre­nant que les parents for­tu­nés ne cherchent pas à donner à leurs enfants une tête d’avance dans la com­pé­ti­tion sco­laire, par exemple en les ins­cri­vant dans des écoles pri­vées d’élite – ver­sion amé­ri­caine – ou en colo­ni­sant les quar­tiers où se trouvent les meilleurs éta­blis­se­ments publics – ver­sion 5ème arron­dis­se­ment. Encore une géné­ra­tion, et les plus riche­ment dotés en capi­tal éco­no­mique et donc cultu­rel ne ver­ront plus l’utilité de finan­cer par l’impôt un sys­tème dont ils ne béné­fi­cient plus, et qui, par une pro­phé­tie auto­réa­li­sa­trice, échoue à pro­duire des élèves per­for­mants. Bénéficiant, par­ti­cu­liè­re­ment aux Etats-Unis via le sys­tème des cam­pagnes élec­to­rales, d’une influence poli­tique pro­por­tion­née à leur richesse plus qu’à leur poids démo­gra­phique, les reven­di­ca­tions de ces groupes sociaux ont au final toutes les chances de venir à bout de l’égalitarisme ini­tial du sys­tème édu­ca­tif. L’on peut même voir émer­ger un fonc­tion­ne­ment contre-intui­tif de l’école. Ainsi cer­taines des meilleures uni­ver­si­tés amé­ri­caines intègrent un méca­nisme plus ou moins expli­cite de repro­duc­tion sociale : via le sys­tème des lega­cies, les enfants d’anciens diplô­més ont accès à une voie pré­fé­ren­tielle d’admission. L’affirmative action à rebours, en somme. La figure du gosse de pauvre devenu mil­liar­daire ne sert plus qu’à légi­ti­mer un sys­tème qui sou­tient avant tout la réus­site du gosse de riche médiocre 7.

L’un des mérites de l’argumentation est donc de ne pas accor­der de force de cau­sa­tion indé­pen­dante aux théo­ries éco­no­miques. Celles-ci ont des consé­quences réelles dans la mesure où elles trouvent des groupes qui ont un inté­rêt maté­riel à les défendre bec et ongles, quitte à leur faire perdre tout sem­blant de res­pec­ta­bi­lité aca­dé­mique. Non sans une cer­taine dose de malice, cette éco­no­mie poli­tique est appli­quée aux éco­no­mistes eux-mêmes. N’ayant appa­rem­ment pas peur de se faire des enne­mis, ni de flir­ter avec l’attaque per­son­nelle en cer­tains endroits, Quiggin avance que les éco­no­mistes, fai­sant partie de cette mino­rité qui béné­fi­cie des méca­nismes qui mènent par ailleurs à l’explosion des inéga­li­tés, sont peu enclins à remettre en cause les évi­dences qui en consti­tuent la jus­ti­fi­ca­tion. Le tour de passe-passe est sédui­sant : le para­digme de l’intérêt indi­vi­duel retourné contre les éco­no­mistes comme com­mu­nauté. Encore fau­drait-il convaincre qu’une telle situa­tion de men­songe col­lec­tif est sou­te­nable du point de vue des inci­ta­tions indi­vi­duelles (qu’elle consti­tue ce que ces mêmes éco­no­mistes appellent un équi­libre), c’est-à-dire que chaque éco­no­miste n’a pas inté­rêt pour son propre compte à en dévier et à publier un article qui fera for­cé­ment date, le tout sans recou­rir à l’argument du com­plot ou de l’hallucination col­lec­tive.

Quel renou­vel­le­ment théo­rique ?

Passant à l’aspect nor­ma­tif de l’ouvrage, l’auteur part de deux asser­tions : l’ère key­né­sienne s’est ter­mi­née dans le marasme de la stag­fla­tion, tandis que celle du marché roi s’est conclue par « la plus grande réces­sion depuis 1929 » selon l’expression désor­mais consa­crée. Il faut en tirer les conclu­sions, à savoir qu’une réforme en pro­fon­deur de la théo­rie néo­clas­sique s’impose 8, sans pour autant reve­nir au key­né­sia­nisme tel qu’il pré­va­lait avant 1973. Qu’en est-il ?

Dans sa dis­cus­sion des modèles d’équilibre géné­ral sto­chas­tiques, Quiggin invoque la néces­sité d’une « macroé­co­no­mie plus réa­liste » 9. L’approche pro­po­sée des­sine une science éco­no­mique à trois couches. Il pro­pose comme fon­da­tion de sub­sti­tuer au com­por­te­ment indi­vi­duel ration­nel, trop « dog­ma­tique » une modé­li­sa­tion fondée sur l’observation empi­rique des logiques mises en œuvre par les acteurs « dans le monde réel ». L’objectif serait d’arriver à des modèles qui auto­risent et rendent compte de pas­sages brusques de situa­tions d’expansion débri­dée à des situa­tions de dépres­sion cumu­la­tive. Entre les deux niveaux, il serait néces­saire de prendre en compte le fait que « l’économie n’est pas qu’une machine à agré­ger les pré­fé­rences des consom­ma­teurs et allouer les res­sources en consé­quence » 10. Pour ce faire, les éco­no­mistes devraient faire ren­trer dans leurs modèles des phé­no­mènes telles que la confiance, au double sens d’institution (« trust ») et d’état d’esprit (« confi­dence »). Les pistes de réflexion esquis­sées peinent à convaincre, même si le propos du livre n’est pas de leur donner chair immé­dia­te­ment. La cri­tique de l’approche maxi­mi­sa­trice adop­tée par l’économie aca­dé­mique encourt trois risques. Tout d’abord, de cari­ca­tu­rer l’ensemble des tra­vaux des éco­no­mistes comme fondés sur une image de l’homme « infi­ni­ment ration­nel, infi­ni­ment pré­voyant, aso­cial » 11. En second lieu, d’ignorer la moti­va­tion de cette hypo­thèse : si l’on sup­pose qu’il existe au prin­cipe des phé­no­mènes éco­no­miques un agent qui maxi­mise une fonc­tion objec­tive, c’est peut-être parce qu’il est dif­fi­cile de construire une repré­sen­ta­tion abs­traite d’un agent erra­tique. Enfin, Quiggin cite cer­tains des résul­tats de l’économie beha­vio­rale 12 qui sug­gèrent en effet que les humains dif­fèrent dans leur rai­son­ne­ment de machines à maxi­mi­ser. Le pro­blème est qu’il s’agit là d’alternatives locales et tout aussi concur­rentes entre elles qu’avec le canon néo­clas­sique. Pour ce qui est de l’approche ins­ti­tu­tion­nelle qui est censée faire le pont entre les com­por­te­ments indi­vi­duels et celui des agré­gats éco­no­miques, il est dif­fi­cile d’en devi­ner la fai­sa­bi­lité théo­rique et l’applicabilité pra­tique. Tout cela est résumé en conclu­sion sous la forme de trois prin­cipes : « tra­vailler plus sur le réa­lisme, moins sur la rigueur », « plus sur l’équité, moins sur l’efficience », « plus d’humilité, moins d’hybris ».

De manière tota­le­ment cohé­rente avec son ins­pi­ra­tion key­né­sienne, Quiggin se fait éga­le­ment l’avocat d’une régu­la­tion ren­for­cée de l’activité éco­no­mique. La théo­rie se voit donner pour mis­sion de diag­nos­ti­quer l’existence de bulles d’actifs afin de guider une inter­ven­tion poli­tique des­ti­née à les faire écla­ter, les ques­tions du quand et du com­ment étant dis­crè­te­ment mises sous le tapis. Volant au secours de la vic­toire, Quiggin en appelle éga­le­ment à une remise au goût du jour des poli­tiques contra­cy­cliques de sti­mu­la­tion de la demande 13. Le tout est dif­fi­cile à dis­tin­guer du consen­sus key­né­sien des Trente Glorieuses. Tout juste concède-t-il que les gou­ver­ne­ments et les banques cen­trales doivent s’engager cré­di­ble­ment à main­te­nir les défi­cits et les taux d’inflation à des taux rai­son­nables, repre­nant une idée de base du libé­ra­lisme de marché 14.
Vers un agenda socio-démo­crate ?

La véri­table force de pro­po­si­tion de l’ouvrage est d’ordre polé­mique. Convaincu au fond que les registres de jus­ti­fi­ca­tion de l’action publique de l’après guerre ont été rin­gar­di­sés par trois décen­nies d’idéologie libé­rale, Quiggin avance que la réponse à la crise passe par la refor­mu­la­tion du rôle de l’Etat en termes de mana­ge­ment du risque plutôt qu’en réfé­rence aux notions de redis­tri­bu­tion, de biens publics et de besoins élé­men­taires 15. Certaines des fonc­tions de l’Etat-Providence ont depuis long­temps été conçues et défen­dues selon ce registre, comme les dif­fé­rentes formes d’assurance sociale. D’autres peuvent être défen­dues de la même manière. Un sys­tème fiscal pro­gres­sif est plus ou moins direc­te­ment un ins­tru­ment d’assurance en ce qu’il amor­tit pro­por­tion­nel­le­ment plus le choc d’une réces­sion pour ceux qui en sont les plus affec­tés. Dans cette optique, il faut éga­le­ment pré­ser­ver la capa­cité des états à régu­ler la demande, au besoin en taxant plus for­te­ment les plus riches. Les poli­tiques actives de mana­ge­ment social du risque 16 et une poli­tique fis­cale active for­me­raient donc les deux piliers d’un agenda socio-démo­crate renou­velé .

rédac­teur : Luc GOUPIL, Critique à non​fic​tion​.fr
Illustration : http://​www​.flickr​.com/​p​h​o​t​o​s​/​r​e​a​n​a​/​3​2​3​8​9​1​0​5​0​1​/​s​i​z​e​s​/​s​/​i​n​/​p​h​o​t​o​s​t​ream/

Notes :
1 – http://​www​.non​fic​tion​.fr/​a​r​t​i​c​l​e​-​3​8​6​0​-​u​n​_​m​a​n​u​e​l​_​p​o​u​r​_​c​a​s​s​a​n​d​r​e.htm
2 – page2, « we must unders­tand the ideas that led us to this point »
3 – page 137 « a rising tide lifs all boats »
4 – page 71
5 – l’un des exemples les plus réjouis­sants concerne l’école autri­chienne, dont Quiggin montre que l’erreur d’Hayek, qui fon­dait sa théo­rie des cycles sur l’inefficience de l’offre privée tout en se fai­sant le cham­pion du lais­sez-faire, a été trans­for­mée en « dogme » par ses épi­gones
6 – page 49
7 – « dumb rich », page 162
8 – page 4 « it is clear that there is some­thing badly wrong with the state of eco­no­mics »
9 – page 123
10 – page 124
11 – page 211
12 – par exemple les tra­vaux de Kahnemann et Tverski, page 68, et Richard Thaler, page 123
13 – les prin­ci­pales mesures bud­gé­taires et moné­taires, notam­ment amé­ri­caines, avaient été mises en œuvre au moment de la rédac­tion de l’ouvrage
14 – à savoir le modèle de Kydland et Prescott (1979
15 – page 209
16 – « social risk mana­ge­ment poli­cies », page 210

Titre du livre : Zombie Economics. How dead ideas still walk among us
Auteur : John Quiggin
Éditeur : Princeton University Press
Date de publi­ca­tion : 16/09/10
N° ISBN : 0691145822

Les commentaires sont fermés.