Uma importante análise

Les fondements théoriques du néo-libéralisme

La théorie néoclassique, ou théorie de l’équilibre général, continue d’imprégner nombre de commentaires, ou de réflexions. C’est particulièrement clair en ce qui concerne le « marché » du travail, et la volonté de l’actuel gouvernement de faire passer, « en force » s’il le faut, tout une série de mesure ramenant les travailleurs à une situation d’isolation, qui est justement celle décrite par la théorie néoclassique. Car, cette dernière ignore les institutions, ou cherche à les réduire à de simples contrats, alors qu’elles sont bien autre chose.
Il faut donc revenir sur ce paradigme de l’équilibre, et plus fondamentalement sur ce que l’on appelle la Théorie de l’Équilibre Général ou TEG. Il est clair qu’il ne s’agit pas d’une conjecture aisément réfutable, ou en tous les cas qu’elle n’est pas perçue comme telle dans la profession. Pourtant, son irréalisme ontologique pose un véritable problème. Construite autour de la description d’un monde imaginaire, elle sert néanmoins de guide à certains pour appréhender la réalité. Ce faisant, elle se dévoile comme une idéologie (une « représentation du monde »), et une idéologie au service d’intérêts particuliers, et non comme une théorie scientifique.

L’origine de la théorie néoclassique
Il faut ici rappeler que la TEG se constitue par un coup de force théorique de la part de Léon Walras qui décide de considérer l’économie comme un ensemble de marchés inter-dépendants à l’exception de toute autre situation[1]. Ce coup de force se paraît, de plus, des plumes d’une formalisation mathématique qui lui donnait l’apparence d’une solidité théorique[2]. Ce qui certainement convainquit des économistes de plus en plus nombreux à se tourner vers cette approche qui tournait le dos en apparence à la réalité et au réalisme fut son caractère révolutionnaire. Pour la première fois on prétendait disposer d’un système à la fois global et cohérent d’explication de l’économie, où cette dernière n’avait plus d’autre référence qu’elle-même[3]. En ce sens, alors que le marxisme, même s’il se présente comme une critique de l’économie politique classique, entretient des liens importants avec la tradition qui émerge au XVIIIème siècle, la TEG se présente comme une rupture radicale. On comprend alors son pouvoir de fascination sur les économistes, pouvoir qui fut renforcé par l’élaboration d’une formulation moderne de son axiomatique par Arrow et Debreu[4].
Pourtant, cette fascination n’a jamais été générale[5]. Les controverses se sont multipliées, et certaines ont attaqué le « noyau dur » de la TEG, soit l’hypothèse des préférences individuelles indépendantes de chaque agent. Confrontée à de nouveaux débats, dont par exemple celui sur l’organisation, la TEG est amenée à se diversifier au risque de perdre sa cohérence[6]. Plus fondamentalement, ce sont les doutes quant à son aptitude à rendre compte de la décentralisation des agents et des décisions qui aujourd’hui taraudent les bases de sa domination. Ce processus accélère ses tendances latentes à se transformer en un pur discours normatif, au détriment de ses fonctions descriptives, prédictives ou interrogatives; on assiste alors à la constitution de la TEG en orthodoxie, avec tous les raidissements idéologiques et politiques que cela impliquent.
Ce qui frappe alors l’observateur est moins la généralité de la fascination, que sa stabilité dans le temps. En dépit de critiques multiples, provenant d’horizons divers, la TEG semble toujours émerger des débats comme la position naturelle de la majorité des économistes. Qu’il y ait des raisons institutionnelles à cette situation est évident. Il suffit de considérer quels furent les auteurs couronnés par le Prix Nobel en économie pour s’en rendre compte. A cela, C. Johnson, grand spécialiste de l’économie japonaise, a ajouté perfidement que la proportion des économistes américains couronnés par ce prix était corrélative au déclin de l’économie américaine[7]. Sous cette pointe polémique se cache un problème bien réel. La force de la TEG tient désormais tout autant de sa capacité socialement normative liée à sa prégnance dans les institutions académiques qu’à sa capacité à répondre ou à intégrer les critiques qui lui sont faites.
Une théorie des marchés qui fait l’impasse sur le marché
La démarche de Walras consistait à mettre en ordre un système de marchés interdépendants. Pour ce faire, il a dû sacrifier la théorie du marché lui-même. On s’en rend bien compte si on cherche une définition du “marché” dans les ouvrages modernes inspirés de la TEG. Assurément on trouvera de nombreuses définitions convergentes de ce que le marché est censé réaliser, soit un équilibre des offres et des demandes. Mais dire ce qu’un système produit ne nous dit pas comment il le fait[8], ni quelle est sa nature[9].
La TEG nous propose une méthode pour arriver à l’équilibre, c’est le tâtonnement. Il s’agit-la du processus de confrontation des offres et demandes qui est censé aboutir à l’équilibre, et qui constitue donc le coeur de la théorie de l’équilibre[10]. En fait, on peut le considérer comme un “jeu”, au sens d’une activité régie par des règles strictes et formelles. Ceci aboutit à faire disparaître la notion de rapport de force entre les participants à un échange, ce qui constitue la première déviation de la TEG par rapport au réalisme.
Dans le cas du modèle walrasien, la règle essentielle est qu’aucun échange ne doit avoir lieu avant que les prix d’équilibre n’aient été déterminés. Or, on sait dans quelle condition on aboutit à l’équilibre mais on ne sait pas comment cette condition, une certaine matrice des prix relatifs, est apparue. On peut alors supposer un tâtonnement qui ne soit pas walrasien, au sens où il accepte l’hypothèse d’échanges ayant lieu avant que ces prix n’aient été déterminés[11]. Seulement, dans ce cas, il faut être explicite sur les institutions qui conduisent les agents à se rapprocher des “bons” prix et démontrer que le processus est naturellement convergent. Ou alors, il faut expliciter les configuration des rapports de forces qui pousseront les participants à un échange à accepter de se livrer à cet échange alors que les uns tireront bine plus de profit que les autres. Et l’on revient, par ce chemin, très vite à l’explication de Marx sur le monopole social d’une classe sur les moyens de production…
Si l’on considère maintenant les conditions du tâtonnement walrasien, on peut montrer qu’il implique[12]:
  • -Une structure de communication entre les agents (sous l’hypothèse très forte que tout signal observable est vrai et intelligible sans traitement).
  • -Une structure d’ajustement des signaux, qui se fasse sans coûts et de manière altruiste.
  • -Un arrêt de toute opération tant qu’un résultat n’est pas sorti du tâtonnement.
  • -Des hypothèses très importantes quant au rapport aux prix des agents (ils sont preneurs de prix), quant à leurs comportements, et quant à la simplicité des informations nécessaires.
  • -Une structure de surveillance et de punition, capable d’éliminer les déviants et d’empêcher que des consommations et des productions ne se déroulent avant la détermination de l’équilibre.
Pour fonctionner, en effet, le tâtonnement exige qu’aucun des intervenants ne soit en mesure de peser sur les prix, que chaque agent ait une connaissance parfaite des offres et des demandes exprimées par les autres agents, que l’on annule le temps qui s’écoule durant le processus, enfin qu’il soit absolument interdit à quiconque de contracter avant que les « vrais prix » n’aient été mis à jour par le tâtonnement, ce qui suppose un contrôle centralisé sur l’ensemble des flux. Voila qui, de fait, ressemble beaucoup à une Union soviétique idéale, y compris avec un très fort degré de contrainte.
De ce paradoxe, nombre d’auteurs se réclamant de la TEG étaient conscients. Ils ont donc cherché des stratégies pour contourner le problème, pour obtenir les mêmes résultats en matière d’équilibre, mais sans avoir à supposer une lourde structure implicite assurant l’équilibre ex-ante. Il y a donc toute une tradition qui s’est essayée à la reformulation de l’hypothèse walrasienne centrale dans le sens du réalisme. L’enjeu est alors de montrer qu’il existe des conditions assurant automatiquement le résultat qui nécessite, dans une bourse des valeurs, une intervention directe et bien visible.
Une théorie qui nie le rôle de la monnaie
La base même du raisonnement néoclassique repose sur la capacité pour les agents (autrement dits les entrepreneurs, les investisseurs et les travailleurs) d’attribuer des valeurs monétaires à la totalité de leur environnement. En même temps, la monnaie est considérée comme parfaitement neutre dans l’économie néoclassique et elle est évacuée de la discussion par le biais de la Loi de Walras.
Or, un échange monétaire n’est pas assimilable à du troc pour une raison essentielle: l’existence d’une asymétrie d’information entre le producteur-vendeur et l’acheteur. L’évaluation monétaire de la valeur du bien est réputée limiter le problème d’asymétrie[13]. A partir du moment où il existe une différenciation des biens, et où la totalité des agents ne possède pas une expérience préalable de la totalité des biens et des services disponibles, on peut raisonnablement considérer que la monnaie est nécessaire. Si l’on suit Max Weber, la monnaie est un vecteur important des conflits qui traversent nos sociétés:
Les prix monétaires résultent de compromis et de conflits d’intérêt; en ceci ils découlent de la distribution du pouvoir. La monnaie n’est pas un simple « droit sur des biens non spécifiés » qui pourrait être utilisé à loisir sans conséquence fondamentale sur les caractéristiques du système des prix perçu comme une lutte entre les hommes. La monnaie est avant tout une arme dans cette lutte; elle n’est un instrument de calcul que dans la mesure où l’on prend en compte les opportunités de succès dans cette lutte. [14].
Bien avant qu’il n’ait écrit la Théorie Générale, Keynes ne pensait pas différemment. Dans un texte tirant le bilan des désordres monétaires qui suivirent la fin de la Première guerre mondiale, il écrivait ces lignes qui résonnent encore aujourd’hui avec une profonde actualité: Depuis 1920, ceux des pays qui ont repris en mains la situation de leurs finances, non contents de mettre fin à l’inflation, ont contracté leur masse monétaire et ont connu les fruits de la Déflation. D’autres ont suivi des trajectoires inflationnistes de manière encore plus anarchique qu’auparavant. Chacun a pour effet de modifier la distribution de la richesse entre les différentes classes sociales, l’inflation étant le pire des deux sous ce rapport. Chacun a également pour effet d’emballer ou de freiner la production de richesses, bien que, ici, la déflation soit le plus nocif. [15] Keynes va même plus loin que ce constat, et lie explicitement l’inflation, c’est à dire la dépréciation de la monnaie, au mouvement historique qui voit de nouveaux groupes sociaux s’affranchir de la tutelle des anciens dominants: De tels mouvements séculaires qui ont toujours déprécié la monnaie dans le passé ont donc aidé les « hommes nouveaux » à s’affranchir de la main morte; ils profitèrent aux fortunes de fraîche date aux dépens des anciennes et donnèrent à l’esprit d’entreprise des armes contre l’accumulation des privilèges acquis. [16]
La monnaie apparaît donc sous deux faces, analytiquement distinctes et systémiquement liées. Elle est bien sur l’indispensable moyen de calcul inter-temporel qui permet de sublimer les obstacles posés sur la route des échanges par l’hétérogénéité. Cette dernière fonde la nécessité d’un instrument particulier fonctionnant comme norme d’homogénéisation d’une réalité non homogène. Il n’est pas étonnant que la TEG, parce qu’elle postule l’homogénéité, puisse se passer de la monnaie
La TEG et la monnaie, suite…
L’introduction de la monnaie ne se fait cependant pas sans risque pour le cadre de la TEG. J.M. Grandmont remet sérieusement en cause cette perspective[17]. Il montre en particulier que le refus de prendre en compte la possibilité d’états de déséquilibre stable, refus justifié au nom de l’effet de richesse[18], implique soit une forme directe d’état stationnaire soit un ajustement instantané et entièrement prévisible, qui conduit à exclure toute situation d’incertitude du domaine de l’économie[19]. C’est la piste que suivra Robert Lucas en décrétant que là ou il y a incertitude il n’y a plus d’économie, introduisant ici une seconde déviation entre la théorie néoclassique et le réalisme. L’introduction de mécanismes d’apprentissage chez les échangistes potentiels aboutit à la démonstration que, même dans une situation de prix parfaitement flexibles, un équilibre n’est pas obtenu. Grandmont, cependant, reste fermement située au sein de la TEG et suppose toujours l’environnement des agents entièrement probabilisable[20].
La neutralité de la monnaie, hypothèse centrale de la TEG, est loin d’être cohérente. Elle est incompatible avec le principe de dichotomie (soit les prix relatifs se forment dans le secteur réel et sont insensibles aux variations monétaires) si on raisonne avec des effets d’encaisses réelles et sous la Loi de Walras [21].La neutralité de la monnaie, au sens où ce concept est utilisé par l’école des Anticipations Rationnelles ne résiste pas à l’introduction d’hypothèses même moyennement réalistes quant au comportement des agents.
Des équilibres, même sub-optimaux, peuvent être vérifiés si on suppose un mécanisme d’allocation des ressources inter-temporel. Néanmoins, on se heurte ici à un nouvel obstacle, qui est celui du degré de réalisme de cette hypothèse. L’existence de marchés complets est théoriquement une impossibilité, du point de vue de la structure même de la connaissance, sauf à supposer un univers stationnaire. Par ailleurs Grandmont, pour démontrer une solution d’équilibre, est obligé de supposer que les anticipations sont toujours continues (exclusion des effets de surprise et des changements d’attitudes) et que les agents croient en la neutralité de la monnaie[22]. La convergence des anticipations nécessaire pour obtenir l’équilibre n’est ici pas produite par le marché mais par une institution normative produisant des effets cognitifs prévisibles et homogènes.
Cela revient à dire que la monnaie n’est pas simplement un instrument d’échange et d’investissement, mais qu’elle est aussi – et peut être surtout – un instrument clef dans la gouvernance des sociétés. On en a la preuve expérimentale avec l’Euro qui enferme les agents des pays ou il a été mis en place dans un carcan cognitif qui les empêche de voir la réalité – tragique – de l’état de leurs sociétés et de leurs économies.
La monnaie, le troc, et la TEG
On est alors confronté à l’alternative suivante. Soit on suppose une économie avec une offre de biens et services simple et non évolutive, et l’évacuation de la monnaie est possible. Soit on introduit une dynamique de transformation perpétuelle de l’offre, et l’évacuation de la monnaie devient impossible. Mais, dans ce cas, les conditions de l’équilibre walrasien peuvent ne plus être remplies.
Ajoutons alors un nouveau paradoxe. Si les échanges sont majoritairement monétaire pour les problèmes d’asymétrie de l’information évoqués, la monnaie devient un bien détenu par tous les agents. Néanmoins, sauf à supposer que la structure du patrimoine de l’ensemble des agents est parfaitement identique, certains seront plus liquides que d’autres. Ils pourront alors faire plus facilement défection dans les échanges, si on considère maintenant que l’économie n’est pas une séquence Production-Échange-Consommation, mais une succession de ces séquences dans le temps. La monnaie comme instrument de réduction de l’asymétrie d’information sur la nature du bien échangeable se manifeste alors comme élément d’une nouvelle asymétrie, dans la plus ou moins grande capacité des agents à retarder dans le temps leurs transactions. Et, sauf à supposer que les agents sont parfaitement identiques, comme ils ne peuvent a priori savoir ce que pense l’autre échangiste, l’agent qui est le plus vulnérable potentiellement à la défection de son partenaire va craindre que ce dernier ne se comporte comme tel. Il exigera donc pour la transaction une prime de garantie, qui peut être réduite si les agents se mettent d’accord pour revenir au troc. Joseph Stiglitz arrive à un résultat convergent quand il se livre à la critique des hypothèses d’efficience informationnelle et de complétude des marchés[23]. Il montre, alors, que les prix ne sont qu’une information parmi d’autres que les agents doivent collecter. Mais, la relativisation du rôle des prix implique alors celle de la monnaie, car ces autres informations vont nécessairement passer par une personnalisation des rapports d’échange que la monétarisation était censée éviter.
Il faut alors considérer que ni l’assimilation de l’économie à un troc monétarisé, ni son assimilation à une activité tendant vers la monétarisation parfaite ne sont soutenables, pour des raisons parallèles. La monétarisation dans son extension même créé les conditions pour des résurgences du troc, et le troc, s’il se généralise, aboutit à faire prendre conscience de la nécessité de la monnaie. La mixité irréductible des rapports d’échange achève de détruire la possibilité d’existence des mécanismes de l’équilibre walrasien.
Irréalisme du premier et du second type
La double absence du marché et de la monnaie dans une théorie économique censée établir les lois de fonctionnement d’une économie de marché monétarisée renvoie au problème du réalisme des fondements de l’économie dominante. Les dimensions en sont multiples, et les réponses apportées par les auteurs depuis une quarantaine d’années souvent bien différentes. Il faut en effet prendre conscience qu’il y a deux niveaux distincts d’irréalisme dans la TEG, même si leurs effets dans la production d’un discours d’autojustification se combinent. Il y a, d’une part, un refus du réalisme affiché et justifié, qui prend sa source dans l’instrumentalisme de M. Friedman[24]. Ceci aboutit à une axiomatique qui peut être d’autant plus rigoureuse qu’elle s’affranchit consciemment de toute tentative à confronter ses hypothèses à la réalité. Mais il y a une autre forme d’irréalisme, qui résulte tout simplement de la volonté de présenter comme faits concrets et vérifiables des hypothèses métaphysiques. L’irréalisme nait ici d’une confusion des niveaux de raisonnement.
Il est, à ce stade, facile de prendre quelques exemples des conséquences de l’irréalisme du premier type. Le plus connu, car il a donné lieu à des querelles mémorables entre lés élèves de Keynes et des économistes plus fidèles à la tradition néo-classique, concerne la fonction de production telle qu’elle est envisagée dans la TEG. Cette dernière repose fondamentalement sur la double hypothèse de l’homogénéité du capital et des rendements décroissants, comme l’avait montré une forte critique argumentée par Mme Joan Robinson, et les diverses réponses de Robert Solow[25].
Les économistes fidèles à la TEG sont, en dernière instance, obligés d’admettre que les fonctions de production qu’ils utilisent dans leurs modèles ne sont pas représentatives du processus réel de la production, et ne sauraient servir à l’analyser. Mais, estime Samuelson, l’important n’est pas là; ces fonctions permettent d’établir un lien prévisible, et statistiquement mesurable, entre moyens de la production et résultat de cette dernière. Elles constituent donc des approximations acceptables, remplaçant une connaissance que l’on admet manquante[26]. Le problème qui surgit alors est que, pour pouvoir postuler l’efficacité d’une telle approximation, il faut postuler que l’économie est un système déterministe obéissant à des lois intangibles. C’est ici que surgit l’hypothèse ergodique. Qu’il suffise pour l’instant de savoir que l’usage de cette métaphore empruntée à la physique est méthodologiquement très discutable, et trahit une réelle faiblesse conceptuelle[27].
Un second exemple peut être trouvé dans la théorie de l’utilité et du comportement du consommateur. La TEG postule ainsi que les consommations sont substituables et jamais complémentaires, avec des conséquences très précises quant à la forme des courbes d’indifférence de chaque consommateur[28]. De ces courbes, on déduit alors un modèle de comportement de l’agent économique, en fonction des variations des prix relatifs de chaque bien. Ce modèle de comportement, construit donc au départ pour représenter une consommation, est ensuite étendu à la totalité des comportements économiques. On aboutit alors au dogme selon lequel les variations des prix relatifs constituent le signal fondamental pour la totalité des décisions. Ce dogme a des conséquences considérables au niveau non plus théorique mais prescriptif. Si, effectivement, les prix relatifs ont ce pouvoir, alors adopter une mauvaise structure de ces derniers peut conduire à des catastrophes économiques majeures. Il s’en déduit que l’adoption des prix relatifs mondiaux, même si ces derniers ne sont peut-être pas les plus justes possibles, constitue une stratégie efficient de réduction du risque de mauvaise allocation des ressources. Il faut donc abolir tous les obstacles empêchant les prix relatifs nationaux de s’aligner sur la structure mondiale, ce qui justifie l’abolition de tous les droits de douanes, des règlementations techniques, sociales et sanitaires qui peuvent alors faire obstacle à cet alignement. Le problème est que les économistes néo-classiques n’ont jamais pu démontrer l’existence d’une telle fonction d’utilité[29], ni même que les conditions de vérifications puissent être un jour rencontrées[30]. La totalité des hypothèses nécessaires à la théorie néo-classique de l’utilité et du choix individuel, peuvent être tenues pour expérimentalement réfutées. C’est en particulier le cas de la théorie des préférences individuelles[31].
La théorie des préférences
La théorie des préférences est, en apparence, un domaine qui semble très restreint. Car, cette théorie ne se donne pas pour ce qu’elle est. On ne la présente qu’à travers une série d’hypothèses que l’on formule pour justifier le comportement de l’acteur individuel. Il serait donc parfaitement possible de n’y voir qu’un élément mineur. Et pourtant, l’hypothèse d’une rationalité de l’agent économique, qui plus est d’une rationalité définie comme étant la maximisation d’un profit, d’une utilité ou d’un plaisir est centrale. Cette hypothèse de rationalité est la véritable colonne vertébrale non seulement de la théorie mais aussi du discours vulgaire qu’en tiennent ses apologètes.
Or, cette hypothèse repose sur une certaine théorie des préférences individuelles. Grattez les évidences et les idées reçues et vous trouverez des constructions théoriques, plus ou moins cohérentes, mais toutes arc-boutées sur cette définition de la rationalité et, de ce fait même, sur cette théorie des préférences.
Comment en effet expliquer que les économistes du courant dominant, ou de l’orthodoxie économique[32], préfèrent spontanément les procédures où les choix individuels se confrontent de manière non-intentionnelle (i.e. les marchés et la concurrence) face aux procédures délibératives et aux organisations, et ce sans tomber immédiatement dans le procès d’intention ? Cette question, illustre la collision entre démarche théorique, démarche normative et démarche prescriptive que l’on trouve dans l’économie. En dépit de sa formulation abstraite, elle a des conséquences directes dans la vie quotidienne.
Au cœur du problème, on trouve le postulat de la rationalité des acteurs. Herbert Simon l’a souligné, les économistes ont en réalité une définition beaucoup plus restrictive de la rationalité : la poursuite de la maximisation d’une utilité ou d’un profit[33]. La construction de ce concept implique un certain nombre d’hypothèses quant au comportement humain. Ces conjectures théoriques reposent sur ce qui constitue la base de l’économie dominante depuis la fin du XVIIIème siècle, soit la théorie des préférences individuelles. Cette théorie constitue le socle non seulement de la théorie néo-classique dans sa forme traditionnelle[34], mais aussi de ses variantes plus réalistes, ou – pour reprendre une typologie imaginée par Olivier Favereau – la Théorie Standard comme la Théorie Standard Élargie[35].
Dans les ouvrages de référence comme dans les manuels, le lecteur est confronté à une série d’axiomes qui permettent d’établir la fonction d’utilité puis d’assurer les conditions de sa maximisation. Pour pouvoir déterminer une fonction d’utilité, on peut, à la suite de Gérard Debreu[36]., supposer que les préférences vérifient les axiomes suivants :
  • Les préférences vérifient un préordre complet des choix possibles, ce qui implique la transitivité (si je préfère x à y et y à z alors je préfère x à z) et la réflexivité. L’agent peut donc classer les différents éléments entre lesquels il doit choisir.
  • Les préférences sont continues (soit x>y>z, il existe alors un mélange des possibilités x et z qui soit indifférent par rapport à y).
  • Ces préférences sont caractérisées par l’axiome de non-saturation (si la consommation d’une quantité X1 de x engendre une utilité u1, alors si X2 > X1, l’utilité u2 > u1).
On suppose en général que la fonction d’utilité est convexe, ce qui revient à généraliser l’hypothèse des rendements décroissants importée en économie par Ricardo à partir de la production agricole pour sa démonstration de la théorie de la rente. Cette hypothèse est importante techniquement, parce qu’elle justifie des courbes d’indifférence, forme traditionnelle de représentation des préférences, qui sont convexes[37]. À défaut d’être réaliste, la convexité joue un rôle important dans les démonstrations. Pour passer de l’utilité à la notion d’utilité espérée, notion issue de Bernoulli et de ses travaux du XVIIIe siècle sur les loteries et qui constitue un passage essentiel dès que l’on quitte un univers certain pour entrer dans un univers probabiliste[38],
il faut, à la suite des travaux de von Neumann et Morgenstern[39], supposer l’axiome d’indépendance des préférences. Les préférences sont indépendantes si, soient les possibilités x, y et z telles que x >y, une combinaison de x et z sera préférée à la même combinaison de y et z. On ajoute souvent que les préférences sont monotones dans le temps (la qualité d’une période additionnelle détermine si l’expérience la plus longue est plus ou moins utile que la plus courte). Cette monotonie doit se combiner du point de vue de l’agent à une intégration temporelle (l’utilité que l’on tire d’une expérience correspond à l’ensemble des utilités de chaque moment de cette expérience). La monotonie temporelle et l’intégration temporelle jouent un rôle si on cherche à étendre la théorie standard en y incluant le temps, mais ne sont pas mobilisées dans sa forme originelle qui est a-temporelle. Pourtant, si on veut pouvoir passer d’une suite observations, ou de choix, à une proposition générale, l’intégration temporelle et la monotonie temporelle sont nécessaires.
Cette axiomatique de la structure des préférences est la base de la définition du comportement rationnel conçu comme maximisation de l’utilité (univers certain ou stationnaire) ou de l’utilité espérée (univers probabiliste). Elle a été présentée de manière rigoureuse pour la première fois par Vilfredo Pareto[40], même si elle est implicite au raisonnement d’auteurs plus anciens comme Jevons ou Cournot. Elle a reçu un traitement mathématique devenu depuis standard chez von Neumann et Morgenstern ainsi que chez Arrow[41].
Des axiomes et hypothèses réfutées
Certains des axiomes et hypothèses sont à l’évidence contestables. La convexité supposée des courbes d’indifférence conduit à la conclusion, qui semble corroborer l’intuition, que la demande pour un bien est inverse à son prix. Or, en réalité, les travaux récents ont plutôt démontré que cette convexité était un cas particulier, certes possible, mais nullement obligatoire ni général[42]. Comme le constate Bernard Guerrien, il devient alors impossible de déduire des « lois » à partir des comportements individuels, au sens de ce que proposaient Arrow et Debreu[43]. L’hypothèse de convexité est nécessaire pour démontrer que l’on obtient un équilibre à la fois unique et stable. Si elle ne correspond qu’à un cas particulier, alors le pouvoir normatif et prescriptif de la théorie standard en est sérieusement dévalué. Mais des critiques tout aussi radicales ont été adressées à l’une des hypothèses les plus centrales, celle de l’indépendance. Cette hypothèse, nécessaire pour passer de la notion d’utilité à celle d’utilité espérée a, en effet, été contestée très tôt, en particulier par Maurice Allais[44].
En fait, deux des principaux défenseurs de l’hypothèse d’espérance d’utilité, Savage et Ellsberg, ont été tentés de suivre Maurice Allais et d’accepter la réfutation de cette théorie[45]. Cependant, ces derniers n’ont pas tardé à se reprendre, et ils ont choisi de considérer que l’axiome d’indépendance était une hypothèse incontournable[46]. Pourtant, le paradoxe d’Allais et les évidences empiriques montrant que l’axiome d’indépendance était systématiquement violé ont alimenté des recherches importantes. Elles ont conduit certains économistes issus de la tradition néo-classique à s’éloigner progressivement des formulations originelles.
Les économistes néo-classiques ont donc été conscients très tôt des problèmes que soulevait la théorie classique des préférences. L’élaboration des formulations classiques entre la fin des années quarante et le début des années cinquante n’a fait qu’accélérer cette prise de conscience. Elle a entraîné des débats qui auraient pu déboucher sur une évolution générale de cette théorie. Mais, celle-ci s’est crispée sur sa base de départ.
Une première indication des problèmes que l’on rencontre avec les hypothèses communes ici en cause a été fournie par ce qui est entré dans la littérature spécialisée sous le nom d’effet Hawtorne[47]. Une recherche ultérieure, dans un cadre bien différent, nous donne de nouvelles indications et permet d’isoler ce que l’on peut appeler l’effet Pygmalion[48]. L’analyse de l’effet Hawtorne comme de l’effet Pygmalion nous apporte plusieurs enseignements tant analytiques que prescriptifs. Le rôle des contextes est essentiel pour comprendre comment nous hiérarchisons nos préférences. Cette hiérarchie n’est donc pas une donnée préexistant au choix. Ces effets ont été confirmés par des recherches plus récentes.
L’apport de la psychologie expérimentale
À la fin des années soixante, deux psychologues et économistes, Paul Slovic et Sarah Lichtenstein ont systématiquement testé la stabilité des préférences. Slovic et Lichtenstein ont été confrontés à des renversements de préférences, des basculements imprévisibles d’une stratégie à l’autre[49]. Ces résultats ont été reproduits dans différents cas, y compris en prenant comme participants des joueurs professionnels, jouant leur propre argent, dans un Casino de Las Vegas[50]. Ces résultats sont cohérents avec l’hypothèse développée par Slovic et Lichtenstein, selon qui nous utilisons des processus cognitifs différents selon que nous évaluons (une utilité ou un prix) et selon que nous choisissons[51]. La stabilité de ces résultats, le fait que la répétition des expériences n’entraîne pas une diminution significative des renversements de préférences, indique que l’on est en présence d’une véritable structure comportementale. Celle-ci viole un certain nombre d’axiomes clés, et en particulier la transitivité et la continuité. L’interprétation de ces résultats implique la prise en compte d’effets plus généraux, comparables aux effets Hawtorne et Pygmalion. On doit à Amos Tversky, Daniel Kahneman et leurs collaborateurs, une présentation rigoureuse de ces effets.
On peut, distinguer deux effets particuliers. Le premier, que Amos Tversky appelle le « framing effect » montre que la manière de présenter les termes d’un choix détermine les réponses[52]. Cet effet de contexte viole à l’évidence l’hypothèse d’une indépendance de l’ordre des préférences par rapport aux conditions de choix. Plus gênant encore pour la théorie dominante est le fait que l’explicitation des ordres de préférence est elle aussi tributaire de la manière dont les problèmes sont posés. C’est ainsi que l’on peut expliquer le phénomène, désormais bien connu, des renversements d’ordres de préférence en fonction des conditions de présentation des choix [53]. Il s’avère ainsi que l’on peut expérimentalement montrer que les préférences sont directement dépendantes des contextes, et que les échelles de préférence se construisent à travers le processus du choix au lieu d’être préexistantes comme le soutient la Théorie standard[54].
Ce résultat valide une des conclusions tirées de l’effet Hawtorne et de l’effet Pygmalion.
Le second effet fut qualifié par Daniel Kahneman d’endowment effectou effet de dotation[55]. Cet effet se manifeste quand on voit des préférences se renverser à partir du moment où les personnes consultées se sentent ou non en état de posséder l’un des biens. Ainsi, suivant que l’on propose à un groupe un choix entre une somme d’argent et une tasse à café, ou de dire pour quelle somme d’argent ils seraient prêts à rendre la même tasse à café qui leur aurait été préalablement donnée, le prix implicite de la même tasse varie du simple au double[56]. La question est pourtant la même, celle d’un choix entre une somme d’argent et un objet. De manière plus générale, il semble bien que les acteurs individuels réagissent de manière assez différente à un même choix suivant qu’ils se sentent en possession d’un pouvoir de décision ou de peser sur leur avenir ou non. Ceci rejoint, une fois encore, les résultats constatés avec l’effet Hawtorne ou l’effet Pygmalion. Or, les hypothèses de cohérence sont centrales. Sans elles, la théorie standard des choix ne peut plus passer du niveau de l’individu à celui de la collectivité par simple agrégation des préférences ou des fonctions d’utilité. Par ailleurs, ces différentes expérimentations confirment la très grande difficulté des acteurs à prévoir la structure future de leurs préférences[57]. Ceci est potentiellement déstabilisateur pour toute théorie postulant des modes spontanés d’accord ou de convergence des opinions sur la base d’expériences répétées.
À partir de ces résultats, on peut réfuter les hypothèses permettant de généraliser la théorie de la rationalité maximisatrice et de lui faire servir de base à la théorie utilitariste moderne. De même, les hypothèses d’intégration et de monotonie temporelle des préférences qui sont nécessaires à une généralisation dynamique ne sont pas vérifiées[58].
Ces travaux montrent aussi que les hypothèses qu’il faudrait nécessairement mobiliser pour justifier une parfaite spontanéité de l’apprentissage ainsi que celle d’une nature individuelle de ce processus ne sont pas fondées. En ce sens les expériences de psychologie expérimentale que l’on vient d’évoquer ont un impact qui va au-delà de la seule critique du modèle de la rationalité maximisatrice néoclassique. Ce qui est mis en cause, c’est une théorie de l’utilitarisme fondée sur l’hypothèse d’un passage linéaire entre le comportement individuel et les comportements collectifs. Au-delà des axiomes néo-classiques, sont attaqués ici les axiomes de l’individualisme méthodologique nécessaire aux théories impliquant toute forme de main invisible.
Stratégie de contournement et déni du monde réel
Les économistes fidèles à la TEG vont alors tenter de tourner le problème en supposant que le crieur de marché métaphorique, ou l’organisation hyper-centralisée qui le remplacerait, ne sont pas nécessaires car tous les agents sont, en réalité, rationnels et agissent « comme si » le crieur ou l’organisation était présent[59]. On est alors en présence de ce que O. Favereau appelle la Théorie Standard Expérimentale[60]. Le problème réside alors dans l’origine de ce comportement rationnel. S’il est inné, on est obligé de supposer une connaissance immanente des fonctionnements de la TEG par l’ensemble des agents. S’il est acquis, ce qui est évidemment plus réaliste cela suppose soit une main de fer capable de normer très précisément la totalité des individus soit un processus permanent de sélection assurant l’éviction ou la modification des comportements déviants. On est alors conduit à poser le problème des incitations, le rôle de l’information et en particulier des asymétries d’information. Ceci correspond à ce que O. Favereau appelle dans sa typologie la Théorie Standard Étendue[61]. Seulement, dans ce cadre, l’hypothèse de la sélection ne fait que multiplier les problèmes. Nul ne dit comment elle fonctionne, ni quels en sont ses principes. Pour comprendre une telle sélection, il faudrait en réalité avoir une théorie des institutions qui justement fait défaut à la TEG.
Une tentative en ce sens a été faite par le courant que l’on qualifie de néo-institutionnaliste et qu’illustrent bien les travaux de Oliver Williamson[62]. Les agents décideraient de recourir au marché ou à l’organisation en fonction des coûts de transaction qu’ils doivent supporter à chaque fois qu’ils concluent un contrat. Dans un cas ils passent des contrats instantanés et infiniment répétables, dans l’autre ils passent un contrat s’inscrivant dans la durée, acceptant la perte potentielle d’utilité qu’ils pourraient subir si un meilleur contrat se présentait contre la garantie de ne pas avoir à le répéter. Il admet donc la nécessité d’organisations pour que le marché fonctionne, mais décompose les premières en une succession de contrats individuels. Cette démarche se heurte néanmoins à plusieurs problèmes. Le premier est que postuler du contrat dans l’organisation revient à supposer que les difficultés à contracter qui ont éloigné les agents du marché se sont d’un coup envolées. S’il y a incertitude sur la nature du monde à venir, comment peut-on être sur que le contrat que l’on vient de passer dans le cadre d’une organisation ne sera pas rendu demain obsolète? Il faudrait pouvoir être sur qu’aucun événement n’invalidera demain le contrat d’aujourd’hui. Or, ce type de connaissance est du même ordre que celle dont un planificateur aurait besoin.
En fait, l’intérêt de l’organisation et de l’institution vient de ce que ces formes sont plus que des ensembles de contrats. Elles sont des mises en commun de connaissances, d’expériences, de réciprocités. Il est alors possible de formuler une théorie de l’apprentissage des “bons” comportements, mais celle-ci est toujours contingente aux institutions et à la nature de l’environnement. On découvre alors qu’il n’est pas de “bon” comportement en soi mais simplement des comportements cohérents à un cadre donné. Rien n’assure donc que ces comportements seront ceux qu’il faut stipuler pour que l’hypothèse du “comme si” se vérifie et que l’on puisse obtenir la production d’un équilibre sans contrainte ni lourde organisation préalable. On bute alors sur les hypothèses d’individualisme qui sont à la base de ces approches.
Le « retour » au réalisme est les contradictions qu’il engendre au sein du paradigme néoclassique
Par ailleurs, admettre qu’il y a sélection de comportements acquis revient aussi à admettre que l’état initial n’est pas l’état parfait. Dans ce cas on ne sait plus comment fonctionne l’économie avant d’avoir atteint le « paradis » promis par le mécanisme de sélection. Pour comprendre comment fonctionne une économie fondée sur des comportements acquis, il faut pouvoir dire comment se comporte l’économie avant que ces comportements ne le soient, ou alors l’idée d’acquisition n’a plus de sens.
Enfin, il faut ajouter que la démarche dite réaliste, que prétendent suivre les économistes qui ont pris la mesure de l’impasse de la TEG dans sa version d’origine, ne nous renseigne pas non plus sur le mécanisme qui permet aux agents de se rendre compte si l’équilibre est atteint ou non. A partir du moment où on admet, par réalisme, que les agents sont relativement divers et ne sont pas soumis à une structure despotique d’homogénéisation, se pose la question de la perception non ambiguë de la réalisation de l’équilibre[63]. Or, la théorie néoclassique nous propose des indicateurs objectifs, les prix, voire les quantités dans le tâtonnement non walrasien, mais qui doivent être appréciés à un niveau subjectif, celui des préférences et de la comparaison entre les anticipations et la perception de la réalité. Ceci pose le problème du statut du profit comme signal pertinent dans une interprétation “réaliste” du tâtonnement. Les capitalistes sont-ils sensibles à l’écart entre les taux de profit de chaque branche ou à l’écart entre le taux de profit effectif et le taux de profit naturel? Si on accepte le premier critère, et que l’on suppose donc que les agents réagissent aux apparences, l’économie peut connaître des équilibres multiples. Si on penche pour la seconde solution, c’est à dire que les agents réagiraient aux écarts entre les “apparences” et la “réalité”, on peut aboutir à un équilibre unique. Seulement, il faut supposer la connaissance par les agents des lois intimes du système auquel ils appartiennent, sans oublier de conséquentes capacités de gestion des informations. C’est le sens de la critique de Ellis à Hayek en 1934 signalée dans le premier chapitre. Supposer maintenant que les prix de long terme sont les prix naturels équivaut à un nouveau coup de force théorique, car il faut au préalable démontrer la possibilité et la stabilité d’un équilibre pour prétendre que les mouvements conjoncturels constituent des fluctuations autour d’une tendance naturelle[64].
Cette contradiction entre des critères subjectifs et des indicateurs objectifs peut conduire à basculer du côté du subjectivisme. Dès lors, ce ne sont plus les prix ou les quantités qui sont des indicateurs mais la convergence plus ou moins bonne des perceptions et des représentations. Le problème alors est que ces dernières peuvent parfaitement converger vers des résultats aberrants comme dans le cas des paniques[65]. De plus, le choix entre user du marché ou de l’organisation, choix qui est au coeur de la théorie néo-institutionnaliste (make or buy ), n’est pas neutre quant aux représentations car toute organisation est un système collectif qui implique une transformation, même infime, même inconsciente, des représentations de l’individu isolé une fois que celui-ci décide d’y adhérer.
Le soi-disant réalisme du Néo-Institutionnalisme n’est donc qu’une forme encore plus grossière de l’irréalisme standard. Au lieu de se réfugier explicitement dans l’axiomatique, on prétend au réalisme, mais sur la base d’hypothèses non vérifiables et non testables, qui ne sont rien d’autres que des visions métaphysiques de l’individu. En toute honnêteté il faut ajouter que O.E. Williamson avait, en un sens, vendu la mèche, en adoptant dans un de ses premiers ouvrages un point de vue explicitement instrumentaliste, très proche de celui de M. Friedman[66].
L’hypothèse ergodique ou la fuite dans la métaphore
On s’aperçoit alors que les économistes du courant dominant n’ont pas seulement enfreint l’obligation de réalisme, mais aussi celle de cohérence. Parce qu’une position explicitement non réaliste devenait de plus en plus difficile à soutenir face au monde extérieur, qui demande à l’économiste autre chose que des modèles mathématiquement élégants, ils ont pu croire que des modifications marginales de leur programme de recherche pouvaient permettre de combiner le respect des axiomes initiaux et une capacité descriptive et explicative. En fait, ils ont abouti à un corpus théorique qui devient de plus en plus incohérent. Dans ces conditions, on comprend qu’une fraction de la profession ait préféré s’en tenir à l’irréalisme formel, tout en prétendant au pouvoir explicatif de ses modèles. Pour ce faire, il a fallu invoquer l’hypothèse d’ergodicité.
Confrontée aux diverses objections provenant soit des écoles institutionnalistes, les partisans de la TEG ont tenté un nouveau coup de force pour instituer l’économie comme science du même type que les sciences de la nature. Pour rompre les ponts avec les sciences sociales, ils ont eu recours à l’hypothèse ergodique[67].
L’emploi d’un métaphore empruntée à la mécanique et à la physique est ici parfaitement conscient. Il s’agit de renforcer la dimension mécaniste de la représentation de l’économie. L’hypothèse ergodique a été formulée au tournant du XXème siècle pour trouver une solution à des problèmes relevant de la physique des gaz. Au sens de sa définition par H. Poincaré, elle implique que, dans un système donné on soit en présence d’une récurrence parfaite. Elle postule alors l’égalité des moyennes de phase dans une expérimentation où il n’est plus possibles de mesurer un nombre suffisant de micro-phénomènes. Au sens donné par von Neumann, elle signifie une convergence forte des résultats[68]. En économie, cette hypothèse permet de supposer que si les observations statistiques disponibles relèvent de processus stochastiques, alors il y a convergence à l’infini. Ceci donne une justification mathématiquement élégante à l’hypothèse des anticipations rationnelles[69]. Dans un environnement ergodique, le futur peut être saisi par la projection de statistiques récoltées sur le passé[70]. On suppose donc qu’il y a des lois en économie, au sens que l’on donne au terme de loi en physique. Même si elles ne nous sont pas directement accessibles, il est alors possible d’en déduire le mouvement par des observations statistiques, même imparfaites.
L’hypothèse ergodique en économie revient, dans sa forme originelle, à postuler un déterminisme complet. Pour la TEG, qui plus est, les lois de détermination sont, à terme, directement intelligibles. Il en découle une vision particulière de la notion même d’incertitude. En effet, si il y a une détermination des mouvements de l’économie par des lois de portée et de nature générales, alors il y a dans la nature même de l’économie un ordre objectif des probabilités des différents futurs. L’incertitude quant au futur est ainsi toujours probabilisable, ce qui est le fond même du discours tenu par les théoriciens de l’information imparfaite[71]. Cette vision s’est très tôt heurtée à une autre conception, celle développée par F. Knight[72], pour laquelle il existe toujours une part, certaines fois résiduelle mais d’autres bien plus importante, d’événements dont il est impossible e considérer leur émergence dans une logique probabiliste. Cette vision de l’incertitude, opposée au risque (qui lui est probabilisable) contient une rupture fondamentale avec la TEG.
La TEG se voulait, et se veut toujours pour ses défenseurs, une théorie de l’intérêt commun par le biais des actions individuelles, et une approche matérialiste, basée sur l’intérêt matériel des acteurs, de la production et de la distribution des richesses. En réalité, la TEG s’avère soit idéaliste avec en particulier des hypothèses fortes quant à l’immanence de certains comportements et au refus du temps, soit complètement centralisée. Elle implique ainsi ou une intervention divine ou un État despotique. Les critiques faites à la planification centralisée, qu’il s’agisse du reproche d’une omniscience supposée du planificateur ou de sa dictature, s’appliquent alors directement au modèle dominant d’économie de marché. Un certain nombre d’économistes, attachés aux principes de la TEG, vont alors reconnaître que cette dernière a peu d’utilité en tant que description du monde réel, mais qu’elle présente l’intérêt de fournir un cadre théorique cohérent, permettant des programmes de recherches allant progressivement vers plus de réalisme[73]. Il est loin d’être sur que cette tendance se soit réellement manifestée. On pourrait au contraire considérer aujourd’hui que la TEG s’enfonce dans le dogmatisme et la rigidification[74]. Ce point a d’ailleurs été reconnu par F. Hahn lui-même, qui évoque, dans un article de 1991, l’importance des rigidifications dogmatiques dans les religions en déclin, pour évaluer l’évolution de la TEG[75].
Le modèle dominant de l’économie de marché, employé explicitement dans les travaux théoriques, et implicitement, comme référence normative, dans les études empiriques d’une large majorité des économistes contemporains, est donc un échec sur le plan scientifique, et se révèle une fraude idéologique dans ses variantes « explicatives » de l’économie réelle. Fondamentalement, il s’avère incapable d’expliquer comment et pourquoi des actions initiées séparément par des individus ou des acteurs séparés peuvent aboutir à un résultat global plus ou moins satisfaisant. La TEG échoue à nous fournir une intelligence du monde réel. Elle ne peut ni être normative au sein d’une discipline, ni prétendre à fonder un discours prescriptif dans le domaine de l’action en politique économique,
Notes
[1] L. Walras, Éléménts d’économie politique pure ou théorie de la richesse sociale, Pichon et Durand-Auzias, Paris, 1900.
[2] M. Morishima, “The Good and Bad Use of Mathematics” in P. Viles & G. Routh, (edits.), Economics in Disarray , Basil Blackwell, Oxford, 1984
[3] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94. voir aussi G. Berthoud, “L’économie: Un ordre généralisé?”, in Revue Semestrielle du MAUSS, n°3, op.cit., pp. 42-58.
[4] La meilleure présentation étant G. Debreu, Theory of Value: an axiomatic analysis of economic equilibrium, Yale University Press, New Haven, 1959.
[5] On trouvera de bonnes critiques du mécanicisme et du réductionisme de la théorie néoclassique et de la TEG dans les ouvrages et articles suivants: N. Georgescu-Roegen, « Mechanistic Dogma in Economics », in Brittish Review of Economic Issues, n°2, 1978, mai, pp.1-10; du même auteur, Analytical economics, Harvard University Press, Cambridge, Mass., 1966. G. Seba, « The Development of the Concept of mechanism and Model in Physical Science and Economic Thought », in American Economic Review – Papers and Proceedings , vol.43, 1953, n°2, mai, pp.259-268. G.L.S. Shackle, Epistemics and Economics : a Critique of Economic Doctrines, Cambridge University Press, Cambridge, 1972.
[6] O. Favereau, “Marchés internes, marchés externes”, in Revue Économique, vol. 40, n°2, mars 1989, pp. 273-328.
[7] C. Johnson, Japan, Who Governs?, Norton, New York, 1995.
[8] B. Guerrien, “L’introuvable théorie du marché”, in Revue Semestrielle du MAUSS, n°3, op.cit., pp. 32-41.
[9] Voir aussi, M. de Vroey, “S’il te plaît, dessine moi…un marché”, in Économie Appliquée, tome XLIII, 1990, n°3, pp. 67-87.
[10] A. D’Autume, Croissance, Monnaie et Déséquilibre, Economica, Paris, 1985.
[11] F. Hahn & T. Negishi, “ A theorem of non-tatonnement stability”, in F. Hahn, Money, Growth and Stability, Basil Blackwell, Oxford, 1985.
[12] M. de Vroey, “la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général”, in Revue Économique, vol. 38, n°3, mai 1987, pp. 773-805.
[13] A.V. Banerjee et E.S. Maskin, « A walrasian theory of money and barter », in Quarterly Journal of Economics , vol. CXI, n°4, 1996, novembre, pp. 955-1005. Voir aussi A. Alchian, « Why Money? », in Journal of Money, Credit and Banking, Vol. IX, n°1, 1977, pp. 133-140.
[14] M .Weber, Economy and Society: An Outline of Interpretative Sociology, University of California Press, Berkeley, 1948, p.108.
[15] J.M. Keynes, « A tract on Monetary reform », in J.M. Keynes, Essays in Persuasion, Rupert Hart-Davis, London, 1931. Citation reprise de la traduction française, Essais sur la monnaie et l’économie, Payot, coll « Pettite Bibliothèque Payot », Paris, 1971, pp.16-17.
[16] Idem, p.21.
[17] J.M. Grandmont, Money and Value , Cambridge University Press et Éditions de la MSH, Londres-Paris, 1983.
[18] Sur ce point l’article fondateur est A.C. Pigou, “The Classical Stationary State” in Economic Journal , vol. 53, 1943, pp. 343-351. Une version moderne du raisonnement est présentée dans D. Patinkin, Money, Interests and Prices, Harper & Row, New York, 1965, 2ème édition.
[19] Le défenseur le plus radical de cette position est R. Lucas, “An Equilibrium Model of Business cycle”, in Journal of Political Economy , vol. 83, 1975, pp. 1113-1124.
[20] J.M. Grandmont, “Temporary General Equilibrium Theory”, in Econometrica, vol. 45, 1977, pp. 535-572.
[21] J.M. Grandmont, Money and Value , op.cit., pp. 10-13.
[22] J.M. Grandmont, Money and Value , op.cit., pp. 38-45.
[23] J.E. Stiglitz, Wither Socialism ?, MIT Press, Cambridge, Mass., 1994.
[24] M. Friedman, « The Methodology of Positive Economics », in M. Friedman, Essays in Positive Economics, University of Chicago Press, Chicago, 1953, pp. 3-43.
[25] Voir, J. Robinson, « The production function and the theory of capital », in Review of Economic Studies, vol. XXI, (1953-1954), pp. 81-106. R.M. Solow, « The production function and the theory of capital », in Review of Economic Studies, vol. XXIII, (1955-1956), pp. 101-108; Idem, « Substitution and Fixed Proportions in the theory of capital », in Review of Economic Studies, vol. XXX, (juin 1962), pp. 207-218.
[26] P.A. Samuelson, « Parable and Realism in Capital Theory: The Surrogate Production Function », in Review of Economic Studies, vol. XXX, (juin 1962), pp. 193-206.
[27] P. Mirowski, « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191.
[28] Voir, pour la présentation la plus classique et la plus utilisée pédagogiquement, P.A. Samuelson, Foundations of Economic Analysis, Harvard University Press, Cambridge, mass., 1948.
[29] A. Eichner, « Why Economics is not yet a Science », in A. Eichner, (ed.), Why Economics is not yet a Science, M.E. Sharpe, Armonk, NY., 1983, pp. 205-241. D.M. Hausman, The Inexact and separate science of Economics, Cambridge University Press, Cambridge, 1992, ch. 1.
[30] M. Blaug, The Methodology of Economics, Cambridge University Press, Cambridge, 1980, pp. 159-169.
[31] J. Sapir, Quelle économie pour le XXIème siécle, Paris, Odile Jacob, 2005, chapitre 1.
[32] Olivier Favereau donne une bonne analyse de comment interpréter théoriquement et historiquement le terme d’orthodoxie économique. O. Favereau, « L’économie du sociologue ou : penser (l’orthodoxie) à partir de Pierre Bourdieu », in B. Lahire (edit.), Le Travail sociologique de Pierre Bourdieu, La Découverte, Paris, 2001, pp. 255-314.
[33] H.A. Simon, « Rationality as Process and as Product of Thought », in American Economic Review, vol. 68, n°2/1978, pp. 1-16.
[34] Pour une discussion sur ce point : J. Sapir, Les trous noirs de la science économique, Albin Michel, Paris, 2000.
[35] Voir O. Favereau, « Marchés internes, Marchés externes », in Revue Économique, vol.40, n°2/1989, mars, pp. 273-328.
[36] G. Debreu, Théorie de la Valeur, Dunod, Paris, 1959.
[37] B. Guerrien, L’économie néo-classique, La Découverte, coll. Repères, Paris, 1989.
[38] Cette théorie de l’Utilité Espérée est liée au « Paradoxe de Saint-Petersbourg », D. Bernoulli, « Specimen Theoria Novae de Mensura Sortis » in Commentarii Academiae Scientarum Imperiales Petrapolitane, 1738, vol. 5, pp. 175-192, Saint-Petersbourg.
[39] J. von Neumann et O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947 (2ème édition).
[40] V. Pareto, Manuel d’économie politique, M. Giard, Paris, 1927.
[41] J. Von Neuman et O. Morgenstern, Theory of Games and Economic Behavior, Princeton University Press, Princeton, NJ, 1947, 1953; K. Arrow Social Choice and Individual Values, op.cit.
[42] H. Sonnenscheim, « Do Walras Identity and Continuity Characterize the Class of Excess Demand Fonctions » in Journal of Economic Theory, vol. 6, n°2/1973, pp. 345-354.
[43] B. Guerrien, L’économie néo-classique, op.cit., pp. 42-45.
[44] M. Allais, « Le comportement de l’homme rationnel devant le risque. Critique des postulats de l’école américaine » in Econométrica, vol. 21, 1953, pp. 503-546. Voir aussi M. Allais et O. Hagen (edits.) Expected Utility Hypotheses and the Allais Paradox, Reidel, Dordrecht, 1979.
[45] Voir P. Slovic et A. Tversky, « Who Accept’s Savage Axioms? » in Behavioural Science, vol. 19/1974, pp. 368-373.
[46] Voir L. Savage, The Foundations of Statistics, Wiley, New York, 1954; D. Ellsberg, « Risk, Ambiguity and the Savage Axioms » in Quarterly Journal of Economics, vol. 75, n°3/1961, pp. 643-669.
[47] F.J. Roethlisberger et W.J. Dickson, Management and the Worker, Harvard University Press, Cambridge, Mass., 1939.
[48] R. Rosenthal et L. Jakobson, Pygmalion à l’école – L’attente du maître et le développement intellectuel des élèves, traduit par S. Audebert et Y. Rickards, Casterman, Paris, 1971 (Pygmalion in the Classroom, Holt, Rinehart and Winston, NY, 1968).
[49] S. Lichtenstein et P. Slovic, « Reversals of Preference Between Bids and Choices in Gambling Decisions » in Journal of Experimental Psychology, n°86, 1971, pp. 46-55.
[50] S. Lichtenstein et P. Slovic, « Reponse induced reversals of Preference in Gambling: An Extended Replications in Las Vegas » in Journal of Experimental Psychology, n°101,/1973, pp. 16-20.
[51] P. Slovic et S. Lichtenstein, « Preference Reversals : A Broader Perspective », in American Economic Review, vol. 73, n°3/1983, pp. 596-605.
[52] A. Tversky, « Rational Theory and Constructive Choice », in K.J. Arrow, E. Colombatto, M. Perlman et C. Schmidt (edits.), The Rational Foundations of Economic Behaviour, Macmillan et St. Martin’s Press, Basingstoke – New York, 1996, pp. 185-197, p. 187.
[53] S. Lichtenstein et P. Slovic, « Reversals of Preference Between Bids and Choices in Gambling Decisions » in Journal of Experimental Psychology, vol. 89/ 1971, pp. 46-55. Idem, « Reponse-Induced Reversals of Preference in Gambling and Extendes Replication in Las Vegas », in Journal of Experimental Psychology, vol. 101/1973, pp. 16-20.
[54] Idem et A. Tversky, « Rational Theory and Constructive Choice », op.cit., p. 195.
[55] D. Kahneman, « New Challenges to the Rationality Assumption » op.cit..
[56] D. Kahneman, J. Knetsch et R. Thaler, « The Endowment Effect, Loss Aversion and StatuQuo Bias » in Journal of Economic Perspectives , vol. 5/1991, n°1, pp. 193-206.
[57] D. Kahneman et J. Snell, « Predicting a Changing Taste » in Journal of Behavioral Decision Making , vol. 5/1995, pp. 187-200. I Simonson, « The Effect of Purchase Quantity and Timing on Variety-Seeking Behavior » in Journal of Marketing Research, vol. 27, n°2/1990, pp. 150-162.
[58] D. Kahneman, D.L. Frederickson, C.A. Schreiber, D.A. Redelmeier, « When More Pain is Preferred to Less: Adding a Better End », in Psychological Review , n°4/1993, pp. 401-405.
[59] Un exemple de ce type de littérature: P.A. Chiappori, “Sélection naturelle et rationalité absolue des entreprises”, in Revue Économique, vol. 35, n°1/1984, pp. 87-106.
[60] O. Favereau, “Marchés internes, marchés externes..” op. cit., pp. 281-282.
[61] O. Favereau, “Marchés internes, marchés externes..” op. cit., p.280.
[62] O.E. Williamson, The Economics Institution of Capitalis: firms, markets, relational contracting, Macmillan & The Free Press, new York, 1975.
[63] M. de Vroey, “la possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général”, in Revue Économique, vol. 38, n°3, mai 1987, pp. 773-805.
[64] M. de Vroey, “S’il te plaît, dessine moi…un marché”, in Économie Appliquée, tome XLIII, 1990, n°3, pp. 67-87, p. 75.
[65] C.P. Kindleberger, Manias, Panics and Krashes, Basic Books, New York, 1989, édition révisée.
[66] O.E. Williamson, The Economic Institutions of Capitalism, Firms, Market, Relational Contracting, Free Press, New York, 1985, pp. 391-2.
[67] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londres, 1969.
[68] Pour von Neuman, soit F une fonction complexe sur W de carré intégrable, la suite des fonctions:
n-1
1/n   S   f. qk converge en moyenne quadratique vers une fonction F de carré intégrable et q-invariante.
k=0
Voir, P.A. Meyer, “Théorie ergodique et potentiels”, in Annales Inst. Fourier , t. XV, fasc. 1, 1965.
[69] P. Billingsley, Ergodic Theory and Information, Kreiger Publishers, Huntington, 1978. Pour une application directe, R. Lucas et T.J. Sargent, Rational Expectations and Econometric Practices, University of Minnesota Press, Minneapolis, 1981, pp. XII – XIV.
[70] Voir la discussion sur ce point in P. Davidson, “Some Misunderstanding on Uncertainty in Modern Classical Economics”, in C. Schmidt (ed.), Uncertainty and Economic Thought, Edward Elgar, Cheltenham, 1996, pp. 21-37.
[71] J. Machina, “Choice Under Uncertainty: Problems Solved and Unsolved”, in Journal of Economic Perspectives, vol. 1, n°1, 1987.
[72] F. Knight, Risk, Uncertainty and Profit , Houghton Mifflin, New York, 1921. Voir en particulier pp. 19-20 et 232.
[73] K. Arrow et F. Hahn, General Competitive Analysis, Holden-Day, San Francisco, 1971, introduction.
[74] Voir D.M. Hausman, The Inexact and Separate Science of Economics, Cambridge University Press, Cambridge, 1992. S.C. Dow, “Mainstream Economic Methodology”, in Cambridge Journal of Economics, vol. 21, n°1/1997, pp. 73-93.
[75] F.H. Hahn, “The next hundred years”, in Economic Journal, vol. 101, n°404, numero spécial du centenaire.

Este artigo encontra-se em: FOICEBOOK http://ift.tt/2v2rFZf

Anúncios