mardi 2 décembre 2008
Willem Buiter : la politique monétaire sans complexe
jeudi 27 novembre 2008
Crise financière: dommages collatéraux
I/ La sonnette d’alarme
On peut envisager deux liens entre la crise et l’aide aux développements. Le premier plaiderait pour un rôle accru de l’aide. La crise s’étend aux pays émergents, qui n’ont rien demandé et en sont les victimes indirectes. Au-delà des difficultés à emprunter, les pays émergents et en voie de développement vont aussi voir chuter leurs revenus tirés du commerce avec les pays riches. L’investissement direct à l’étranger en provenance de ces mêmes pays riches risque de ne pas se porter très bien non plus, tout comme les flux de portefeuilles. Au final il y aura donc une baisse de revenus pour les pays pauvres et l’aide aurait un rôle à jouer pour compenser ces variations brutales de revenus. Nous laisserons de côté cette possibilité pour ce post, si ce n’est pour rapidement préciser que dans le passé l’aide n’a généralement pas compensé les baisses de revenus, au contraire, donc à moins d’un changement de comportement cette fonction a peu de chances d’être remplie.
Deuxième voie : la crise touche en premier lieu les pays riches. Ceux-ci entrent en récession et ils vont devoir se serrer la ceinture. Le stimulus budgétaire va creuser les déficits et les pays développés vont envisager de tailler dans les dépenses qui ne servent pas à amortir les effets de la crise. Or l’aide au développement est un candidat idéal. Elle est inutile face à la récession(1) et sa diminution est « facile » politiquement. Nous n’avons encore jamais vu d’élections se jouer sur l’aide au développement, ou des syndicats bloquer le pays car elle était diminuée. David Roodman, du Center for Global Development, un think tank basé à Washington, a été le premier à tirer la sonnette d’alarme. Il montre que les crises du début des années 90 en Finlande, Norvège, et Suède, mais aussi celle du Japon en 1990 se sont toutes traduites par des chutes brutales de leur aide au développement. Je reproduis ci-dessous son graphique pour la Scandinavie.
L’OCDE, par la voix de son Secrétaire Général Angel Gurría, a envoyé une lettre aux chefs d’états et aux gouvernements des pays membres pour les inviter à « souscrire à une Déclaration sur la politique d’aide qui aurait pour effet de confirmer les promesses d’aide antérieures et d’éviter des coupes dans les budgets d’aide au développement ». Elle les enjoint « à ne pas répéter les erreurs que nous avons pu commettre dans le passé à la suite de la récession du début des années 90 ». L’OCDE a calculé qu’entre 1992 et 1997 l’aide avait diminué de 0.33 à 0.22% du revenu national brut. Le passé semble bien indiquer que l’aide va chuter très prochainement. Il est par contre difficile de savoir pour combien de temps. Roodman estime probable une diminution sur les cinq prochaines années. Inutile de préciser que toutes les belles promesses sur la fameuse cible des 0.7 percent de revenu national brut risquent d’apparaître encore plus caduques qu’elles ne le sont déjà aujourd’hui.
II/ L’aide est-elle vraiment victime des récessions ?
L’argument de Roodman paraît irréfutable. Cependant il faut bien reconnaître qu’il ne regarde que des cas extrêmes et donc nécessairement en nombre très réduit. On pourrait avancer d’autres explications pour la chute de l’aide au début des années 90: la fin de la guerre froide et donc la fin du soutien à certains pays jugés stratégiquement importants, mais aussi la « fatigue de l’aide », c’est-à-dire le moment où beaucoup de pays ont commencé à sérieusement s’interroger sur l’efficacité de l’aide au développement. Par ailleurs on ne peut pas vraiment reprocher cette méthode à Roodman. Nous vivons une crise aux proportions jusqu’alors inconnues donc seuls quelques cas extrêmes peuvent, peut-être, nous informer.
L’OCDE, par le biais cette fois de son Centre de Développement, relativise un peu (regardez la première présentation par Andrew Mold, pages 33-34). Il souligne d’abord que de manière générale il n’existe quasiment pas de relation entre croissance dans le pays développé et niveau d’aide. Par exemple certains ont réduit leur aide en période de croissance (la France par exemple entre 1997 et 2001). Il rappelle ensuite que lors de récessions modérées l’aide a rapidement retrouvé son niveau d’avant crise. Enfin il fait remarquer que l’aide ne constitue qu’une part très faible du budget des états et des plans de sauvetage. Ce n’est sûrement pas sa réduction qui va permettre de financer le stimulus budgétaire.
Un petit calcul rapide sur les données de l’aide de 1960 à 2006 permet de chiffrer l’effet d’une récession : si l’année précédente l’économie n’était pas en récession, l’aide brute au développement augmente en moyenne de 16%. Si elle était en récession, alors l’aide n’augmente « que » de 4%. Cet effet est plus important si 2 ans auparavant l’économie était en récession : dans ce cas l’aide n’augmente que de 2%. La croissance de l’aide serait donc ralentie mais ne deviendrait pas pour autant systématiquement négative. On observe aussi que plus la récession est longue et plus ce ralentissement est marqué. Cependant les récessions longues sont relativement rares et leur étude repose sur peu d’observations. Il devient donc difficile d’en tirer des conclusions générales.
III/ Conclusion
Difficile de se faire une idée précise au final. D’un côté, on voit de bonnes raisons de penser que l’aide va chuter, et les expériences scandinaves le confirment. De l’autre il n’est pas clair que les récessions entraînent systématiquement une baisse de l’aide. Il est difficile, comme toujours, de prédire l’avenir. Il semble raisonnable de penser que l’aide ne va sûrement pas fortement augmenter dans les toutes prochaines années. Les promesses des pays développés, déjà jugées particulièrement difficiles à atteindre l’an dernier, ne seront donc pas respectées.
NOTES :
(1) C’est sûrement faux dans le long terme. Les pays développés n’ont pas intérêt à voir les pays pauvres devenir encore plus pauvres, mais en ce moment le long terme ne pèse pas lourd dans les prises de décision.
Crédit photo : gwburke2001
mercredi 26 novembre 2008
Dream team, le retour !
Parmi les nominations, certaines étaient attendues et commentées depuis quelques semaines, comme celle de Larry Summers au poste de top economic advisor (Head of the National Econmic Council). D’autres en revanche étaient moins prévisibles, et en particulier celle de Christina Romer comme chairman of the Council of Economic Advisors (CEA) a déclenché un peu l’euphorie au département d’économie de Berkeley.
Christina Romer et son mari David, qui sont un couple à la scène comme à la ville, ont déjà conseillé le candidat Obama durant la campagne. Mais il est certain que dans le milieu, tout le monde attendait la nomination au poste de chairman of the CEA du jeune et talentueux économiste de la Chicago Business School, Austan Goolsbee, qui a été le premier conseiller économique d’Obama et un soutien sans faille depuis 2 ans. [C'est le même Goolsbee que l'équipe de l'IFS de notre ami Antoine a cru pouvoir s'offrir il y a quelques mois de cela, sans trop de succès]. Il semblerait, d’après la fama publica, qu’Obama ait cherché désespérément à féminiser son équipe afin de rendre la photo de groupe sur le perron de la Maison-Blanche un peu moins débordante de testostérone. Quoi qu’il en soit, la nomination de Christina Romer n’est certainement pas un choix de complaisance : elle fait véritablement partie d’une ambition remarquable de la part du nouveau président de s’entourer de la clique de cerveaux la plus pointue du monde, qui n’est pas sans rappeler les premiers moments des présidences de Roosevelt ou de Reagan.
Voici donc quelques trucs à savoir sur la nouvelle maîtresse des orientations de politiques économiques de la plus grande puissance mondiale. C’est une super pointure dans le domaine académique, elle a un parcours exemplaire et une culture économique et historique vraiment impressionnante. Ses travaux, avec son mari, portent essentiellement sur les politiques budgétaires et monétaires, la Grande Dépression et les cycles économiques. C’est une personnalité peu marquée politiquement, et peu suspecte de vouloir uniquement coller au bon plaisir du Prince. Son dernier papier empirique sur les effets des politiques de relance budgétaires sur la croissance est en effet loin d’être euphorisant pour la nouvelle administration : les hausses d’impôt ont en effet d’après les époux Romer un impact macroéconomique assez néfaste indépendamment des conditions du cycle économique. Ce qui ne veut bien évidemment pas dire qu’une relance ultra-musclée n’est pas souhaitable à l’heure actuelle, lorsque l’on est en phase de récession.
La question qui reste pendante néanmoins est celle de la cohabitation entre Romer et Summers, Larry Summers étant une forte tête et réputé assez macho (il a dû quitter le poste de Président de l’université d’Harvard suite à un scandale autour de certaines déclarations qu’ils auraient faites sur les aptitudes respectives en sciences des garçons et des filles). Selon la plupart des commentateurs qui connaissent bien les deux personnalités, comme Mankiw ou Brad de Long, il ne devrait pas y avoir de gros problème, les deux se connaissant bien et Romer étant une vraie « consensus builder ». Et quoi qu’il en soit, la structure même du National Economic Council, fondé par Clinton en 1993 et donc dirigée par Summers, en fait un organe exécutif beaucoup plus puissant qui devrait lui donner un ascendant sur le Council of Economic Advisors, qui est plus une sorte de chambre de cerveaux en fusion destinés à conseiller le président de manière moins formelle.
Il faut également saluer la nomination par le nouveau président de Peter Orszag au poste de director of the White House Office of Management and Budget (sorte de super ministère du budget et de l'organisation des dépenses publiques), qui, à 47 ans, est déjà un vétéran des batailles budgétaires et de Timothy Geithner, président de la Reserve fédérale de New York, au poste de secrétaire au Trésor (le vrai ministre des Finances). Ces deux personnalités sont expérimentées et prouvent de la part d'Obama une volonté d'envisager le problème de la relance économique dans toutes ses dimensions. On voit donc se profiler à l'horizon un gros stimulus fiscal avec dans le même temps une très musclée rationalisation de la dépense publique.
Il n’en reste pas moins remarquable de voir autant de gros cerveaux autour du Président, et l’on ne peut s’empêcher de constater que le niveau moyen du conseil de politique économique du futur président est à des années-lumières de ce que l’on peut voir actuellement en France. Non seulement Romer ou Summers en connaissent plus sur l’économie qu’Henri Gaino, mais plus encore, il est frappant de voir à quel point le conseil économique du Président est organisé, encadré et formalisé. Comme le soulignait Brad de Long, de telles structures permettent de faire émerger des consensus sur la politique économique à suivre, laissant beaucoup moins de place et d’influence pour les lobbysites et les spin-doctors, ce qui ne peut que profiter à la qualité de la politique économique mise en place.
lundi 24 novembre 2008
Le problème des retraites (8/40) : pédagogie écrite et orale
Comme toutes les premières fois, c’est à la fois stressant et un peu excitant. Peur de ne pas être à la hauteur, le trou blanc, la panne… et puis pris dans l’émission, on se laisse prendre par la conversation et le débat. Les journalistes et J-C. Leduigou ont été indulgents avec le petit jeune et au final l’expérience n’a pas été désagréable. Elle m’a surtout permis de rencontrer un responsable d’une grande centrale syndicale et d’essayer de le convaincre de considérer notre proposition.
Sur le fond, J-C. Leduigou n’a pas (encore) été convaincu par notre proposition même s’il semble acquis à la proposition de revoir complètement notre système de retraite. Il partage le diagnostic à l’origine de cette proposition : un système complexe, parsemé d’injustices et d’incertitude sur les droits à la retraite, dont la garantie financière n’est pas assurée et dont certains aspects (comme la revalorisation par les prix) ont des effets pervers encore peu visibles.
A l'inverse son opposition au système de comptes notionnels comme un retour à un « système d’assurance » et comme un système inégalitaire ne m’a pas vraiment convaincu. Son affirmation que nous sommes sorti du système d’assurance vieillesse (et dans un système de « salaire différé ») me semble reposer sur une vision étrange (ou que je ne comprends pas bien) des cotisations retraites : pas vraiment des cotisations (sinon il y a assurance), pas des impôts (elles ouvrent des droits à la retraite)… Qu’est-ce alors qu’un système de « salaire différé » ? Un système où la retraite dépend du dernier salaire uniquement ? profitant ainsi aux salaires plus élevés et organisant la redistribution des plus pauvres vers les plus riches ?
Quant à l’accusation récurrente que le système de comptes notionnels est inégalitaire, il repose sur deux erreurs ou malentendus : la première est de croire que le système actuel est le parangon de la redistribution quand il organise de multiples redistributions à l’envers, qui restent cachées à l’oeil du citoyen. La seconde est d’oublier que le système de comptes notionnels repose sur un deuxième pilier de redistribution, financé par l’impôt, qui permet de créditer les comptes de tous ceux qui ont des aléas de carrière ou des salaires faibles tout au long de leur vie. Il n’y a pas de niveau de redistribution qu’on ne puisse répliquer (et a fortiori augmenter) dans un tel système. La seule condition requise est la transparence.
Pour poursuivre le débat, les lecteurs peuvent aller lire (ou relire) les posts consacrés la retraite sur Ecopublix.
jeudi 20 novembre 2008
Inégalités II: la boîte à outils du petit économiste
I/ Revenus, préférences et le paysan de l’île de Ré
La première question à se poser est toujours celle de la définition de l’objet qu’on entend mesurer, ou dont on entend analyser la distribution entre les ménages. Or le revenu est par nature un élément ambivalent aux yeux des économistes, car il est fondamentalement envisagé comme le résultat d’un choix, la manifestation des préférences des individus entre travail et loisir. Le modèle microéconomique de base représente en effet le revenu comme la rémunération tirée par un individu sur le marché du travail des heures qu’il choisit de travailler plutôt que de rester à la maison jouer au poker online. Un faible revenu peut donc signaler tout bêtement une préférence importante pour le loisir. Dans la pratique, il suffirait de regarder le revenu divisé par le nombre d’heures de travail (le salaire horaire par exemple) pour contrôler cet effet. Malheureusement, cette information est rarement disponible pour l’administration fiscale, et c’est d’ailleurs sur ce constat que se fonde la plus grande partie de la littérature sur la taxation optimale des revenus depuis la contribution décisive de Mirrlees.
Plus généralement, la réalisation des revenus résulte non pas d’un seul, mais de toute une série d’arbitrages qui impliquent directement les préférences des individus, et qui de ce fait, posent problème à l’économiste, qui a comme chacun sait, le plus grand mal à se dépatouiller des préférences.
Prenons un exemple concret : le fameux « paysan de l’île de Ré ». Ce brave homme cultive des patates, dont il tire un revenu très modeste sur un terrain qu’il possède sur l’île de Ré. La valeur de son terrain s’apprécie très fortement, et le voilà qui doit désormais payer l’ISF. Le gouvernement trouve injuste qu’une personne aux si faibles revenus doive payer l’ISF, et invente donc le bouclier fiscal. Pour autant, cette personne a-t-elle vraiment de si faibles revenus, et pourquoi ? De facto, notre paysan fait le choix de ne pas vendre son terrain pour continuer à cultiver ces patates, mais il pourrait tout aussi bien vendre son terrain, et toucher des revenus très conséquents de son patrimoine placé ensuite de manière efficace. Le paysan de l’ile de Ré a donc des revenus réalisés faibles, mais des revenus potentiels élevés, qui pourraient tout à fait justifier une taxe redistributive. S’il a des revenus faibles, c’est qu’il préfère ne pas vendre son terrain.
Et c’est là le noeud du problème de redistribution pour les pouvoirs publics : comment mettre en place des transferts sociaux à partir de l’observation des seuls revenus réalisés ? Cela revient en effet à taxer implicitement des comportements sur la seule base de différences de préférences. En octroyant le bouclier fiscal, les pouvoirs publics redistribuent-il vraiment vers des ménages à bas niveau de vie, ou ne redistribuent-il pas plutôt vers des ménages ayant une préférence marquée pour les parties de croquet avec Lionel et Sylviane ?
Pour contourner cette épineuse question, l’économie publique s’appuie souvent sur la notion de « total income », ou « Haig-Simons » income, qui tente d’appréhender directement la contrainte budgétaire des individus qui détermine l’espace de leur choix. Cette contrainte budgétaire c’est en effet la consommation totale potentielle d’un individu, c’est-à-dire ce qu’il a consommé effectivement plus les variations de son patrimoine au cours de la période considérée. Si elle est théoriquement astucieuse, cette définition du revenu est difficile à mettre en œuvre dans la pratique du fait de l’absence de mesures adéquates de la consommation réalisée par les individus. Mais elle offre toutefois une bonne base pour envisager la redistribution optimale. Sur la base du « revenu total » à la Haig-Simons, le paysan de l’île de Ré fait partie des hauts revenus : il est donc justifiable de le taxer indépendamment de toute considération sur le caractère socialement bon ou néfaste de son attachement maladif à son bout de rocher !
II/ Appréhender la distribution des transferts : des revenus bruts au niveau de vie
Si l’on évacue ce problème fondamental des préférences, la mesure des revenus réalisés n’en reste pas moins compliquée. En effet, les revenus sont composés de différentes strates. Pour faire simple, on peut résumer la formation des revenus des ménages, un peu sur le modèle de la comptabilité nationale, comme le résultat de plusieurs étapes :
- d’abord les revenus primaires, qui sont la rémunération que les facteurs de production (travail, capital) tirent avant tout transfert ou taxation. Les anglo-saxons appellent communément ces revenus primaires « market incomes », car ils résultent de la confrontation de l’offre et de la demande de travail, de l’offre et de la demande de capital. Ceci ne revient pas pour autant à dire que les facteurs institutionnels n’influent pas sur ces revenus : bien au contraire, l’existence d’un salaire minimum, ou de régulations des marchés (du travail, de l’épargne, etc) peuvent directement affecter la répartition de ces revenus primaires. Toutefois, la distribution des revenus primaires nous donne des indications importantes sur ce qui se passe avant impôts et transferts, que l’on considère comme les deux opérations à vocation directement redistributives des pouvoirs publics. Notons que le revenu primaire du travail, selon cette approche, est pour la France le salaire super-brut, c’est-à-dire incluant les cotisations sociales employeurs et salariés. Ceci provient du fait que l’incidence fiscale de ces cotisations est sur les salaires, non sur les profits.
- Ensuite viennent les revenus nets, c’est-à-dire, net de cotisations et taxes, et lorsque l’on ajoute les transferts directs (allocations familiales, prime pour l’emploi, etc.) et indirects, on obtient les revenus disponibles. Attention, en toute logique, il faut prendre en compte pour le calcul de ce revenu disponible tous les transferts individualisables et non individualisables de l’Etat. C’est-à-dire tout ce qui dans la dépense publique financée par les prélèvements obligatoires revient aux ménages sous forme de transfert : éducation, dépense de santé prise en charge par la sécurité sociale, dépenses de l’Etat pour la sécurité nationale (armée, police), etc. La liste est longue… Ces dépenses assurées par les pouvoirs publics sont autant de dépenses que l’individu ne paie pas directement. Ce sont donc, dans sa contrainte budgétaire, des formes de revenus implicites. Ces dépenses des administrations publiques à destination des ménages sont par nature très difficiles à évaluer. Pour autant, la comptabilité nationale tente de chiffrer au niveau de l’ensemble de la population française ces dépenses. En 2007, les "transferts sociaux en nature" représentaient par exemple plus de 311 milliards d'euros, soit presque 20% du PIB. On obtient ainsi le revenu disponible moyen pour l’ensemble des ménages. Mais les choses se compliquent lorsque l’on essaie de s’intéresser à la distribution de ces dépenses entre les ménages, ce qui est pourtant indispensable pour obtenir une idée de la distribution du revenu disponible. Prenons un exemple simple : la dépense publique d’éducation supérieure. En France, l’éducation supérieure est gratuite. L’Etat transfère donc implicitement du revenu vers les ménages dont les enfants poursuivent des études supérieures. A priori, il suffirait donc de comptabiliser pour tous les ménages déclarant avoir un enfant dans le supérieur un transfert équivalent à la dépense moyenne par étudiant dans le supérieur. Mais il faudrait faire cela pour toutes les dépenses de l’Etat, et donc avoir une idée sur qui consomme toutes ces dépenses publiques, et comment. Par exemple, qui a recours aux services policiers, aux services de justice, et de quelle manière ? Bien malin qui peut répondre à ces questions. C’est pourquoi, la plupart du temps, l’analyse du revenu disponible s’en tient à la prise en compte des seuls transferts directs. N’oublions donc jamais que ceci ne tient que très imparfaitement des très gros effets redistributifs potentiels de la dépense publique dans son ensemble. Avec une dépense moyenne par enfant de 9370 euros en 2006 , un ménage touche bien plus de transfert de l’Etat du fait de la dépense d’éducation supérieure que s’il touchait la prime pour l’emploi, ou des allocations familiales moyennes.
- Enfin, une dernière dimension importante à prendre en compte dans la formation des revenus est la taille du ménage. Pour des raisons que nous avons déjà largement explicitées ici, le fait de vivre à plusieurs génère des économies d’échelle qui sont importantes pour déterminer le niveau de vie, qui se définit comme le revenu disponible divisé par le nombre d’unités de consommation dans le ménage. La manière dont les échelles d’équivalence quantifient ces unités de consommation peut faire varier de manière importante la distribution du niveau de vie, en particulier du fait que le nombre d’individus dans le ménage peut varier entre les ménages en fonction de leur revenu disponible.
Une fois ces belles définitions posées, vient le problème des données. Les données sur les revenus sont nombreuses mais hétérogènes, et ne collent souvent pas aux cadres théoriques dans lesquels on voudrait bien les faire rentrer. Il y a d’abord les données d’enquête auprès des ménages dans lesquelles le revenu est déclaré directement par l’enquêté de manière souvent assez imprécise. Les données fiscales retracent avec beaucoup plus de précision les revenus des ménages qui sont soumis à l’impôt, mais excluent les revenus et transferts exonérés d’impôt sur le revenu et sont de plus collectées par foyer fiscal et non au niveau du ménage (un couple non marié compte pour 2 foyers fiscaux par exemple), ce qui rend difficile le calcul du niveau de vie réel des individus.
Les meilleures sources sont donc celles qui combinent données d’enquête sur les ménages et données fiscales : mais elles sont difficiles à construire et difficile d'accès. Ajoutons pour terminer qu’il n’est pas inutile de prêter une attention particulière aux données ad hoc, type classement des grandes fortunes, ou des 100 sportifs les mieux payés. En effet, les hauts revenus sont souvent difficilement appréhendables et ces sources hétéroclites sont des outils intéressants à combiner avec d’autres sources plus conventionnelles. C’est par exemple ce type de données qu’utilisent avec beaucoup d’intelligence Kaplan et Rauh pour essayer d’évaluer la part des différents secteurs dans l’explosion des inégalités de revenus aux Etats-Unis. Leur conclusion est que les salaires des secteurs bancaires et financiers (« Wall Street ») sont sans doute plus importants que ceux des grands patrons d’entreprises de « Main Street » (les secteurs traditionnels) dans l’envolée des hauts revenus aux Etats-Unis. Un constat que semblaient d’ailleurs partager Roine et Waldenström qui tentent de mettre en évidence une corrélation forte entre niveau de développement financier et part des hauts revenus dans le revenu total au cours du vingtième siècle. Nous reviendrons sur tout cela…
Publié par
Camille
à
19:30
2
commentaires
Libellés : Economie des inégalités
lundi 17 novembre 2008
Prêts pour un stimulus budgétaire ?
Ce post est un court billet pour avoir en tête la question des modalités des politiques macro qui peuvent répondre (à défaut de résoudre) la crise économique actuelle/à venir. Je ne parlerais ici ni de la régulation du marché financier, ni du marché immobilier, mais simplement des politiques macroéconomiques à disposition. Je renvoie aux deux excellents billets (1 et 2) de Jean-Edouard de Ma femme est une économiste pour un débat sur les causes de la crise financière. Si on se concentre sur la bonne façon de répondre à la récession qui approche à grand pas, de nombreuses options sont en ce moment en discussion.
La première approche est d’utiliser la politique monétaire : les banques centrales peuvent baisser les taux d’intérêt et ainsi réduire considérablement l’effet d’une récession. La Fed américaine, dirigée par Ben Bernanke, a réduit ses taux directeurs sans le moindre état d’âme. Le taux officiel est aujourd’hui à 1% et va probablement encore baisser. La BOE (Bank of England), dirigée par Mervyn King, s’est départie de sa crainte habituelle des tensions inflationnistes au Royaume-Uni (taux généralement plus élevés que dans la zone Euro) a réduit son taux de base de 150 points de base (1,5%) pour passer à 3% en dessous du taux de la BCE (à 3,25%). D’autres baisses de taux sont à prévoir. L’inflation, forte ces dernières années avec la hausse des prix du pétrole et des produits alimentaires, est en chute libre partout. Le sceptre de la déflation (baisse des prix) est réel et avec elle la perspective d’une longue récession à la Japonaise : si les prix baissent, le taux d’intérêt réel augmente, et la banque centrale, ne pouvant baisser ses taux en dessous de zéro perd son instrument principal. L’autre problème actuel est que la politique monétaire est moins efficace actuellement du fait que les banques se prêtent entre elles à un taux bien supérieur au taux de la banque centrale (voir ici les explications d’Alexandre Delaigue sur les écarts entre le LIBOR et le taux directeur et ici pour une démonstration graphique par John Authers du Financial Times).
La seconde approche est donc d’utiliser le deuxième instrument classique en macroéconomie : la politique fiscale. C’est là qu’on voit renaître les politiques dites keynésiennes. Paul Krugman disait il y a quelques jours à la BBC : « dans le long terme, Keynes n’est pas mort… » et le prix Nobel de rajouter que ses calculs lui suggéraient un stimulus de l’ordre de 3% du PIB (600 milliards $)… Martin Feldstein, Larry Summers ou Mervyn King ont tous indiqué qu’un stimulus fiscal devait être sérieusement envisagé en plus des « stabilisateurs automatiques » (le fait que dans une récession les impôts reçus baissent avec l’activité, alors que les dépenses augmentent). De nombreux commentateurs voient dans ces prises de position un aveux d’échec du monétarisme ou du non interventionnisme néolibéral : Keynes n’était-il pas définitivement enterré ? Les économistes sont beaucoup moins surpris. Les enseignements de Keynes ont été complètement intégrés par la macroéconomie moderne : quand Keynes pestait dans les années 1930 contre la politique économique de l’époque (refus des banques centrales de baisser les taux d’intérêt, politiques de réduction du déficit, baisse des salaires et licenciement des fonctionnaires etc.), il pourrait voir avec une certaine satisfaction que les leçons de la crise de 29 ont été tirés. Ce que les économistes ont appris depuis, en particulier pendant les années 1960 et 1970, c’est que les politique de relance budgétaires ne peuvent pas avoir d’effet sur la croissance de long terme. Pour avoir un effet, un stimulus fiscal requière un certain nombre de conditions. Un article récent de deux économistes de la Brookings Institution, Douglas Elmendorf et Jason Furman, rappelle les trois recettes pour un stimulus bien réussi : « Timeley, targeted and temporary ».
Principe 1 : un stimulus doit être mis en place au bon moment. L’ambulance, pour être utile, doit arriver avant que le patient n’ait perdu trop de sang. C’est souvent le problème avec la politique budgétaire au sens où elle met du temps à se mettre en place et risque ainsi d’arriver après la bataille. Rien de pire par exemple de voter aujourd’hui des mesures fiscales pour le prochain budget qui va prendre effet avec une année de retard. En même temps, un des avantages de la politiques budgétaire sur la politique monétaire est d’avoir des effets plus immédiats. Ainsi, un stimulus budgétaire peut avoir un effet dès le premier trimestre de son introduction ce qui est rarement le cas d’une baisse des taux directeurs. Les économistes débattent alors de la bonne façon de décider quand déclencher une action budgétaire (si l’emploi baisse deux mois consécutifs par exemple) et quand l’arrêter.
Principe 2 : un stimulus budgétaire doit être ciblé sur ceux qui sont le plus touchés par la crise et les plus susceptibles de dépenser ce supplément de revenu. Faire des baisses d'impôts pour des individus qui vont épargner le supplément de revenu n’aura aucun effet. A ce titre cibler le stimulus sur les ménages les plus pauvres ou les plus touchés par la crise fait sens pour des raisons d’efficacité. Viser aussi les petites entreprises qui sont les plus susceptibles de faire face à des contraintes de crédit est aussi plus efficace. Engager des grands projets d’infrastructure par contre est beaucoup moins efficace : il faut du temps pour préparer des projets d’envergure, et le souhait de vouloir dépenser vite risque de conduire à des gaspillages et à l’inefficacité de la politique budgétaire. Si il est possible d’avancer dans le temps des dépenses ou repousser des prélèvements, ce sont des options à considérer.
Principe 3 : un stimulus doit être temporaire sinon il risque d’être complètement inefficace. En effet, si le stimulus est permanent, la position financière de l’Etat se détériore, conduisant à une action inverse de la banque centrale (forcée d’augmenter les taux d’intérêt). Toute baisse d’impôt (ou hausse des dépenses) permanente est donc à proscrire dans cet exercice. Dans le long terme (ce que reconnaissait Keynes), augmenter le déficit structurel ne permet d’augmenter la croissance, mais va au contraire conduire à des taux d’intérêt supérieurs (et réduire celle-ci). Les baisses d’impôts ou augmentation des dépenses doivent donc non seulement être temporaires mais il est préférable d’annoncer tout de suite qu’une fois la crise passée, il faudra augmenter les impôts plus fortement.
A ces trois conditions valables pour une grande économie comme les Etats-Unis, il faut en rajouter une quatrième pour les petites économies ouvertes comme le Royaume-Uni ou la France: un stimulus doit être réalisé en concertation avec ses partenaires commerciaux sinon il risque d’être complètement dilué par les importations. Pire il risque de conduire à une détérioration plus forte de la position relative de la monnaie du pays en question et ainsi conduire la banque centrale à ne pas baisser ses taux autant que nécessaire. Willem Buiter ajoute enfin sur son blog que la capacité à de faire une relance budgétaire dépend aussi de la position de départ des équilibres budgétaires, la France et la Grande-Bretagne sont plutôt mal placés pour le faire, l’Allemagne, ou la Chine beaucoup mieux. On comprend ainsi mieux les enjeux du G20, où Gordon Brown voulait convaincre ses collègues chinois de célébrer le prestigieux économiste de Cambridge.
Dans le long terme, Keynes n’est pas mort, mais il n’est vraiment vivant que dans le court terme…
lundi 3 novembre 2008
Identité et élections: Obama au bas mot ou les appâts de la pale Palin ?
I/ Electeur médian ou citoyen candidat ?
Les modèles d’économie politique fondateurs d’Hotelling (1929) et de Downs (1957) (présenté plus en détail par Emmanuel dans un post précédent) posent que les candidats à une élection vont adapter leurs propositions de manières à capter la majorité des votes. Les préférences des électeurs sont supposées uniformément réparties sur l’échiquier politique, de l’extrême droite à l’extrême gauche. Pour être élu, le candidat a besoin d’obtenir 50% +1 voix. Il doit donc proposer un programme qui ne soit ni trop à gauche, ni trop à droite : pour être élu, il doit proposer le programme qui satisfait l’électeur positionné exactement au centre de l’échiquier politique, et qui fera basculer la majorité en sa faveur. Ce sont donc les préférences de l’électeur médian qui déterminent les programmes des électeurs, puisque seule son opinion est en fait décisive, ce ne sont pas les convictions politiques du candidat qui déterminent le vote des électeurs, ce sont les préférences politiques de l’électeur médian qui déterminent la politique des candidats. Ainsi, si ce modèle permet une mise en perspective de bien des comportements électoraux, comme l’illustre l’analyse d’Olivier Bouba Olga de l’élection présidentielle Française de 2007, il ne permet pas de rendre compte de cette tendance des électeurs à voter pour le candidat appartenant à leur groupe : si le candidat s’adapte aux préférences de l’électorat, son identité propre n’a aucun rôle à jouer, qu’il soit Noir ou Blanc, homme ou femme, il proposera nécessairement le programme ayant la préférence de l’électeur médian. Il n’y a donc aucune raison rationnelle de voter pour un candidat d’un groupe plutôt qu’un autre.
Cependant, l’une des hypothèses principales de ce type de modèle est que les promesses électorales des candidats sont crédibles : pour être élu, il ne suffit pas d’affirmer que l’on va mettre en œuvre la politique préférée par l’électeur médian, il faut aussi que les électeurs pensent qu’une fois élu, le candidat la mettra effectivement en œuvre. Mais, comme « les promesses n’engagent que ceux qui les écoutent », l’électeur prendra bien soin de n’écouter que les promesses qu’il pense que le candidat tiendra une fois élu. En d’autres termes, il y a des limites à l’adaptation de promesses de campagne du candidat aux préférences de l’électeur médian : passé un certain point, ses promesses sont tout simplement trop loin des préférences connues du candidat, et ne sont plus crédibles.
Les modèles dits du « citoyen candidat » (Osborne et Slivinski, 1996 ; Besley et Coates, 1997) tiennent compte des préférences personnelles des candidats, et donc de la crédibilité de leurs promesses respectives. Dans ce type de modèle, un candidat a une préférence pour un type de politique, et ne peut s’engager qu’à mettre en œuvre celle-ci, toute autre promesse n’étant pas crédible (puisque n’ayant pas sa préférence). Contrairement aux modèles d’électeur médian, le candidat est ici un citoyen, et en ce sens, il accorde de l’importance à la politique qui sera menée. Son but n’est alors plus seulement d’être élu quelles que soit les compromissions qu’il doive consentir afin de parvenir à rassembler une majorité, mais d’être élu afin de mettre en œuvre la politique qui a sa préférence. L’identité du candidat prend alors toute son importance, puisque les électeurs voteront alors pour le candidat ayant les préférences politiques les plus proches des leurs, quelles que soit les promesses de campagnes non crédibles des autres candidats. Les électeurs ayant conscience d’être engagés par les promesses faites par les candidats, ils n’écoutent que celles qui sont crédibles.
Nous avons donc deux types de théories, qui, comme le dit Emmanuel, "prédisent que les électeurs influencent les politiques mises en place" pour les premières, et "que les électeurs ne font que choisir des politiques prédéterminées" pour les secondes. Je vous renvoie à son post pour le test empirique de chacun de ces modèles.
Cependant, seuls les modèles de "citoyen candidat" permettent d’expliquer le comportement de vote identitaire : si l’on assiste à un soutien des Noirs pour un candidat Noir ou des femmes pour un candidat femme, c’est peut être qu’en moyenne, les préférences des Noirs ou les préférences des femmes sont différentes de celles de l’ensemble de la population, et ces groupes auront donc une tendance à voter pour le candidat dont ils savent que les préférences se rapprochent le plus des leurs.
II/ Identité du candidat et politique mise en oeuvre
En pratique cependant, constate t’on réellement un infléchissement des politiques mises en œuvre en fonction de l’identité de l’élu ? Cette question empirique fait l’objet de nombreuses études, en Inde en particulier, où le système de discrimination positive en faveur des femmes et des « scheduled castes » (castes intouchables) offre de nombreuses possibilité de tester l’impact causal de l’identité du dirigeant élu sur les politiques implémentées dans sa juridiction durant son mandat.
Chattopadhyay et Duflo, vont ainsi étudier les Panchayat, système de conseils d’élus dont le rôle est d’administrer les biens publics au niveau du village (Gram Panchayat), du bloc ( Panchayat Samiti) et du district (Zilla Parishad). A la tête des ses conseils sont élus des Pradhan. Depuis 1992, une politique de discrimination positive réserve un tiers des sièges et un tiers des positions de Pradhan aux femmes, tandis qu’une part est aussi réservées aux «scheduled castes» en fonction de leur part dans la population.
La particularité de ce système est que les sièges alloués aux femmes ou aux «scheduled castes» le sont de manière aléatoire, permettant d’attribuer les différences de choix d'investissement entre Panchayat à la politique menée, et non à des différences intrinsèques entre ceux-ci (en particulier, si l’implémentation de la politique de discrimination positive n’était pas aléatoire, on pourrait s’attendre à ce que les Panchayat élisant une femme à leur tête aient des caractéristiques systématiquement différentes de ceux élisant un homme).
C’est cette configuration particulière qui permet de tester l’impact sur la politique de l’identité du dirigeant : est ce qu’avoir une femme ou un membre des «scheduled castes» Pradhan implique une politique différente pour le Panchayat ?
Mettant à profit cette spécificité, Chattopadhyay et Duflo identifient d’abord les préférences des hommes et celles de femmes, en recensant les requêtes adressées par les uns et les autres à l’occasion des réunions des Panchayat, et mettent en évidence que les femmes ont des préoccupations différentes de celles des hommes, proches de leurs occupations traditionnelles (par exemple, les femmes sont plus préoccupées par les questions d’eau potable, dont elles ont la charge, que les hommes, qui eux s’intéresseront plus à la qualité des routes, dont ils ont besoin pour aller travailler hors du village).
Ils montrent alors que dans les Panchayats soumis à la politique de discrimination positive, les politiques menées par les Panchayat dirigés par une femme vont avoir plus tendance à mettre en œuvre une politique répondant aux préoccupations des femmes que les Panchayat dirigés par un homme. Irma Clots Figueras montre elle aussi (avec une méthodologie moins convaincante néanmoins) l’impact de l’élection d’une femme comme député sur la politique mise en œuvre dans sa juridiction.
Rohini Pande utilise une autre spécificité, plus complexe, du système de discrimination positive Indien pour tester l’impact de l’identité des élus sur la politique mise en œuvre. Elle s’intéresse aux « scheduled castes », pour lesquels des sièges sont réservés au Parlement de chaque Etat Indien depuis 1950. Le nombre de sièges réservés à ces castes est fonction de leur part dans la population de l’Etat. Ce nombre varie donc en fonction de l’estimation de cette part, qui est réalisée tous les 10 ans, à l’occasion du recensement. Chaque recensement entraîne donc une modification du nombre de sièges soumis à discrimination positive. Mais si cette variation est discrète (on change une fois tous les 10 ans, du jour au lendemain), la variation de la population des «scheduled castes» est par contre continue sur ces 10 ans. Le poids des «scheduled castes» en tant qu’électeurs va donc varier de manière continue au cours de ces 10 ans, tandis que leurs sièges réservés par la politique de discrimination positive ne varie elle que tous les 10 ans. Cette spécificité va lui permettre de distinguer l’effet sur la politique de l’Etat d’un poids électoral plus important du groupe des « scheduled castes » de l’effet propre de la discrimination positive. Elle montre alors qu’en effet, avec l’augmentation des sièges réservés aux «scheduled castes», les politiques de redistribution en leur faveur tendent à augmenter.
III/ Conclusion
L’identité du candidat apparaît donc comme déterminant fortement le type de politique choisi par le candidat une fois élu : les candidats mettent en œuvre les politiques pour lesquelles ils ont une préférence, et ne se lancent à la chasse à l’électeur médian que dans la mesure où ils restent crédibles.
Que faut il en conclure ? Qu’il est parfaitement rationnel de voter pour le candidat de ma couleur de peau ou de mon sexe, parce que lui seul saura défendre mes idées ? Certainement pas. Ce que l’on constate, c’est que les candidats s’occupent des questions qui les préoccupent. Dès lors, si, en moyenne, une femme a tendance à se préoccuper plus des questions d’accès à l’eau potable qu’un homme, il est probable qu’en moyenne, le candidat femme ait aussi tendance à s’intéresser plus à cette question, auquel cas, j’aurais intérêt, si je suis une femme, à voter pour elle. Mais ce n’est pas le fait d’être une femme en soi qui est important, c’est le fait d’avoir une préférence pour l’accès à l’eau potable qui compte.
Si des minorités ont en moyenne des préférences systématiquement différentes de celles de la population, il est donc logique de les voir en moyenne apporter leur soutien à un individu dont elles pensent qu’il partage ces préférences. Ces résultats semblent aussi montrer l’importance de la discrimination positive, dans les situations où les minorités n’ont pas voix au chapitre, puisque leur représentant sera à même d’implémenter des politiques allant dans leur sens, comme l’illustre le cas Indien.
(1) Hotelling, “Stability in Competition,” Economic Journal, vol.39, pp. 41–57, 1929.
(2) Osborne and Slivinski, “A Model of Political Competition with Citizen-Candidates”, Quaterly Journal of Economics, vol. 111, No.1, pp.65-96, 1996.
(3) Besley and Coate, “An Economic Model of Representative Democracy”, Quaterly Journal of Economics, vol. 112, No.1, pp. 85-114, 1997.
(4) La partie en italique de la phrase a été rajoutée suite au commentaire de Jean Philippe.
vendredi 31 octobre 2008
Le projet de loi de financement de la sécurité sociale (1/2) : l’incidence fiscale
I/ Présentation du projet de loi de finance
Nous allons nous pencher sur une partie restreinte de ce projet de loi, mais pas la moins intéressante : l’augmentation des recettes. En effet, même si le contrôle des dépenses est encore mis en avant, il est prévu que celles-ci augmentent de manière importante, d’où un besoin accru de financement. Les mesures en vue d’augmenter les recettes sont principalement de trois ordres : une contribution patronale de 2 % sur l’intéressement et la participation, une contribution des organismes complémentaires sur leurs bénéfices et une augmentation des cotisations retraites.
Le thème général de la présentation du PLFSS 2009 a été que les assurés ne paieraient pas le surplus de financement. On trouve ainsi écrit que l’ensemble des mesures d’augmentation des recettes ne conduira à "aucune participation supplémentaire pour les assurés respectant le parcours de soins coordonnés". On peut cependant fortement en douter. Notre but n’est pas de dire si les assurés doivent ou pas supporter la charge de ces besoins de financement, car ce pourrait être légitime bien qu’impopulaire. De plus, les conséquences des augmentations des cotisations de mutuelles (ce qui n’est qu’un des moyens de faire porter la charge des recettes supplémentaires sur les assurés) seront étudiées dans un prochain post. Nous nous contenterons ici de montrer que contrairement à ce qui est dit, les assurés, même ceux suivant le parcours de soins coordonnés, supporteront au moins en partie la charge des besoins de financements supplémentaires.
Pour ce qui concerne la hausse des cotisations retraites, elle est présentée sans coût car elle doit être compensée par une baisse des cotisations pour l’assurance chômage. Si le chômage a été en baisse au cours des années 2007 et 2008, il semble repartir à la hausse, ce qui devrait interdire ce basculement. Il est cependant resté présent dans la version du PLFSS 2009. Il faut probablement en tirer comme conclusion que soit les cotisations retraites augmenteront sans baisse des cotisations chômage, soit que le déficit de l’assurance maladie sera partiellement financé par un déficit de l’assurance chômage.
Pour la justification de la contribution de 2 % sur la participation et l’intéressement, l’accent est donné sur un principe d’équité : ces revenus, qui ne sont pas officiellement considérés comme des revenus du travail, sont exonérés de charges sociales (ce qui veut d’ailleurs dire qu’ils n’ouvrent pas de droits supplémentaires au chômage ou à la retraite). Les seules contributions qui les touchent à la source sont la CSG et la CRDS. Si l’intéressement et la participation ne sont pas considérés socialement comme des salaires, ils n’en sont pas moins une rémunération du travail, lié à une négociation entre employé et employeur. Comme le montre le post de Julien sur l’incidence des cotisations sociales, cette nouvelle contribution de 2 % sur la participation entrainera forcément une hausse des primes brutes et une baisse des primes nettes, c’est à dire qu’à la fois l’employeur et l’employé la paieront, ce qui contredit la déclaration qu’il n’y aura "aucune participation supplémentaire pour les assurés respectant le parcours de soins coordonné", si on considère que notamment les salariés sont parmi les assurés.
II/ Pouvoir n’est pas vouloir ou l’impossibilité de légiférer sur l’incidence fiscale
Les gouvernements, et probablement pas seulement en France, aiment bien les déclarations d’intentions sur les incidences fiscales, ou alors oublier celles-ci totalement. Pour ce qui concerne la taxe sur les bénéfices des complémentaires santé, le discours est ici pour le moins ambigu. Si le principe des incidences fiscales est implicitement reconnu, le problème est écarté avec des arguments peu convaincants économiquement. On peut ainsi lire dans le compte rendu des propos d’Eric Woerth cette phrase qui n’a pas trop de sens économique : "Cette contribution peut donc être absorbée par les complémentaires sans hausse des cotisations.". Outre les justifications qu’il donne à cette possibilité, le terme "peut" est totalement hors de propos. La question n’est pas de savoir si les complémentaires peuvent ou non le faire, mais si elles le feront réellement. Et c’est d’ailleurs un raisonnement que le gouvernement connaît très bien. Lors de débats sur le niveau de certaines taxes sur les hauts revenus (IR, IS, ISF…) la question est rarement posée de savoir si les personnes concernées pourraient payer des montant plus élevés, mais si oui ou non il y a un risque qu’elles envoient leurs capitaux fructifier à l’étranger.
La justification donnée par Eric Woerth pour cette possibilité est la suivante : "Chaque année, en l’absence de mécanisme de rééquilibrage, près de 600 millions d’euros de plus sont à la charge de l’assurance maladie obligatoire et ne sont plus remboursés par les complémentaires". Le ministre se réfère là au rapport annuel du Haut Conseil pour l’Avenir de l’Assurance Maladie, qui ne dit pourtant pas exactement cela. En effet, si la première partie de la phrase correspond au-dit rapport, la seconde partie donne l’impression que chaque année le régime général rembourse une plus grande part des dépenses, ce qui permet aux mutuelles d’avoir moins à rembourser. Or ce n’est pas ce que déclare le HCAAM. Ce haut conseil trouve certes une hausse des dépenses de l’assurance obligatoire de cet ordre (3 milliards d’euros sur 5 ans) du fait du vieillissement de la population et des prises en charge à 100 %, mais ne dit à aucun moment que cela est dû à un transfert global des prises en charge vers le régime obligatoire. On lit au contraire dans ce rapport que "le taux de prise en charge a connu un très léger fléchissement" et que "le taux d’engagement de la sécurité sociale dans la dépense reconnue ne varie que de façon très faible, résultat de mouvements de sens contraires.". En réalité, si les dépenses de sécurité sociale augmentent fortement, celles des complémentaires également, et ce n’est pas dû à un basculement de l’un sur l’autre, mais à une hausse importante des dépenses globales.
Alors pourquoi les complémentaires pourraient-elles ne pas répercuter sur les cotisations leur nouvelle contribution ? Toujours dans le même élan, le ministre nous dit que c’est parce que leurs profits ont fortement augmenté ces derniers temps. Mais encore une fois le raisonnement est biaisé, et au contraire, si elles ont pu augmenter autant leurs bénéfices ces dernières années, c’est peut-être qu’elles sont en position de force sur le marché de l’assurance maladie complémentaire. Et si elles sont en position de force, il y a fort à parier qu’elles pourront répercuter leur nouvelle taxe sur leurs assurés. Et en effet, le rapport du HCAAM note que les cotisations d’assurance complémentaire entre 2001 et 2006 ont augmenté de 48 % pendant que les dépenses de ces organismes n’augmentaient que de 32 %, notamment du fait d’une "restructuration de l’offre par concentration". Ce n’est donc pas parce qu’ils se sont déchargés sur l’état que les organismes d’assurance maladie complémentaire ont réussi à augmenter fortement leurs bénéfices, mais parce que la concurrence sur ces marchés a fortement décru.
III/ De l’incidence fiscale de la taxe sur les bénéfices
Alors les complémentaires maladie vont-elles oui ou non répercuter cette nouvelle contribution sur les cotisations ? Pour revenir à cette question, et si on regarde pour cela la littérature économique sur l’incidence des taxes sur les bénéfices, et en particulier cet article récent d’Auerbach qui fait le point sur les connaissances, on trouve beaucoup de résultats contradictoires. Si les résultats les plus connus et les plus anciens disent que les taxes sur les bénéfices sont supportées entièrement par les détenteurs de capital (et aussi bien les détenteurs d’autres capitaux – actions d’autres entreprises, bien immobiliers... – que les actionnaires des entreprises touchées), ces résultats sont basés sur beaucoup d’hypothèses fortes, dont une économie fermée, une offre de capital globalement fixe et surtout la concurrence parfaite sur les marchés concernés. L’idée générale est que les décisions en vue de maximiser les profits ne sont pas modifiées, mais que les rendements du capital sont juste linéairement réduits, pour l’ensemble des capitaux, quelque soit leur forme.
Cependant, d’autres analyses relâchant ces hypothèses trouvent que d’autres agents peuvent supporter la taxe, comme les employés, et dans le cas de la concurrence imparfaite, les consommateurs. En effet, si le marché est déjà concentré, entrainant une réduction de l’offre afin d’augmenter les prix, une taxe supplémentaire sur les bénéfices peut renforcer encore la concentration, permettant ainsi aux entreprises présentes d’augmenter leur pouvoir de marché, ce qui conduit à une augmentation des prix. Des études empiriques et théoriques citées dans la revue de la littérature d’Auerbach présentent même la possibilité que l’augmentation des prix soit plus importante que la nouvelle taxe : les entreprises sur le marché non concurrentiel augmentant leur bénéfice net après une augmentation de la taxe sur les bénéfices, du fait d’une forte baisse de la concurrence.
Quoi qu’il en soit, et vu le niveau élevé de concentration dans le marché des assurances maladie complémentaires, il est fort probable que cette contribution sur leurs bénéfices soit supportée au moins en partie, sinon en intégralité, par les assurés.
Publié par
Ecopublix
à
01:42
1 commentaires
mardi 28 octobre 2008
Beauty, money and experiments
Reprenons d'abord l'analyse de la corrélation entre beauté et salaire. Deux hypothèses s'affrontent. Soit les personnes belles sont aussi plus productives, et le différentiel salarial peut s´expliquer par un modèle classique d´offre et demande sur le marché du travail. Soit la beauté n´est pas du tout corrélée avec la productivité et le différentiel salarial est affaire de discrimination de la part des employeurs. Ceux-ci peuvent en effet préférer s´entourer tops models et être prêts à les payer plus cher pour cela (on parle alors de « taste based discrimination »). Ils peuvent encore croire que les tops models sont en moyenne plus productifs que les autres et les payer plus (on parle alors de « statistical discrimination »).
Pour montrer l'existence d´une discrimination, il faudrait pouvoir montrer que beauté et productivité ne sont pas corrélées. Or deux types d´arguments peuvent être avancés pour expliquer l'existence d´une telle corrélation.
Le différentiel de productivité peut tout d´abord être dû à la préférence des consommateurs pour les top models. Ainsi, un groupe d´économistes a réalisé une expérience (3) où différentes personnes étaient recrutées pour faire du porte à porte et demander de l´argent pour une cause charitable. Les résultats de l´étude montrent que les hommes donnent en moyenne beaucoup plus d´argent si c´est une jolie femme qui frappe à leur porte (la Croix-Rouge a d´ailleurs bien compris le mécanisme …). On peut noter au passage que les femmes ne varient pas leurs dons en fonction de la beauté de l´homme qui frappe à leur porte.
Si les consommateurs sont influencés par l´apparence physique des employés, on devrait donc effectivement observer un premium salarial pour la beauté, mais celui-ci devrait varier en fonction du type d´emploi. En effet, les personnes les plus belles devraient s´auto sélectionner dans les postes où les contacts avec la clientèle (ou avec les autres employés) sont importants et où elles sont donc plus productives.
Hamermesh et Biddle montrent que les personnes les plus belles ont en effet tendance à choisir des professions où l´apparence est importante, mais que cet effet d´auto sélection ne suffit pas à expliquer le différentiel de salaire entre les « princesses » et les « crapauds ». En effet, ce différentiel persiste même lorsque l´on contrôle pour l´effet de composition lié au type d´emploi occupé: pour chaque type de travail donné, la beauté permet toujours de gagner un peu plus.
Cependant, le premium pour la beauté peut aussi provenir de caractéristiques liées avec la beauté, non mesurées dans les enquêtes et donc non observées par les économètres mais qui seraient détectées par l´employeur lors de l´entretien d´embauche et qui auraient un impact positif sur la productivité. On peut en particulier penser au fait que la beauté est une caractéristique particulièrement importante dans la cour de l´école pendant l´enfance et l´adolescence et que les plus beaux du lycée ont acquis de l´assurance et des compétences « sociales » qui leur permettent ensuite de réussir mieux sur le marché du travail. L´étude de Persico et al. sur le lien entre taille et salaire (citée plus haut) suggère d´ailleurs que de tels mécanismes sont à l´œuvre. Les auteurs montrent en effet que c´est la taille à l´âge de 16 ans et non la taille adulte qui a un impact sur le salaire : avoir été parmi les plus petits de sa classe au lycée confère un salaire plus faible, même si on a grandi par la suite. Les auteurs suggèrent que la taille au lycée a un fort impact sur l´acquisition de compétences « sociales » : les plus petits au lycée participent en effet moins souvent aux clubs et activités sportives extrascolaires, et cette variable semble expliquer une partie du différentiel salarial lié à la taille. Les auteurs concluent que les employeurs ne discriminent pas directement sur la taille, mais que cette caractéristique physique observable est bel et bien corrélée à des caractéristiques valorisées sur le marché du travail, ce qui peut expliquer une grande partie des différentiels de salaire observés.
Mais en fait, l´étude précédente ne fait que reporter le problème sur les caractéristiques inobservables, et elle ne permet toujours pas de trancher sur l´existence d´une discrimination : en effet, on ne sait toujours pas si les caractéristiques inobservables ont un effet sur la productivité. On pourrait très bien imaginer qu´un employeur préfère embaucher ceux qui ont un tempérament de « winner » plutôt que des « losers », mais que la confiance en soi ne soit pas du tout corrélée avec la productivité.
Comme il est difficile de mesurer la productivité avec des données d´enquête, Markus Mobius et Tanya Rosenblat (4) ont eu l´idée de mener une expérience en reproduisant autant que possible les conditions du marché du travail, mais en contrôlant à la fois la productivité des « employés », leur beauté, ainsi que les caractéristiques connues par « l´employeur » au moment de fixer le salaire. Lors de l´expérience, les personnes qui jouent le rôle des employés doivent résoudre des jeux logiques très simples en un temps limité. Une première session test permet de déterminer leur productivité (le nombre de jeux résolus) et on leur demande aussi d´évaluer leur productivité pour la session suivante (ce qui donne une mesure de la confiance en soi des individus). Les personnes qui jouent le rôle de l´employeur doivent fixer le salaire de cinq employés, connaissant leur CV et leur productivité pendant la période test. En plus de ces informations, les employeurs sont répartis en cinq catégories : un groupe de contrôle, un groupe qui a des photos des futurs employés, un groupe qui réalise un entretien téléphonique avec les employés mais sans les voir, un quatrième qui a droit à la photo et à l´entretien téléphonique et un dernier qui réalise l´équivalent d´un vrai entretien d´embauche. Les résultats montrent d´une part que les personnes les plus belles ne sont pas plus productives que les autres pour résoudre des jeux logiques, mais qu´elles ont beaucoup plus confiance en elles (elles pensent qu´elles sont capables de résoudre plus de jeux que les autres). Ils montrent d´autre part que lorsque les employeurs ne voient ni n´entendent les personnes embauchées, ils n´attribuent pas un salaire élevé aux CV des plus beaux, mais que le biais envers la beauté réapparait dès que les employeurs ont l´occasion de voir ou d´entendre les futurs employés. Le fait que les employeurs sont prêts à payer plus les personnes belles après les avoir entendu parler et alors même qu'ils n'ont aucune information sur leurs caractéristiques physiques est un résultat surprenant. Il montre que les personnes belles transmettent des signaux qui font croire aux employeurs qu´elles sont plus productives que les autres personnes et que ces signaux ne passent pas uniquement par l´apparence physique. Une partie de l´effet tient à une plus grande confiance en soi des personnes plus avantagées par la nature, mais l'effet « beauté » persiste même après avoir pris en compte le niveau de confiance en soi. Finalement, dans cette expérience, le biais en faveur de la beauté ne vient clairement pas d´une plus grande productivité, mais il tient autant aux caractéristiques physiques qu´à des caractéristiques orales liées à la beauté mais inobservables !
Ces résultats montrent que les mécanismes de discrimination en fonction de la beauté existent, mais qu´ils sont relativement sophistiqués et qu´ils passent probablement en partie par des actes inconscients de la part des employés comme des employeurs. Ils suggèrent que certaines croyances et comportements se forment pendant l´enfance et l´adolescence (les sociologues diraient pendant la période de socialisation), qu´il sont en partie intériorisés par les personnes, et qu´ils influencent ensuite les comportements sur le marché du travail. Il est probable qu´il en soit de même pour les autres types de discrimination (en fonction du sexe, de la couleur de peau…Voir ce papier de Jeffrey Grogger pour une étude sur le différentiel de salaire en fonction de « l´identité raciale» de la voix). Cela rend la lutte contre la discrimination encore plus nécessaire mais aussi montre la nécessité de s´y prendre très tôt, bien avant l´entrée sur le marché du travail.
Notes :
(1) Hamermesh & Biddle, "Beauty and the Labor Market," American Economic Review, American Economic Association, vol. 84(5), 1994.
(2) Persico, Postlewaite and Silverman, “The Effect of Adolescent Experience on Labor Market Outcomes: The Case of Height”, Journal of Political Economy, 2004, vol. 112 (5).
(3) Landry, Lange, List, Price and Rupp, “Towards an understanding of the Economics of Charity: Evidence From a Field Experiment”, Quarterly Journal of Economics, MIT Press, vol. 121(2).
(4) Mobius & Rosenblat, “Why Beauty Matters”, American Economic Review, 2006, vol 96(1) .
Publié par
Gabrielle
à
11:26
3
commentaires
Libellés : Economie expérimentale, Marché du travail
jeudi 23 octobre 2008
La crise financière, version suédoise
I/ La crise financière suédoise de 1992
La Suède est une petite économie ouverte qui dépend énormément de ses exportations. La banque centrale, avant la crise, observait donc une politique de taux de change fixe afin d'éviter que les variations de taux de change n'affectent le prix des exportations à l’international. Quand les exportations représentent un revenu important pour le pays, on comprend les motivations de ce choix (voir les plaintes répétées d’Airbus à ce sujet lors de la chute du dollar ; si la BCE alignait l’euro sur le dollar ces plaintes n’existeraient plus). Par ailleurs, l'objectif principal du gouvernement était de maintenir un faible taux de chômage. Lorsque, dans les années soixante, la productivité des principales industries suédoises a ralenti, le gouvernement a agi afin de respecter cet engagement. Pour cela, il a augmenté ses dépenses, payant pour la reconversion des chômeurs et augmentant considérablement l’emploi dans le secteur public. Cette coûteuse politique a creusé le déficit, forçant le gouvernement à emprunter de l’argent sur les marchés internationaux et à augmenter l’impôt sur le revenu. Le très faible taux de chômage a aussi nourri une inflation des salaires, les puissants syndicats pouvant ainsi plus facilement négocier des augmentations.
La situation était donc la suivante : il était nécessaire de maintenir le prix des exportations fixes tandis que les salaires s’envolaient. La solution passait nécessairement par une dévaluation de la monnaie, qui fut utilisée de nombreuses fois. Malheureusement les syndicats anticipaient ces dévaluations qui réduisaient le pouvoir d’achat des suédois et demandaient des salaires encore plus élevés, préparant ainsi la prochaine dévaluation. Dans les années 1980, le gouvernement décida de casser la spirale inflationniste et de favoriser la croissance en adoptant une série de réformes.
Une de ces réformes consista à déréguler les marchés financiers en renonçant au contrôle des taux d’intérêts et de la quantité de crédits sur le marché. Le marché fut donc complètement libéralisé en 1985. Evidemment les entreprises qui auparavant n’avaient pas accès au crédit se dépêchèrent d’emprunter, créant un boom sur le marché du crédit (cela vous rappelle-t-il quelque chose ?). Les banques suivirent, empruntant à l’étranger pour ensuite prêter aux ménages et aux entreprises. Ceci était d’autant plus rentable que les taux suédois étaient beaucoup plus élevés que les taux étrangers. Ceci poussait, outre les banques, les entreprises suédoises à aussi emprunter à l’étranger, devenant ainsi de plus en plus exposées au risque de change. Les consommateurs, de leur côté, profitaient à plein de leurs nouvelles capacités d’emprunt. Les prix du logement augmentèrent fortement, doublant en 10 ans. Rétrospectivement, il est probable que les banques, plongées dans cet environnement nouveau pour elles, n’ont pas saisi les risques qu’elles prenaient (1).
Tous les ingrédients pour une crise étaient donc en place : des banques empruntant massivement en monnaie étrangère, prêtant tout aussi massivement en couronnes, alimentant une bulle immobilière, avec un taux de change fixe intenable face à la pression de l’inflation. A première vue, l’économie suédoise se portait bien : en 1989 le taux de chômage était de 1,4%, en août 1989 la bourse atteignit un pic, 42% au-dessus de son niveau de début d’année. Il suffisait cependant d’un choc externe pour déclencher la crise. Ce choc se produisit lors de la réunification de l’Allemagne : les taux d’intérêt allemands augmentèrent, forçant la Suède à faire de même pour matinenir son taux de change fixe (2).
Emprunter devint donc plus cher, ce qui mit un terme à la bulle immobilière. En cinq ans, de 1990 à 1995, les prix chutèrent de 25%, et de 42% pour l’immobilier d’entreprise. Les banques, habituées à des taux de défaut sur leurs prêts de 0,2 à 0,5%, les virent grimper à 5% en 1992. Le célèbre spéculateur George Soros s’attaqua alors aux taux de change fixes en vigueur en Europe et força la banque centrale suédoise à laisser flotter sa monnaie. La couronne, surévaluée, chuta brutalement. En 1993, le taux de défaut des prêts atteignit 11%, frappant de plein fouet les banques, surtout celles qui avaient emprunté à l’étranger. Les banques firent progressivement faillite, prises entre des individus incapables de payer leurs dettes, et leurs propres dettes en monnaie étrangère dont la valeur avait fortement augmenté. L’Etat injecta d’abord du capital ou accorda des garanties pour que les banques puissent emprunter. Malgré ces précautions, une banque appelée Gota Bank fit faillite en 1992. L’Etat garantit immédiatement tous ses dépôts puis étendit cette garantie à toutes les banques quelques semaines plus tard. Il procéda également à des nationalisations pour sauver les banques, qui le conduisirent à posséder près de 22% des actifs bancaires du pays. Le système bancaire était sauvé et, à l’instar d’un plan Paulson, l’Etat créa une banque qui absorba tous les « mauvais actifs » des banques qui avaient fait faillite. Le gouvernement, en entrant massivement au capital de certaines banques, suivit une politique visant à sauver les banques plutôt que leurs propriétaires. Chaque öre (centime pour les non-scandinaves) de capital apporté par l’Etat impliquait de laisser ce dernier devenir actionnaire. Seules les banques ayant vraiment besoin de cet argent se présentèrent donc, les autres préférant ne pas perdre le contrôle de leurs établissements. Le gouvernement fit aussi appel à des consultants suédois et étrangers spécialisés dans les crises bancaires, pour ne pas perdre de temps et fit payer la coûteuse facture aux banques qui demandaient de l’aide. L’Etat évita donc de subventionner des banques qui n’en avaient pas besoin. La plus grande banque du pays, SEB, décida ainsi de se passer de l’aide de l’Etat, ses actionnaires préférant puiser dans leurs poches.
Les « mauvais actifs » (parc immobilier, entreprises en faillite) placés dans une « mauvaise » banque, appelée Securum et détenue à 100% par l’Etat mais gérée intelligemment et indépendamment du pouvoir politique, furent revendues progressivement. Les ventes et restructurations d’entreprises furent terminées en 1997, amenant de l’argent dans les caisses de l’Etat, et Securum fut liquidée. La crise financière suédoise prit fin. L’Etat dépensa beaucoup, mais obtint des parts dans des banques et donc des dividendes qui lui rapportent toujours de l’argent, ainsi que le produit des ventes d’actifs. Au final, il a été estimé que le coût total pour le pays fut de 2,1% de PNB, une quantité jugée raisonnable pour éviter une faillite généralisée des banques. Ce coût est purement comptable. Pour être juste, il faudrait y ajouter trois années de récession, un taux chômage qui explose en un an et d’importantes difficultés de crédit pour les entreprises. D’un autre côté l’économie se remit assez vite et connut même une belle embellie, portée par des conditions mondiales favorables. Le graph ci-dessous montre l'évolution du taux de chômage en Suède, on voit bien le choc dû à la crise, puis le redémarrage de l'économie.
II/ Leçons
Comme pour la crise actuelle, le mot clé semble être dérégulation. Si l’Etat suédois n’avait pas libéralisé les marchés financiers, rien de tout ceci ne serait arrivé. Mais en est-on si sûr ? Peter Englund, un économiste suédois qui a étudié de près la crise et faisait partie du comité gouvernemental sur la crise, trouve cette idée beaucoup trop simpliste. D’après lui la responsabilité revient à un effet combiné de politiques économiques (dépenses effrénées, taux de change fixe, inflation débridée, et dérégulation) et non pas à un seul de ces facteurs. Quelles qu’en soient les causes, les deux crises ont reposé sur des bulles immobilières et ont eu des effets similaires, avec des banques en faillite nécessitant l’intervention de l’Etat. La solution adoptée par le gouvernement suédois à l’époque a cependant été différente de celle choisie par le Trésor américain qui avait d’abord choisi de ne pas rentrer au capital des banques, mais simplement de reprendre leurs actifs « toxiques ». Ce plan initial avait d’ailleurs été critiqué par de nombreux économistes, en grande partie pour ne pas exiger en retour du rachat des actifs toxiques dont personne ne veut des actions de la banque. Le Royaume-Uni a été le premier à choisir de recapitaliser les banques directement, une utilisation de l’argent du contribuable jugée plus judicieuse par beaucoup, mais aussi plus adaptée à la crise. Les Etats-Unis ont finalement suivi l’exemple anglais. La Suède avait aussi opté pour ce double mécanisme qui consista à prendre à son compte les actifs qui plombaient les banques et à entrer dans leur actionnariat, leur fournissant ainsi du capital. La réussite de l’opération de sauvetage suédoise a aussi reposé sur plusieurs critères : l’Etat a tout d’abord très vite imposé aux banques d’estimer de manière réaliste leurs pertes en renforçant les règles pour l’évaluation des actifs. De cette manièren, il a apporté de la transparence et de la confiance, le marché étant capable de prendre la mesure de la crise. Il a aussi, au travers de Securum, agi rapidement pour restaurer l’économie, liquidant les entreprises non viables, apportant des liquidités à celles qui pouvaient être sauvées et acquérant des parts de leur capital.
Le parallèle entre la crise suédoise et celle d’aujourd’hui a été fait à plusieurs reprises dans les médias et sur des blogs. Elles semblent en effet appeler les mêmes remèdes, même si leurs causes ne sont pas exactement identiques, au-delà de la frénésie des banques à prêter trop d’argent à des individus pas toujours solvables (les Etats-Unis n’ont souffert ni d’un taux de change fixe, ni d’inflation, ni de spéculation sur leur monnaie). La bonne gestion de la crise a reposé sur quelques idées simples. Tout d’abord, la transparence quant aux pertes bancaires. Il semble malheureusement que ce point pose justement problème actuellement. Les actifs « toxiques » suédois étaient principalement constitués d’immobilier et d’entreprises qui pouvaient être évalués, tandis que les banques américaines se retrouvent avec des produits financiers complexes dont la valeur est inconnue. Personne ne sait exactement quelles pertes les banques vont afficher tant elles sont emmêlées dans ces montages. Dans ces conditions, le marché a du mal à se faire une opinion quant à l’ampleur réelle de la crise. Deuxièmement, le gouvernement a agi vite et dans un climat de consensus avec l’opposition. Il a rapidement fourni les liquidités nécessaires et personne n’a douté qu’il apporterait son soutien à toute banque jugée en difficulté. Les Etats-Unis comme l’Europe ont tergiversé avant d’agir. Le Trésor américain a laissé plongé Lehman Brothers, puis les républicains ont fait capoter le premier plan Paulson, les allemands n’ont pas voulu d’une approche européenne coordonnée, puis les anglais ont agi seuls, donnant finalement des idées à leurs camarades européens. Troisièmement, le gouvernement suédois a compris que pour rendre le plan de sauvetage politiquement viable, il devait montrer aux contribuables que les propriétaires des banques n’étaient pas favorisés à leurs dépens. Là encore, le plan Paulson a fait les frais de ce genre de craintes. Finalement, la gestion des « mauvais » actifs a été confiée à des spécialistes qui purent travailler de manière indépendante, éloignés des pressions politiques. Cette gestion est généralement considérée comme un succès et a permis à l’économie de repartir sans être trop plombée pendant de trop longues années. Il reste à voir comment les Etats-Unis se débarrasseront de leurs actifs « toxiques ».
La crise suédoise apporte aussi une touche d’optimisme à l’atmosphère de fin du monde qui se répand parfois dans les médias. Il est possible de gérer une crise efficacement et à un coût raisonnable. Après la crise l’économie suédoise, jusqu’à aujourd’hui, est en bonne santé. Les prévisions qui avaient été faites durant la crise se sont révélées trop pessimistes, le marché de l’immobilier et le crédit se refaisant assez rapidement une santé. Les gouvernements ont aussi compris que leurs politiques économiques passées avaient engendré la crise et les citoyens, échaudés par la chute brutale du début des années 1990, ont accepté sans trop broncher les réformes nécessaires. Il est difficile de savoir où la comparaison s’arrête. Après tout, la crise bancaire ne concerna que les pays scandinaves, et jamais ne menaça le reste du monde. L’économie suédoise profita ensuite des bonnes conditions mondiales de la fin des années 1990. La configuration actuelle est différente, avec une crise généralisée touchant les plus importantes économies de la planète et qui menace de s’étendre aux pays émergents. Espérons que l’expérience suédoise n’aura pas été qu’une exception.
Notes :
(1) Comme me l’a fait remarquer Laurent, cette situation peut rappeler celle de l’Islande aujourd’hui dont les banques proposaient des taux plus élevées que le reste du marché, attirant des capitaux, mais n’étaient pas très regardantes sur la qualité de leurs investissements. A la différence de la Suède, l’Islande n’a cependant pas pu trouver de l’argent pour sauver ses banques. La Suède avait donc gardé une certaine crédibilité sur les marchés pour pouvoir emprunter et fournir des liquidités à ses banques. L’Islande, à court d’argent sur les marchés, a été obligée d’en appeler à ses partenaires occidentaux qui ont fait la sourde oreille, avant de se tourner vers la Russie.
(2) Le mécanisme est assez simple : si la Suède propose des taux plus faibles que les autres, les investisseurs vont s’en détourner et échanger leurs couronnes suédoises pour la monnaie d’autres pays. Il va y avoir afflux de couronnes sur le marché, ce qui va faire baisser leur valeur. Si le régime de taux de change n’est pas fixe, l’histoire s’arrête là car l’ajustement s’est fait par le taux de change. Avec un taux fixe, la banque centrale est obligée d’augmenter les taux d'intérêts pour éviter que les investisseurs ne se détournent du pays.
Publié par
Emmanuel
à
12:26
7
commentaires
Libellés : Finance, Macroéconomie
lundi 20 octobre 2008
Réformes des retraites (7/40) : proposition... de lecture
De nombreux autres travaux restent à faire, mais nous espérons que cette proposition suscitera suffisamment d’intérêt pour motiver d’autres études, plus poussées et plus précises. L’objectif n’est pas de proposer une solution miracle – l’équation fondamentale des retraites (cotisations, niveau des pensions et âge de la retraite) est incontournable – mais de clarifier les droits à la retraite sur le long terme et ainsi renforcer notre assurance vieillesse publique, obligatoire et en répartition.
Les points qui ont été clarifiés dans cette nouvelle version concernent en particulier la question de la revalorisation des pensions après la liquidation. La logique des comptes notionnels est d’offrir la même revalorisation que la croissance des salaires (et non pas une revalorisation, généralement plus faible, sur les prix). Ceci a l’avantage d’un système très simple en terme de mécanisme et aussi très clair : la croissance est partagée entre actifs et retraités et le niveau de vie des retraités est maintenu constant relativement au niveau de vie des actifs. Dans le système actuel, les retraites sont indexées sur les prix, entraînant en cas de croissance un décrochage progressif des pensions par rapport aux salaires, décrochage d’autant plus marqué que les retraités sont âgés ou sont partis tôt en retraite.
Bien évidemment, si l’on décide de passer à une revalorisation par les salaires et non les prix, cela a un coût qui se traduit par des taux de remplacement plus faible au début de la retraite, en échange de retraites qui sont revalorisées plus favorablement. Dans le système suédois actuel ainsi que dans le système italien, les pouvoirs publics ont décidé de maintenir l’indexation sur les prix et donc d’anticiper la croissance des salaires en offrant des taux de remplacement plus élevés en échange d’une revalorisation par les prix. C’est de là que vient le mécanisme de 1,6% de croissance (cas suédois) anticipé. Cela donne lieu à un mécanisme de correction automatique si la croissance se retrouve plus faible que le taux anticipé : les retraites peuvent ainsi croître plus faiblement que l’inflation si le taux de croissance passe en dessous des 1,6%.
Dans l’opuscule, nous avons proposé de considérer de revenir en arrière sur cette indexation sur les prix instituée par M. Balladur pour remettre en place une indexation sur les salaires. Non seulement le mécanisme d’ajustement est plus simple (tous les salariés et retraités profitent de la même croissance des salaires) mais aussi les choix de retraite sont plus transparents. Le succès de la réforme Balladur a été de réduire les pensions par un mécanisme d’indexation peu clair aux yeux des salariés (pas de baisse apparente du taux de remplacement) même si la réduction des taux de remplacement était bien réelle. La logique des comptes notionnels est de mettre au jour la soutenabilité du système et de clarifier les choix publics à faire.
Là encore vos commentaires sont les bienvenus.


