jeudi 22 janvier 2009

Médias et manipulation de l'information


Il y a un peu plus d’un mois Guilhem nous parlait de liberté de la presse et de démocratie. Son post soulignait le lien entre presse libre et bon fonctionnement démocratique mais n’entrait pas dans le subtil domaine de la manipulation de l’information. Il faut en effet un certain talent pour manipuler l’information sans pour autant décrédibiliser la source.

Le pouvoir politique a certes intérêt à contrôler l’information mais on perçoit aussi le risque créé par ce contrôle. Si la source perd toute validité, l’information n’aura aucune valeur et l’influence sur les électeurs sera très faible. Sous un régime dictatorial où les élections n’existent pas ou sont facilement biaisées, il importe finalement peu que personne n’accorde de valeur aux informations véhiculées par les médias puisqu’elles n’ont pas d’impact sur la vie politique. A l’inverse dans une démocratie au fonctionnement irréprochable et aux électeurs parfaitement informés, toute manipulation sera inutile car immédiatement mise à jour et pénalisée. Mais qu’en est-il dans le monde réel, le plus souvent situé entre ces deux extrêmes ? Les politiciens devront se révéler moins grossiers dans leur contrôle. Quand la force brute est à éviter, on peut utiliser des moyens plus subtils.

Amos Tversky et Daniel Kahneman, tous deux récompensés par le Prix Nobel d’économie en 2002, ont étudié en profondeur le concept de « framing » ou cadrage, c’est-à-dire la manière dont est présenté un choix à des individus. En économie traditionnelle, les agents rationnels ignorent ce genre de détails et choisissent l’option qui leur apporte le plus de bien-être sans ne porter aucune attention à l’emballage. Kahneman et Tversky ont montré que dans de nombreuses situations le « framing » avait au contraire un effet très important et qu’on pouvait influencer les décisions par le choix des mots, des images, ou parfois même de détails totalement hors de propos. Le marketing se délecte de ces exercices de fine manipulation pour modifier nos perceptions d’objets sinon identiques et nous faire acheter l’un plutôt que l’autre. Le pouvoir politique, par l’intermédiaire des médias officiels, va lui aussi tenter de jouer sur ces biais de perceptions dont nous sommes tous victimes. L’art consiste donc à ne pas mentir mais à cependant présenter les faits de manière à tromper l’électeur. En voici trois exemples assez savoureux.

Au mois de novembre se déroula à Stockholm une conférence intitulée « Russia beyond oil », à laquelle participa l’économiste Konstantin Sonin, de la New Economic School située à Moscou. Sa présentation portait sur les médias en Russie. Il expliqua que le pouvoir russe ne falsifiait pas ouvertement les faits mais usait de moyens beaucoup plus malins visant à communiquer des faits corrects mais à donner une impression différente de la réalité. L’image qui suit, tirée de sa présentation, présente les résultats d’une élection locale en Russie et donne les pourcentages (exacts) obtenus par chaque parti.


Les chiffres n’ont pas été modifiés, l’information est correcte. Cependant si on regarde les barres, a priori censées avoir une hauteur proportionnelle au nombre de voix, on observe un léger décalage. Le vainqueur semble avoir gagné largement, tandis que les trois autres partis semblent avoir reçu un nombre similaire de voix. Mais ceci ne correspond pas du tout aux chiffres. Que va retenir le téléspectateur ? Les chiffres ou le graphique ? Et même s’il lit bien les chiffres, ne sera-t-il pas influencé par le graphique ? Nous sommes en pleine manipulation.

Deuxième exemple : le graph suivant donne la production de Gazprom par année.


Si on regarde les barres verticales, on a l’impression que l’entreprise produit de plus en plus. Cependant les chiffres contredisent clairement cette interprétation. La production est stable. Là encore la manipulation est manifeste mais assez subtile pour passer inaperçue.

Dernier exemple, moins délicat. Le Kremlin ne supporte guère l’oligarque Boris Berezovsky. Le journal anglais le Times a publié un point de vue le critiquant dans ses pages « opinion. La télévision russe a repris l’information en montrant que même le Times, respectueux et sérieux journal anglais, critiquait l’homme d’affaire, et que cette information faisait même la une du journal. L’image ci-dessous montre à gauche la première page, fictive, qui est apparue à la télévision russe, et à droite la véritable première page, parue en Angleterre.


Dans tous ces exemples, la chaîne de télévision pourra se défendre d’avoir falsifié les faits : les pourcentages de voix obtenues sont corrects, les chiffres de la production sont justes, l’article a bien été publié. Mais dans tous les cas, la présentation est tellement biaisée qu’elle vide l’information de son contenu. Comme quoi il vaut toujours mieux remonter à la source de l’information et surtout apprendre à savoir déchiffrer les graphiques et données qui nous sont présentés.

Crédit photo : fliegender
_Emmanuel_

Lire la suite...

lundi 19 janvier 2009

L'art de la relance


Le débat économique chez nos amis américains prend un peu des tournures de gigantesque concours Lépine depuis que le president-elect B. H. Obama a fait appel à toutes les bonnes volontés pour définir son plan de relance budgétaire. Cela a un petit côté démocratie participative qui n’est pas déplaisant. Le NY Times s’est donc lancé dans la bataille, en proposant à un panel d’économistes renommés de donner leurs meilleures recettes : burritos à l’Earned Income Tax Credit et carpaccio d’assurance sociale, tout y passe.

Plus sérieusement, ces contributions, même assez générales dans leur niveau de détail, sont extrêmement intéressantes car elles dévoilent les importantes avancées et les limites de la recherche en économie publique. En effet, une fois que tout le monde s’est bien accordé sur l’idée qu’un stimulus budgétaire (fiscal stimulus en anglais, qui ne veut pas dire que tout passe nécessairement par des réductions d’impôt, attention) était indispensable, et maintenant que les estimations sur son ampleur sont plus ou moins fixées, reste à faire la tambouille. Sur les grands principes de cette tambouille, on notera que tout le monde s’accorde. C’est essentiellement ce qu’Antoine avait déjà bien exposé : il faut que le stimulus soit timely, targeted, & temporary, c’est-à-dire arrive au bon moment (i.e. le plus vite possible désormais !), soit bien ciblé (sur les ménages les plus contraints et ayant la plus forte propension à dépenser dans le très court terme), et temporaire.

Ensuite, et c’est le cœur du sujet, se pose la question des outils : quels sont les moyens de faire passer ce stimulus le plus vite possible, sur les bons ménages, et sans distordre de manière permanente la structure des dépenses publiques.
Or c’est sans doute dans l’analyse précise des effets de toute la mécanique des transferts que l’économie publique empirique a le plus progressé ces 15 dernières années, grâce à la révolution permise conjointement par la mise à disposition de fichiers de données micro sur les bénéficiaires de tous les programmes de transferts, et la croissance exponentielle de la vitesse des processeurs pour traiter et analyser ces fichiers. Une des grandes leçons de ces 15 années de littérature empirique sur les transferts est que la mécanique administrative est déterminante, qu’une même structure de transferts nets peut avoir des effets tout à fait différents selon la gestion pratique de sa mise en œuvre. Comme toujours, le diable est dans le détail. Un exemple classique : l’impôt négatif. Au milieu des années 90, tous les pays se sont rendus compte que la structure de leur système de transferts exhibaient de très forts taux marginaux d’imposition effectifs sur les ménages à bas revenus reprenant un emploi (du fait de la perte des allocations plafonnées ou soumises à condition d’inactivité comme le RMI en France par exemple). Ces forts taux marginaux ayant un effet très désincitatif sur l’offre de travail des ménages pauvres, l’idée est venue, dans tous les pays développés, de lisser la transition vers la reprise du travail par un système de crédit d’impôt. Aux Etats-Unis l’EITC, en Grande-Bretagne le WFTC, en France la Prime pour l’Emploi. Or que nous disent toutes les études d’économie publique empirique sur ces systèmes : que les détails pratiques sont tout à fait décisifs pour l’efficacité de ces crédits d’impôt. Il peut tout aussi bien s’agir de la manière dont l’information sur le fonctionnement de ces systèmes est transmise aux bénéficiaires potentiels (comme le montre ce papier de Chetty et Saez ou celui de Saez sur les incitations à l’épargne-retraite), des restrictions sur la population éligible (les femmes seules ave enfants ayant en général une élasticité de l’offre de travail plus importante que les hommes seuls par exemple), que du mode de versement (comme le démontrent les tragiques limites de la Prime pour l’Emploi versée avec un an de retard du fait du prélèvement différé de l’impôt sur le revenu en France)…In fine donc, l’administratif compte. Et c’est pourquoi la tambouille, le ficelage concret d’un plan de relance, loin d’être une question subalterne, une vague affaire de technos, est cruciale lorsque l’on se prépare à dépenser 500 milliards de dollars.

Et lorsque on opère dans l’urgence, et qu’il est donc difficile de créer des nouveaux outils, les facteurs institutionnels comptent plus que jamais pour définir la meilleure réponse dans le très court terme, tous les pays ne disposant pas du même ensemble de transferts sur lequel jouer. Typiquement, un allègement immédiat de l’Income Tax aux Etats-Unis sera beaucoup plus efficace qu’en France dans la mesure où l’impôt est prélevé à la source : les contribuables américains vont toucher le chèque tout de suite, là où un ménage français ne toucherait la réduction d’impôt qu’en septembre 2010. A contrario, les Etats-Unis ne disposent pas d’un système de TVA comme en France ou en Grande-Bretagne, qui peut être un excellent outil de stimulation dans le court terme.

Autre élément institutionnel important pour la définition d’un plan de relance, qui ressort bien de la discussion sur le site du NY Times, concerne l’étendue du fiscal federalism, c’est-à-dire de la décentralisation des finances publiques. Aux Etats-Unis, la part des dépenses publiques à la charge des Etats par opposition à celle de l’Etat Fédéral est très importante. Or un des effets de la crise financière est d’avoir rendu très difficile le financement par la dette des Etats, là où l’Etat fédéral, lui, jouit d’une sorte d’aura magique, tout le monde s’étant réfugié vers les Treasury Bonds américains qui financent la dette publique fédérale. La conséquence, rappelée par P. Krugman, c’est que là où l’Etat fédéral dépense 500 milliards en plan de relance, la plupart des Etats s’embarquent dans des plans d’austérité qui viennent contrecarrer les effets de la dépense fédérale. Il y a donc aux Etats-Unis des aspects stratégiques très intéressants dans la répartition de la dépense publique qui expliquent qu’une grande partie du plan de relance fédérale doive se concrétiser en subventions aux différents Etats, là où la France elle est beaucoup plus libre de gérer son plan de relance à un niveau très centralisé.

On notera également la place de choix dans la plupart des contributions dédiée au renforcement de l’assurance sociale, assurance chômage et assurance santé. De fait, l’assurance sociale est un énorme stabilisateur automatique dans les pays européens, qui n’est jamais explicitement comptabilisée dans le chiffrage des plans de relance, mais qui fonctionne pourtant comme tel. Aux Etats-Unis la modestie de l’assurance sociale pour de nombreux ménages à bas revenus renforce la spirale récessioniste et explique l’attention particulière dédiée à l’élargissement de la couverture dans la plupart des idées de plan de relance : c’est une dépense utile dans le court terme et dans le long terme.

Pour terminer, on notera bien sûr le bon vieux débat Yankee entre government spending vs tax cuts. Il est intéressant toutefois de voir que les ressorts de cette antienne du débat public US « Plus d’Etat/Moins d’Etat » peuvent offrir des nuances assez subtiles, comme cette vision gentiment Néo-Jacksonienne défendue par des économistes comme Glaeser par exemple.
_Camille_

Lire la suite...

mercredi 14 janvier 2009

Esther Duflo en live



Pour ceux qui n'ont pas eu de places pour suivre les leçons d'Esther Duflo au Collège de France, il est possible de regarder la vidéo et d'obtenir la description de l'ensemble des leçons avec leur bibliographie sur le site du Collège de France. Comme quoi on peut dater de 1530 et être à la page...
_Antoine_

Lire la suite...

samedi 10 janvier 2009

La révolution des « randomistas »


Esther Duflo vient d’inaugurer sa leçon au Collège de France et elle a les honneurs mérités de The Economist, du Monde et bien sûr d’Ecopublix. C’est l’occasion de revenir sur une controverse qui anime le petit monde des économistes du développement, avec à son cœur l’approche empirique défendue par notre petite Française. On n’y parle pas des milliards de dollars des banques, mais de la meilleure façon d’améliorer l’aide en faveur des milliards de personnes qui vivent avec quelques dollars par jour. Le débat se concentre sur la pertinence des « expériences contrôlées » pour accroître l’efficacité des politiques d’aide au développement initiées par les organismes tels que la Banque Mondiale ou les ONG. Alors que l’expérimentation est devenue une méthode de référence en économie empirique, des voix s’élèvent pour mettre en garde contre les espoirs que ce type de méthodes suscite. Qu’en penser ?

I. La révolution des expériences contrôlées

Pour comprendre l’enthousiasme récent des économistes pour les expériences contrôlées, il est nécessaire de faire un (rapide) survol des méthodes utilisées par les économistes dans le passé. Dans les années 1980, la méthode reine est la régression en coupe internationale : on rassemble des données sur 100 pays et on regarde les corrélations entre différentes variables. Par exemple, on constate que le montant de l’aide au développement est négativement associé à la croissance du pays. Il est alors évident que l’on ne peut en tirer aucune conclusion en termes de causalité : l’aide au développement cause–t-elle une faible croissance, ou l’inverse ?

James Heckman, prix Nobel d’économie et grand monsieur de l’économétrie, a inventé (après d’autres) une solution statistique au problème : il suffit de trouver un « instrument », c’est-à-dire une variable qui permette d’expliquer le niveau de l’aide versée mais qui soit indépendante de la croissance. L’instrument ainsi trouvé permettra d’approcher l’effet causal de l’aide sur la croissance : il s’agit de la méthode des variables instrumentales.

Cette méthode a été reprise puis adaptée aux cas des « expériences naturelles ». Celles-ci reposent sur l’idée que si l’on peut identifier deux groupes identiques et si l’un de ces groupes bénéficie de – ou subit – un « traitement » (une politique, un choc économique), il est possible de tirer des conclusions sur l’effet net moyen de ce « traitement » sur différentes variables (le revenu, la probabilité d’emploi, la santé, etc.). Si les conditions sont réalisées on pourra alors parler de causalité.

Toute une école d’économistes s’est lancée dans ces nouvelles méthodes, en particulier à Harvard et au MIT (Orley Ashenfelter, Josh Angrist ou plus récemment Steven Levitt sont des exemples parmi beaucoup d’autres). Les expériences naturelles ont fleuri et avec elles de multiples techniques (double différence, matching, regression dicscontinuity, etc). Avec la prolifération de ce type d’études, la qualité des travaux s’est néanmoins détériorée. Les multiples vérifications, pour s’assurer que les groupes de contrôle et groupes tests ne sont pas touchés par la réforme étudiée, étaient plus rarement mises en pratique. Le stock de « bonnes expériences naturelles » ou de « bons instruments » est vite apparu comme limité. Quelques chercheurs, particulièrement conscients des difficultés qu’il y avait à réaliser ces bonnes expériences naturelles, ne souhaitaient pas en rester là. Si les expériences naturelles étaient rares, ne fallait-il pas créer ce que la « nature » n’avait pas produit et passer à l’expérimentation « contrôlée » ?

L’expérimentation en économie s’est développée dans deux domaines en particulier : l’évaluation des politiques publiques et l’économie du développement. Dans les deux cas, l’évaluation avait pour objectif d’optimiser l’utilisation de ressources rares (l’argent des contribuables ou l’aide au développement) afin de maximiser l’efficacité pour les bénéficiaires.

En économie du développement, les chercheurs qui ont le plus œuvré dans cette direction sont deux brillants économistes du MIT, Esther Duflo et Abhijit  Banerjee. Ils ont créé une fondation « Abdul Latif Jameel Poverty Action Lab » dédiée entièrement au financement d’expérimentation de différentes politiques d’aide aux pays en voie de développement. L’objectif était de sortir des contraintes des expériences naturelles (où l’on est dépendant de l’expérience que l’on trouve) afin de se concentrer sur les questions pour lesquelles on cherchait des réponses. Le choix de l’expérimentation repose sur l’avantage considérable du tirage aléatoire (randomization) pour mesurer les effets d’une politique (ou d’une aide spécifique). Les résultats sont précis et robustes. De multiples études ont été réalisées qui nous ont appris beaucoup sur la façon de bien conduire de l’aide au développement (voir cet article récent qui liste les résultats surprenants d’expérimentations récentes). De plus en plus d’ONG calquent leur pratique sur les enseignements de ces études et travaillent avec des chercheurs pour améliorer l’efficacité de leurs actions. A l’opposé de la caricature d’économistes loin de la réalité en train de manipuler de grandes théories, ces chercheurs ouvrent la boite noire de la production des politiques publiques. Par exemple comment améliorer l’éducation dans les pays en voie de développement ? Faut-il embaucher plus de professeurs, payer des livres, subventionner les cantines scolaires ou vérifier la présence des professeurs. Banerjee et Duflo expliquent que les expérimentations ont pu mettre en lumière  l’efficacité sensiblement différente des politiques pour obtenir le même niveau d’éducation. L’enthousiasme, légitime, de ces jeunes chercheurs les a amené à considérer l’expérimentation comme l’idéal méthodologique (le « gold standard ») de l’économie empirique mais aussi comme l’espoir d’un renouveau de l’engagement citoyen et la promesse d’un monde meilleur...

II. Les critiques des sceptiques

Ces nouvelles méthodes n’ont pourtant pas convaincu tout le monde. Elles suscitent même de sérieuses controverses parmi les économistes (relatées en partie par The Economist). Récemment, à l’occasion de la publication d’un livre au MIT Press par Abhijit  Banerjee, Making Aid Work, puis d’une conférence organisée par le Brookings Institute, le très respecté Angus Deaton (Princeton) et le non moins écouté Dani Rodrik (Harvard) ont chacun fait part de leurs inquiétudes devant le développement de ces méthodes (ou les attentes que l’on peut en avoir). Deaton raille ainsi ces « randomistas » qui ont développé une passion pour les expérimentations et dénonce les expérimentations comme la dernière lubie à la mode. Deux types de critique sont mises en avant.

1. L’éthique en question

Le premier problème de l’expérimentation est un problème éthique. L’identification d’un groupe de contrôle et d’un groupe test suppose que l’on choisit consciemment de ne pas « traiter » tout le monde. Comme le « traitement » est généralement une politique ou de l’aide que l’on juge a priori bénéfique, il est difficile de ne pas voir une injustice à ne pas offrir cette aide à tout le monde. L’argument des chercheurs a été de pointer le fait qu’on ne connaît pas l’efficacité des différentes aides possibles. Les ressources étant rares, chaque ONG est finalement contrainte à faire un choix d’un pays et même d’une petite région où opérer. En testant les différentes aides possibles par expérimentation, les ONG peuvent non seulement lever plus de ressources mais également privilégier les méthodes les plus efficaces, aidant ainsi un nombre bien plus large d’individus.

Mais cette justification apparaît parfois difficile à tenir. Si personne ne réagit fortement lorsque l’on évalue l’aide à l’éducation en comparant l’achat de livres par rapport à l’achat de l’uniforme ou l’effet de la présence des enseignants, lorsqu’on parle de l’effet de traitement médicaux sur les performances scolaires, de légitimes questions doivent être posées. Edward Miguel et Michael Kremer ont ainsi étudié l’effet d’un traitement contre les vers intestinaux sur l’absentéisme à l’école afin de mesurer les effets d’externalité des politiques de santé sur l’accumulation de capital humain. Cet article, qui est par ailleurs un article « phare » de cette école de recherche, a causé des discussions animées sur la justification éthique de telles recherches. Le processus expérimental a consisté à tirer au hasard des enfants kenyans en administrant à seulement la moitié d’entre eux le traitement contre les vers pour mesurer l’effet du traitement sur les performances scolaires (on connaît l’efficacité directe du traitement en terme de santé et le coût du traitement est très faible). Les chercheurs pointent que cette étude a permis de mettre en évidence qu’un traitement qui coûte 30 centimes permet d’obtenir un supplément d’éducation aussi tangible que de couteuses politiques à plus de 6000 $. Au lieu de financer des livres pour chaque enfant, il est possible – pour le même coût – d’être vingt mille fois plus efficace en offrant un traitement contre les vers à tous les enfants africains.

Le résultat de cette étude valait-il le coût éthique de cette expérimentation ? Est-il mieux de pouvoir mesurer cette externalité ou faut-il savoir limiter les champs d’expérimentation ? En d’autres termes, la fin justifie-t-elle les moyens ? Même si l’objectif final est d’aider ces populations, on ne peut s’empêcher de penser que s’il est plus facile de réaliser ces expériences dans les pays en voie de développement c’est aussi parce que dans les pays développés, les citoyens ont leur mot à dire sur l’opportunité de ces études…

2. Les limites méthodologiques

Plus que le problème éthique, ce qui semble le plus agacer les sceptiques, ce sont les prétentions de supériorité méthodologique.

James Heckman rappelle que la validité des expérimentations n’est que conditionnelle. Les résultats ne sont valables que dans le contexte de l’expérimentation (dans le pays, sur l’échantillon traité, selon les conditions macroéconomiques, etc.) . Ainsi, si une expérience met en évidence que l’aide aux chômeurs en Suède pendant une forte période de croissance est positive sur le retour à l’emploi, cela ne permet pas d’en déduire l’effet d’une politique similaire en France pendant une période de récession. Selon les mots de Deaton, le risque est d’amasser des faits et non de la connaissance. Les défenseurs des expérimentations lui rétorque que c’est une raison supplémentaire de faire plus d’expériences et non moins !

Les sceptiques répliquent alors que la multiplication des expérimentations de résout pas le fait qu’elles ne mesurent pas tous les effets. Ainsi, une politique peut être efficace à dose homéopathique (lorsqu’elle n’a pas d’impact sur les coûts ou les marchés du travail) mais peut se révéler complètement inefficace une fois qu’on prend en compte ses impacts macroéconomiques. C’est pourquoi Deaton raille les espoirs mis dans les expérimentations car, selon lui, elles ne peuvent qu’évaluer des petites politiques mais deviennent obsolètes dès que l’aide versée est suffisamment importante pour faire une différence.

L’autre point du débat est l’opposition entre vision micro et macro. Si les méthodes empiriques des macroéconomistes ont été discréditées au profit d’analyses micro plus rigoureuses et plus ciblées, les analyses globales (institutions, ouverture commerciale, etc.) n’en restent pas moins pertinentes pour expliquer le développement économique. Comme Deaton et Rodrik le soulignent, les pays qui se sont développés récemment (et ont sorti de la pauvreté des millions d’individus) ne l’ont pas fait en s’appuyant sur une aide extérieure et encore moins sur des politiques de développement expérimentées au préalable, mais en s’ouvrant au commerce, en garantissant les droits de propriété et en luttant contre la corruption.

Au final, doit-on reprocher à l’expérimentation d’apporter des informations très précises certes mais sur des points somme toute négligeables ?

III. Qu’en conclure?

Ce débat peut laisser songeur. Lorsque l’on compare la défense des expérimentations par Duflo et Banerjee et les critiques qui leur sont faites, on ne peut s’empêcher de penser que tout le monde s’accorde en fait sur deux points essentiels : les expérimentations sont extrêmement utiles et correspondent à un progrès substantiel par rapport aux analyses passées. Mais ce n’est pas la fin de l’histoire pour autant et d’autres méthodes, avec une meilleure compréhension des mécanismes, devront être développées. Une des voies d’avenir serait de parvenir à modéliser les comportements économiques en testant les hypothèses lors d’expériences : si le modèle est robuste à ces tests, il peut être utilisé pour juger d’autres politiques, hors du contexte de l’expérimentation ou pour évaluer des politiques qui ne peuvent pas être soumises à l’expérimentation.

L’opposition micro/macro est aussi stérile. Certes, les grands mouvements macroéconomiques (croissance, commerce) sont probablement plus importants pour la réduction de la pauvreté dans les pays pauvres, mais en rester à un niveau d’analyse macro n’a souvent aucun intérêt pratique : savoir si l’aide en soi est bonne ou pas pour la croissance n’est pas forcément la bonne question à poser au vu de l’hétérogénéité de l’aide possible. Essayer de comprendre quel type d’aide est efficace, ou est contreproductif, est probablement plus important. Pour ce faire, une combinaison d’expérimentations et de modélisation d’effets macroéconomiques sera déterminante.

Il est enfin difficile de reprocher aux partisans des expérimentations le souhait de voir ajouter au mur de la connaissance économique des petites mais solides pierres, quand on compte le nombre de grandes théories qui n’ont pas survécu à leur auteur. La modestie de ces approches est au contraire tout à l’honneur des chercheurs qui les poursuivent. Ceux qui en viennent à professer que les expérimentations sont la seule voie pour sauver le monde n’en ont simplement pas compris la philosophie.

_Antoine_

Lire la suite...

mardi 30 décembre 2008

Et deux docteurs de plus...


Nous sommes très heureux, à Ecopublix, de vous annoncer, non sans une certaine fierté, que deux petits scarabés de l'équipe ont soutenu leur thèse et ont été proclamés docteurs es sciences économiques. Camille a brillamment présenté sa thèse intitulée "Essais en économie publique : fiscalité, hauts revenus, familles" (disponible ici) et Julien lui a enchaîné le pas le lendemain avec son oeuvre "Démocratisation scolaire, politiques éducatives et inégalités : une évaluation économique" (disponible ici). Alors qu'on se le dise : terminer sa thèse, ça n'arrive pas qu'aux autres !
_Ecopublix_

Lire la suite...

jeudi 18 décembre 2008

Bonnes résolutions et Chaire (de poule)


La fin de l’année approche. Et cette fois, c’est vraiment la crise absolue. Le monde se tord d’angoisse. Dans la rue, ce ne sont que regards paniqués et conversations déprimées. Et il y a de quoi !

Car la question, la seule, la vraie, celle qui est sur toutes les lèvres, celle que tout le monde se pose, reste encore sans réponse :

Quelle bonne résolution adopter pour l’année prochaine ? 800x600 ? Arrêter de fumer ? Ah non, ça, ça a déjà raté cette année.

Heureusement, Ecopublix est là pour vous sortir de cette détresse : à partir du 8 Janvier, Esther Duflo, titulaire de la nouvelle Chaire « Savoirs contre pauvreté » proposera une série de leçons au Collège de France, au cours desquelles elle présentera les travaux basés sur la méthode empirique qui a révolutionné l’économie du développement depuis une dizaine d’années : l’approche expérimentale. Esther Duflo étant une spécialiste de cette méthode, nous ne pouvons que vous recommander chaudement d’aller assister à ces leçons, afin d’apprécier (ou non) l’intérêt de cette méthode dont l’utilisation fait débat au sein des sciences économiques.
En voila une bonne idée de résolution pour 2009 !

Toutes les infos sont .

Et hop, plus de problème, que des (bonnes) résolutions.
_Guilhem_

Lire la suite...

jeudi 4 décembre 2008

Etat général de la presse et de la démocratie


La France, que Freedom House classe 20e sur 25 pays Européens (ou 35e Mondial pour Reporter sans Frontière, soit exactement entre le Mali et l’Afrique du Sud) fait figure de mauvais élève parmi les pays développés du point de vue de la liberté de la presse. Cette dernière, du Premier Amendement à la Constitution Américaine à la Constitution Russe de 1993, est inscrite dans les institutions de la plupart des pays se déclarant démocratiques : reconnaître la nécessité d’une presse libre et indépendante pour le fonctionnement d’une démocratie est devenu un lieu commun. Les débats qui agitent les médias Français ainsi que les projets de réformes pourraient donc être l’occasion de se réjouir d’une orientation de notre presse vers une plus grande indépendance. Mais tant la réforme en cours du financement de l'audiovisuel public, que la mise en place des Etats Généraux de la presse ou que la récente actualité soulèvent en fait plus l'inquiétude quant à l’indépendance de la presse vis-à-vis des pouvoirs publics que l'enthousiasme.

Comment fonctionne précisément le lien entre presse libre et bon fonctionnement démocratique ? C'est la question que se pose une récente littérature économique. Celle-ci insiste sur le rôle de la presse comme garante de l’information disponible pour les votants afin de les guider dans leurs choix électoraux : une presse libre et indépendante est nécessaire pour inciter les élus à adopter un comportement proche des intérêts des électeurs, informés par les médias. L'absence de liberté ou d'indépendance de la presse peut donc avoir des répercussions très fortes sur les habitants d'un pays dans lequel les élus n'auraient que pas ou peu de compte à rendre pour leurs actions, ignorées du public.
Nous allons donc passer en revue ces modèles, les confronter à la réalité empirique tant dans les pays en voie de développement que dans les pays développés, où nous constaterons l’importance tout à fait fondamentale d’une presse libre pour une démocratie saine. Enfin, nous constaterons que l’ensemble des réformes actuellement en débat en France ’inscrivent de manière étonnamment claire dans un schéma dans lequel, loin de garantir l’indépendance de la presse, les pouvoirs publics seraient en train de se construire une plus grande facilité de contrôle sur l’information...

I/ Démocratie, liberté de la presse et famine

D'un point de vue théorique, la manière dont est pensé le rôle des médias en démocratie par les économistes est celle d’un problème d’agence : les électeurs ne sont qu’imparfaitement informés des actions de leurs élus. Si les élus sont opportunistes et sont au service de leur propre intérêt plutôt que de celui des électeurs, le rapport entre électeurs et élu est celui d’un principal (les électeurs) avec un agent (l’élu) puisque la problématique des électeurs va être de contrôler les décisions des élus dans une situation dans laquelle ils n'observent qu'imparfaitement celles ci. Dans ce type de relation, Besley, Burgess et Prat soulignent l’importance des médias qui, dans la mesure où ils fournissent des informations fiables, vont contribuer au contrôle de l’action des élus par les électeurs.

Amartya Sen fut l’un des premiers économistes à mettre en avant les mécanismes par lesquels la presse joue un rôle essentiel dans le fonctionnement d’une démocratie. Avec Jean Dreze, ils vont prendre l’exemple de l’Inde pour souligner la part jouée par le couple démocratie-presse libre dans la disparition des famines dans ce pays depuis l'Indépendance (famines pourtant récurrentes durant la période coloniale).

En effet, en situation de compétition électorale, un élu n’intervenant pas rapidement pour lutter contre des situations de famine ne sera très certainement pas réélu lors de la prochaine élection, pour peu que son incapacité à lutter contre la famine soit rendue publique par les médias. Ainsi, la combinaison d’un système démocratique et de la diffusion de l’information par une presse libre constitue une incitation clé pour les dirigeants à mettre rapidement en œuvre les politiques nécessaires à l’évitement des famines : en l’absence de l’une ou de l’autre de ces composantes, il n’y a pas d’incitation à agir pour l’élu. En effet, sans compétition électorale (le cas d’une dictature par exemple), « l’élu » n’a pas de risque de voir sa position menacée lors de la prochaine élection, et n’a donc pas d’intérêt particulier à agir en direction des populations menacées par la famine (et ce, même si l’ensemble de la population est informée de cette situation par la presse). De même, s'il y a compétition électorale, mais pas de presse libre, l’inaction des élus ne sera connue que de la population directement affectée par la famine. Si celle-ci ne représente qu’une petite part des électeurs, elle n’aura pas un poids suffisant pour empêcher le dirigeant incompétent d’être réélu à la prochaine élection, et celui-ci ne sera donc pas incité à faire en sorte de mettre cette population à l’abri de la famine.

Si par contre, l'ensemble du pays est informé de l'incapacité des dirigeants à résoudre une famine très localisée, les électeurs le prendront en compte à la prochaine élection, refusant d'élire un candidat dont ils se doutent qu'il ne saura pas agir efficacement si un nouveau risque de famine (qui pourrait cette fois les concerner) devait survenir.

C’est donc bien la combinaison de ces deux facteurs : une démocratie vivante, caractérisée par une forte compétition électorale, et une presse libre, qui est centrale dans l’adoption par les élus des mesures nécessaires à l’évitement des famines. Pour Dreze et Sen, qui comparent le cas de l’Inde à celui de la Chine, c’est notamment en raison de l’absence de ces deux facteurs que la Chine a connu entre 1958 et 1961 l’une des plus grandes famines de l’histoire, alors que sa voisine Indienne traversait la deuxième moitié du XXe siècle sans aucun épisode de famine.

Tim Besley et Robin Burgess ont formalisé ces intuitions et les ont testées sur données Indiennes. Ils étudient les districts Indiens de 1952 à 1992 pour voir si la réaction des autorités à des catastrophes naturelles pouvant entraîner des situations de famine dépendait ou non de la plus ou moins grande circulation de médias dans chacun de ces districts. Ils montrent alors que face à ces situations de risque de famine, la réaction des autorités va dépendre largement de la présence de médias dans le district : plus la circulation des médias est importante dans un district, plus la réaction des autorités à un risque de famine va être forte. En particulier, ils soulignent que la circulation de médias écrits dans la langue locale (donc des medias traitant a priori d’informations plus régionales, plus susceptibles d’accorder une grande place à des risques de famines très localisés géographiquement) a plus d’impact que celle de médias écrits en Hindi ou en Anglais (langues de la presse nationale) sur l’intervention des autorités. De même, ils mettent en avant l’importance de la compétition électorale dans la qualité de l’intervention publique dans la lutte contre les risques de famine, en ligne avec les intuitions de Dreze et Sen.

Démocratie et presse libre semblent donc bien être des éléments essentiels pour la « bonne gouvernance » des pays en voie de développement. Et si les questions de famine sont des préoccupations propres aux PVD, celle de la « bonne gouvernance » ne leur est par contre pas exclusive, et nous allons voir comment la question de la liberté de la presse est aussi au cœur du contrôle de l’action des élus des pays développés.

II/ Indépendance de la presse et démocratie

En effet, le contrôle de l’action des élus est loin d’être un problème spécifique aux pays en voie de développement. Par contre, et contrairement à beaucoup de pays en voie de développement, la plupart d’entre eux disposent d’institutions démocratiques et d’une presse libre. La question va donc se poser différemment pour eux, puisqu’il faudra alors savoir dans quelles conditions une presse officiellement libre va être effectivement indépendante du pouvoir. En d'autre termes, et pour revenir à l'article de Besley, Burgess et Prat, que se passe t'il si les informations fournies par les médias ne sont pas nécessairement fiables, si elles peuvent être affectées, contrôlées, capturées, par les élus ?

C'est la question que se posent Besley et Prat qui proposent un modèle dans lequel les médias peuvent se faire « capturer » par les élus. Dans leur modèle, les medias ont deux types d'incitations : celle d'obtenir une grande audience, afin d'obtenir un revenu des ventes et de la publicité. L'audience sera d'autant plus forte que la qualité de l'information procurée par le média est bonne (1) . Mais les médias peuvent aussi être « capturés » par les politiques qui, cherchant à contrôler les informations qu'ils diffusent, vont faire en sorte d'offrir des contreparties aux médias ne diffusant pas d'informations négatives sur leur compte (mesures illégales, menaces par exemple, mais aussi et surtout, des mesures légales visant à favoriser les propriétaires des médias en contrepartie de leur partialité dans le traitement de l'information).
Ils montrent alors que la probabilité que les medias soient « capturés » par les politiques va dépendre:
  • de la concentration de l'industrie des médias (plus celle ci est concentrée, plus elle sera facile à capturer, car il y aura moins de médias avec lesquels passer des marchés),
  • des revenus liés à l'audience (plus ceux ci sont élevés, plus les médias seront difficiles à capturer),
  • et des coûts de transaction entre les politiques et les médias (plus ceux ci sont faibles, plus les médias sont faciles à capturer).
Ils insistent tout particulièrement sur ce dernier point, en soulignant que ces coûts de transaction vont largement dépendre de la manière dont les médias sont gérés : les médias appartenant à l'Etat, dont les dirigeants sont directement nommés par le gouvernement ont le plus de chance de présenter des coûts de transaction faible. De même, si les médias sont détenus par des familles, les coûts de transaction peuvent être relativement faibles, le gouvernement faisant en sorte de passer des lois avantageant les membres de ces familles à la tête des groupes de presse. Enfin, si les médias appartiennent à des grands groupes industriels aux intérêts économiques variés, les coûts de transaction seront faibles encore une fois, le gouvernement pouvant faire passer des lois avantageant certains intérêts économiques du groupe. Les coûts de transaction seront par contre d'autant plus élevés que l'actionnariat des groupes de presse sera dispersé, ou si ces groupes sont détenus par des non résidents (moins susceptibles d’être affectés par des lois passées dans un pays où ils n’habitent pas).

La vérification empirique de ce modèle n'est toutefois pas extrêmement convaincante. Les auteurs montrent qu'il existe une corrélation entre le type de propriété des groupes de média et les niveaux de corruption des politiques : plus les médias sont détenus par l'Etat, plus on observe que les politiques sont corrompus. Rudiger Ahrend trouve lui aussi un lien entre liberté de la presse et niveau de corruption. Ces études ne montrent cependant que des corrélations, et ne peuvent établir de rapport de causalité entre presse indépendante et qualité de la « gouvernance ».

Une autre étude, historique celle là, menée par Gentzkow, Glaeser et Goldin porte sur l'évolution de l'indépendance de la presse aux Etats Unis : alors qu'aux alentours de 1870, la presse était avant tout partisane, revendiquant son affiliation à un parti, la croissance de l'industrie des médias et de la concurrence entre eux a entraîné le développement d'une presse indépendante (la part de journaux se déclarant indépendants est passée de 11% en 1870 à 62% en 1920, selon les auteurs).
On peut constater sur le graphe 1 l'augmentation massive de la circulation des journaux sur la période :


Etudiant le traitement médiatique de deux scandales politiques, celui du Crédit Mobilier au début des années 1870 et celui du « Teapot Dome » dans les années 20, ils montrent que la couverture de ceux ci est biaisée dans les journaux partisans (quel que soit le scandale) mais est relativement objective dans les journaux indépendants, la différence entre les deux périodes étant alors que le nombre et la diffusion des journaux indépendants était beaucoup plus importante dans les années 20, offrant donc à la population dans son ensemble une couverture bien plus objective des événements. Les auteurs proposent plusieurs mesures du biais dans le traitement de l'information. L'une d'entre elle est l'utilisation récurrente des termes « diffamation » (slander) et « honnête » (honest) qui biaisent l'information dans un sens ou dans un autre sans apporter d'élément factuel. Ils montrent alors que le recours à ce type de terme (déflaté par le mot neutre « Janvier », pour tenir compte de l'évolution de la taille des journaux) va décroître avec le développement de la presse indépendante.


Les auteurs suggèrent alors que ce développement d'une presse indépendante n'est peut être pas sans lien avec la diminution massive de la corruption observée à la même époque aux Etats Unis, sans toutefois réussir à démontrer le lien de causalité.

La difficulté de la démonstration du lien causal entre indépendance de la presse et qualité de la politique provient du fait que ces deux variables sont déterminées conjointement : les endroits dans lesquels la presse n’est pas indépendante peuvent l’être parce que les politiques corrompus font en sorte que celle-ci le soit, et vice versa. Il est donc délicat de déterminer si c’est bien l'absence d' indépendance de la presse qui fait le mauvais politicien, ou le mauvais politicien qui fait l'absence d' indépendance de la presse. Snyder et Strömberg proposent une manière originale de résoudre ce problème en utilisant le découpage des circonscriptions américaines. Ils montrent en effet que le découpage des circonscriptions ne correspond généralement pas au découpage des marchés des médias locaux, ce qui rend la couverture de l’actualité de politique locale difficile pour les médias : si les lecteurs d’un journal, par exemple, sont tous concentrés dans une seule circonscription, alors l’actualité politique de cette circonscription les intéressera, et sera traitée par le journal. Si par contre, les lecteurs du journal sont répartis sur plusieurs circonscriptions, la couverture d’un évènement politique d’une circonscription n’intéressera que peu les lecteurs des autres circonscriptions. Il s’en suit que la couverture des événements politiques locaux sera d’autant plus complète que les marchés des média locaux correspondent aux frontières des circonscriptions électorales (circonscription et marché des média sont alors dits « congruents »). Snyder et Strömberg montrent alors que les élus de régions où marché des médias et circonscription sont très « congruents » sont plus actifs (et obtiennent plus de fonds pour leur circonscription) que ceux dont la circonscription est moins « congruente » d’avec le marché des médias locaux.

Dans les pays développés comme dans les pays en voie de développement, il apparaît donc clairement que la presse joue un rôle causal dans le comportement des élus et la qualité des politiques mises en œuvre.

III/ Et la France dans tout ça ?

On a donc pu constater que la contribution d'une presse libre au bien être des citoyens d'une démocratie pouvait être tout à fait essentielle, en particulier dans les pays en voie de développement, pour lesquels il peut s'agir d'une question vitale, alors même que le pays peut avoir des institutions parfaitement démocratiques par ailleurs.

Loin de se limiter à ces pays, le besoin d'une presse libre pour le contrôle de l'action des élus est aussi nécessaire dans les pays riches, où l'on voit clairement que la couverture médiatique (ainsi que sa qualité) affectent le comportement des élus.

L'article théorique de Besley et Prat nous permet en particulier de saisir les mécanismes par lesquels un gouvernement pourrait essayer de capturer l'information fournie par les médias.

Il peut être en effet particulier instructif pour l'interprétation de l'actualité Française de lire ce modèle d'une autre manière, en se posant la question de savoir comment un gouvernement qui voudrait contrôler au mieux la presse devrait agir. Ce modèle nous enseigne alors que ce gouvernement aurait intérêt à faire en sorte de diminuer les ressources publicitaires de la presse, de nommer directement les PDG des groupes de media publics, de favoriser la concentration de l'industrie, ou bien de favoriser par voie légale les intérêts des groupes de média (même si, dans cet exemple, l’intérêt du groupe en question n’est en fait pas aussi évident que ça) contre un traitement plus favorable de l'information.

Les lecteurs imaginatifs se diront peut être que les modèles économiques peuvent parfois décrire de manière étonnamment précise une réalité empirique particulière...
Il est en effet rare d’observer un modèle théorique décrire de manière aussi adéquate une réalité empirique. Si l’on comprend l’intérêt des élus à contrôler la presse (en particulier si, non content d’affaiblir le contrôle des électeurs sur leurs élus, elle affecte en plus leur comportement au moment des élections), cette capture (potentielle) des médias représente une menace pour la qualité de nos institutions. Dès lors, on comprend la vive hostilité que suscitent les différentes réformes en cours. Signe d’une démocratie vivante, on espère simplement que ces débats, permis par une information de qualité, seront encore possibles à l’avenir, si ces mesures devaient être adoptées: comme l'a illustré la difficulté à vérifier empiriquement le lien de causalité entre indépendance de la presse et qualité de la gouvernance, la dégradation de l'indépendance de la presse crée les conditions d'apparition d'un cercle vicieux mauvaise gouvernance-dépendance de la presse au pouvoir difficile à briser une fois en place...


(1) Cette hypothèse peut être discutable. Néanmoins, toutes choses égales par ailleurs, on peut supposer qu’un auditeur/lecteur préférera une information de plus grande qualité. En particulier, dans le cas qui nous intéresse, elle souligne le fait que le média qui publiera un « scoop » sur la malhonnêteté d’un dirigeant gagnera des parts d’audience importante, au moins de manière ponctuelle, ce qui est tout à fait réaliste. Un élu voulant contrôler la presse devra donc passer un marché avec tous les médias, car celui avec lequel il n’aura pas passé de marché aura d’autant plus intérêt à publier le « scoop » que les autres ne le font pas.
_Guilhem_

Lire la suite...

mardi 2 décembre 2008

Willem Buiter : la politique monétaire sans complexe


Willem Buiter, professeur à la London School of Economics, ancien membre du Comité monétaire de la Banque centrale britannique et blogueur émérite sur le Financial Times, vient de signer un post extrêmement stimulant sur les options de la politique monétaire (pour poursuivre l'évocation de la politique macroeconomique en cas de récession): en deux mots, il suggère de baisser tout de suite les taux d'intérêt à zéro... Cela rejoint en partie des idées sur l'efficacité de la politique monétaire mises en avant par Christina Romer (qui vient de rejoindre l'équipe d'Obama).
Willem Buiter avait expliqué, il y a quelques temps qu'il ne bloguait pas pour son public mais pour mettre au clair ses idées et pour se soumettre à sa propre lecture critique (et à celle de ses lecteurs). Visiblement le blog aide certains à penser sans complexe...
_Antoine_

Lire la suite...

jeudi 27 novembre 2008

Crise financière: dommages collatéraux


La crise financière n’en finit pas de se propager des banques aux entreprises, puis aux ménages, et même aux économies qui pensaient ne pas être concernées par cette crise des pays riches. La récession qui s’installe dans les pays développés pourrait avoir des conséquences sur l’assistance aux pays les plus pauvres, et ce malgré les toutes récentes promesses, renouvelées à chaque sommet international, de ne pas faillir sur ce point. Mais quel rapport entre la tempête financière et l’assistance aux pays les plus pauvres ?

I/ La sonnette d’alarme

On peut envisager deux liens entre la crise et l’aide aux développements. Le premier plaiderait pour un rôle accru de l’aide. La crise s’étend aux pays émergents, qui n’ont rien demandé et en sont les victimes indirectes. Au-delà des difficultés à emprunter, les pays émergents et en voie de développement vont aussi voir chuter leurs revenus tirés du commerce avec les pays riches. L’investissement direct à l’étranger en provenance de ces mêmes pays riches risque de ne pas se porter très bien non plus, tout comme les flux de portefeuilles. Au final il y aura donc une baisse de revenus pour les pays pauvres et l’aide aurait un rôle à jouer pour compenser ces variations brutales de revenus. Nous laisserons de côté cette possibilité pour ce post, si ce n’est pour rapidement préciser que dans le passé l’aide n’a généralement pas compensé les baisses de revenus, au contraire, donc à moins d’un changement de comportement cette fonction a peu de chances d’être remplie.

Deuxième voie : la crise touche en premier lieu les pays riches. Ceux-ci entrent en récession et ils vont devoir se serrer la ceinture. Le stimulus budgétaire va creuser les déficits et les pays développés vont envisager de tailler dans les dépenses qui ne servent pas à amortir les effets de la crise. Or l’aide au développement est un candidat idéal. Elle est inutile face à la récession(1) et sa diminution est « facile » politiquement. Nous n’avons encore jamais vu d’élections se jouer sur l’aide au développement, ou des syndicats bloquer le pays car elle était diminuée. David Roodman, du Center for Global Development, un think tank basé à Washington, a été le premier à tirer la sonnette d’alarme. Il montre que les crises du début des années 90 en Finlande, Norvège, et Suède, mais aussi celle du Japon en 1990 se sont toutes traduites par des chutes brutales de leur aide au développement. Je reproduis ci-dessous son graphique pour la Scandinavie.


L’OCDE, par la voix de son Secrétaire Général Angel Gurría, a envoyé une lettre aux chefs d’états et aux gouvernements des pays membres pour les inviter à « souscrire à une Déclaration sur la politique d’aide qui aurait pour effet de confirmer les promesses d’aide antérieures et d’éviter des coupes dans les budgets d’aide au développement ». Elle les enjoint « à ne pas répéter les erreurs que nous avons pu commettre dans le passé à la suite de la récession du début des années 90 ». L’OCDE a calculé qu’entre 1992 et 1997 l’aide avait diminué de 0.33 à 0.22% du revenu national brut. Le passé semble bien indiquer que l’aide va chuter très prochainement. Il est par contre difficile de savoir pour combien de temps. Roodman estime probable une diminution sur les cinq prochaines années. Inutile de préciser que toutes les belles promesses sur la fameuse cible des 0.7 percent de revenu national brut risquent d’apparaître encore plus caduques qu’elles ne le sont déjà aujourd’hui.

II/ L’aide est-elle vraiment victime des récessions ?

L’argument de Roodman paraît irréfutable. Cependant il faut bien reconnaître qu’il ne regarde que des cas extrêmes et donc nécessairement en nombre très réduit. On pourrait avancer d’autres explications pour la chute de l’aide au début des années 90: la fin de la guerre froide et donc la fin du soutien à certains pays jugés stratégiquement importants, mais aussi la « fatigue de l’aide », c’est-à-dire le moment où beaucoup de pays ont commencé à sérieusement s’interroger sur l’efficacité de l’aide au développement. Par ailleurs on ne peut pas vraiment reprocher cette méthode à Roodman. Nous vivons une crise aux proportions jusqu’alors inconnues donc seuls quelques cas extrêmes peuvent, peut-être, nous informer.

L’OCDE, par le biais cette fois de son Centre de Développement, relativise un peu (regardez la première présentation par Andrew Mold, pages 33-34). Il souligne d’abord que de manière générale il n’existe quasiment pas de relation entre croissance dans le pays développé et niveau d’aide. Par exemple certains ont réduit leur aide en période de croissance (la France par exemple entre 1997 et 2001). Il rappelle ensuite que lors de récessions modérées l’aide a rapidement retrouvé son niveau d’avant crise. Enfin il fait remarquer que l’aide ne constitue qu’une part très faible du budget des états et des plans de sauvetage. Ce n’est sûrement pas sa réduction qui va permettre de financer le stimulus budgétaire.

Un petit calcul rapide sur les données de l’aide de 1960 à 2006 permet de chiffrer l’effet d’une récession : si l’année précédente l’économie n’était pas en récession, l’aide brute au développement augmente en moyenne de 16%. Si elle était en récession, alors l’aide n’augmente « que » de 4%. Cet effet est plus important si 2 ans auparavant l’économie était en récession : dans ce cas l’aide n’augmente que de 2%. La croissance de l’aide serait donc ralentie mais ne deviendrait pas pour autant systématiquement négative. On observe aussi que plus la récession est longue et plus ce ralentissement est marqué. Cependant les récessions longues sont relativement rares et leur étude repose sur peu d’observations. Il devient donc difficile d’en tirer des conclusions générales.

III/ Conclusion

Difficile de se faire une idée précise au final. D’un côté, on voit de bonnes raisons de penser que l’aide va chuter, et les expériences scandinaves le confirment. De l’autre il n’est pas clair que les récessions entraînent systématiquement une baisse de l’aide. Il est difficile, comme toujours, de prédire l’avenir. Il semble raisonnable de penser que l’aide ne va sûrement pas fortement augmenter dans les toutes prochaines années. Les promesses des pays développés, déjà jugées particulièrement difficiles à atteindre l’an dernier, ne seront donc pas respectées.

NOTES :
(1) C’est sûrement faux dans le long terme. Les pays développés n’ont pas intérêt à voir les pays pauvres devenir encore plus pauvres, mais en ce moment le long terme ne pèse pas lourd dans les prises de décision.

Crédit photo : gwburke2001
_Emmanuel_

Lire la suite...

mercredi 26 novembre 2008

Dream team, le retour !


Le President-elect Obama, (celui là même qui va casser la baraque de Kaboul a Bamako), a commencé à nommer son staff économique. Et, bonne surprise, il a décidé de s’entourer d’une dream-team dont on avait plus vu la couleur à Washington depuis longtemps, l’équipe économique en place s’apparentant à un vrai Ministere Who? Who?.

Parmi les nominations, certaines étaient attendues et commentées depuis quelques semaines, comme celle de Larry Summers au poste de top economic advisor (Head of the National Econmic Council). D’autres en revanche étaient moins prévisibles, et en particulier celle de Christina Romer comme chairman of the Council of Economic Advisors (CEA) a déclenché un peu l’euphorie au département d’économie de Berkeley.

Christina Romer et son mari David, qui sont un couple à la scène comme à la ville, ont déjà conseillé le candidat Obama durant la campagne. Mais il est certain que dans le milieu, tout le monde attendait la nomination au poste de chairman of the CEA du jeune et talentueux économiste de la Chicago Business School, Austan Goolsbee, qui a été le premier conseiller économique d’Obama et un soutien sans faille depuis 2 ans. [C'est le même Goolsbee que l'équipe de l'IFS de notre ami Antoine a cru pouvoir s'offrir il y a quelques mois de cela, sans trop de succès]. Il semblerait, d’après la fama publica, qu’Obama ait cherché désespérément à féminiser son équipe afin de rendre la photo de groupe sur le perron de la Maison-Blanche un peu moins débordante de testostérone. Quoi qu’il en soit, la nomination de Christina Romer n’est certainement pas un choix de complaisance : elle fait véritablement partie d’une ambition remarquable de la part du nouveau président de s’entourer de la clique de cerveaux la plus pointue du monde, qui n’est pas sans rappeler les premiers moments des présidences de Roosevelt ou de Reagan.

Voici donc quelques trucs à savoir sur la nouvelle maîtresse des orientations de politiques économiques de la plus grande puissance mondiale. C’est une super pointure dans le domaine académique, elle a un parcours exemplaire et une culture économique et historique vraiment impressionnante. Ses travaux, avec son mari, portent essentiellement sur les politiques budgétaires et monétaires, la Grande Dépression et les cycles économiques. C’est une personnalité peu marquée politiquement, et peu suspecte de vouloir uniquement coller au bon plaisir du Prince. Son dernier papier empirique sur les effets des politiques de relance budgétaires sur la croissance est en effet loin d’être euphorisant pour la nouvelle administration : les hausses d’impôt ont en effet d’après les époux Romer un impact macroéconomique assez néfaste indépendamment des conditions du cycle économique. Ce qui ne veut bien évidemment pas dire qu’une relance ultra-musclée n’est pas souhaitable à l’heure actuelle, lorsque l’on est en phase de récession.

La question qui reste pendante néanmoins est celle de la cohabitation entre Romer et Summers, Larry Summers étant une forte tête et réputé assez macho (il a dû quitter le poste de Président de l’université d’Harvard suite à un scandale autour de certaines déclarations qu’ils auraient faites sur les aptitudes respectives en sciences des garçons et des filles). Selon la plupart des commentateurs qui connaissent bien les deux personnalités, comme Mankiw ou Brad de Long, il ne devrait pas y avoir de gros problème, les deux se connaissant bien et Romer étant une vraie « consensus builder ». Et quoi qu’il en soit, la structure même du National Economic Council, fondé par Clinton en 1993 et donc dirigée par Summers, en fait un organe exécutif beaucoup plus puissant qui devrait lui donner un ascendant sur le Council of Economic Advisors, qui est plus une sorte de chambre de cerveaux en fusion destinés à conseiller le président de manière moins formelle.

Il faut également saluer la nomination par le nouveau président de Peter Orszag au poste de director of the White House Office of Management and Budget (sorte de super ministère du budget et de l'organisation des dépenses publiques), qui, à 47 ans, est déjà un vétéran des batailles budgétaires et de Timothy Geithner, président de la Reserve fédérale de New York, au poste de secrétaire au Trésor (le vrai ministre des Finances). Ces deux personnalités sont expérimentées et prouvent de la part d'Obama une volonté d'envisager le problème de la relance économique dans toutes ses dimensions. On voit donc se profiler à l'horizon un gros stimulus fiscal avec dans le même temps une très musclée rationalisation de la dépense publique.

Il n’en reste pas moins remarquable de voir autant de gros cerveaux autour du Président, et l’on ne peut s’empêcher de constater que le niveau moyen du conseil de politique économique du futur président est à des années-lumières de ce que l’on peut voir actuellement en France. Non seulement Romer ou Summers en connaissent plus sur l’économie qu’Henri Gaino, mais plus encore, il est frappant de voir à quel point le conseil économique du Président est organisé, encadré et formalisé. Comme le soulignait Brad de Long, de telles structures permettent de faire émerger des consensus sur la politique économique à suivre, laissant beaucoup moins de place et d’influence pour les lobbysites et les spin-doctors, ce qui ne peut que profiter à la qualité de la politique économique mise en place.
_Camille_

Lire la suite...

lundi 24 novembre 2008

Le problème des retraites (8/40) : pédagogie écrite et orale


J’ai fait quelques essais de pédagogie du système de comptes notionnels hors des pages de ce blog : d’abord en répondant aux interrogations des lecteurs de Libération qui restaient dubitatifs sur le financement en répartition d’un tel système, ensuite en participant à l’émission de France Culture « L’économie en question » de Caroline Broué et Olivier Pastré lundi 24 novembre. J’étais l’invité de l’émission aux côtés de J-C Leduigou, secrétaire général de la CGT et responsable, entre autres, de la question des retraites. Récit d’une première fois en direct à la radio…

Comme toutes les premières fois, c’est à la fois stressant et un peu excitant. Peur de ne pas être à la hauteur, le trou blanc, la panne… et puis pris dans l’émission, on se laisse prendre par la conversation et le débat. Les journalistes et J-C. Leduigou ont été indulgents avec le petit jeune et au final l’expérience n’a pas été désagréable. Elle m’a surtout permis de rencontrer un responsable d’une grande centrale syndicale et d’essayer de le convaincre de considérer notre proposition.

Sur le fond, J-C. Leduigou n’a pas (encore) été convaincu par notre proposition même s’il semble acquis à la proposition de revoir complètement notre système de retraite. Il partage le diagnostic à l’origine de cette proposition : un système complexe, parsemé d’injustices et d’incertitude sur les droits à la retraite, dont la garantie financière n’est pas assurée et dont certains aspects (comme la revalorisation par les prix) ont des effets pervers encore peu visibles.

A l'inverse son opposition au système de comptes notionnels comme un retour à un « système d’assurance » et comme un système inégalitaire ne m’a pas vraiment convaincu. Son affirmation que nous sommes sorti du système d’assurance vieillesse (et dans un système de « salaire différé ») me semble reposer sur une vision étrange (ou que je ne comprends pas bien) des cotisations retraites : pas vraiment des cotisations (sinon il y a assurance), pas des impôts (elles ouvrent des droits à la retraite)…  Qu’est-ce alors qu’un système de « salaire différé » ? Un système où la retraite dépend du dernier salaire uniquement ? profitant ainsi aux salaires plus élevés et organisant la redistribution des plus pauvres vers les plus riches ?

Quant à l’accusation récurrente que le système de comptes notionnels est inégalitaire, il repose sur deux erreurs ou malentendus : la première est de croire que le système actuel est le parangon de la redistribution quand il organise de multiples redistributions à l’envers, qui restent cachées à l’oeil du citoyen. La seconde est d’oublier que le système de comptes notionnels repose sur un deuxième pilier de redistribution, financé par l’impôt, qui permet de créditer les comptes de tous ceux qui ont des aléas de carrière ou des salaires faibles tout au long de leur vie. Il n’y a pas de niveau de redistribution qu’on ne puisse répliquer (et a fortiori augmenter) dans un tel système. La seule condition requise est la transparence.

Pour poursuivre le débat, les lecteurs peuvent aller lire (ou relire) les posts consacrés la retraite sur Ecopublix.

_Antoine_

Lire la suite...

jeudi 20 novembre 2008

Inégalités II: la boîte à outils du petit économiste


En tant que problème d’économie publique, les inégalités représentent avant tout une question « positive », celle de leur mesure. Avant de pouvoir tenir des discours de justice sociale, il faut pouvoir établir des constats « positifs », simples, sur la distribution des revenus, des patrimoines, des salaires, des performances scolaires ou de tout autre variable d’intérêt pour la collectivité et les politiques publiques. Et établir ces constats est en soi un exercice souvent difficile, qui donne lieu à bien des incompréhensions. Car l’inégalité, en soi, est partout. Partout, dans chaque phénomène, il y a de la dispersion, de la variance. Pour pouvoir passer intelligemment de cette dispersion à des discours sur la répartition et à des recommandations de politique publique, il faut comprendre la nature de ces « inégalités». Il ne nous semble donc pas inutile d’exposer la boîte à outils minimale requise pour comprendre et analyser l’évolution des inégalités, en nous focalisant ici pour commencer sur les inégalités de revenus.

I/ Revenus, préférences et le paysan de l’île de Ré

La première question à se poser est toujours celle de la définition de l’objet qu’on entend mesurer, ou dont on entend analyser la distribution entre les ménages. Or le revenu est par nature un élément ambivalent aux yeux des économistes, car il est fondamentalement envisagé comme le résultat d’un choix, la manifestation des préférences des individus entre travail et loisir. Le modèle microéconomique de base représente en effet le revenu comme la rémunération tirée par un individu sur le marché du travail des heures qu’il choisit de travailler plutôt que de rester à la maison jouer au poker online. Un faible revenu peut donc signaler tout bêtement une préférence importante pour le loisir. Dans la pratique, il suffirait de regarder le revenu divisé par le nombre d’heures de travail (le salaire horaire par exemple) pour contrôler cet effet. Malheureusement, cette information est rarement disponible pour l’administration fiscale, et c’est d’ailleurs sur ce constat que se fonde la plus grande partie de la littérature sur la taxation optimale des revenus depuis la contribution décisive de Mirrlees.

Plus généralement, la réalisation des revenus résulte non pas d’un seul, mais de toute une série d’arbitrages qui impliquent directement les préférences des individus, et qui de ce fait, posent problème à l’économiste, qui a comme chacun sait, le plus grand mal à se dépatouiller des préférences.

Prenons un exemple concret : le fameux « paysan de l’île de Ré ». Ce brave homme cultive des patates, dont il tire un revenu très modeste sur un terrain qu’il possède sur l’île de Ré. La valeur de son terrain s’apprécie très fortement, et le voilà qui doit désormais payer l’ISF. Le gouvernement trouve injuste qu’une personne aux si faibles revenus doive payer l’ISF, et invente donc le bouclier fiscal. Pour autant, cette personne a-t-elle vraiment de si faibles revenus, et pourquoi ? De facto, notre paysan fait le choix de ne pas vendre son terrain pour continuer à cultiver ces patates, mais il pourrait tout aussi bien vendre son terrain, et toucher des revenus très conséquents de son patrimoine placé ensuite de manière efficace. Le paysan de l’ile de Ré a donc des revenus réalisés faibles, mais des revenus potentiels élevés, qui pourraient tout à fait justifier une taxe redistributive. S’il a des revenus faibles, c’est qu’il préfère ne pas vendre son terrain.

Et c’est là le noeud du problème de redistribution pour les pouvoirs publics : comment mettre en place des transferts sociaux à partir de l’observation des seuls revenus réalisés ? Cela revient en effet à taxer implicitement des comportements sur la seule base de différences de préférences. En octroyant le bouclier fiscal, les pouvoirs publics redistribuent-il vraiment vers des ménages à bas niveau de vie, ou ne redistribuent-il pas plutôt vers des ménages ayant une préférence marquée pour les parties de croquet avec Lionel et Sylviane ?

Pour contourner cette épineuse question, l’économie publique s’appuie souvent sur la notion de « total income », ou « Haig-Simons » income, qui tente d’appréhender directement la contrainte budgétaire des individus qui détermine l’espace de leur choix. Cette contrainte budgétaire c’est en effet la consommation totale potentielle d’un individu, c’est-à-dire ce qu’il a consommé effectivement plus les variations de son patrimoine au cours de la période considérée. Si elle est théoriquement astucieuse, cette définition du revenu est difficile à mettre en œuvre dans la pratique du fait de l’absence de mesures adéquates de la consommation réalisée par les individus. Mais elle offre toutefois une bonne base pour envisager la redistribution optimale. Sur la base du « revenu total » à la Haig-Simons, le paysan de l’île de Ré fait partie des hauts revenus : il est donc justifiable de le taxer indépendamment de toute considération sur le caractère socialement bon ou néfaste de son attachement maladif à son bout de rocher !

II/ Appréhender la distribution des transferts : des revenus bruts au niveau de vie

Si l’on évacue ce problème fondamental des préférences, la mesure des revenus réalisés n’en reste pas moins compliquée. En effet, les revenus sont composés de différentes strates. Pour faire simple, on peut résumer la formation des revenus des ménages, un peu sur le modèle de la comptabilité nationale, comme le résultat de plusieurs étapes :
  • d’abord les revenus primaires, qui sont la rémunération que les facteurs de production (travail, capital) tirent avant tout transfert ou taxation. Les anglo-saxons appellent communément ces revenus primaires « market incomes », car ils résultent de la confrontation de l’offre et de la demande de travail, de l’offre et de la demande de capital. Ceci ne revient pas pour autant à dire que les facteurs institutionnels n’influent pas sur ces revenus : bien au contraire, l’existence d’un salaire minimum, ou de régulations des marchés (du travail, de l’épargne, etc) peuvent directement affecter la répartition de ces revenus primaires. Toutefois, la distribution des revenus primaires nous donne des indications importantes sur ce qui se passe avant impôts et transferts, que l’on considère comme les deux opérations à vocation directement redistributives des pouvoirs publics. Notons que le revenu primaire du travail, selon cette approche, est pour la France le salaire super-brut, c’est-à-dire incluant les cotisations sociales employeurs et salariés. Ceci provient du fait que l’incidence fiscale de ces cotisations est sur les salaires, non sur les profits.

  • Ensuite viennent les revenus nets, c’est-à-dire, net de cotisations et taxes, et lorsque l’on ajoute les transferts directs (allocations familiales, prime pour l’emploi, etc.) et indirects, on obtient les revenus disponibles. Attention, en toute logique, il faut prendre en compte pour le calcul de ce revenu disponible tous les transferts individualisables et non individualisables de l’Etat. C’est-à-dire tout ce qui dans la dépense publique financée par les prélèvements obligatoires revient aux ménages sous forme de transfert : éducation, dépense de santé prise en charge par la sécurité sociale, dépenses de l’Etat pour la sécurité nationale (armée, police), etc. La liste est longue… Ces dépenses assurées par les pouvoirs publics sont autant de dépenses que l’individu ne paie pas directement. Ce sont donc, dans sa contrainte budgétaire, des formes de revenus implicites. Ces dépenses des administrations publiques à destination des ménages sont par nature très difficiles à évaluer. Pour autant, la comptabilité nationale tente de chiffrer au niveau de l’ensemble de la population française ces dépenses. En 2007, les "transferts sociaux en nature" représentaient par exemple plus de 311 milliards d'euros, soit presque 20% du PIB. On obtient ainsi le revenu disponible moyen pour l’ensemble des ménages. Mais les choses se compliquent lorsque l’on essaie de s’intéresser à la distribution de ces dépenses entre les ménages, ce qui est pourtant indispensable pour obtenir une idée de la distribution du revenu disponible. Prenons un exemple simple : la dépense publique d’éducation supérieure. En France, l’éducation supérieure est gratuite. L’Etat transfère donc implicitement du revenu vers les ménages dont les enfants poursuivent des études supérieures. A priori, il suffirait donc de comptabiliser pour tous les ménages déclarant avoir un enfant dans le supérieur un transfert équivalent à la dépense moyenne par étudiant dans le supérieur. Mais il faudrait faire cela pour toutes les dépenses de l’Etat, et donc avoir une idée sur qui consomme toutes ces dépenses publiques, et comment. Par exemple, qui a recours aux services policiers, aux services de justice, et de quelle manière ? Bien malin qui peut répondre à ces questions. C’est pourquoi, la plupart du temps, l’analyse du revenu disponible s’en tient à la prise en compte des seuls transferts directs. N’oublions donc jamais que ceci ne tient que très imparfaitement des très gros effets redistributifs potentiels de la dépense publique dans son ensemble. Avec une dépense moyenne par enfant de 9370 euros en 2006 , un ménage touche bien plus de transfert de l’Etat du fait de la dépense d’éducation supérieure que s’il touchait la prime pour l’emploi, ou des allocations familiales moyennes.

  • Enfin, une dernière dimension importante à prendre en compte dans la formation des revenus est la taille du ménage. Pour des raisons que nous avons déjà largement explicitées ici, le fait de vivre à plusieurs génère des économies d’échelle qui sont importantes pour déterminer le niveau de vie, qui se définit comme le revenu disponible divisé par le nombre d’unités de consommation dans le ménage. La manière dont les échelles d’équivalence quantifient ces unités de consommation peut faire varier de manière importante la distribution du niveau de vie, en particulier du fait que le nombre d’individus dans le ménage peut varier entre les ménages en fonction de leur revenu disponible.
III/ Quelles données utiliser ?

Une fois ces belles définitions posées, vient le problème des données. Les données sur les revenus sont nombreuses mais hétérogènes, et ne collent souvent pas aux cadres théoriques dans lesquels on voudrait bien les faire rentrer. Il y a d’abord les données d’enquête auprès des ménages dans lesquelles le revenu est déclaré directement par l’enquêté de manière souvent assez imprécise. Les données fiscales retracent avec beaucoup plus de précision les revenus des ménages qui sont soumis à l’impôt, mais excluent les revenus et transferts exonérés d’impôt sur le revenu et sont de plus collectées par foyer fiscal et non au niveau du ménage (un couple non marié compte pour 2 foyers fiscaux par exemple), ce qui rend difficile le calcul du niveau de vie réel des individus.

Les meilleures sources sont donc celles qui combinent données d’enquête sur les ménages et données fiscales : mais elles sont difficiles à construire et difficile d'accès. Ajoutons pour terminer qu’il n’est pas inutile de prêter une attention particulière aux données ad hoc, type classement des grandes fortunes, ou des 100 sportifs les mieux payés. En effet, les hauts revenus sont souvent difficilement appréhendables et ces sources hétéroclites sont des outils intéressants à combiner avec d’autres sources plus conventionnelles. C’est par exemple ce type de données qu’utilisent avec beaucoup d’intelligence Kaplan et Rauh pour essayer d’évaluer la part des différents secteurs dans l’explosion des inégalités de revenus aux Etats-Unis. Leur conclusion est que les salaires des secteurs bancaires et financiers (« Wall Street ») sont sans doute plus importants que ceux des grands patrons d’entreprises de « Main Street » (les secteurs traditionnels) dans l’envolée des hauts revenus aux Etats-Unis. Un constat que semblaient d’ailleurs partager Roine et Waldenström qui tentent de mettre en évidence une corrélation forte entre niveau de développement financier et part des hauts revenus dans le revenu total au cours du vingtième siècle. Nous reviendrons sur tout cela…
_Camille_

Lire la suite...

lundi 17 novembre 2008

Prêts pour un stimulus budgétaire ?


La crise bancaire étant derrière nous (cuff, cuff…) et une récession devant nous, il est temps pour les économistes de se prononcer sur un diagnostic. Le malade demande que l’on fasse quelque chose et n’est qu’à moitié rassuré par le silence des spécialistes. Un court billet pour se remémorer les options qui ont été (ou auraient pu être) discutées au sommet du G20: faut-il tenter un stimulus budgétaire ? et si oui comment ?

Ce post est un court billet pour avoir en tête la question des modalités des politiques macro qui peuvent répondre (à défaut de résoudre) la crise économique actuelle/à venir. Je ne parlerais ici ni de la régulation du marché financier, ni du marché immobilier, mais simplement des politiques macroéconomiques à disposition. Je renvoie aux deux excellents billets (1 et 2) de Jean-Edouard de Ma femme est une économiste pour un débat sur les causes de la crise financière. Si on se concentre sur la bonne façon de répondre à la récession qui approche à grand pas, de nombreuses options sont en ce moment en discussion.

La première approche est d’utiliser la politique monétaire : les banques centrales peuvent baisser les taux d’intérêt et ainsi réduire considérablement l’effet d’une récession. La Fed américaine, dirigée par Ben Bernanke, a réduit ses taux directeurs sans le moindre état d’âme. Le taux officiel est aujourd’hui à 1% et va probablement encore baisser. La BOE (Bank of England), dirigée par Mervyn King, s’est départie de sa crainte habituelle des tensions inflationnistes au Royaume-Uni (taux généralement plus élevés que dans la zone Euro) a réduit son taux de base de 150 points de base (1,5%) pour passer à 3% en dessous du taux de la BCE (à 3,25%). D’autres baisses de taux sont à prévoir. L’inflation, forte ces dernières années avec la hausse des prix du pétrole et des produits alimentaires, est en chute libre partout. Le sceptre de la déflation (baisse des prix) est réel et avec elle la perspective d’une longue récession à la Japonaise : si les prix baissent, le taux d’intérêt réel augmente, et la banque centrale, ne pouvant baisser ses taux en dessous de zéro perd son instrument principal. L’autre problème actuel est que la politique monétaire est moins efficace actuellement du fait que les banques se prêtent entre elles à un taux bien supérieur au taux de la banque centrale (voir ici les explications d’Alexandre Delaigue sur les écarts entre le LIBOR et le taux directeur et ici pour une démonstration graphique par John Authers du Financial Times).


La seconde approche est donc d’utiliser le deuxième instrument classique en macroéconomie : la politique fiscale. C’est là qu’on voit renaître les politiques dites keynésiennes. Paul Krugman disait il y a quelques jours à la BBC : « dans le long terme, Keynes n’est pas mort… » et le prix Nobel de rajouter que ses calculs lui suggéraient un stimulus de l’ordre de 3% du PIB (600 milliards $)… Martin Feldstein, Larry Summers ou Mervyn King ont tous indiqué qu’un stimulus fiscal devait être sérieusement envisagé en plus des « stabilisateurs automatiques » (le fait que dans une récession les impôts reçus baissent avec l’activité, alors que les dépenses augmentent). De nombreux commentateurs voient dans ces prises de position un aveux d’échec du monétarisme ou du non interventionnisme néolibéral : Keynes n’était-il pas définitivement enterré ? Les économistes sont beaucoup moins surpris. Les enseignements de Keynes ont été complètement intégrés par la macroéconomie moderne : quand Keynes pestait dans les années 1930 contre la politique économique de l’époque (refus des banques centrales de baisser les taux d’intérêt, politiques de réduction du déficit, baisse des salaires et licenciement des fonctionnaires etc.), il pourrait voir avec une certaine satisfaction que les leçons de la crise de 29 ont été tirés. Ce que les économistes ont appris depuis, en particulier pendant les années 1960 et 1970, c’est que les politique de relance budgétaires ne peuvent pas avoir d’effet sur la croissance de long terme. Pour avoir un effet, un stimulus fiscal requière un certain nombre de conditions. Un article récent de deux économistes de la Brookings Institution, Douglas Elmendorf et Jason Furman, rappelle les trois recettes pour un stimulus bien réussi : « Timeley, targeted and temporary ».

Principe 1 : un stimulus doit être mis en place au bon moment. L’ambulance, pour être utile, doit arriver avant que le patient n’ait perdu trop de sang. C’est souvent le problème avec la politique budgétaire au sens où elle met du temps à se mettre en place et risque ainsi d’arriver après la bataille. Rien de pire par exemple de voter aujourd’hui des mesures fiscales pour le prochain budget qui va prendre effet avec une année de retard. En même temps, un des avantages de la politiques budgétaire sur la politique monétaire est d’avoir des effets plus immédiats. Ainsi, un stimulus budgétaire peut avoir un effet dès le premier trimestre de son introduction ce qui est rarement le cas d’une baisse des taux directeurs. Les économistes débattent alors de la bonne façon de décider quand déclencher une action budgétaire (si l’emploi baisse deux mois consécutifs par exemple) et quand l’arrêter.

Principe 2 : un stimulus budgétaire doit être ciblé sur ceux qui sont le plus touchés par la crise et les plus susceptibles de dépenser ce supplément de revenu. Faire des baisses d'impôts pour des individus qui vont épargner le supplément de revenu n’aura aucun effet. A ce titre cibler le stimulus sur les ménages les plus pauvres ou les plus touchés par la crise fait sens pour des raisons d’efficacité. Viser aussi les petites entreprises qui sont les plus susceptibles de faire face à des contraintes de crédit est aussi plus efficace. Engager des grands projets d’infrastructure par contre est beaucoup moins efficace : il faut du temps pour préparer des projets d’envergure, et le souhait de vouloir dépenser vite risque de conduire à des gaspillages et à l’inefficacité de la politique budgétaire. Si il est possible d’avancer dans le temps des dépenses ou repousser des prélèvements, ce sont des options à considérer.

Principe 3 : un stimulus doit être temporaire sinon il risque d’être complètement inefficace. En effet, si le stimulus est permanent, la position financière de l’Etat se détériore, conduisant à une action inverse de la banque centrale (forcée d’augmenter les taux d’intérêt). Toute baisse d’impôt (ou hausse des dépenses) permanente est donc à proscrire dans cet exercice. Dans le long terme (ce que reconnaissait Keynes), augmenter le déficit structurel ne permet d’augmenter la croissance, mais va au contraire conduire à des taux d’intérêt supérieurs (et réduire celle-ci). Les baisses d’impôts ou augmentation des dépenses doivent donc non seulement être temporaires mais il est préférable d’annoncer tout de suite qu’une fois la crise passée, il faudra augmenter les impôts plus fortement.

A ces trois conditions valables pour une grande économie comme les Etats-Unis, il faut en rajouter une quatrième pour les petites économies ouvertes comme le Royaume-Uni ou la France: un stimulus doit être réalisé en concertation avec ses partenaires commerciaux sinon il risque d’être complètement dilué par les importations. Pire il risque de conduire à une détérioration plus forte de la position relative de la monnaie du pays en question et ainsi conduire la banque centrale à ne pas baisser ses taux autant que nécessaire. Willem Buiter ajoute enfin sur son blog que la capacité à de faire une relance budgétaire dépend aussi de la position de départ des équilibres budgétaires, la France et la Grande-Bretagne sont plutôt mal placés pour le faire, l’Allemagne, ou la Chine beaucoup mieux. On comprend ainsi mieux les enjeux du G20, où Gordon Brown voulait convaincre ses collègues chinois de célébrer le prestigieux économiste de Cambridge.

Dans le long terme, Keynes n’est pas mort, mais il n’est vraiment vivant que dans le court terme…
_Antoine_

Lire la suite...

lundi 3 novembre 2008

Identité et élections: Obama au bas mot ou les appâts de la pale Palin ?


De la primaire Démocrate, au choix de vice Présidence Républicain, la campagne électorale Américaine a mis en avant l’importance de l’identité de groupe du candidat. Le soutien des femmes à Hillary Clinton lors de la primaire, celui des Noirs à Barack Obama contre Mac Cain (ainsi que la méfiance des Blancs), ou encore le choix de Sarah Palin pour séduire les femmes, soulignent le rôle que joue l’appartenance à un groupe, à une minorité, dans la décision de vote : les électeurs ont tendance à voter pour le candidat appartenant à leur propre groupe (ethnique ou de genre, en l’occurrence). Un tel comportement, s’il peut comporter une part d’irrationalité (je vote pour le candidat qui me ressemble sans pour autant être proche de lui d’un point de vue politique), semble surtout mettre en évidence le fait que l’on vote pour le candidat appartenant à un groupe, parce que l’on suppose qu’il a des préférences proches de celles de ce groupe, et qu’il les mettra donc en œuvre une fois élu. En d’autres termes, je vote pour le candidat de mon groupe, parce que j’ai plus confiance dans le fait qu’il mette en œuvre la politique que je désire qu’un autre. J’accorde donc une importance centrale à l’identité du candidat dans ma décision de vote. Aussi évident qu’il semble être, ce comportement a longtemps posé problème aux économistes qui ne pouvaient en rendre compte dans leurs modèles. Nous allons donc passer en revue les différents modèles d’économie politique, avant de nous poser la question de savoir si véritablement, l’identité des élus à un impact sur la politique qu’ils conduisent une fois élus, afin de savoir, si oui ou non, il est rationnel de défendre un candidat appartenant à un groupe plutôt qu’à un autre.

I/ Electeur médian ou citoyen candidat ?

Les modèles d’économie politique fondateurs d’Hotelling (1929) et de Downs (1957) (présenté plus en détail par Emmanuel dans un post précédent) posent que les candidats à une élection vont adapter leurs propositions de manières à capter la majorité des votes. Les préférences des électeurs sont supposées uniformément réparties sur l’échiquier politique, de l’extrême droite à l’extrême gauche. Pour être élu, le candidat a besoin d’obtenir 50% +1 voix. Il doit donc proposer un programme qui ne soit ni trop à gauche, ni trop à droite : pour être élu, il doit proposer le programme qui satisfait l’électeur positionné exactement au centre de l’échiquier politique, et qui fera basculer la majorité en sa faveur. Ce sont donc les préférences de l’électeur médian qui déterminent les programmes des électeurs, puisque seule son opinion est en fait décisive, ce ne sont pas les convictions politiques du candidat qui déterminent le vote des électeurs, ce sont les préférences politiques de l’électeur médian qui déterminent la politique des candidats. Ainsi, si ce modèle permet une mise en perspective de bien des comportements électoraux, comme l’illustre l’analyse d’Olivier Bouba Olga de l’élection présidentielle Française de 2007, il ne permet pas de rendre compte de cette tendance des électeurs à voter pour le candidat appartenant à leur groupe : si le candidat s’adapte aux préférences de l’électorat, son identité propre n’a aucun rôle à jouer, qu’il soit Noir ou Blanc, homme ou femme, il proposera nécessairement le programme ayant la préférence de l’électeur médian. Il n’y a donc aucune raison rationnelle de voter pour un candidat d’un groupe plutôt qu’un autre.

Cependant, l’une des hypothèses principales de ce type de modèle est que les promesses électorales des candidats sont crédibles : pour être élu, il ne suffit pas d’affirmer que l’on va mettre en œuvre la politique préférée par l’électeur médian, il faut aussi que les électeurs pensent qu’une fois élu, le candidat la mettra effectivement en œuvre. Mais, comme « les promesses n’engagent que ceux qui les écoutent », l’électeur prendra bien soin de n’écouter que les promesses qu’il pense que le candidat tiendra une fois élu. En d’autres termes, il y a des limites à l’adaptation de promesses de campagne du candidat aux préférences de l’électeur médian : passé un certain point, ses promesses sont tout simplement trop loin des préférences connues du candidat, et ne sont plus crédibles.

Les modèles dits du « citoyen candidat » (Osborne et Slivinski, 1996 ; Besley et Coates, 1997) tiennent compte des préférences personnelles des candidats, et donc de la crédibilité de leurs promesses respectives. Dans ce type de modèle, un candidat a une préférence pour un type de politique, et ne peut s’engager qu’à mettre en œuvre celle-ci, toute autre promesse n’étant pas crédible (puisque n’ayant pas sa préférence). Contrairement aux modèles d’électeur médian, le candidat est ici un citoyen, et en ce sens, il accorde de l’importance à la politique qui sera menée. Son but n’est alors plus seulement d’être élu quelles que soit les compromissions qu’il doive consentir afin de parvenir à rassembler une majorité, mais d’être élu afin de mettre en œuvre la politique qui a sa préférence. L’identité du candidat prend alors toute son importance, puisque les électeurs voteront alors pour le candidat ayant les préférences politiques les plus proches des leurs, quelles que soit les promesses de campagnes non crédibles des autres candidats. Les électeurs ayant conscience d’être engagés par les promesses faites par les candidats, ils n’écoutent que celles qui sont crédibles.

Nous avons donc deux types de théories, qui, comme le dit Emmanuel, "prédisent que les électeurs influencent les politiques mises en place" pour les premières, et "que les électeurs ne font que choisir des politiques prédéterminées" pour les secondes. Je vous renvoie à son post pour le test empirique de chacun de ces modèles.

Cependant, seuls les modèles de "citoyen candidat" permettent d’expliquer le comportement de vote identitaire : si l’on assiste à un soutien des Noirs pour un candidat Noir ou des femmes pour un candidat femme, c’est peut être qu’en moyenne, les préférences des Noirs ou les préférences des femmes sont différentes de celles de l’ensemble de la population, et ces groupes auront donc une tendance à voter pour le candidat dont ils savent que les préférences se rapprochent le plus des leurs.

II/ Identité du candidat et politique mise en oeuvre

En pratique cependant, constate t’on réellement un infléchissement des politiques mises en œuvre en fonction de l’identité de l’élu ? Cette question empirique fait l’objet de nombreuses études, en Inde en particulier, où le système de discrimination positive en faveur des femmes et des « scheduled castes » (castes intouchables) offre de nombreuses possibilité de tester l’impact causal de l’identité du dirigeant élu sur les politiques implémentées dans sa juridiction durant son mandat.

Chattopadhyay et Duflo, vont ainsi étudier les Panchayat, système de conseils d’élus dont le rôle est d’administrer les biens publics au niveau du village (Gram Panchayat), du bloc ( Panchayat Samiti) et du district (Zilla Parishad). A la tête des ses conseils sont élus des Pradhan. Depuis 1992, une politique de discrimination positive réserve un tiers des sièges et un tiers des positions de Pradhan aux femmes, tandis qu’une part est aussi réservées aux «scheduled castes» en fonction de leur part dans la population.

La particularité de ce système est que les sièges alloués aux femmes ou aux «scheduled castes» le sont de manière aléatoire, permettant d’attribuer les différences de choix d'investissement entre Panchayat à la politique menée, et non à des différences intrinsèques entre ceux-ci (en particulier, si l’implémentation de la politique de discrimination positive n’était pas aléatoire, on pourrait s’attendre à ce que les Panchayat élisant une femme à leur tête aient des caractéristiques systématiquement différentes de ceux élisant un homme).
C’est cette configuration particulière qui permet de tester l’impact sur la politique de l’identité du dirigeant : est ce qu’avoir une femme ou un membre des «scheduled castes» Pradhan implique une politique différente pour le Panchayat ?
Mettant à profit cette spécificité, Chattopadhyay et Duflo identifient d’abord les préférences des hommes et celles de femmes, en recensant les requêtes adressées par les uns et les autres à l’occasion des réunions des Panchayat, et mettent en évidence que les femmes ont des préoccupations différentes de celles des hommes, proches de leurs occupations traditionnelles (par exemple, les femmes sont plus préoccupées par les questions d’eau potable, dont elles ont la charge, que les hommes, qui eux s’intéresseront plus à la qualité des routes, dont ils ont besoin pour aller travailler hors du village).
Ils montrent alors que dans les Panchayats soumis à la politique de discrimination positive, les politiques menées par les Panchayat dirigés par une femme vont avoir plus tendance à mettre en œuvre une politique répondant aux préoccupations des femmes que les Panchayat dirigés par un homme. Irma Clots Figueras montre elle aussi (avec une méthodologie moins convaincante néanmoins) l’impact de l’élection d’une femme comme député sur la politique mise en œuvre dans sa juridiction.


Rohini Pande utilise une autre spécificité, plus complexe, du système de discrimination positive Indien pour tester l’impact de l’identité des élus sur la politique mise en œuvre. Elle s’intéresse aux « scheduled castes », pour lesquels des sièges sont réservés au Parlement de chaque Etat Indien depuis 1950. Le nombre de sièges réservés à ces castes est fonction de leur part dans la population de l’Etat. Ce nombre varie donc en fonction de l’estimation de cette part, qui est réalisée tous les 10 ans, à l’occasion du recensement. Chaque recensement entraîne donc une modification du nombre de sièges soumis à discrimination positive. Mais si cette variation est discrète (on change une fois tous les 10 ans, du jour au lendemain), la variation de la population des «scheduled castes» est par contre continue sur ces 10 ans. Le poids des «scheduled castes» en tant qu’électeurs va donc varier de manière continue au cours de ces 10 ans, tandis que leurs sièges réservés par la politique de discrimination positive ne varie elle que tous les 10 ans. Cette spécificité va lui permettre de distinguer l’effet sur la politique de l’Etat d’un poids électoral plus important du groupe des « scheduled castes » de l’effet propre de la discrimination positive. Elle montre alors qu’en effet, avec l’augmentation des sièges réservés aux «scheduled castes», les politiques de redistribution en leur faveur tendent à augmenter.

III/ Conclusion

L’identité du candidat apparaît donc comme déterminant fortement le type de politique choisi par le candidat une fois élu : les candidats mettent en œuvre les politiques pour lesquelles ils ont une préférence, et ne se lancent à la chasse à l’électeur médian que dans la mesure où ils restent crédibles.
Que faut il en conclure ? Qu’il est parfaitement rationnel de voter pour le candidat de ma couleur de peau ou de mon sexe, parce que lui seul saura défendre mes idées ? Certainement pas. Ce que l’on constate, c’est que les candidats s’occupent des questions qui les préoccupent. Dès lors, si, en moyenne, une femme a tendance à se préoccuper plus des questions d’accès à l’eau potable qu’un homme, il est probable qu’en moyenne, le candidat femme ait aussi tendance à s’intéresser plus à cette question, auquel cas, j’aurais intérêt, si je suis une femme, à voter pour elle. Mais ce n’est pas le fait d’être une femme en soi qui est important, c’est le fait d’avoir une préférence pour l’accès à l’eau potable qui compte.
Si des minorités ont en moyenne des préférences systématiquement différentes de celles de la population, il est donc logique de les voir en moyenne apporter leur soutien à un individu dont elles pensent qu’il partage ces préférences. Ces résultats semblent aussi montrer l’importance de la discrimination positive, dans les situations où les minorités n’ont pas voix au chapitre, puisque leur représentant sera à même d’implémenter des politiques allant dans leur sens, comme l’illustre le cas Indien.



(1) Hotelling, “Stability in Competition,” Economic Journal, vol.39, pp. 41–57, 1929.
(2) Osborne and Slivinski, “A Model of Political Competition with Citizen-Candidates”, Quaterly Journal of Economics, vol. 111, No.1, pp.65-96, 1996.
(3) Besley and Coate, “An Economic Model of Representative Democracy”, Quaterly Journal of Economics, vol. 112, No.1, pp. 85-114, 1997.
(4) La partie en italique de la phrase a été rajoutée suite au commentaire de Jean Philippe.
_Guilhem_

Lire la suite...