stats count

vendredi 29 février 2008

La peur de la vente à perte : des mugs à la crise immobilière


Un vaste champ de l’économie a émergé durant les vingt dernières années, inspiré par la psychologie et motivé par des expériences remettant en cause certains fondements de la théorie économique. L’économie comportementale traque les anomalies, observations difficiles à rationaliser dans le cadre de l’économie traditionnelle et tente d’y apporter des réponses dans un cadre rénové.

I/ Une anomalie célèbre: l’effet dotation

Comme l’expliquent dans un article de 1991 le psychologue Kahneman et les économistes Ketsch et Thaler, trois acteurs majeurs de l’économie comportementale, l’économie fait l’hypothèse que les individus sont caractérisés par des préférences stables, bien définies et des comportements rationnels. Ces auteurs ont multiplié les expériences qui mettent à mal cette hypothèse et ont proposé une nouvelle théorie permettant de pallier ces déficiences. Une des plus célèbres expériences met à jour l’effet dotation (endowment effect), difficilement compréhensible avec les outils de l’économie classique.

L’expérience est simple. Les auteurs donnent de manière aléatoire des tasses (mugs) à des étudiants choisis au hasard. Chaque tasse a une valeur de cinq dollars et ce prix est connu de tous. Ils demandent ensuite à ces étudiants dotés d’une tasse le prix minimal auquel ils seraient prêts à vendre leur tasse. Ils posent une question similaire à un autre groupe d’étudiants qui lui n’a pas reçu de tasse : ils doivent indiquer la somme minimale d’argent qu’ils préféreraient accepter plutôt que la tasse. Les deux groupes font face au même choix entre une somme d’argent et la tasse. Chaque individu, ayant ses préférences propres, évalue de manière différente la tasse mais comme les tasses ont été distribuées au hasard, le groupe « avec tasse » ne diffère pas de celui « sans tasse ». Par conséquent les moyennes des évaluations dans chaque groupe ne devraient pas différer. Or un individu du premier groupe déclare être prêt à vendre sa tasse en moyenne pour 7 dollars, tandis qu’un individu du second groupe préfère toute somme d’argent supérieure à 3,50 dollars à la tasse. La seule différence entre les deux groupes est la possession de l’objet. Il y a donc un effet dotation : le simple fait de posséder la tasse modifie les préférences.

L’explication fait appel à deux notions. La première stipule que les individus évaluent leurs choix par rapport à un point de référence. Nous évaluons notre situation en termes relatifs plutôt qu’absolus. La perspective d’un revenu annuel de 20 000 euros est réjouissante pour quelqu’un avec un revenu de 10 000 euros, mais terrible pour celui avec un revenu de 100 000 euros. La deuxième notion est l’aversion aux pertes : la perte que nous ressentons face à une perte d’argent est beaucoup plus grande que le plaisir que nous avons face à un gain de même taille. Reprenons l’exemple de nos étudiants propriétaires de tasse. La situation « propriétaire de tasse » constitue le point de référence d’un individu du groupe « avec tasse ». Il doit évaluer la perte de cette tasse en termes monétaires. Dans l’autre groupe le point de référence est simplement l’état « sans tasse ». Il doit évaluer le gain de la tasse. L’aversion aux pertes implique que le propriétaire ressent plus durement la perte que l’autre ne ressent le gain. Il va donc réclamer un prix supérieur pour s’en séparer qu’un non-propriétaire n’est prêt à payer pour l’acquérir.

Ce genre d’expérience a été répliqué dans de nombreux environnements, avec des modalités variées et l’effet dotation a toujours été observé. Pour être complet et honnête il faut aussi mentionner ce récent article qui a semé le doute. Un résumé complet peut en être lu sur le blog du journal The Economist, mais en gros les auteurs montrent que les résultats tiennent à la manière dont les expériences sont menées et donc que leur lien avec la théorie n'est pas si évident.
Notons cependant que la théorie du point de référence et de l’aversion aux pertes repose sur bien plus que les expériences mesurant l’effet dotation. L’émergence de l’économie comportementale a engendré des discussions passionnées, avec des défenseurs zélés, un prix Nobel, et des adversaires acharnés. Nous n’entrerons pas ici dans ce débat pour mieux expliquer un champ d’application de la théorie.

II/Application au marché du logement

Le lecteur peu soucieux des discussions sur les fondements de la théorie économique trouvera en effet peut-être qu’une expérience avec des tasses à 5 dollars a une portée plutôt limitée. Cependant remplaçons la tasse par une maison et essayons de comprendre les conséquences du point de référence et de l’aversion aux pertes sur le marché du logement. Tout d’abord on se convaincra aisément que le point de référence pour un vendeur est fortement influencé par le prix auquel il a acheté son bien. L’aversion aux pertes nous apprend que le vendeur sera fortement réticent à vendre sa maison en dessous de son prix d’achat. En période de prix immobiliers faibles, on observera donc moins de ventes, alors que « rationnellement » il n’y a pas de raisons à cela. Si les prix étaient déterminés uniquement par les caractéristiques du bien et l’état du marché alors un individu devrait accepter de vendre sa maison à un prix plus bas que le prix d’achat puisqu’il pourra racheter une maison de même qualité à ce prix de vente. L’aversion aux pertes introduit une dimension supplémentaire qui pousse les propriétaires à ne pas vendre leur bien à perte. David Genesove et Christopher Mayer ont confirmé cet effet dans un article. Ils observent que les vendeurs qui ont acheté au-dessus du prix de marché actuel demandent des prix de vente plus élevés, vendent en effet à des prix plus élevés mais au prix d’une attente plus longue. Ceci explique la forte corrélation entre volume de ventes et prix du marché immobilier. L’aversion aux pertes influence donc considérablement le marché et réduit la mobilité des personnes. Elle implique qu’en période de crise immobilière le marché du logement ne fonctionne pas très bien et que les acheteurs auront sûrement du mal à trouver des propriétaires prêts à vendre à perte, quand bien même ils pourraient racheter un bien similaire. De quoi limiter l’enthousiasme de ceux qui parient sur une crise immobilière pour acheter.
_Emmanuel_

Lire la suite...

mardi 26 février 2008

Qui paie la TVA ?


Même si la question de la TVA sociale n'occupe plus le devant de l'actualité, les variations des taux de TVA sont encore à l'ordre du jour. Qu'il s'agisse d'en augmenter le taux normal (TVA sociale) ou d'en diminuer le taux réduit (sur les biens de première nécessité), les commentateurs partent généralement du principe que ce sont les consommateurs qui paient l'intégralité de la taxe. Les posts qu'Ecopublix a consacré à l'incidence fiscale ont dû leur échapper... sinon, ils sauraient que la TVA est aussi payée par les entreprises. Au sujet de la TVA, deux idées fausses s'affrontent selon le côté du marché où l'on se situe : du côté de la demande, les consommateurs pensent qu'ils paient l'intégralité des taxes sur la consommation, l'expression "taxe indirecte" étant à cet égard trompeuse ; à l'opposé, si vous demandez à un patron de PME qui paie la TVA, il vous répondra invariablement que c'est lui, parce qu'il envoie un chèque au fisc le 15 de chaque mois. Or le plus souvent, la charge de la TVA est partagée entre les consommateurs et les producteurs.

I/ Quelques rappels sur la TVA

La Taxe sur la valeur ajoutée est un impôt qui pèse sur la quasi totalité des biens et services consommés ou utilisés en France. Avec près de 179 milliards d'euros prévus en 2008, c'est la première recette budgétaire de l'Etat (environ 50% des recettes fiscales), loin devant l'impôt sur le revenu (60 milliards, soit 17% des recettes fiscales).

D'après l'article 266 du Code général des impôts, l'assiette de la TVA est est composée de « toutes les sommes, valeurs, reçues ou à recevoir par le fournisseur ou le prestataire de services en contrepartie de la livraison ou de la prestation ». Pour dire les choses simplement, la TVA est calculée sur l'ensemble du prix de vente des biens et services. Formellement, elle est acquitée par les organismes «assujettis » à la TVA, c'est-à-dire essentiellement les entreprises. Chaque entreprise paie la TVA sur ses produits ou services, en déduisant le montant de la TVA qu'elle a elle-même supporté sur les acquisitions de biens et services utilisés dans le cadre de son activité : c'est le mécanisme dit de «récupération de la TVA sur les achats ». Les agents « non assujettis » (les administrations et les ménages) ne peuvent quant à eux déduire la TVA sur leurs achats.

Le montant de la taxe est proportionnel au prix de vente hors taxe et les taux de TVA sont fixés par l'Etat. A l'heure actuelle, il existe en France trois taux de TVA :
1/ Le taux normal, fixé à19,6% ;
2/Le taux réduit, fixé à 5,5%, pour les produits de première nécessité et de consommation courante ;
3/ Le taux «super-réduit», fixé à 2,1%, qui ne concerne qu'un très petit nombre de biens (les publications de presse, par exemple).

II/ Comment définir la part de TVA qui est payée par le consommateur ?

Pour savoir qui paie la TVA, il faudrait pouvoir comparer le prix que l'on observerait en l'absence de TVA au prix en présence de TVA. Si les deux prix sont égaux, cela signifie que le consommateur paie l'intégralité de la taxe. En général cependant, le prix sans TVA sera plus élevé que le prix hors taxes avec TVA car lors de la mise en place de la taxe, la hausse des prix fait baisser la demande, ce qui fait à son tour pression sur l'offre et conduit à une diminution des prix. Ainsi, la TVA est partagée entre les consommateurs, qui paient comptablement la taxe, et les producteurs qui doivent baisser leurs prix pour limiter la baisse de la demande.

Le meilleur moyen de comprendre l’ajustement des prix aux variations de la TVA est de regarder se qui se passe sur l'un des graphiques les plus élémentaires de la microéconomie : le graphique d'offre et de demande.


Sur ce graphique, la courbe de demande est beaucoup plus pentue que la courbe d'offre, ce qui signifie que les quantités demandées varient peu lors de grandes variations de prix. Dans cette configuration, on voit que la variation de prix est très proche de la variation de TVA. Le consommateur étant moins élastique (sa consommation change peu après des variations de prix) que le producteur, il paie la plus grande partie de la taxe.

Dans le second graphique ci-dessous, c'est l'inverse qui se produit : la demande varie fortement avec le niveau des prix et la hausse des prix est faible par rapport à la variation de TVA. Le producteur étant beaucoup moins élastique que le consommateur, c'est lui qui paie la plus grande partie de la taxe.


Il existe pourtant un problème : on ne peut pas observer en même temps les prix en vigueur avec la TVA et ceux qui qui prévaudraient s'il n'y avait pas de TVA. De ce fait, il peut paraître difficile de mesurer précisément la part de la TVA payée qui est payée par les consommateurs. Toutefois, il est possible de l'estimer en utilisant les réformes qui ont modifié les taux de TVA au cours du temps. Supposons que le taux de TVA soit passé dans un pays donné de 10 à 20% : si à la suite de cette réforme, le prix TTC des biens a augmenté de moins de (0,2-0,1)/1,1 = 9%, alors cela signifie que l'augmentation de la taxe n'a pas été payée intégralement par les consommateurs.

De multiples petites variations des taux locaux peuvent être exploitées aux Etats-Unis mais les réformes sont plus rares en Europe. Cependant, la réforme de 1999 sur les services de réparations courantes dans les logements, ainsi que les faibles variations de taux plein de 1995 et 2000 ont été étudiées, et la réforme allemande de l'année dernière devrait l'être prochainement.

III/ Alors, qui paie quoi ?

Que nous apprennent ces études ? Eh bien, que les variations de prix sont très variables suivant les marchés.

Globalement, ce sont les consommateurs qui paient la plus grosse part de la TVA, mais leur participation peut varier de la moitié jusqu'à la quasi totalité de la taxe. Dans le détail, on observe que la TVA sur les biens qui nécessitent une quantité importante d'investissement en capital fixe (la production de voitures, par exemple) est payée en plus faible proportion par les consommateurs que la TVA sur les services. Une des interprétations de ce phénomène pourrait être que l'offre varie moins facilement quand il y a beaucoup de capital fixe, et donc que l'offre des industries intensives en capital ressemble à celle du second graphique, alors que l'offre de services ressemble davantage à celle du premier graphique.

Pour ce qui est de savoir ce qui se passerait si on baissait la TVA sur les biens de première nécessité (le pain, par exemple), aucune étude empirique n'est disponible. On en est donc réduit à des conjectures sur la forme des courbe d'offre et de demande pour ce type de biens. Si peu d'informations existent sur l'élasticité de l'offre des biens de première nécessité (qui doit beaucoup varier d'un bien à l'autre) on peut raisonnablement supposer que l'élasticité de la demande de biens de première nécessité est particulièrement faible. En effet, dans la mesure où ces biens sont de première nécessité, leur consommation ne peut pas baisser fortement lorsque leur prix augmente et n'a pas de raison de s'envoler quand leur prix baisse. Au contraire, une baisse du prix des biens de première nécessité permet d'augmenter la consommation des autres biens alors qu'une augmentation de leur prix oblige les consommateurs à se priver de ces autres biens. Ainsi, il est probable qu'une baisse de la TVA sur les biens de première nécessité se traduirait par une baisse sensible du prix de ces biens. Il faut cependant noter que le taux de taxe applicable aux biens de première nécessité est déjà faible en France, si bien qu'une annulation complète de ce taux ne pourrait engendrer qu'une baisse maximale de 5,5%.

IV/ Des cas particuliers

Il existe des exceptions aux règles décrites plus haut, en particulier pour les biens importés et pour les biens issus de marchés particulièrement peu concurrentiels.

Pour les biens importés, la variation de la demande sur le territoire national n'a que peu d'influence sur la production mondiale du produit, et donc sur l'offre. Par conséquent, l'offre de biens importés se comporte comme si elle était totalement élastique et la TVA est intégralement payée par les consommateurs nationaux.

La concurrence imparfaite a quant à elle des effets ambigus sur l'incidence fiscale. Pour certains biens, il est possible que l'ajustement des prix soit particulièrement faible : ce sera notamment le cas lorsque la marge des producteurs et déjà très forte en situtation de concurrence imparfaite, si bien qu'un surplus de taxe ne pourra pas être payé par le consommateur mais sera en partie financé par le producteur. A l'inverse, sur des marchés comportant peu d'entreprises, une hausse de la taxe peut, en réduisant la taille totale du marché, faire diminuer le nombre de concurrents, donc accroître le pouvoir de marchés des entreprises et ainsi engendrer ainsi une hausse encore plus importante des prix. Dans ce dernier cas, on peut même assister à des hausses (ou baisses) de prix supérieures aux hausses (ou baisses) de TVA.
_Clement_

Lire la suite...

mercredi 13 février 2008

Elections américaines : le rôle des économistes


La campagne de l’élection présidentielle américaine suscite un intérêt croissant, y compris de ce côté de l’Atlantique. Ceci est dû en grande partie à la qualité des candidats, au charisme d’un Barack Obama, à la détermination d’une Hillary Clinton et à l’aura de l’ancien prisonnier du Vietnam John McCain. Derrière la démocratie à grand spectacle et les questions de personnes se cache aussi un débat sur les politiques publiques que le/la futur(e) président(e) souhaitera mettre en place. Et c’est là que les économistes entrent en scène. Ecopublix avait exprimé en avril dernier sa déception en commentant le rôle partisan (et peu convaincant) que les économistes français avaient joué lors de la dernière campagne présidentielle. Est-ce que leurs confrères d’Outre-Atlantique font mieux ? Comment gèrent-ils les dilemmes du savant (l’expert) et du politique (le conseiller) ?

Le premier point à remarquer est le fait que les questions économiques prennent une part croissante dans le débat politique, aussi bien en France qu’aux Etats-Unis. Même si la presse française n’insiste pas fortement sur le débat de fond qui anime la campagne des primaires, les enjeux sont considérables. L’opposition Obama/Clinton est tout en autant marquée sur la question de l’assurance maladie que sur la question irakienne. Des enjeux aussi divers que la l’opportunité d’un « stimulus fiscal », le relèvement barrières commerciales, la réévaluation du Yuan, la mondialisation et les jobs Américains divisent démocrates et républicains. L’importance des questions économiques dans le débat politique ne date pas d’aujourd’hui aux Etats-Unis. Le fameux « it’s the economy stupid ! » de Bill Clinton s’est rarement démenti. La blogosphère économique américaine avait pris une longueur d’avance dans son développement sur son homologue gauloise (avant le rôle pionnier des Econoclastes). Les économistes sont sollicités pour donner leur avis, juger les programmes ou même les écrire.

D’une façon similaire, mais moins nouvelle, les économistes américains participent largement à la campagne électorale, soit en analysant les programmes, soit en affichant leur soutien partisan ou en apparaissant comme conseillers sur des propositions de réformes. On savait depuis longtemps Paul Krugman (Princeton) démocrate de longue date et pourfendeur de Bush. De façon moins attendue, il a émis un soutien très marqué à Hillary Clinton en critiquant nettement le plan d’Obama de réforme de l’assurance maladie. Il rejoint ainsi Jon Gruber (MIT), spécialiste des assurances sociales et de la fiscalité, qui est devenu le conseiller d’Hillary pour les questions d’assurance maladie. Toujours chez les démocrates, trois stars de l’économie publique ont rejoint Barack Obama : David Cutler (Harvard), spécialiste de l’économie de la santé qui a concocté le plan de réforme de l’assurance maladie du candidat, Jeffrey Liebmann (Harvard Kennedy School), spécialiste des questions de retraite et Austan Goolsbee (Chicago), spécialiste de la fiscalité et de la nouvelle économie. Brad DeLong a exprimé son soutien à Obama dans son blog sans déjuger la candidature d’Hillary, suivant ainsi Paul Volcker, l’ancien directeur de la Banque fédérale américaine et célèbre pour avoir impulsé le tournant monétariste de 1980. Du côté républicain, la liste n’est pas moins impressionnante : Kenneth Rogoff (Harvard), star de la Finance internationale, ancien chef économiste du FMI, Harvey Rosen (Princeton), spécialiste d’économie publique, auteur d’un manuel prisé par les jeunes étudiants ou Douglas Holtz-Eakin, ancien directeur du Congressional Budget Office (le centre d’expertise économique du Congrès américain qui donne aux Parlementaires américains l’expertise nécessaire pour contrôler efficacement l’action de l’exécutif), ont rejoint la longue liste des conseillers économiques de John McCain. Greg Mankiw (Harvard), peut-être échaudé par sa (mauvaise) expérience de conseiller économique de George Bush, soutient modérément John McCain (on remarquera au passage qu’économiste keynésien ne rime pas nécessairement avec économiste de gauche ni économiste néoclassique avec économiste de droite…). Son collègue Ed Glaeser, de l'université de Harvard, le fait plus directement.

La participation active des universitaires américains à la campagne présidentielle comme conseillers ou soutiens des candidats n’est donc pas sans faire penser au rôle qu’ont joué les économistes français en avril dernier. Une des grandes différences vient du fait que leur rôle militant est de fait limité par l’auto-contrôle que s’impose la profession : la crédibilité des économistes vient de leur travaux, publiés dans des revues scientifiques à comité de lecture où une grande attention est mise à séparer l’analyse qui fait consensus des points qui relèvent des choix politiques et donc des préférences personnelles. Un universitaire qui viendrait proclamer sur les plateaux que « la science économique » prouve que telle politique est supérieure ou qu’elle invite à préférer un candidat à un autre se verrait immédiatement remis en place par ses confrères et perdrait une certaine crédibilité. On peut d'ailleurs constater que les prises de position très partisanes d’un Stiglitz ou d’un Krugman leur ont fait perdre, en partie, la crédibilité qu’ils avaient accumulée au sein du milieu académique. C’est peut-être pour cette raison que les engagements partisans des économistes américains se traduisent rarement par des prises de positions militantes et encore moins par une différence dans l’approche ou l’analyse économique elle-même. Jeffrey Liebmann coécrit avec Martin Feldstein le chapitre du Handbook sur les retraites. Feldstein et Cutler partagent le cours d’économie publique à Harvard sans qu’il n’y ait rien à redire. Cela ne les empêche pas d’en tirer des conclusions politiques très différentes, mais la démarche scientifique consistant à établir des faits, à établir des causalités et à réfléchir au fonctionnement sous-jacent n’est pas de l’ordre politique et n’est remise en question par personne. Les universités américaines abritent des économistes qui sont sélectionnés sur leurs travaux de recherche et se trouvent souvent avoir des avis politique assez divergents. Certes, ils sont en moyenne plus démocrates que républicains (mais moins que les autres universitaires), certes le MIT est un peu plus à gauche que Chicago, mais grosso modo, les différences politiques ne créent pas de chapelles scientifiques. La conséquence est que personne ne confond son rôle d’expert (de conseiller) avec son rôle académique.

L’exemple du Royaume-Uni offre peut-être un troisième modèle. Les économistes britanniques, s’ils participent activement au débat public, le font de façon plus collective, par le biais de think-tanks ou de centres de recherche où doit dominer un consensus académique. Le soutien partisan est rare et, s’il existe, de nombreuses précautions sont prises pour éviter de confondre le rôle d’expert (qui doit souligner les zones d’ombre, les incertitudes et les résultats parfois contradictoires) du rôle de conseiller ou de partisan qui fait des choix politiques (et exprime ainsi des préférences personnelles) qui ne sont pas le produit de son expertise. Pour donner un exemple (pas forcément représentatif de tous les économistes britanniques), l’institut où je travaille (Institute for Fiscal Studies) avait organisé une réunion des chercheurs en novembre dernier au moment où les bruits courraient d’une élection anticipée au Royaume-Uni. La première règle à respecter pendant cette période de campagne était de bien dissocier le rôle de chacun au sein de l’institution (rôle d’expertise, non partisan) de ses préférences personnelles (soutien partisan). Les chercheurs de l’institut se sont donc mis d’accord sur un code de conduite pour protéger la crédibilité de l’institution tout en laissant la liberté à chacun de jouer son rôle de citoyen (sans donc citer son titre d’expert ou faire référence à l’institut). Les recommandations portaient aussi bien sur la façon de répondre aux journalistes (ne parler que des faits, éviter de se faire piéger, de critiquer ou louer un parti/candidat, oser dire que l’on ne sait pas…) que sur les précautions à prendre pour éviter qu’un rôle partisan (tout à fait admis à titre personnel) puisse être perçu comme une expression de l’institut.

J’entends déjà ricaner ceux qui pensent qu’il ne peut exister d’analyse économique indépendante, non partisane, et qui pensent que celui qui a bien appris ses cours de sciences sociales sait que tout est politique. L’objet de ce post n’est pas de commencer une controverse sur la nature de la démarche scientifique ou sur le statut de la connaissance, mais simplement de souligner qu’il y a de la part des chercheurs, et en particulier des économistes, un choix à faire dans leur démarche vis-à-vis du public et de la politique. Faire de l’économie publique sans s’intéresser aux conséquences de ses recherches sur les choix des politiques publiques est totalement absurde : il y a donc un impératif très fort (scientifique tout autant que démocratique) à participer au débat public. La question reste néanmoins celle du comment. Est-ce que la distinction entre expertise et choix partisan est hypocrite ? Les économistes français ont-ils eu raison de passer sous silence les critiques qu’ils faisaient en privé au programme de leur candidat favori ? Que penser de l’exemple américain ? Et puis, finalement, n'est-ce pas la qualité du débat politique qui détermine en partie le mode d’intervention des économistes plutôt que l’inverse ? Corrélation n’est pas causalité…
_Antoine_

Lire la suite...

mercredi 6 février 2008

Elections municipales : les partis politiques comptent-ils ?


D’ici un mois, les 9 et 16 mars, les Français voteront pour élire leurs maires. Les grands partis hésitent à faire des élections municipales un « enjeu national ». Au-delà de la stratégie de parti, on peut en effet s’interroger sur la valeur de test d’une élection très locale pour une politique nationale. Il semble raisonnable de penser que les élus locaux choisissent des politiques peu partisanes, qui prennent en compte les préférences de leurs administrés. En conséquence le vote s’effectuerait moins selon ces lignes partisanes que lors d’une élection nationale ou régionale. On peut reformuler cette hypothèse en disant que les électeurs influencent fortement les politiques municipales, au point que les distinctions entre partis sont moins marquées.

I/Pourquoi s’attendre à une convergence des plateformes politiques des partis ?

En 1957 Anthony Downs écrit un livre intitulé An Economic Theory of Democracy. Il y développe de nombreuses idées mais l’une d’entre elles a eu une influence majeure en économie : la convergence des politiques vers les préférences de l’électeur médian . L’intuition de ce résultat est assez simple. Downs considère que les partis choisissent le programme politique qui leur offre la plus grande chance de gagner une élection. Imaginons deux partis qui s’affrontent, un « à gauche » et l’autre « à droite ». Ils font face à des électeurs aux préférences diverses, de l’extrême gauche à l’extrême droite, qui votent pour le parti dont le programme est le plus proche de leurs idées. Quel est le bénéfice pour le parti de gauche de se « droitiser » ? Il ne perd aucun électeur « à sa gauche » puisque qu’il est le seul parti de gauche. Ces électeurs apprécient certes moins son programme mais votent de toute façon pour lui (par exemple 90% des électeurs d’extrême gauche ont apporté leurs voix à Ségolène Royal lors du second tour de l’élection présidentielle). En revanche il conquiert des électeurs à droite en se rapprochant de leurs positions idéologiques. Au final son nouveau programme séduit plus d’électeurs que l’ancien. Ce raisonnement tient aussi pour le parti de droite qui va donc déplacer sa position idéologique vers la « gauche ». Les deux partis vont ainsi modifier leurs programmes jusqu’à converger vers des positions communes. Downs montre que le point de convergence s’effectue aux préférences de l’électeur médian (c’est-à-dire celui dont 50% des électeurs ont des préférences plus à gauche, et 50% plus à droite).

Ce raisonnement a profondément influencé les économistes de toute une génération. Dans cette perspective les électeurs modifient les politiques, dans le sens où les politiciens prennent fortement en compte leurs préférences lorsqu’ils décident de leurs programmes. A la limite, peu importe qui gagne l’élection puisque les deux candidats offrent les mêmes politiques. Ce résultat a cependant été de plus en plus mis en doute, non seulement et assez rapidement par des politologues qui savaient que l’expérience ne supportait pas la théorie, mais aussi par des économistes.

II/ Est-il raisonnable d’envisager cette convergence ?

Le résultat de Downs repose sur des hypothèses fortes et beaucoup d’articles ont été écrits pour le généraliser. Mais il en existe une cruciale, qui suppose que les politiciens n’ont aucune réticence à adopter n’importe quelle idéologie pour être élus. Si au contraire ils ont une préférence idéologique, la crédibilité de leurs promesses de campagne devient douteuse et il devient nécessaire de distinguer programmes et politiques mises en place. Même si les programmes convergent, rien n’empêche l’élu de revenir sur ses promesses et de suivre sa propre idéologie une fois au pouvoir. L’économiste Alberto Alesina fut le premier à montrer que dans ces conditions, la convergence des politiques n’avait pas nécessairement lieu. Il établit que si le coût pour le politicien de revenir sur ses promesses est élevé, par exemple en terme de réputation, alors on observera une convergence au moins partielle des programmes. Dans le cas contraire, les électeurs ne sont pas dupes et savent que « les promesses n’engagent que ceux qui les reçoivent » selon la phrase célèbre de Jacques Chirac prononcée lors d'une interview au Monde en 1988 (certains attribuent à Charles Pasqua la paternité de la formule). Dans cette perspective, les électeurs ne modifient plus les programmes mais ne font qu’élire des politiques fixées d’avance.

Nous avons donc en main deux théories. La première prédit que les électeurs influencent les politiques mises en place, la seconde que les électeurs ne font que choisir des politiques prédéterminées. La distinction est de taille et seul l’examen de données permet de dire laquelle décrit le mieux la réalité.

III/ Approche empirique

David S. Lee, Enrico Moretti, et Matthew J. Butler, dans un article du Quarterly Journal of Economics paru en 2004, ont développé une méthode permettant de distinguer ces effets. Ils l’ont appliquée aux élections parlementaires américaines. Les économistes Fernando Ferreira et Joseph Gyourko l’ont ensuite utilisée pour les élections municipales aux Etats-Unis. Leur stratégie pour déterminer si les électeurs modifient ou élisent les politiques est astucieuse et nécessite un peu d’attention pour bien la saisir.

Une méthode simple et directe consisterait à comparer l’idéologie des candidats et les politiques mises en place (la manière dont votent les représentants au Congrès dans le cas du premier article). Si aucune différence n’est observée alors les préférences des électeurs ne sont pas prises en compte et on peut rejeter l’hypothèse de leur influence, et donc le modèle de Downs. Malheureusement l’idéologie n’est pas observable et il faut recourir à des méthodes plus sophistiquées. La stratégie proposée repose sur le fait que si les candidats sont contraints dans leurs choix par les préférences de leurs électeurs, alors un changement dans leur popularité aura un impact sur leur vote au Congrès. Au contraire, si les promesses de campagne ne sont pas crédibles, alors leur popularité n’influencera pas leur vote au parlement.

Reformulons l’argument pour bien l’expliciter. Si on observe qu'à la suite d'un parachutage d’électeurs démocrates dans la circonscription d'un parlementaire (ce qui se traduit par une une augmentation de sa popularité s’il est démocrate, une diminution s’il est républicain), ce dernier modifie la manière dont il vote au Congrès dans un sens plus « démocrate », alors on peut en conclure que les électeurs influencent les politiques car le parlementaire aura pris en compte la composition de l’électorat dans sa circonscription. S’il ne change rien à sa manière de voter, alors les électeurs ne font que choisir entre des idéologies fixes.

Mais là encore, il nous faut jouer d’habileté car les parachutages d’électeurs sont rares. Lee, Moretti et Butler utilisent le fait, présenté récemment par Noblabla, que le parlementaire en place possède un net avantage sur ses concurrents lors des élections suivantes. On peut donc affirmer que si un parlementaire est élu lors de l’élection de 1992, il profite d’une hausse de popularité pour l’élection qui interviendra deux ans plus tard, en 1994. Une victoire démocrate en 1992 revient en quelque sorte à un parachutage de démocrates pour l’élection de 1994.

Les auteurs comparent à quel point les parlementaires votent de manière « démocrate » après 1994 quand un démocrate était au pouvoir en 1992 dans leur circonscription et à quel point les parlementaires votent « démocrate » après 1994 quand un républicain était au pouvoir en 1992 dans leur circonscription. Cette différence peut être décomposée en deux effets :
1/ La première composante reflète simplement le fait que les vainqueurs en 1994 d’élections dans lesquelles les parlementaires en place étaient démocrates auront tendance à voter de manière plus démocrate simplement parce qu’ils ont plus de chance d’être démocrates (c’est l’avantage conféré au parti en place). Cet effet indique que les électeurs ne font que choisir des politiques : les démocrates ont plus de chances d’être élus à la suite de démocrates sans avoir besoin de modifier leurs programmes.
2/ La deuxième composante montre à quel point les candidats répondent à une variation de leur popularité. Si les parlementaires tiennent leurs promesses, alors un démocrate « challenger » qui tente d’emporter une circonscription républicaine votera ensuite de manière plus républicaine s’il gagne l’élection qu’un démocrate déjà en place et réélu. En effet, pour surmonter son handicap, le challenger devra convaincre des électeurs républicains et adapter son idéologie à son électorat. Ce second effet mesure à quel point les électeurs modifient les politiques et sous-tend le modèle de Downs.

La taille relative de ces deux effets indique quel modèle est le plus adapté : convergence partielle (voire totale), ou absence de convergence. Cependant cette décomposition s’appuie sur une hypothèse cruciale. Il faut que l’affiliation du parlementaire en place soit aléatoire. Il est nécessaire que la popularité du candidat ne dépende que de sa position de challenger ou de parlementaire déjà en place et d’aucune autre variable. Or, comme Noblabla l’a déjà expliqué, nous faisons face à un problème d’endogénéité dans cette situation : les raisons pour lesquelles un parlementaire démocrate a été élu en 1992 influencent aussi l’élection de 1994. On ne peut donc dire que la popularité en 1994 tient uniquement au fait d’avoir un parlementaire démocrate en 1992. Comment recréer ce caractère aléatoire ? Lee utilise la technique dite de Regression discontinuity design présentée par Noblabla : lors d’élections très proches, l’identité du vainqueur dépend d’un coup de chance qui fait passer ou non au-dessus de la fatidique barre des 50%, et non d’autres variables non observables. En se concentrant sur ces circonscriptions « sur le fil du rasoir », on peut effectuer la décomposition présentée plus haut.

IV/ Résultats

Nous commençons par les élections au Congrès. Lee, Moretti et Butler prennent en compte toutes les élections de 1946 à 1995. Le score ADA quantifie pour chaque parlementaire à quel point il vote de manière libérale (démocrate) au Congrès. Le graphique suivant montre le score ADA en t+1 (par exemple en 1995-1996, suite à l’élection de 1994) d’un parlementaire en fonction du vote démocrate dans sa circonscription en t (en 1992). Il illustre l’effet total que nous avons décomposé en deux composantes.


On observe une discontinuité très marquée à 50%. Rappelons de nouveau qu’elle est due à deux effets. Tout d’abord, une circonscription qui a élu un démocrate en t (partie droite du graphique) a de fortes chances de réélire un démocrate en t+1. Il aura un score ADA élevé uniquement de part son affiliation partisane. C’est donc l’effet « les électeurs élisent des politiques sans les modifier » ou effet partisan. Ensuite, un démocrate qui parvient à enlever une circonscription à un républicain en place (partie gauche du graphique) aura un score ADA moins élevé qu’un démocrate déjà en place et réélu (partie droite) car il aura adapté sa politique à son électorat. C’est l’effet « les électeurs modifient les politiques ».

Les auteurs poursuivent en mesurant ces deux effets. Pour estimer l'effet partisan il suffit de comparer les scores ADA des républicains et des démocrates ayant gagné l'élection avec une faible marge, et de multiplier cette différence par la différence de probabilité d'une victoire démocrate lorsque les démocrates ont tout juste gagné et tout juste perdu l'élection précédente. On mesure donc la différence politique due uniquement à l'affiliation partisane puisque les circonscriptions sont identiques et on la multiplie par la probabilité de réélection. Le deuxième effet est simplement le résidu entre la discontinuité observée sur la figure précédente et l'effet partisan. Les auteurs arrivent à la conclusion que la composante « les électeurs modifient les politiques » est quasiment nulle tandis que l’effet partisan explique la quasi-totalité de la discontinuité. On peut donc affirmer qu’en moyenne les parlementaires ne prennent que faiblement en compte la composition de leur électorat et votent selon des lignes partisanes. Les électeurs en sont donc réduits à choisir entre des idéologies qui réagissent peu à leurs préférences.

Ferreira et Gyourko reprennent cette méthode et l’adaptent aux élections municipales américaines. Au lieu de regarder les votes au Congrès, ils mesurent directement les politiques municipales, telles que les impôts, l’allocation des recettes, et le taux de criminalité. Ils observent tout d’abord que si l’on considère l’ensemble des municipalités, il existe des différences marquées entre les municipalités démocrates et républicaines. Cependant quand on se restreint à celles autour du seuil de 50% ces différences disparaissent. Il apparaît donc que des variables autres que l’affiliation politique du maire sont à l’origine de ces différences. Il est peut-être utile de rappeler une nouvelle fois pourquoi : la comparaison des politiques dans une ville à 80% démocrate et dans une autre ville à 80% républicaine ne nous apprend rien car ces deux villes sont sûrement très différentes et il est impossible d’isoler l’effet du parti du maire sur ces politiques ; en revanche une ville à 51% démocrate n’est sûrement pas très différente d’une ville à 51% républicaine. Ce résultat motive l’approche RDD qui utilise le caractère aléatoire des élections serrées. Le graphique suivant illustre cette absence de discontinuité pour les taxes et la taille du gouvernement. Observez le contraste avec le graphique précédent :


Décomposant cet effet (ou plutôt son absence) en deux, les auteurs trouvent que les électeurs influencent les politiques. L’effet partisan est inexistant et l’absence de discontinuité est due à la convergence des politiques. Leurs résultats contrastent fortement avec ceux de Lee, Moretti et Butler qui aboutissaient à la conclusion inverse.

Comment expliquer ce renversement complet ? Ferreira et Gyourko montrent que les municipalités sont plus homogènes que les circonscriptions. Si les habitants d’une ville sont très similaires et ont donc des préférences politiques très proches, toute déviation loin ces préférences de la part d’un candidat aura un coût électoral élevé. Or les municipalités sont plus homogènes que les circonscriptions des parlementaires de par leur taille, mais aussi parce que les individus ont tendance à se regrouper par préférences au sein de municipalités. Ce mouvement est marqué au niveau local car il est possible de déménager d’une municipalité à une autre jugée plus attractive sans pour autant changer d’agglomération. Ce n’est pas le cas pour les circonscriptions parlementaires. Ferreira et Gyourko montrent d’ailleurs que la convergence des politiques est plus forte dans les agglomérations composées de nombreuses municipalités. Les maires sont donc plus contraints dans leurs choix et ne peuvent s’offrir le luxe de suivre aveuglément leur idéologie.

V/ Conclusion

A partir de ces deux articles, nous avons montré qu’il existait un fort effet partisan pour les élections au Congrès américain mais aucun pour les élections municipales. Les électeurs influencent les politiques locales mais ne font que choisir des lignes partisanes au niveau parlementaire. Mais attention, il ne faudrait pas en conclure qu’il n’existe aucune différence entre les républicains et les démocrates au niveau local. Le message de l’article est plus subtil : les candidats prennent en compte les préférences de leurs administrés au niveau local, mais pas au niveau parlementaire où l’idéologie prime sur la composition de l’électorat.

Qu’en déduire pour les prochaines municipales ? Ce genre d’études n’existe pas pour la France (il est vrai aussi que la situation y est plus complexe, avec très souvent bien plus de deux partis en lice ce qui complique sérieusement l’analyse). Cependant, l’argument sonne assez juste en France, comme le laisse penser cette étude Ipsos : au niveau local, l’affiliation partisane est de moindre importance car elle divise moins les politiques des candidats qu’au niveau parlementaire. Par exemple, un maire de gauche dans une ville partagée entre électeurs de droite et de gauche aura une politique de centre qui séduira nombre de citoyens et recueillera sûrement des voix auprès des électeurs de droite. Ce sera moins le cas du député qui votera à l’Assemblée de manière plus partisane selon les lignes de son parti. Pour reprendre l’introduction, il ne semble donc pas très judicieux de voir dans des élections locales un test du soutien à un parti.
_Emmanuel_
_Emmanuel_

Lire la suite...

samedi 2 février 2008

Elections américaines : l'importance du facteur chance


A l’approche du « Super Tuesday » du 5 février prochain, et alors que le suspense est à son comble dans les camps de chaque parti pour la désignation des candidats démocrates et républicain, un article de l'économiste américain David Lee qui vient de paraître dans le Journal of Econometrics, s’intéresse justement aux élections américaines. L'objectif de ce papier ? Mesurer précisément l’avantage conféré au parti au pouvoir dans la course pour les élections suivantes, en montrant qu'un petit peu de chance le jour d’une élection augmente fortement la probabilité de réélection !

Lee étudie les données des élections américaines au Sénat entre 1948 et 1998, et met en évidence la régularité suivante : le parti qui a gagné un siège lors d’une élection a de très fortes probabilités de le conserver à l’élection suivante. Le graphique suivant montre en effet que le taux de réélection du parti qui a gagné l’élection précédente (Incumbent party) est de près de 90% au cours de la période. Le graphique montre aussi que le candidat qui a gagné une élection a environ 80% de chances de se représenter et de gagner à nouveau.


Cependant, ces observations ne permettent pas de conclure que le fait d’être au pouvoir confère un réel avantage pour regagner les élections. En effet, les qualités qui ont permis à un candidat de gagner une première élection ont de fortes chances d’influencer positivement sa réélection. C’est ce que l’on appelle en économétrie le problème d'« endogénéité » : comme les qualités du candidat sont corrélées à la fois avec la variable explicative (avoir été élu une première fois) et la variable expliquée (être réélu), et que ces qualités ne sont pas toutes observables, et rarement mesurables, il est difficile d’isoler l’effet propre d’une première élection sur la probabilité d’être réélu.

Pour contourner ce problème, la stratégie d’estimation de Lee consiste à restreindre son analyse aux candidats qui ont gagné ou perdu l’élection de justesse. On peut considérer que les candidats qui ont obtenu 49,95% des voix à une élection et ceux qui en ont obtenu 50,05% avaient au départ quasiment la même probabilité d’être élus, étant données leurs caractéristiques. L’hypothèse faite par Lee est donc que ces candidats ont des qualités comparables, mais que la chance a fait que l’un a perdu et l’autre a gagné : le candidat qui a obtenu moins de 50% des voix n’est pas élu, alors que celui qui a obtenu plus de 50% accède au pouvoir. On peut ainsi comparer le taux de réélection des candidats élus de justesse à celui des candidats qui ont échoué de justesse à une élection pour estimer l’impact causal d’une première élection. Le graphique suivant montre ainsi la probabilité de gagner pour un candidat démocrate à l’élection suivante (t+1) en fonction de la part du vote à la première élection (en t). On observe une très nette discontinuité aux alentours de 50% des votes : les candidats qui ont été élus de justesse ont une probabilité beaucoup plus forte de se faire réélire d’environ 55% alors que les candidats qui ont perdu de justesse ont une probabilité d’être élus la prochaine fois de seulement 10%.


Le fait d’accéder au pouvoir, même grâce à la chance, confère donc un avantage très important pour l’élection suivante. La technique de Lee, baptisée Regression Discontinuity Design (et souvent abrégée en RDD), est d’ailleurs très utile pour évaluer l’impact de programmes dont les bénéficiaires sont choisis en fonction d’une caractéristique sous jacente qui varie de façon continue : cette méthode a par exemple été utilisée pour étudier l’impact de la réception de bourses universitaires, attribuées selon le score obtenu par les étudiants à un examen.

Pour revenir aux élections américaines, on peut se demander si les résultats de Lee, qui concernent les élections sénatoriales, peuvent s’étendre aux présidentielles. Le petit nombre d’observations en la matière ne permet pas de tester directement l’hypothèse, mais force est de constater que George W. Bush a bien été réélu après avoir gagné une première fois grâce à un petit coup de pouce du destin, qui lui a permis d’accéder au pouvoir avec moins de 50% des votes !
_Gabrielle_
_Gabrielle_

Lire la suite...