mardi 4 mars 2008

Graffiti sur les murs d'Ecopublix


Markss et SM m'ont graffité (ie taggué) et sous la menace d'une coulée du Vésuve, je me plie à la pression sociale. Pour ceux qui ne connaissent pas le principe du taggage (genre moi il y a une semaine), les habitants du cyberempire peuvent nommer d'autres bloggueurs qui doivent lister six choses insignifiantes sur leur vie et faire passer la contrainte à d’autres.

Comme l’a justement rappelé Pierre Maura, cela fait penser à Marcel Mauss et à son Essai sur le don : sous couvert d’un cadeau (on honore celui à qui on offre un cadeau), il y a aussi une contrainte sociale (on le soumet, on attend un contre-don, sinon on le traite d'asocial ou de pas sympa). Tout économiste qu’on soit, on se soumet à la contrainte sociale (on offre des cadeaux à Noel, on paie la tournée de bière et on fait des posts en réponse aux tags).

1/ En quatrième j’ai fait un exposé en latin sur « la civilisation latine dans Asterix » avec des recherches approfondies sur les anachronismes, les références et les évidences archéologiques (empiriques)…

2/ Mon plus grand moment de rationalité limitée a été de croire que je pouvais sauter une barre rocheuse de 8m de haut a ski sans me faire mal. Cette croyance a duré 2-3 secondes…

3/ Au Turkménistan, je n’ai pas rencontré Alexandre Delaigue. J’ai par contre dansé dans la célèbre boite de nuit d’Achgabat Le Florida avec des prostituées de la mafia turkmène.

4/ J’ai eu les mains moites à la lecture de A marche forcée de Slavomir Rawicz tout autant qu’à celle de 342 heures dans les Grandes Jorasses de René Desmaison.

5/ Lors d’une des fêtes de fin d’année de l’école de Limas, j’ai été grand schtroumpf (avec un collant rouge et un pompon blanc sur le derrière) quand mes petits camarades étaient en collants bleus.

6/ Au Pakistan, dans la province de Hunza, en aout 2001, je n’ai pas rencontré Ben Laden (je ne rencontre décidément pas les gens connus !). Je lui aurais fait lire Nicolas Bouvier

Voilà c’est fait. Je m’étais engagé auprès de mes collègues d’Ecopublix à publier un post sur le minimum vieillesse cette semaine. Peut-être qu’avec ce graffiti, je vais gagner quelques jours…

Je ne taggue personne en retour car je n’aime pas les chaînes de l’amitié et tous les bloggueurs que je connaisse ont déjà été taggués. Ah non, en fait, je taggue, Daniel, George, Greg, Dani et Arthur

_Antoine_

Lire la suite...

vendredi 29 février 2008

La peur de la vente à perte : des mugs à la crise immobilière


Un vaste champ de l’économie a émergé durant les vingt dernières années, inspiré par la psychologie et motivé par des expériences remettant en cause certains fondements de la théorie économique. L’économie comportementale traque les anomalies, observations difficiles à rationaliser dans le cadre de l’économie traditionnelle et tente d’y apporter des réponses dans un cadre rénové.

I/ Une anomalie célèbre: l’effet dotation

Comme l’expliquent dans un article de 1991 le psychologue Kahneman et les économistes Ketsch et Thaler, trois acteurs majeurs de l’économie comportementale, l’économie fait l’hypothèse que les individus sont caractérisés par des préférences stables, bien définies et des comportements rationnels. Ces auteurs ont multiplié les expériences qui mettent à mal cette hypothèse et ont proposé une nouvelle théorie permettant de pallier ces déficiences. Une des plus célèbres expériences met à jour l’effet dotation (endowment effect), difficilement compréhensible avec les outils de l’économie classique.

L’expérience est simple. Les auteurs donnent de manière aléatoire des tasses (mugs) à des étudiants choisis au hasard. Chaque tasse a une valeur de cinq dollars et ce prix est connu de tous. Ils demandent ensuite à ces étudiants dotés d’une tasse le prix minimal auquel ils seraient prêts à vendre leur tasse. Ils posent une question similaire à un autre groupe d’étudiants qui lui n’a pas reçu de tasse : ils doivent indiquer la somme minimale d’argent qu’ils préféreraient accepter plutôt que la tasse. Les deux groupes font face au même choix entre une somme d’argent et la tasse. Chaque individu, ayant ses préférences propres, évalue de manière différente la tasse mais comme les tasses ont été distribuées au hasard, le groupe « avec tasse » ne diffère pas de celui « sans tasse ». Par conséquent les moyennes des évaluations dans chaque groupe ne devraient pas différer. Or un individu du premier groupe déclare être prêt à vendre sa tasse en moyenne pour 7 dollars, tandis qu’un individu du second groupe préfère toute somme d’argent supérieure à 3,50 dollars à la tasse. La seule différence entre les deux groupes est la possession de l’objet. Il y a donc un effet dotation : le simple fait de posséder la tasse modifie les préférences.

L’explication fait appel à deux notions. La première stipule que les individus évaluent leurs choix par rapport à un point de référence. Nous évaluons notre situation en termes relatifs plutôt qu’absolus. La perspective d’un revenu annuel de 20 000 euros est réjouissante pour quelqu’un avec un revenu de 10 000 euros, mais terrible pour celui avec un revenu de 100 000 euros. La deuxième notion est l’aversion aux pertes : la perte que nous ressentons face à une perte d’argent est beaucoup plus grande que le plaisir que nous avons face à un gain de même taille. Reprenons l’exemple de nos étudiants propriétaires de tasse. La situation « propriétaire de tasse » constitue le point de référence d’un individu du groupe « avec tasse ». Il doit évaluer la perte de cette tasse en termes monétaires. Dans l’autre groupe le point de référence est simplement l’état « sans tasse ». Il doit évaluer le gain de la tasse. L’aversion aux pertes implique que le propriétaire ressent plus durement la perte que l’autre ne ressent le gain. Il va donc réclamer un prix supérieur pour s’en séparer qu’un non-propriétaire n’est prêt à payer pour l’acquérir.

Ce genre d’expérience a été répliqué dans de nombreux environnements, avec des modalités variées et l’effet dotation a toujours été observé. Pour être complet et honnête il faut aussi mentionner ce récent article qui a semé le doute. Un résumé complet peut en être lu sur le blog du journal The Economist, mais en gros les auteurs montrent que les résultats tiennent à la manière dont les expériences sont menées et donc que leur lien avec la théorie n'est pas si évident.
Notons cependant que la théorie du point de référence et de l’aversion aux pertes repose sur bien plus que les expériences mesurant l’effet dotation. L’émergence de l’économie comportementale a engendré des discussions passionnées, avec des défenseurs zélés, un prix Nobel, et des adversaires acharnés. Nous n’entrerons pas ici dans ce débat pour mieux expliquer un champ d’application de la théorie.

II/Application au marché du logement

Le lecteur peu soucieux des discussions sur les fondements de la théorie économique trouvera en effet peut-être qu’une expérience avec des tasses à 5 dollars a une portée plutôt limitée. Cependant remplaçons la tasse par une maison et essayons de comprendre les conséquences du point de référence et de l’aversion aux pertes sur le marché du logement. Tout d’abord on se convaincra aisément que le point de référence pour un vendeur est fortement influencé par le prix auquel il a acheté son bien. L’aversion aux pertes nous apprend que le vendeur sera fortement réticent à vendre sa maison en dessous de son prix d’achat. En période de prix immobiliers faibles, on observera donc moins de ventes, alors que « rationnellement » il n’y a pas de raisons à cela. Si les prix étaient déterminés uniquement par les caractéristiques du bien et l’état du marché alors un individu devrait accepter de vendre sa maison à un prix plus bas que le prix d’achat puisqu’il pourra racheter une maison de même qualité à ce prix de vente. L’aversion aux pertes introduit une dimension supplémentaire qui pousse les propriétaires à ne pas vendre leur bien à perte. David Genesove et Christopher Mayer ont confirmé cet effet dans un article. Ils observent que les vendeurs qui ont acheté au-dessus du prix de marché actuel demandent des prix de vente plus élevés, vendent en effet à des prix plus élevés mais au prix d’une attente plus longue. Ceci explique la forte corrélation entre volume de ventes et prix du marché immobilier. L’aversion aux pertes influence donc considérablement le marché et réduit la mobilité des personnes. Elle implique qu’en période de crise immobilière le marché du logement ne fonctionne pas très bien et que les acheteurs auront sûrement du mal à trouver des propriétaires prêts à vendre à perte, quand bien même ils pourraient racheter un bien similaire. De quoi limiter l’enthousiasme de ceux qui parient sur une crise immobilière pour acheter.
_Emmanuel_

Lire la suite...

mardi 26 février 2008

Qui paie la TVA ?


Même si la question de la TVA sociale n'occupe plus le devant de l'actualité, les variations des taux de TVA sont encore à l'ordre du jour. Qu'il s'agisse d'en augmenter le taux normal (TVA sociale) ou d'en diminuer le taux réduit (sur les biens de première nécessité), les commentateurs partent généralement du principe que ce sont les consommateurs qui paient l'intégralité de la taxe. Les posts qu'Ecopublix a consacré à l'incidence fiscale ont dû leur échapper... sinon, ils sauraient que la TVA est aussi payée par les entreprises. Au sujet de la TVA, deux idées fausses s'affrontent selon le côté du marché où l'on se situe : du côté de la demande, les consommateurs pensent qu'ils paient l'intégralité des taxes sur la consommation, l'expression "taxe indirecte" étant à cet égard trompeuse ; à l'opposé, si vous demandez à un patron de PME qui paie la TVA, il vous répondra invariablement que c'est lui, parce qu'il envoie un chèque au fisc le 15 de chaque mois. Or le plus souvent, la charge de la TVA est partagée entre les consommateurs et les producteurs.

I/ Quelques rappels sur la TVA

La Taxe sur la valeur ajoutée est un impôt qui pèse sur la quasi totalité des biens et services consommés ou utilisés en France. Avec près de 179 milliards d'euros prévus en 2008, c'est la première recette budgétaire de l'Etat (environ 50% des recettes fiscales), loin devant l'impôt sur le revenu (60 milliards, soit 17% des recettes fiscales).

D'après l'article 266 du Code général des impôts, l'assiette de la TVA est est composée de « toutes les sommes, valeurs, reçues ou à recevoir par le fournisseur ou le prestataire de services en contrepartie de la livraison ou de la prestation ». Pour dire les choses simplement, la TVA est calculée sur l'ensemble du prix de vente des biens et services. Formellement, elle est acquitée par les organismes «assujettis » à la TVA, c'est-à-dire essentiellement les entreprises. Chaque entreprise paie la TVA sur ses produits ou services, en déduisant le montant de la TVA qu'elle a elle-même supporté sur les acquisitions de biens et services utilisés dans le cadre de son activité : c'est le mécanisme dit de «récupération de la TVA sur les achats ». Les agents « non assujettis » (les administrations et les ménages) ne peuvent quant à eux déduire la TVA sur leurs achats.

Le montant de la taxe est proportionnel au prix de vente hors taxe et les taux de TVA sont fixés par l'Etat. A l'heure actuelle, il existe en France trois taux de TVA :
1/ Le taux normal, fixé à19,6% ;
2/Le taux réduit, fixé à 5,5%, pour les produits de première nécessité et de consommation courante ;
3/ Le taux «super-réduit», fixé à 2,1%, qui ne concerne qu'un très petit nombre de biens (les publications de presse, par exemple).

II/ Comment définir la part de TVA qui est payée par le consommateur ?

Pour savoir qui paie la TVA, il faudrait pouvoir comparer le prix que l'on observerait en l'absence de TVA au prix en présence de TVA. Si les deux prix sont égaux, cela signifie que le consommateur paie l'intégralité de la taxe. En général cependant, le prix sans TVA sera plus élevé que le prix hors taxes avec TVA car lors de la mise en place de la taxe, la hausse des prix fait baisser la demande, ce qui fait à son tour pression sur l'offre et conduit à une diminution des prix. Ainsi, la TVA est partagée entre les consommateurs, qui paient comptablement la taxe, et les producteurs qui doivent baisser leurs prix pour limiter la baisse de la demande.

Le meilleur moyen de comprendre l’ajustement des prix aux variations de la TVA est de regarder se qui se passe sur l'un des graphiques les plus élémentaires de la microéconomie : le graphique d'offre et de demande.


Sur ce graphique, la courbe de demande est beaucoup plus pentue que la courbe d'offre, ce qui signifie que les quantités demandées varient peu lors de grandes variations de prix. Dans cette configuration, on voit que la variation de prix est très proche de la variation de TVA. Le consommateur étant moins élastique (sa consommation change peu après des variations de prix) que le producteur, il paie la plus grande partie de la taxe.

Dans le second graphique ci-dessous, c'est l'inverse qui se produit : la demande varie fortement avec le niveau des prix et la hausse des prix est faible par rapport à la variation de TVA. Le producteur étant beaucoup moins élastique que le consommateur, c'est lui qui paie la plus grande partie de la taxe.


Il existe pourtant un problème : on ne peut pas observer en même temps les prix en vigueur avec la TVA et ceux qui qui prévaudraient s'il n'y avait pas de TVA. De ce fait, il peut paraître difficile de mesurer précisément la part de la TVA payée qui est payée par les consommateurs. Toutefois, il est possible de l'estimer en utilisant les réformes qui ont modifié les taux de TVA au cours du temps. Supposons que le taux de TVA soit passé dans un pays donné de 10 à 20% : si à la suite de cette réforme, le prix TTC des biens a augmenté de moins de (0,2-0,1)/1,1 = 9%, alors cela signifie que l'augmentation de la taxe n'a pas été payée intégralement par les consommateurs.

De multiples petites variations des taux locaux peuvent être exploitées aux Etats-Unis mais les réformes sont plus rares en Europe. Cependant, la réforme de 1999 sur les services de réparations courantes dans les logements, ainsi que les faibles variations de taux plein de 1995 et 2000 ont été étudiées, et la réforme allemande de l'année dernière devrait l'être prochainement.

III/ Alors, qui paie quoi ?

Que nous apprennent ces études ? Eh bien, que les variations de prix sont très variables suivant les marchés.

Globalement, ce sont les consommateurs qui paient la plus grosse part de la TVA, mais leur participation peut varier de la moitié jusqu'à la quasi totalité de la taxe. Dans le détail, on observe que la TVA sur les biens qui nécessitent une quantité importante d'investissement en capital fixe (la production de voitures, par exemple) est payée en plus faible proportion par les consommateurs que la TVA sur les services. Une des interprétations de ce phénomène pourrait être que l'offre varie moins facilement quand il y a beaucoup de capital fixe, et donc que l'offre des industries intensives en capital ressemble à celle du second graphique, alors que l'offre de services ressemble davantage à celle du premier graphique.

Pour ce qui est de savoir ce qui se passerait si on baissait la TVA sur les biens de première nécessité (le pain, par exemple), aucune étude empirique n'est disponible. On en est donc réduit à des conjectures sur la forme des courbe d'offre et de demande pour ce type de biens. Si peu d'informations existent sur l'élasticité de l'offre des biens de première nécessité (qui doit beaucoup varier d'un bien à l'autre) on peut raisonnablement supposer que l'élasticité de la demande de biens de première nécessité est particulièrement faible. En effet, dans la mesure où ces biens sont de première nécessité, leur consommation ne peut pas baisser fortement lorsque leur prix augmente et n'a pas de raison de s'envoler quand leur prix baisse. Au contraire, une baisse du prix des biens de première nécessité permet d'augmenter la consommation des autres biens alors qu'une augmentation de leur prix oblige les consommateurs à se priver de ces autres biens. Ainsi, il est probable qu'une baisse de la TVA sur les biens de première nécessité se traduirait par une baisse sensible du prix de ces biens. Il faut cependant noter que le taux de taxe applicable aux biens de première nécessité est déjà faible en France, si bien qu'une annulation complète de ce taux ne pourrait engendrer qu'une baisse maximale de 5,5%.

IV/ Des cas particuliers

Il existe des exceptions aux règles décrites plus haut, en particulier pour les biens importés et pour les biens issus de marchés particulièrement peu concurrentiels.

Pour les biens importés, la variation de la demande sur le territoire national n'a que peu d'influence sur la production mondiale du produit, et donc sur l'offre. Par conséquent, l'offre de biens importés se comporte comme si elle était totalement élastique et la TVA est intégralement payée par les consommateurs nationaux.

La concurrence imparfaite a quant à elle des effets ambigus sur l'incidence fiscale. Pour certains biens, il est possible que l'ajustement des prix soit particulièrement faible : ce sera notamment le cas lorsque la marge des producteurs et déjà très forte en situtation de concurrence imparfaite, si bien qu'un surplus de taxe ne pourra pas être payé par le consommateur mais sera en partie financé par le producteur. A l'inverse, sur des marchés comportant peu d'entreprises, une hausse de la taxe peut, en réduisant la taille totale du marché, faire diminuer le nombre de concurrents, donc accroître le pouvoir de marchés des entreprises et ainsi engendrer ainsi une hausse encore plus importante des prix. Dans ce dernier cas, on peut même assister à des hausses (ou baisses) de prix supérieures aux hausses (ou baisses) de TVA.
_Clement_

Lire la suite...

mercredi 13 février 2008

Elections américaines : le rôle des économistes


La campagne de l’élection présidentielle américaine suscite un intérêt croissant, y compris de ce côté de l’Atlantique. Ceci est dû en grande partie à la qualité des candidats, au charisme d’un Barack Obama, à la détermination d’une Hillary Clinton et à l’aura de l’ancien prisonnier du Vietnam John McCain. Derrière la démocratie à grand spectacle et les questions de personnes se cache aussi un débat sur les politiques publiques que le/la futur(e) président(e) souhaitera mettre en place. Et c’est là que les économistes entrent en scène. Ecopublix avait exprimé en avril dernier sa déception en commentant le rôle partisan (et peu convaincant) que les économistes français avaient joué lors de la dernière campagne présidentielle. Est-ce que leurs confrères d’Outre-Atlantique font mieux ? Comment gèrent-ils les dilemmes du savant (l’expert) et du politique (le conseiller) ?

Le premier point à remarquer est le fait que les questions économiques prennent une part croissante dans le débat politique, aussi bien en France qu’aux Etats-Unis. Même si la presse française n’insiste pas fortement sur le débat de fond qui anime la campagne des primaires, les enjeux sont considérables. L’opposition Obama/Clinton est tout en autant marquée sur la question de l’assurance maladie que sur la question irakienne. Des enjeux aussi divers que la l’opportunité d’un « stimulus fiscal », le relèvement barrières commerciales, la réévaluation du Yuan, la mondialisation et les jobs Américains divisent démocrates et républicains. L’importance des questions économiques dans le débat politique ne date pas d’aujourd’hui aux Etats-Unis. Le fameux « it’s the economy stupid ! » de Bill Clinton s’est rarement démenti. La blogosphère économique américaine avait pris une longueur d’avance dans son développement sur son homologue gauloise (avant le rôle pionnier des Econoclastes). Les économistes sont sollicités pour donner leur avis, juger les programmes ou même les écrire.

D’une façon similaire, mais moins nouvelle, les économistes américains participent largement à la campagne électorale, soit en analysant les programmes, soit en affichant leur soutien partisan ou en apparaissant comme conseillers sur des propositions de réformes. On savait depuis longtemps Paul Krugman (Princeton) démocrate de longue date et pourfendeur de Bush. De façon moins attendue, il a émis un soutien très marqué à Hillary Clinton en critiquant nettement le plan d’Obama de réforme de l’assurance maladie. Il rejoint ainsi Jon Gruber (MIT), spécialiste des assurances sociales et de la fiscalité, qui est devenu le conseiller d’Hillary pour les questions d’assurance maladie. Toujours chez les démocrates, trois stars de l’économie publique ont rejoint Barack Obama : David Cutler (Harvard), spécialiste de l’économie de la santé qui a concocté le plan de réforme de l’assurance maladie du candidat, Jeffrey Liebmann (Harvard Kennedy School), spécialiste des questions de retraite et Austan Goolsbee (Chicago), spécialiste de la fiscalité et de la nouvelle économie. Brad DeLong a exprimé son soutien à Obama dans son blog sans déjuger la candidature d’Hillary, suivant ainsi Paul Volcker, l’ancien directeur de la Banque fédérale américaine et célèbre pour avoir impulsé le tournant monétariste de 1980. Du côté républicain, la liste n’est pas moins impressionnante : Kenneth Rogoff (Harvard), star de la Finance internationale, ancien chef économiste du FMI, Harvey Rosen (Princeton), spécialiste d’économie publique, auteur d’un manuel prisé par les jeunes étudiants ou Douglas Holtz-Eakin, ancien directeur du Congressional Budget Office (le centre d’expertise économique du Congrès américain qui donne aux Parlementaires américains l’expertise nécessaire pour contrôler efficacement l’action de l’exécutif), ont rejoint la longue liste des conseillers économiques de John McCain. Greg Mankiw (Harvard), peut-être échaudé par sa (mauvaise) expérience de conseiller économique de George Bush, soutient modérément John McCain (on remarquera au passage qu’économiste keynésien ne rime pas nécessairement avec économiste de gauche ni économiste néoclassique avec économiste de droite…). Son collègue Ed Glaeser, de l'université de Harvard, le fait plus directement.

La participation active des universitaires américains à la campagne présidentielle comme conseillers ou soutiens des candidats n’est donc pas sans faire penser au rôle qu’ont joué les économistes français en avril dernier. Une des grandes différences vient du fait que leur rôle militant est de fait limité par l’auto-contrôle que s’impose la profession : la crédibilité des économistes vient de leur travaux, publiés dans des revues scientifiques à comité de lecture où une grande attention est mise à séparer l’analyse qui fait consensus des points qui relèvent des choix politiques et donc des préférences personnelles. Un universitaire qui viendrait proclamer sur les plateaux que « la science économique » prouve que telle politique est supérieure ou qu’elle invite à préférer un candidat à un autre se verrait immédiatement remis en place par ses confrères et perdrait une certaine crédibilité. On peut d'ailleurs constater que les prises de position très partisanes d’un Stiglitz ou d’un Krugman leur ont fait perdre, en partie, la crédibilité qu’ils avaient accumulée au sein du milieu académique. C’est peut-être pour cette raison que les engagements partisans des économistes américains se traduisent rarement par des prises de positions militantes et encore moins par une différence dans l’approche ou l’analyse économique elle-même. Jeffrey Liebmann coécrit avec Martin Feldstein le chapitre du Handbook sur les retraites. Feldstein et Cutler partagent le cours d’économie publique à Harvard sans qu’il n’y ait rien à redire. Cela ne les empêche pas d’en tirer des conclusions politiques très différentes, mais la démarche scientifique consistant à établir des faits, à établir des causalités et à réfléchir au fonctionnement sous-jacent n’est pas de l’ordre politique et n’est remise en question par personne. Les universités américaines abritent des économistes qui sont sélectionnés sur leurs travaux de recherche et se trouvent souvent avoir des avis politique assez divergents. Certes, ils sont en moyenne plus démocrates que républicains (mais moins que les autres universitaires), certes le MIT est un peu plus à gauche que Chicago, mais grosso modo, les différences politiques ne créent pas de chapelles scientifiques. La conséquence est que personne ne confond son rôle d’expert (de conseiller) avec son rôle académique.

L’exemple du Royaume-Uni offre peut-être un troisième modèle. Les économistes britanniques, s’ils participent activement au débat public, le font de façon plus collective, par le biais de think-tanks ou de centres de recherche où doit dominer un consensus académique. Le soutien partisan est rare et, s’il existe, de nombreuses précautions sont prises pour éviter de confondre le rôle d’expert (qui doit souligner les zones d’ombre, les incertitudes et les résultats parfois contradictoires) du rôle de conseiller ou de partisan qui fait des choix politiques (et exprime ainsi des préférences personnelles) qui ne sont pas le produit de son expertise. Pour donner un exemple (pas forcément représentatif de tous les économistes britanniques), l’institut où je travaille (Institute for Fiscal Studies) avait organisé une réunion des chercheurs en novembre dernier au moment où les bruits courraient d’une élection anticipée au Royaume-Uni. La première règle à respecter pendant cette période de campagne était de bien dissocier le rôle de chacun au sein de l’institution (rôle d’expertise, non partisan) de ses préférences personnelles (soutien partisan). Les chercheurs de l’institut se sont donc mis d’accord sur un code de conduite pour protéger la crédibilité de l’institution tout en laissant la liberté à chacun de jouer son rôle de citoyen (sans donc citer son titre d’expert ou faire référence à l’institut). Les recommandations portaient aussi bien sur la façon de répondre aux journalistes (ne parler que des faits, éviter de se faire piéger, de critiquer ou louer un parti/candidat, oser dire que l’on ne sait pas…) que sur les précautions à prendre pour éviter qu’un rôle partisan (tout à fait admis à titre personnel) puisse être perçu comme une expression de l’institut.

J’entends déjà ricaner ceux qui pensent qu’il ne peut exister d’analyse économique indépendante, non partisane, et qui pensent que celui qui a bien appris ses cours de sciences sociales sait que tout est politique. L’objet de ce post n’est pas de commencer une controverse sur la nature de la démarche scientifique ou sur le statut de la connaissance, mais simplement de souligner qu’il y a de la part des chercheurs, et en particulier des économistes, un choix à faire dans leur démarche vis-à-vis du public et de la politique. Faire de l’économie publique sans s’intéresser aux conséquences de ses recherches sur les choix des politiques publiques est totalement absurde : il y a donc un impératif très fort (scientifique tout autant que démocratique) à participer au débat public. La question reste néanmoins celle du comment. Est-ce que la distinction entre expertise et choix partisan est hypocrite ? Les économistes français ont-ils eu raison de passer sous silence les critiques qu’ils faisaient en privé au programme de leur candidat favori ? Que penser de l’exemple américain ? Et puis, finalement, n'est-ce pas la qualité du débat politique qui détermine en partie le mode d’intervention des économistes plutôt que l’inverse ? Corrélation n’est pas causalité…
_Antoine_

Lire la suite...

mercredi 6 février 2008

Elections municipales : les partis politiques comptent-ils ?


D’ici un mois, les 9 et 16 mars, les Français voteront pour élire leurs maires. Les grands partis hésitent à faire des élections municipales un « enjeu national ». Au-delà de la stratégie de parti, on peut en effet s’interroger sur la valeur de test d’une élection très locale pour une politique nationale. Il semble raisonnable de penser que les élus locaux choisissent des politiques peu partisanes, qui prennent en compte les préférences de leurs administrés. En conséquence le vote s’effectuerait moins selon ces lignes partisanes que lors d’une élection nationale ou régionale. On peut reformuler cette hypothèse en disant que les électeurs influencent fortement les politiques municipales, au point que les distinctions entre partis sont moins marquées.

I/Pourquoi s’attendre à une convergence des plateformes politiques des partis ?

En 1957 Anthony Downs écrit un livre intitulé An Economic Theory of Democracy. Il y développe de nombreuses idées mais l’une d’entre elles a eu une influence majeure en économie : la convergence des politiques vers les préférences de l’électeur médian . L’intuition de ce résultat est assez simple. Downs considère que les partis choisissent le programme politique qui leur offre la plus grande chance de gagner une élection. Imaginons deux partis qui s’affrontent, un « à gauche » et l’autre « à droite ». Ils font face à des électeurs aux préférences diverses, de l’extrême gauche à l’extrême droite, qui votent pour le parti dont le programme est le plus proche de leurs idées. Quel est le bénéfice pour le parti de gauche de se « droitiser » ? Il ne perd aucun électeur « à sa gauche » puisque qu’il est le seul parti de gauche. Ces électeurs apprécient certes moins son programme mais votent de toute façon pour lui (par exemple 90% des électeurs d’extrême gauche ont apporté leurs voix à Ségolène Royal lors du second tour de l’élection présidentielle). En revanche il conquiert des électeurs à droite en se rapprochant de leurs positions idéologiques. Au final son nouveau programme séduit plus d’électeurs que l’ancien. Ce raisonnement tient aussi pour le parti de droite qui va donc déplacer sa position idéologique vers la « gauche ». Les deux partis vont ainsi modifier leurs programmes jusqu’à converger vers des positions communes. Downs montre que le point de convergence s’effectue aux préférences de l’électeur médian (c’est-à-dire celui dont 50% des électeurs ont des préférences plus à gauche, et 50% plus à droite).

Ce raisonnement a profondément influencé les économistes de toute une génération. Dans cette perspective les électeurs modifient les politiques, dans le sens où les politiciens prennent fortement en compte leurs préférences lorsqu’ils décident de leurs programmes. A la limite, peu importe qui gagne l’élection puisque les deux candidats offrent les mêmes politiques. Ce résultat a cependant été de plus en plus mis en doute, non seulement et assez rapidement par des politologues qui savaient que l’expérience ne supportait pas la théorie, mais aussi par des économistes.

II/ Est-il raisonnable d’envisager cette convergence ?

Le résultat de Downs repose sur des hypothèses fortes et beaucoup d’articles ont été écrits pour le généraliser. Mais il en existe une cruciale, qui suppose que les politiciens n’ont aucune réticence à adopter n’importe quelle idéologie pour être élus. Si au contraire ils ont une préférence idéologique, la crédibilité de leurs promesses de campagne devient douteuse et il devient nécessaire de distinguer programmes et politiques mises en place. Même si les programmes convergent, rien n’empêche l’élu de revenir sur ses promesses et de suivre sa propre idéologie une fois au pouvoir. L’économiste Alberto Alesina fut le premier à montrer que dans ces conditions, la convergence des politiques n’avait pas nécessairement lieu. Il établit que si le coût pour le politicien de revenir sur ses promesses est élevé, par exemple en terme de réputation, alors on observera une convergence au moins partielle des programmes. Dans le cas contraire, les électeurs ne sont pas dupes et savent que « les promesses n’engagent que ceux qui les reçoivent » selon la phrase célèbre de Jacques Chirac prononcée lors d'une interview au Monde en 1988 (certains attribuent à Charles Pasqua la paternité de la formule). Dans cette perspective, les électeurs ne modifient plus les programmes mais ne font qu’élire des politiques fixées d’avance.

Nous avons donc en main deux théories. La première prédit que les électeurs influencent les politiques mises en place, la seconde que les électeurs ne font que choisir des politiques prédéterminées. La distinction est de taille et seul l’examen de données permet de dire laquelle décrit le mieux la réalité.

III/ Approche empirique

David S. Lee, Enrico Moretti, et Matthew J. Butler, dans un article du Quarterly Journal of Economics paru en 2004, ont développé une méthode permettant de distinguer ces effets. Ils l’ont appliquée aux élections parlementaires américaines. Les économistes Fernando Ferreira et Joseph Gyourko l’ont ensuite utilisée pour les élections municipales aux Etats-Unis. Leur stratégie pour déterminer si les électeurs modifient ou élisent les politiques est astucieuse et nécessite un peu d’attention pour bien la saisir.

Une méthode simple et directe consisterait à comparer l’idéologie des candidats et les politiques mises en place (la manière dont votent les représentants au Congrès dans le cas du premier article). Si aucune différence n’est observée alors les préférences des électeurs ne sont pas prises en compte et on peut rejeter l’hypothèse de leur influence, et donc le modèle de Downs. Malheureusement l’idéologie n’est pas observable et il faut recourir à des méthodes plus sophistiquées. La stratégie proposée repose sur le fait que si les candidats sont contraints dans leurs choix par les préférences de leurs électeurs, alors un changement dans leur popularité aura un impact sur leur vote au Congrès. Au contraire, si les promesses de campagne ne sont pas crédibles, alors leur popularité n’influencera pas leur vote au parlement.

Reformulons l’argument pour bien l’expliciter. Si on observe qu'à la suite d'un parachutage d’électeurs démocrates dans la circonscription d'un parlementaire (ce qui se traduit par une une augmentation de sa popularité s’il est démocrate, une diminution s’il est républicain), ce dernier modifie la manière dont il vote au Congrès dans un sens plus « démocrate », alors on peut en conclure que les électeurs influencent les politiques car le parlementaire aura pris en compte la composition de l’électorat dans sa circonscription. S’il ne change rien à sa manière de voter, alors les électeurs ne font que choisir entre des idéologies fixes.

Mais là encore, il nous faut jouer d’habileté car les parachutages d’électeurs sont rares. Lee, Moretti et Butler utilisent le fait, présenté récemment par Noblabla, que le parlementaire en place possède un net avantage sur ses concurrents lors des élections suivantes. On peut donc affirmer que si un parlementaire est élu lors de l’élection de 1992, il profite d’une hausse de popularité pour l’élection qui interviendra deux ans plus tard, en 1994. Une victoire démocrate en 1992 revient en quelque sorte à un parachutage de démocrates pour l’élection de 1994.

Les auteurs comparent à quel point les parlementaires votent de manière « démocrate » après 1994 quand un démocrate était au pouvoir en 1992 dans leur circonscription et à quel point les parlementaires votent « démocrate » après 1994 quand un républicain était au pouvoir en 1992 dans leur circonscription. Cette différence peut être décomposée en deux effets :
1/ La première composante reflète simplement le fait que les vainqueurs en 1994 d’élections dans lesquelles les parlementaires en place étaient démocrates auront tendance à voter de manière plus démocrate simplement parce qu’ils ont plus de chance d’être démocrates (c’est l’avantage conféré au parti en place). Cet effet indique que les électeurs ne font que choisir des politiques : les démocrates ont plus de chances d’être élus à la suite de démocrates sans avoir besoin de modifier leurs programmes.
2/ La deuxième composante montre à quel point les candidats répondent à une variation de leur popularité. Si les parlementaires tiennent leurs promesses, alors un démocrate « challenger » qui tente d’emporter une circonscription républicaine votera ensuite de manière plus républicaine s’il gagne l’élection qu’un démocrate déjà en place et réélu. En effet, pour surmonter son handicap, le challenger devra convaincre des électeurs républicains et adapter son idéologie à son électorat. Ce second effet mesure à quel point les électeurs modifient les politiques et sous-tend le modèle de Downs.

La taille relative de ces deux effets indique quel modèle est le plus adapté : convergence partielle (voire totale), ou absence de convergence. Cependant cette décomposition s’appuie sur une hypothèse cruciale. Il faut que l’affiliation du parlementaire en place soit aléatoire. Il est nécessaire que la popularité du candidat ne dépende que de sa position de challenger ou de parlementaire déjà en place et d’aucune autre variable. Or, comme Noblabla l’a déjà expliqué, nous faisons face à un problème d’endogénéité dans cette situation : les raisons pour lesquelles un parlementaire démocrate a été élu en 1992 influencent aussi l’élection de 1994. On ne peut donc dire que la popularité en 1994 tient uniquement au fait d’avoir un parlementaire démocrate en 1992. Comment recréer ce caractère aléatoire ? Lee utilise la technique dite de Regression discontinuity design présentée par Noblabla : lors d’élections très proches, l’identité du vainqueur dépend d’un coup de chance qui fait passer ou non au-dessus de la fatidique barre des 50%, et non d’autres variables non observables. En se concentrant sur ces circonscriptions « sur le fil du rasoir », on peut effectuer la décomposition présentée plus haut.

IV/ Résultats

Nous commençons par les élections au Congrès. Lee, Moretti et Butler prennent en compte toutes les élections de 1946 à 1995. Le score ADA quantifie pour chaque parlementaire à quel point il vote de manière libérale (démocrate) au Congrès. Le graphique suivant montre le score ADA en t+1 (par exemple en 1995-1996, suite à l’élection de 1994) d’un parlementaire en fonction du vote démocrate dans sa circonscription en t (en 1992). Il illustre l’effet total que nous avons décomposé en deux composantes.


On observe une discontinuité très marquée à 50%. Rappelons de nouveau qu’elle est due à deux effets. Tout d’abord, une circonscription qui a élu un démocrate en t (partie droite du graphique) a de fortes chances de réélire un démocrate en t+1. Il aura un score ADA élevé uniquement de part son affiliation partisane. C’est donc l’effet « les électeurs élisent des politiques sans les modifier » ou effet partisan. Ensuite, un démocrate qui parvient à enlever une circonscription à un républicain en place (partie gauche du graphique) aura un score ADA moins élevé qu’un démocrate déjà en place et réélu (partie droite) car il aura adapté sa politique à son électorat. C’est l’effet « les électeurs modifient les politiques ».

Les auteurs poursuivent en mesurant ces deux effets. Pour estimer l'effet partisan il suffit de comparer les scores ADA des républicains et des démocrates ayant gagné l'élection avec une faible marge, et de multiplier cette différence par la différence de probabilité d'une victoire démocrate lorsque les démocrates ont tout juste gagné et tout juste perdu l'élection précédente. On mesure donc la différence politique due uniquement à l'affiliation partisane puisque les circonscriptions sont identiques et on la multiplie par la probabilité de réélection. Le deuxième effet est simplement le résidu entre la discontinuité observée sur la figure précédente et l'effet partisan. Les auteurs arrivent à la conclusion que la composante « les électeurs modifient les politiques » est quasiment nulle tandis que l’effet partisan explique la quasi-totalité de la discontinuité. On peut donc affirmer qu’en moyenne les parlementaires ne prennent que faiblement en compte la composition de leur électorat et votent selon des lignes partisanes. Les électeurs en sont donc réduits à choisir entre des idéologies qui réagissent peu à leurs préférences.

Ferreira et Gyourko reprennent cette méthode et l’adaptent aux élections municipales américaines. Au lieu de regarder les votes au Congrès, ils mesurent directement les politiques municipales, telles que les impôts, l’allocation des recettes, et le taux de criminalité. Ils observent tout d’abord que si l’on considère l’ensemble des municipalités, il existe des différences marquées entre les municipalités démocrates et républicaines. Cependant quand on se restreint à celles autour du seuil de 50% ces différences disparaissent. Il apparaît donc que des variables autres que l’affiliation politique du maire sont à l’origine de ces différences. Il est peut-être utile de rappeler une nouvelle fois pourquoi : la comparaison des politiques dans une ville à 80% démocrate et dans une autre ville à 80% républicaine ne nous apprend rien car ces deux villes sont sûrement très différentes et il est impossible d’isoler l’effet du parti du maire sur ces politiques ; en revanche une ville à 51% démocrate n’est sûrement pas très différente d’une ville à 51% républicaine. Ce résultat motive l’approche RDD qui utilise le caractère aléatoire des élections serrées. Le graphique suivant illustre cette absence de discontinuité pour les taxes et la taille du gouvernement. Observez le contraste avec le graphique précédent :


Décomposant cet effet (ou plutôt son absence) en deux, les auteurs trouvent que les électeurs influencent les politiques. L’effet partisan est inexistant et l’absence de discontinuité est due à la convergence des politiques. Leurs résultats contrastent fortement avec ceux de Lee, Moretti et Butler qui aboutissaient à la conclusion inverse.

Comment expliquer ce renversement complet ? Ferreira et Gyourko montrent que les municipalités sont plus homogènes que les circonscriptions. Si les habitants d’une ville sont très similaires et ont donc des préférences politiques très proches, toute déviation loin ces préférences de la part d’un candidat aura un coût électoral élevé. Or les municipalités sont plus homogènes que les circonscriptions des parlementaires de par leur taille, mais aussi parce que les individus ont tendance à se regrouper par préférences au sein de municipalités. Ce mouvement est marqué au niveau local car il est possible de déménager d’une municipalité à une autre jugée plus attractive sans pour autant changer d’agglomération. Ce n’est pas le cas pour les circonscriptions parlementaires. Ferreira et Gyourko montrent d’ailleurs que la convergence des politiques est plus forte dans les agglomérations composées de nombreuses municipalités. Les maires sont donc plus contraints dans leurs choix et ne peuvent s’offrir le luxe de suivre aveuglément leur idéologie.

V/ Conclusion

A partir de ces deux articles, nous avons montré qu’il existait un fort effet partisan pour les élections au Congrès américain mais aucun pour les élections municipales. Les électeurs influencent les politiques locales mais ne font que choisir des lignes partisanes au niveau parlementaire. Mais attention, il ne faudrait pas en conclure qu’il n’existe aucune différence entre les républicains et les démocrates au niveau local. Le message de l’article est plus subtil : les candidats prennent en compte les préférences de leurs administrés au niveau local, mais pas au niveau parlementaire où l’idéologie prime sur la composition de l’électorat.

Qu’en déduire pour les prochaines municipales ? Ce genre d’études n’existe pas pour la France (il est vrai aussi que la situation y est plus complexe, avec très souvent bien plus de deux partis en lice ce qui complique sérieusement l’analyse). Cependant, l’argument sonne assez juste en France, comme le laisse penser cette étude Ipsos : au niveau local, l’affiliation partisane est de moindre importance car elle divise moins les politiques des candidats qu’au niveau parlementaire. Par exemple, un maire de gauche dans une ville partagée entre électeurs de droite et de gauche aura une politique de centre qui séduira nombre de citoyens et recueillera sûrement des voix auprès des électeurs de droite. Ce sera moins le cas du député qui votera à l’Assemblée de manière plus partisane selon les lignes de son parti. Pour reprendre l’introduction, il ne semble donc pas très judicieux de voir dans des élections locales un test du soutien à un parti.
_Emmanuel_
_Emmanuel_

Lire la suite...

samedi 2 février 2008

Elections américaines : l'importance du facteur chance


A l’approche du « Super Tuesday » du 5 février prochain, et alors que le suspense est à son comble dans les camps de chaque parti pour la désignation des candidats démocrates et républicain, un article de l'économiste américain David Lee qui vient de paraître dans le Journal of Econometrics, s’intéresse justement aux élections américaines. L'objectif de ce papier ? Mesurer précisément l’avantage conféré au parti au pouvoir dans la course pour les élections suivantes, en montrant qu'un petit peu de chance le jour d’une élection augmente fortement la probabilité de réélection !

Lee étudie les données des élections américaines au Sénat entre 1948 et 1998, et met en évidence la régularité suivante : le parti qui a gagné un siège lors d’une élection a de très fortes probabilités de le conserver à l’élection suivante. Le graphique suivant montre en effet que le taux de réélection du parti qui a gagné l’élection précédente (Incumbent party) est de près de 90% au cours de la période. Le graphique montre aussi que le candidat qui a gagné une élection a environ 80% de chances de se représenter et de gagner à nouveau.


Cependant, ces observations ne permettent pas de conclure que le fait d’être au pouvoir confère un réel avantage pour regagner les élections. En effet, les qualités qui ont permis à un candidat de gagner une première élection ont de fortes chances d’influencer positivement sa réélection. C’est ce que l’on appelle en économétrie le problème d'« endogénéité » : comme les qualités du candidat sont corrélées à la fois avec la variable explicative (avoir été élu une première fois) et la variable expliquée (être réélu), et que ces qualités ne sont pas toutes observables, et rarement mesurables, il est difficile d’isoler l’effet propre d’une première élection sur la probabilité d’être réélu.

Pour contourner ce problème, la stratégie d’estimation de Lee consiste à restreindre son analyse aux candidats qui ont gagné ou perdu l’élection de justesse. On peut considérer que les candidats qui ont obtenu 49,95% des voix à une élection et ceux qui en ont obtenu 50,05% avaient au départ quasiment la même probabilité d’être élus, étant données leurs caractéristiques. L’hypothèse faite par Lee est donc que ces candidats ont des qualités comparables, mais que la chance a fait que l’un a perdu et l’autre a gagné : le candidat qui a obtenu moins de 50% des voix n’est pas élu, alors que celui qui a obtenu plus de 50% accède au pouvoir. On peut ainsi comparer le taux de réélection des candidats élus de justesse à celui des candidats qui ont échoué de justesse à une élection pour estimer l’impact causal d’une première élection. Le graphique suivant montre ainsi la probabilité de gagner pour un candidat démocrate à l’élection suivante (t+1) en fonction de la part du vote à la première élection (en t). On observe une très nette discontinuité aux alentours de 50% des votes : les candidats qui ont été élus de justesse ont une probabilité beaucoup plus forte de se faire réélire d’environ 55% alors que les candidats qui ont perdu de justesse ont une probabilité d’être élus la prochaine fois de seulement 10%.


Le fait d’accéder au pouvoir, même grâce à la chance, confère donc un avantage très important pour l’élection suivante. La technique de Lee, baptisée Regression Discontinuity Design (et souvent abrégée en RDD), est d’ailleurs très utile pour évaluer l’impact de programmes dont les bénéficiaires sont choisis en fonction d’une caractéristique sous jacente qui varie de façon continue : cette méthode a par exemple été utilisée pour étudier l’impact de la réception de bourses universitaires, attribuées selon le score obtenu par les étudiants à un examen.

Pour revenir aux élections américaines, on peut se demander si les résultats de Lee, qui concernent les élections sénatoriales, peuvent s’étendre aux présidentielles. Le petit nombre d’observations en la matière ne permet pas de tester directement l’hypothèse, mais force est de constater que George W. Bush a bien été réélu après avoir gagné une première fois grâce à un petit coup de pouce du destin, qui lui a permis d’accéder au pouvoir avec moins de 50% des votes !
_Gabrielle_
_Gabrielle_

Lire la suite...

jeudi 24 janvier 2008

« Travailler plus pour gagner plus » ?


Une des mesures phare de la politique de l’emploi de l'année 2007 est la fameuse loi TEPA, en faveur du travail, de l’emploi et du pouvoir d’achat. Cette loi a fait l'objet de nombreuses analyses, portant essentiellement sur son impact sur la demande de travail des entreprises et sur les comportements d'optimisation fiscale qu'elle risque de provoquer. Les effets de la défiscalisation des heures supplémentaires sur l'offre de travail des salariés ont a quant à eux été relativement négligés. Or on a de bonnes raisons de penser que l'impact de la loi TEPA sur le volume d'heures travaillées sera faible et que son principal effet sera d'organiser un transfert de revenu des classes moyennes vers les classes aisées.

I/ Quelles sont les principales mesures de la loi TEPA ?

L'article 1 de la loi contient une disposition fiscale dont l'objectif déclaré est de permettre aux salariés d'augmenter leur pouvoir d'achat par l'allongement de leur temps de travail et d'inciter les entreprises à permettre ces allongements de temps de travail.

Pour encourager les salariés à faire plus d'heures (donc augmenter leur offre de travail), les revenus tirés des heures supplémentaires sont exonérés de l'impôt sur le revenu et de l'ensemble des charges salariales (chômage, assurance maladie, retraite de base et complémentaire, CSG et CRDS) : autrement dit, la rémunération des heures supplémentaires a été augmentée.

Pour inciter les entreprises à accorder plus d'heures supplémentaires (donc augmenter leur demande de travail), des réductions forfaitaires des cotisations patronales sont accordés : 0,50 € par heure supplémentaire pour les entreprises de plus de 20 salariés et 1,50 € par heure supplémentaire pour les entreprises de moins de 20 salariés. Pour ces dernières entreprises cependant, il faut noter que la diminution des charges patronales est compensée par une augmentation de la majoration du salaire des heures supplémentaires, celle-ci passant de 10 % à 25 %. Ainsi, le gain pour les petites entreprises n'existe que pour des salaires très proches du Smic, s'annule un peu avant 1,5 Smic et devient négatif au-delà.

II/ Les effets sur la demande de travail

La loi TEPA a suscité un grand nombre de commentaires, y compris avant qu'elle soit réellement discutée au parlement. Le plus souvent, les débats ont porté sur la question de savoir si les employés ont réellement la possibilité de choisir combien d'heures supplémentaires ils souhaitent effectuer. Cela dépend bien évidemment du pouvoir de négociation du salarié qui varie selon le type d'emploi, mais surtout de l'incitation qu'ont les employeurs à demander à leurs salariés de faire plus d'heures supplémentaires. Sur ce dernier point, l'impact de loi TEPA est susceptible de varier sensiblement selon le type d'entreprise considéré : comme indiqué plus haut, la loi rend la fiscalité des heures supplémentaires plus avantageuse pour les grandes entreprises, mais pas pour les petites lorsqu'elles versent des salaires supérieurs à 1,5 Smic. Par conséquent, l'effet de la défiscalisation des heures supplémentaires sur la demande de travail va surtout concerner les grandes entreprises.

On peut craindre par ailleurs qu'une grande partie de l'augmentation des heures supplémentaires déclarées ne corresponde pas à une augmentation réelle de l'activité économique. La défiscalisation des heures supplémentaires comporte en effet un risque sérieux de favoriser des comportements d'optimisation fiscale, puisque les entreprises auront intérêt à faire passer en heures supplémentaires des heures auparavant effectuées dans le régime normal, afin de bénéficier d'une fiscalité avantageuse sans pour autant changer quoi que ce soit à la durée effective du travail.

II/ Les effets sur l'offre de travail

Intéressons-nous maintenant aux effets probables de la défiscalisation des heures supplémentaires sur l'offre de travail, c'est-à-dire sur le nombre d'heures de travail que souhaitent effectuer les salariés.

Taux marginal versus taux moyen

En théorie, l’impact de la fiscalité sur l’offre de travail est assez complexe, voire ambigu. La taxation des revenus du travail a en effet deux effets qui vont dans des sens opposés :
1/ L'effet du taux marginal : comme l'a expliqué Manix, le taux marginal correspond au taux de prélèvement applicable au dernier euro gagné. Une diminution du taux marginal a plutôt tendance à encourager l'augmentation de l'offre de travail, car le supplément de travail réalisé par le salarié est mieux rémunéré. « Travailler plus » vaut plus le coup.
2/ L'effet du taux moyen : le taux moyen correspond au taux de prélèvement applicable sur l'ensemble des euros gagnés. L'effet d'une diminution du taux moyen est opposé à celui d'une augmentation du taux marginal : en augmentant les revenus après impôt du salarié, une diminution du taux moyen de prélèvement incite à travailler moins car plus on gagne d'argent, plus on préfère consacrer du temps au loisir.

A priori, l'effet de la loi TEPA sur l'offre de travail devrait donc être ambigu : d'un côté, en diminuant le taux marginal de prélèvement sur les revenus du travail, la loi devrait inciter les salariés à travailler plus ; mais d'un autre côté, en diminuant le taux moyen de prélèvement, elle devrait les inciter à travailler moins.

En réalité, comme indiqué dans le post que j'avais consacré à l'impôt sur le revenu, le cas de la France est assez particulier : le système d’imposition du revenu français présente des taux marginaux assez élevés, du fait des barèmes, mais des taux moyens très faibles du fait des très nombreuses déductions fiscales, réductions et crédits d’impôt. Surtout, l'effet de la loi TEPA sur le taux moyen de prélèvement sera faible, puisque par définition, la défiscalisation des heures supplémentaires ne concernera qu'une fraction relativement faible du total des heures travaillées (heures normales et heures supplémentaires) par un salarié . Dans ces conditions, l'effet de la loi TEPA transitera surtout par la baisse du taux marginal de prélèvement sur les salaires.

Qui seront les gagnants et les perdans de la réforme ?

La défiscalisation des heures supplémentaires pourrait donc apparaître comme une réforme idyllique, puisqu'elle incitera les salariés a faire plus d'heures supplémentaires en réduisant le taux marginal de prélèvement, sans les désincter à travailler puisqu'elle aura très peu d'effet sur le taux moyen. Cependant, il convient de savoir si cette augmentation sera importante ou faible. En effet, si elle est faible, la mesure n'aura qu'un effet négligeable sur la production totale (le PIB) et aura un coût positif sur la collectivité (le supplément de recettes générés par un volume d'heures travaillées plus important n'étant pas suffisant pour compenser les pertes de recettes engendrées par les exonérations fiscales). Si tel est le cas, la loi TEPA consistera essentiellement en un transfert des agents qui ne font pas d'heures supplémentaires (et qui paieront d'autres prélèvements obligatoires pour équilibrer le budget national) vers ceux qui en font : les « gagnants » de la réforme se trouveront du côté des salariés qui vont faire beaucoup d'heures supplémentaires en plus, les « perdants » du côté de ceux qui ne vont pas en faire plus. Une vrai question d'équité se poserait alors.

Ce point a été relevé par les économistes Patrick Artus, Pierre Cahuc et André Zylberberg dans le rapport qu'ils ont rédigé pour le Conseil d'Analyse Economique en août dernier, intitulé Temps de travail, revenu et emploi. Ils montrent que la défiscalisation des heures supplémentaires aura des effets contrastés sur le pouvoir d'achat des salariés : d'un côté, les salariés qui font déjà des heures supplémentaires devraient en faire plus, ce qui va augmenter leur pouvoir d'achat ; mais d'un autre côté, la réforme risque de diminuer le pouvoir d'achat des salariés qui ne font pas aujourd'hui d'heures supplémentaires, ainsi que celui des inactifs et des chômeurs, puisque la défiscalisation aura nécessairement pour effet de une diminuer les recettes publiques, qui devront être compensées par la hausse d'autres formes de prélèvements obligatoires.

Pour déterminer quels seront parmi les salariés les « gagnants » et les « perdants » de la réforme, on peut s'appuyer sur un petit schéma de l'équilibre du marché du travail. Le graphique suivant montre comment le nombre d'heures supplémentaires varie en fonction de la réactivité des salariés à la rémunération des heures supplémentaires :


Les courbes noires représentent la demande de travail payés en heures supplémentaires des entreprises en fonction du salaire qu'elles ont à payer. La courbe noire en traits pleins correspond à la situation initiale (avant la défiscalisation). Lorsque qu'on défiscalise les heures supplémentaires, le coût des heures supplémentaires pour l'employeur diminue : par conséquent, la demande de travail rémunéré en heures supplémentaires va s'accroître (la courbe en traits pleins se déplace vers la courbe en pointillés), c'est-à-dire que les entreprises vont augmenter le nombre d'heures supplémentaires qu'elles demandent à leurs salariés. L'effet de cet accroissement de la demande de travail sur le nombre d'heures supplémentaires réalisées va dépendre de la pente de la courbe d'offre de travail de salariés : si l'offre de travail des salariés est très sensible au salaire (courbe bleue), l'augmentation du nombre d'heures supplémentaires (H2) sera forte ; inversement, si la réactivité des salariés est faible (courbe rouge), l'augmentation du nombre d'heures supplémentaires (H1) sera faible. Les « gagnants » de la réforme sont ceux qui vont augmenter le plus leur volume d'heures supplémentaire : ils sont représentés par la courbe bleue. les « perdants » sont ceux qui vont augmenter le moins leur volume d'heures supplémentaires : ils sont représentés par la courbe rouge.

Qui sont les salariés correspondant à l'un et l'autre cas ? Il existe un relatif un consensus sur ce point parmi les économistes. Dans cet article, Jonathan Gruber et Emmanuel Saez résument résument les principaux résultats des différentes études empiriques menées sur le sujet : la principale conclusion est que les classes moyennes sont surtout sensibles aux taux moyens et peu aux taux marginaux, alors les salariés les plus riches réagissent plus fortement aux incitations liées aux taux marginaux d’imposition. Par ailleurs, il semblerait les femmes répondent globalement bien plus que les hommes aux incitations.

La défiscalisation des heures supplémentaires ne devrait donc avoir pratiquement aucun impact sur le volume d'heures supplémentaires réalisées par les salariés des classes moyennes, c'est-à-dire la très grande majorité, et augmenter la demande d'heures supplémentaires du très haut de la distribution des salaires. Les gagnants à la réforme sont donc à chercher du côté des salariés les mieux payés, les perdants du côté des moins bien payés. On poura toujours rétorquer que la loi pourrait quand même avoir un impact positif sur la demande de travail non qualifié si on suppose qu’il existe une complémentarité entre travail très qualifié et travail moins qualifié (si une entreprise fait travailler davantage ses ingénieurs, elle aura besoin de faire travailler davantage ses ouvriers) ; s'il existe, cet effet demeurera néanmoins faible.

L'effet « anti-redistributif » de la défiscalisation des heures supplémentaires ne s'arrête pas là : dans la mesure où les cotisations retraite existent jusqu'à un plafond assez élevé de salaire et que les hauts salaires sont ceux qui devraient le plus réagir à la loi, cette exonération des heures supplémentaires, qui touche en particulier les cotisations sociales, revient en partie à une subvention publique des retraites des plus riches.

L'effet sur l'offre de travail des femmes

Les arguments passés en revue jusqu'à présent semblent indiquer que la loi TEPA aura surtout pour effet d'organiser une redistribution « à l’envers », au détriment des classes moyennes et en faveur des salariés les mieux payés, pour un bénéfice relativement faible en termes d'activité économique. On pourrait néanmoins défendre la mesure en se concentrant sur le cas des femmes : la théorie économique suggère en effet qu'une telle exonération pourrait avoir un impact positif et significatif sur leur offre de travail.

En réalité, on constate empiriquement que les incitations fiscales jouent surtout sur la décision des femmes de participer ou non au marché du travail ou sur leur décision de travailler à temps plein ou à temps partiel, mais pas tellement sur le nombre d'heures travaillées. Or la défiscalisation des heures supplémentaires ne modifiera pas l'arbitrage entre travail et inactivité, pas plus qu'elle ne modifiera l'arbitrage entre temps partiel et temps plein. On peut donc penser que cette loi n’est n'aura pas particulièrement d'impact sur l'offre de travail des femmes.

Au total, l'analyse économique suggère que la loi TEPA n'a rien de la potion magique dont certains semblent rêver et que le « travailler plus » des uns risque surtout de se traduire par le « gagner moins » des autres.
_Clement_

Lire la suite...

dimanche 20 janvier 2008

Le « problème des retraites » (2/40) : les systèmes de retraite possibles


En commençant une longue série sur les retraites, j’avais abordé il y a quelques semaines la question des changements démographiques et des choix globaux possibles. De nombreux lecteurs avaient fait remarquer que les choix démocratiques sur l’évolution de nos systèmes de retraite ne se limitent pas à un choix en termes de prélèvement, d’âge de la retraite et de niveau de pension, mais concernent également le mode de fonctionnement du système. L’opposition système par capitalisation / système par répartition a naturellement été évoquée. Trop souvent, le débat entre les pro et les anti capitalisation / répartition a tendance à alimenter une confusion sur les caractéristiques possibles des systèmes de retraite. Avant de consacrer de longs posts aux problèmes spécifiques du système français, il n’est peut-être pas inutile de procéder à quelques clarifications sur les typologies des systèmes de retraite.

I/ Qu’est-ce qu’un système de retraite ? ou les pièges des typologies

Un système de retraite est un mécanisme institutionnel qui permet de transférer du revenu pendant une période d’activité à une période d’inactivité. Plus exactement, il permet de transférer des droits à un flux de revenu. Pendant la période d’activité, un salarié échange du travail contre un droit à un flux de revenu (un salaire) ; il peut renoncer à une partie de ses revenus (sous la forme de cotisations retraite ou d’épargne privée) en échange d’un droit à un flux de revenu pendant sa période d’inactivité (pension ou rente). Il baisse donc sa consommation immédiatement afin de pouvoir consommer plus tard. Il s’agit d’épargne au sens général du terme (dans le jargon des économistes, on parle de « de transferts intertemporels de revenu »). Tous les systèmes de retraite ont cette fonction économique fondamentale, mais ils peuvent différer grandement selon les règles déterminant ce transfert de droits. On a pris l’habitude de les classer et de les opposer selon des grands types. Ces typologies sont très utiles mais elles alimentent aussi des confusions qu’il est bon de clarifier rapidement.

Première confusion : l’opposition capitalisation/répartition

La typologie la plus connue dans le grand public est l’opposition capitalisation/répartition. Telle qu’elle est présentée (trop) souvent dans le débat français, elle porte à confusion. Habituellement le grand public comprend « la répartition » comme un système collectif, public, redistributif, qui garantit « la solidarité entre les générations », par opposition à un système privé d’épargne individuelle, lié aux fluctuations du marché et forcément non redistributif. Cette confusion est largement alimentée par les prises de position de certains défenseurs de la répartition comme Michel Husson (Vive la répart !) ou l’association Attac, mais également par celles des tenants très conservateurs de la privatisation des régimes de retraite. En réalité, la distinction répartition/capitalisation se résume à une différence du mode de financement des retraites : « en répartition » les cotisations des actifs financent directement, sans préfinancement, les retraites des inactifs ; la capitalisation correspond quant à elle à un mode de financement où les cotisations des actifs sont accumulées dans des fonds, placées sur les marchés financiers et utilisés ensuite pour verser les pensions. Le terme de répartition est pour le coup assez ambigu, puisqu’il laisse à penser que « la répartition » est naturellement équitable (« la répartition répartit ») alors que la « capitalisation » est de l’ordre du chacun pour soi (« on capitalise avec la capitalisation »). Ceci alimente la confusion entre redistribution et mode de financement. Il est en effet possible d’avoir un système par capitalisation, public, collectif et redistributif ; il est aussi possible d’avoir un système privé par répartition et non redistributif. Par exemple les systèmes de retraite français complémentaires ont commencé comme des régimes privés, non redistributifs et fonctionnant par répartition ; le Fonds de réserve des retraites (FRR) est un mode de financement des retraites par capitalisation, public et collectif. Plutôt que de parler de répartition/capitalisation, il serait plus pédagogique de parler de « préfinancement ou non » à l’instar de la langue anglaise qui utilise les termes funded versus unfunded system. Il nous faudra revenir longuement sur l’opposition de ces modes de financement, mais l’important est de garder à l’esprit qu’ils ne sauraient se confondre avec le degré de redistribution, au sein des générations ou entre les générations.

Deuxième confusion : l’opposition philosophique entre Bismarck et Beveridge

La seconde typologie la plus utilisée est l’opposition entre les philosophies des systèmes bismarckien et beveridgien. Si l’on voulait retracer à grands traits l’histoire des systèmes de retraite, on distinguerait trois grandes origines à nos systèmes actuels.
Le plus ancien serait la volonté de l’Etat (des monarques) de s’assurer la fidélité de leurs soldats quand le pillage n’était plus de mise. Jules César offre ainsi des terres à ses vétérans lorsqu’il en a terminé avec ses conquêtes. Les légionnaires romains reçoivent ainsi une rente comme récompense pour leurs services passés. C’est à la fois le Trésor de la République romaine qui paie (lorsque les terres sont prises sur le domaine de l’ager publicus) ou le plus souvent par la confiscation de terres sur les colonies de Rome. Les monarques français vont suivre cette tradition et financer des pensions pour les anciens soldats du Royaume de France. C’est Louis XIV qui crée en 1670 l’Hôtel des Invalides pour les vétérans de l’armée et en 1673 une Caisse des invalides de la Marine royale est mise en place. Par suite logique, les fonctionnaires civils reçoivent aussi une retraite « récompense » payée directement par le Trésor. Il n’est pas question dans ces prémisses d’un système de retraite général.
Le premier système couvrant une population plus large est issu des initiatives du Chancelier allemand Otto von Bismarck (Assurances vieillesses de 1889). Le système dit « bismarckien » est contributif et obligatoire. Les cotisations, prélevés sur les salariés et les employeurs financent des retraites proportionnelles aux salaires. Le système bénéficie donc uniquement aux anciens salariés (donc surtout les hommes). L’avantage du modèle bismarckien est de prendre en compte les aspects incitatifs de l’assurance vieillesse : plus on cotise, plus la retraite est importante ; les cotisations ne doivent donc pas être perçues par les salariés comme des impôts mais comme de l’épargne forcée. Le désavantage d’un tel modèle, s’il est appliqué à la lettre, est qu’il laisse une partie importante de la population (les inactifs) sans couverture, il n’effectue pas de redistribution (sinon vers ceux qui vivent plus longtemps) et il n’assure donc pas de minimum de revenu pour les personnes âgées. On a aussi pu dire que ce système a un aspect corporatif ou professionnel (il tourne autour de l’entreprise, de la corporation ou du secteur d’activité).
Une autre philosophie du système de retraite est née du rapport Beveridge de 1942 au Royaume-Uni : dans un système dit beveridgien, l’objectif est de réduire la pauvreté des personnes âgées mais pas de garantir à tous une retraite proportionnelle. Le système public de retraite est ainsi financé par l’impôt et permet d’offrir une pension non conditionnelle aux cotisations passées, mais ouverte à tous les résidents à partir d’un âge donné. Le système beveridgien laisse donc libre le choix du mode de constitution des pensions complémentaires pour les individus qui ne sont pas en risque de pauvreté. Il assure un filet de sécurité pour tous, effectue ainsi de la redistribution en faveur de ceux qui ont des accidents de carrière mais il ne permet pas d’inciter les salariés à préparer leur retraite. Les individus non prévoyants risquent donc de se retrouver à l’âge de la retraite avec des pensions moins élevées qu’ils ne l’auraient espéré.

L’Allemagne, la France et les Etats-Unis se sont inspirés plutôt d’un modèle bismarckien, tandis que le Royaume-Uni et les pays nordiques se sont inspirés du modèle beveridigien. Mais aujourd’hui, la plupart des systèmes de retraite sont en fait des modèles hybrides, ayant une part beveridgienne et une part bismarckienne : le système français a introduit très tôt des éléments non contributifs d’inspiration beveridgienne (minimum vieillesse en 1956) et le système anglais a introduit une part contributive en 1975. Par ailleurs, un certain nombre de pays (les Pays-Bas, la Suisse) ne rentrent pas facilement dans cette classification et ont pu considérablement évoluer. Au final, bien qu’historiquement très importante, cette typologie a perdu de sa pertinence. Chacun reconnaît qu’il y a un arbitrage à faire entre garantir un minimum de revenu aux personnes âgées et s’assurer que les salariés puissent se constituer des retraites d’un montant satisfaisant. Il n’y a donc pas vraiment à « trancher » entre ces deux philosophies. Un système de retraite doit prendre en compte ces deux objectifs avec des instruments différents.

Troisième confusion : la typologie classique d’Esping-Andersen

Pour aller au-delà de la différence entre Bismarck et Beveridge et pour clarifier les choix concernant les différents régimes de retraite, les pionniers des travaux sur les systèmes d’assurances sociales ont constitué d’autres typologies. Les travaux de Gøsta Esping-Andersen ont marqué les esprits des économistes durablement. Ce sociologue danois (aujourd’hui professeur à l’université Pompeu Fabra à Barcelone) a présenté sa célèbre typologie des régimes de retraite avec les trois types d’Etats providence : le libéral, le conservateur et le social-démocrate. Le modèle libéral (Royaume-Uni, Etats-Unis) repose sur des retraites publiques faibles qui laissent la place à de larges compléments privés. Il est cohérent avec l’inspiration beveridgienne d’un minimum de retraite financé par l’impôt. Le modèle conservateur (Allemagne, Autriche et France) est lui cohérent avec l’inspiration corporatiste de l’inspiration bismarkienne : seuls les salariés bénéficient de retraites importantes, proportionnelles aux salaires et le système est peu redistributif. Le modèle social-démocrate (pays nordiques) combine quant à lui une inspiration beveridgienne (universaliste) avec un fort de couverture et donc des taux d’imposition élevés.

Si les classifications à la Esping-Andersen sont très utiles pour cerner l’historique et les différentes philosophies qui ont présidé à la naissance des systèmes de retraite, elles sont peu adaptées à la variété réelle des systèmes possibles. Ces modalités peuvent être assemblées de façon extrêmement diverses et le piège des typologies est de laisser croire qu’il n’y a que quelques grands modèles de retraite cohérents qui dépendent de choix philosophiques radicalement opposés.

II/ La multitude des systèmes de retraite possibles

En réalité, les choix sont bien plus nombreux tant tous les panachages sont possibles. Les modalités qui déterminent la forme des systèmes de retraite dépendent en fait des objectifs que l’on assigne au système de retraite. Il existe de nombreux motifs à l’intervention de l’Etat dans les institutions de retraite. Chaque motif spécifique invite à une modalité particulière d’intervention. L’objectif de la liste qui va suivre n’est pas de juger de leur pertinence ni de rentrer dans les détails mais simplement de faire le lien entre les objectifs que le législateur (le citoyen) peut fixer aux systèmes de retraite et les choix qu’ils impliquent.

1/ Le mode de financement : il s’agit du choix évoqué plus haut entre capitalisation ou répartition qui dépend de l’existence ou non de marchés financiers et de la confiance que l’on peut avoir envers ces marchés par rapport à la confiance en la capacité de l’Etat à honorer ses promesses passées. Ce choix dépend aussi de l’histoire, des guerres, des épisodes d’hyperinflation ou de tous les chocs qui ont pu conduire des générations à parvenir à l’orée de la vieillesse sans moyens de subsistance.

2/ Le caractère public ou privé : l’Etat peut choisir de produire lui-même cette assurance vieillesse, ou imposer l’obligation de contracter une assurance privée, ou subventionner (sans obligation) l’achat de ces assurances (réductions fiscales). Le choix de l’une ou l’autre de ces solutions dépend du diagnostic qu’on porte sur l’origine du manque d’assurance : une défaillance de marché (si l’on pense qu’aucune institution privée ne peut fournir de garanties sur le long terme où fonctionnent les retraites), la myopie des agents (si l’on pense que les individus sous-estiment leurs besoins de revenu pour la retraite) et les coûts relatifs d’administration de ces systèmes (un système public peut bénéficier de moindres coûts administratifs mais peut aussi pâtir d’un manque d’incitation à améliorer son efficacité).

3/ Le caractère obligatoire ou non : il s’agit de répondre au souci (paternaliste) de l’Etat de forcer les individus à préparer leur retraite, de peur qu’ils ne se retrouvent sans ressource au moment de leur période d’inactivité. Le caractère obligatoire est naturel avec un système public, mais il est compatible avec un système privé pourvu que l’on considère que les individus ne sont pas capables de prévoir leurs besoins de revenus pour la retraite (les économistes disent que « les agents sont myopes »).

4/ Le caractère contributif ou non : un système de retraite est considéré comme contributif si la pension dépend des contributions passées des individus. Un système de retraite peut vouloir simplement éviter la pauvreté aux âges élevés et apporter un filet de sécurité avec un revenu minimum. Celui-ci n’est donc pas forcément dépendant des contributions au système. Mais si le système a pour objectif véritablement le transfert de revenu des périodes d’activité aux périodes d’inactivité, alors la pension doit dépendre de l’effort contributif.

5/ Le mode d’ajustement : un système de retraite contributif peut être à cotisations définies (on fixe les cotisations à un certain taux et la pension dépend de l’âge de départ et de l’espérance de vie) ou à prestations définies (on fixe le montant des pensions et on ajuste les variations démographiques avec l’augmentation des cotisations). Ainsi en France, le régime général est à prestations définies tandis que les systèmes par point des régimes complémentaires sont à cotisations définies.

6/ La redistribution intra-générationnelle : un système de retraite peut effectuer de la redistribution au sein d’une même génération. Le taux de rendement peut-être plus élevé pour les plus pauvres sur l’ensemble de leur carrière, les pensions peuvent compenser pour les accidents de carrière, elles peuvent compenser pour les carrières courtes (celles des femmes en particulier). Mais la principale redistribution opérée par un système d’assurance retraite est un transfert de revenu de ceux qui meurent jeune vers ceux qui meurent plus âgés. S’il existe des inégalités d’espérance de vie, alors celles-ci vont entraîner (selon la forme du système) de la redistribution : des hommes vers les femmes, des non-éduqués vers les plus éduqués, des fumeurs vers les non-fumeurs…

7/ La redistribution intergénérationnelle : un système de retraite peut effectuer de la redistribution entre les générations. Il est ainsi possible de verser une pension à des générations n’ayant pas cotisé en transmettant ce coût aux générations suivantes. Avec un système par répartition, il est en fait possible d’émettre une dette implicite qui est transmise aux plus jeunes générations. L’objectif peut être de compenser une génération qui aurait subi des conditions particulièrement difficiles (guerre par exemple) ou de façon moins altruiste de tenter de faire porter le poids des retraites de la génération actuelle par les générations plus jeunes.

8/ Le traitement familial : un système de retraite peut prendre en compte des éléments familiaux importants selon que le conjoint survivant bénéficie ou non d’une pension de réversion ou selon que le nombre d’enfant influe sur le montant de la pension. L’objectif peut être d’encourager la fertilité, de favoriser les familles nombreuses, d’encourager le retrait des femmes du marché du travail ou au contraire d’inciter leur participation.

9/ La prise en compte de l’état physique : en avançant au cours de leur carrière les salariés subissent un risque croissant de détérioration de leur condition physique. Les systèmes de retraite peuvent prendre en comptes ces spécificités en proposant sous critères médicaux des pensions à taux plein de façon plus précoce. Les pensions pour inaptitude, pour invalidité, pour les travailleurs de l’amiante ou pour les salariés qui ont travaillé dans des conditions particulièrement difficiles offrent ainsi une alternative au système de retraite commun. Le risque de ces dispositifs est de dériver vers des systèmes de retraite anticipée ou le lien avec les problèmes de santé disparaît.

10/ Les objectifs d’emploi : un certain nombre de pays ont utilisé leur système de retraite avec un objectif de « libérer des emplois » pour les plus jeunes. Dans ce cas, le système de retraite peut être modifié afin d’inciter les salariés à prendre plus tôt leur retraite qu’ils ne l’auraient souhaité. Les incitations à poursuivre son activité peuvent ainsi dépendre de l’augmentation du niveau de la pension avec la durée de la carrière ou l’âge ou dépendre d’autres modalités comme les règles de cumul des pensions avec une rémunération d’activité. Ces règles font aussi partie d’un système de retraite et dépendent du rôle qu’on entend lui faire jouer.

Ce qu’il est important de comprendre, c’est que ces différentes modalités peuvent être combinées de toutes les façons possibles : il est possible d’avoir un système de retraite par capitalisation, obligatoire et public, un système par répartition, privé, non obligatoire, un système par répartition, individuel et public… De plus tous les systèmes peuvent être simultanés dans un même pays, plusieurs étages différents disponibles pour un même individu. Les cinq premiers critères cités forment l’armature de tout système de retraite. On peut les utiliser pour construire une typologie économique des systèmes de retraite (tableau ci-dessous) :


Ce tableau est loin d’être exhaustif, mais il laisse entrevoir la variété des choix possibles qui n’ont pas forcement le contenu idéologique que certains veulent y mettre. Les cris de « vive la répartition » ou au contraire « vive la capitalisation » semblent quelque peu simplistes au vu des enjeux.
_Antoine_

Lire la suite...

lundi 14 janvier 2008

Fin de la pub sur les chaînes publiques : une manne pour TF1 et M6 ?


Lors de sa conférence de presse du 8 janvier dernier, le Président Sarkozix a créé la surprise en annonçant la fin de la publicité sur les chaînes publiques et en proposant que le manque à gagner de 830 millions d’euros pour France Télévisions soit compensé par « une taxe sur les recettes publicitaires accrue des chaînes privées et par une taxe infinitésimale sur le chiffre d'affaires de nouveaux moyens de communication, comme l'accès à Internet ou la téléphonie mobile ». Le jour même, on apprenait que les cours de TF1 et M6 s’envolaient à la Bourse de Paris, au point que la plupart des commentateurs semblaient considérer qu’il s’agissait forcément d’une bonne affaire pour les chaînes privées. Nous alors voir que si la demande de spots publicitaires n'est pas trop sensible à son prix, ce sera effectivement le cas.

I/ Le marché des espaces publicitaires à la télévision

Le marché des spots publicitaires brasse beaucoup d’argent : en 2007, les recettes publicitaires brutes de la télévision s’élevaient à 6,7 milliards d’euros, dont 5,5 milliards pour la télévision hertzienne (soit 82% du total) et 1,2 milliards pour la TNT, le câble et le satellite (soit 18% du total).

Du point de vue de l’économiste, ce marché constitue une vraie curiosité, dans la mesure où l’offre et la demande de spots publicitaires présentent des caractéristiques assez atypiques.

La demande de spots de pub

La demande de spots publicitaires est le fait d’une multitude d’entreprises en concurrence pour l’achat de « temps de cerveau disponible » auprès des régies publicitaires des grandes chaînes publiques et privées de la télévision. Le prix qu’un annonceur est prêt à débourser pour 30 secondes d’espace publicitaire dépend à la fois du nombre de téléspectateurs qui seront devant leur télé au moment de la diffusion (ce qui explique les prix stratosphériques atteints par les spots publicitaires à l’occasion de certains événements sportifs) et du degré de proximité de ces téléspectateurs avec le « cœur de cible » de l’annonceur (les pubs pour les jouets pour enfants sont rarement diffusés à 2 heures du matin...). En toute logique, la demande de spots publicitaires télévisés n’échappe pas à la « loi de la demande » : toutes choses égales par ailleurs, plus le prix du spot publicitaire augmente, plus la demande de spots diminue. La sensibilité de la demande de spots publicitaires à leur prix est mesurée par son élasticité-prix (un concept auquel Kanelbullix a récemment consacré un post) : à titre d’exemple, une élasticité de 0,5 signifie que lorsque le prix du spot de pub augmente de 1%, la demande diminue de 0,5%.

L’offre de spots de pub

L’offre de spots publicitaires présente trois grandes spécificités :

1/ L’espace publicitaire offert à la télévision se caractérise d’abord par des coûts de revient pratiquement nuls et une valeur qui dépend avant tout de l’audience. En effet, la fourniture d’un espace publicitaire ne coûte quasiment rien au diffuseur, les coûts étant pour l’essentiel des coûts fixes (coûts de création et de maintenance d’une chaîne de télévision). On peut même considérer que la diffusion d’un message publicitaire permet à une chaîne de réaliser des économies, dans la mesure où elle n’a pas à diffuser de programme pendant le temps de la pub. Dans ces conditions, la marge réalisée par les régies publicitaires s’élève à environ 90% du prix de vente des espaces publicitaires.

2/ L’offre d’espaces publicitaires à la télévision est très inélastique (peu sensible aux prix). En effet, étant donné la faiblesse des coûts de diffusion de messages publicitaires, les chaînes de télévision souhaiteraient offrir un volume d’espaces publicitaires beaucoup plus important que celui qui prévaut actuellement (environ 7% de l’offre de programme des grandes chaînes nationales en 2003), mais elles n’en n’ont pas la faculté, dans la mesure où la durée des espaces réservés à la publicité à la télévision est très étroitement encadrée par un ensemble de dispositions législatives, réglementaires et conventionnelles qui concernent aussi bien les chaînes publiques que les chaînes privées. A l’heure actuelle, les télévisions privées hertziennes sont limitées à 6 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes (c'est-à-dire aussi bien entre 13h et 14h qu'entre 13h07 et 14h07, etc.) ; les télévisions publiques (France 2, France 3 et France 5) sont limitées à 6 minutes par heure en moyenne quotidienne et à 8 minutes par heure glissante ; les télévisions diffusées par câble ou satellite sont limitées à 9 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes ; enfin, les télévisions hertziennes locales peuvent diffuser 12 minutes par heure d’antenne et 15 minutes par heure donnée.

3/ L’existence de coûts fixes élevés pour créer une chaîne de télévision explique que l’offre de spots publicitaires soit fortement concentrée : le marché des spots publicitaires est aux mains d’un très petit nombre de régies publicitaires qui regroupent généralement plusieurs chaînes (sur le câble, le groupe M6 possède par exemple W9, Paris Première, Téva ou encore Série Club). À l’heure actuelle, trois grandes régies contrôlent la quasi-totalité du marché : TF1, qui détient 55% du marché des spots publicitaires, M6, qui en détient 24% et France Télévisions, qui en détient seulement 20% (pour un montant de 830 millions de recettes publicitaires nettes en 2007, ce qui représente 30% de ses ressources financières). Les offreurs de spots publicitaires à la télévision sont donc en situation d’oligopole, ce qui leur confère un pouvoir de marché qui va lui-même influencer la manière dont les prix vont se fixer. Les propriétés de ce mode de concurrence dépendent de la manière dont les firmes interagissent : traditionnellement, les économistes distinguent une concurrence « par les quantités », dite concurrence à la Cournot et une concurrence « en prix », dite concurrence à la Bertrand. Dans le cas des spots publicitaires, la concurrence se rapprocherait davantage d’une concurrence en prix, dans la mesure où les régies publicitaires n’ont pas la possibilité de modifier la durée des espaces publicitaires vendus, pour les raisons mentionnées au point 2/. En l’absence d’une entente sur les prix, les propriétés d’une concurrence oligopolistique en prix sont relativement proches de celles de la concurrence « pure et parfaite » : à l’équilibre, les firmes ne parviennent pas à profiter de leur pouvoir de marché pour extraire une rente et proposer des prix supérieurs à ceux qui prévaudraient dans un univers parfaitement concurrentiel. Ce résultat n’est valable que si les régies publicitaires des grandes chaînes de télévision ne sont pas en collusion : les décisions du Conseil de la concurrence en la matière semblent indiquer que l’existence d’une entente sur le prix des espaces publicitaires ne peut être caractérisée. En revanche, le Conseil a considéré en 2001 que TF1 et sa filiale TF1 publicité, en détenant une part de marché nettement plus importante que celle de leur concurrence immédiat, France Télévisions Publicité, étaient entre 1993 et 1997 en abus de position dominante sur le marché de la publicité télévisuelle. A cette occasion, TF1 fut condamnée à une sanction pécuniaire d’un montant de 1,2 millions d’euros.

Le graphique suivant résume de manière très schématique le fonctionnement du marché des spots publicitaires à la télévision :


La quantité de spots publicitaires vendus est indiquée en abscisses, le prix du spot de pub en ordonnées. La courbe de demande de spots est une fonction décroissante des prix pratiqués, alors que l’offre d’espaces publicitaires est totalement inélastique, pour les raisons mentionnées plus haut. L’équilibre sur ce marché se fixe au point E, situé à l’intersection des courbes d’offre et de demande : en ce point, le prix du spot de pub est égal à PE et le nombre de spots vendus à QE. Le rectangle colorié en jaune mesure le total des recettes publicitaires perçues par les régies publicitaires des chaînes publiques et privées. Ces recettes sont égales au prix unitaire du spot publicitaire multiplié par la quantité vendue, soit PE*QE. La part qui revient à chacune de régies publicitaires est indiquée par le découpage du rectangle en trois portions : TF1 (55%), M6 (25%) et France Télévisions (20 %).

II/ Quel sera l’impact de la suppression de la publicité sur les chaînes publiques ?

Dans ce contexte, quel sera l’impact de la suppression des espaces publicitaires sur les chaînes publiques (on ne prend pas encore en compte la création d’une taxe sur les spots publicitaires diffusés sur les chaînes privées) ?

Graphiquement, la fin de la publicité sur les chaînes de France Télévision se traduira par un déplacement vers la gauche de la courbe d’offre de spots publicitaires. L’ampleur de déplacement sera égal à la part de marché détenue par France Télévisions dans le total des recettes publicitaires des chaînes de télévision, soit 20% :


Ce déplacement de la courbe d’offre de spots publicitaires aura trois effets :

1/ une réduction de 20 % du nombre total de spots publicitaires diffusés à la télévision ;

2/ une augmentation du prix du spot publicitaires qui va dépendre de la forme de la courbe de demande de spots publicitaires : une demande très élastique (très sensible aux prix, donc plutôt « horizontale ») se traduira par une faible augmentation des prix alors qu’une demande très inélastique (très peu sensible aux prix, dont plutôt « verticale ») se traduira par une forte augmentation des prix.

3/ en l’absence de taxe sur les spots publicitaires, l’augmentation du prix de l’espace publicitaires sur les chaînes privées se traduira par une augmentation de leurs recettes publicitaires globales. Graphiquement, ce supplément de recettes publicitaires est représenté par le rectangle colorié en vert : plus l’élasticité de la demande de spots publicitaires est faible, plus ce supplément de recettes sera important.

III/ Quel sera l’impact de la création d’une taxe sur les spots publicitaires ?

Que se passe-t-il maintenant si l’Etat décide de créer une taxe sur les spots publicitaires diffusés sur les chaînes privées, afin de compenser le manque à gagner des chaînes publiques, soit 830 millions d’euros par an ?

La première question qui se pose est de savoir qui va réellement payer cette taxe : Les annonceurs ou les régies publicitaires ? Le second principe de l’incidence fiscale, énoncé par Petitsuix dans ce post et appliqué au cas des cotisations sociales par votre serviteur stipule qu’en général, la taxe sera payée par le côté le moins « élastique » du marché, autrement dit par les agents économiques qui n’ont pas la faculté de « refourguer » la taxe à d’autres. Dans le cas des spots publicitaires, l’application de ce principe signifie que ce sont les régies publicitaires qui vont payer l’intégralité de la taxe, puisque l’offre d’espaces publicitaires est totalement inélastique. Pour s’en convaincre, imaginons que les régies publicitaires des chaînes de télévisions privées décident de répercuter l’intégralité de la taxe sur le prix des spots qu’elles proposent aux annonceurs : dans cette situation, la demande d’espaces publicitaires sera inférieure à l’offre, si bien que toutes les chaînes de télévision auront intérêt à réduire leurs prix pour attirer les annonceurs, jusqu’à ce que la demande soit de nouveau égale à l’offre (elle-même inchangée), c'est-à-dire jusqu’au moment où le prix taxe comprise sera égal au prix qui prévalait avant la création de cette taxe. Les régies publicitaires des chaînes privées paieront donc l’intégralité de la taxe. La structure oligopolistique du marché des espaces publicitaires et la position dominante de TF1 n’y changeront rien : en présence d’une offre totalement rigide, le prix incluant la taxe ne pourra pas excéder le prix de l’équilibre sans taxe.

La seconde question posée par la création de cette taxe est celle de son montant. Quel est le taux que devra fixer l’Etat pour permettre de compenser les pertes de recettes publicitaires des chaînes publiques, soit 830 millions d’euros ? La réponse à cette question dépend du prix du spot publicitaire qui prévaudra lorsque la publicité aura disparu des chaînes publiques, ce prix étant lui-même fonction de l’élasticité de la demande de spots publicitaires. Le graphique suivant indique que le taux de cette taxe, mesuré par l’écart entre le prix P1 (taxe comprise) et le prix P2 (hors taxe), devra être fixé de manière à ce que les revenus engendrés par la taxe (le rectangle colorié en bleu) compensent le manque à gagner des chaînes publiques (le rectangle colorié en rouge) :


Le taux t de la taxe qu’il faudra appliquer aux spots publicitaires diffusés par les chaînes privées peut même être précisément calculé. Il s’écrit : t=0,25*(1/(1 + (0,2/ε))) où ε désigne l’élasticité-prix de la demande de spots publicitaires (1). Si la demande de spots publicitaires est très sensible aux prix (élasticité infinie), alors il faudra appliquer une taxe de 25% ; si la demande est très peu sensible aux prix (élasticité nulle), alors on pourra se contenter d’une taxe très faible. En fonction de la valeur de l’élasticité-prix de la demande d’espaces publicitaires, le taux de taxe qu’il faudra appliquer sera compris entre 0 et 25%.

Le graphique précédent permet de constater que la création d’une taxe sur les spots publicitaires aura pour effet de « rogner » sur le supplément de recettes publicitaires engrangées par les chaînes privées à la suite de la suppression de la publicité sur les chaînes publiques. Dans le cas particulier illustré sur ce graphique, les recettes publicitaires des chaînes privées auront quand même augmenté au total (le supplément net de recettes étant mesuré par le rectangle colorié en vert), parce que la demande est assez peu élastique.

Mais on pourrait tout aussi bien se retrouver dans une situation telle que les recettes publicitaires des chaînes privées diminueront si une taxe est mise en place pour compenser le manque à gagner des chaînes publiques. Ce sera le cas si la demande de spots publicitaires est suffisamment élastique (sensible au prix). Le graphique suivant permet en effet de constater que dans cette situation, les recettes publicitaires globales des chaînes privées seront plus faibles qu’avant :


Sur ce graphique, la partie hachurée du rectangle bleu indique la perte de recettes publicitaires des chaînes privées engendrée par la création d’une taxe sur les spots de pub.

La fin de la pub sur le service public n’est donc pas forcément une bonne affaire pour TF1 et M6. Pour qu’elle le soit, il faudrait que la demande ne soit pas trop élastique. On peut même calculer grossièrement le seuil d’élasticité-prix de la demande d’espaces publicitaires au-delà duquel la création d’une taxe sur les spots de pub serait une mauvaise affaire pour les chaînes privées. Ce seuil correspond à la situation où le prix hors taxe du spot (noté P2) est égal au prix qui prévalait avant la suppression de la publicité sur les chaînes publiques (noté P0) : si P2 est supérieur à P0, alors les chaînes privées seront gagnantes ; si P2 est inférieur à P0, elles seront gagnantes. Un calcul rapide montre que l’élasticité-prix de la demande de spots publicitaires au-delà de laquelle les chaînes privées subiront des pertes est égal à 0,8 (2). Ce niveau d’élasticité correspond à une demande très sensible aux prix: il signifie que si le prix du spot de pub augmente de 10%, la demande de spots diminue de 8%. L’élasticité réelle de la demande de spots publicitaires se situe sans doute en dessous d’un tel niveau. On peut donc en conclure que la création d’une taxe sur les spots publicitaires ne devrait pas empêcher TF1 et M6 de bénéficier de la suppression de la publicité sur les chaînes publiques.

C’est d’autant plus probable que d’après les déclarations du Président, une partie de la perte de recettes publicitaires de France Télévisions pourrait être compensée par la création d’une taxe « infinitésimale » prélevée sur le chiffre d’affaires des opérateurs Internet et de téléphonie mobile. Si tel était le cas, le prélèvement opéré sur les recettes publicitaires des chaînes privées serait encore plus faible, ce qui minimiserait considérablement l’impact négatif de la taxe pour TF1 et M6.

Dans ces conditions, on comprend que les actions des deux principales chaînes privées de télévision aient flambé juste après l’annonce faite par le Président Sarkozix : le 8 janvier, l’action TF1 augmentait de 10% :


Le même jour, l’action M6 grimpait de 6% :


L’euphorie n’aura cependant été que de courte durée : les cours des deux actions sont redescendus à des niveaux proches de leurs niveaux antérieurs dès le lendemain. Il faut sans doute voir là une certaine forme de prudence face au flou qui entoure encore les projets du gouvernement en matière de réforme du financement de l’audiovisuel public. Une autre raison susceptible d’expliquer cette correction des cours boursiers est que les actionnaires de TF1 et M6 ont pu anticiper une privatisation prochaine d’une partie des chaînes publiques, rendue nécessaires par l’insuffisance des ressources dégagées par une taxe sur les spots publicitaires, ce qui annulerait le bénéfice tiré de la réduction du nombre total de spots diffusés et donnerait naissance à des concurrentes autrement plus dangereuses que les actuelles France 2, France 3 et France 5.

Il reste que ces soubresauts financiers montrent que le temps de cerveau disponible a encore de beaux jours devant lui…


NOTES :

(1) Détails du calcul :
A la date t=0, les chaînes publiques et privées ont le droit de diffuser des spots publicitaires. A la date t=1, la publicité est supprimée sur les chaînes publiques et les pertes de recettes compensées par la création d’une taxe (dont le taux est noté t) sur les spots diffusés par les chaînes privées.
Soit P0 et Q0 respectivement le prix du spot publicitaire et le nombre de spots vendus en t=1. Soit P1 et Q1 respectivement le prix taxe comprise du spot publicitaire et Q1 le nombre de spots vendus en t=1.
Le taux de taxe t doit être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t =0,25*P0/P1 (i)
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε =(∆Q/Q)/ (∆P/P), où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. On peut donc écrire :
∆P/P = (P1-P0)/P0 = (1/ε)*(∆Q/Q)
Cette équation peut se réécrire :
P0/P1 = 1/(1+ (0,2/ε))
En remplaçant cette expression dans l’équation (i), on trouve que le taux de taxe t s’écrit :
t = 0,25*(1/(1 + (0,2)/ε))

(2) Détails du calcul :
En t=1, le prix hors taxe du spot publicitaire en deçà duquel les recettes publicitaires des chaînes privées seront inférieures aux recettes publicitaires de la période 0 est tel que P1*(1-t)=P0 (ii).
Le taux de taxe t doit lui-même être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t= 0,25*P0/P1
En remplaçant le taux de taxe t par cette valeur dans l’équation (ii), on trouve que pour que les chaînes privées soient « gagnantes », il faudrait que le prix du spot de publicité (taxe incluse) soit supérieur de 25% au prix de la période 0 :
∆P/P = (P1-P0)/P0 = 0,25
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε = (∆Q/Q)/(∆P/P)
où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. Une augmentation de 25% du prix du spot de pub pour une réduction de 20% des quantité vendues correspond donc à une élasticité-prix de la demande de spots publicitaires ε égale à :
ε = (0,2 / 0,25) = 0,8
_Julien_

Lire la suite...