lundi 14 janvier 2008

Fin de la pub sur les chaînes publiques : une manne pour TF1 et M6 ?


Lors de sa conférence de presse du 8 janvier dernier, le Président Sarkozix a créé la surprise en annonçant la fin de la publicité sur les chaînes publiques et en proposant que le manque à gagner de 830 millions d’euros pour France Télévisions soit compensé par « une taxe sur les recettes publicitaires accrue des chaînes privées et par une taxe infinitésimale sur le chiffre d'affaires de nouveaux moyens de communication, comme l'accès à Internet ou la téléphonie mobile ». Le jour même, on apprenait que les cours de TF1 et M6 s’envolaient à la Bourse de Paris, au point que la plupart des commentateurs semblaient considérer qu’il s’agissait forcément d’une bonne affaire pour les chaînes privées. Nous alors voir que si la demande de spots publicitaires n'est pas trop sensible à son prix, ce sera effectivement le cas.

I/ Le marché des espaces publicitaires à la télévision

Le marché des spots publicitaires brasse beaucoup d’argent : en 2007, les recettes publicitaires brutes de la télévision s’élevaient à 6,7 milliards d’euros, dont 5,5 milliards pour la télévision hertzienne (soit 82% du total) et 1,2 milliards pour la TNT, le câble et le satellite (soit 18% du total).

Du point de vue de l’économiste, ce marché constitue une vraie curiosité, dans la mesure où l’offre et la demande de spots publicitaires présentent des caractéristiques assez atypiques.

La demande de spots de pub

La demande de spots publicitaires est le fait d’une multitude d’entreprises en concurrence pour l’achat de « temps de cerveau disponible » auprès des régies publicitaires des grandes chaînes publiques et privées de la télévision. Le prix qu’un annonceur est prêt à débourser pour 30 secondes d’espace publicitaire dépend à la fois du nombre de téléspectateurs qui seront devant leur télé au moment de la diffusion (ce qui explique les prix stratosphériques atteints par les spots publicitaires à l’occasion de certains événements sportifs) et du degré de proximité de ces téléspectateurs avec le « cœur de cible » de l’annonceur (les pubs pour les jouets pour enfants sont rarement diffusés à 2 heures du matin...). En toute logique, la demande de spots publicitaires télévisés n’échappe pas à la « loi de la demande » : toutes choses égales par ailleurs, plus le prix du spot publicitaire augmente, plus la demande de spots diminue. La sensibilité de la demande de spots publicitaires à leur prix est mesurée par son élasticité-prix (un concept auquel Kanelbullix a récemment consacré un post) : à titre d’exemple, une élasticité de 0,5 signifie que lorsque le prix du spot de pub augmente de 1%, la demande diminue de 0,5%.

L’offre de spots de pub

L’offre de spots publicitaires présente trois grandes spécificités :

1/ L’espace publicitaire offert à la télévision se caractérise d’abord par des coûts de revient pratiquement nuls et une valeur qui dépend avant tout de l’audience. En effet, la fourniture d’un espace publicitaire ne coûte quasiment rien au diffuseur, les coûts étant pour l’essentiel des coûts fixes (coûts de création et de maintenance d’une chaîne de télévision). On peut même considérer que la diffusion d’un message publicitaire permet à une chaîne de réaliser des économies, dans la mesure où elle n’a pas à diffuser de programme pendant le temps de la pub. Dans ces conditions, la marge réalisée par les régies publicitaires s’élève à environ 90% du prix de vente des espaces publicitaires.

2/ L’offre d’espaces publicitaires à la télévision est très inélastique (peu sensible aux prix). En effet, étant donné la faiblesse des coûts de diffusion de messages publicitaires, les chaînes de télévision souhaiteraient offrir un volume d’espaces publicitaires beaucoup plus important que celui qui prévaut actuellement (environ 7% de l’offre de programme des grandes chaînes nationales en 2003), mais elles n’en n’ont pas la faculté, dans la mesure où la durée des espaces réservés à la publicité à la télévision est très étroitement encadrée par un ensemble de dispositions législatives, réglementaires et conventionnelles qui concernent aussi bien les chaînes publiques que les chaînes privées. A l’heure actuelle, les télévisions privées hertziennes sont limitées à 6 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes (c'est-à-dire aussi bien entre 13h et 14h qu'entre 13h07 et 14h07, etc.) ; les télévisions publiques (France 2, France 3 et France 5) sont limitées à 6 minutes par heure en moyenne quotidienne et à 8 minutes par heure glissante ; les télévisions diffusées par câble ou satellite sont limitées à 9 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes ; enfin, les télévisions hertziennes locales peuvent diffuser 12 minutes par heure d’antenne et 15 minutes par heure donnée.

3/ L’existence de coûts fixes élevés pour créer une chaîne de télévision explique que l’offre de spots publicitaires soit fortement concentrée : le marché des spots publicitaires est aux mains d’un très petit nombre de régies publicitaires qui regroupent généralement plusieurs chaînes (sur le câble, le groupe M6 possède par exemple W9, Paris Première, Téva ou encore Série Club). À l’heure actuelle, trois grandes régies contrôlent la quasi-totalité du marché : TF1, qui détient 55% du marché des spots publicitaires, M6, qui en détient 24% et France Télévisions, qui en détient seulement 20% (pour un montant de 830 millions de recettes publicitaires nettes en 2007, ce qui représente 30% de ses ressources financières). Les offreurs de spots publicitaires à la télévision sont donc en situation d’oligopole, ce qui leur confère un pouvoir de marché qui va lui-même influencer la manière dont les prix vont se fixer. Les propriétés de ce mode de concurrence dépendent de la manière dont les firmes interagissent : traditionnellement, les économistes distinguent une concurrence « par les quantités », dite concurrence à la Cournot et une concurrence « en prix », dite concurrence à la Bertrand. Dans le cas des spots publicitaires, la concurrence se rapprocherait davantage d’une concurrence en prix, dans la mesure où les régies publicitaires n’ont pas la possibilité de modifier la durée des espaces publicitaires vendus, pour les raisons mentionnées au point 2/. En l’absence d’une entente sur les prix, les propriétés d’une concurrence oligopolistique en prix sont relativement proches de celles de la concurrence « pure et parfaite » : à l’équilibre, les firmes ne parviennent pas à profiter de leur pouvoir de marché pour extraire une rente et proposer des prix supérieurs à ceux qui prévaudraient dans un univers parfaitement concurrentiel. Ce résultat n’est valable que si les régies publicitaires des grandes chaînes de télévision ne sont pas en collusion : les décisions du Conseil de la concurrence en la matière semblent indiquer que l’existence d’une entente sur le prix des espaces publicitaires ne peut être caractérisée. En revanche, le Conseil a considéré en 2001 que TF1 et sa filiale TF1 publicité, en détenant une part de marché nettement plus importante que celle de leur concurrence immédiat, France Télévisions Publicité, étaient entre 1993 et 1997 en abus de position dominante sur le marché de la publicité télévisuelle. A cette occasion, TF1 fut condamnée à une sanction pécuniaire d’un montant de 1,2 millions d’euros.

Le graphique suivant résume de manière très schématique le fonctionnement du marché des spots publicitaires à la télévision :


La quantité de spots publicitaires vendus est indiquée en abscisses, le prix du spot de pub en ordonnées. La courbe de demande de spots est une fonction décroissante des prix pratiqués, alors que l’offre d’espaces publicitaires est totalement inélastique, pour les raisons mentionnées plus haut. L’équilibre sur ce marché se fixe au point E, situé à l’intersection des courbes d’offre et de demande : en ce point, le prix du spot de pub est égal à PE et le nombre de spots vendus à QE. Le rectangle colorié en jaune mesure le total des recettes publicitaires perçues par les régies publicitaires des chaînes publiques et privées. Ces recettes sont égales au prix unitaire du spot publicitaire multiplié par la quantité vendue, soit PE*QE. La part qui revient à chacune de régies publicitaires est indiquée par le découpage du rectangle en trois portions : TF1 (55%), M6 (25%) et France Télévisions (20 %).

II/ Quel sera l’impact de la suppression de la publicité sur les chaînes publiques ?

Dans ce contexte, quel sera l’impact de la suppression des espaces publicitaires sur les chaînes publiques (on ne prend pas encore en compte la création d’une taxe sur les spots publicitaires diffusés sur les chaînes privées) ?

Graphiquement, la fin de la publicité sur les chaînes de France Télévision se traduira par un déplacement vers la gauche de la courbe d’offre de spots publicitaires. L’ampleur de déplacement sera égal à la part de marché détenue par France Télévisions dans le total des recettes publicitaires des chaînes de télévision, soit 20% :


Ce déplacement de la courbe d’offre de spots publicitaires aura trois effets :

1/ une réduction de 20 % du nombre total de spots publicitaires diffusés à la télévision ;

2/ une augmentation du prix du spot publicitaires qui va dépendre de la forme de la courbe de demande de spots publicitaires : une demande très élastique (très sensible aux prix, donc plutôt « horizontale ») se traduira par une faible augmentation des prix alors qu’une demande très inélastique (très peu sensible aux prix, dont plutôt « verticale ») se traduira par une forte augmentation des prix.

3/ en l’absence de taxe sur les spots publicitaires, l’augmentation du prix de l’espace publicitaires sur les chaînes privées se traduira par une augmentation de leurs recettes publicitaires globales. Graphiquement, ce supplément de recettes publicitaires est représenté par le rectangle colorié en vert : plus l’élasticité de la demande de spots publicitaires est faible, plus ce supplément de recettes sera important.

III/ Quel sera l’impact de la création d’une taxe sur les spots publicitaires ?

Que se passe-t-il maintenant si l’Etat décide de créer une taxe sur les spots publicitaires diffusés sur les chaînes privées, afin de compenser le manque à gagner des chaînes publiques, soit 830 millions d’euros par an ?

La première question qui se pose est de savoir qui va réellement payer cette taxe : Les annonceurs ou les régies publicitaires ? Le second principe de l’incidence fiscale, énoncé par Petitsuix dans ce post et appliqué au cas des cotisations sociales par votre serviteur stipule qu’en général, la taxe sera payée par le côté le moins « élastique » du marché, autrement dit par les agents économiques qui n’ont pas la faculté de « refourguer » la taxe à d’autres. Dans le cas des spots publicitaires, l’application de ce principe signifie que ce sont les régies publicitaires qui vont payer l’intégralité de la taxe, puisque l’offre d’espaces publicitaires est totalement inélastique. Pour s’en convaincre, imaginons que les régies publicitaires des chaînes de télévisions privées décident de répercuter l’intégralité de la taxe sur le prix des spots qu’elles proposent aux annonceurs : dans cette situation, la demande d’espaces publicitaires sera inférieure à l’offre, si bien que toutes les chaînes de télévision auront intérêt à réduire leurs prix pour attirer les annonceurs, jusqu’à ce que la demande soit de nouveau égale à l’offre (elle-même inchangée), c'est-à-dire jusqu’au moment où le prix taxe comprise sera égal au prix qui prévalait avant la création de cette taxe. Les régies publicitaires des chaînes privées paieront donc l’intégralité de la taxe. La structure oligopolistique du marché des espaces publicitaires et la position dominante de TF1 n’y changeront rien : en présence d’une offre totalement rigide, le prix incluant la taxe ne pourra pas excéder le prix de l’équilibre sans taxe.

La seconde question posée par la création de cette taxe est celle de son montant. Quel est le taux que devra fixer l’Etat pour permettre de compenser les pertes de recettes publicitaires des chaînes publiques, soit 830 millions d’euros ? La réponse à cette question dépend du prix du spot publicitaire qui prévaudra lorsque la publicité aura disparu des chaînes publiques, ce prix étant lui-même fonction de l’élasticité de la demande de spots publicitaires. Le graphique suivant indique que le taux de cette taxe, mesuré par l’écart entre le prix P1 (taxe comprise) et le prix P2 (hors taxe), devra être fixé de manière à ce que les revenus engendrés par la taxe (le rectangle colorié en bleu) compensent le manque à gagner des chaînes publiques (le rectangle colorié en rouge) :


Le taux t de la taxe qu’il faudra appliquer aux spots publicitaires diffusés par les chaînes privées peut même être précisément calculé. Il s’écrit : t=0,25*(1/(1 + (0,2/ε))) où ε désigne l’élasticité-prix de la demande de spots publicitaires (1). Si la demande de spots publicitaires est très sensible aux prix (élasticité infinie), alors il faudra appliquer une taxe de 25% ; si la demande est très peu sensible aux prix (élasticité nulle), alors on pourra se contenter d’une taxe très faible. En fonction de la valeur de l’élasticité-prix de la demande d’espaces publicitaires, le taux de taxe qu’il faudra appliquer sera compris entre 0 et 25%.

Le graphique précédent permet de constater que la création d’une taxe sur les spots publicitaires aura pour effet de « rogner » sur le supplément de recettes publicitaires engrangées par les chaînes privées à la suite de la suppression de la publicité sur les chaînes publiques. Dans le cas particulier illustré sur ce graphique, les recettes publicitaires des chaînes privées auront quand même augmenté au total (le supplément net de recettes étant mesuré par le rectangle colorié en vert), parce que la demande est assez peu élastique.

Mais on pourrait tout aussi bien se retrouver dans une situation telle que les recettes publicitaires des chaînes privées diminueront si une taxe est mise en place pour compenser le manque à gagner des chaînes publiques. Ce sera le cas si la demande de spots publicitaires est suffisamment élastique (sensible au prix). Le graphique suivant permet en effet de constater que dans cette situation, les recettes publicitaires globales des chaînes privées seront plus faibles qu’avant :


Sur ce graphique, la partie hachurée du rectangle bleu indique la perte de recettes publicitaires des chaînes privées engendrée par la création d’une taxe sur les spots de pub.

La fin de la pub sur le service public n’est donc pas forcément une bonne affaire pour TF1 et M6. Pour qu’elle le soit, il faudrait que la demande ne soit pas trop élastique. On peut même calculer grossièrement le seuil d’élasticité-prix de la demande d’espaces publicitaires au-delà duquel la création d’une taxe sur les spots de pub serait une mauvaise affaire pour les chaînes privées. Ce seuil correspond à la situation où le prix hors taxe du spot (noté P2) est égal au prix qui prévalait avant la suppression de la publicité sur les chaînes publiques (noté P0) : si P2 est supérieur à P0, alors les chaînes privées seront gagnantes ; si P2 est inférieur à P0, elles seront gagnantes. Un calcul rapide montre que l’élasticité-prix de la demande de spots publicitaires au-delà de laquelle les chaînes privées subiront des pertes est égal à 0,8 (2). Ce niveau d’élasticité correspond à une demande très sensible aux prix: il signifie que si le prix du spot de pub augmente de 10%, la demande de spots diminue de 8%. L’élasticité réelle de la demande de spots publicitaires se situe sans doute en dessous d’un tel niveau. On peut donc en conclure que la création d’une taxe sur les spots publicitaires ne devrait pas empêcher TF1 et M6 de bénéficier de la suppression de la publicité sur les chaînes publiques.

C’est d’autant plus probable que d’après les déclarations du Président, une partie de la perte de recettes publicitaires de France Télévisions pourrait être compensée par la création d’une taxe « infinitésimale » prélevée sur le chiffre d’affaires des opérateurs Internet et de téléphonie mobile. Si tel était le cas, le prélèvement opéré sur les recettes publicitaires des chaînes privées serait encore plus faible, ce qui minimiserait considérablement l’impact négatif de la taxe pour TF1 et M6.

Dans ces conditions, on comprend que les actions des deux principales chaînes privées de télévision aient flambé juste après l’annonce faite par le Président Sarkozix : le 8 janvier, l’action TF1 augmentait de 10% :


Le même jour, l’action M6 grimpait de 6% :


L’euphorie n’aura cependant été que de courte durée : les cours des deux actions sont redescendus à des niveaux proches de leurs niveaux antérieurs dès le lendemain. Il faut sans doute voir là une certaine forme de prudence face au flou qui entoure encore les projets du gouvernement en matière de réforme du financement de l’audiovisuel public. Une autre raison susceptible d’expliquer cette correction des cours boursiers est que les actionnaires de TF1 et M6 ont pu anticiper une privatisation prochaine d’une partie des chaînes publiques, rendue nécessaires par l’insuffisance des ressources dégagées par une taxe sur les spots publicitaires, ce qui annulerait le bénéfice tiré de la réduction du nombre total de spots diffusés et donnerait naissance à des concurrentes autrement plus dangereuses que les actuelles France 2, France 3 et France 5.

Il reste que ces soubresauts financiers montrent que le temps de cerveau disponible a encore de beaux jours devant lui…


NOTES :

(1) Détails du calcul :
A la date t=0, les chaînes publiques et privées ont le droit de diffuser des spots publicitaires. A la date t=1, la publicité est supprimée sur les chaînes publiques et les pertes de recettes compensées par la création d’une taxe (dont le taux est noté t) sur les spots diffusés par les chaînes privées.
Soit P0 et Q0 respectivement le prix du spot publicitaire et le nombre de spots vendus en t=1. Soit P1 et Q1 respectivement le prix taxe comprise du spot publicitaire et Q1 le nombre de spots vendus en t=1.
Le taux de taxe t doit être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t =0,25*P0/P1 (i)
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε =(∆Q/Q)/ (∆P/P), où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. On peut donc écrire :
∆P/P = (P1-P0)/P0 = (1/ε)*(∆Q/Q)
Cette équation peut se réécrire :
P0/P1 = 1/(1+ (0,2/ε))
En remplaçant cette expression dans l’équation (i), on trouve que le taux de taxe t s’écrit :
t = 0,25*(1/(1 + (0,2)/ε))

(2) Détails du calcul :
En t=1, le prix hors taxe du spot publicitaire en deçà duquel les recettes publicitaires des chaînes privées seront inférieures aux recettes publicitaires de la période 0 est tel que P1*(1-t)=P0 (ii).
Le taux de taxe t doit lui-même être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t= 0,25*P0/P1
En remplaçant le taux de taxe t par cette valeur dans l’équation (ii), on trouve que pour que les chaînes privées soient « gagnantes », il faudrait que le prix du spot de publicité (taxe incluse) soit supérieur de 25% au prix de la période 0 :
∆P/P = (P1-P0)/P0 = 0,25
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε = (∆Q/Q)/(∆P/P)
où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. Une augmentation de 25% du prix du spot de pub pour une réduction de 20% des quantité vendues correspond donc à une élasticité-prix de la demande de spots publicitaires ε égale à :
ε = (0,2 / 0,25) = 0,8
_Julien_

Lire la suite...

mercredi 9 janvier 2008

Evaluation des politiques publiques (7/7) : chez les Goths


Regarder de près la situation qui prévaut chez les Goths en matière d’évaluation des politiques publiques est instructif pour mesurer à la fois les limites de l’organisation gauloise que nous prenons trop souvent pour une évidence gravée dans un menhir par Toutatis. On a vu comment les réformes Hartz avaient été d'emblée évaluées (avec un succès très relatif tant en termes de méthode que du point de vue des résultats); ce post a pour objectif de montrer comment les prévisions macroéconomiques et de finances publiques (déficit, dette) sont réalisées en Allemagne.

L’idée est que, si les économistes allemands se trompent sans doute autant que leurs cousins d'outre-Rhin, la Germanie est mieux outillée que la Gaule pour organiser de manière transparente la production de prévisions crédibles afin qu'un débat plus serein sur la politique budgétaire du gouvernement puisse avoir lieu. Cette meilleure organisation est pour partie liée à des caractéristiques institutionnelles (rôle accru en droit – constitution – et en fait – moyens humains – du parlement, fédéralisme) qu’il est sans doute difficile d’importer chez nous, mais pour partie aussi liée à une répartition différente des tâches, qui pourrait, elle, faire l’objet d’une adaptation avantageuse dans l’Hexagone.

La préparation du budget chez les Goths

La définition du cadre macroéconomique (quelle croissance du PIB l’année prochaine ?) dans lequel s’inscrit la préparation du budget est caractérisée en Allemagne, à la différence de la France, par le fait que le gouvernement n’y joue qu’un rôle secondaire. Alors qu’en France les hypothèses de croissance et de recettes fiscales sur lesquelles reposent le budget sont fabriquées en interne par le ministère des Finances, en Allemagne, le ministère des Finances se voit en quelque sorte imposer les paramètres de l’extérieur, ce qui rend les hypothèses plus crédibles et permet au débat de se concentrer sur les vraies questions.

En pratique, un gouvernement qui peut cuisiner lui-même ses hypothèses de croissance et de recettes fiscales va avoir tendance à être trop optimiste ou trop pessimiste selon ses objectifs. S’il veut expliquer à ses citoyens qu’on peut dépenser sans compter, il aura tendance à surestimer la croissance à venir, s’il veut au contraire leur faire comprendre qu’il faut se serrer la ceinture, il aura tendance à la sous-estimer (dans la réalité, ce second biais est beaucoup plus rare…). Après coup, le gouvernement se retrouve souvent devant une dérive de la dépense qu’il ne peut couvrir avec des recettes qui sont finalement plus limitées que prévu. Il a donc à faire face à un déficit plus important que prévu ; à une augmentation possible de sa dette, et aux foudres de ses partenaires européens qui lui reprochent de ne pas tenir ses engagements.

La chronologie de la préparation d’un budget est en gros la suivante. Nous sommes en juin 2000 : la préparation du budget pour l’année 2001 se déroule dans la plupart des pays de l’Union européenne à partir de juillet et le budget est voté par le Parlement avant la fin de l’année 2000. Or en juillet 2000, on connaît uniquement ce qu’à été la croissance au premier trimestre 2000 : on doit donc avoir une vision à un horizon distant de 7 trimestres, dont 6 qui n’ont pas encore eu lieu, pour savoir ce qu’on peut prévoir de dépenser en 2001. Il est clair que cet exercice est difficile et que les prévisions qui sont faites se révèlent souvent fausses, ex-post. La question est de savoir si elles sont fausses car activement biaisées, ou fausses juste en raison d’erreurs de prévisions « neutres ».

Le système allemand semble mieux garantir cette neutralité que le système français. Au printemps, les principaux instituts de conjoncture économique (ils étaient jusque tout récemment 6, ils sont désormais 5) réalisent une prévision de croissance consensuelle qu’ils rendent publique (dans certains cas, s’il est difficile d’atteindre un consensus, des éventuelles « opinions divergentes » peuvent être contenues dans le rapport). Le gouvernement annonce dans les jours qui suivent sa propre prévision de croissance. Bien entendu, il est libre d’annoncer ce qu’il veut, mais il ne peut ignorer la prévision des instituts et doit s’expliquer s’il s’en éloigne. En pratique, l’organisation d’une prévision indépendante consensuelle et officielle renchérit sensiblement le coût politique et en termes de crédibilité d’une prévision divergente voir « trafiquée » qui serait par exemple ½ point au-dessus du consensus.

Quelques semaines plus tard, le « Groupe de travail des estimations fiscales » se rassemble, et produit, sur la base de l’hypothèse de croissance annoncée par le gouvernement et des données les plus récentes concernant les recettes fiscales, une prévision de l’ensemble des recettes fiscales pour l’année suivante. De la même manière, le ministère des Finances doit s’appuyer sur cette prévision pour préparer son projet de loi de finances : non que cela soit prévu dans la loi, mais là encore, le coût politique d’une déviation est important et doit être mesuré : il est ardu de justifier que sur la base des mêmes données et des mêmes hypothèses économiques, les services du ministère des Finances prévoient plusieurs milliards d’euros de recettes supplémentaires.

Les Instituts de conjoncture chez les Goths

Qui sont ces Instituts et ce « Groupe de travail » qui donnent finalement le « la » de la discussion budgétaire en Allemagne ?

Les Instituts de conjoncture sont des instituts de recherche économique et de conjoncture indépendants (même s’ils dépendent lourdement de fonds publics), qui rassemblent en pratique les tâches qui sont en France pour l’essentiel réalisées par les différentes divisions de l’Insee qui sont chargées de réaliser des études, et par l’(ex-)Direction de la Prévision (voir le post sur l’évaluation en France). Ces instituts qui sont répartis sur tout le territoire allemand (Ifo à Munich, DIW à Berlin par exemple) sont en concurrence entre eux, et pas avec l’Office fédéral de la statistique qui se contente de produire des données statistiques et de les mettre à disposition (un monopole d'exploitation des données fausserait la concurrence).

Les instituts sont régulièrement évalués par leurs pairs en fonction de leurs performances académiques et de leur capacité à alimentater le débat public. En cas de mauvais résultats, ils peuvent être exclus de la « guilde » des « principaux instituts » et donc ne plus avoir la possibilité de réaliser la « prévision consensuelle » (qui, au passage, est grassement rémunérée). Cette menace n’est pas que théorique puisque c’est ce qui est arrivé l’année dernière à l’institut HWWA de Hambourg devenu depuis HWWI, et plus récemment au DIW de Berlin (je reviendrai sur cette affaire instructive dans un post prochain).

Le « Groupe de travail des estimations fiscales » rassemble quant à lui les experts en finances publiques de ces mêmes instituts et ceux du gouvernement (au niveau fédéral et régional). Le « Groupe de travail » est donc moins indépendant mais reste une enceinte où les experts extérieurs au gouvernement prennent une part active, ce qui n’est pas le cas en France où il est difficile à un expert indépendant de contester de manière informée les projections de recettes fiscales du gouvernement...

Moralité...

Au total, il est quand même bien difficile de mettre en évidence une qualité supérieure de la procédure budgétaire en Allemagne par rapport à la France, au sens où les mauvaises ou bonnes surprises sur les recettes seraient moins fréquentes outre-Rhin.

Il est cependant intéressant de noter que la confiance du public dans les chiffres qui sont données par le gouvernement semble plus importante. La méfiance endémique qui règne en France sur les chiffrages qui précèdent le budget n’existe pas en Allemagne, puisque ceux-ci sont fabriqués en dehors du gouvernement. Cela permet à la discussion de se concentrer sur les sujets fondamentaux : répartition des dépenses entre les différents ministères, efficacité des nouvelles dépenses proposées, etc.

_Fabien_

Lire la suite...

jeudi 3 janvier 2008

Faut-il donner un supplément d'âme aux "business schools" ?


Pour commencer la nouvelle année, nous vous invitons à traverser l’Atlantique pour découvrir le monde si étranger aux gaulois des « business schools » américaines. Nous allons en effet discuter d’un livre paru récemment intitulé : From higher aims to hired hands : The social transformation of American business schools and the unfulfilled promise of management as a profession écrit par un sociologue de la Harvard Business School, Rakesh Khurana. Il s’agit d’une petite histoire de la « business school » depuis sa naissance à la fin du 19ème siècle jusqu’aujourd’hui. L’angle d’attaque du livre est de prendre à la lettre l’objectif initial de ces écoles qui était de faire des « managers » une profession au même titre que les médecins et les avocats, et de voir comment cet objectif a pu être réalisé ou dévoyé depuis lors. Cette question pourrait faire l’objet de plusieurs posts tant la question plus générale de la possibilité d’un « savoir » en gestion a été maintes fois posée par des livres retentissants et quelques contributions de la blogosphère. Du point de vue français, ce livre a aussi l’avantage de détailler l’organisation d’une filière éducative ayant une philosophie opposée en tous points à notre modèle universitaire, et qui a formé le plus étrange des présidents américains.

Qu'est-ce qu'une "business school" ?

Avant toute chose, comment pourrait-on traduire en français une institution aussi américaine ? Le plus simple serait d’en faire l'équivalent de nos écoles de commerce. Une telle identité est d’ailleurs aujourd’hui revendiquée par la plupart de ces dernières, pour des raisons de visibilité internationale. Or il existe de très fortes divergences qui ne sont pas encore résorbées : d’une part, le produit phare des « business schools », le Master of Business Administration (MBA), est décerné en général à des étudiants ayant déjà eu auparavant une expérience professionnelle et dont l’âge se situe le plus souvent entre 25 et 30 ans, alors que le produit phare des écoles de commerce françaises, le diplôme de Grande Ecole, est décerné à des étudiants moins expérimentés et plus jeunes ; d’autre part, les « business schools » sont adossées dans l’esprit et dans la lettre à l’Université tandis que les écoles de commerce françaises se gardent bien de revendiquer de tels liens et rechignent souvent à mener des activités de recherche dignes de ce nom. L’exception à cette règle est certainement l’INSEAD, mais cette institution se garde bien de se revendiquer comme une grande école, et peut être considérée comme une insitution « off-shore » de l’enseignement supérieur français, avec un recrutement international dès la création en 1957 et une absence de financement public.

Qu'est-ce qu'un manager "professionnel" ?

Rakesh Khurana montre dans le livre que l’invention des business schools est le fait de quelques dirigeants d’université et de grandes entreprises émergentes de la fin du 19ème siècle. Durant cette période, les grandes sociétés anonymes étaient vécues par le plus grand nombre comme une menace à la démocratie de petits propriétaires imaginée par les fondateurs des Etats-Unis. Les fondateurs des « business schools » étaient déterminés à améliorer l’image de ces sociétés en formant une nouvelle « profession », les managers, dont la vocation serait de gérer de manière impartiale et efficace ces entreprises dans le sens de l’intérêt général, à l’intersection entre le travail et le capital. Leur modèle était celui des « Medical Schools » et des « Law Schools » formant aux métiers de médecin et d’avocat, métiers qui remplissent les trois critères par excellence d’une « profession » : la maîtrise d’un savoir spécifique soutenu par une recherche active, l’adhésion à un code de conduite formel ou informel, et un idéal de service.

Ce qui est étonnant, c’est que cette distinction traditionnelle à l’intérieur de l’Université a été à notre connaissance peu analysée par la science économique. Elle peut pourtant mener à des débats bruyants, comme l’a montré récemment la polémique sur la possibilité pour Sciences-Po de préparer à l’examen du Barreau. Pour l’auteur, ces écoles professionnelles contribuent à résoudre les problèmes d’asymétries d’information qui sont particulièrement importants dans les métiers en question, et ce à la fois en inculquant une éthique d’honnêteté et en instaurant une instance de contrôle par les pairs. Or de tels mécanismes ne sont efficaces que s’ils apparaissent suffisamment crédibles. Le passage obligé par une école professionnelle distincte apparait alors indispensable.

Or autant les trois critères semblent globalement respectés dans le cas du droit et de la médecine, autant cela s'est révélé plus compliqué dans le cas du « management » . Et ce que l’auteur s’attache justement à décrire, c’est la façon dont progressivement les « business schools » se sont éloignées de cet idéal professionnel pour devenir de simples pourvoyeurs de diplômes et de réseaux.

La tortueuse quête d'un savoir universitaire en gestion

Dans un premier temps, c’est le contenu de la formation qui a le plus posé problème ; il était toujours tentant de proposer d’une part des cours décrivant le fonctionnement de métiers bien définis dans telle ou telle industrie par tel ou tel praticien reconnu et d’autre part des cours proposés par les départements voisins, notamment en Economie ou en Psychologie. Ceci constituait néanmoins une entrave au développement de la filière telle qu’envisagée par ses fondateurs, pour trois raisons. D’une part, de tels contenus subissaient alors fortement la concurrence de petites écoles à but lucratif qui pullulèrent à mesure que les métiers d’encadrement devenaient de plus en plus techniques, et ceci avait tendance à diminuer le niveau d’exigence à la fois pour les élèves et les professeurs recrutés : le seul avantage comparatif des "business schools" était alors d'attirer les fils de bonne famille grâce au prestige associé à l'Université. D’autre part, une telle manière de procéder avait pour conséquence de mener à une hétérogénéité extrême des contenus d’une « business school » à l’autre, ce qui achevait de rendre la filière peu crédible. Enfin, ce fonctionnement entrait en contradiction avec le but initial qui était de former à un nouveau type de métier, celui de « general manager », qui consisterait à régler des problèmes de gestion qui se posent dans des secteurs très divers.

Une première innovation lancée par la Harvard Business School fut l’introduction dans les années 1920 de la méthode des cas (déjà auparavant utilisée en Droit), qui consiste à décrire en détail le contexte d’une entreprise fictive ou non ainsi que les problèmes auxquelles elle fait face pour ensuite faire suggérer par les élèves des solutions possibles. Cette méthode est encore très largement utilisée, tout du moins dans les premières séquences d’enseignement, et ce y compris dans les écoles de commerce françaises comme pourra en témoigner n’importe quel ancien élève (Ah ! Gravelin quand tu nous tiens…). Néanmoins, ce système avait l’inconvénient de ne pas être suffisamment systématique et de réduire la recherche en gestion à la simple constitution de cas ; en particulier, l’écriture de quelques cas était l’unique pré-requis pour obtenir un doctorat en gestion.

Une seconde réaction fut d’institutionnaliser la coopération entre « business schools » via la création de l’AACSB au début du XXème siècle. Mais dans un contexte de croissance très forte de la demande pour ces formations (visible dans le graphique ci-dessous), l’association se réduisit vite à un organisme d’accréditation aux critères d’admission très souples et très réticent à fournir une grille de distinction des « business schools ».


C’est finalement l’intervention d’une fondation privée, la Ford Foundation, qui a imposé de l’extérieur une normalisation du fonctionnement des « business schools », au tournant des années 1950. Ceci est suffisamment étrange du point de vue gaulois pour que l’on s’y intéresse un peu.

Rappelons d’abord qu’aux Etats-Unis, la structure des dons aux universités était particulièrement concentrée au début du XXème siècle, à une époque où le financement public était plus faible qu’aujourd’hui. Pour s’en faire une idée, il suffit de rappeler que les fondations Carnegie et Rockefeller représentaient les deux tiers de l’ensemble des dons aux universités américaines entre 1900 et 1935. Mais une très large majorité de ces dons s’était concentrée sur les sciences dures et la médecine. La fondation Ford, quant à elle, fut créée en 1935 par Henry Ford mais ne commença son activité qu’au début des années 1950 à la suite des décès successifs de Henry Ford et de son fils. Elle se fixa alors comme objectif de dépenser 500 millions de dollars de l’époque (environ 2,5 milliards de dollars de 2005) pour « améliorer le bien-être humain », avec 5 thèmes d’action : l’établissement de la paix dans le monde, le renforcement de la démocratie, le soutien à l’économie, l’éducation et l’amélioration des relations humaines (manquaient pas d'ambition ces Ford !). Concernant le soutien aux universités, cette Fondation cherchait un moyen de se distinguer des grosses fondations concurrentes et l’a trouvé en se focalisant sur le soutien aux sciences sociales (Economie, Sociologie, Psychologie), ce qui constitue comme un pied-de-nez à ceux qui pensent en France que ces matières sont incapables d’attirer des fonds privés. Pour enfoncer le clou, rappelons que c’est la Fondation Ford qui a financé la construction de la Maison des Sciences de l’Homme de l’EHESS ainsi que la création du Centre de Sociologie Européenne (dirigé par Raymond Aron, puis Pierre Bourdieu…).

Mais revenons au sujet des « business schools » : la fondation Ford décida de dépenser 35 millions de dollars spécifiquement pour réformer le système des « business schools » dans un sens très précis : encourager l’établissement d’une science du management fondée sur les acquis de l’Economie, de la Psychologie et des Mathématiques. Pour y parvenir, la Fondation mit d’une part l’essentiel de son argent sur deux « business schools » destinées à devenir les leaders de la réforme, Harvard et Carnegie-Mellon, et d’autre part organisa la diffusion de ces meilleures pratiques en commandant un rapport très largement diffusé sur le sujet, en organisant des séminaires de formation des professeurs en place ainsi qu’en proposant des fonds aux « business schools » qui adopteraient ces nouvelles pratiques.

En quoi consistaient exactement ces nouvelles pratiques ? Il s’agissait de réformer de fond en comble le mode de formation et de recrutement des enseignants : alors qu’auparavant ces derniers n’étaient pas toujours docteurs et encore moins enclins à mener une recherche active, il était désormais impératif de recruter en priorité dans le vivier des Docteurs en Economie, en Sociologie, en Psychologie ou en Mathématiques et d’inciter fortement à publier dans les revues de ces matières. La stratégie de la Fondation fut un véritable succès et à la fin des années 1960, lorsque la Fondation mit fin à ce programme de don, le contenu des formations était devenu beaucoup plus homogène, orienté autour des sciences sociales et des disciplines quantitatives et recrutant par la même occasion des élèves de meilleure qualité via les tests mis en place à l’époque, tels que le GMAT. Ce système d’enseignement est d’ailleurs encore en place aujourd’hui.

La lente disparition du manager efficace et bienveillant

Ce que montre ensuite Khurana, c’est que cette maturation de l’enseignement de la gestion est allée de pair avec un éloignement de l’idéal d’une « profession » de manager. Dans un premier temps, la scientisation de la gestion fut considérée comme garante de managers honnêtes et inspirés par un idéal de service : la Seconde Guerre Mondiale avait montré comment les grandes entreprises pouvaient servir l’intérêt général ainsi que l’étendue des ressources que l’on pouvait tirer d’une gestion plus rationnelle. La réforme de l’enseignement menée par la fondation Ford n’avait dans ce contexte pas cru bon d'insister sur l’inculcation de règles de bon comportement.

Toutefois, à partir des années 1970 et avec les contre-performances de l’économie américaine, les « managers » allaient lentement perdre leur aura, et les bénéfices tirés d’une « science » du management allaient être de plus en plus contestés. Deux fronts se sont alors constitués contre l’idéal d’un manager professionnel aux compétences alimentées par une recherche « scientifique ».

Dans le grand public, les méthodes d’enseignement des « business schools » furent de plus en plus critiquées au nom du « bon sens » par la presse, mais aussi par des hommes politiques. Par ailleurs, les anciens élèves firent de plus en plus état de leurs doutes quant à l’utilité de techniques comme la programmation linéaire ou la théorie des jeux pour prendre des décisions. C’est notamment dans les années 1980 qu’ont été publiés dans la presse les premiers classements des MBA américains fondés sur des enquêtes indépendantes auprès des étudiants, des recruteurs et des doyens de business schools. Ces classements ont été très vite adoptés par les élèves, qui payaient déjà des frais d’inscription très élevés, puis par les « business schools » elles-mêmes. Ce qui s’est trouvé valorisé alors plus que tout, c’est la capacité à placer les élèves dans les meilleures positions sur le marché du travail : les bureaux de recrutement ont été fortement développés ainsi que les institutions d’anciens élèves.

Cette logique de marché n’est pas mauvaise en soi, mais selon Khurana, elle sape l’idéal professionnel du « manager » en faisant des étudiants non plus le réceptacle de connaissances et de valeurs à respecter mais de simples clients qui valorisent dans la « business school » uniquement son diplôme et son réseau d’anciens élèves plutôt que ce que l’on y apprend. L’auteur fait ainsi état d’une relation aujourd’hui dégradée entre des élèves qui méprisent la formation et la veulent la plus simple possible et les enseignants qui dispensent cette formation, avec une pression très forte pour donner des notes aussi peu discriminantes que possibles et pour interdire de transmettre ces notes aux recruteurs.

Sur le front académique, l’idéal du manager bienveillant a été largement écorné par les nouvelles théories de l’agence, popularisées par Michael Jensen et William Meckling dés 1976 : d'après ces théories, le manager n’est plus cette personne impartiale qui recherche à atteindre la plus grande efficacité pour l’entreprise mais un « agent » qui n’est que mal contrôlé par un « principal », l’actionnaire, et qui cherche à maximiser son bien-être personnel via des acquisitions justifiées seulement par l’appétit de pouvoir, plutôt que par le souci d'augmenter la valeur de l’entreprise. La popularisation de cette littérature a eu deux conséquences : à court-terme, les OPA hostiles menées dans les années 1980 sur de gros conglomérats ont pu être présentées par leurs promoteurs comme contribuant à l’intérêt général ; à long terme, les cours donnés dans les MBA se sont trouvés de plus en plus influencés par cette littérature, ce qui a contribué à légitimer l’idée que les managers sont fondamentalement égoïstes et doivent simplement voir leurs incitations alignées avec l’intérêt le mieux défini, i.e. celui des actionnaires, via des systèmes de stock-options.

Cette nouvelle orientation des cours est devenue d’autant plus populaire que les diplômés de MBA se sont de plus en plus orientés vers des métiers dans lesquels cette vison du « manager » est la plus naturelle : ainsi entre 1965 et 1985, le nombre de diplômés de la HBS choisissant de travailler dans la finance et dans le conseil plutôt que comme cadres d’entreprise était déjà passé de 23 à 52%, et l’on peut penser qu’aujourd’hui ces carrières sont devenues encore plus attractives. Freiner contre une telle évolution, c’est risquer de perdre des élèves, surtout dans une période où des diplômes de finance plus spécialisés et moins chers, tels le CFA sont apparus, et alors que les cabinets de conseil et de finance organisent souvent eux-mêmes la formation .

Tout ça pour ça ?

In fine, la véritable question posée par le livre est de savoir s’il existe vraiment une nécessité de faire du « management » une profession au sens fort du terme. La manière dont ont répondu les écoles à cette question, c’est de mettre en exergue non plus le « manager » qui résout des problèmes, mais le « leader » qui fait avancer des idées nouvelles. L’idéal ne serait plus d’intercéder entre le travail et le capital, mais plutôt d’accompagner les parties prenantes à l’entreprise vers de nouvelles opportunités. Vous seriez aujourd’hui bien en peine de trouver un site de business school dans lequel les mots « leader » ou « leadership » n’apparaissent pas ! Mais tout cela est pourtant bien flou, et ce que montre Khurana c’est qu’il n’existe pratiquement pas d’études académiques du « leadership » hormis ces fabuleux livres de confessions de dirigeants à succès. Les « business schools » choisissent alors de présenter le peu de choses qu’ont à dire les sciences sociales sur le sujet (avec un retour à Max Weber et son concept de domination charismatique), ou de mettre en situation les élèves face à de vrais problèmes de restructuration d’entreprises (un peu comme la filière Entrepreneurs d’HEC), ou enfin d’axer la formation sur l’introspection (dans le style « quel leader êtes-vous ? »).

Les « business schools » sont donc dans le flou, et pourtant le problème de l’éthique des dirigeants est devenu une tarte à la crème du débat public avec l’affaire d’Enron dans laquelle, rappelons-le, les cadres impliqués sont passés par les meilleures écoles. Dans le même temps, la régulation étatique se fait de plus en plus à contre-temps dans un monde des hautes sphères qui a de plus grandes facilités qu’auparavant à échapper aux griffes des Etats. Pour répondre à cette nouvelle crise de légitimité, Khurana se fait l’avocat d’un retour à l’inspiration initiale des « business schools ». Cela ressemble malheureusement plus à de l’incantation qu’à autre chose : il est dommage après une démonstration aussi éclairante d’en revenir au point de départ.

Ce que l'on pourrait aussi reprocher à l'auteur c'est de se focaliser uniquement sur les "business schools" les plus élitistes qui forment par définition les futurs membres des plus grandes sociétés ou de celles qui brassent le plus d'argent. Or la nouvelle frontière des "business schools" c'est peut-être autant l'introduction des principes d'une gestion efficace dans les PME que l'inculcation de principes éthiques dans les esprits des futurs dirigeants d'entreprises du Dow Jones. Comme nous l'avions déjà évoqué dans un post précédent, il se trouve que les PME américaines semblent avoir des pratiques managériales plus efficaces que les PME européennes : cela n'est peut-être pas tout à fait étranger à l'importance du MBA dans l'éventail des formations américaines.
_Laurent_

Lire la suite...

mercredi 2 janvier 2008

Felix sit annus novus !


_Ecopublix_

Lire la suite...

mardi 25 décembre 2007

L'élasticité en économie et à Noël


S’il est une profession pour laquelle la période des fêtes est cruciale, c’est bien celle de producteur de sapin de Noël. Certains seront peut-être surpris d’apprendre que le Gaulois se désintéresse de plus en plus du « vrai » sapin de Noël, à tel point que l’AFSNN (Association Française du Sapin de Noël Naturel) serait très inquiète. Le marché du sapin de Noël ne se porte pas au mieux et il doit de plus cette année faire face à une hausse des coûts d’exploitation qui va faire monter le prix de vente de l’arbre. Cette inflation risque encore d’éloigner certains consommateurs du résineux. Toute la question pour les producteurs est de connaître l’amplitude de cette baisse de la demande. Pour répondre à cette question, un économiste cherchera à estimer l’élasticité de la demande de sapin de Noël. Aïe ! Voilà encore que ces économistes utilisent leur langage incompréhensible ! D’autant plus qu’à Ecopublix nous avons déjà maintes fois utilisé ce fameux terme d’élasticité. Court post sur sa définition et son importance en économie.

I/ La définition de l'élasticité

Commençons par la définition : l’élasticité d’une grandeur Q par rapport à une grandeur P est définie comme le rapport entre le pourcentage de variation de Q et le pourcentage de variation de P. Elle mesure la sensibilité de Q à P. Par exemple si Q est la demande et P le prix, alors l’élasticité-prix de la demande est définie comme le rapport entre le pourcentage de variation de la demande d'un bien et le pourcentage de variation du prix de ce bien. Elle mesure donc la sensibilité de la demande par rapport aux variations de prix. On a coutume de dire qu’une élasticité de valeur e signifie qu’une augmentation de 1% modifie la demande de e%. L’élasticité possède ainsi une définition intuitive qui facilite son usage (1). Une autre qualité importante de l’élasticité est qu’elle est adimensionnelle, c'est-à-dire qu’elle ne dépend pas des unités dans lesquelles les grandeurs P et Q sont exprimées (les prix peuvent être exprimés en euros, dollars, ou couronnes suédoises, la valeur de l’élasticité restera inchangée). Le concept peut donc s’appliquer identiquement à tout domaine et tout pays où l’on souhaite mesurer la sensibilité d’une variable par rapport à une autre.

On peut définir l’élasticité par rapport à d’autres variables que le prix du bien. On pourra ainsi s’intéresser à l’élasticité-revenu de la demande d’un bien qui donnera le changement en pourcentage de la demande quand le revenu du consommateur varie de 1%. L’élasticité est dite croisée quand elle se réfère au prix d’un autre bien. Par exemple la valeur de l’élasticité du chauffage solaire par rapport au prix du pétrole a un intérêt non seulement pour les producteurs de panneaux solaires mais aussi pour les politiques environnementales

La courbe de demande nous fournit une illustration graphique de l’élasticité-prix de la demande (nous utilisons l’exemple de la demande mais on pourrait faire de même avec une courbe d’offre, ou de n’importe quelle variable). Nous avons expliqué qu’une élasticité élevée signifiait qu’une faible variation de prix se traduisait par une large variation de quantité. La courbe va donc être très horizontale, comme sur le graphique suivant :


On dira alors que la demande est élastique : une augmentation de prix se traduit par une forte chute de la demande (2). Par exemple, c'est parce que les compagnies aériennes font face à une demande très élastique que les compagnies « low cost » ont pu en profiter.

En revanche, une élasticité faible impose que la demande ne réagisse que très peu à la variation de prix. Sa courbe est donc très verticale, comme illustré sur le graphique suivant :


On dira alors que la demande est inélastique. Par exemple, la demande d’essence est inélastique car, au moins dans le court terme, les consommateurs ne réduisent que très peu leur consommation suite à la suite d'une augmentation du prix à la pompe.

II/ Elasticité et taxation

L’élasticité est donc un concept utile en ce qu'elle permet de caractériser de manière très simple l'allure d'une courbe de demande (ou d’offre) d’un bien. Cependant son utilité ne s’arrête pas là car beaucoup de résultats en économie dépendent de l’élasticité du bien et les économistes s’y réfèrent fréquemment. Nous avons déjà évoqué dans des billets précédents à quel point les conséquences des politiques publiques dépendaient des élasticités : marché du logement sur lequel l’offre de court terme est inélastique, partage des cotisations salariales et patronales, taxation des stocks-options, et taxation des époux. Il n’est pas étonnant que l’élasticité entre fréquemment dans les raisonnements impliquant taxations et subventions. Pour appréhender leurs effets, il est nécessaire de comprendre à quel point la demande du bien taxé va chuter. Or cette sensibilité est exactement mesurée par l’élasticité de la demande.

Prenons un célèbre exemple d’application. Un résultat important de la théorie économique de la taxation stipule que ce sont les biens les moins élastiques qui devraient être les plus taxés (règle dite de « l'élasticité inverse »). Armés de notre définition de l’élasticité, comment interpréter ce résultat sans pour autant construire un modèle complet de taxation? Imaginons qu’un bien soit taxé. Son prix va augmenter et sa demande chuter, plus ou moins fortement selon son élasticité. La demande d’un bien inélastique ne changerait presque pas en comparaison de la variation de son prix. Le gain de cette réforme pour le législateur correspond au revenu prélevé. Cependant la taxation engendre aussi une perte. Les consommateurs paient plus cher et par conséquent réduisent leur consommation, ce qui réduit leur bien-être. Il est facile de comprendre graphiquement que plus le bien est élastique, c’est-à-dire plus la courbe de demande est horizontale, et plus la différence entre le gain et la perte est élevée, comme on peut le voir sur le graphique suivant :


L’élasticité fournit un critère simple pour choisir quels biens taxer le plus fortement. Les gouvernements l’ont bien compris : les biens inélastiques (essence, cigarettes) sont particulièrement taxés. Au-delà de ce simple résultat de la taxation des biens, l’élasticité intervient dans nombre de raisonnements : taxation du revenu du travail (l’offre de travail la moins élastique sera plus taxée), pouvoir de monopole (une entreprise en monopole abuse plus de sa position dominante si la demande est inélastique), théorie de la firme (élasticité de substitution entre le travail et le capital), théorie de l’incidence fiscale (voir le post d’Overzelus)...

III/ Elasticité et sapins de Noël

Mais revenons à nos sapins de Noël. Un article de l’American Journal of Agricultural Economics estime deux élasticités de la demande d’arbre de Noël naturel en utilisant des données américaines. Les auteurs trouvent une élasticité prix égale à -0,674. D'après notre définition, cela signifie que si le prix du sapin de Noël augmente de 1%, la quantité demandée chute (puisque le signe est négatif) de 0,674%. En d’autres termes, si les pépiniéristes augmentent cette année leurs prix de 15% (comme anticipé ici), la demande devrait chuter de 0,674*15=10,11% (3). L’article ne s’arrête pas là et estime ensuite l’élasticité croisée de l’arbre de Noël par rapport au sapin artificiel et trouve une valeur de 0,188 : si le prix de l’arbre artificiel augmente de 1% alors les ventes d’arbres naturels augmenteront de 0,188%. Il y a donc substitution entre l’arbre naturel et celui en plastique puisque les consommateurs ont tendance à consommer plus du premier quand le prix du second augmente. C’est un autre intérêt de l’élasticité : elle permet de savoir quand et à quel point deux biens sont substituts (élasticité croisée positive, par exemple entre sapins naturels et artificiels), ou compléments (élasticité croisée négative, par exemple entre sapins de Noël et boules à accrocher aux branches).

La prochaine fois que nous parlerons d’élasticité, vous serez (j’espère) un peu moins troublés et vous pourrez faire le lien avec l’intuition derrière le concept. En attendant les billets Ecopublix 2008, toujours plus élastiques aux politiques publiques, bonnes fêtes à tous, joyeux Noël, et ne proposez pas au petit cousin qui vient de recevoir un kit de pyrogravure des mains du Père Noël fraîchement débarqué du Kyrgyzstan de mesurer l’élasticité du sapin, ça pourrait mal finir...


NOTES :

(1) Cette définition n’est cependant pas rigoureusement exacte puisque la définition mathématique à l’aide de dérivées ne considère pas un changement de prix de 1% mais un changement infinitésimal en pourcentage. Pour être précis, la définition exacte de l’élasticité est P/Q*(dQ/dP).
(2) Attention cependant à ne pas confondre la pente de la courbe de demande et élasticité. Sur tous les graphiques présentés ici la pente est constante, alors que l'élasticité ne l’est pas.
(3) Evidemment cette élasticité provient d’une étude réalisée sur données américaines, ce petit exercice n’a donc aucune valeur prédictive pour le marché français. L’élasticité de la demande française d’arbre de Noël n’a à ma connaissance jamais été estimée.
_Emmanuel_

Lire la suite...

mardi 18 décembre 2007

Combien d’impôt paie-t-on sur un euro de bénéfice ?


Est-il équivalent du point de vue fiscal de gagner des revenus de son activité et de gagner des revenus d’un patrimoine ? Question pleine de sens, qu’on a rarement posée aussi simplement, et dont la réponse contribuerait grandement à dissiper quelques malentendus ou à refréner quelques égarements poujadistes…Pour y répondre donc, Ecopublix a procédé en marchant en crabe : on a déterminé ici et ici quelques concepts clés de l’analyse fiscale (incidence fiscale, taux moyen et marginal, etc…) et puis Antoine a expliqué ici ce qui se passait du point de vue des revenus d’activité. Nous allons désormais tâcher de montrer combien d’impôt paie vraiment un euro de bénéfice, et comparer cela à un euro de salaire. Ce petit éclairage sur la structure des prélèvements sur les bénéfices tombe d’ailleurs à point nommé, le Projet de Loi de Finances pour 2008 (PLF2008) ayant considérablement, et en catimini, transformé la forme des impositions pesant sur les bénéfices….

I/ Les fondements de l’exercice

Le but du jeu est de rendre compte de l’effet de chacun des prélèvements existant dans notre système socio-fiscal sur 1 euro de bénéfice distribué sous forme de dividende. Evidemment, il existe tout un tas d’autres placements, de sorte que les bénéfices distribués ne sont qu’une des nombreuses manières de générer du revenu à partir d’un patrimoine, mais nous commencerons par là, avant d’élargir dans la mesure du possible notre analyse dans des posts à venir. Par ailleurs, nous nous contenterons d’une analyse descriptive, laissant au placard pour le moment les considérations théoriques (« est-il plus efficace/juste de taxer plus/moins les revenus du travail/du patrimoine? »).

Pour commencer, décrivons les prélèvements pesant ou susceptibles de peser sur les bénéfices et leur fonctionnement (nous nous appuyons dans un premier temps sur la législation en vigueur pour les bénéfices 2006). Tout d’abord, soyons clairs : les cotisations sociales ne pèsent pas sur les bénéfices, comme Overzelus en a admirablement administré la preuve. Le prélèvement le plus important, c’est donc tout simplement l’impôt sur les sociétés (IS), dit aussi « impôt sur les bénéfices des sociétés », dont le taux est égal à 33,33% du bénéfice. C’est une « flat tax » des plus classiques. Nous considérons ici que l’IS est payé à 100% par les bénéfices, ou pour le dire autrement, que l’incidence fiscale de l’IS est à 100% sur les bénéfices. Cette hypothèse est importante, bien que est discutable : a priori, il n’est pas impossible qu’une partie de l’IS soit reportée sur les salaires, ou même sur les prix. Par manque tragique d’études précise sur cette question, il est plus facile de faire l’hypothèse haute que l’intégralité de l’IS est payée par les bénéfices, mais nous verrons que relâcher cette hypothèse conduit à amender considérablement le tableau final.

Ensuite, il y a la TVA : là, nous ferons au contraire l’hypothèse que cet impôt est payé à 100% par les consommateurs, sous la forme d'un renchérissement des prix à la consommation. Evidemment, ceci n’est vrai qu’à long terme, et encore pas nécessairement complètement. Mais ceci reste quand même l’hypothèse la plus robuste : l’incidence de la TVA sur les bénéfices est donc supposée supposée nulle.

Après cela, vient habituellement la taxe professionnelle (TP) : malheureusement, l’assiette de la taxe professionnelle est très particulière, puisqu’il s’agit essentiellement des immobilisations depuis la suppression de la partie salaires dans l’assiette de la TP, et son taux varie énormément selon les régions/départements/communes, de telle sorte que le niveau moyen de TP payé par une entreprise est extrêmement variable. Nous avons donc décidé de l’exclure de notre analyse. Mais ceci porte peu à conséquence. En effet, la taxe professionnelle est désormais plafonnée en fonction de la valeur ajoutée (VA) : elle ne peut dépasser 4% de la VA, et dans la réalité seules 200 000 entreprises en France paient plus de 3,5% (en % de la VA) de TP nous dit le ministère des Finances. On pourrait toujours choisir de considérer un taux moyen de TP valable pour l’ensemble de l’économie française, mais cela masquerait inévitablement les grandes divergences locales : dans ce cas, le plus juste serait de rapporter la masse de TP payée (de l’ordre de 25 milliards) à la masse des bénéfices bruts (soit 1/3 du PIB) et l’on obtiendrait quelque chose de l’ordre de 4% de taux moyen de prélèvement au titre de la TP. Si l’on veut donc incorporer coûte que coûte la TP, il faudra donc rehausser de 4 points tous les taux moyens calculés par la suite. Au demeurant, la question de l’incidence de la TP reste pendante, et il n’est pas du tout évident que 100% de la TP porte sur les bénéfices, une grande partie étant probablement répercutée sur les salaires.

Après cela, cet euro de bénéfice est distribué comme nous l’avons dit sous forme de dividende, et à ce titre il est redevable de la Contribution Sociale Généralisée (CSG) et de l’impôt sur le revenu (IR). L’IR est le seul prélèvement à proprement parler progressif dans l’imposition des bénéfices, la progressivité dépendant du montant du revenu imposable. Son importance symbolique et sa complexité méritent qu’on s’y attarde quelques secondes.

II/ L’IR et l’imposition des dividendes

L’IR a récemment considérablement changé son traitement des dividendes. Historiquement, les dividendes étaient traités par le mécanisme de l’avoir fiscal dont le but était d’éviter la « double-imposition » des bénéfices, puisque ces bénéfices qu’on taxe à l’IR étaient déjà taxés à l’Impôt sur les sociétés. Attention louable du législateur, même si on peut se demander pourquoi diable compenser l’imposition à l’IS et pas à la TP ou à la CSG. Car l’IS n’est pas seul à avoir un effet a priori distorsif sur les revenus de la propriété. Passons. L’idée consistait donc à redonner au contribuable ce dont son bénéfice avait été amputé par l’impôt sur les sociétés. En contrepartie de la suppression de fait de l’IS, cela revenait à augmenter considérablement le revenu imposable d’un contribuable au titre de l’IR (puisque son revenu imposable augmentait de 33,33% du dividende brut ou, ce qui est équivalent, de 50% du dividende net d’IS) : comme le barème de l’IR est progressif (plus mon revenu est important, plus mon taux moyen augmente), ceci avait pour conséquence de faire augmenter rapidement le montant de l’IR payé.

L’avoir fiscal a été supprimé en 2005 et remplacé par un abattement de 40%. Techniquement, ceci revient à dire que le contribuable ne touche plus d’avoir fiscal, mais qu’en contrepartie son revenu imposable est beaucoup plus faible, donc qu’il paie un taux moyen d’imposition beaucoup plus faible sur son dividende net d’IS.

III/ Travail et capital, même combat

Au final, le fonctionnement de l’ensemble du système fiscal sur 1 euro de bénéfice est décrit dans le graphique suivant, qui donne le taux marginal de prélèvement pour les deux systèmes de l’IR (l’avoir fiscal et l’abattement de 40%) :


Le premier enseignement, c’est que l’imposition des bénéfices est, quel que soit le système, relativement progressive, et loin d’être « confiscatoire ». On oscille entre des taux marginaux de 10 à 55%, ce qui est loin des antiennes du type « les bénéfices sont surtaxés, nos entreprises sont pressurées, extorquées, etc… ».

On observe ensuite que le système de l’avoir fiscal, en supprimant complètement l’IS était au final plus avantageux que le nouveau système avec abattement qui, lui, maintient le prélèvement proportionnel de l’IS à 33,33%. Ceci, bien sûr, est fortement lié à notre hypothèse de départ, à savoir que l’IS pèse à 100% sur les bénéfices. Si l’IS venait à être répercuté sur les prix, ou sur les salaires, alors, le taux marginal baisserait de manière importante et il se pourrait même que le nouveau système soit au final plus avantageux que le système avec avoir fiscal, ce qui expliquerait l’explosion des dividendes distribués constatée dans les statistiques fiscales pour 2005. La question de l’incidence de l’IS est donc cruciale pour apprécier la progressivité globale du système, et on ne peut que regretter qu’aucun travail n’ait encore été mené (à notre connaissance) sur cet aspect de la fiscalité gauloise.

Dernier point important, le taux de prélèvement d’un euro de bénéfice est globalement comparable au taux de prélèvement d’un euro de revenu d’activité, comme le montre le graphique suivant :


La progressivité des prélèvements sur les revenus du travail peut même apparaître moins importante et le taux de prélèvement global plus élevé sur l’activité que sur les bénéfices ! Il faut toutefois souligner que le taux marginal sur les revenus d’activité inclut des cotisations sociales contributives, c’est-à-dire qui ouvrent des droits proportionnels à des contributions telles que l’assurance chômage ou la retraite. Ces cotisations ne sont donc pas forcément assimilables à 100% à un prélèvement, à tous le moins aux types de prélèvement qui pèsent sur les bénéfices.

Au final, ce qu’il est important de garder en tête, c’est qu’il y a globalement une mesure commune : les taux d’imposition du capital et du travail ne sont pas complètement aux antipodes. L’autre point c’est que jusqu’à aujourd’hui, l’imposition des bénéfices gardait un caractère assez progressif. Mais cette caractéristique, elle, pourrait disparaître…

IV/ La réforme de 2008 et le prélèvement libératoire ?

Le PLF2008 a en effet décidé d’instaurer un prélèvement libératoire de 18% sur les dividendes distribués en lieu et place de l’imposition de ces dividendes au barème de l’IR. La raison d’une telle réforme est désespérément simple : trouver de l’argent pour boucler le budget, quitte à se débarrasser des bijoux de famille ! Pourquoi ? C’est cristallin : le principe d’un prélèvement libératoire, c’est d’être payé immédiatement, au moment de la réalisation du revenu. L’Etat touche donc les recettes immédiatement. A contrario, les revenus soumis au barème de l’IR ne sont déclarés qu’en mars de l’année n+1 et perçus par l’Etat au cours de l’année n+1 : passer d’un système d’imposition au barème à un système de prélèvement libératoire permet de toucher deux fois les gains fiscaux une année donnée. En 2008, l’Etat touchera l’impôt au barème sur les dividendes de 2007 ET le prélèvement libératoire sur les dividendes de 2008 ! Super banco pour une équipe gouvernementale qui a bien besoin de ces petits zakouskys pour éviter de tomber dans la zone rouge (celle de Jean Claude Juncker, pas celle de Jean-Pierre Foucault !).

Ce petit changement a en fait une portée symbolique beaucoup plus forte que ce que l’on croit habituellement : en fait, il s’agit tout simplement du dernier avatar dans la longue histoire de la sortie des revenus de patrimoine du domaine de droit commun de l’IR, qui est la progressivité, au profit d’une imposition proportionnelle (flat tax). Le graphique suivant montre indique le taux marginal d’imposition induit par le nouveau système de prélèvement libératoire :


Premier enseignement : la réforme n’est avantageuse qu’au niveau des très gros bénéfices distribués. Deuxième enseignement : le taux marginal reste élevé lorsqu’on additionne tous les prélèvements. Troisième enseignement : a priori, le choix du prélèvement libératoire est libre, donc les petits bénéfices devraient toujours choisir d’être imposés au barème et les gros dividendes au prélèvement libératoire. Mais comme il y a fort à parier que les petits dividendes ne sont pas toujours aussi bien informés que les gros, les petits dividendes vont souvent choisir par commodité le prélèvement libératoire, sans se rendre compte qu’ils y perdent. Au final donc, la réforme nous fait perdre pas mal en progressivité, et pas mal aussi en ressources fiscales sur les très gros dividendes, pour boucler le budget 2008 de façon cosmétique. C’est le Canadair pour un feu de broussaille !

P.S. : Certains d’entre vous auront constaté que l’on a gentiment négligé l’ISF dans notre petit calcul. C’est que les choses ne sont pas simples car l’assiette de l’ISF est constituée par le stock de patrimoine et non par le le flux de revenus du patrimoine. Donc il faut pouvoir imputer un patrimoine à notre euro de bénéfice. La technique la plus simple, qui consiste à dire que l’euro de bénéfice n’est rien d’autre que la traduction d’un rendement moyen de 4% environ (c’est le taux d’un placement sans risque) ne change rien à la donne, car on obtient ainsi des impôts sur la fortune assez faibles, du fait de la forte progressivité du barème de l’ISF et de l’abattement de 750 000 euros. Toutefois, pour les niveaux élevés de bénéfices, l’ISF pourrait devenir important. Je n’ai donc pas encore d’avis tranché, ni de hard facts sur cette question. J’y réfléchis, et je vous rappelle…
_Camille_

Lire la suite...

mardi 11 décembre 2007

Les Gaulois sont-ils plus productifs que les autres ?


Cocorico ! Dans un accès de gallophilie remarqué par Olivier Bouba-Olga (mais contesté par quelques rabat-joie), Paul Krugman s’appuyait il y a quelques mois sur l’exemple gaulois pour pourfendre le mythe d’une Europe moins productive que les Etats-Unis. Pour étayer sa thèse, l’économiste américain rappelait que la productivité du travail en France (égale à la production divisée par le nombre d’heures travaillées) était supérieure à celle de nos voisins d’outre-Atlantique et réfutait l’argument selon lequel cet écart serait la conséquence d’un taux de chômage plus élevé et d’une durée du travail moyenne plus faible dans notre pays. Oncle Sam-le-glandu aurait-il donc du souci à se faire face à l’irrésistible ascension de Vercingétorix-le-productif ? On aimerait tellement le croire… mais soyons prudents... car avant de fourbir nos armes, d’avaler une bonne rasade de potion magique et d’entonner fièrement l’hymne de la victoire, on serait bien avisé d’aller faire un petit tour du côté des chiffres. On ne sait jamais quelles surprises ces coquins-là peuvent nous réserver…

I/ Une productivité apparente du travail à faire pâlir ?

A première vue, la comparaison de la productivité horaire du travail en Gaule avec celle des autres pays de l’OCDE est plutôt flatteuse, puisque notre ardeur légendaire nous place au sommet de la hiérarchie des pays les plus productifs :


Ce graphique fait apparaître que notre productivité horaire, supérieure de 13% à celle des Etats-Unis (qui servent de point de comparaison), n’était dépassée en 2002 que par celle des valeureux Norvégiens (125) et se situait très au-dessus de celle des perfides Bretons (78). Certes, mais en confrontant ainsi les niveaux de productivité entre pays, ne commet-on pas un abus de langage ? Compare-t-on réellement des choses comparables ?

II/ Oui, mais… la légende d’Ocedeus

Une légende tirée de notre tradition nationale permet d’en douter.

En des temps reculés, quelque part dans la forêt d’Ocedeus, une assemblée de druides gaulois décida de lancer un grand concours : le village « le plus productif de Gaule » se verrait récompensé par la remise du fameux bouclier de Brennus. Au terme de longues péripéties (que je vous épargnerai par charité), deux villages parvinrent en finale : à ma gauche, Malthusianus, où la coutume locale interdisaient aux habitants incapables de produire plus d’un menhir par an de travailler, ce qui revenait à exclure les jeunes et les anciens des carrières du village (leur productivité individuelle étant justement égale à un menhir par an) ; à ma droite, Darwinianus, où toute la population, conduite d’une main de fer par l’impitoyable Stakhanovix, était contrainte aux travaux forcés, du berceau jusqu’à la tombe. Chacun de ces villages était peuplé de 100 habitants. A l’issue d’une année de dur labeur, le village de Darwinianus parvint à faire sortir 400 menhirs de ses carrières, dont 100 produits à la sueur de leur front par les 50 jeunes et vieux du village (qui représentaient la moitié des habitants). De son côté, le village de Malthusianus amena 250 menhirs à l’assemblée des druides, en signalant au jury qu’ils avaient été produits par les seuls membres du village autorisés à travailler (soit 50 individus en tout). A l’issue d’une longue délibération, les druides décidèrent d’attribuer le bouclier de Brénus aux Malthusiens, en justifiant ainsi leur décision : « la productivité du travail des Malthusiens s’élevant à 250/50 = 5 menhir/travailleur contre 400/100 = 4 menhir/travailleur pour les Darwiniens, l’assemblée des druides déclare Malthusianus village le plus productif de Gaule ! ».

Criant à l’injustice, les économistes darwiniens contestèrent le verdict des druides, en faisant valoir que pris individuellement, les Darwiniens étaient tous plus productifs que les Malthusiens : la productivité des jeunes et vieux de Darwinianus s’élevait en effet à 2 menhirs/travailleur (100/50) contre une productivité potentielle de 1 menhir/habitant chez les jeunes et vieux de Malthusianus ; la productivité des individus d’âge mur atteignait quant à elle 6 menhir/habitant (300/50) chez les Darwiniens contre 5 menhirs/habitant (250/50) chez les Malthusiens. A l’appui de leur réclamation, les Darwiniens demandèrent à leurs meilleurs économètres de produire le tableau suivant, afin de faire apparaître clairement que leur productivité structurelle était supérieure à celle de leurs adversaires malthusiens, quand bien même leur productivité apparente était inférieure :


Ce louable effort n’eut pas l’effet escompté : instruits par le barde Attalix de l’incompétence des économistes darwiniens et n’étant eux-mêmes guère versés dans l’occultisme économétrique, les druides gaulois traitèrent cette requête avec le plus grand mépris et confirmèrent leur décision souveraine. Il n’en fallut pas plus pour mettre le feu aux poudres et déclencher une interminable guerre civile…

Cette petite fable montre les limites d’une comparaison naïve de la productivité apparente du travail entre différents pays. Qu’un pays ait une productivité apparente du travail plus élevée qu’un autre ne signifie nullement qu’un individu pris au hasard dans ce pays soit plus productif en moyenne qu’un individu pris au hasard dans un autre pays : techniquement, la moyenne d’une distribution tronquée est différente de la moyenne de l’ensemble de la distribution. Dans l’exemple qui précède, les Darwiniens sont réellement plus productifs que les Malthusiens pris globalement ; la raison pour laquelle la productivité des seconds apparaît supérieure à celle des premiers est que la fraction la moins productive des Malthusiens ne travaille pas, ce qui tend à « gonfler » artificiellement leurs statistiques.

Or, que nous apprennent les statistiques gauloises à ce sujet ? Eh bien, qu’il y a de bonnes raisons de penser que certaines caractéristiques de notre marché du travail pourraient expliquer une légère surévaluation de nos performances productives…

Ces caractéristiques sont au nombre de deux, ainsi qu’on peut le voir sur le tableau suivant :


1/ Ce que ces statistiques font d’abord apparaître, c’est que notre taux d’emploi (égal à la population en emploi rapportée à la population totale) se situe en deçà de la moyenne des pays de l’OCDE : en 2002, seuls 62,2% des Français âgés de 15 à 64 ans occupaient un emploi, contre 71,9% aux Etats-Unis, 72,7% au Royaume-Uni et 65,1% en moyenne pour les pays membre de l’OCDE. Cet écart de taux d’emploi est particulièrement accusé pour deux catégories de la population : les jeunes âgés de 15 à 24 ans d’une part (taux d’emploi de 24,1% contre 43,7% dans les pays de l’OCDE) et les seniors âgés de 55 à 64 ans (39,3% contre 49,4%). Plusieurs facteurs expliquent cette situation relativement atypique :
  • une durée d’études plus longue en moyenne, qui retarde l’entrée sur le marché du travail d’une grande partie des jeunes ;
  • un taux de chômage relativement élevé, particulièrement pour les 20-25 ans ;
  • enfin, un certain nombre de dispositifs légaux qui ont eu pour effet de diminuer drastiquement le taux d’emploi des seniors : abaissement de l’âge de la retraite à 60 ans, politiques d’incitation aux départs anticipés (dispenses de recherche d’emploi, préretraites, contribution « Delalande », etc.) ;
Certes, me direz-vous, mais en quoi cela influence-t-il notre productivité ? La réponse est simple : à l’image du village gaulois de Mathusianus, il est probable que la productivité des jeunes et des seniors qui ne sont pas en emploi soit plus faible que celle des adultes en emploi : les jeunes, parce qu’ils n’ont pas acquis l’expérience professionnelle de leurs aînés ; les seniors, en raison du phénomène de tassement de la productivité individuelle observée après 55 ans et surtout parce que ceux d’entre eux qui sont sortis de la population active, outre qu’ils étaient sans doute initialement moins productifs que ceux qui y sont restés, ont vraisemblablement subi une dégradation importante de leur capital humain en n’étant plus sur le marché du travail. Le fait que le taux de chômage des jeunes et des plus de 55 ans soit sensiblement plus élevé que la moyenne semble d’ailleurs plaider en faveur de cette hypothèse. Dans ces conditions, que se passerait-il si on augmentait le taux d’emploi de ces deux catégories de la population ? Selon toute probabilité, on assisterait à un abaissement relatif de la productivité horaire du travail, en vertu du même mécanisme que celui qui expliquait que la productivité apparente des Darwiniens était plus faible que celle des Malthusiens, quand bien même leur productivité structurelle était plus élevée.

2/ L’autre caractéristique du marché du travail français qui peut biaiser à la hausse la productivité apparente du travail est notre faible durée du travail : en 2002, la durée annuelle du travail en France était égale à 1437 heures/an contre 1739 heures/an en moyenne dans les pays de l’OCDE, en raison principalement d’une durée légale du travail plus faible qu’ailleurs (35 heures oblige). Or il ne paraît pas absurde de penser que les rendements de la durée du travail sont globalement décroissants : autrement dit, plus on travaille longtemps, et moins on est efficace. Cette idée était d’ailleurs au cœur de l’argumentation en faveur du passage aux 35 heures, la réduction du temps de travail devant permettre non seulement de réduire l’ « effet fatigue » des salariés, mais également d’accroître la durée d’utilisation des équipements afin d’optimiser la chaîne de production. Il est donc probable que si la durée du travail des français était portée au niveau de la moyenne des pays de l’OCDE, la productivité horaire diminuerait sensiblement.

III/ Ouf… l’honneur est sauf, par Belenos !

Les deux remarques qui précèdent devraient nous inciter à considérer avec circonspection les comparaisons de productivité apparente du travail entre pays. Au minimum, il faudrait pouvoir corriger ces comparaisons des effets structurels liés aux différentiels de taux d’emploi et de durée du travail.

C’est à cet exercice que ce sont livrés deux économistes gaulois : dans cet article paru dans la Revue économique de l’OCDE, Renaud Bourlès et Gilbert Cette proposent une estimation des niveaux de productivité structurels de 25 pays de l’OCDE sur la période 1992-2002. Malgré les limites de l’approche adoptée (petit nombre d’observations, hypothèses simplificatrices), les auteurs se sont efforcés d’estimer le niveau de productivité horaire « structurelle » qui serait observée dans les différents pays si la durée du travail et le taux d’emploi (pour chaque catégorie d’âge) étaient les mêmes qu’aux Etats-Unis, pris comme pays de référence.

Le tableau suivant reproduit les résultats de leurs estimations :


Plusieurs enseignements peuvent être tirés de la lecture de ces résultats :
1/ Pour tous les pays, le niveau relatif (aux Etats-Unis) de la productivité horaire « structurelle » du travail est inférieur à celui de la productivité horaire « observée ». Cette différence provient du fait que la plupart des pays présentent une durée du travail et un taux d’emploi plus faible que celui des Etats-Unis.
2/ Comme on pouvait s’y attendre, la productivité structurelle relative de la France diminue sensiblement par rapport à sa productivité observée : par rapport aux Etats-Unis, elle perd 15 points, en passant de 113 à 98 (ce qui signifie que notre productivité structurelle est égale à 98% de celle des Américains). Les calculs des auteurs indiquent que les deux tiers de cette diminution sont imputables à l’écart de durée du travail, le tiers restant provenant du différentiel de taux d’emploi entre les deux pays.
3/ Néanmoins, malgré cette correction, la France continue de faire plutôt bonne figure par rapport à ses voisins européens : elle n’est dépassée que par l’Irlande et la Norvège et sa productivité structurelle reste sensiblement supérieure à celle des Anglais (77), même si l’écart de productivité entre les deux pays se réduit de 30% environ.

Au total, si l’étude de Bourlès et Cette devrait inciter plus d’un commentateur à mettre de l’eau dans sa cervoise et à ne pas conclure trop rapidement à la supériorité productive du peuple gaulois, elle montre que nos performances ne sont pas humiliantes non plus, en tout cas pas autant que certains voudraient le faire croire.

IV/ Et alors ?

Que conclure de tout cela ?

1/ D’abord, que les comparaisons naïves des productivités horaires du travail sont tout sauf un bon indicateur de la productivité réelle d’un pays.

2/ Ensuite, que ces chiffres doivent au minimum être corrigés des effets structurels liés aux écarts de durée du travail et de taux d’emploi des pays considérés.

3/ Enfin et surtout, qu’il faut s’interroger sur le sens de ces écarts. La faiblesse de notre taux d’emploi et de notre volume d’heures de travail est-elle le signe d’un dysfonctionnement du marché du travail français ou bien l’expression d’un choix de société ayant contribué à améliorer le bien-être global ? Derrière cette question en apparence anodine se situe un débat particulièrement difficile à trancher, surtout en ce qui concerne la réduction du temps de travail : d’un côté, l’adoption des 35 heures peut être vue comme une politique malthusienne qui a tari artificiellement la production de richesses en France ; mais d’un autre côté, si les 35 heures n’ont fait que traduire légalement une plus forte préférence des Français pour le loisir, leur suppression serait synonyme de perte de bien-être, notamment si les individus n’ont pas la faculté de choisir librement leur temps de travail et sont contraints de travailler plus qu’ils ne le souhaiteraient (c’est d’ailleurs l’un des arguments avancé par Krugman dans sa défense du modèle français). Pour approfondir cette question, je renvoie le lecteur aux riches échanges qu’Emmanuel de Ceteris Paribus et Alexandre d’Econoclaste avaient eu il y a trois ans sur la durée du travail, en cinq actes (I, II, III, IV et V) résumés ici pour les flemmards. Et qu’on ne vienne pas nous dire après ça que les blogueurs gaulois ne sont pas productifs, par Toutatis !
_Julien_

Lire la suite...

lundi 10 décembre 2007

Jean Tirole sur l'autonomie des universités


A lire : cette tribune dans le Monde, signée Jean Tirole. Ici à Ecopublix, on applaudit des deux mains.
_Ecopublix_

Lire la suite...

jeudi 6 décembre 2007

Contrôle des loyers et pouvoir d'achat


Parmi les mesures annoncées par le chef Sarkozix pour augmenter le pouvoir d’achat des Gaulois, le logement occupe une place de choix, avec la proposition de supprimer la caution et de changer l’indice de référence pour l’indexation des loyers. En effet, si les loyers en Gaule sont fixés librement lors d’un changement de locataire, leur hausse, une fois le bail signé, est limitée par la croissance d’un indice défini par l’Etat. La proposition du chef consiste à remplacer l’indice actuel, appelé l’indice de référence des loyers, par l’indice des prix à la consommation (hors loyers et tabac). Cette substitution des indices va-t-elle augmenter le pouvoir d’achat des Gaulois ? Pour faire court, la réponse est peut-être oui pour certains d’entre eux au détriment d’autres catégories dans le court terme, mais certainement non à plus long terme. Pour bien comprendre pourquoi, il est utile de replacer cette mesure un peu technique dans le contexte plus général des politiques de contrôle des loyers, et de la discussion des économistes sur leur efficacité.

I/ Les consequences néfastes du controle des loyers

La régulation des loyers est apparue en Europe à l'occasion de la Première guerre mondiale, pour aider les locataires, (et en premier lieu les familles de soldats) à faire face à cette situation exceptionnelle, dans un contexte général de contrôle des prix. Cette régulation a généralement été prolongée jusqu’à la Seconde guerre mondiale, au cours de laquelle les loyers furent de nouveau gelés, aussi bien en Europe qu’aux Etats-Unis (1). En 1970, de nombreuses villes européennes maintenaient un contrôle des loyers plus ou moins strict et parfois réservé aux anciennes habitations, héritage direct des programmes mis en place pendant la guerre. Dans un contexte de forte inflation, le contrôle des loyers a connu un renouveau à cette période, sous diverses formes dont nous reparlerons plus loin.

Le contrôle des loyers représente un cas d’étude standard en économie. On peut illustrer le problème avec un simple graphique d’offre et de demande de logements locatifs. On porte sur l’axe horizontal la quantité d’appartements sur le marché (Q), et sur l’axe vertical le loyer versé aux propriétaires (P).


Sans régulation, l’équilibre s'établit au point E. Supposons qu'on décide d'instaurer un plafonnement des loyers, qui ne peuvent légalement excéder le niveau PR. Le nouvel équilibre s'établit au point R. Quelles en sont les caractéristiques ?

1/ L'effet sur les prix : le loyer régulé (PR) est plus faible que le loyer de l’équilibre non réglementé (PE).

2/ L'effet sur les quantités : pour ce niveau de loyer, la demande de logements locatifs excède le nombre de logements effectivement loués à l'équilibre. Sur le graphique, on constate que pour le loyer PR, la demande est plus élevée que la quantité disponible QR. En présence d'un excès de demande de ce type, l'allocation des logements aux locataires désireux de louer un logement s'organise selon le principe du rationnement : l'ensemble des demandeurs solvables ne pouvant être servis, le tri s'effectue selon d'autres critères que le prix (position dans la file d'attente, garanties de paiement, discrimination, etc.)

3/ Une baisse de la qualité des logements : La perte de profitabilité de la location décourage l’entretien des immeubles, ainsi que la construction de nouveaux logements, si bien que la mise en place d'un contrôle des loyers entraîne une diminution de la qualité du parc locatif.

4/ Une perte d'efficacité : le rationnement induit par le contrôle des loyers constitue l’inefficacité majeure de la régulation : graphiquement, cette perte d'efficacité ( baptisée « perte sèche » par les économistes) correspond à l'aire coloriée en jaune. En présence d'un plafonnement des loyers, les consommateurs sont prêts à payer plus que ce que les propriétaires demanderaient pour un accroissement du nombre de logements sur le marché, car la demande se situe au-dessus de l’offre entre les points R et E. Le contrôle des loyers empêche ces transactions d'avoir lieu, alors qu'elles augmenteraient le bien être global. Cette inefficacité prend plusieurs formes, qui peuvent s’observer actuellement en Suède, un pays Barbare qui a ceci de singulier que les loyers y sont encore complètement contrôlés : les files d’attente pour obtenir un appartement situés au cœur des grandes ville s'y étalent sur plusieurs dizaines d’années (on parle de 30 à 50 ans). Les locataires en place conservent leur logement le plus longtemps possible puisqu’ils bénéficient de bas loyers, préférant sous-louer (souvent illégalement) leur appartement avec des baux de courte durée plutôt que de le perdre, même s’ils ne comptent pas l’habiter dans un futur proche. Du coup, les nouveaux arrivants sur le marché du logement, par exemple les jeunes et les étrangers, éprouvent de grandes difficultés à se loger. Les propriétaires (et les agences de location) exploitent cette pénurie en demandant aux locataires des versements annexes, souvent illégaux, et sélectionnent leurs locataires. Enfin, les très nombreux locataires qui ne parviennent pas à mettre la main sur un bail de longue durée se voient obligés de multiplier les sous-locations et les déménagements, et n’ont souvent d’autre choix que d’acheter un logement pour surmonter cette pénurie.

5/ Une réduction de la mobilité des individus : en incitant les propriétaires à mettre en vente leurs appartements auparavant mis en location (cette dernière formule rapportant moins d’argent), le contrôle des loyers fait chuter le nombre de logements disponibles sur le marché locatif. Cela pénalise fortement les jeunes, les personnes mobiles géographiquement et plus généralement tous ceux qui ne souhaitent ou ne peuvent investir dans l'achat d'une maison ou d'un appartement. Le marché du travail pâtit indirectement de cette réduction de la mobilité des locataires, puisque les individus vont limiter leurs recherches d’emploi à un secteur géographique qui ne les force pas à déménager. Ces deux effets ont été confirmés au Danemark : les locataires jouissant d’un appartement à loyer régulé restent plus longtemps dans leur logement et les chômeurs acceptent plus souvent une offre d’emploi proche de leur habitation que ceux qui occupent des appartements à loyer non contrôlé.

6/ Les effet redistributifs du contrôle des loyers : a priori, les gagnants et les perdants de la réglementation des loyers sont relativement aisés à identifier. La baisse des loyers profite aux locataires, alors que les propriétaires gagnent moins d’argent. Le contrôle des loyers opère donc une redistribution des propriétaires vers les locataires. Sur le graphique, cette redistribution est représentée par le rectangle vert dont l’aire est égale à la différence entre le montant total des loyers payés par les locataires (loyer multiplié par quantité de logement) et ce qu’ils paieraient en l'absence de plafond. Il faut néanmoins ajouter un bémol à ce bilan redistributif : certes, la législation opère un transfert de revenu des propriétaires vers les locataires, mais uniquement en faveur de ceux qui ont conservé leur logement à la suite du plafonnement des loyers, c'est-à-dire sans prendre en compte tous ceux qui ont été lourdement pénalisé par la perte de leur logement (
QE-QR), provoquée par le rationnement du marché. Au total, le bien-être global diminue : graphiquement, cette perte est mesurée par le triangle jaune situé entre les courbes d'offre et de demande de logement.

II/ Quelle marge pour la régulation du marché ?

L'inefficacité du contrôle des loyers signifie-t-elle qu'il n'y ait aucune place pour l'intervention publique en matière de régulation du marché locatif ? Non, car il existe un certain nombre d'imperfections sur le marché du logement qui peuvent justifier dans certains cas la mise en place d'une régulation de la progression des loyers. Le système aujourd'hui en vigueur en Gaule comme dans beaucoup d’autres pays ne consiste d'ailleurs pas en un contrôle total du niveau des loyers, mais en une limitation de la croissance du loyer, une fois le bail signé, ce qui modifie les effets de la régulation.

Le marché du logement est en effet loin d’être un marché « parfait » où l’information circule librement et où le coût de trouver un bien est nul : les locataires supportent des coûts de recherche élevés et accepteront probablement le premier logement qui correspond à leurs critères sans savoir s’il en existe un autre similaire pour un prix moins élevé. Ceci confère aux propriétaires un pouvoir de marché qui leur permet d’extraire une rente au détriment des locataires : dans cette situation, une régulation pourrait être bénéfique afin d’éviter que les propriétaires ne fixent les loyers à un niveau supérieur à celui qui prévaudrait si le marché du logement était parfaitement fluide.

Par ailleurs, la régulation des loyers telle qu’elle fonctionne actuellement en France et dans d’autres pays d’Europe ne correspond pas à un côntrôle pur et simple des prix : elle ne fixe plus le niveau des loyers mais régule son évolution. Ce type de mesure s’est développé dans les années 1970, en accompagnement de réglementations visant à protéger les locataires contre le risque d'exclusion de leur logement, tout en poursuivant initialement l’objectif de limiter la hausse des prix dans une période d’inflation galopante. Cette forme de régulation a moins d’effets négatifs que le contrôle pur et simple des loyers, puisque le niveau des loyers peut s’ajuster à chaque fois que le bail d'un logement mis en location expire. Elle génère donc moins d’inefficacités, tout en assurant les ménages contre de fortes variations imprévues du niveau des loyers. Elle réduit aussi le pouvoir de monopole des propriétaires qui s'exerce en particulier au moment du renouvellement du bail. Le loueur va profiter du coût élevé d'un déménagement pour son locataire pour augmenter fortement le loyer. Le contrôle limite ces comportements.

Sans parler de monopole, d'autres arguments laissent penser que le marché souffre de problèmes d'information. D'un côté les propriétaires ne connaissent pas les caractéristiques des différents locataires, c'est-à-dire s'ils vont payer leur loyer, respecter les règles de copropriété, dégrader le logement, etc. Ce problème de sélection adverse va faire monter les prix. De l'autre les locataires ne connaissent pas non plus les caractéristiques du propriétaire: va-t-il entretenir le logement, a-t-il l'intention de vendre dans un futur proche? Les deux parties prennent en compte ces risques lorsqu'ils négocient le contrat et la loi peut fournir un contrat type pour éviter qu'une des deux parties ne soit clairement désavantagée.

Si le blocage des prix apparaît comme une mesure particulièrement néfaste, on peut donc envisager des arguments en faveur de formes plus sophistiquées de contrôle, sur les prix ou sur la nature des contrats. Il faut cependant souligner que ces justifications théoriques ne permettent pas de conclure sur l’optimalité des formes actuelles de régulation, parce que les études empiriques mesurant les imperfections sur le marché du logement et calculant les bénéfices attendus de telles mesures n’existent pas encore à notre connaissance. En revanche, et comme nous l'avons déjà souligné dans la première partie, les conséquences négatives sont connues, obervées, et parfois précisément mesurées. On ne peut en dire autant des effets positifs.

III/ Quel sera l’effet du changement d’indice sur le pouvoir d’achat ?

Après cette petite mise en perspective du contrôle des loyers, revenons à nos sangliers : quel sera l’effet du changement d’indice de référence de revalorisation des loyers proposé par le chef des Gaulois ? S’il est difficile de prévoir l’évolution future des différents indices, une analyse de leur évolution passée permet de tirer quelques enseignements.

Il faut d’abord souligner que l’indice historique de référence utilisé pour les révisions de loyer en cours de bail était l’indice du coût de la construction (ICC, qui mesure comme son nom l’indique l’évolution du coût de la construction de nouveaux bâtiments) mais il a été remplacé depuis le 1er janvier 2006 par l’indice de référence des loyers (IRL). Quel était l'objectif poursuivi ? L’indice de référence des loyers a été conçu à la fois pour lisser les évolutions de l’ICC (très sensible à l’évolution du coût des matières premières) et pour limiter les hausses de ce dernier : il est composé à 60% de l’indice des prix à la consommation (IPC) hors loyers et tabac, à 20 % de l’ICC et à 20 % de l’indice des prix des travaux d’entretien et d’amélioration du logement. Etant donné la faiblesse de l’inflation actuelle, le graphique suivant montre que l’IPC hors loyers et tabac a évolué beaucoup moins vite entre 2000 et 2006 que les deux autres indices.


Si la tendance actuelle devait se poursuivre, l’utilisation de l’IPC hors loyers et tabac pourrait permettre aux ménages locataires qui ne déménagent pas de bénéficier de plus faibles hausses de loyer à court terme. Mais ceci n'est pas du tout garanti à moyen terme, car ce changement d’indice devrait aussi affecter en retour le niveau des loyers à chaque fois qu'un bail sera signé, puisque les propriétaires s’attendront à être contraints jusqu'à la signature du prochain bail de limiter les hausses de loyer à un niveau qui ne reflètera pas forcément le coût d’entretien du logement : l’effet attendu d’une telle mesure sera donc une hausse plus forte des loyers lors du changement de locataire, un allongement de la durée d’occupation des logements par les locataires actuels, une baisse des efforts d’entretien des propriétaires et la mise en vente de certains appartements.

Ainsi, s'il est possible que ces mesures bénéficient à court terme aux ménages locataires bien installés dans leur logement, cet effet s’estompera à long terme à mesure que ces ménages seront obligés de déménager. En outre, les ménages les plus mobiles vont être directement touchés par la hausse des loyers, puisqu'ils seront les premières victimes de la réévaluation des loyers qui interviendront à l'occasion de la signature des nouveaux baux de location. La mesure va donc avoir des effets redistributifs assez peu désirables, puisqu'elle va favoriser les ménages les moins mobiles (en général les plus âgés) au détriment des ménages les plus mobiles (c’est-à-dire les jeunes et les célibataires), ces catégories ne recoupant pas forcément celles qui ont connu la plus forte baisse de leur pouvoir d’achat. Enfin, comme nous l’avons déjà souligné dans la première partie, cette mesure peut avoir un effet pervers pour l’emploi, en décourageant les chômeurs de déménager pour trouver un nouvel emploi.

Finalement, si, cette avec cette mesure, le chef des Gaulois peut essayer de se faire barde et de calmer les esprits, il risque à plus long terme de les échauffer, car ce changement d'indice n'aura pas d’effet durable sur le pouvoir d’achat.


NOTES :

(1) La guerre imposait souvent de déplacer le travail (par exemple vers une nouvelle usine d’armement) et le gel évitait que ces déplacements ne s’accompagnent de hausses brutales des loyers. A la sortie de la guerre, ces restrictions empêchèrent les propriétaires de profiter de la hausse de la demande suscitée par le retour des soldats.
_Emmanuel_ _Gabrielle_

Lire la suite...