stats count

mardi 25 décembre 2007

L'élasticité en économie et à Noël


S’il est une profession pour laquelle la période des fêtes est cruciale, c’est bien celle de producteur de sapin de Noël. Certains seront peut-être surpris d’apprendre que le Gaulois se désintéresse de plus en plus du « vrai » sapin de Noël, à tel point que l’AFSNN (Association Française du Sapin de Noël Naturel) serait très inquiète. Le marché du sapin de Noël ne se porte pas au mieux et il doit de plus cette année faire face à une hausse des coûts d’exploitation qui va faire monter le prix de vente de l’arbre. Cette inflation risque encore d’éloigner certains consommateurs du résineux. Toute la question pour les producteurs est de connaître l’amplitude de cette baisse de la demande. Pour répondre à cette question, un économiste cherchera à estimer l’élasticité de la demande de sapin de Noël. Aïe ! Voilà encore que ces économistes utilisent leur langage incompréhensible ! D’autant plus qu’à Ecopublix nous avons déjà maintes fois utilisé ce fameux terme d’élasticité. Court post sur sa définition et son importance en économie.

I/ La définition de l'élasticité

Commençons par la définition : l’élasticité d’une grandeur Q par rapport à une grandeur P est définie comme le rapport entre le pourcentage de variation de Q et le pourcentage de variation de P. Elle mesure la sensibilité de Q à P. Par exemple si Q est la demande et P le prix, alors l’élasticité-prix de la demande est définie comme le rapport entre le pourcentage de variation de la demande d'un bien et le pourcentage de variation du prix de ce bien. Elle mesure donc la sensibilité de la demande par rapport aux variations de prix. On a coutume de dire qu’une élasticité de valeur e signifie qu’une augmentation de 1% modifie la demande de e%. L’élasticité possède ainsi une définition intuitive qui facilite son usage (1). Une autre qualité importante de l’élasticité est qu’elle est adimensionnelle, c'est-à-dire qu’elle ne dépend pas des unités dans lesquelles les grandeurs P et Q sont exprimées (les prix peuvent être exprimés en euros, dollars, ou couronnes suédoises, la valeur de l’élasticité restera inchangée). Le concept peut donc s’appliquer identiquement à tout domaine et tout pays où l’on souhaite mesurer la sensibilité d’une variable par rapport à une autre.

On peut définir l’élasticité par rapport à d’autres variables que le prix du bien. On pourra ainsi s’intéresser à l’élasticité-revenu de la demande d’un bien qui donnera le changement en pourcentage de la demande quand le revenu du consommateur varie de 1%. L’élasticité est dite croisée quand elle se réfère au prix d’un autre bien. Par exemple la valeur de l’élasticité du chauffage solaire par rapport au prix du pétrole a un intérêt non seulement pour les producteurs de panneaux solaires mais aussi pour les politiques environnementales

La courbe de demande nous fournit une illustration graphique de l’élasticité-prix de la demande (nous utilisons l’exemple de la demande mais on pourrait faire de même avec une courbe d’offre, ou de n’importe quelle variable). Nous avons expliqué qu’une élasticité élevée signifiait qu’une faible variation de prix se traduisait par une large variation de quantité. La courbe va donc être très horizontale, comme sur le graphique suivant :


On dira alors que la demande est élastique : une augmentation de prix se traduit par une forte chute de la demande (2). Par exemple, c'est parce que les compagnies aériennes font face à une demande très élastique que les compagnies « low cost » ont pu en profiter.

En revanche, une élasticité faible impose que la demande ne réagisse que très peu à la variation de prix. Sa courbe est donc très verticale, comme illustré sur le graphique suivant :


On dira alors que la demande est inélastique. Par exemple, la demande d’essence est inélastique car, au moins dans le court terme, les consommateurs ne réduisent que très peu leur consommation suite à la suite d'une augmentation du prix à la pompe.

II/ Elasticité et taxation

L’élasticité est donc un concept utile en ce qu'elle permet de caractériser de manière très simple l'allure d'une courbe de demande (ou d’offre) d’un bien. Cependant son utilité ne s’arrête pas là car beaucoup de résultats en économie dépendent de l’élasticité du bien et les économistes s’y réfèrent fréquemment. Nous avons déjà évoqué dans des billets précédents à quel point les conséquences des politiques publiques dépendaient des élasticités : marché du logement sur lequel l’offre de court terme est inélastique, partage des cotisations salariales et patronales, taxation des stocks-options, et taxation des époux. Il n’est pas étonnant que l’élasticité entre fréquemment dans les raisonnements impliquant taxations et subventions. Pour appréhender leurs effets, il est nécessaire de comprendre à quel point la demande du bien taxé va chuter. Or cette sensibilité est exactement mesurée par l’élasticité de la demande.

Prenons un célèbre exemple d’application. Un résultat important de la théorie économique de la taxation stipule que ce sont les biens les moins élastiques qui devraient être les plus taxés (règle dite de « l'élasticité inverse »). Armés de notre définition de l’élasticité, comment interpréter ce résultat sans pour autant construire un modèle complet de taxation? Imaginons qu’un bien soit taxé. Son prix va augmenter et sa demande chuter, plus ou moins fortement selon son élasticité. La demande d’un bien inélastique ne changerait presque pas en comparaison de la variation de son prix. Le gain de cette réforme pour le législateur correspond au revenu prélevé. Cependant la taxation engendre aussi une perte. Les consommateurs paient plus cher et par conséquent réduisent leur consommation, ce qui réduit leur bien-être. Il est facile de comprendre graphiquement que plus le bien est élastique, c’est-à-dire plus la courbe de demande est horizontale, et plus la différence entre le gain et la perte est élevée, comme on peut le voir sur le graphique suivant :


L’élasticité fournit un critère simple pour choisir quels biens taxer le plus fortement. Les gouvernements l’ont bien compris : les biens inélastiques (essence, cigarettes) sont particulièrement taxés. Au-delà de ce simple résultat de la taxation des biens, l’élasticité intervient dans nombre de raisonnements : taxation du revenu du travail (l’offre de travail la moins élastique sera plus taxée), pouvoir de monopole (une entreprise en monopole abuse plus de sa position dominante si la demande est inélastique), théorie de la firme (élasticité de substitution entre le travail et le capital), théorie de l’incidence fiscale (voir le post d’Overzelus)...

III/ Elasticité et sapins de Noël

Mais revenons à nos sapins de Noël. Un article de l’American Journal of Agricultural Economics estime deux élasticités de la demande d’arbre de Noël naturel en utilisant des données américaines. Les auteurs trouvent une élasticité prix égale à -0,674. D'après notre définition, cela signifie que si le prix du sapin de Noël augmente de 1%, la quantité demandée chute (puisque le signe est négatif) de 0,674%. En d’autres termes, si les pépiniéristes augmentent cette année leurs prix de 15% (comme anticipé ici), la demande devrait chuter de 0,674*15=10,11% (3). L’article ne s’arrête pas là et estime ensuite l’élasticité croisée de l’arbre de Noël par rapport au sapin artificiel et trouve une valeur de 0,188 : si le prix de l’arbre artificiel augmente de 1% alors les ventes d’arbres naturels augmenteront de 0,188%. Il y a donc substitution entre l’arbre naturel et celui en plastique puisque les consommateurs ont tendance à consommer plus du premier quand le prix du second augmente. C’est un autre intérêt de l’élasticité : elle permet de savoir quand et à quel point deux biens sont substituts (élasticité croisée positive, par exemple entre sapins naturels et artificiels), ou compléments (élasticité croisée négative, par exemple entre sapins de Noël et boules à accrocher aux branches).

La prochaine fois que nous parlerons d’élasticité, vous serez (j’espère) un peu moins troublés et vous pourrez faire le lien avec l’intuition derrière le concept. En attendant les billets Ecopublix 2008, toujours plus élastiques aux politiques publiques, bonnes fêtes à tous, joyeux Noël, et ne proposez pas au petit cousin qui vient de recevoir un kit de pyrogravure des mains du Père Noël fraîchement débarqué du Kyrgyzstan de mesurer l’élasticité du sapin, ça pourrait mal finir...


NOTES :

(1) Cette définition n’est cependant pas rigoureusement exacte puisque la définition mathématique à l’aide de dérivées ne considère pas un changement de prix de 1% mais un changement infinitésimal en pourcentage. Pour être précis, la définition exacte de l’élasticité est P/Q*(dQ/dP).
(2) Attention cependant à ne pas confondre la pente de la courbe de demande et élasticité. Sur tous les graphiques présentés ici la pente est constante, alors que l'élasticité ne l’est pas.
(3) Evidemment cette élasticité provient d’une étude réalisée sur données américaines, ce petit exercice n’a donc aucune valeur prédictive pour le marché français. L’élasticité de la demande française d’arbre de Noël n’a à ma connaissance jamais été estimée.
_Emmanuel_

Lire la suite...

mardi 18 décembre 2007

Combien d’impôt paie-t-on sur un euro de bénéfice ?


Est-il équivalent du point de vue fiscal de gagner des revenus de son activité et de gagner des revenus d’un patrimoine ? Question pleine de sens, qu’on a rarement posée aussi simplement, et dont la réponse contribuerait grandement à dissiper quelques malentendus ou à refréner quelques égarements poujadistes…Pour y répondre donc, Ecopublix a procédé en marchant en crabe : on a déterminé ici et ici quelques concepts clés de l’analyse fiscale (incidence fiscale, taux moyen et marginal, etc…) et puis Antoine a expliqué ici ce qui se passait du point de vue des revenus d’activité. Nous allons désormais tâcher de montrer combien d’impôt paie vraiment un euro de bénéfice, et comparer cela à un euro de salaire. Ce petit éclairage sur la structure des prélèvements sur les bénéfices tombe d’ailleurs à point nommé, le Projet de Loi de Finances pour 2008 (PLF2008) ayant considérablement, et en catimini, transformé la forme des impositions pesant sur les bénéfices….

I/ Les fondements de l’exercice

Le but du jeu est de rendre compte de l’effet de chacun des prélèvements existant dans notre système socio-fiscal sur 1 euro de bénéfice distribué sous forme de dividende. Evidemment, il existe tout un tas d’autres placements, de sorte que les bénéfices distribués ne sont qu’une des nombreuses manières de générer du revenu à partir d’un patrimoine, mais nous commencerons par là, avant d’élargir dans la mesure du possible notre analyse dans des posts à venir. Par ailleurs, nous nous contenterons d’une analyse descriptive, laissant au placard pour le moment les considérations théoriques (« est-il plus efficace/juste de taxer plus/moins les revenus du travail/du patrimoine? »).

Pour commencer, décrivons les prélèvements pesant ou susceptibles de peser sur les bénéfices et leur fonctionnement (nous nous appuyons dans un premier temps sur la législation en vigueur pour les bénéfices 2006). Tout d’abord, soyons clairs : les cotisations sociales ne pèsent pas sur les bénéfices, comme Overzelus en a admirablement administré la preuve. Le prélèvement le plus important, c’est donc tout simplement l’impôt sur les sociétés (IS), dit aussi « impôt sur les bénéfices des sociétés », dont le taux est égal à 33,33% du bénéfice. C’est une « flat tax » des plus classiques. Nous considérons ici que l’IS est payé à 100% par les bénéfices, ou pour le dire autrement, que l’incidence fiscale de l’IS est à 100% sur les bénéfices. Cette hypothèse est importante, bien que est discutable : a priori, il n’est pas impossible qu’une partie de l’IS soit reportée sur les salaires, ou même sur les prix. Par manque tragique d’études précise sur cette question, il est plus facile de faire l’hypothèse haute que l’intégralité de l’IS est payée par les bénéfices, mais nous verrons que relâcher cette hypothèse conduit à amender considérablement le tableau final.

Ensuite, il y a la TVA : là, nous ferons au contraire l’hypothèse que cet impôt est payé à 100% par les consommateurs, sous la forme d'un renchérissement des prix à la consommation. Evidemment, ceci n’est vrai qu’à long terme, et encore pas nécessairement complètement. Mais ceci reste quand même l’hypothèse la plus robuste : l’incidence de la TVA sur les bénéfices est donc supposée supposée nulle.

Après cela, vient habituellement la taxe professionnelle (TP) : malheureusement, l’assiette de la taxe professionnelle est très particulière, puisqu’il s’agit essentiellement des immobilisations depuis la suppression de la partie salaires dans l’assiette de la TP, et son taux varie énormément selon les régions/départements/communes, de telle sorte que le niveau moyen de TP payé par une entreprise est extrêmement variable. Nous avons donc décidé de l’exclure de notre analyse. Mais ceci porte peu à conséquence. En effet, la taxe professionnelle est désormais plafonnée en fonction de la valeur ajoutée (VA) : elle ne peut dépasser 4% de la VA, et dans la réalité seules 200 000 entreprises en France paient plus de 3,5% (en % de la VA) de TP nous dit le ministère des Finances. On pourrait toujours choisir de considérer un taux moyen de TP valable pour l’ensemble de l’économie française, mais cela masquerait inévitablement les grandes divergences locales : dans ce cas, le plus juste serait de rapporter la masse de TP payée (de l’ordre de 25 milliards) à la masse des bénéfices bruts (soit 1/3 du PIB) et l’on obtiendrait quelque chose de l’ordre de 4% de taux moyen de prélèvement au titre de la TP. Si l’on veut donc incorporer coûte que coûte la TP, il faudra donc rehausser de 4 points tous les taux moyens calculés par la suite. Au demeurant, la question de l’incidence de la TP reste pendante, et il n’est pas du tout évident que 100% de la TP porte sur les bénéfices, une grande partie étant probablement répercutée sur les salaires.

Après cela, cet euro de bénéfice est distribué comme nous l’avons dit sous forme de dividende, et à ce titre il est redevable de la Contribution Sociale Généralisée (CSG) et de l’impôt sur le revenu (IR). L’IR est le seul prélèvement à proprement parler progressif dans l’imposition des bénéfices, la progressivité dépendant du montant du revenu imposable. Son importance symbolique et sa complexité méritent qu’on s’y attarde quelques secondes.

II/ L’IR et l’imposition des dividendes

L’IR a récemment considérablement changé son traitement des dividendes. Historiquement, les dividendes étaient traités par le mécanisme de l’avoir fiscal dont le but était d’éviter la « double-imposition » des bénéfices, puisque ces bénéfices qu’on taxe à l’IR étaient déjà taxés à l’Impôt sur les sociétés. Attention louable du législateur, même si on peut se demander pourquoi diable compenser l’imposition à l’IS et pas à la TP ou à la CSG. Car l’IS n’est pas seul à avoir un effet a priori distorsif sur les revenus de la propriété. Passons. L’idée consistait donc à redonner au contribuable ce dont son bénéfice avait été amputé par l’impôt sur les sociétés. En contrepartie de la suppression de fait de l’IS, cela revenait à augmenter considérablement le revenu imposable d’un contribuable au titre de l’IR (puisque son revenu imposable augmentait de 33,33% du dividende brut ou, ce qui est équivalent, de 50% du dividende net d’IS) : comme le barème de l’IR est progressif (plus mon revenu est important, plus mon taux moyen augmente), ceci avait pour conséquence de faire augmenter rapidement le montant de l’IR payé.

L’avoir fiscal a été supprimé en 2005 et remplacé par un abattement de 40%. Techniquement, ceci revient à dire que le contribuable ne touche plus d’avoir fiscal, mais qu’en contrepartie son revenu imposable est beaucoup plus faible, donc qu’il paie un taux moyen d’imposition beaucoup plus faible sur son dividende net d’IS.

III/ Travail et capital, même combat

Au final, le fonctionnement de l’ensemble du système fiscal sur 1 euro de bénéfice est décrit dans le graphique suivant, qui donne le taux marginal de prélèvement pour les deux systèmes de l’IR (l’avoir fiscal et l’abattement de 40%) :


Le premier enseignement, c’est que l’imposition des bénéfices est, quel que soit le système, relativement progressive, et loin d’être « confiscatoire ». On oscille entre des taux marginaux de 10 à 55%, ce qui est loin des antiennes du type « les bénéfices sont surtaxés, nos entreprises sont pressurées, extorquées, etc… ».

On observe ensuite que le système de l’avoir fiscal, en supprimant complètement l’IS était au final plus avantageux que le nouveau système avec abattement qui, lui, maintient le prélèvement proportionnel de l’IS à 33,33%. Ceci, bien sûr, est fortement lié à notre hypothèse de départ, à savoir que l’IS pèse à 100% sur les bénéfices. Si l’IS venait à être répercuté sur les prix, ou sur les salaires, alors, le taux marginal baisserait de manière importante et il se pourrait même que le nouveau système soit au final plus avantageux que le système avec avoir fiscal, ce qui expliquerait l’explosion des dividendes distribués constatée dans les statistiques fiscales pour 2005. La question de l’incidence de l’IS est donc cruciale pour apprécier la progressivité globale du système, et on ne peut que regretter qu’aucun travail n’ait encore été mené (à notre connaissance) sur cet aspect de la fiscalité gauloise.

Dernier point important, le taux de prélèvement d’un euro de bénéfice est globalement comparable au taux de prélèvement d’un euro de revenu d’activité, comme le montre le graphique suivant :


La progressivité des prélèvements sur les revenus du travail peut même apparaître moins importante et le taux de prélèvement global plus élevé sur l’activité que sur les bénéfices ! Il faut toutefois souligner que le taux marginal sur les revenus d’activité inclut des cotisations sociales contributives, c’est-à-dire qui ouvrent des droits proportionnels à des contributions telles que l’assurance chômage ou la retraite. Ces cotisations ne sont donc pas forcément assimilables à 100% à un prélèvement, à tous le moins aux types de prélèvement qui pèsent sur les bénéfices.

Au final, ce qu’il est important de garder en tête, c’est qu’il y a globalement une mesure commune : les taux d’imposition du capital et du travail ne sont pas complètement aux antipodes. L’autre point c’est que jusqu’à aujourd’hui, l’imposition des bénéfices gardait un caractère assez progressif. Mais cette caractéristique, elle, pourrait disparaître…

IV/ La réforme de 2008 et le prélèvement libératoire ?

Le PLF2008 a en effet décidé d’instaurer un prélèvement libératoire de 18% sur les dividendes distribués en lieu et place de l’imposition de ces dividendes au barème de l’IR. La raison d’une telle réforme est désespérément simple : trouver de l’argent pour boucler le budget, quitte à se débarrasser des bijoux de famille ! Pourquoi ? C’est cristallin : le principe d’un prélèvement libératoire, c’est d’être payé immédiatement, au moment de la réalisation du revenu. L’Etat touche donc les recettes immédiatement. A contrario, les revenus soumis au barème de l’IR ne sont déclarés qu’en mars de l’année n+1 et perçus par l’Etat au cours de l’année n+1 : passer d’un système d’imposition au barème à un système de prélèvement libératoire permet de toucher deux fois les gains fiscaux une année donnée. En 2008, l’Etat touchera l’impôt au barème sur les dividendes de 2007 ET le prélèvement libératoire sur les dividendes de 2008 ! Super banco pour une équipe gouvernementale qui a bien besoin de ces petits zakouskys pour éviter de tomber dans la zone rouge (celle de Jean Claude Juncker, pas celle de Jean-Pierre Foucault !).

Ce petit changement a en fait une portée symbolique beaucoup plus forte que ce que l’on croit habituellement : en fait, il s’agit tout simplement du dernier avatar dans la longue histoire de la sortie des revenus de patrimoine du domaine de droit commun de l’IR, qui est la progressivité, au profit d’une imposition proportionnelle (flat tax). Le graphique suivant montre indique le taux marginal d’imposition induit par le nouveau système de prélèvement libératoire :


Premier enseignement : la réforme n’est avantageuse qu’au niveau des très gros bénéfices distribués. Deuxième enseignement : le taux marginal reste élevé lorsqu’on additionne tous les prélèvements. Troisième enseignement : a priori, le choix du prélèvement libératoire est libre, donc les petits bénéfices devraient toujours choisir d’être imposés au barème et les gros dividendes au prélèvement libératoire. Mais comme il y a fort à parier que les petits dividendes ne sont pas toujours aussi bien informés que les gros, les petits dividendes vont souvent choisir par commodité le prélèvement libératoire, sans se rendre compte qu’ils y perdent. Au final donc, la réforme nous fait perdre pas mal en progressivité, et pas mal aussi en ressources fiscales sur les très gros dividendes, pour boucler le budget 2008 de façon cosmétique. C’est le Canadair pour un feu de broussaille !

P.S. : Certains d’entre vous auront constaté que l’on a gentiment négligé l’ISF dans notre petit calcul. C’est que les choses ne sont pas simples car l’assiette de l’ISF est constituée par le stock de patrimoine et non par le le flux de revenus du patrimoine. Donc il faut pouvoir imputer un patrimoine à notre euro de bénéfice. La technique la plus simple, qui consiste à dire que l’euro de bénéfice n’est rien d’autre que la traduction d’un rendement moyen de 4% environ (c’est le taux d’un placement sans risque) ne change rien à la donne, car on obtient ainsi des impôts sur la fortune assez faibles, du fait de la forte progressivité du barème de l’ISF et de l’abattement de 750 000 euros. Toutefois, pour les niveaux élevés de bénéfices, l’ISF pourrait devenir important. Je n’ai donc pas encore d’avis tranché, ni de hard facts sur cette question. J’y réfléchis, et je vous rappelle…
_Camille_

Lire la suite...

mardi 11 décembre 2007

Les Gaulois sont-ils plus productifs que les autres ?


Cocorico ! Dans un accès de gallophilie remarqué par Olivier Bouba-Olga (mais contesté par quelques rabat-joie), Paul Krugman s’appuyait il y a quelques mois sur l’exemple gaulois pour pourfendre le mythe d’une Europe moins productive que les Etats-Unis. Pour étayer sa thèse, l’économiste américain rappelait que la productivité du travail en France (égale à la production divisée par le nombre d’heures travaillées) était supérieure à celle de nos voisins d’outre-Atlantique et réfutait l’argument selon lequel cet écart serait la conséquence d’un taux de chômage plus élevé et d’une durée du travail moyenne plus faible dans notre pays. Oncle Sam-le-glandu aurait-il donc du souci à se faire face à l’irrésistible ascension de Vercingétorix-le-productif ? On aimerait tellement le croire… mais soyons prudents... car avant de fourbir nos armes, d’avaler une bonne rasade de potion magique et d’entonner fièrement l’hymne de la victoire, on serait bien avisé d’aller faire un petit tour du côté des chiffres. On ne sait jamais quelles surprises ces coquins-là peuvent nous réserver…

I/ Une productivité apparente du travail à faire pâlir ?

A première vue, la comparaison de la productivité horaire du travail en Gaule avec celle des autres pays de l’OCDE est plutôt flatteuse, puisque notre ardeur légendaire nous place au sommet de la hiérarchie des pays les plus productifs :


Ce graphique fait apparaître que notre productivité horaire, supérieure de 13% à celle des Etats-Unis (qui servent de point de comparaison), n’était dépassée en 2002 que par celle des valeureux Norvégiens (125) et se situait très au-dessus de celle des perfides Bretons (78). Certes, mais en confrontant ainsi les niveaux de productivité entre pays, ne commet-on pas un abus de langage ? Compare-t-on réellement des choses comparables ?

II/ Oui, mais… la légende d’Ocedeus

Une légende tirée de notre tradition nationale permet d’en douter.

En des temps reculés, quelque part dans la forêt d’Ocedeus, une assemblée de druides gaulois décida de lancer un grand concours : le village « le plus productif de Gaule » se verrait récompensé par la remise du fameux bouclier de Brennus. Au terme de longues péripéties (que je vous épargnerai par charité), deux villages parvinrent en finale : à ma gauche, Malthusianus, où la coutume locale interdisaient aux habitants incapables de produire plus d’un menhir par an de travailler, ce qui revenait à exclure les jeunes et les anciens des carrières du village (leur productivité individuelle étant justement égale à un menhir par an) ; à ma droite, Darwinianus, où toute la population, conduite d’une main de fer par l’impitoyable Stakhanovix, était contrainte aux travaux forcés, du berceau jusqu’à la tombe. Chacun de ces villages était peuplé de 100 habitants. A l’issue d’une année de dur labeur, le village de Darwinianus parvint à faire sortir 400 menhirs de ses carrières, dont 100 produits à la sueur de leur front par les 50 jeunes et vieux du village (qui représentaient la moitié des habitants). De son côté, le village de Malthusianus amena 250 menhirs à l’assemblée des druides, en signalant au jury qu’ils avaient été produits par les seuls membres du village autorisés à travailler (soit 50 individus en tout). A l’issue d’une longue délibération, les druides décidèrent d’attribuer le bouclier de Brénus aux Malthusiens, en justifiant ainsi leur décision : « la productivité du travail des Malthusiens s’élevant à 250/50 = 5 menhir/travailleur contre 400/100 = 4 menhir/travailleur pour les Darwiniens, l’assemblée des druides déclare Malthusianus village le plus productif de Gaule ! ».

Criant à l’injustice, les économistes darwiniens contestèrent le verdict des druides, en faisant valoir que pris individuellement, les Darwiniens étaient tous plus productifs que les Malthusiens : la productivité des jeunes et vieux de Darwinianus s’élevait en effet à 2 menhirs/travailleur (100/50) contre une productivité potentielle de 1 menhir/habitant chez les jeunes et vieux de Malthusianus ; la productivité des individus d’âge mur atteignait quant à elle 6 menhir/habitant (300/50) chez les Darwiniens contre 5 menhirs/habitant (250/50) chez les Malthusiens. A l’appui de leur réclamation, les Darwiniens demandèrent à leurs meilleurs économètres de produire le tableau suivant, afin de faire apparaître clairement que leur productivité structurelle était supérieure à celle de leurs adversaires malthusiens, quand bien même leur productivité apparente était inférieure :


Ce louable effort n’eut pas l’effet escompté : instruits par le barde Attalix de l’incompétence des économistes darwiniens et n’étant eux-mêmes guère versés dans l’occultisme économétrique, les druides gaulois traitèrent cette requête avec le plus grand mépris et confirmèrent leur décision souveraine. Il n’en fallut pas plus pour mettre le feu aux poudres et déclencher une interminable guerre civile…

Cette petite fable montre les limites d’une comparaison naïve de la productivité apparente du travail entre différents pays. Qu’un pays ait une productivité apparente du travail plus élevée qu’un autre ne signifie nullement qu’un individu pris au hasard dans ce pays soit plus productif en moyenne qu’un individu pris au hasard dans un autre pays : techniquement, la moyenne d’une distribution tronquée est différente de la moyenne de l’ensemble de la distribution. Dans l’exemple qui précède, les Darwiniens sont réellement plus productifs que les Malthusiens pris globalement ; la raison pour laquelle la productivité des seconds apparaît supérieure à celle des premiers est que la fraction la moins productive des Malthusiens ne travaille pas, ce qui tend à « gonfler » artificiellement leurs statistiques.

Or, que nous apprennent les statistiques gauloises à ce sujet ? Eh bien, qu’il y a de bonnes raisons de penser que certaines caractéristiques de notre marché du travail pourraient expliquer une légère surévaluation de nos performances productives…

Ces caractéristiques sont au nombre de deux, ainsi qu’on peut le voir sur le tableau suivant :


1/ Ce que ces statistiques font d’abord apparaître, c’est que notre taux d’emploi (égal à la population en emploi rapportée à la population totale) se situe en deçà de la moyenne des pays de l’OCDE : en 2002, seuls 62,2% des Français âgés de 15 à 64 ans occupaient un emploi, contre 71,9% aux Etats-Unis, 72,7% au Royaume-Uni et 65,1% en moyenne pour les pays membre de l’OCDE. Cet écart de taux d’emploi est particulièrement accusé pour deux catégories de la population : les jeunes âgés de 15 à 24 ans d’une part (taux d’emploi de 24,1% contre 43,7% dans les pays de l’OCDE) et les seniors âgés de 55 à 64 ans (39,3% contre 49,4%). Plusieurs facteurs expliquent cette situation relativement atypique :
  • une durée d’études plus longue en moyenne, qui retarde l’entrée sur le marché du travail d’une grande partie des jeunes ;
  • un taux de chômage relativement élevé, particulièrement pour les 20-25 ans ;
  • enfin, un certain nombre de dispositifs légaux qui ont eu pour effet de diminuer drastiquement le taux d’emploi des seniors : abaissement de l’âge de la retraite à 60 ans, politiques d’incitation aux départs anticipés (dispenses de recherche d’emploi, préretraites, contribution « Delalande », etc.) ;
Certes, me direz-vous, mais en quoi cela influence-t-il notre productivité ? La réponse est simple : à l’image du village gaulois de Mathusianus, il est probable que la productivité des jeunes et des seniors qui ne sont pas en emploi soit plus faible que celle des adultes en emploi : les jeunes, parce qu’ils n’ont pas acquis l’expérience professionnelle de leurs aînés ; les seniors, en raison du phénomène de tassement de la productivité individuelle observée après 55 ans et surtout parce que ceux d’entre eux qui sont sortis de la population active, outre qu’ils étaient sans doute initialement moins productifs que ceux qui y sont restés, ont vraisemblablement subi une dégradation importante de leur capital humain en n’étant plus sur le marché du travail. Le fait que le taux de chômage des jeunes et des plus de 55 ans soit sensiblement plus élevé que la moyenne semble d’ailleurs plaider en faveur de cette hypothèse. Dans ces conditions, que se passerait-il si on augmentait le taux d’emploi de ces deux catégories de la population ? Selon toute probabilité, on assisterait à un abaissement relatif de la productivité horaire du travail, en vertu du même mécanisme que celui qui expliquait que la productivité apparente des Darwiniens était plus faible que celle des Malthusiens, quand bien même leur productivité structurelle était plus élevée.

2/ L’autre caractéristique du marché du travail français qui peut biaiser à la hausse la productivité apparente du travail est notre faible durée du travail : en 2002, la durée annuelle du travail en France était égale à 1437 heures/an contre 1739 heures/an en moyenne dans les pays de l’OCDE, en raison principalement d’une durée légale du travail plus faible qu’ailleurs (35 heures oblige). Or il ne paraît pas absurde de penser que les rendements de la durée du travail sont globalement décroissants : autrement dit, plus on travaille longtemps, et moins on est efficace. Cette idée était d’ailleurs au cœur de l’argumentation en faveur du passage aux 35 heures, la réduction du temps de travail devant permettre non seulement de réduire l’ « effet fatigue » des salariés, mais également d’accroître la durée d’utilisation des équipements afin d’optimiser la chaîne de production. Il est donc probable que si la durée du travail des français était portée au niveau de la moyenne des pays de l’OCDE, la productivité horaire diminuerait sensiblement.

III/ Ouf… l’honneur est sauf, par Belenos !

Les deux remarques qui précèdent devraient nous inciter à considérer avec circonspection les comparaisons de productivité apparente du travail entre pays. Au minimum, il faudrait pouvoir corriger ces comparaisons des effets structurels liés aux différentiels de taux d’emploi et de durée du travail.

C’est à cet exercice que ce sont livrés deux économistes gaulois : dans cet article paru dans la Revue économique de l’OCDE, Renaud Bourlès et Gilbert Cette proposent une estimation des niveaux de productivité structurels de 25 pays de l’OCDE sur la période 1992-2002. Malgré les limites de l’approche adoptée (petit nombre d’observations, hypothèses simplificatrices), les auteurs se sont efforcés d’estimer le niveau de productivité horaire « structurelle » qui serait observée dans les différents pays si la durée du travail et le taux d’emploi (pour chaque catégorie d’âge) étaient les mêmes qu’aux Etats-Unis, pris comme pays de référence.

Le tableau suivant reproduit les résultats de leurs estimations :


Plusieurs enseignements peuvent être tirés de la lecture de ces résultats :
1/ Pour tous les pays, le niveau relatif (aux Etats-Unis) de la productivité horaire « structurelle » du travail est inférieur à celui de la productivité horaire « observée ». Cette différence provient du fait que la plupart des pays présentent une durée du travail et un taux d’emploi plus faible que celui des Etats-Unis.
2/ Comme on pouvait s’y attendre, la productivité structurelle relative de la France diminue sensiblement par rapport à sa productivité observée : par rapport aux Etats-Unis, elle perd 15 points, en passant de 113 à 98 (ce qui signifie que notre productivité structurelle est égale à 98% de celle des Américains). Les calculs des auteurs indiquent que les deux tiers de cette diminution sont imputables à l’écart de durée du travail, le tiers restant provenant du différentiel de taux d’emploi entre les deux pays.
3/ Néanmoins, malgré cette correction, la France continue de faire plutôt bonne figure par rapport à ses voisins européens : elle n’est dépassée que par l’Irlande et la Norvège et sa productivité structurelle reste sensiblement supérieure à celle des Anglais (77), même si l’écart de productivité entre les deux pays se réduit de 30% environ.

Au total, si l’étude de Bourlès et Cette devrait inciter plus d’un commentateur à mettre de l’eau dans sa cervoise et à ne pas conclure trop rapidement à la supériorité productive du peuple gaulois, elle montre que nos performances ne sont pas humiliantes non plus, en tout cas pas autant que certains voudraient le faire croire.

IV/ Et alors ?

Que conclure de tout cela ?

1/ D’abord, que les comparaisons naïves des productivités horaires du travail sont tout sauf un bon indicateur de la productivité réelle d’un pays.

2/ Ensuite, que ces chiffres doivent au minimum être corrigés des effets structurels liés aux écarts de durée du travail et de taux d’emploi des pays considérés.

3/ Enfin et surtout, qu’il faut s’interroger sur le sens de ces écarts. La faiblesse de notre taux d’emploi et de notre volume d’heures de travail est-elle le signe d’un dysfonctionnement du marché du travail français ou bien l’expression d’un choix de société ayant contribué à améliorer le bien-être global ? Derrière cette question en apparence anodine se situe un débat particulièrement difficile à trancher, surtout en ce qui concerne la réduction du temps de travail : d’un côté, l’adoption des 35 heures peut être vue comme une politique malthusienne qui a tari artificiellement la production de richesses en France ; mais d’un autre côté, si les 35 heures n’ont fait que traduire légalement une plus forte préférence des Français pour le loisir, leur suppression serait synonyme de perte de bien-être, notamment si les individus n’ont pas la faculté de choisir librement leur temps de travail et sont contraints de travailler plus qu’ils ne le souhaiteraient (c’est d’ailleurs l’un des arguments avancé par Krugman dans sa défense du modèle français). Pour approfondir cette question, je renvoie le lecteur aux riches échanges qu’Emmanuel de Ceteris Paribus et Alexandre d’Econoclaste avaient eu il y a trois ans sur la durée du travail, en cinq actes (I, II, III, IV et V) résumés ici pour les flemmards. Et qu’on ne vienne pas nous dire après ça que les blogueurs gaulois ne sont pas productifs, par Toutatis !
_Julien_

Lire la suite...

lundi 10 décembre 2007

Jean Tirole sur l'autonomie des universités


A lire : cette tribune dans le Monde, signée Jean Tirole. Ici à Ecopublix, on applaudit des deux mains.
_Ecopublix_

Lire la suite...

jeudi 6 décembre 2007

Contrôle des loyers et pouvoir d'achat


Parmi les mesures annoncées par le chef Sarkozix pour augmenter le pouvoir d’achat des Gaulois, le logement occupe une place de choix, avec la proposition de supprimer la caution et de changer l’indice de référence pour l’indexation des loyers. En effet, si les loyers en Gaule sont fixés librement lors d’un changement de locataire, leur hausse, une fois le bail signé, est limitée par la croissance d’un indice défini par l’Etat. La proposition du chef consiste à remplacer l’indice actuel, appelé l’indice de référence des loyers, par l’indice des prix à la consommation (hors loyers et tabac). Cette substitution des indices va-t-elle augmenter le pouvoir d’achat des Gaulois ? Pour faire court, la réponse est peut-être oui pour certains d’entre eux au détriment d’autres catégories dans le court terme, mais certainement non à plus long terme. Pour bien comprendre pourquoi, il est utile de replacer cette mesure un peu technique dans le contexte plus général des politiques de contrôle des loyers, et de la discussion des économistes sur leur efficacité.

I/ Les consequences néfastes du controle des loyers

La régulation des loyers est apparue en Europe à l'occasion de la Première guerre mondiale, pour aider les locataires, (et en premier lieu les familles de soldats) à faire face à cette situation exceptionnelle, dans un contexte général de contrôle des prix. Cette régulation a généralement été prolongée jusqu’à la Seconde guerre mondiale, au cours de laquelle les loyers furent de nouveau gelés, aussi bien en Europe qu’aux Etats-Unis (1). En 1970, de nombreuses villes européennes maintenaient un contrôle des loyers plus ou moins strict et parfois réservé aux anciennes habitations, héritage direct des programmes mis en place pendant la guerre. Dans un contexte de forte inflation, le contrôle des loyers a connu un renouveau à cette période, sous diverses formes dont nous reparlerons plus loin.

Le contrôle des loyers représente un cas d’étude standard en économie. On peut illustrer le problème avec un simple graphique d’offre et de demande de logements locatifs. On porte sur l’axe horizontal la quantité d’appartements sur le marché (Q), et sur l’axe vertical le loyer versé aux propriétaires (P).


Sans régulation, l’équilibre s'établit au point E. Supposons qu'on décide d'instaurer un plafonnement des loyers, qui ne peuvent légalement excéder le niveau PR. Le nouvel équilibre s'établit au point R. Quelles en sont les caractéristiques ?

1/ L'effet sur les prix : le loyer régulé (PR) est plus faible que le loyer de l’équilibre non réglementé (PE).

2/ L'effet sur les quantités : pour ce niveau de loyer, la demande de logements locatifs excède le nombre de logements effectivement loués à l'équilibre. Sur le graphique, on constate que pour le loyer PR, la demande est plus élevée que la quantité disponible QR. En présence d'un excès de demande de ce type, l'allocation des logements aux locataires désireux de louer un logement s'organise selon le principe du rationnement : l'ensemble des demandeurs solvables ne pouvant être servis, le tri s'effectue selon d'autres critères que le prix (position dans la file d'attente, garanties de paiement, discrimination, etc.)

3/ Une baisse de la qualité des logements : La perte de profitabilité de la location décourage l’entretien des immeubles, ainsi que la construction de nouveaux logements, si bien que la mise en place d'un contrôle des loyers entraîne une diminution de la qualité du parc locatif.

4/ Une perte d'efficacité : le rationnement induit par le contrôle des loyers constitue l’inefficacité majeure de la régulation : graphiquement, cette perte d'efficacité ( baptisée « perte sèche » par les économistes) correspond à l'aire coloriée en jaune. En présence d'un plafonnement des loyers, les consommateurs sont prêts à payer plus que ce que les propriétaires demanderaient pour un accroissement du nombre de logements sur le marché, car la demande se situe au-dessus de l’offre entre les points R et E. Le contrôle des loyers empêche ces transactions d'avoir lieu, alors qu'elles augmenteraient le bien être global. Cette inefficacité prend plusieurs formes, qui peuvent s’observer actuellement en Suède, un pays Barbare qui a ceci de singulier que les loyers y sont encore complètement contrôlés : les files d’attente pour obtenir un appartement situés au cœur des grandes ville s'y étalent sur plusieurs dizaines d’années (on parle de 30 à 50 ans). Les locataires en place conservent leur logement le plus longtemps possible puisqu’ils bénéficient de bas loyers, préférant sous-louer (souvent illégalement) leur appartement avec des baux de courte durée plutôt que de le perdre, même s’ils ne comptent pas l’habiter dans un futur proche. Du coup, les nouveaux arrivants sur le marché du logement, par exemple les jeunes et les étrangers, éprouvent de grandes difficultés à se loger. Les propriétaires (et les agences de location) exploitent cette pénurie en demandant aux locataires des versements annexes, souvent illégaux, et sélectionnent leurs locataires. Enfin, les très nombreux locataires qui ne parviennent pas à mettre la main sur un bail de longue durée se voient obligés de multiplier les sous-locations et les déménagements, et n’ont souvent d’autre choix que d’acheter un logement pour surmonter cette pénurie.

5/ Une réduction de la mobilité des individus : en incitant les propriétaires à mettre en vente leurs appartements auparavant mis en location (cette dernière formule rapportant moins d’argent), le contrôle des loyers fait chuter le nombre de logements disponibles sur le marché locatif. Cela pénalise fortement les jeunes, les personnes mobiles géographiquement et plus généralement tous ceux qui ne souhaitent ou ne peuvent investir dans l'achat d'une maison ou d'un appartement. Le marché du travail pâtit indirectement de cette réduction de la mobilité des locataires, puisque les individus vont limiter leurs recherches d’emploi à un secteur géographique qui ne les force pas à déménager. Ces deux effets ont été confirmés au Danemark : les locataires jouissant d’un appartement à loyer régulé restent plus longtemps dans leur logement et les chômeurs acceptent plus souvent une offre d’emploi proche de leur habitation que ceux qui occupent des appartements à loyer non contrôlé.

6/ Les effet redistributifs du contrôle des loyers : a priori, les gagnants et les perdants de la réglementation des loyers sont relativement aisés à identifier. La baisse des loyers profite aux locataires, alors que les propriétaires gagnent moins d’argent. Le contrôle des loyers opère donc une redistribution des propriétaires vers les locataires. Sur le graphique, cette redistribution est représentée par le rectangle vert dont l’aire est égale à la différence entre le montant total des loyers payés par les locataires (loyer multiplié par quantité de logement) et ce qu’ils paieraient en l'absence de plafond. Il faut néanmoins ajouter un bémol à ce bilan redistributif : certes, la législation opère un transfert de revenu des propriétaires vers les locataires, mais uniquement en faveur de ceux qui ont conservé leur logement à la suite du plafonnement des loyers, c'est-à-dire sans prendre en compte tous ceux qui ont été lourdement pénalisé par la perte de leur logement (
QE-QR), provoquée par le rationnement du marché. Au total, le bien-être global diminue : graphiquement, cette perte est mesurée par le triangle jaune situé entre les courbes d'offre et de demande de logement.

II/ Quelle marge pour la régulation du marché ?

L'inefficacité du contrôle des loyers signifie-t-elle qu'il n'y ait aucune place pour l'intervention publique en matière de régulation du marché locatif ? Non, car il existe un certain nombre d'imperfections sur le marché du logement qui peuvent justifier dans certains cas la mise en place d'une régulation de la progression des loyers. Le système aujourd'hui en vigueur en Gaule comme dans beaucoup d’autres pays ne consiste d'ailleurs pas en un contrôle total du niveau des loyers, mais en une limitation de la croissance du loyer, une fois le bail signé, ce qui modifie les effets de la régulation.

Le marché du logement est en effet loin d’être un marché « parfait » où l’information circule librement et où le coût de trouver un bien est nul : les locataires supportent des coûts de recherche élevés et accepteront probablement le premier logement qui correspond à leurs critères sans savoir s’il en existe un autre similaire pour un prix moins élevé. Ceci confère aux propriétaires un pouvoir de marché qui leur permet d’extraire une rente au détriment des locataires : dans cette situation, une régulation pourrait être bénéfique afin d’éviter que les propriétaires ne fixent les loyers à un niveau supérieur à celui qui prévaudrait si le marché du logement était parfaitement fluide.

Par ailleurs, la régulation des loyers telle qu’elle fonctionne actuellement en France et dans d’autres pays d’Europe ne correspond pas à un côntrôle pur et simple des prix : elle ne fixe plus le niveau des loyers mais régule son évolution. Ce type de mesure s’est développé dans les années 1970, en accompagnement de réglementations visant à protéger les locataires contre le risque d'exclusion de leur logement, tout en poursuivant initialement l’objectif de limiter la hausse des prix dans une période d’inflation galopante. Cette forme de régulation a moins d’effets négatifs que le contrôle pur et simple des loyers, puisque le niveau des loyers peut s’ajuster à chaque fois que le bail d'un logement mis en location expire. Elle génère donc moins d’inefficacités, tout en assurant les ménages contre de fortes variations imprévues du niveau des loyers. Elle réduit aussi le pouvoir de monopole des propriétaires qui s'exerce en particulier au moment du renouvellement du bail. Le loueur va profiter du coût élevé d'un déménagement pour son locataire pour augmenter fortement le loyer. Le contrôle limite ces comportements.

Sans parler de monopole, d'autres arguments laissent penser que le marché souffre de problèmes d'information. D'un côté les propriétaires ne connaissent pas les caractéristiques des différents locataires, c'est-à-dire s'ils vont payer leur loyer, respecter les règles de copropriété, dégrader le logement, etc. Ce problème de sélection adverse va faire monter les prix. De l'autre les locataires ne connaissent pas non plus les caractéristiques du propriétaire: va-t-il entretenir le logement, a-t-il l'intention de vendre dans un futur proche? Les deux parties prennent en compte ces risques lorsqu'ils négocient le contrat et la loi peut fournir un contrat type pour éviter qu'une des deux parties ne soit clairement désavantagée.

Si le blocage des prix apparaît comme une mesure particulièrement néfaste, on peut donc envisager des arguments en faveur de formes plus sophistiquées de contrôle, sur les prix ou sur la nature des contrats. Il faut cependant souligner que ces justifications théoriques ne permettent pas de conclure sur l’optimalité des formes actuelles de régulation, parce que les études empiriques mesurant les imperfections sur le marché du logement et calculant les bénéfices attendus de telles mesures n’existent pas encore à notre connaissance. En revanche, et comme nous l'avons déjà souligné dans la première partie, les conséquences négatives sont connues, obervées, et parfois précisément mesurées. On ne peut en dire autant des effets positifs.

III/ Quel sera l’effet du changement d’indice sur le pouvoir d’achat ?

Après cette petite mise en perspective du contrôle des loyers, revenons à nos sangliers : quel sera l’effet du changement d’indice de référence de revalorisation des loyers proposé par le chef des Gaulois ? S’il est difficile de prévoir l’évolution future des différents indices, une analyse de leur évolution passée permet de tirer quelques enseignements.

Il faut d’abord souligner que l’indice historique de référence utilisé pour les révisions de loyer en cours de bail était l’indice du coût de la construction (ICC, qui mesure comme son nom l’indique l’évolution du coût de la construction de nouveaux bâtiments) mais il a été remplacé depuis le 1er janvier 2006 par l’indice de référence des loyers (IRL). Quel était l'objectif poursuivi ? L’indice de référence des loyers a été conçu à la fois pour lisser les évolutions de l’ICC (très sensible à l’évolution du coût des matières premières) et pour limiter les hausses de ce dernier : il est composé à 60% de l’indice des prix à la consommation (IPC) hors loyers et tabac, à 20 % de l’ICC et à 20 % de l’indice des prix des travaux d’entretien et d’amélioration du logement. Etant donné la faiblesse de l’inflation actuelle, le graphique suivant montre que l’IPC hors loyers et tabac a évolué beaucoup moins vite entre 2000 et 2006 que les deux autres indices.


Si la tendance actuelle devait se poursuivre, l’utilisation de l’IPC hors loyers et tabac pourrait permettre aux ménages locataires qui ne déménagent pas de bénéficier de plus faibles hausses de loyer à court terme. Mais ceci n'est pas du tout garanti à moyen terme, car ce changement d’indice devrait aussi affecter en retour le niveau des loyers à chaque fois qu'un bail sera signé, puisque les propriétaires s’attendront à être contraints jusqu'à la signature du prochain bail de limiter les hausses de loyer à un niveau qui ne reflètera pas forcément le coût d’entretien du logement : l’effet attendu d’une telle mesure sera donc une hausse plus forte des loyers lors du changement de locataire, un allongement de la durée d’occupation des logements par les locataires actuels, une baisse des efforts d’entretien des propriétaires et la mise en vente de certains appartements.

Ainsi, s'il est possible que ces mesures bénéficient à court terme aux ménages locataires bien installés dans leur logement, cet effet s’estompera à long terme à mesure que ces ménages seront obligés de déménager. En outre, les ménages les plus mobiles vont être directement touchés par la hausse des loyers, puisqu'ils seront les premières victimes de la réévaluation des loyers qui interviendront à l'occasion de la signature des nouveaux baux de location. La mesure va donc avoir des effets redistributifs assez peu désirables, puisqu'elle va favoriser les ménages les moins mobiles (en général les plus âgés) au détriment des ménages les plus mobiles (c’est-à-dire les jeunes et les célibataires), ces catégories ne recoupant pas forcément celles qui ont connu la plus forte baisse de leur pouvoir d’achat. Enfin, comme nous l’avons déjà souligné dans la première partie, cette mesure peut avoir un effet pervers pour l’emploi, en décourageant les chômeurs de déménager pour trouver un nouvel emploi.

Finalement, si, cette avec cette mesure, le chef des Gaulois peut essayer de se faire barde et de calmer les esprits, il risque à plus long terme de les échauffer, car ce changement d'indice n'aura pas d’effet durable sur le pouvoir d’achat.


NOTES :

(1) La guerre imposait souvent de déplacer le travail (par exemple vers une nouvelle usine d’armement) et le gel évitait que ces déplacements ne s’accompagnent de hausses brutales des loyers. A la sortie de la guerre, ces restrictions empêchèrent les propriétaires de profiter de la hausse de la demande suscitée par le retour des soldats.
_Emmanuel_ _Gabrielle_

Lire la suite...

mardi 4 décembre 2007

Qui comprend Hartz (2/3) ?


Il y a quelques semaines de cela, nous avions entrepris d’éclairer ce en quoi que les fameuses réformes Hartz mises en place en Allemagne entre 2003 et 2005 avaient véritablement consisté. Nous avions rappelé qu’elles s’étaient entre autres accompagnées d’un programme complet d’évaluation empirique, dont le coût était prévu dès la mise en place de la réforme et avions souligné que nous autres Gaulois devrions nous inspirer de telles pratiques, histoire de savoir à quoi nous dépensons nos deniers publix.

L’évaluation des réformes Hartz montre à quel point même avec la volonté politique, l’évaluation, et le fait d’en tirer les conséquences qui s’imposent n’est pas une tâche aisée.

Lorsqu’on demande à un économiste qui s’intéresse à l’Allemagne (là par exemple) ce qu’il pense de la guérison rapide de l’économie allemande au cours des trois à cinq dernières années, il répondra inlassablement quelque chose du style « les réformes structurelles, au premier rang desquelles celles entreprises depuis 2003 sur le marché du travail, ont joué un rôle majeur dans la baisse du chômage et le retour de la croissance ». Qu’en est-il exactement ?

En l’état actuel de nos connaissances, la seule chose qu'on puisse affirmer avec quelque certitude est que « certaines des mesures instituées dans le cadre des réformes Hartz ont sans doute contribué à une baisse accélérée du chômage alors que le contexte économique était favorable pour toute une série de raisons relativement indépendantes des réformes Hartz, et que cette baisse du chômage a pu en retour soutenir la croissance ». Toute proposition plus affirmative serait téméraire, et ce car l’évaluation des politiques publiques est malheureusement une activité nécessairement lente et partielle.

Lente car au temps de la mise en place de la réforme ou du nouveau dispositif s’ajoute celui de la collecte des données, et même si les chercheurs travaillent jour et nuit une fois les données disponibles, les premiers résultats raisonnablement robustes sur l’évaluation d’un dispositif peuvent n’arriver que plusieurs années après la réforme. Partielle car on peut rarement répondre à une question du type « les réformes ont-elles conduit au retour de la croissance ?»

I/ Aider les chômeurs à créer leur entreprise : l'exemple du dispositif Ich-AG

L’exemple du dispositif « Société anonyme à moi tout seul » (Ich-AG), mis en place dans le cadre de la loi Hartz II est à cet égard édifiant et vaut à mon avis la peine d’être détaillé tant il illustre certains problèmes auxquels l’évaluation, même bien faite, peut se heurter. Nous brosserons dans un prochain post un panorama plus complet des résultats de l’évaluation des autres mesures.

Lorsqu'il fut mis en place, le dispositif Ich-AG n'était pas tout à fait inédit : les aides à la création d’entreprise pour les chômeurs existaient depuis 1986 en République fédérale d’Allemagne. Mais ces aides ont été considérablement accrues, selon deux dispositifs distincts :
1/ le premier constituait une nouveauté : l’aide à la création d’entreprise individuelle (Existenzgründungszuschüsse dits « Ich AG ») introduite par la loi Hartz II et entrées en vigueur début 2003.
2/ l’autre qui existait déjà auparavant : l’allocation de transition (Überbrückungsgeld qui a été réformée depuis début 2004 dans le cadre de la loi Hartz III).

Les principes des deux dispositifs étaient les suivants :
  • l’allocation de transition devait permettre à des chômeurs de continuer à recevoir leurs allocations pendant une durée de 6 mois s’ils s’établissaient en tant qu’entreprise individuelle, et ce quel que soit le revenu perçu grâce à leur nouvelles activité ;
  • l’aide à la création d’entreprise individuelle visait quant à elle à autoriser les chômeurs qui décideraient de fonder leur entreprise de recevoir pendant trois ans une allocation dégressive (de 600€/mois la première année à 240€/mois la dernière) ;
Le choix pour un chômeur entre les deux systèmes dépend du dernier revenu perçu avant l’épisode de chômage, des perspectives de revenu de l’entreprise individuelle ainsi que de la durée de chômage anticipée. En gros un chômeur certain de son affaire et ayant touché des revenus élevés avant son épisode de chômage optera pour la première solution, alors qu’un chômeur prévoyant des débuts difficiles et n’ayant de toutes les manières pas de fortes allocations chômage préfèrera la deuxième solution.

II/ Les difficultés de l'évaluation

En quoi a consisté l’évaluation des ces nouvelles mesures ? Les chercheurs qui ont été recrutés à cette fin par le ministère allemand de l’emploi ont tenté de répondre à la question suivante : ceux qui ont bénéficié de cette mesure ont-ils vu leur probabilité de rester au chômage diminuer et si oui, de combien ?

Cette question est relativement ardue, pour au moins deux raisons :

1/ la première est que ces mesures ont eu tendance à faire augmenter initialement le taux de chômage des individus qui ont bénéficié, puisqu'il s'agissait par définition de chômeurs tout occupés à la fondation de leur entreprise, et par conséquent peu occupés à rechercher un emploi. Comparer naïvement le taux de retour à l’emploi des participants à celui des non participants conduirait ainsi de façon indue à considérer la mesure comme inefficace voir nuisible : il faut donc du recul pour s’abstraire de cet « enfermement » des chômeurs dans la mesure qu’on leur propose, et qui est destinée à les faire sortir plus vite du chômage ensuite (ce phénomène est encore plus évident avec les formations). Il faut donc attendre que le dispositif ait terminé de fonctionner pour pouvoir en mesurer l’effet réel sur les chances de sortie du chômage des bénéficiaires. Mais Ich-AG était prévue pour durer trois années ! Il faut donc s’armer de patience… ce qui n’est pas forcément aisé pour un homme politique qui attend qu’on lui dise avant les élections si l’argent qu’il a dépensé a été utilisé efficacement ou non…

2/ La deuxième raison pour laquelle l’évaluation est ardue, même lorsqu’on peut observer des individus qui ne sont plus touchés par l’aide, est que les bénéficiaires de cette aide ne sont pas comparables à ceux qui n’y ont pas eu recours (en fait et parfoit même en droit). On pourrait penser par exemple que ce sont en moyenne les chômeurs les plus débrouillards qui ont décisé de postuler pour l’aide à la création d’entreprise. Si tel est le cas, peut-on déduire de l'observation que ces individus sont moins souvent au chômage que leurs congénères après quelques années que l’aide a joué son rôle ? A priori non, parce que même en l'absence de cette mesure, il est probable que ces chômeurs plus débrouillards aient de toute manière retrouvé un emploi salarié plus facilement que les autres… Ce problème dit de « sélection endogène » des participants nécessite d’avoir recours à des techniques d’estimation plus sophistiquées que la simple comparaison brutale de deux groupes. Ces techniques sophistiquées sont gourmandes en données détaillées et donc en enquêtes coûteuses et qui prennent du temps.

III/ Des résultats plutôt encourageants

Finalement, que disent les études qui ont cherché à évaluer le dispositif Ich-AG (voir les papiers ici et ) ?

Pour l’allocation de transition, qui n’est payée que durant 6 mois, elles concluent que la probabilité d’être en emploi est, « grâce à l’allocation » de 32% plus élevée 10 mois après la fin du soutien, et entre 8% (Ouest) et 13% (Est) plus élevée 42 mois après la fin du soutien.

Pour l’aide à la création d’entreprise individuelle, l’évaluation est moins aisée dans la mesure où le recul ne permettait pas d’observer d’individus qui avaient bénéficié mais ne profitaient plus de l’aide. Les probabilités de ne plus être au chômage sont, en fonction de l’âge et de la zone géographique, entre 30 et 50% plus élevées 16 mois après le début de la mesure (alors que le soutien n’est plus de que 360€ mensuels). Les auteurs en concluaient, en l’attente de résultats plus robustes avec plus de recul temporel, que la mesure avait sans doute elle aussi eu un effet positif et significatif.

Ces résultats appellent deux remarques :

1/ D’une part on voit à quel point pour produire des connaissances précises et solides, il faut limiter les ambitions des conclusions : les chercheurs n’évaluent pas l’effet de la Ich-AG sur le PIB ou sur l’emploi dans cinq ans, mais seulement sur la probabilité pour un chômeur de retrouver un emploi, dans un contexte macroéconomique donné. Il n’est pas évident que mise en place ailleurs, à une autre époque, ces dispositifs fonctionneraient aussi bien. Toutefois, si la communauté des économistes n’a pas découvert le saint Graal avec Ich-AG, elle est sortie enrichie de cette évaluation : désormais, on sait que ce type de dispositif peut vraiment marcher dans un contexte comme celui de l’Allemagne des années 2000 et pas seulement parce qu’un bel esprit a écrit un modèle théorique cohérent où ça marche (ce qui est utile, mais pas suffisant pour justifier de dépenser les précieux deniers publics).

2/ D’autre part, il se trouve que les deux dispositifs, dont la différenciation semblait être une qualité puisque chacun s’adressait (efficacement visiblement) à un profil de chômeurs différent, ont été fusionnés par le ministère du Travail avant même qu'on ait le recul suffisant pour terminer l’évaluation ! Vouloir évaluer c’est bien, mais encore faut-il en tirer les conséquences qui s’imposent, au premier rang desquelles la nécessité d'une dose de patience et d'un soupçon de modestie.

Les Goths sont en avance sur les Gaulois, mais il semble bien qu’il leur reste aussi du chemin à faire...
_Fabien_

Lire la suite...