mardi 11 décembre 2007

Les Gaulois sont-ils plus productifs que les autres ?


Cocorico ! Dans un accès de gallophilie remarqué par Olivier Bouba-Olga (mais contesté par quelques rabat-joie), Paul Krugman s’appuyait il y a quelques mois sur l’exemple gaulois pour pourfendre le mythe d’une Europe moins productive que les Etats-Unis. Pour étayer sa thèse, l’économiste américain rappelait que la productivité du travail en France (égale à la production divisée par le nombre d’heures travaillées) était supérieure à celle de nos voisins d’outre-Atlantique et réfutait l’argument selon lequel cet écart serait la conséquence d’un taux de chômage plus élevé et d’une durée du travail moyenne plus faible dans notre pays. Oncle Sam-le-glandu aurait-il donc du souci à se faire face à l’irrésistible ascension de Vercingétorix-le-productif ? On aimerait tellement le croire… mais soyons prudents... car avant de fourbir nos armes, d’avaler une bonne rasade de potion magique et d’entonner fièrement l’hymne de la victoire, on serait bien avisé d’aller faire un petit tour du côté des chiffres. On ne sait jamais quelles surprises ces coquins-là peuvent nous réserver…

I/ Une productivité apparente du travail à faire pâlir ?

A première vue, la comparaison de la productivité horaire du travail en Gaule avec celle des autres pays de l’OCDE est plutôt flatteuse, puisque notre ardeur légendaire nous place au sommet de la hiérarchie des pays les plus productifs :


Ce graphique fait apparaître que notre productivité horaire, supérieure de 13% à celle des Etats-Unis (qui servent de point de comparaison), n’était dépassée en 2002 que par celle des valeureux Norvégiens (125) et se situait très au-dessus de celle des perfides Bretons (78). Certes, mais en confrontant ainsi les niveaux de productivité entre pays, ne commet-on pas un abus de langage ? Compare-t-on réellement des choses comparables ?

II/ Oui, mais… la légende d’Ocedeus

Une légende tirée de notre tradition nationale permet d’en douter.

En des temps reculés, quelque part dans la forêt d’Ocedeus, une assemblée de druides gaulois décida de lancer un grand concours : le village « le plus productif de Gaule » se verrait récompensé par la remise du fameux bouclier de Brennus. Au terme de longues péripéties (que je vous épargnerai par charité), deux villages parvinrent en finale : à ma gauche, Malthusianus, où la coutume locale interdisaient aux habitants incapables de produire plus d’un menhir par an de travailler, ce qui revenait à exclure les jeunes et les anciens des carrières du village (leur productivité individuelle étant justement égale à un menhir par an) ; à ma droite, Darwinianus, où toute la population, conduite d’une main de fer par l’impitoyable Stakhanovix, était contrainte aux travaux forcés, du berceau jusqu’à la tombe. Chacun de ces villages était peuplé de 100 habitants. A l’issue d’une année de dur labeur, le village de Darwinianus parvint à faire sortir 400 menhirs de ses carrières, dont 100 produits à la sueur de leur front par les 50 jeunes et vieux du village (qui représentaient la moitié des habitants). De son côté, le village de Malthusianus amena 250 menhirs à l’assemblée des druides, en signalant au jury qu’ils avaient été produits par les seuls membres du village autorisés à travailler (soit 50 individus en tout). A l’issue d’une longue délibération, les druides décidèrent d’attribuer le bouclier de Brénus aux Malthusiens, en justifiant ainsi leur décision : « la productivité du travail des Malthusiens s’élevant à 250/50 = 5 menhir/travailleur contre 400/100 = 4 menhir/travailleur pour les Darwiniens, l’assemblée des druides déclare Malthusianus village le plus productif de Gaule ! ».

Criant à l’injustice, les économistes darwiniens contestèrent le verdict des druides, en faisant valoir que pris individuellement, les Darwiniens étaient tous plus productifs que les Malthusiens : la productivité des jeunes et vieux de Darwinianus s’élevait en effet à 2 menhirs/travailleur (100/50) contre une productivité potentielle de 1 menhir/habitant chez les jeunes et vieux de Malthusianus ; la productivité des individus d’âge mur atteignait quant à elle 6 menhir/habitant (300/50) chez les Darwiniens contre 5 menhirs/habitant (250/50) chez les Malthusiens. A l’appui de leur réclamation, les Darwiniens demandèrent à leurs meilleurs économètres de produire le tableau suivant, afin de faire apparaître clairement que leur productivité structurelle était supérieure à celle de leurs adversaires malthusiens, quand bien même leur productivité apparente était inférieure :


Ce louable effort n’eut pas l’effet escompté : instruits par le barde Attalix de l’incompétence des économistes darwiniens et n’étant eux-mêmes guère versés dans l’occultisme économétrique, les druides gaulois traitèrent cette requête avec le plus grand mépris et confirmèrent leur décision souveraine. Il n’en fallut pas plus pour mettre le feu aux poudres et déclencher une interminable guerre civile…

Cette petite fable montre les limites d’une comparaison naïve de la productivité apparente du travail entre différents pays. Qu’un pays ait une productivité apparente du travail plus élevée qu’un autre ne signifie nullement qu’un individu pris au hasard dans ce pays soit plus productif en moyenne qu’un individu pris au hasard dans un autre pays : techniquement, la moyenne d’une distribution tronquée est différente de la moyenne de l’ensemble de la distribution. Dans l’exemple qui précède, les Darwiniens sont réellement plus productifs que les Malthusiens pris globalement ; la raison pour laquelle la productivité des seconds apparaît supérieure à celle des premiers est que la fraction la moins productive des Malthusiens ne travaille pas, ce qui tend à « gonfler » artificiellement leurs statistiques.

Or, que nous apprennent les statistiques gauloises à ce sujet ? Eh bien, qu’il y a de bonnes raisons de penser que certaines caractéristiques de notre marché du travail pourraient expliquer une légère surévaluation de nos performances productives…

Ces caractéristiques sont au nombre de deux, ainsi qu’on peut le voir sur le tableau suivant :


1/ Ce que ces statistiques font d’abord apparaître, c’est que notre taux d’emploi (égal à la population en emploi rapportée à la population totale) se situe en deçà de la moyenne des pays de l’OCDE : en 2002, seuls 62,2% des Français âgés de 15 à 64 ans occupaient un emploi, contre 71,9% aux Etats-Unis, 72,7% au Royaume-Uni et 65,1% en moyenne pour les pays membre de l’OCDE. Cet écart de taux d’emploi est particulièrement accusé pour deux catégories de la population : les jeunes âgés de 15 à 24 ans d’une part (taux d’emploi de 24,1% contre 43,7% dans les pays de l’OCDE) et les seniors âgés de 55 à 64 ans (39,3% contre 49,4%). Plusieurs facteurs expliquent cette situation relativement atypique :
  • une durée d’études plus longue en moyenne, qui retarde l’entrée sur le marché du travail d’une grande partie des jeunes ;
  • un taux de chômage relativement élevé, particulièrement pour les 20-25 ans ;
  • enfin, un certain nombre de dispositifs légaux qui ont eu pour effet de diminuer drastiquement le taux d’emploi des seniors : abaissement de l’âge de la retraite à 60 ans, politiques d’incitation aux départs anticipés (dispenses de recherche d’emploi, préretraites, contribution « Delalande », etc.) ;
Certes, me direz-vous, mais en quoi cela influence-t-il notre productivité ? La réponse est simple : à l’image du village gaulois de Mathusianus, il est probable que la productivité des jeunes et des seniors qui ne sont pas en emploi soit plus faible que celle des adultes en emploi : les jeunes, parce qu’ils n’ont pas acquis l’expérience professionnelle de leurs aînés ; les seniors, en raison du phénomène de tassement de la productivité individuelle observée après 55 ans et surtout parce que ceux d’entre eux qui sont sortis de la population active, outre qu’ils étaient sans doute initialement moins productifs que ceux qui y sont restés, ont vraisemblablement subi une dégradation importante de leur capital humain en n’étant plus sur le marché du travail. Le fait que le taux de chômage des jeunes et des plus de 55 ans soit sensiblement plus élevé que la moyenne semble d’ailleurs plaider en faveur de cette hypothèse. Dans ces conditions, que se passerait-il si on augmentait le taux d’emploi de ces deux catégories de la population ? Selon toute probabilité, on assisterait à un abaissement relatif de la productivité horaire du travail, en vertu du même mécanisme que celui qui expliquait que la productivité apparente des Darwiniens était plus faible que celle des Malthusiens, quand bien même leur productivité structurelle était plus élevée.

2/ L’autre caractéristique du marché du travail français qui peut biaiser à la hausse la productivité apparente du travail est notre faible durée du travail : en 2002, la durée annuelle du travail en France était égale à 1437 heures/an contre 1739 heures/an en moyenne dans les pays de l’OCDE, en raison principalement d’une durée légale du travail plus faible qu’ailleurs (35 heures oblige). Or il ne paraît pas absurde de penser que les rendements de la durée du travail sont globalement décroissants : autrement dit, plus on travaille longtemps, et moins on est efficace. Cette idée était d’ailleurs au cœur de l’argumentation en faveur du passage aux 35 heures, la réduction du temps de travail devant permettre non seulement de réduire l’ « effet fatigue » des salariés, mais également d’accroître la durée d’utilisation des équipements afin d’optimiser la chaîne de production. Il est donc probable que si la durée du travail des français était portée au niveau de la moyenne des pays de l’OCDE, la productivité horaire diminuerait sensiblement.

III/ Ouf… l’honneur est sauf, par Belenos !

Les deux remarques qui précèdent devraient nous inciter à considérer avec circonspection les comparaisons de productivité apparente du travail entre pays. Au minimum, il faudrait pouvoir corriger ces comparaisons des effets structurels liés aux différentiels de taux d’emploi et de durée du travail.

C’est à cet exercice que ce sont livrés deux économistes gaulois : dans cet article paru dans la Revue économique de l’OCDE, Renaud Bourlès et Gilbert Cette proposent une estimation des niveaux de productivité structurels de 25 pays de l’OCDE sur la période 1992-2002. Malgré les limites de l’approche adoptée (petit nombre d’observations, hypothèses simplificatrices), les auteurs se sont efforcés d’estimer le niveau de productivité horaire « structurelle » qui serait observée dans les différents pays si la durée du travail et le taux d’emploi (pour chaque catégorie d’âge) étaient les mêmes qu’aux Etats-Unis, pris comme pays de référence.

Le tableau suivant reproduit les résultats de leurs estimations :


Plusieurs enseignements peuvent être tirés de la lecture de ces résultats :
1/ Pour tous les pays, le niveau relatif (aux Etats-Unis) de la productivité horaire « structurelle » du travail est inférieur à celui de la productivité horaire « observée ». Cette différence provient du fait que la plupart des pays présentent une durée du travail et un taux d’emploi plus faible que celui des Etats-Unis.
2/ Comme on pouvait s’y attendre, la productivité structurelle relative de la France diminue sensiblement par rapport à sa productivité observée : par rapport aux Etats-Unis, elle perd 15 points, en passant de 113 à 98 (ce qui signifie que notre productivité structurelle est égale à 98% de celle des Américains). Les calculs des auteurs indiquent que les deux tiers de cette diminution sont imputables à l’écart de durée du travail, le tiers restant provenant du différentiel de taux d’emploi entre les deux pays.
3/ Néanmoins, malgré cette correction, la France continue de faire plutôt bonne figure par rapport à ses voisins européens : elle n’est dépassée que par l’Irlande et la Norvège et sa productivité structurelle reste sensiblement supérieure à celle des Anglais (77), même si l’écart de productivité entre les deux pays se réduit de 30% environ.

Au total, si l’étude de Bourlès et Cette devrait inciter plus d’un commentateur à mettre de l’eau dans sa cervoise et à ne pas conclure trop rapidement à la supériorité productive du peuple gaulois, elle montre que nos performances ne sont pas humiliantes non plus, en tout cas pas autant que certains voudraient le faire croire.

IV/ Et alors ?

Que conclure de tout cela ?

1/ D’abord, que les comparaisons naïves des productivités horaires du travail sont tout sauf un bon indicateur de la productivité réelle d’un pays.

2/ Ensuite, que ces chiffres doivent au minimum être corrigés des effets structurels liés aux écarts de durée du travail et de taux d’emploi des pays considérés.

3/ Enfin et surtout, qu’il faut s’interroger sur le sens de ces écarts. La faiblesse de notre taux d’emploi et de notre volume d’heures de travail est-elle le signe d’un dysfonctionnement du marché du travail français ou bien l’expression d’un choix de société ayant contribué à améliorer le bien-être global ? Derrière cette question en apparence anodine se situe un débat particulièrement difficile à trancher, surtout en ce qui concerne la réduction du temps de travail : d’un côté, l’adoption des 35 heures peut être vue comme une politique malthusienne qui a tari artificiellement la production de richesses en France ; mais d’un autre côté, si les 35 heures n’ont fait que traduire légalement une plus forte préférence des Français pour le loisir, leur suppression serait synonyme de perte de bien-être, notamment si les individus n’ont pas la faculté de choisir librement leur temps de travail et sont contraints de travailler plus qu’ils ne le souhaiteraient (c’est d’ailleurs l’un des arguments avancé par Krugman dans sa défense du modèle français). Pour approfondir cette question, je renvoie le lecteur aux riches échanges qu’Emmanuel de Ceteris Paribus et Alexandre d’Econoclaste avaient eu il y a trois ans sur la durée du travail, en cinq actes (I, II, III, IV et V) résumés ici pour les flemmards. Et qu’on ne vienne pas nous dire après ça que les blogueurs gaulois ne sont pas productifs, par Toutatis !
_Julien_

Lire la suite...

lundi 10 décembre 2007

Jean Tirole sur l'autonomie des universités


A lire : cette tribune dans le Monde, signée Jean Tirole. Ici à Ecopublix, on applaudit des deux mains.
_Ecopublix_

Lire la suite...

jeudi 6 décembre 2007

Contrôle des loyers et pouvoir d'achat


Parmi les mesures annoncées par le chef Sarkozix pour augmenter le pouvoir d’achat des Gaulois, le logement occupe une place de choix, avec la proposition de supprimer la caution et de changer l’indice de référence pour l’indexation des loyers. En effet, si les loyers en Gaule sont fixés librement lors d’un changement de locataire, leur hausse, une fois le bail signé, est limitée par la croissance d’un indice défini par l’Etat. La proposition du chef consiste à remplacer l’indice actuel, appelé l’indice de référence des loyers, par l’indice des prix à la consommation (hors loyers et tabac). Cette substitution des indices va-t-elle augmenter le pouvoir d’achat des Gaulois ? Pour faire court, la réponse est peut-être oui pour certains d’entre eux au détriment d’autres catégories dans le court terme, mais certainement non à plus long terme. Pour bien comprendre pourquoi, il est utile de replacer cette mesure un peu technique dans le contexte plus général des politiques de contrôle des loyers, et de la discussion des économistes sur leur efficacité.

I/ Les consequences néfastes du controle des loyers

La régulation des loyers est apparue en Europe à l'occasion de la Première guerre mondiale, pour aider les locataires, (et en premier lieu les familles de soldats) à faire face à cette situation exceptionnelle, dans un contexte général de contrôle des prix. Cette régulation a généralement été prolongée jusqu’à la Seconde guerre mondiale, au cours de laquelle les loyers furent de nouveau gelés, aussi bien en Europe qu’aux Etats-Unis (1). En 1970, de nombreuses villes européennes maintenaient un contrôle des loyers plus ou moins strict et parfois réservé aux anciennes habitations, héritage direct des programmes mis en place pendant la guerre. Dans un contexte de forte inflation, le contrôle des loyers a connu un renouveau à cette période, sous diverses formes dont nous reparlerons plus loin.

Le contrôle des loyers représente un cas d’étude standard en économie. On peut illustrer le problème avec un simple graphique d’offre et de demande de logements locatifs. On porte sur l’axe horizontal la quantité d’appartements sur le marché (Q), et sur l’axe vertical le loyer versé aux propriétaires (P).


Sans régulation, l’équilibre s'établit au point E. Supposons qu'on décide d'instaurer un plafonnement des loyers, qui ne peuvent légalement excéder le niveau PR. Le nouvel équilibre s'établit au point R. Quelles en sont les caractéristiques ?

1/ L'effet sur les prix : le loyer régulé (PR) est plus faible que le loyer de l’équilibre non réglementé (PE).

2/ L'effet sur les quantités : pour ce niveau de loyer, la demande de logements locatifs excède le nombre de logements effectivement loués à l'équilibre. Sur le graphique, on constate que pour le loyer PR, la demande est plus élevée que la quantité disponible QR. En présence d'un excès de demande de ce type, l'allocation des logements aux locataires désireux de louer un logement s'organise selon le principe du rationnement : l'ensemble des demandeurs solvables ne pouvant être servis, le tri s'effectue selon d'autres critères que le prix (position dans la file d'attente, garanties de paiement, discrimination, etc.)

3/ Une baisse de la qualité des logements : La perte de profitabilité de la location décourage l’entretien des immeubles, ainsi que la construction de nouveaux logements, si bien que la mise en place d'un contrôle des loyers entraîne une diminution de la qualité du parc locatif.

4/ Une perte d'efficacité : le rationnement induit par le contrôle des loyers constitue l’inefficacité majeure de la régulation : graphiquement, cette perte d'efficacité ( baptisée « perte sèche » par les économistes) correspond à l'aire coloriée en jaune. En présence d'un plafonnement des loyers, les consommateurs sont prêts à payer plus que ce que les propriétaires demanderaient pour un accroissement du nombre de logements sur le marché, car la demande se situe au-dessus de l’offre entre les points R et E. Le contrôle des loyers empêche ces transactions d'avoir lieu, alors qu'elles augmenteraient le bien être global. Cette inefficacité prend plusieurs formes, qui peuvent s’observer actuellement en Suède, un pays Barbare qui a ceci de singulier que les loyers y sont encore complètement contrôlés : les files d’attente pour obtenir un appartement situés au cœur des grandes ville s'y étalent sur plusieurs dizaines d’années (on parle de 30 à 50 ans). Les locataires en place conservent leur logement le plus longtemps possible puisqu’ils bénéficient de bas loyers, préférant sous-louer (souvent illégalement) leur appartement avec des baux de courte durée plutôt que de le perdre, même s’ils ne comptent pas l’habiter dans un futur proche. Du coup, les nouveaux arrivants sur le marché du logement, par exemple les jeunes et les étrangers, éprouvent de grandes difficultés à se loger. Les propriétaires (et les agences de location) exploitent cette pénurie en demandant aux locataires des versements annexes, souvent illégaux, et sélectionnent leurs locataires. Enfin, les très nombreux locataires qui ne parviennent pas à mettre la main sur un bail de longue durée se voient obligés de multiplier les sous-locations et les déménagements, et n’ont souvent d’autre choix que d’acheter un logement pour surmonter cette pénurie.

5/ Une réduction de la mobilité des individus : en incitant les propriétaires à mettre en vente leurs appartements auparavant mis en location (cette dernière formule rapportant moins d’argent), le contrôle des loyers fait chuter le nombre de logements disponibles sur le marché locatif. Cela pénalise fortement les jeunes, les personnes mobiles géographiquement et plus généralement tous ceux qui ne souhaitent ou ne peuvent investir dans l'achat d'une maison ou d'un appartement. Le marché du travail pâtit indirectement de cette réduction de la mobilité des locataires, puisque les individus vont limiter leurs recherches d’emploi à un secteur géographique qui ne les force pas à déménager. Ces deux effets ont été confirmés au Danemark : les locataires jouissant d’un appartement à loyer régulé restent plus longtemps dans leur logement et les chômeurs acceptent plus souvent une offre d’emploi proche de leur habitation que ceux qui occupent des appartements à loyer non contrôlé.

6/ Les effet redistributifs du contrôle des loyers : a priori, les gagnants et les perdants de la réglementation des loyers sont relativement aisés à identifier. La baisse des loyers profite aux locataires, alors que les propriétaires gagnent moins d’argent. Le contrôle des loyers opère donc une redistribution des propriétaires vers les locataires. Sur le graphique, cette redistribution est représentée par le rectangle vert dont l’aire est égale à la différence entre le montant total des loyers payés par les locataires (loyer multiplié par quantité de logement) et ce qu’ils paieraient en l'absence de plafond. Il faut néanmoins ajouter un bémol à ce bilan redistributif : certes, la législation opère un transfert de revenu des propriétaires vers les locataires, mais uniquement en faveur de ceux qui ont conservé leur logement à la suite du plafonnement des loyers, c'est-à-dire sans prendre en compte tous ceux qui ont été lourdement pénalisé par la perte de leur logement (
QE-QR), provoquée par le rationnement du marché. Au total, le bien-être global diminue : graphiquement, cette perte est mesurée par le triangle jaune situé entre les courbes d'offre et de demande de logement.

II/ Quelle marge pour la régulation du marché ?

L'inefficacité du contrôle des loyers signifie-t-elle qu'il n'y ait aucune place pour l'intervention publique en matière de régulation du marché locatif ? Non, car il existe un certain nombre d'imperfections sur le marché du logement qui peuvent justifier dans certains cas la mise en place d'une régulation de la progression des loyers. Le système aujourd'hui en vigueur en Gaule comme dans beaucoup d’autres pays ne consiste d'ailleurs pas en un contrôle total du niveau des loyers, mais en une limitation de la croissance du loyer, une fois le bail signé, ce qui modifie les effets de la régulation.

Le marché du logement est en effet loin d’être un marché « parfait » où l’information circule librement et où le coût de trouver un bien est nul : les locataires supportent des coûts de recherche élevés et accepteront probablement le premier logement qui correspond à leurs critères sans savoir s’il en existe un autre similaire pour un prix moins élevé. Ceci confère aux propriétaires un pouvoir de marché qui leur permet d’extraire une rente au détriment des locataires : dans cette situation, une régulation pourrait être bénéfique afin d’éviter que les propriétaires ne fixent les loyers à un niveau supérieur à celui qui prévaudrait si le marché du logement était parfaitement fluide.

Par ailleurs, la régulation des loyers telle qu’elle fonctionne actuellement en France et dans d’autres pays d’Europe ne correspond pas à un côntrôle pur et simple des prix : elle ne fixe plus le niveau des loyers mais régule son évolution. Ce type de mesure s’est développé dans les années 1970, en accompagnement de réglementations visant à protéger les locataires contre le risque d'exclusion de leur logement, tout en poursuivant initialement l’objectif de limiter la hausse des prix dans une période d’inflation galopante. Cette forme de régulation a moins d’effets négatifs que le contrôle pur et simple des loyers, puisque le niveau des loyers peut s’ajuster à chaque fois que le bail d'un logement mis en location expire. Elle génère donc moins d’inefficacités, tout en assurant les ménages contre de fortes variations imprévues du niveau des loyers. Elle réduit aussi le pouvoir de monopole des propriétaires qui s'exerce en particulier au moment du renouvellement du bail. Le loueur va profiter du coût élevé d'un déménagement pour son locataire pour augmenter fortement le loyer. Le contrôle limite ces comportements.

Sans parler de monopole, d'autres arguments laissent penser que le marché souffre de problèmes d'information. D'un côté les propriétaires ne connaissent pas les caractéristiques des différents locataires, c'est-à-dire s'ils vont payer leur loyer, respecter les règles de copropriété, dégrader le logement, etc. Ce problème de sélection adverse va faire monter les prix. De l'autre les locataires ne connaissent pas non plus les caractéristiques du propriétaire: va-t-il entretenir le logement, a-t-il l'intention de vendre dans un futur proche? Les deux parties prennent en compte ces risques lorsqu'ils négocient le contrat et la loi peut fournir un contrat type pour éviter qu'une des deux parties ne soit clairement désavantagée.

Si le blocage des prix apparaît comme une mesure particulièrement néfaste, on peut donc envisager des arguments en faveur de formes plus sophistiquées de contrôle, sur les prix ou sur la nature des contrats. Il faut cependant souligner que ces justifications théoriques ne permettent pas de conclure sur l’optimalité des formes actuelles de régulation, parce que les études empiriques mesurant les imperfections sur le marché du logement et calculant les bénéfices attendus de telles mesures n’existent pas encore à notre connaissance. En revanche, et comme nous l'avons déjà souligné dans la première partie, les conséquences négatives sont connues, obervées, et parfois précisément mesurées. On ne peut en dire autant des effets positifs.

III/ Quel sera l’effet du changement d’indice sur le pouvoir d’achat ?

Après cette petite mise en perspective du contrôle des loyers, revenons à nos sangliers : quel sera l’effet du changement d’indice de référence de revalorisation des loyers proposé par le chef des Gaulois ? S’il est difficile de prévoir l’évolution future des différents indices, une analyse de leur évolution passée permet de tirer quelques enseignements.

Il faut d’abord souligner que l’indice historique de référence utilisé pour les révisions de loyer en cours de bail était l’indice du coût de la construction (ICC, qui mesure comme son nom l’indique l’évolution du coût de la construction de nouveaux bâtiments) mais il a été remplacé depuis le 1er janvier 2006 par l’indice de référence des loyers (IRL). Quel était l'objectif poursuivi ? L’indice de référence des loyers a été conçu à la fois pour lisser les évolutions de l’ICC (très sensible à l’évolution du coût des matières premières) et pour limiter les hausses de ce dernier : il est composé à 60% de l’indice des prix à la consommation (IPC) hors loyers et tabac, à 20 % de l’ICC et à 20 % de l’indice des prix des travaux d’entretien et d’amélioration du logement. Etant donné la faiblesse de l’inflation actuelle, le graphique suivant montre que l’IPC hors loyers et tabac a évolué beaucoup moins vite entre 2000 et 2006 que les deux autres indices.


Si la tendance actuelle devait se poursuivre, l’utilisation de l’IPC hors loyers et tabac pourrait permettre aux ménages locataires qui ne déménagent pas de bénéficier de plus faibles hausses de loyer à court terme. Mais ceci n'est pas du tout garanti à moyen terme, car ce changement d’indice devrait aussi affecter en retour le niveau des loyers à chaque fois qu'un bail sera signé, puisque les propriétaires s’attendront à être contraints jusqu'à la signature du prochain bail de limiter les hausses de loyer à un niveau qui ne reflètera pas forcément le coût d’entretien du logement : l’effet attendu d’une telle mesure sera donc une hausse plus forte des loyers lors du changement de locataire, un allongement de la durée d’occupation des logements par les locataires actuels, une baisse des efforts d’entretien des propriétaires et la mise en vente de certains appartements.

Ainsi, s'il est possible que ces mesures bénéficient à court terme aux ménages locataires bien installés dans leur logement, cet effet s’estompera à long terme à mesure que ces ménages seront obligés de déménager. En outre, les ménages les plus mobiles vont être directement touchés par la hausse des loyers, puisqu'ils seront les premières victimes de la réévaluation des loyers qui interviendront à l'occasion de la signature des nouveaux baux de location. La mesure va donc avoir des effets redistributifs assez peu désirables, puisqu'elle va favoriser les ménages les moins mobiles (en général les plus âgés) au détriment des ménages les plus mobiles (c’est-à-dire les jeunes et les célibataires), ces catégories ne recoupant pas forcément celles qui ont connu la plus forte baisse de leur pouvoir d’achat. Enfin, comme nous l’avons déjà souligné dans la première partie, cette mesure peut avoir un effet pervers pour l’emploi, en décourageant les chômeurs de déménager pour trouver un nouvel emploi.

Finalement, si, cette avec cette mesure, le chef des Gaulois peut essayer de se faire barde et de calmer les esprits, il risque à plus long terme de les échauffer, car ce changement d'indice n'aura pas d’effet durable sur le pouvoir d’achat.


NOTES :

(1) La guerre imposait souvent de déplacer le travail (par exemple vers une nouvelle usine d’armement) et le gel évitait que ces déplacements ne s’accompagnent de hausses brutales des loyers. A la sortie de la guerre, ces restrictions empêchèrent les propriétaires de profiter de la hausse de la demande suscitée par le retour des soldats.
_Emmanuel_ _Gabrielle_

Lire la suite...

mardi 4 décembre 2007

Qui comprend Hartz (2/3) ?


Il y a quelques semaines de cela, nous avions entrepris d’éclairer ce en quoi que les fameuses réformes Hartz mises en place en Allemagne entre 2003 et 2005 avaient véritablement consisté. Nous avions rappelé qu’elles s’étaient entre autres accompagnées d’un programme complet d’évaluation empirique, dont le coût était prévu dès la mise en place de la réforme et avions souligné que nous autres Gaulois devrions nous inspirer de telles pratiques, histoire de savoir à quoi nous dépensons nos deniers publix.

L’évaluation des réformes Hartz montre à quel point même avec la volonté politique, l’évaluation, et le fait d’en tirer les conséquences qui s’imposent n’est pas une tâche aisée.

Lorsqu’on demande à un économiste qui s’intéresse à l’Allemagne (là par exemple) ce qu’il pense de la guérison rapide de l’économie allemande au cours des trois à cinq dernières années, il répondra inlassablement quelque chose du style « les réformes structurelles, au premier rang desquelles celles entreprises depuis 2003 sur le marché du travail, ont joué un rôle majeur dans la baisse du chômage et le retour de la croissance ». Qu’en est-il exactement ?

En l’état actuel de nos connaissances, la seule chose qu'on puisse affirmer avec quelque certitude est que « certaines des mesures instituées dans le cadre des réformes Hartz ont sans doute contribué à une baisse accélérée du chômage alors que le contexte économique était favorable pour toute une série de raisons relativement indépendantes des réformes Hartz, et que cette baisse du chômage a pu en retour soutenir la croissance ». Toute proposition plus affirmative serait téméraire, et ce car l’évaluation des politiques publiques est malheureusement une activité nécessairement lente et partielle.

Lente car au temps de la mise en place de la réforme ou du nouveau dispositif s’ajoute celui de la collecte des données, et même si les chercheurs travaillent jour et nuit une fois les données disponibles, les premiers résultats raisonnablement robustes sur l’évaluation d’un dispositif peuvent n’arriver que plusieurs années après la réforme. Partielle car on peut rarement répondre à une question du type « les réformes ont-elles conduit au retour de la croissance ?»

I/ Aider les chômeurs à créer leur entreprise : l'exemple du dispositif Ich-AG

L’exemple du dispositif « Société anonyme à moi tout seul » (Ich-AG), mis en place dans le cadre de la loi Hartz II est à cet égard édifiant et vaut à mon avis la peine d’être détaillé tant il illustre certains problèmes auxquels l’évaluation, même bien faite, peut se heurter. Nous brosserons dans un prochain post un panorama plus complet des résultats de l’évaluation des autres mesures.

Lorsqu'il fut mis en place, le dispositif Ich-AG n'était pas tout à fait inédit : les aides à la création d’entreprise pour les chômeurs existaient depuis 1986 en République fédérale d’Allemagne. Mais ces aides ont été considérablement accrues, selon deux dispositifs distincts :
1/ le premier constituait une nouveauté : l’aide à la création d’entreprise individuelle (Existenzgründungszuschüsse dits « Ich AG ») introduite par la loi Hartz II et entrées en vigueur début 2003.
2/ l’autre qui existait déjà auparavant : l’allocation de transition (Überbrückungsgeld qui a été réformée depuis début 2004 dans le cadre de la loi Hartz III).

Les principes des deux dispositifs étaient les suivants :
  • l’allocation de transition devait permettre à des chômeurs de continuer à recevoir leurs allocations pendant une durée de 6 mois s’ils s’établissaient en tant qu’entreprise individuelle, et ce quel que soit le revenu perçu grâce à leur nouvelles activité ;
  • l’aide à la création d’entreprise individuelle visait quant à elle à autoriser les chômeurs qui décideraient de fonder leur entreprise de recevoir pendant trois ans une allocation dégressive (de 600€/mois la première année à 240€/mois la dernière) ;
Le choix pour un chômeur entre les deux systèmes dépend du dernier revenu perçu avant l’épisode de chômage, des perspectives de revenu de l’entreprise individuelle ainsi que de la durée de chômage anticipée. En gros un chômeur certain de son affaire et ayant touché des revenus élevés avant son épisode de chômage optera pour la première solution, alors qu’un chômeur prévoyant des débuts difficiles et n’ayant de toutes les manières pas de fortes allocations chômage préfèrera la deuxième solution.

II/ Les difficultés de l'évaluation

En quoi a consisté l’évaluation des ces nouvelles mesures ? Les chercheurs qui ont été recrutés à cette fin par le ministère allemand de l’emploi ont tenté de répondre à la question suivante : ceux qui ont bénéficié de cette mesure ont-ils vu leur probabilité de rester au chômage diminuer et si oui, de combien ?

Cette question est relativement ardue, pour au moins deux raisons :

1/ la première est que ces mesures ont eu tendance à faire augmenter initialement le taux de chômage des individus qui ont bénéficié, puisqu'il s'agissait par définition de chômeurs tout occupés à la fondation de leur entreprise, et par conséquent peu occupés à rechercher un emploi. Comparer naïvement le taux de retour à l’emploi des participants à celui des non participants conduirait ainsi de façon indue à considérer la mesure comme inefficace voir nuisible : il faut donc du recul pour s’abstraire de cet « enfermement » des chômeurs dans la mesure qu’on leur propose, et qui est destinée à les faire sortir plus vite du chômage ensuite (ce phénomène est encore plus évident avec les formations). Il faut donc attendre que le dispositif ait terminé de fonctionner pour pouvoir en mesurer l’effet réel sur les chances de sortie du chômage des bénéficiaires. Mais Ich-AG était prévue pour durer trois années ! Il faut donc s’armer de patience… ce qui n’est pas forcément aisé pour un homme politique qui attend qu’on lui dise avant les élections si l’argent qu’il a dépensé a été utilisé efficacement ou non…

2/ La deuxième raison pour laquelle l’évaluation est ardue, même lorsqu’on peut observer des individus qui ne sont plus touchés par l’aide, est que les bénéficiaires de cette aide ne sont pas comparables à ceux qui n’y ont pas eu recours (en fait et parfoit même en droit). On pourrait penser par exemple que ce sont en moyenne les chômeurs les plus débrouillards qui ont décisé de postuler pour l’aide à la création d’entreprise. Si tel est le cas, peut-on déduire de l'observation que ces individus sont moins souvent au chômage que leurs congénères après quelques années que l’aide a joué son rôle ? A priori non, parce que même en l'absence de cette mesure, il est probable que ces chômeurs plus débrouillards aient de toute manière retrouvé un emploi salarié plus facilement que les autres… Ce problème dit de « sélection endogène » des participants nécessite d’avoir recours à des techniques d’estimation plus sophistiquées que la simple comparaison brutale de deux groupes. Ces techniques sophistiquées sont gourmandes en données détaillées et donc en enquêtes coûteuses et qui prennent du temps.

III/ Des résultats plutôt encourageants

Finalement, que disent les études qui ont cherché à évaluer le dispositif Ich-AG (voir les papiers ici et ) ?

Pour l’allocation de transition, qui n’est payée que durant 6 mois, elles concluent que la probabilité d’être en emploi est, « grâce à l’allocation » de 32% plus élevée 10 mois après la fin du soutien, et entre 8% (Ouest) et 13% (Est) plus élevée 42 mois après la fin du soutien.

Pour l’aide à la création d’entreprise individuelle, l’évaluation est moins aisée dans la mesure où le recul ne permettait pas d’observer d’individus qui avaient bénéficié mais ne profitaient plus de l’aide. Les probabilités de ne plus être au chômage sont, en fonction de l’âge et de la zone géographique, entre 30 et 50% plus élevées 16 mois après le début de la mesure (alors que le soutien n’est plus de que 360€ mensuels). Les auteurs en concluaient, en l’attente de résultats plus robustes avec plus de recul temporel, que la mesure avait sans doute elle aussi eu un effet positif et significatif.

Ces résultats appellent deux remarques :

1/ D’une part on voit à quel point pour produire des connaissances précises et solides, il faut limiter les ambitions des conclusions : les chercheurs n’évaluent pas l’effet de la Ich-AG sur le PIB ou sur l’emploi dans cinq ans, mais seulement sur la probabilité pour un chômeur de retrouver un emploi, dans un contexte macroéconomique donné. Il n’est pas évident que mise en place ailleurs, à une autre époque, ces dispositifs fonctionneraient aussi bien. Toutefois, si la communauté des économistes n’a pas découvert le saint Graal avec Ich-AG, elle est sortie enrichie de cette évaluation : désormais, on sait que ce type de dispositif peut vraiment marcher dans un contexte comme celui de l’Allemagne des années 2000 et pas seulement parce qu’un bel esprit a écrit un modèle théorique cohérent où ça marche (ce qui est utile, mais pas suffisant pour justifier de dépenser les précieux deniers publics).

2/ D’autre part, il se trouve que les deux dispositifs, dont la différenciation semblait être une qualité puisque chacun s’adressait (efficacement visiblement) à un profil de chômeurs différent, ont été fusionnés par le ministère du Travail avant même qu'on ait le recul suffisant pour terminer l’évaluation ! Vouloir évaluer c’est bien, mais encore faut-il en tirer les conséquences qui s’imposent, au premier rang desquelles la nécessité d'une dose de patience et d'un soupçon de modestie.

Les Goths sont en avance sur les Gaulois, mais il semble bien qu’il leur reste aussi du chemin à faire...
_Fabien_

Lire la suite...

jeudi 29 novembre 2007

Le « problème » des retraites (1/40) : les faits et les choix


La question des retraites est de nouveau d’actualité, avec la réforme des régimes spéciaux et le rendez-vous programmé de 2008 pour la suite des réformes dans les autres régimes. Thomas Piketty a esquissé un programme ambitieux de réformes dans une chronique dans Libération qui a donné lieu à quelques débats sur le blog d’Econoclaste. C’est l’occasion de faire un peu de pédagogie sur le fonctionnement des systèmes de retraite : afin de comprendre les enjeux de toute réforme, il faut être bien au clair sur la façon dont le système fonctionne aujourd’hui. Des choix politiques restent à faire et si nos concitoyens gaulois pouvaient choisir en connaissance de cause, le débat démocratique serait bien plus apaisé. Je commence aujourd’hui une longue série de posts sur les retraites par les changements démographiques qui sont à l’origine des déséquilibres des régimes de retraite. Ce sont des choses connues, qui ne font plus tellement débat aujourd’hui, mais on ne perd pas grand chose à les répéter. D’autres posts suivront sur les systèmes de retraite, histoire de vous donner de la lecture pour la longue retraite qui vous attend. Car cette retraite va être longue…

I/ Le « problème » : nous vivons longtemps, toujours plus longtemps

Le débat sur les retraites ne date pas d’hier. Il a commencé par un débat sur la réalité des changements démographiques. Les premières études posant la question de la soutenabilité des retraites reposaient sur des estimations du changement du ratio démographique (ratio entre les plus de 65 ans et les jeunes en âge d’être actif). Ce ratio allait se détériorer sous l’effet de trois évolutions : la baisse de la natalité, l’arrivée à l’âge de la retraite des générations du baby-boom et l’augmentation de l’espérance de vie. A l’époque, c’était la baisse de la natalité qui concentrait l’essentiel de l’attention. Certains commentateurs avaient exprimé leur scepticisme sur les conséquences à tirer pour les régimes de retraite de ces évolutions. Ils opposaient aux constats dramatiques sur l’équilibre financier des régimes de retraite, le fait que la baisse de la natalité allait entraîner une baisse des dépenses consacrées aux jeunes inactifs (baisse des dépenses d’éducation et de famille). Après quelques années de débat sur la réalité de la dégradation du ratio démographique, un consensus a finit par émerger autour de l'idée que c’est l’augmentation de l’espérance de vie qui allait être le moteur majeur de la dégradation du ratio démographique. Le papy-boom (l’arrivée à l’âge de la retraite des générations nombreuses de l’après-guerre) allait accentuer cette dégradation du ratio démographique, mais en rien rendre cette évolution transitoire (je vous commande à ce titre un 4 pages de Didier Blanchet dans Population et Société qui fait le récit de ces débats avec une clarté et un effort pédagogique qui forcent l’admiration).

Quelles sont les conséquences de l’importance de l’augmentation de l’espérance de vie parmi ? Elles sont au nombre de deux et sont loin d’être anodines pour la bonne compréhension du « problème » des retraites.

La première est que l’idée qu’il faudrait « faire des enfants » ou accroître les flux d'immigration pour résoudre « le problème » des retraites est erronée. En effet, l’accroissement du nombre des actifs qui s’en suivrait engendrerait d’autres retraités vivant plus longtemps, qui lui-même réclamerait un accroissement encore plus grand de la population active pour financer les retraites et ainsi de suite indéfiniment. Pour reprendre les mots de Didier Blanchet, « il faudrait un baby-boom perpétuel ou bien des flux migratoires considérables et d’ampleur croissante donc, dans les deux cas, une croissance démographique rapide et sans fin. » Le graphique ci-dessous, extrait de l’article de Blanchet, montre de manière frappante que quels que soient les scénarios de mortalité ou de fécondité, le nombre de personnes en âge d’être en retraite augmente fortement, alors que le nombre d'actifs varie peu (il baisse même légèrement). L’augmentation de l’espérance de vie ne pourra donc pas être compensée durablement par un simple changement des comportements de fertilité, ni par le recours à une plus forte immigration.


La seconde conséquence est que ces changements démographiques ne sont pas transitoires mais durables : le ratio de dépendance démographique ne va pas augmenter puis baisser (comme l’idée du « papy-boom » pourrait le laisser croire) mais simplement augmenter vite, puis augmenter moins vite. Avec un choc démographique transitoire, on aurait pu envisager de lisser dans le temps ce choc en creusant temporairement le déficit budgétaire, mais cette possibilité ne peut être ici envisagée.

Arrêtons-nous un moment sur cette augmentation de l’espérance de vie. Le graphique ci-dessous (projections d’espérance de vie de l’INSEE) donne une idée de l’augmentation de l’espérance de vie à la naissance depuis la fin de la seconde guerre mondiale. Les filles sont en rose et les garçons en bleu. A partir de 2007, les estimations sont des prédictions (hautes, basses ou moyennes).


On voit qu'à la naissance, l'espérance de vie des petits(es) gaulois(es) était de 63 ans (69 ans) en 1950, contre 77 ans (85 ans) aujourd'hui, et autour de 86 ans (94 ans) en 2050. Quand en 1945, l’âge de la retraite était de 65 ans, l’espérance de vie des hommes se situait en-dessous de cet âge. L’assurance vieillesse méritait alors bien son nom d’assurance contre le risque vieillesse, la plupart des hommes ne pouvant espérer profiter que d’une retraite de courte durée, si tant est qu'ils en aient profité du tout.

L’augmentation de l’espérance de vie n’a pas eu de conséquences très importantes pour les régimes de retraite jusqu’aux années 1970. Pendant les deux décennies qui suivent l’après-guerre, l’essentiel des gains d’espérance de vie provient en effet de la baisse de la mortalité infantile. Celle-ci conduit à l’augmentation de l’espérance de vie mais pas à l’augmentation de la durée moyenne de la retraite, dans la mesure où l'espérance de vie de ceux qui ont atteint l'âge de la retraite (60, puis 65 ans) ne s'est pas beaucoup allongée au cours de la période, comme on peut le constater sur le graphique suivant :


Ce graphique indique que si les hommes qui atteignaient 60 ans en 1950 pouvaient espérer en moyenne toucher leur pension pendant 15,4 ans, 20 ans plus tard, ils avaient gagné moins d'un an d’espérance de vie, à 16,2 ans (soit un gain moyen de 2 semaines par an).

Tout change à partir du début des années 1970 : les gains d’espérance de vie se concentrent alors aux âges élevés et l’espérance de vie à 60 ans se met à fortement augmenter. Elle dépasse 20 ans en 1997 pour les hommes (tandis que les femmes sont à plus de 25 ans). L'espérance de vie à l'âge de la retraite s'accroît ainsi de près d’un trimestre par an (soit 5 fois plus rapidement qu’entre 1950 et 1970). Ces chiffres suscitent souvent des commentaires incrédules et nombreux sont ceux pensent que ces prédictions sont surévaluées, au nom d'une théorie du complot qui voudrait que le gouvernement oblige l’Insee à surestimer l’espérance de vie dans le seul but de baisser les retraites... En réalité, c’est plutôt l’inverse qui s’est produit depuis une quinzaine d’année : les prédictions officielles d’augmentation de l'espérance de vie ont toujours été dépassées par la réalité et l’Insee a dû périodiquement les réviser à la hausse, du fait de l’augmentation plus forte de l’espérance de vie aux âges élevés.

Pour donner une autre illustration graphique de ces changements démographiques, on peut reprendre la pyramide des âges bien connue de tous collégiens français et étudier son évolution au cours du temps (il s’agit d’une animation réalisée par l’Insee):


On voit mieux l’arrivée à la retraite des papy-boomers, la disparition des classes creuses dues à la faible natalité de la première guerre mondiale et l’augmentation vers le haut de la pyramide sous l’effet de l’augmentation de l’espérance de vie. Les scénarios de mortalité (haute ou basse) sont à peine visibles avant 2040 par rapport aux changements démographiques majeurs.

II/ Les conséquences pour les régimes de retraite

Les régimes de retraite par répartition (je reviendrai un autre jour sur la question de la capitalisation) fonctionnent selon un principe simple : un prélèvement des actifs (cotisations) sert à financer les pensions des inactifs. Ces régimes sont en équilibre si le montant des cotisations est égal au montant des pensions versées. Le montant des cotisations est égal au nombre d’actifs, multiplié par leur taux d’emploi, multiplié par leur salaire moyen, multiplié par le taux de cotisation retraite. Le montant des pension est quant à lui égal au nombre de retraités multiplié par la pension moyenne. De l’égalité entre les cotisations et pensions, on peut tirer l’équation qui détermine l’équilibre financier des régimes de retraite :


Les changements démographiques vont faire augmenter le ratio de dépendance démographique (le deuxième terme de la partie droite de l'équation). Dès lors, pour maintenir l’équilibre, il faudra soit augmenter le taux de cotisation (ce qui aura pour conséquence de baisser les salaires nets et les pensions), soit baisser le taux de remplacement (c'est-à-dire diminuer le montant des pensions), soit repousser le départ en retraite effectif (ce qui permettra d'accroître l'augmenter le taux d'activité et donc de faire baisser le troisième terme de la partie droite de l'équation).

Après quelques années de débat et de multiples rapports, un consensus semble avoir été atteint en France sur ce diagnostic et sur ces choix. Le Conseil d’orientation des retraites a ainsi publié des « fiches pour le débat » qui mettent bien en lumière ce consensus.


Le graphique ci-dessus représente l’ensemble des choix possibles pour faire face aux changements démographiques précédemment évoqués : en abscisse est représenté le taux de remplacement (le rapport entre la pension et le salaire net), en ordonnée sont représentées les hausses de cotisations (en points du salaire brut) et les diagonales représentent les variations de l’âge de la retraite. Il s’agit de l’illustration chiffrée de l’équation précédente et des choix qu’elle implique. Prenons la plus haute diagonale (droite CAB) . Sur celle-ci tous les points correspondent à un âge de cessation d’activité constant en 2040 égal à l’âge actuel (un peu plus de 58 ans en moyenne). On fait varier les deux autres paramètres quand on se déplace sur cette diagonale. Par exemple le point A correspond à un taux de remplacement de 64% du salaire net et 9,5 points de cotisations en plus, le point B correspond à un taux de remplacement de 78% (celui observé aujourd’hui) et a 15 points de cotisations en plus et le point C à un taux de remplacement de 42% sans hausse de l’âge de la retraite ni des cotisations.

En 2003 nous étions au point E. La réforme Balladur va conduire (dans le secteur privé) à une baisse du taux de remplacement à l’horizon 2040 (de 78% à 64%) pour atteindre le point D. Si l’on voulait revenir sur cette réforme, il faudrait soit augmenter l’âge de départ en retraite de 9 ans (point E), soit augmenter les cotisations de 15 points (point B). Si l’on n’accepte ni d’augmenter les cotisations ni d’augmenter l’âge de départ, le taux de remplacement doit chuter de 78% à 42% (point C). Tous les points du graphique représentent une combinaison possible de « solution » du problème des retraites.

L’autre manière de considérer le problème est de discuter la part des retraites qui doit être assurée par l’assurance vieillesse obligatoire (et donc par des prélèvements obligatoires). En l'absence de réforme (et sans prendre en compte la réforme Fillon), l’augmentation des prélèvements nécessaires pour financer les retraites est de l’ordre de 4 points de PIB à l’horizon 2040 (avec le PIB de 2040 et non d’aujourd’hui), soit plus que la part de l’impôt sur le revenu actuel... Si l’on veut maintenir les prélèvements obligatoires constants (proposition de Ségolène Royal) ou les baisser (proposition de Nicolas Sarkozy) et financer ces augmentations de durée de retraite par l’augmentation des prélèvements, il faut alors baisser les autres dépenses publiques de l’équivalent de 4 points de PIB (pour donner un ordre de grandeur, on pourrait y parvenir en privatisant entièrement l’éducation nationale). Si l’on ne veut pas baisser les autres dépenses publiques, alors il faut accepter une augmentation similaire des prélèvements obligatoires.

Les réformes mises en place (celles de 1993 et 2003) ne vont pas régler l’ensemble du problème : d’après les estimations les plus récentes, et sous des hypothèses optimistes de réduction du chômage, elles permettraient de faire 50% du chemin d’ici à 2020 et 30% d’ici à 2040.

Des choix restent donc à faire. Le « problème » des retraites n’est pas tant un problème sans solution qu’un problème avec une infinité de solutions : de multiples combinaisons sont possibles entre l’augmentation des cotisations, la baisse des pensions, l’augmentation de l’âge de la retraite, l’appel à l’épargne privée, l’appel à la capitalisation publique. Chaque combinaison peut elle-même prendre des formes différentes dont on discutera plus tard. Au final, la seule vraie difficulté est que ces choix sont des choix collectifs qui engagent des Gaulois qui ne sont pas encore nés et qui dépendent des choix de nos ancêtres (les Gaulois)…
_Antoine_

Lire la suite...

vendredi 23 novembre 2007

Des grèves partout, sauf dans les statistiques ?


En cette période de grèves, un certain nombre d'articles de journaux, de blogs et même d'émissions télévisées ont tenté de remettre en perspective les journées que nous vivons en comparant le nombre de journées non travaillées en France à la fois dans le temps et dans l'espace. Et là, quelle surprise ! D'une part, les conflits du travail seraient moins nombreux en France qu'ailleurs en Europe et d'autre part, les Français auraient de moins en moins recours à la grève. Nous autres Gaulois serions moins grévistes que nos voisins et de plus en plus gagnés par la « zen attitude » ? Ça par exemple ! ça vaut bien une rasade de potion magique !

Hélas, cher lecteur ! Nous avons le regret de t'annoncer que ce paradoxe est un peu trop beau pour être vrai et qu'une petite plongée dans le monde merveilleux des statistiques des conflits du travail te convaincra aisément de son inanité...

Bien qu'initialement séduits par les attaques lancées contre le « mythe d'une France gréviste », nous avons rapidement été intrigués par certaines incohérences contenues dans l'article de François Doutriaux : ce dernier nous explique qu'il y avait environ 1,2 million de journées non travaillées en 2005 pour l'ensemble des salariés français (année très pauvre en grèves par ailleurs) ce qui, en divisant ce chiffre par la population salariée (environ 22 millions d'individus) nous donne un chiffre de 0,05 journée « grevée » par salarié et par an ; or quelques lignes plus loin, le même soutient qu'en France, le nombre de journées grevées par salarié par an ne dépasse pas... 0,03, soit un chiffre bien inférieur à la moyenne européenne (qui se situe autour de 0,04). Pour en avoir le coeur net, nous nous sommes livrés pour vous à une petite généalogie des statistiques utilisées. Autant le dire tout de suite : vous ne serez pas déçus du voyage !

CHAPITRE I : Où l'on découvre que tout le monde puise à la même source

Les chiffres cités par les blogs et les journaux renvoient tous à une seule et même source : cet article de Ian Eschstruth intitulé « La France, pays des grèves ? » et publié sur le site d'Acrimed (on notera au passage que l'intro de l'article de François Doutriaux en reprend l'incipit presque mot pour mot...), cette contribution étant elle-même la synthèse d'un mémoire devoir de M1 de sociologie rédigé par Eschstruth, disponible ici et publié .

Le papier n'exploite pas directement de bases de données sur les grèves mais cite des travaux de recherche qui eux-mêmes renvoient à d'autres études statistiques : les sources de Erschtrut sont donc des sources secondaires et non pas des sources primaires. En allant consulter les articles cités, nous avons finalement pu mettre la main sur la seule et unique source primaire des chiffres donnés sur la France, à savoir les statistiques portant sur les conflits du travail produites par la Dares, le service d'études statistique du ministère du Travail. La généalogie des sources utilisées dans les articles sur lesquels s'appuie le travail de Ian Eschstruth est résumée dans le tableau suivant :


CHAPITRE II : Où l'on s'aperçoit qu'en se limitant à cette source très lacunaire, on risque de prendre des vessies pour des lanternes

Si nous vous disions que les chiffres utilisés dans les études précitées ne comprennent que les journées de grèves (très imparfaitement) comptabilisées par les inspecteurs du travail (dont ce n'est pas le métier), qu'ils ne prennent en compte ni les grèves dans la fonction publique (sic), ni dans le secteur agricole, ni à France Telecom, vous nous traiteriez sans doute d'aimables plaisantins ! Vous auriez tort, car la réalité est pire encore : c'est un peu comme si on cherchait à quantifier les échanges commerciaux dans le monde en oubliant d'inclure la Chine et les pays de l'OCDE...

Le tableau qui suit indique la manière dont est calculée la statistique qui fait tant parler d'elle en ce moment : 37 journées individuelles non travaillées (JINT) (1) en moyenne pour 1000 salariés en France au cours de la période 1998-2004, ce qui nous placerait par ordre décroissant de conflictualité en 11e position parmi les pays de l'Union européenne, loin derrière le Danemark ou l'Espagne (respectivement 218 et 166 JINT pour 1000 salariés). Cocorico !


Le lecteur familier des chiffres de l'emploi aura constaté avec effroi que le nombre total de journées de grèves est ici divisé par 15 millions de salariés alors que le nombre total de salariés en France est de 22 millions. Où sont donc passés les 7 millions de salariés qui manquent ? Et surtout, qui sont-ils ? Aussi surprenant que cela puisse paraître, c'est l'intégralité du secteur public hors transports qui est passée aux oubliettes, alors qu'on on a de sérieuses raisons de penser que le recours à la grève y est plus fréquent que dans le reste de l'économie (on y reviendra plus loin). Le chiffre utilisé par Eschstruth et consorts ne couvre donc que le secteur privé, ce qui est un comble lorsqu'on sait que les jours de grèves comptabilisés dans les pays avec laquelle la France est comparée incluent tous le secteur public, à l'exception du Portugal et de la Slovénie (voir ici pour plus de détails). Cette remarque s'applique à l'ensemble certains des graphiques présentés dans son article (en particulier celui qu'utilise Doutriaux). En statistique, on appelle cela un biais de sélection.

Et nous ne sommes pas au bout de nos surprises ! Car il faut savoir que les données collectées par la Dares ne couvrent que la moitié environ du nombre réel de jours de grèves dans le secteur privé. Les économistes du ministère du Travail reconnaissent eux-mêmes que la nature administrative des données utilisées est responsable de cette forte sous-estimation, de la même manière que les chiffres du chômage fournis par l'Unedic sous-estiment systématiquement le nombre réel de chômeurs (au sens du BIT).

Consciente de ce problème, la Dares a récemment cherché à comparer les données administratives dont elle dispose avec les chiffres d'une enquête statistique beaucoup plus fiable : l'enquête REPONSE, qui porte sur les relations professionnelles dans les entreprises de plus de 20 salariés. Ce travail, réalisé par Delphine Brochard au mois de novembre 2003, montre que l'ampleur de la sous-évaluation des conflits du travail est considérable : en effet, sur près de 1000 établissements déclarés comme « conflictuels » (c’est-à-dire comme ayant connu au moins un arrêt de travail dans l'année) par le représentant de la direction interrogé dans le cadre de l’enquête REPONSE réalisée en 1994, 84% n’ont fait l’objet d’aucune fiche de début et de fin de conflit au cours de la période considérée. Pour la seule année 1992, le nombre de journées non travaillées estimé par l’enquête est égal à plus du double de celui livré par les chiffres officiels (1160295 contre 490500). La conclusion de l'étude est sans appel : « ce résultat permet de conclure que le nombre des arrêts de travail pour fait de grève est très largement minoré par les statistiques officielles et conséquemment l’indicateur principal que nourrit le dispositif administratif, à savoir le nombre de journées individuelles non travaillées ».

CHAPITRE III : Où l'on s'efforce de construire des données plus fiables

A partir de là, il n'y a guère d'autre option que de mettre les mains dans le cambouis statistique afin d'essayer d'y voir plus clair et de quantifier de la manière la moins imprécise possible le nombre annuel de jours non travaillés en France et son évolution dans le temps. Pour cela, nous avons mobilisé deux séries de sources statistiques :

1/ Bien qu'incomplètes (comme on l'a expliqué plus haut), les données collectées par le ministère du Travail permettent de reconstituer l'évolution du nombre de grèves dans le secteur privé et dans les entreprises nationalisées (hormis la Poste et France Télécom), sur l'ensemble de la période 1982-2005. Les statistiques sur les conflits du travail au niveau national et régional sont publiées chaque mois dans le Bulletin Mensuel de Statistiques du Travail édité par la Dares et dont nous avons consulté les exemplaires parus depuis le milieu des années 1980. Ces recueils statistiques distinguent les « conflits localisés », résultant de mots d’ordre propres à l’entreprise ou à l’établissement et les « conflits généralisés » qui peuvent affecter plusieurs établissements au niveau national, régional ou local, dans un ou plusieurs secteurs d’activités. Cette dernière catégorie, qui n'a jamais concerné qu'un nombre assez limité de conflits, a presque totalement disparu depuis la fin des années 1990. Il est à noter que les conflits à la SNCF, à la RATP, à Air France ou chez Renault sont inclus dans les statistiques du ministère du Travail, avec un trou en 1996 (les grèves à la RATP et à Air France n'ayant pas été comptabilisées cette année-là, pour une raison qui demeure obscure).

2/ Les statistiques sur les grèves dans la fonction publique d'Etat sont quant à elles publiées depuis 1982 par la Direction Générale de l'Administration et de la Fonction publique (DGAFP). Ces données comportent deux séries de lacunes : la première est l'absence d'informations concernant la fonction publique territoriale et hospitalière, qui représente la moitié environ des effectifs de la fonction publique ; la seconde lacune concerne les grèves des personnels de France Telecom et de la Poste : à l'occasion du changement de statut qui a affecté ces deux entreprises publiques au milieu des années 1990, les grèves de leurs personnels ont cessé d'être comptabilisées depuis 1996 pour France Telecom et entre 1996 et 1997 pour la Poste.

Muni de ces donnés, et en gardant à l'esprit les diverses lacunes que nous avons mentionnées, on peut tenter de répondre aux deux questions qui agitent en ce moment la presse et la blogosphère gauloises : 1/ Y a-t-il plutôt moins de grèves en France qu'ailleurs ? 2/ Y a-t-il de moins en moins de grèves en France ?

CHAPITRE IV : Où l'on tente de répondre à quelques questions

1/ Y a-t-il plutôt moins de grèves en France qu'ailleurs ?

On se souvient que dans la comparaison effectuée par Ian Eschstruth du nombre de journées individuelles non travaillées pour 1000 salariés en Europe au cours de la période 1998-2004, les données sur la France ne couvraient que le secteur privé alors que les grèves dans le secteur public étaient comptabilisées pour la quasi totalité des autres pays.

Que se passe-t-il si l'on ajoute aux chiffres du secteur les grèves dans la fonction publique d'Etat ? La réponse est donnée dans le graphique suivant, qui rectifie le nombre de JINT pour 1000 salariés de la France et exclut les pays dont les grèves du secteur public ne sont pas comptabilisées (Portugal et Slovénie) :


Par Toutatis ! Cette simple correction suffit à faire remonter notre pays de la 11e à la 3e position dans l'échelle des conflits du travail : avec 99 JINT en moyenne pour 1000 salariés au cours de la période 1998-2004, la France est classée troisième, derrière l'Espagne et juste au-dessus de l'Italie. Et encore, ce chiffre reste fortement sous-évalué puisque, outre la non comptabilisation des grèves à France Telecom et dans la fonction publique territoriale et hospitalière, la sous-estimation structurelle du nombre de jours de grèves dans les données administratives n'est pas prise en compte. En supposant que la moitié des grèves dans le privé ne sont pas comptabilisées dans les statistiques du ministère du Travail et en ignorant les autres sources de biais, le nombre de JINT pour 1000 salariés en France serait alors de l'ordre de 137 (2).

Quelle est la portée de ce résultat ? Certains feront observer à juste titre qu'en l'absence de données standardisées à l'échelle européenne sur les conflits du travail, la validité de ce genre de comparaisons est très contestable. Au minimum, l'hétérogénéité des définitions et l'inégale qualité des sources statistiques nationales mobilisables sur le sujet devrait inciter à la plus extrême prudence en la matière. Et ils auront raison ! Le petit exercice auquel nous venons de nous livrer ne visait pas tant à déterminer avec précision la place occupée par la France dans l'échelle de la conflictualité au travail, qu'à montrer que l'utilisation de ce genre de comparaisons internationales à l'appui de la thèse selon laquelle il y aurait plutôt moins de grèves en France qu'ailleurs est pour le moins douteuse.

Si les données ne nous permettent pas de dire grand chose sur la manière dont le nombre de grèves varie dans l'espace, elles apportent néanmoins des éléments de réponse intéressants à la question de l'évolution du nombre de journées non travaillées au cours des 20 dernières années.

2/ Y a-t-il de moins en moins de grèves en France ?

En utilisant les données que nous avons collectées sur le nombre de grèves dans le secteur privé et dans la fonction publique d'Etat, on peut retracer l'évolution du nombre total de journées individuelles non travaillées en France entre 1984 et 2005 :


Plusieurs enseignements peuvent être tirés de la lecture de ce graphique :
1/ D'abord, on constate que l'évolution du nombre total de JINT est très irrégulière et se caractérise par la présence de pics très marqués en 1989 (grève générale du ministère des Finances), en 1995 (contre les réformes Juppé) et en 2003 (contre la loi Fillon). On notera que ces pics sont beaucoup plus marqués que sur les séries longues téléchargeables sur le site de la Dares et que tout le monde utilise sans remarquer qu'elles sont inexploitables en l'état : en effet, ces séries longues n'intègrent ni les grèves dans la fonction publique d'Etat, ni les conflits généralisés (qui sont pourtant responsables d'une partie importante du pic de 1995) ; surtout, elles ne comptabilisent pas les grèves dans les transports à partir de 1996.
2/ On remarque ensuite que la fonction publique d'Etat compte pour une part très importante du total du nombre de journées individuelles non travaillées (50% en moyenne sur l'ensemble de la période). En oubliant de l'inclure dans les calculs, on se condamne à une mauvaise interprétation des évolutions d'ensemble des conflits du travail.
3/ Enfin, le principal enseignement de ce graphique est que contrairement à ce qu'affirment certains, on ne constate aucune baisse tendancielle du nombre de journées de grève en France au cours des 20 dernières années. A tout prendre, la courbe a plutôt un profil en « U » qu'un profil décroissant.

Certes, que le nombre de journées de grève n'ait pas diminué n'implique pas nécessairement qu'il en soit de même pour le taux de grève (c'est à dire le nombre total de journées de grèves rapportées au nombre de salariés), la seule statistique qui nous intéresse vraiment. En effet, dans la mesure où le nombre de salariés a augmenté en France entre 1982 et 2005, le nombre de journées de grève pour 1000 salariés peut très bien avoir diminué même si le nombre absolu de journées non travaillées est resté stable. En utilisant les données sur l'évolution du nombre de salariés dans les transports, le secteur privé et la fonction publique d'Etat (3), nous avons reconstitué l'évolution du nombre de journées individuelles non travaillées pour 1000 salariés de 1982 à 2005 :


Ce graphique permet de constater qu'en dépit de l'accroissement du nombre de salariés entre 1982 et 2005, le taux de grève n'a pas spécialement décru pendant la même période.

Cette relative stabilité du taux de grève masque-t-elle des évolutions divergentes dans le secteur des transports, dans le secteur privé (hors transports) et dans la fonction publique d'Etat ? Pour répondre à cette question, nous avons calculé l'évolution du nombre de journées individuelles non travaillées dans ces trois secteurs entre 1984 et 2005.

Dans la fonction publique :



Dans le secteur privé hors transports :



Dans les transports :


Ce qui frappe d'abord à la lecture de ces graphiques, c'est l'importance de l'écart entre le taux de grève dans la fonction publique et le taux de grève dans le privé : de 1984 à 2005, on compte en moyenne 385 journées individuelles non travaillées pour 1000 salariés dans la fonction publique d'Etat, contre seulement 54 dans le secteur privé, ce qui signifie que le recours à la grève est 7 fois plus important chez les fonctionnaires que chez les salariés du privé au cours de cette période ! Le recours à la grève dans les transports n'est quant à lui que 2,6 fois plus important que dans le secteur privé.

Enfin, ces graphiques indiquent que la relative stabilité du taux global de grève est le résultat de deux dynamiques opposées : une augmentation tendancielle du taux de grève dans les transports et la fonction publique d'Etat, contrebalancée par une légère diminution du taux de grève dans le secteur privé hors transports. Ainsi, s'il est inexact de dire qu'on fait de moins en moins grève en France, il semble bien qu'on fasse de moins en moins grève dans le secteur privé. L'interprétation d'une telle évolution n'est toutefois pas aisée : nous y reviendrons dans un prochain post.

Bon, il est tard et les métros sont bondés. Il y a des jours où on se prend à rêver que les statistiques ne soient pas le seul endroit où les grèves disparaissent d'un coup de baguette magique...

Add. : Ian Eschstruth nous a écrit pour nous signaler la publication d'un rectificatif sur le site d'Acrimed.


NOTES

(1) Les Journées individuelles non travaillées (JINT) correspondent à l'ensemble du temps de travail non effectué par les salariés impliqués dans des grèves. Exprimé en jours, cet indicateur est établi à partir du recensement des arrêts de travail effectué par l'Inspection du travail.
(2) Pour corriger les chiffres de la faible couverture des statistiques collectées par les inspecteurs du travail, nous avons utilisé les estimations réalisées par Delphine Brochard de la manière suivante : chaque année, nous avons multiplié par deux le nombre de jours non travaillés dans le privé et les transports tels que mesurés par l’Inspection du Travail et les services du Ministère de l’Equipement.
(3) Pour calculer les taux de grève d’une catégorie donnée de salariés, nous avons divisé le nombre de journées « grevées » au sein de cette catégorie par les effectifs de cette même catégorie. Un exemple : en 2005, dans le secteur de la fonction publique d’Etat y compris la Poste, on a compté 1337036 journées individuelles non travaillées ; les effectifs de la fonction publique d’Etat et de la Poste étaient alors de 2 780 000 salariés, si bien le taux de grève pour cette catégorie est de 481 journées individuelles non travaillées (JINT) pour 1000 salariés. Pour obtenir les effectifs de ces catégories, nous nous sommes servi des séries longues du site de l’INSEE sur l’emploi salarié ainsi que de cet article de Philippe Raynaud.
_Julien_ _Laurent_

Lire la suite...

mardi 20 novembre 2007

Max Weber revisited


Un article récent venu de chez nos cousins Germains nous offre un intéressant retour sur la thèse centrale de l’Ethique protestante et l’esprit du capitalisme. Une énième critique d’un grand classique déjà surabondamment commenté ? Pas tout à fait : l’intérêt de la démarche des auteurs tient au fait qu’ils testent empiriquement, sur des données d’époque, les mécanismes avancés par Weber dans cet ouvrage.

Armés d’impressionnantes données collectées par l’administration prussienne a la fin du XIXe siècle, Sascha Becker et Ludger Woessmann, chercheurs au Center for Economic Studies de Munich, reviennent sur la nature du lien entre protestantisme et prospérité économique esquissé par Weber : là où Weber attribue cette plus grande prospérité à un ethos protestant libérant l’accumulation des richesses par le travail en faisant de la réussite économique un signe d’élection divine, les auteurs trouvent dans les données de quoi soutenir une autre explication, qui se fonde sur une accumulation de capital humain plus importante chez les protestants. Celle-ci s’expliquerait par un élément-clé de la Reforme luthérienne : afin que chacun puisse lire les Evangiles, traduits en langue allemande, Luther recommande explicitement, en 1520, que l’ensemble des villes se dotent d’écoles élémentaires. Si la motivation de cette alphabétisation est uniquement religieuse, ses effets, eux, débordent sur la sphère économique – à concurrence de la proportion de protestants dans la localité. Les auteurs montrent sur la base de données chiffrées que c’est bien cette alphabétisation plus importante et plus précoce chez les protestants qui est à l’origine de leur plus grande prospérité économique, telle qu’observée par Weber à la fin du XIXe siècle.

L’écriture de l’ouvrage elle-même est née d’une constatation empirique : dans la Prusse du XIXe siècle, Weber observe que les protestants (qui représentaient environ deux tiers de la population en 1871, contre un tiers de catholiques) semblent jouir d’une plus grande prospérité économique. Le premier intérêt du travail de Becker et Woessmann est donc de fournir des éléments factuels sur cette relation. En effet, ce lien ne va pas de soi : la littérature qui s’est depuis intéressée à la relation entre protestantisme et prospérité économique peine à établir de manière convaincante l’existence d’un lien univoque. Il y a toutes les raisons de douter de bon nombre de ces études, qui pour la plupart se contentent de simples comparaisons entre pays : les différences de religion se mêlent alors a un certain nombre de spécificités nationales, si bien qu'il est difficile d'identifier ce qui provient de la religion en elle même et ce qui provient d'autres caractéristiques variant de pays à pays et pouvant être corrélées à la religion (institutions, géographie, etc.). Les auteurs disposent ici de données de recensement définies au niveau des « cantons » prussiens (Kreise) et qui indiquent l’affiliation religieuse, le niveau d’éducation et de nombreuses autres variables démographiques et économiques - données d'une qualité particulièrement impressionnante pour l’époque… En se concentrant sur les données issues du recensement à l’intérieur d’un même pays, les auteurs confirment ainsi l’observation de Weber : a la fin du XIXe siècle, une plus forte proportion de Protestants dans un canton est synonyme de revenus plus élevés, et d’un développement plus avancé du secteur manufacturier. Mais si les données confirment le fait que le protestantisme est associé à une plus grande prospérité économique, elles montrent que les cantons à forte majorité de protestants bénéficient également d’une alphabétisation significativement plus élevée.

Le second et principal intérêt de cette étude est donc de proposer une explication alternative à celle de Weber quant à la raison pour laquelle le protestantisme est, à la fin du XIXe siècle, synonyme de plus grande prospérité économique. La Réforme implique, pour des raisons purement religieuses à l’origine, une augmentation de l’alphabétisation. Les figures 2 et 4 issues de l’article et reproduites ci-dessous illustrent graphiquement cette relation.

D'abord, la répartition géographique du protestantisme en Prusse à la fin du XIXe :


Ensuite, la répartition du niveau d'alphabétisation à la même époque :


La figure 3 montre quant elle le revenu moyen individuel par canton, indicateur de prospérité économique utilisé par les auteurs (au même titre que la part du secteur manufacturier dans l’économie, non reporté ici, qui mesure de manière indirecte le degré de développement du capitalisme moderne) :


La question statistique centrale est de déterminer à quel point ces différences de niveau d’éducation induites par la Réforme sont à même d’expliquer les différences de prospérité économique entre cantons. Les résultats de leurs estimations utilisant des données administratives sur l’affiliation religieuse, l’instruction et la situation économique à la fin du XIXe siècle, indiquent que les différences de niveau d’éducation entre protestants et catholiques expliquent l’intégralité des différences économiques (1). Une fois le niveau d’éducation pris en compte, l’affiliation religieuse n’a donc statistiquement plus aucun effet propre. Pour le dire autrement, ce n’est ainsi pas le fait d’être protestant en soi qui explique ces meilleurs résultats économiques, mais le fait qu’être protestant en Prusse à la fin du XIXe siècle va de pair, en moyenne, avec le fait d’avoir bénéficie d’un niveau d’éducation supérieur…

NOTE :

(1) L'hypothèse faite ici est que la Réforme survient dans un lieu donné de manière indépendante des conditions économiques et du niveau d’éducation. Si à l’inverse la probabilité de devenir protestant, qui à son tour conditionne le niveau d’alphabétisation, dépend d’une manière ou d’une autre de variables économiques locales, alors les estimations évoquées ci-dessus sont biaisées. Les auteurs traitent ce problème explicitement en utilisant le fait que la Réforme se diffuse en cercles concentriques autour de Wittenberg, la ville de Saxe-Anhalt ou Luther affiche ses 95 thèses contre les indulgences en 1517 – la distance à Wittenberg est alors utilisée comme un instrument. Il faut noter par ailleurs que les citoyens allemands n’avaient alors pas la liberté de culte – ce sont les princes qui choisissaient la religion de leurs sujets, selon le principe « Cujus regio, ejus religio ».
_Mathieu_

Lire la suite...

jeudi 15 novembre 2007

Taux marginal : fais-moi mal ?


Ecopublix c’est un travail d’équipe ! Du coup, Manix entend apporter sa petite pierre à l’édifice entrepris par les vénérés Antoine et Julien concernant l’incidence fiscale et son impact sur la structure de nos prélèvements. Avec (en deux temps), un petit éclairage sur la structure des prélèvements sur les bénéfices. Mais avant de se lancer dans des considérations compliquées : « back to the basics ». Voici donc avant le post complet sur la structure des prélèvements sur les bénéfices, un petit détour pédagogique par les taux marginaux pour planter le décor. C’est quoi donc un taux marginal ?

Kanelbullix a déjà évoqué la notion de taux moyen et de taux marginal d’un prélèvement, mais je me permets d’y revenir pour clarifier les enjeux pour les non-économistes, avant de présenter dans un second post (imminent) des graphs parlants sur l’évolution de la progressivité des différents systèmes de prélèvements (sur les revenus d’activité, et les revenus du patrimoine).

I/ Assiette, taux moyen et taux marginal

« Au commencement était l’assiette » : à tout prélèvement correspond un élément économique sur lequel il pèse (revenu, salaire, propriété, consommation, etc.) et qu’on appelle l’assiette de l’impôt en question. Ensuite le taux moyen : concrètement, si vous payez un prélèvement P sur une assiette R, alors le taux moyen c’est P/R, soit ce que représente ce prélèvement en pourcentage de l’assiette. C’est un indicateur important, mais le plus souvent, ce n’est pas l’élément déterminant pour les économistes qui s’intéressent aux comportements économiques des agents. En effet, les économistes sont souvent intéressés par le taux marginal dont on peut résumer le principe de la manière suivante : Imaginons que mon assiette R augmente d’1 euro, combien de prélèvements vais-je payer sur cet euro supplémentaire ? C’est ça le taux marginal : le taux de prélèvement applicable au dernier euro gagné, au dernier euro de l’assiette. Mathématiquement, c’est ∆P/∆R, soit, quand mon assiette augmente de ∆R, combien de prélèvement en plus (∆P) je vais payer en pourcentage de ce ∆R. Habituellement, on considère donc un petit ∆R (1 euro supplémentaire). Les cracks des maths auront compris que si R et P sont continus, alors le taux marginal peut se définir comme la dérivée de la fonction qui lie le prélèvement P au niveau de l’assiette R.

II/ Taux marginal et progressivité de l'impôt

Après, il n’est pas inutile de comprendre ce qui lie le taux marginal à la notion de progressivité (ou de régressivité). On dit qu’un système de prélèvement est progressif si le taux marginal de prélèvement croit avec la taille de l’assiette, et que le système est proportionnel (flat tax) si le taux marginal est constant. Enfin, le prélèvement est régressif si le taux marginal décroît avec R.

L’intuition est simple : si le taux marginal est constant, cela veut dire que tout euro supplémentaire gagné est imposé au même taux. Donc quelle que soit la taille de mon assiette, le prélèvement que je supporte est une proportion fixe de mon assiette : c’est la flat tax, l’impôt proportionnel type CSG. Si mon taux marginal augmente avec mon assiette, alors, chaque euro supplémentaire supporte un prélèvement relativement plus important. Conséquence : mon prélèvement va tendre à être une proportion de plus en plus grande de mon assiette à mesure que cette assiette croît : du coup mon taux moyen est une fonction croissante de la taille de mon assiette. C’est le principe d’un système progressif, « plus mon revenu est fort, plus je dois contribuer proportionnellement à mon revenu ». L’impôt sur le revenu fonctionne exactement sur ce modèle, avec (en barème 2007), 5 taux marginaux croissants avec le niveau du revenu imposable (annuel) : 0% de 0 à 5514 euros, 5,5% de 5515 à 10846 euros, 14% de 10847 à 24431 euros, 30% de 24432 à 65559 euros et 40% au delà de 65560 euros. Un salarié célibataire déclarant 30000 euros de revenu annuel imposable (soit 2500 euros de revenu mensuel) paiera donc 0*5614 + 0.055*(10846 -5615) + 0.14*(24431-10847) + 0.30*(30000-24432) = 3860 euros d'impôt sur le revenu, soit un taux moyen d'imposition de 12,9%.

Le graphique suivant permet de visualiser l'évolution du taux marginal et du taux moyen de l'impôt sur le revenu de 2007 en fonction du revenu mensuel de 2006 :


Avec tout cela, je crois qu’il n’est plus besoin de revenir sur ce qu’a fort bien dit Emmanuel, car tout le monde l’a compris maintenant : le taux marginal de l’impôt sur le revenu n’est pas le taux moyen supporté par les ménages, OK ? C’est simplement le taux auquel sont imposés les « derniers euros » gagnés. Comme les euros gagnés « avant » sont imposés dans les tranches précédentes, à un taux marginal inférieur, le taux moyen supporté par le ménage est toujours plus faible que le taux marginal de la tranche dans lequel son revenu imposable se situe.

Une petite précision au passage : lorsqu’on s’intéresse à la structure des prélèvements, ou lorsqu’on additionne les divers prélèvements pesant sur une même assiette (ce qu’a fait Petitsuix dans son post sur l’IR et les cotisations sociales pesant sur le salaire), lorsqu’ enfin on tient bien compte de toutes les règles déterminant ces prélèvements avec leur cortège de dispositifs dérogatoires ou spéciaux (décôte, PPE, etc.), il se peut que les taux marginaux ne soient pas toujours croissants, ou toujours constants, ou toujours décroissants, mais au contraire que localement (à certains niveaux), ils soient décroissants, puis croissants, ou ensuite constants, etc. C’est important, parce c’est cette structure fondamentalement non monotone des taux marginaux d'imposition qui crée des effets de seuils sur les comportements.

III/ Pourquoi s'intéresser aux taux marginaux ?

Si les taux marginaux ont acquis une telle importance dans l'analyse économique, c'est qu'ils constituent l’élément pertinent pour comprendre les comportements, dès lors qu’on fait l’hypothèse que les agents sont rationnels et qu’ils optimisent leur situation compte tenu de leur environnement (c’est le fondement de la révolution marginaliste). Ce qui compte c’est en effet de comparer l’utilité que me procure un euro gagné de plus à ce qu’il me coûte en termes d’effort et de prélèvement (et ce prélèvement, c’est par définition le taux marginal). Tant que gagner un euro de plus me procure plus d’utilité que ce que ça me coûte (en termes d’effort et de prélèvement), je continue à travailler pour gagner cet euro. Je ne m’arrête que lorsque gagner un euro supplémentaire me rapporte exactement ce qu’il me coûte. Mon choix d’offre de travail est donc déterminé par cette condition d’égalité, où intervient directement le taux marginal. D’où l’importance de raisonner « à la marge » pour comprendre les choix des individus.

Le taux marginal de prélèvement est donc une variable cruciale pour comprendre l’offre de travail des ménages. Clairement, plus le taux marginal de prélèvement augmente, plus mon incitation à travailler diminue, car un euro supplémentaire gagné sera davantage taxé. Dans les faits, la mesure de ce paramètre-clé qu’est l’élasticité de l’offre de travail au taux marginal d’imposition (c’est-à-dire la mesure de la désincitation à travailler quand le taux marginal d’imposition augmente) est assez controversée, mais un consensus émerge toutefois : cette élasticité n’est pas forcément très importante, mais aussi faible soit-elle, elle ne peut être tenue pour nulle.

Si le taux marginal pesant sur un euro de revenu d’activité est important du point de vue de la compréhension du comportement économique d’offre de travail des ménages, le taux marginal pesant sur les bénéfices ou sur les autres revenus du patrimoine est aussi de la première importance : en effet, si gagner un euro de plus sous forme de bénéfice est moins taxé que de gagner un euro de plus sous forme de revenu d’activité, ceci peut jouer fortement sur la façon dont les entrepreneurs décident de qualifier leur revenu auprès du fisc. Ceci peut également jouer au niveau des très grands patrons, qu’on préfère payer sous forme d’éléments patrimoniaux (actions gratuites, stock-options, etc.) plutôt que sous forme de salaires (indépendamment de l’intérêt pour les actionnaires d’intéresser les CEO aux résultats de l’entreprise dans le cadre classique d’une relation principal-agent). Ceci joue enfin sur le choix des hauts revenus de « fuir » le fisc, ou de s’exiler, selon qu’ils sont plus composés de revenus du patrimoine, ou de revenus d’activité.

On voit donc l’intérêt de pouvoir proposer une comparaison des taux marginaux d’imposition supportés par chacun des types de revenus, et en particulier les revenus du patrimoine par opposition aux revenus du travail : je m'intéresserai à cette comparaison dans mon prochain (et imminent) post, en tâchant de montrer l’impact de la réforme du Projet de Loi de Finances (PLF) pour 2008.

Pour finir, rendons hommage à un homme de bien. L’idée de progressivité de l’impôt, même si on en trouve l’origine très tôt, doit énormément à Condorcet, ce petit génie, qui en donne le premier une vision structurée. Ce qu’il y a de sublime dans ce texte, écrit en pleine Convention, c’est que Condorcet évoque déjà l’essence du raisonnement marginaliste, et surtout, qu’il fonde la progressivité de l’impôt non pas sur un bête et méchant principe de justice a priori (« les riches doivent payer plus »), mais sur un principe de justice qui tient compte des différences d’utilités marginales des agents : le taux marginal d’imposition doit tenir compte de l’utilité marginale des individus. Si je ne retire pas la même utilité de la construction d’une route, le taux du prélèvement servant à financer cette route doit tenir compte de ces différences pour être vraiment juste. L’interaction entre les considérations de justice et celles d’efficacité est cruciale dans le domaine fiscal et le taux marginal est au coeur de cette interaction.
_Camille_

Lire la suite...