Affichage des articles triés par date pour la requête _Emmanuel_. Trier par pertinence Afficher tous les articles
Affichage des articles triés par date pour la requête _Emmanuel_. Trier par pertinence Afficher tous les articles

mercredi 6 février 2008

Elections municipales : les partis politiques comptent-ils ?


D’ici un mois, les 9 et 16 mars, les Français voteront pour élire leurs maires. Les grands partis hésitent à faire des élections municipales un « enjeu national ». Au-delà de la stratégie de parti, on peut en effet s’interroger sur la valeur de test d’une élection très locale pour une politique nationale. Il semble raisonnable de penser que les élus locaux choisissent des politiques peu partisanes, qui prennent en compte les préférences de leurs administrés. En conséquence le vote s’effectuerait moins selon ces lignes partisanes que lors d’une élection nationale ou régionale. On peut reformuler cette hypothèse en disant que les électeurs influencent fortement les politiques municipales, au point que les distinctions entre partis sont moins marquées.

I/Pourquoi s’attendre à une convergence des plateformes politiques des partis ?

En 1957 Anthony Downs écrit un livre intitulé An Economic Theory of Democracy. Il y développe de nombreuses idées mais l’une d’entre elles a eu une influence majeure en économie : la convergence des politiques vers les préférences de l’électeur médian . L’intuition de ce résultat est assez simple. Downs considère que les partis choisissent le programme politique qui leur offre la plus grande chance de gagner une élection. Imaginons deux partis qui s’affrontent, un « à gauche » et l’autre « à droite ». Ils font face à des électeurs aux préférences diverses, de l’extrême gauche à l’extrême droite, qui votent pour le parti dont le programme est le plus proche de leurs idées. Quel est le bénéfice pour le parti de gauche de se « droitiser » ? Il ne perd aucun électeur « à sa gauche » puisque qu’il est le seul parti de gauche. Ces électeurs apprécient certes moins son programme mais votent de toute façon pour lui (par exemple 90% des électeurs d’extrême gauche ont apporté leurs voix à Ségolène Royal lors du second tour de l’élection présidentielle). En revanche il conquiert des électeurs à droite en se rapprochant de leurs positions idéologiques. Au final son nouveau programme séduit plus d’électeurs que l’ancien. Ce raisonnement tient aussi pour le parti de droite qui va donc déplacer sa position idéologique vers la « gauche ». Les deux partis vont ainsi modifier leurs programmes jusqu’à converger vers des positions communes. Downs montre que le point de convergence s’effectue aux préférences de l’électeur médian (c’est-à-dire celui dont 50% des électeurs ont des préférences plus à gauche, et 50% plus à droite).

Ce raisonnement a profondément influencé les économistes de toute une génération. Dans cette perspective les électeurs modifient les politiques, dans le sens où les politiciens prennent fortement en compte leurs préférences lorsqu’ils décident de leurs programmes. A la limite, peu importe qui gagne l’élection puisque les deux candidats offrent les mêmes politiques. Ce résultat a cependant été de plus en plus mis en doute, non seulement et assez rapidement par des politologues qui savaient que l’expérience ne supportait pas la théorie, mais aussi par des économistes.

II/ Est-il raisonnable d’envisager cette convergence ?

Le résultat de Downs repose sur des hypothèses fortes et beaucoup d’articles ont été écrits pour le généraliser. Mais il en existe une cruciale, qui suppose que les politiciens n’ont aucune réticence à adopter n’importe quelle idéologie pour être élus. Si au contraire ils ont une préférence idéologique, la crédibilité de leurs promesses de campagne devient douteuse et il devient nécessaire de distinguer programmes et politiques mises en place. Même si les programmes convergent, rien n’empêche l’élu de revenir sur ses promesses et de suivre sa propre idéologie une fois au pouvoir. L’économiste Alberto Alesina fut le premier à montrer que dans ces conditions, la convergence des politiques n’avait pas nécessairement lieu. Il établit que si le coût pour le politicien de revenir sur ses promesses est élevé, par exemple en terme de réputation, alors on observera une convergence au moins partielle des programmes. Dans le cas contraire, les électeurs ne sont pas dupes et savent que « les promesses n’engagent que ceux qui les reçoivent » selon la phrase célèbre de Jacques Chirac prononcée lors d'une interview au Monde en 1988 (certains attribuent à Charles Pasqua la paternité de la formule). Dans cette perspective, les électeurs ne modifient plus les programmes mais ne font qu’élire des politiques fixées d’avance.

Nous avons donc en main deux théories. La première prédit que les électeurs influencent les politiques mises en place, la seconde que les électeurs ne font que choisir des politiques prédéterminées. La distinction est de taille et seul l’examen de données permet de dire laquelle décrit le mieux la réalité.

III/ Approche empirique

David S. Lee, Enrico Moretti, et Matthew J. Butler, dans un article du Quarterly Journal of Economics paru en 2004, ont développé une méthode permettant de distinguer ces effets. Ils l’ont appliquée aux élections parlementaires américaines. Les économistes Fernando Ferreira et Joseph Gyourko l’ont ensuite utilisée pour les élections municipales aux Etats-Unis. Leur stratégie pour déterminer si les électeurs modifient ou élisent les politiques est astucieuse et nécessite un peu d’attention pour bien la saisir.

Une méthode simple et directe consisterait à comparer l’idéologie des candidats et les politiques mises en place (la manière dont votent les représentants au Congrès dans le cas du premier article). Si aucune différence n’est observée alors les préférences des électeurs ne sont pas prises en compte et on peut rejeter l’hypothèse de leur influence, et donc le modèle de Downs. Malheureusement l’idéologie n’est pas observable et il faut recourir à des méthodes plus sophistiquées. La stratégie proposée repose sur le fait que si les candidats sont contraints dans leurs choix par les préférences de leurs électeurs, alors un changement dans leur popularité aura un impact sur leur vote au Congrès. Au contraire, si les promesses de campagne ne sont pas crédibles, alors leur popularité n’influencera pas leur vote au parlement.

Reformulons l’argument pour bien l’expliciter. Si on observe qu'à la suite d'un parachutage d’électeurs démocrates dans la circonscription d'un parlementaire (ce qui se traduit par une une augmentation de sa popularité s’il est démocrate, une diminution s’il est républicain), ce dernier modifie la manière dont il vote au Congrès dans un sens plus « démocrate », alors on peut en conclure que les électeurs influencent les politiques car le parlementaire aura pris en compte la composition de l’électorat dans sa circonscription. S’il ne change rien à sa manière de voter, alors les électeurs ne font que choisir entre des idéologies fixes.

Mais là encore, il nous faut jouer d’habileté car les parachutages d’électeurs sont rares. Lee, Moretti et Butler utilisent le fait, présenté récemment par Noblabla, que le parlementaire en place possède un net avantage sur ses concurrents lors des élections suivantes. On peut donc affirmer que si un parlementaire est élu lors de l’élection de 1992, il profite d’une hausse de popularité pour l’élection qui interviendra deux ans plus tard, en 1994. Une victoire démocrate en 1992 revient en quelque sorte à un parachutage de démocrates pour l’élection de 1994.

Les auteurs comparent à quel point les parlementaires votent de manière « démocrate » après 1994 quand un démocrate était au pouvoir en 1992 dans leur circonscription et à quel point les parlementaires votent « démocrate » après 1994 quand un républicain était au pouvoir en 1992 dans leur circonscription. Cette différence peut être décomposée en deux effets :
1/ La première composante reflète simplement le fait que les vainqueurs en 1994 d’élections dans lesquelles les parlementaires en place étaient démocrates auront tendance à voter de manière plus démocrate simplement parce qu’ils ont plus de chance d’être démocrates (c’est l’avantage conféré au parti en place). Cet effet indique que les électeurs ne font que choisir des politiques : les démocrates ont plus de chances d’être élus à la suite de démocrates sans avoir besoin de modifier leurs programmes.
2/ La deuxième composante montre à quel point les candidats répondent à une variation de leur popularité. Si les parlementaires tiennent leurs promesses, alors un démocrate « challenger » qui tente d’emporter une circonscription républicaine votera ensuite de manière plus républicaine s’il gagne l’élection qu’un démocrate déjà en place et réélu. En effet, pour surmonter son handicap, le challenger devra convaincre des électeurs républicains et adapter son idéologie à son électorat. Ce second effet mesure à quel point les électeurs modifient les politiques et sous-tend le modèle de Downs.

La taille relative de ces deux effets indique quel modèle est le plus adapté : convergence partielle (voire totale), ou absence de convergence. Cependant cette décomposition s’appuie sur une hypothèse cruciale. Il faut que l’affiliation du parlementaire en place soit aléatoire. Il est nécessaire que la popularité du candidat ne dépende que de sa position de challenger ou de parlementaire déjà en place et d’aucune autre variable. Or, comme Noblabla l’a déjà expliqué, nous faisons face à un problème d’endogénéité dans cette situation : les raisons pour lesquelles un parlementaire démocrate a été élu en 1992 influencent aussi l’élection de 1994. On ne peut donc dire que la popularité en 1994 tient uniquement au fait d’avoir un parlementaire démocrate en 1992. Comment recréer ce caractère aléatoire ? Lee utilise la technique dite de Regression discontinuity design présentée par Noblabla : lors d’élections très proches, l’identité du vainqueur dépend d’un coup de chance qui fait passer ou non au-dessus de la fatidique barre des 50%, et non d’autres variables non observables. En se concentrant sur ces circonscriptions « sur le fil du rasoir », on peut effectuer la décomposition présentée plus haut.

IV/ Résultats

Nous commençons par les élections au Congrès. Lee, Moretti et Butler prennent en compte toutes les élections de 1946 à 1995. Le score ADA quantifie pour chaque parlementaire à quel point il vote de manière libérale (démocrate) au Congrès. Le graphique suivant montre le score ADA en t+1 (par exemple en 1995-1996, suite à l’élection de 1994) d’un parlementaire en fonction du vote démocrate dans sa circonscription en t (en 1992). Il illustre l’effet total que nous avons décomposé en deux composantes.


On observe une discontinuité très marquée à 50%. Rappelons de nouveau qu’elle est due à deux effets. Tout d’abord, une circonscription qui a élu un démocrate en t (partie droite du graphique) a de fortes chances de réélire un démocrate en t+1. Il aura un score ADA élevé uniquement de part son affiliation partisane. C’est donc l’effet « les électeurs élisent des politiques sans les modifier » ou effet partisan. Ensuite, un démocrate qui parvient à enlever une circonscription à un républicain en place (partie gauche du graphique) aura un score ADA moins élevé qu’un démocrate déjà en place et réélu (partie droite) car il aura adapté sa politique à son électorat. C’est l’effet « les électeurs modifient les politiques ».

Les auteurs poursuivent en mesurant ces deux effets. Pour estimer l'effet partisan il suffit de comparer les scores ADA des républicains et des démocrates ayant gagné l'élection avec une faible marge, et de multiplier cette différence par la différence de probabilité d'une victoire démocrate lorsque les démocrates ont tout juste gagné et tout juste perdu l'élection précédente. On mesure donc la différence politique due uniquement à l'affiliation partisane puisque les circonscriptions sont identiques et on la multiplie par la probabilité de réélection. Le deuxième effet est simplement le résidu entre la discontinuité observée sur la figure précédente et l'effet partisan. Les auteurs arrivent à la conclusion que la composante « les électeurs modifient les politiques » est quasiment nulle tandis que l’effet partisan explique la quasi-totalité de la discontinuité. On peut donc affirmer qu’en moyenne les parlementaires ne prennent que faiblement en compte la composition de leur électorat et votent selon des lignes partisanes. Les électeurs en sont donc réduits à choisir entre des idéologies qui réagissent peu à leurs préférences.

Ferreira et Gyourko reprennent cette méthode et l’adaptent aux élections municipales américaines. Au lieu de regarder les votes au Congrès, ils mesurent directement les politiques municipales, telles que les impôts, l’allocation des recettes, et le taux de criminalité. Ils observent tout d’abord que si l’on considère l’ensemble des municipalités, il existe des différences marquées entre les municipalités démocrates et républicaines. Cependant quand on se restreint à celles autour du seuil de 50% ces différences disparaissent. Il apparaît donc que des variables autres que l’affiliation politique du maire sont à l’origine de ces différences. Il est peut-être utile de rappeler une nouvelle fois pourquoi : la comparaison des politiques dans une ville à 80% démocrate et dans une autre ville à 80% républicaine ne nous apprend rien car ces deux villes sont sûrement très différentes et il est impossible d’isoler l’effet du parti du maire sur ces politiques ; en revanche une ville à 51% démocrate n’est sûrement pas très différente d’une ville à 51% républicaine. Ce résultat motive l’approche RDD qui utilise le caractère aléatoire des élections serrées. Le graphique suivant illustre cette absence de discontinuité pour les taxes et la taille du gouvernement. Observez le contraste avec le graphique précédent :


Décomposant cet effet (ou plutôt son absence) en deux, les auteurs trouvent que les électeurs influencent les politiques. L’effet partisan est inexistant et l’absence de discontinuité est due à la convergence des politiques. Leurs résultats contrastent fortement avec ceux de Lee, Moretti et Butler qui aboutissaient à la conclusion inverse.

Comment expliquer ce renversement complet ? Ferreira et Gyourko montrent que les municipalités sont plus homogènes que les circonscriptions. Si les habitants d’une ville sont très similaires et ont donc des préférences politiques très proches, toute déviation loin ces préférences de la part d’un candidat aura un coût électoral élevé. Or les municipalités sont plus homogènes que les circonscriptions des parlementaires de par leur taille, mais aussi parce que les individus ont tendance à se regrouper par préférences au sein de municipalités. Ce mouvement est marqué au niveau local car il est possible de déménager d’une municipalité à une autre jugée plus attractive sans pour autant changer d’agglomération. Ce n’est pas le cas pour les circonscriptions parlementaires. Ferreira et Gyourko montrent d’ailleurs que la convergence des politiques est plus forte dans les agglomérations composées de nombreuses municipalités. Les maires sont donc plus contraints dans leurs choix et ne peuvent s’offrir le luxe de suivre aveuglément leur idéologie.

V/ Conclusion

A partir de ces deux articles, nous avons montré qu’il existait un fort effet partisan pour les élections au Congrès américain mais aucun pour les élections municipales. Les électeurs influencent les politiques locales mais ne font que choisir des lignes partisanes au niveau parlementaire. Mais attention, il ne faudrait pas en conclure qu’il n’existe aucune différence entre les républicains et les démocrates au niveau local. Le message de l’article est plus subtil : les candidats prennent en compte les préférences de leurs administrés au niveau local, mais pas au niveau parlementaire où l’idéologie prime sur la composition de l’électorat.

Qu’en déduire pour les prochaines municipales ? Ce genre d’études n’existe pas pour la France (il est vrai aussi que la situation y est plus complexe, avec très souvent bien plus de deux partis en lice ce qui complique sérieusement l’analyse). Cependant, l’argument sonne assez juste en France, comme le laisse penser cette étude Ipsos : au niveau local, l’affiliation partisane est de moindre importance car elle divise moins les politiques des candidats qu’au niveau parlementaire. Par exemple, un maire de gauche dans une ville partagée entre électeurs de droite et de gauche aura une politique de centre qui séduira nombre de citoyens et recueillera sûrement des voix auprès des électeurs de droite. Ce sera moins le cas du député qui votera à l’Assemblée de manière plus partisane selon les lignes de son parti. Pour reprendre l’introduction, il ne semble donc pas très judicieux de voir dans des élections locales un test du soutien à un parti.
_Emmanuel_
_Emmanuel_

Lire la suite...

mardi 25 décembre 2007

L'élasticité en économie et à Noël


S’il est une profession pour laquelle la période des fêtes est cruciale, c’est bien celle de producteur de sapin de Noël. Certains seront peut-être surpris d’apprendre que le Gaulois se désintéresse de plus en plus du « vrai » sapin de Noël, à tel point que l’AFSNN (Association Française du Sapin de Noël Naturel) serait très inquiète. Le marché du sapin de Noël ne se porte pas au mieux et il doit de plus cette année faire face à une hausse des coûts d’exploitation qui va faire monter le prix de vente de l’arbre. Cette inflation risque encore d’éloigner certains consommateurs du résineux. Toute la question pour les producteurs est de connaître l’amplitude de cette baisse de la demande. Pour répondre à cette question, un économiste cherchera à estimer l’élasticité de la demande de sapin de Noël. Aïe ! Voilà encore que ces économistes utilisent leur langage incompréhensible ! D’autant plus qu’à Ecopublix nous avons déjà maintes fois utilisé ce fameux terme d’élasticité. Court post sur sa définition et son importance en économie.

I/ La définition de l'élasticité

Commençons par la définition : l’élasticité d’une grandeur Q par rapport à une grandeur P est définie comme le rapport entre le pourcentage de variation de Q et le pourcentage de variation de P. Elle mesure la sensibilité de Q à P. Par exemple si Q est la demande et P le prix, alors l’élasticité-prix de la demande est définie comme le rapport entre le pourcentage de variation de la demande d'un bien et le pourcentage de variation du prix de ce bien. Elle mesure donc la sensibilité de la demande par rapport aux variations de prix. On a coutume de dire qu’une élasticité de valeur e signifie qu’une augmentation de 1% modifie la demande de e%. L’élasticité possède ainsi une définition intuitive qui facilite son usage (1). Une autre qualité importante de l’élasticité est qu’elle est adimensionnelle, c'est-à-dire qu’elle ne dépend pas des unités dans lesquelles les grandeurs P et Q sont exprimées (les prix peuvent être exprimés en euros, dollars, ou couronnes suédoises, la valeur de l’élasticité restera inchangée). Le concept peut donc s’appliquer identiquement à tout domaine et tout pays où l’on souhaite mesurer la sensibilité d’une variable par rapport à une autre.

On peut définir l’élasticité par rapport à d’autres variables que le prix du bien. On pourra ainsi s’intéresser à l’élasticité-revenu de la demande d’un bien qui donnera le changement en pourcentage de la demande quand le revenu du consommateur varie de 1%. L’élasticité est dite croisée quand elle se réfère au prix d’un autre bien. Par exemple la valeur de l’élasticité du chauffage solaire par rapport au prix du pétrole a un intérêt non seulement pour les producteurs de panneaux solaires mais aussi pour les politiques environnementales

La courbe de demande nous fournit une illustration graphique de l’élasticité-prix de la demande (nous utilisons l’exemple de la demande mais on pourrait faire de même avec une courbe d’offre, ou de n’importe quelle variable). Nous avons expliqué qu’une élasticité élevée signifiait qu’une faible variation de prix se traduisait par une large variation de quantité. La courbe va donc être très horizontale, comme sur le graphique suivant :


On dira alors que la demande est élastique : une augmentation de prix se traduit par une forte chute de la demande (2). Par exemple, c'est parce que les compagnies aériennes font face à une demande très élastique que les compagnies « low cost » ont pu en profiter.

En revanche, une élasticité faible impose que la demande ne réagisse que très peu à la variation de prix. Sa courbe est donc très verticale, comme illustré sur le graphique suivant :


On dira alors que la demande est inélastique. Par exemple, la demande d’essence est inélastique car, au moins dans le court terme, les consommateurs ne réduisent que très peu leur consommation suite à la suite d'une augmentation du prix à la pompe.

II/ Elasticité et taxation

L’élasticité est donc un concept utile en ce qu'elle permet de caractériser de manière très simple l'allure d'une courbe de demande (ou d’offre) d’un bien. Cependant son utilité ne s’arrête pas là car beaucoup de résultats en économie dépendent de l’élasticité du bien et les économistes s’y réfèrent fréquemment. Nous avons déjà évoqué dans des billets précédents à quel point les conséquences des politiques publiques dépendaient des élasticités : marché du logement sur lequel l’offre de court terme est inélastique, partage des cotisations salariales et patronales, taxation des stocks-options, et taxation des époux. Il n’est pas étonnant que l’élasticité entre fréquemment dans les raisonnements impliquant taxations et subventions. Pour appréhender leurs effets, il est nécessaire de comprendre à quel point la demande du bien taxé va chuter. Or cette sensibilité est exactement mesurée par l’élasticité de la demande.

Prenons un célèbre exemple d’application. Un résultat important de la théorie économique de la taxation stipule que ce sont les biens les moins élastiques qui devraient être les plus taxés (règle dite de « l'élasticité inverse »). Armés de notre définition de l’élasticité, comment interpréter ce résultat sans pour autant construire un modèle complet de taxation? Imaginons qu’un bien soit taxé. Son prix va augmenter et sa demande chuter, plus ou moins fortement selon son élasticité. La demande d’un bien inélastique ne changerait presque pas en comparaison de la variation de son prix. Le gain de cette réforme pour le législateur correspond au revenu prélevé. Cependant la taxation engendre aussi une perte. Les consommateurs paient plus cher et par conséquent réduisent leur consommation, ce qui réduit leur bien-être. Il est facile de comprendre graphiquement que plus le bien est élastique, c’est-à-dire plus la courbe de demande est horizontale, et plus la différence entre le gain et la perte est élevée, comme on peut le voir sur le graphique suivant :


L’élasticité fournit un critère simple pour choisir quels biens taxer le plus fortement. Les gouvernements l’ont bien compris : les biens inélastiques (essence, cigarettes) sont particulièrement taxés. Au-delà de ce simple résultat de la taxation des biens, l’élasticité intervient dans nombre de raisonnements : taxation du revenu du travail (l’offre de travail la moins élastique sera plus taxée), pouvoir de monopole (une entreprise en monopole abuse plus de sa position dominante si la demande est inélastique), théorie de la firme (élasticité de substitution entre le travail et le capital), théorie de l’incidence fiscale (voir le post d’Overzelus)...

III/ Elasticité et sapins de Noël

Mais revenons à nos sapins de Noël. Un article de l’American Journal of Agricultural Economics estime deux élasticités de la demande d’arbre de Noël naturel en utilisant des données américaines. Les auteurs trouvent une élasticité prix égale à -0,674. D'après notre définition, cela signifie que si le prix du sapin de Noël augmente de 1%, la quantité demandée chute (puisque le signe est négatif) de 0,674%. En d’autres termes, si les pépiniéristes augmentent cette année leurs prix de 15% (comme anticipé ici), la demande devrait chuter de 0,674*15=10,11% (3). L’article ne s’arrête pas là et estime ensuite l’élasticité croisée de l’arbre de Noël par rapport au sapin artificiel et trouve une valeur de 0,188 : si le prix de l’arbre artificiel augmente de 1% alors les ventes d’arbres naturels augmenteront de 0,188%. Il y a donc substitution entre l’arbre naturel et celui en plastique puisque les consommateurs ont tendance à consommer plus du premier quand le prix du second augmente. C’est un autre intérêt de l’élasticité : elle permet de savoir quand et à quel point deux biens sont substituts (élasticité croisée positive, par exemple entre sapins naturels et artificiels), ou compléments (élasticité croisée négative, par exemple entre sapins de Noël et boules à accrocher aux branches).

La prochaine fois que nous parlerons d’élasticité, vous serez (j’espère) un peu moins troublés et vous pourrez faire le lien avec l’intuition derrière le concept. En attendant les billets Ecopublix 2008, toujours plus élastiques aux politiques publiques, bonnes fêtes à tous, joyeux Noël, et ne proposez pas au petit cousin qui vient de recevoir un kit de pyrogravure des mains du Père Noël fraîchement débarqué du Kyrgyzstan de mesurer l’élasticité du sapin, ça pourrait mal finir...


NOTES :

(1) Cette définition n’est cependant pas rigoureusement exacte puisque la définition mathématique à l’aide de dérivées ne considère pas un changement de prix de 1% mais un changement infinitésimal en pourcentage. Pour être précis, la définition exacte de l’élasticité est P/Q*(dQ/dP).
(2) Attention cependant à ne pas confondre la pente de la courbe de demande et élasticité. Sur tous les graphiques présentés ici la pente est constante, alors que l'élasticité ne l’est pas.
(3) Evidemment cette élasticité provient d’une étude réalisée sur données américaines, ce petit exercice n’a donc aucune valeur prédictive pour le marché français. L’élasticité de la demande française d’arbre de Noël n’a à ma connaissance jamais été estimée.
_Emmanuel_

Lire la suite...

jeudi 6 décembre 2007

Contrôle des loyers et pouvoir d'achat


Parmi les mesures annoncées par le chef Sarkozix pour augmenter le pouvoir d’achat des Gaulois, le logement occupe une place de choix, avec la proposition de supprimer la caution et de changer l’indice de référence pour l’indexation des loyers. En effet, si les loyers en Gaule sont fixés librement lors d’un changement de locataire, leur hausse, une fois le bail signé, est limitée par la croissance d’un indice défini par l’Etat. La proposition du chef consiste à remplacer l’indice actuel, appelé l’indice de référence des loyers, par l’indice des prix à la consommation (hors loyers et tabac). Cette substitution des indices va-t-elle augmenter le pouvoir d’achat des Gaulois ? Pour faire court, la réponse est peut-être oui pour certains d’entre eux au détriment d’autres catégories dans le court terme, mais certainement non à plus long terme. Pour bien comprendre pourquoi, il est utile de replacer cette mesure un peu technique dans le contexte plus général des politiques de contrôle des loyers, et de la discussion des économistes sur leur efficacité.

I/ Les consequences néfastes du controle des loyers

La régulation des loyers est apparue en Europe à l'occasion de la Première guerre mondiale, pour aider les locataires, (et en premier lieu les familles de soldats) à faire face à cette situation exceptionnelle, dans un contexte général de contrôle des prix. Cette régulation a généralement été prolongée jusqu’à la Seconde guerre mondiale, au cours de laquelle les loyers furent de nouveau gelés, aussi bien en Europe qu’aux Etats-Unis (1). En 1970, de nombreuses villes européennes maintenaient un contrôle des loyers plus ou moins strict et parfois réservé aux anciennes habitations, héritage direct des programmes mis en place pendant la guerre. Dans un contexte de forte inflation, le contrôle des loyers a connu un renouveau à cette période, sous diverses formes dont nous reparlerons plus loin.

Le contrôle des loyers représente un cas d’étude standard en économie. On peut illustrer le problème avec un simple graphique d’offre et de demande de logements locatifs. On porte sur l’axe horizontal la quantité d’appartements sur le marché (Q), et sur l’axe vertical le loyer versé aux propriétaires (P).


Sans régulation, l’équilibre s'établit au point E. Supposons qu'on décide d'instaurer un plafonnement des loyers, qui ne peuvent légalement excéder le niveau PR. Le nouvel équilibre s'établit au point R. Quelles en sont les caractéristiques ?

1/ L'effet sur les prix : le loyer régulé (PR) est plus faible que le loyer de l’équilibre non réglementé (PE).

2/ L'effet sur les quantités : pour ce niveau de loyer, la demande de logements locatifs excède le nombre de logements effectivement loués à l'équilibre. Sur le graphique, on constate que pour le loyer PR, la demande est plus élevée que la quantité disponible QR. En présence d'un excès de demande de ce type, l'allocation des logements aux locataires désireux de louer un logement s'organise selon le principe du rationnement : l'ensemble des demandeurs solvables ne pouvant être servis, le tri s'effectue selon d'autres critères que le prix (position dans la file d'attente, garanties de paiement, discrimination, etc.)

3/ Une baisse de la qualité des logements : La perte de profitabilité de la location décourage l’entretien des immeubles, ainsi que la construction de nouveaux logements, si bien que la mise en place d'un contrôle des loyers entraîne une diminution de la qualité du parc locatif.

4/ Une perte d'efficacité : le rationnement induit par le contrôle des loyers constitue l’inefficacité majeure de la régulation : graphiquement, cette perte d'efficacité ( baptisée « perte sèche » par les économistes) correspond à l'aire coloriée en jaune. En présence d'un plafonnement des loyers, les consommateurs sont prêts à payer plus que ce que les propriétaires demanderaient pour un accroissement du nombre de logements sur le marché, car la demande se situe au-dessus de l’offre entre les points R et E. Le contrôle des loyers empêche ces transactions d'avoir lieu, alors qu'elles augmenteraient le bien être global. Cette inefficacité prend plusieurs formes, qui peuvent s’observer actuellement en Suède, un pays Barbare qui a ceci de singulier que les loyers y sont encore complètement contrôlés : les files d’attente pour obtenir un appartement situés au cœur des grandes ville s'y étalent sur plusieurs dizaines d’années (on parle de 30 à 50 ans). Les locataires en place conservent leur logement le plus longtemps possible puisqu’ils bénéficient de bas loyers, préférant sous-louer (souvent illégalement) leur appartement avec des baux de courte durée plutôt que de le perdre, même s’ils ne comptent pas l’habiter dans un futur proche. Du coup, les nouveaux arrivants sur le marché du logement, par exemple les jeunes et les étrangers, éprouvent de grandes difficultés à se loger. Les propriétaires (et les agences de location) exploitent cette pénurie en demandant aux locataires des versements annexes, souvent illégaux, et sélectionnent leurs locataires. Enfin, les très nombreux locataires qui ne parviennent pas à mettre la main sur un bail de longue durée se voient obligés de multiplier les sous-locations et les déménagements, et n’ont souvent d’autre choix que d’acheter un logement pour surmonter cette pénurie.

5/ Une réduction de la mobilité des individus : en incitant les propriétaires à mettre en vente leurs appartements auparavant mis en location (cette dernière formule rapportant moins d’argent), le contrôle des loyers fait chuter le nombre de logements disponibles sur le marché locatif. Cela pénalise fortement les jeunes, les personnes mobiles géographiquement et plus généralement tous ceux qui ne souhaitent ou ne peuvent investir dans l'achat d'une maison ou d'un appartement. Le marché du travail pâtit indirectement de cette réduction de la mobilité des locataires, puisque les individus vont limiter leurs recherches d’emploi à un secteur géographique qui ne les force pas à déménager. Ces deux effets ont été confirmés au Danemark : les locataires jouissant d’un appartement à loyer régulé restent plus longtemps dans leur logement et les chômeurs acceptent plus souvent une offre d’emploi proche de leur habitation que ceux qui occupent des appartements à loyer non contrôlé.

6/ Les effet redistributifs du contrôle des loyers : a priori, les gagnants et les perdants de la réglementation des loyers sont relativement aisés à identifier. La baisse des loyers profite aux locataires, alors que les propriétaires gagnent moins d’argent. Le contrôle des loyers opère donc une redistribution des propriétaires vers les locataires. Sur le graphique, cette redistribution est représentée par le rectangle vert dont l’aire est égale à la différence entre le montant total des loyers payés par les locataires (loyer multiplié par quantité de logement) et ce qu’ils paieraient en l'absence de plafond. Il faut néanmoins ajouter un bémol à ce bilan redistributif : certes, la législation opère un transfert de revenu des propriétaires vers les locataires, mais uniquement en faveur de ceux qui ont conservé leur logement à la suite du plafonnement des loyers, c'est-à-dire sans prendre en compte tous ceux qui ont été lourdement pénalisé par la perte de leur logement (
QE-QR), provoquée par le rationnement du marché. Au total, le bien-être global diminue : graphiquement, cette perte est mesurée par le triangle jaune situé entre les courbes d'offre et de demande de logement.

II/ Quelle marge pour la régulation du marché ?

L'inefficacité du contrôle des loyers signifie-t-elle qu'il n'y ait aucune place pour l'intervention publique en matière de régulation du marché locatif ? Non, car il existe un certain nombre d'imperfections sur le marché du logement qui peuvent justifier dans certains cas la mise en place d'une régulation de la progression des loyers. Le système aujourd'hui en vigueur en Gaule comme dans beaucoup d’autres pays ne consiste d'ailleurs pas en un contrôle total du niveau des loyers, mais en une limitation de la croissance du loyer, une fois le bail signé, ce qui modifie les effets de la régulation.

Le marché du logement est en effet loin d’être un marché « parfait » où l’information circule librement et où le coût de trouver un bien est nul : les locataires supportent des coûts de recherche élevés et accepteront probablement le premier logement qui correspond à leurs critères sans savoir s’il en existe un autre similaire pour un prix moins élevé. Ceci confère aux propriétaires un pouvoir de marché qui leur permet d’extraire une rente au détriment des locataires : dans cette situation, une régulation pourrait être bénéfique afin d’éviter que les propriétaires ne fixent les loyers à un niveau supérieur à celui qui prévaudrait si le marché du logement était parfaitement fluide.

Par ailleurs, la régulation des loyers telle qu’elle fonctionne actuellement en France et dans d’autres pays d’Europe ne correspond pas à un côntrôle pur et simple des prix : elle ne fixe plus le niveau des loyers mais régule son évolution. Ce type de mesure s’est développé dans les années 1970, en accompagnement de réglementations visant à protéger les locataires contre le risque d'exclusion de leur logement, tout en poursuivant initialement l’objectif de limiter la hausse des prix dans une période d’inflation galopante. Cette forme de régulation a moins d’effets négatifs que le contrôle pur et simple des loyers, puisque le niveau des loyers peut s’ajuster à chaque fois que le bail d'un logement mis en location expire. Elle génère donc moins d’inefficacités, tout en assurant les ménages contre de fortes variations imprévues du niveau des loyers. Elle réduit aussi le pouvoir de monopole des propriétaires qui s'exerce en particulier au moment du renouvellement du bail. Le loueur va profiter du coût élevé d'un déménagement pour son locataire pour augmenter fortement le loyer. Le contrôle limite ces comportements.

Sans parler de monopole, d'autres arguments laissent penser que le marché souffre de problèmes d'information. D'un côté les propriétaires ne connaissent pas les caractéristiques des différents locataires, c'est-à-dire s'ils vont payer leur loyer, respecter les règles de copropriété, dégrader le logement, etc. Ce problème de sélection adverse va faire monter les prix. De l'autre les locataires ne connaissent pas non plus les caractéristiques du propriétaire: va-t-il entretenir le logement, a-t-il l'intention de vendre dans un futur proche? Les deux parties prennent en compte ces risques lorsqu'ils négocient le contrat et la loi peut fournir un contrat type pour éviter qu'une des deux parties ne soit clairement désavantagée.

Si le blocage des prix apparaît comme une mesure particulièrement néfaste, on peut donc envisager des arguments en faveur de formes plus sophistiquées de contrôle, sur les prix ou sur la nature des contrats. Il faut cependant souligner que ces justifications théoriques ne permettent pas de conclure sur l’optimalité des formes actuelles de régulation, parce que les études empiriques mesurant les imperfections sur le marché du logement et calculant les bénéfices attendus de telles mesures n’existent pas encore à notre connaissance. En revanche, et comme nous l'avons déjà souligné dans la première partie, les conséquences négatives sont connues, obervées, et parfois précisément mesurées. On ne peut en dire autant des effets positifs.

III/ Quel sera l’effet du changement d’indice sur le pouvoir d’achat ?

Après cette petite mise en perspective du contrôle des loyers, revenons à nos sangliers : quel sera l’effet du changement d’indice de référence de revalorisation des loyers proposé par le chef des Gaulois ? S’il est difficile de prévoir l’évolution future des différents indices, une analyse de leur évolution passée permet de tirer quelques enseignements.

Il faut d’abord souligner que l’indice historique de référence utilisé pour les révisions de loyer en cours de bail était l’indice du coût de la construction (ICC, qui mesure comme son nom l’indique l’évolution du coût de la construction de nouveaux bâtiments) mais il a été remplacé depuis le 1er janvier 2006 par l’indice de référence des loyers (IRL). Quel était l'objectif poursuivi ? L’indice de référence des loyers a été conçu à la fois pour lisser les évolutions de l’ICC (très sensible à l’évolution du coût des matières premières) et pour limiter les hausses de ce dernier : il est composé à 60% de l’indice des prix à la consommation (IPC) hors loyers et tabac, à 20 % de l’ICC et à 20 % de l’indice des prix des travaux d’entretien et d’amélioration du logement. Etant donné la faiblesse de l’inflation actuelle, le graphique suivant montre que l’IPC hors loyers et tabac a évolué beaucoup moins vite entre 2000 et 2006 que les deux autres indices.


Si la tendance actuelle devait se poursuivre, l’utilisation de l’IPC hors loyers et tabac pourrait permettre aux ménages locataires qui ne déménagent pas de bénéficier de plus faibles hausses de loyer à court terme. Mais ceci n'est pas du tout garanti à moyen terme, car ce changement d’indice devrait aussi affecter en retour le niveau des loyers à chaque fois qu'un bail sera signé, puisque les propriétaires s’attendront à être contraints jusqu'à la signature du prochain bail de limiter les hausses de loyer à un niveau qui ne reflètera pas forcément le coût d’entretien du logement : l’effet attendu d’une telle mesure sera donc une hausse plus forte des loyers lors du changement de locataire, un allongement de la durée d’occupation des logements par les locataires actuels, une baisse des efforts d’entretien des propriétaires et la mise en vente de certains appartements.

Ainsi, s'il est possible que ces mesures bénéficient à court terme aux ménages locataires bien installés dans leur logement, cet effet s’estompera à long terme à mesure que ces ménages seront obligés de déménager. En outre, les ménages les plus mobiles vont être directement touchés par la hausse des loyers, puisqu'ils seront les premières victimes de la réévaluation des loyers qui interviendront à l'occasion de la signature des nouveaux baux de location. La mesure va donc avoir des effets redistributifs assez peu désirables, puisqu'elle va favoriser les ménages les moins mobiles (en général les plus âgés) au détriment des ménages les plus mobiles (c’est-à-dire les jeunes et les célibataires), ces catégories ne recoupant pas forcément celles qui ont connu la plus forte baisse de leur pouvoir d’achat. Enfin, comme nous l’avons déjà souligné dans la première partie, cette mesure peut avoir un effet pervers pour l’emploi, en décourageant les chômeurs de déménager pour trouver un nouvel emploi.

Finalement, si, cette avec cette mesure, le chef des Gaulois peut essayer de se faire barde et de calmer les esprits, il risque à plus long terme de les échauffer, car ce changement d'indice n'aura pas d’effet durable sur le pouvoir d’achat.


NOTES :

(1) La guerre imposait souvent de déplacer le travail (par exemple vers une nouvelle usine d’armement) et le gel évitait que ces déplacements ne s’accompagnent de hausses brutales des loyers. A la sortie de la guerre, ces restrictions empêchèrent les propriétaires de profiter de la hausse de la demande suscitée par le retour des soldats.
_Emmanuel_ _Gabrielle_

Lire la suite...

mardi 13 novembre 2007

Est-il fiscalement avantageux de se marier ?


Antoine nous a récemment dévoilé les mécanismes du calcul des cotisations sociales et a souligné leur poids en comparaison de celui de l’impôt sur le revenu. Pour ces cotisations le législateur décide in fine de la relation, même obscure et complexe, entre le revenu et leur montant. Il en est de même pour l’impôt sur le revenu, à la différence notable que celui-ci dépend non seulement du revenu mais aussi de l’état civil du citoyen. En particulier, il doit décider du traitement fiscal des célibataires et des couples mariés. Le législateur gaulois a choisi d’imposer des régimes distincts à ces deux catégories. Mais pourquoi diable un célibataire serait-il taxé différemment d'un couple marié?

I/ Impôt sur le revenu et mariage : fonctionnement

Contrairement à de nombreux pays, la France opère une importante distinction entre célibataires (ou concubins) et couples mariés (ou pacsés) (1). Avant tout, nous devons brièvement rappeler comment est calculé l’impôt sur le revenu, ce qui nous permet aussi de faire une petite révision sur la définition du taux marginal. L’impôt est calculé par « tranches » de revenu imposable. Chaque tranche est caractérisée par un taux, dit taux marginal, qui croît avec le revenu. La loi de finance 2006 a modifié le barème précédent et institué 4 tranches, avec des taux de 0 à 40%. En 2007, les revenus inférieurs à 5614 euros par an ne sont pas taxés, on dit donc que le taux marginal est de 0%. Les revenus compris entre 5614 et 11198 sont taxés au taux marginal de 5,50%. Combien payera un salarié célibataire sans enfant gagnant 10000 euros par an ? Il ne paie rien sur les premiers 5614 euros gagnés, puis 5,50% sur les 4386 euros restants (10000-5614=4386). Il acquittera donc un impôt de (0*5614)+(5,50%*4386)=241 euros. On peut continuer ainsi pour les plus hauts revenus. De 11199 à 24872 euros par an, le taux marginal est de 14%. Un salarié déclarant 20000 euros imposables paiera donc : (0*5614)+5,50%*(11198-5614)+14%*(20000-11199)=1539 euros. Et ainsi de suite, avec des taux à 30 puis 40% pour les revenus au-delà de 66679 euros par an. Le taux est dit marginal car il désigne le taux d’imposition à la marge. Si le salarié avec un revenu de 20000 euros gagne 1 euro de plus, celui-ci sera taxé à 14%. En aucun cas il ne désigne son taux moyen d’imposition. Pour notre salarié à 20000 euros, le taux moyen est de 1539/20000=7,70%, bien loin du taux marginal. Cette distinction taux marginal / taux moyen crée souvent bien des confusions : notre salarié se plaindra de « donner » 14% de son revenu à l’Etat alors qu’il n’en donne en réalité que 7,70%. Ecopublix reviendra dans un prochain post sur cette importante distinction.

Mais revenons à notre problème de taxation des couples. Considérons que notre salarié célibataire se marie et que sa conjointe, elle aussi sans enfant, ne travaille pas. Le revenu total du couple est donc toujours de 20000 euros par an, mais dans cette situation, l’Etat considère que ce revenu provient de deux personnes dans la mesure où il taxe le ménage (le « foyer fiscal »), et non les individus quand ils sont mariés. Il reconnaît donc le partage des ressources au sein du couple. Quel sera le montant de l'impôt dû par nos deux célibataires une fois mariés ? Pour le calculer, on doit diviser le revenu par 2 (le fisc parle de « part fiscale », ou encore de quotient conjugal) et calculer l’impôt correspondant. Nous avons vu plus haut qu’un revenu de 10000 euros par an entraînait un impôt de 241 euros. Finalement on doit multiplier cet impôt par 2. On obtient donc un impôt de 482 euros pour le couple. Résultat, 1539 euros d’impôts pour le célibataire, et 482 euros pour le couple (2). La différence n’est donc pas négligeable.

II/ Est-il fiscalement avantageux de se marier ?

Notre exemple soutient la croyance populaire qui veut qu’il soit fiscalement avantageux de se marier. Il faut cependant nuancer cette idée. L’Insee a récemment publié deux études qui s’attachent à évaluer les gains fiscaux du mariage. Premièrement, il est évident d’après l’explication du quotient conjugal que deux conjoints ayant le même revenu ne gagnent rien à se marier car leur impôt est inchangé. Le gain est fonction croissante de la disparité entre le revenu des deux conjoints. Deuxièmement, si l’on s’en tient au calcul de l’impôt sur le revenu avant déductions, un couple ne peut perdre à se marier. Troisièmement, et c’est là que ça se complique, les déductions d’impôt modifient cette conclusion. Les bas revenus bénéficient d’une décote : si un foyer fiscal paie un impôt (noté I) de moins de 818 euros, alors son impôt est réduit de 414-I/2. Mais vous avez bien lu : si le foyer fiscal paie moins de 818 euros d’impôts ; or le mariage change la définition du foyer fiscal de l’individu isolé au couple. Un célibataire peut donc perdre son droit à la décote à la suite de son mariage si son conjoint a un revenu, de telle sorte que l’impôt du couple dépasse le plafond de 818 euros. Un phénomène similaire est en place pour la prime pour l’emploi. Il existe au final un nombre non négligeable de cas pour lesquels il y a avantage fiscal aux couples en concubinage, comme on peut le voir sur le graphique ci-dessous, tiré de Amar et Guérin (2007) et réalisé en utilisant la législation fiscale en vigueur en 2004, modifiée depuis.


III/ Causes et conséquences

Les défenseurs du quotient conjugal arguent qu’il respecte la volonté de partage des ressources au sein du foyer fiscal. Il peut en effet sembler légitime qu’à revenus égaux, un célibataire soit plus taxé qu’un couple. C’est donc un souci d’équité entre foyers (et non entre individus) qui sous-tend le principe du quotient conjugal. Cependant la taxation « à la française » où la femme (le plus souvent) est taxée sur le premier euro qu’elle gagne au même taux que son mari l’est sur le dernier euro qu’il gagne ne semble pas non plus faire preuve de beaucoup d’équité. Cette disparité homme-femme a d’ailleurs en partie poussé des pays comme la Suède à changer leur mode de calcul d’impôt sur le revenu pour des raisons d’égalité entre les sexes.

Beaucoup de pays, dont l’Australie, l’Autriche, le Danemark, la Finlande, la Grèce, la Suède, et le Royaume-Uni ont opté pour une taxation individuelle où l’imposition ne dépend pas du revenu du conjoint (3). La tendance internationale des trente dernières années a été de passer d’une taxation jointe à une taxation individuelle. La Suède a par exemple effectué cette réforme en 1971, le Royaume-Uni plus récemment en 1990.

Quels sont les arguments en faveur d’une taxation individuelle ? Reprenons le cas de notre salarié avec un revenu imposable de 20000 euros par an et faisons l’hypothèse que son conjoint hésite à prendre un emploi, payé 10000 euros par an. On peut faire la comparaison des deux systèmes de taxation à l’aide du tableau suivant (nous ignorons de nouveau les différentes déductions afin d’éviter toute complication inutile.


Si le conjoint travaille, le gain financier pour le couple est de 9759 euros si les revenus sont taxés individuellement, mais seulement de 9643 euros dans le cadre d’une taxation jointe. Il y a désincitation au travail du partenaire lorsque les revenus sont taxés conjointement car l’impôt du partenaire dépend du revenu de son conjoint. Cet effet est d’autant plus élevé que le revenu principal l’est. On considère donc que la taxation jointe décourage le travail des femmes (généralement le « second apporteur de revenu ») car elle le taxe à des taux plus élevés (14% contre 5,5% dans notre exemple). Cet argument a souvent mené à son abolition.

Observe-t-on empiriquement un tel effet ? Les évaluations sont malheureusement peu nombreuses et souvent difficiles à réaliser rigoureusement. Elles pointent cependant toutes dans la même direction et confirment la théorie (le lecteur intéressé pourra consulter cet article, ou encore celui-ci, ainsi que cette étude de l’OCDE). La taxation jointe semble bien réduire la participation des femmes sur le marché du travail.

Les défenseurs du système français objecteront que la taxation individuelle est injuste car elle ne fait pas de différence entre un couple et un célibataire ayant les mêmes revenus. Elle néglige la notion de foyer fiscal. Il existe pourtant un moyen simple de restaurer l’équité entre foyers fiscaux sans perdre les avantages de la taxation individuelle : une déduction d’impôt pour les couples dont un membre ne travaille pas. A revenus égaux le célibataire paiera toujours plus d’impôts que le couple, mais les incitations au travail souffriront d’une moindre distortion.

IV/ Conclusion

On peut retenir que les modalités de la taxation des couples doivent trouver un équilibre entre un impôt plus faible pour les couples avec un seul revenu et les désincitations au travail pour le second apporteur de revenu (la femme dans la majorité des cas).

Nous n’avons cependant fait qu’effleurer le problème de la taxation des couples. La théorie de la taxation optimale des couples est récente et complexe et nous ne l’aborderons que très brièvement. La distinction taxation jointe/séparée opère une comparaison entre deux extrêmes. D’un côté les deux partenaires sont taxés identiquement, de l’autre de manière séparée. Il n’y a aucune raison économiquement pour que l’une soit plus optimale que l’autre. Si on considère que le bien-être des individus ne dépend que de leurs propres revenus alors un système complètement individualisé est optimal. Sinon, le calcul de l’impôt doit dépendre du revenu du conjoint, mais pas nécessairement comme le fait la France. Il existe un premier argument simple pour la taxation du second revenu au sein d’un couple. Plusieurs études ont montré que l’offre de travail des femmes mariées est beaucoup plus élastique aux taxes que celle des hommes. Cela signifie que les femmes diminuent plus leur offre de travail que les hommes quand le salaire est taxé. En pratique on observe qu'elles ont tendance à arrêter de travailler si l'impôt sur le revenu augmente, tandis que les hommes ne modifient pas leur comportement. La théorie de la taxation optimale nous apprend que pour minimiser les distortions la taxation doit cibler les biens les moins élastiques. Les femmes devraient donc être moins taxées que les hommes au sein d’un couple. La taxation jointe va exactement à l’encontre de ce principe de base.

Deuxièmement, les quelques modèles de taxation des couples s’accordent pour dire que la taxation strictement individualisée n’est pas optimale puisqu’elle ignore le partage des ressources au sein du foyer. Cependant la taxation jointe n’est pas optimale non plus puisque comme nous l’avons vu elle surtaxe le travail des femmes.

La question de la taxation des couples reste assez ouverte en économie et rassemble de nombreux problèmes qui rendent le sujet épineux. Toute politique fiscale qui cible les bas revenus et conditionnée sur les revenus du couple semble légitime (on veut par exemple éviter que le conjoint d’un ou une milliardaire ne profite de la prime pour l’emploi) mais cela impose des pénalités au mariage et surtout diminue souvent les incitations à la reprise du travail. La prise en compte de ces différents effets est peu aisée sans connaître plus précisément leurs conséquences. Les études empiriques sur ce sujet en France sont particulièrement peu nombreuses et la pratique du quotient conjugal ne repose sur aucun argument économique tangible.

NOTES :

(1) Nous ne traiterons pas ici de la prise en compte des enfants à charge dans le calcul de l’impôt.

(2) Cet exemple ne correspond pas à la réalité car d’autres déductions (décote, prime pour l’emploi) sont à prendre en compte. Il illustre cependant le fonctionnement de l’impôt sur le revenu. Les chiffres sont exacts pour le célibataire mais le couple paiera en réalité seulement 227 euros d’impôt sur le revenu.

(3) Il faut souligner qu’on opère ici une distinction pour le seul impôt sur le revenu. Ces mêmes pays prennent souvent en compte les ressources totales du couple pour l’attribution de bénéfices similaires à la prime pour l’emploi et qui vont réduire l’impôt. Ces différents mécanismes compliquent l’analyse et font que très peu de pays traitent les couples mariés et les célibataires de la même manière.
_Emmanuel_

Lire la suite...

mardi 25 septembre 2007

Montagnes russes et fertilité en Suède


Le royaume Viking est réputé en Gaule pour la suprématie de son Etat providence. Parmi les nombreux avantages dont bénéficient ses habitants, les congés parentaux en constituent un des plus emblématiques, souvent cité en exemple. Il est vrai que la Suède est le pays européen affichant la plus grande générosité sur ce point.

Le tableau suivant fournit un résumé des caractéristiques des congés parentaux dans les deux pays :


Elles sont très simples en Suède, tandis que la France offre plusieurs options, dont les conditions varient (1). On peut cependant facilement observer les grandes différences de principe entre les deux pays. Tout d’abord, et contrairement à la perception commune, la France offre un congé potentiellement beaucoup plus long. Cependant au-delà du congé maternité sa rémunération est assez faible (530 euros par mois) et liée à la sortie totale ou partielle du marché du travail. Le retour à l’emploi n’est assuré qu’en cas de congé parental non rémunéré. Il faut donc choisir entre congés payés et retour garanti à l’emploi. De plus les congés se conforment à l’esprit général des politiques familiales en France qui sont biaisées en faveur des familles nombreuses, c’est-à-dire à partir de trois enfants. La Suède considère au contraire que les parents doivent pouvoir concilier vie professionnelle et parentale, sans perte majeure de salaire, en partie par principe d’égalité entre les sexes. L’assurance du retour à l’emploi à l’issue du congé est donc absolument indissociable du congé en lui-même. Le congé parental est extrêmement flexible, de plein temps à huitième temps et valable sur une très longue durée, pour permettre de rester en contact avec son travail. Ce couplage emploi – congé parental constitue la première différence fondamentale entre les deux pays. La deuxième vient du fait que l’allocation parentale suédoise est directement proportionnelle au salaire, tandis que la France offre une allocation fixe. En cela elle suit la majorité des pays européens. Il faut cependant avouer qu’il est difficile de faire une comparaison claire entre pays, tant les paramètres de la politique familiale sont nombreux. Mais là encore, la Suède affiche plus de simplicité, avec des bénéfices sans conditions et un souci permanent de préserver l’emploi des femmes et d’encourager les pères à prendre leurs congés parentaux, tandis que la France multiplie les différentes allocations disponibles, parfois sous conditions de ressources. Malgré ces différences, les deux pays font souvent figure d’exception en Europe pour leur générosité. Si la France peut paraître avare par rapport à la Suède, elle est pourtant dans le groupe des pays généreux en Europe en termes de bénéfices pour les nouveaux parents.

La Suède se distingue aussi de la France, ainsi que de la plupart des pays européens, par le profil de sa fertilité depuis plusieurs décennies. Le graphique suivant trace l’évolution du nombre moyen d’enfants par femme en Suède, en France et la moyenne dans le reste des pays de l’UE15 de 1960 à 2006 (le nombre moyen d’enfants par femme représente le nombre moyen d’enfants qu’une femme aurait au cours de sa vie si à chaque âge de sa vie elle avait le taux de fertilité qu’ont actuellement les femmes de cet âge) (2).


Les deux pays ont vu leur fertilité décliner au cours du temps, suivant en cela l’évolution européenne. Cependant la Suède a une fertilité très volatile alors que dans les autres pays la fertilité a chuté de manière plutôt monotone avant de se stabiliser. La France constitue là encore une exception puisque son taux de fertilité augmente régulièrement depuis 1994 (bien que lentement au vu des évolutions suédoises présentes et passées). Le profil dit « en montagnes russes » de la Suède est unique et s’explique en partie par les caractéristiques des congés parentaux que nous avons déjà relevées.

A partir du milieu des années 60, le taux d’activité des femmes a fortement augmenté passant de 65% en 1970 à plus de 80% en 1980. Les femmes ont été encouragées à travailler et plusieurs réformes ont été faites dans ce sens, avec un souci croissant d’égalité entre les sexes. En 1971 la taxation des époux sur leurs revenus joints, qui pénalisait l’entrée des femmes sur le marché du travail, a été abandonnée au profit d’une taxation individuelle. Ces changements rapides ont été accompagnés par une chute constante de la fertilité, jusqu’en 1980, de manière similaire aux autres pays développés (voir graphique). A l’époque la Suède constituait l’exemple parfait d’une société avec une forte participation des femmes sur le marché du travail, et en conséquence une natalité faible, bien inférieure au seuil de renouvellement des générations. Le nombre moyen d’enfants par femme était alors bien en dessous de la moyenne des autres pays de l’UE15. Les pouvoirs publics s’en inquiétèrent, décidèrent de financer le premier Swedish Family Survey et initièrent de nouvelles réformes.

En 1980 une réforme importante des congés parentaux était mise en place. Il était décidé que l’allocation perçue par les parents après la naissance de leur enfant de rang N devait être la même que celle perçue après la naissance de l’enfant de rang N-1, à la condition que la durée entre les deux naissances n’excédât pas 24 mois. En 1986 l’intervalle était étendu à 30 mois. Cette mesure, couplée avec le fait que l’allocation est directement proportionnelle au salaire, crée une « prime de vitesse ». Pour comprendre cela, il faut considérer que beaucoup de femmes travaillent à temps partiel à l’issue de leur congé parental pour s’occuper de leurs enfants. Elles perçoivent alors un salaire plus faible. La prime crée donc une incitation à espacer stratégiquement les naissances pour éviter une baisse de l’allocation parentale.

Peut-on expliquer la remontée soudaine du nombre moyen d’enfants par femme en Suède après 1980 par cette mesure ? Pour y répondre il est nécessaire de savoir que la descendance finale (le nombre d’enfants par femme d’une génération donnée) est restée très stable au cours des générations, comme on peut le voir ici à la page 13. Notre graphique du taux total de fertilité ne traduit donc pas une hausse de la fertilité de chaque femme mais plutôt un changement dans le profil de fertilité à chaque âge. Rappelons que le nombre moyen d’enfants par femme fait l’hypothèse que chaque femme suit la distribution actuelle du taux de fertilité par âge. Prenons un exemple très simple où toutes les femmes d’une génération ont leurs enfants exactement au même moment de leur vie et que l’âge au premier enfant est toujours 25 ans. Avant la réforme, supposons que toutes les femmes ont deux enfants au cours de leur vie, le premier à 25 ans, et le deuxième a 30 ans. Le nombre moyen d’enfants par femme est donc de 2. A l’instant de la réforme en 1980, les femmes de 25 ans ont toujours leur premier enfant, mais il devient plus intéressant d’avoir le deuxième enfant avant d’atteindre 27 ans. Les femmes de 27 ans vont donc avoir un deuxième enfant immédiatement, tandis que celles de 30 ans, ont aussi leur deuxième enfant, comme initialement prévu. Le nombre moyen d’enfants par femme est alors de 3. Cependant si les mères de 27 ans n’ont finalement que deux enfants alors la descendance finale sera de deux pour toutes les générations. Le déplacement du profil de fertilité au cours des âges a donc gonflé le nombre moyen d’enfants par femme. C’est exactement ce qui s’est passé en Suède. Il ne faut pas pour autant en conclure que cette bulle n’est qu’artificielle et ne se traduit pas par un phénomène réel. En pratique cette hausse se traduit bien par un plus grand nombre d’enfants à un instant donné puisque les naissances se rapprochent. Elle a donc des implications, notamment au niveau de la gestion des crèches et écoles, mais aussi en terme de renouvellement des générations. Une chute du nombre moyen d’enfants par femme signifie aussi que les générations futures auront des tailles plus faibles. A partir de 1980 les femmes ont donc rapproché leurs naissances, mais ont gardé le même nombre total d’enfants. Les démographes Jan M. Hoem, puis Gunnar Andersson ont bien montré ce phénomène. Les économistes Per Pettersson-Lidbom et Peter Skogman Thoursie de l’Université de Stockholm ont aussi récemment étudié ce rapprochement entre les naissances, ainsi que d’autres conséquences sur lesquelles nous allons revenir. Ce changement brusque dans le profil de la fertilité est donc le résultat direct de cette réforme et de la proportionnalité de l’allocation au salaire. Le graphique suivant est tiré d’un article de Per Pettersson-Lidbom et Peter Skogman Thoursie et trace l’intervalle moyen entre deux naissances d’une même mère par année. En aucun cas il ne prouve que la réforme a causé le rapprochement des naissances (ce qui est montré dans l’article), mais il illustre bien le changement dans la planification des naissances après 1980.


A la fin des années 90, la Suède n’illustrait plus du tout le cas du pays où les femmes travaillent et où en conséquence la natalité est basse, mais l’inverse : un pays ayant réussi à intégrer les femmes dans le marché du travail sans sacrifier sa natalité. Notez bien que la montée du nombre moyen d’enfants par femme a été spectaculaire. En 1990 la Suède avait le plus haut nombre moyen d’enfants par femme de l’UE15, juste au dessus du seuil de renouvellement. Cependant la Suède allait de nouveau expérimenter un brusque changement de sa fertilité. Les causes tiennent, là encore, aux particularités de la « prime à la vitesse » et de l’allocation parentale. Entre 1990 et 1993 la situation économique s’est brutalement dégradée, le taux de chômage passant de moins de 2% à plus de 9%. Ces plus mauvaises conditions ont entraîné une baisse des revenus des femmes et/ou les ont poussées à retarder leur entrée sur le marché du travail. Etant donnée la structure des congés parentaux qui poussent les futures mères à atteindre un niveau de revenu aussi haut que possible avant la première naissance, le ralentissement économique a entraîné une chute de la fertilité, essentiellement par son impact sur les femmes sans enfant. Dans un pays comme la France où l’allocation parentale n’est pas liée au revenu, cet effet n’existe pas. On s’attendrait même à un effet opposé puisque le congé parental constitue une assurance contre les chocs économiques négatifs. En Suède la chute a été aussi spectaculaire que la montée : du haut du classement des pays de l’UE15 en 1990, elle était juste en dessous de la moyenne de ces pays en 1998. Depuis quelques années l’économie du pays est repartie à la hausse, et la fertilité avec. Le nombre moyen d’enfants par femme était le troisième plus élevé de l’UE15 en 2006, derrière la France et l’Irlande.

Des changements apparemment marginaux de politique publique peuvent donc avoir des effets importants. Ces fluctuations ne sont pas qu’anecdotiques. Elles sont particulièrement larges et à un niveau administratif local les fortes variations de taille entre des générations proches pose un véritable problème de gestion des crèches et des écoles. Mais il existe aussi d’autres conséquences, moins évidentes. Nous avons vu que suite à la réforme de 1980 les naissances ont été rapprochées dans le temps au sein des familles. Per Pettersson-Lindbom et Peter Skogman-Thoursie ont montré que la réforme a entraîné une chute des performances scolaires des enfants à l’issue de l’école obligatoire, et aussi diminué le nombre d’enfants en études supérieures. Si les causes restent à déterminer, ils avancent l’idée d’une dilution de l’attention parentale et des ressources financières. La réforme de 1986 qui a étendu le délai maximum entre les deux naissances de 24 à 30 mois pourrait donc avoir des effets bénéfiques inattendus.

Pour conclure, toute la politique familiale est particulièrement populaire en Suède et n’a été modifiée vers moins de générosité que lors des difficiles années 90, avant de revenir récemment à son niveau habituel. L’administration suédoise veille à sa bonne application et va d’ailleurs jusqu’à envoyer des lettres aux parents qui utilisent moins de la moitié de leurs 480 jours de congés parentaux pour les encourager à en profiter ! Le seul souci qui semble préoccuper les gouvernements suédois sur ce sujet est la toujours forte inégalité en pratique des congés parentaux entre le père et la mère. Seuls 2.6% des couples partagent également leurs congés ce qui ne satisfait pas du tout l’idéal scandinave d’égalité entre les sexes. Pour contrer cela 60 jours des 480 de congés sont réservés au « co-parent » (en pratique le père puisqu’il prend moins de congés). Devant l’inefficacité de la mesure, le gouvernement actuel envisage d’octroyer un bonus financier aux couples qui partageraient leurs congés équitablement.

Et tout ça à seulement 2h de drakkar de Lutèce…


NOTES :
(1) Quelques précisions : le congé parental en Suède a un plancher de 20 euros par jour qui concerne aussi les parents qui n’ont jamais travaillé. Par ailleurs le plafond varie selon les conventions d’entreprise, il peut être plus élevé, voire supprimé. C’est également vrai en France pour le congé maternité. Il faudrait aussi ajouter que les pères suédois ont droit à 10 jours de congés en plus et qui leur sont réservés, rémunérés à 80% de leur salaire.

(2) L’ UE15 est constituée des pays membres de l’Union Européenne avant le 1er janvier 2004.
_Emmanuel_

Lire la suite...