mercredi 9 janvier 2008

Evaluation des politiques publiques (7/7) : chez les Goths


Regarder de près la situation qui prévaut chez les Goths en matière d’évaluation des politiques publiques est instructif pour mesurer à la fois les limites de l’organisation gauloise que nous prenons trop souvent pour une évidence gravée dans un menhir par Toutatis. On a vu comment les réformes Hartz avaient été d'emblée évaluées (avec un succès très relatif tant en termes de méthode que du point de vue des résultats); ce post a pour objectif de montrer comment les prévisions macroéconomiques et de finances publiques (déficit, dette) sont réalisées en Allemagne.

L’idée est que, si les économistes allemands se trompent sans doute autant que leurs cousins d'outre-Rhin, la Germanie est mieux outillée que la Gaule pour organiser de manière transparente la production de prévisions crédibles afin qu'un débat plus serein sur la politique budgétaire du gouvernement puisse avoir lieu. Cette meilleure organisation est pour partie liée à des caractéristiques institutionnelles (rôle accru en droit – constitution – et en fait – moyens humains – du parlement, fédéralisme) qu’il est sans doute difficile d’importer chez nous, mais pour partie aussi liée à une répartition différente des tâches, qui pourrait, elle, faire l’objet d’une adaptation avantageuse dans l’Hexagone.

La préparation du budget chez les Goths

La définition du cadre macroéconomique (quelle croissance du PIB l’année prochaine ?) dans lequel s’inscrit la préparation du budget est caractérisée en Allemagne, à la différence de la France, par le fait que le gouvernement n’y joue qu’un rôle secondaire. Alors qu’en France les hypothèses de croissance et de recettes fiscales sur lesquelles reposent le budget sont fabriquées en interne par le ministère des Finances, en Allemagne, le ministère des Finances se voit en quelque sorte imposer les paramètres de l’extérieur, ce qui rend les hypothèses plus crédibles et permet au débat de se concentrer sur les vraies questions.

En pratique, un gouvernement qui peut cuisiner lui-même ses hypothèses de croissance et de recettes fiscales va avoir tendance à être trop optimiste ou trop pessimiste selon ses objectifs. S’il veut expliquer à ses citoyens qu’on peut dépenser sans compter, il aura tendance à surestimer la croissance à venir, s’il veut au contraire leur faire comprendre qu’il faut se serrer la ceinture, il aura tendance à la sous-estimer (dans la réalité, ce second biais est beaucoup plus rare…). Après coup, le gouvernement se retrouve souvent devant une dérive de la dépense qu’il ne peut couvrir avec des recettes qui sont finalement plus limitées que prévu. Il a donc à faire face à un déficit plus important que prévu ; à une augmentation possible de sa dette, et aux foudres de ses partenaires européens qui lui reprochent de ne pas tenir ses engagements.

La chronologie de la préparation d’un budget est en gros la suivante. Nous sommes en juin 2000 : la préparation du budget pour l’année 2001 se déroule dans la plupart des pays de l’Union européenne à partir de juillet et le budget est voté par le Parlement avant la fin de l’année 2000. Or en juillet 2000, on connaît uniquement ce qu’à été la croissance au premier trimestre 2000 : on doit donc avoir une vision à un horizon distant de 7 trimestres, dont 6 qui n’ont pas encore eu lieu, pour savoir ce qu’on peut prévoir de dépenser en 2001. Il est clair que cet exercice est difficile et que les prévisions qui sont faites se révèlent souvent fausses, ex-post. La question est de savoir si elles sont fausses car activement biaisées, ou fausses juste en raison d’erreurs de prévisions « neutres ».

Le système allemand semble mieux garantir cette neutralité que le système français. Au printemps, les principaux instituts de conjoncture économique (ils étaient jusque tout récemment 6, ils sont désormais 5) réalisent une prévision de croissance consensuelle qu’ils rendent publique (dans certains cas, s’il est difficile d’atteindre un consensus, des éventuelles « opinions divergentes » peuvent être contenues dans le rapport). Le gouvernement annonce dans les jours qui suivent sa propre prévision de croissance. Bien entendu, il est libre d’annoncer ce qu’il veut, mais il ne peut ignorer la prévision des instituts et doit s’expliquer s’il s’en éloigne. En pratique, l’organisation d’une prévision indépendante consensuelle et officielle renchérit sensiblement le coût politique et en termes de crédibilité d’une prévision divergente voir « trafiquée » qui serait par exemple ½ point au-dessus du consensus.

Quelques semaines plus tard, le « Groupe de travail des estimations fiscales » se rassemble, et produit, sur la base de l’hypothèse de croissance annoncée par le gouvernement et des données les plus récentes concernant les recettes fiscales, une prévision de l’ensemble des recettes fiscales pour l’année suivante. De la même manière, le ministère des Finances doit s’appuyer sur cette prévision pour préparer son projet de loi de finances : non que cela soit prévu dans la loi, mais là encore, le coût politique d’une déviation est important et doit être mesuré : il est ardu de justifier que sur la base des mêmes données et des mêmes hypothèses économiques, les services du ministère des Finances prévoient plusieurs milliards d’euros de recettes supplémentaires.

Les Instituts de conjoncture chez les Goths

Qui sont ces Instituts et ce « Groupe de travail » qui donnent finalement le « la » de la discussion budgétaire en Allemagne ?

Les Instituts de conjoncture sont des instituts de recherche économique et de conjoncture indépendants (même s’ils dépendent lourdement de fonds publics), qui rassemblent en pratique les tâches qui sont en France pour l’essentiel réalisées par les différentes divisions de l’Insee qui sont chargées de réaliser des études, et par l’(ex-)Direction de la Prévision (voir le post sur l’évaluation en France). Ces instituts qui sont répartis sur tout le territoire allemand (Ifo à Munich, DIW à Berlin par exemple) sont en concurrence entre eux, et pas avec l’Office fédéral de la statistique qui se contente de produire des données statistiques et de les mettre à disposition (un monopole d'exploitation des données fausserait la concurrence).

Les instituts sont régulièrement évalués par leurs pairs en fonction de leurs performances académiques et de leur capacité à alimentater le débat public. En cas de mauvais résultats, ils peuvent être exclus de la « guilde » des « principaux instituts » et donc ne plus avoir la possibilité de réaliser la « prévision consensuelle » (qui, au passage, est grassement rémunérée). Cette menace n’est pas que théorique puisque c’est ce qui est arrivé l’année dernière à l’institut HWWA de Hambourg devenu depuis HWWI, et plus récemment au DIW de Berlin (je reviendrai sur cette affaire instructive dans un post prochain).

Le « Groupe de travail des estimations fiscales » rassemble quant à lui les experts en finances publiques de ces mêmes instituts et ceux du gouvernement (au niveau fédéral et régional). Le « Groupe de travail » est donc moins indépendant mais reste une enceinte où les experts extérieurs au gouvernement prennent une part active, ce qui n’est pas le cas en France où il est difficile à un expert indépendant de contester de manière informée les projections de recettes fiscales du gouvernement...

Moralité...

Au total, il est quand même bien difficile de mettre en évidence une qualité supérieure de la procédure budgétaire en Allemagne par rapport à la France, au sens où les mauvaises ou bonnes surprises sur les recettes seraient moins fréquentes outre-Rhin.

Il est cependant intéressant de noter que la confiance du public dans les chiffres qui sont données par le gouvernement semble plus importante. La méfiance endémique qui règne en France sur les chiffrages qui précèdent le budget n’existe pas en Allemagne, puisque ceux-ci sont fabriqués en dehors du gouvernement. Cela permet à la discussion de se concentrer sur les sujets fondamentaux : répartition des dépenses entre les différents ministères, efficacité des nouvelles dépenses proposées, etc.

_Fabien_

Lire la suite...

jeudi 3 janvier 2008

Faut-il donner un supplément d'âme aux "business schools" ?


Pour commencer la nouvelle année, nous vous invitons à traverser l’Atlantique pour découvrir le monde si étranger aux gaulois des « business schools » américaines. Nous allons en effet discuter d’un livre paru récemment intitulé : From higher aims to hired hands : The social transformation of American business schools and the unfulfilled promise of management as a profession écrit par un sociologue de la Harvard Business School, Rakesh Khurana. Il s’agit d’une petite histoire de la « business school » depuis sa naissance à la fin du 19ème siècle jusqu’aujourd’hui. L’angle d’attaque du livre est de prendre à la lettre l’objectif initial de ces écoles qui était de faire des « managers » une profession au même titre que les médecins et les avocats, et de voir comment cet objectif a pu être réalisé ou dévoyé depuis lors. Cette question pourrait faire l’objet de plusieurs posts tant la question plus générale de la possibilité d’un « savoir » en gestion a été maintes fois posée par des livres retentissants et quelques contributions de la blogosphère. Du point de vue français, ce livre a aussi l’avantage de détailler l’organisation d’une filière éducative ayant une philosophie opposée en tous points à notre modèle universitaire, et qui a formé le plus étrange des présidents américains.

Qu'est-ce qu'une "business school" ?

Avant toute chose, comment pourrait-on traduire en français une institution aussi américaine ? Le plus simple serait d’en faire l'équivalent de nos écoles de commerce. Une telle identité est d’ailleurs aujourd’hui revendiquée par la plupart de ces dernières, pour des raisons de visibilité internationale. Or il existe de très fortes divergences qui ne sont pas encore résorbées : d’une part, le produit phare des « business schools », le Master of Business Administration (MBA), est décerné en général à des étudiants ayant déjà eu auparavant une expérience professionnelle et dont l’âge se situe le plus souvent entre 25 et 30 ans, alors que le produit phare des écoles de commerce françaises, le diplôme de Grande Ecole, est décerné à des étudiants moins expérimentés et plus jeunes ; d’autre part, les « business schools » sont adossées dans l’esprit et dans la lettre à l’Université tandis que les écoles de commerce françaises se gardent bien de revendiquer de tels liens et rechignent souvent à mener des activités de recherche dignes de ce nom. L’exception à cette règle est certainement l’INSEAD, mais cette institution se garde bien de se revendiquer comme une grande école, et peut être considérée comme une insitution « off-shore » de l’enseignement supérieur français, avec un recrutement international dès la création en 1957 et une absence de financement public.

Qu'est-ce qu'un manager "professionnel" ?

Rakesh Khurana montre dans le livre que l’invention des business schools est le fait de quelques dirigeants d’université et de grandes entreprises émergentes de la fin du 19ème siècle. Durant cette période, les grandes sociétés anonymes étaient vécues par le plus grand nombre comme une menace à la démocratie de petits propriétaires imaginée par les fondateurs des Etats-Unis. Les fondateurs des « business schools » étaient déterminés à améliorer l’image de ces sociétés en formant une nouvelle « profession », les managers, dont la vocation serait de gérer de manière impartiale et efficace ces entreprises dans le sens de l’intérêt général, à l’intersection entre le travail et le capital. Leur modèle était celui des « Medical Schools » et des « Law Schools » formant aux métiers de médecin et d’avocat, métiers qui remplissent les trois critères par excellence d’une « profession » : la maîtrise d’un savoir spécifique soutenu par une recherche active, l’adhésion à un code de conduite formel ou informel, et un idéal de service.

Ce qui est étonnant, c’est que cette distinction traditionnelle à l’intérieur de l’Université a été à notre connaissance peu analysée par la science économique. Elle peut pourtant mener à des débats bruyants, comme l’a montré récemment la polémique sur la possibilité pour Sciences-Po de préparer à l’examen du Barreau. Pour l’auteur, ces écoles professionnelles contribuent à résoudre les problèmes d’asymétries d’information qui sont particulièrement importants dans les métiers en question, et ce à la fois en inculquant une éthique d’honnêteté et en instaurant une instance de contrôle par les pairs. Or de tels mécanismes ne sont efficaces que s’ils apparaissent suffisamment crédibles. Le passage obligé par une école professionnelle distincte apparait alors indispensable.

Or autant les trois critères semblent globalement respectés dans le cas du droit et de la médecine, autant cela s'est révélé plus compliqué dans le cas du « management » . Et ce que l’auteur s’attache justement à décrire, c’est la façon dont progressivement les « business schools » se sont éloignées de cet idéal professionnel pour devenir de simples pourvoyeurs de diplômes et de réseaux.

La tortueuse quête d'un savoir universitaire en gestion

Dans un premier temps, c’est le contenu de la formation qui a le plus posé problème ; il était toujours tentant de proposer d’une part des cours décrivant le fonctionnement de métiers bien définis dans telle ou telle industrie par tel ou tel praticien reconnu et d’autre part des cours proposés par les départements voisins, notamment en Economie ou en Psychologie. Ceci constituait néanmoins une entrave au développement de la filière telle qu’envisagée par ses fondateurs, pour trois raisons. D’une part, de tels contenus subissaient alors fortement la concurrence de petites écoles à but lucratif qui pullulèrent à mesure que les métiers d’encadrement devenaient de plus en plus techniques, et ceci avait tendance à diminuer le niveau d’exigence à la fois pour les élèves et les professeurs recrutés : le seul avantage comparatif des "business schools" était alors d'attirer les fils de bonne famille grâce au prestige associé à l'Université. D’autre part, une telle manière de procéder avait pour conséquence de mener à une hétérogénéité extrême des contenus d’une « business school » à l’autre, ce qui achevait de rendre la filière peu crédible. Enfin, ce fonctionnement entrait en contradiction avec le but initial qui était de former à un nouveau type de métier, celui de « general manager », qui consisterait à régler des problèmes de gestion qui se posent dans des secteurs très divers.

Une première innovation lancée par la Harvard Business School fut l’introduction dans les années 1920 de la méthode des cas (déjà auparavant utilisée en Droit), qui consiste à décrire en détail le contexte d’une entreprise fictive ou non ainsi que les problèmes auxquelles elle fait face pour ensuite faire suggérer par les élèves des solutions possibles. Cette méthode est encore très largement utilisée, tout du moins dans les premières séquences d’enseignement, et ce y compris dans les écoles de commerce françaises comme pourra en témoigner n’importe quel ancien élève (Ah ! Gravelin quand tu nous tiens…). Néanmoins, ce système avait l’inconvénient de ne pas être suffisamment systématique et de réduire la recherche en gestion à la simple constitution de cas ; en particulier, l’écriture de quelques cas était l’unique pré-requis pour obtenir un doctorat en gestion.

Une seconde réaction fut d’institutionnaliser la coopération entre « business schools » via la création de l’AACSB au début du XXème siècle. Mais dans un contexte de croissance très forte de la demande pour ces formations (visible dans le graphique ci-dessous), l’association se réduisit vite à un organisme d’accréditation aux critères d’admission très souples et très réticent à fournir une grille de distinction des « business schools ».


C’est finalement l’intervention d’une fondation privée, la Ford Foundation, qui a imposé de l’extérieur une normalisation du fonctionnement des « business schools », au tournant des années 1950. Ceci est suffisamment étrange du point de vue gaulois pour que l’on s’y intéresse un peu.

Rappelons d’abord qu’aux Etats-Unis, la structure des dons aux universités était particulièrement concentrée au début du XXème siècle, à une époque où le financement public était plus faible qu’aujourd’hui. Pour s’en faire une idée, il suffit de rappeler que les fondations Carnegie et Rockefeller représentaient les deux tiers de l’ensemble des dons aux universités américaines entre 1900 et 1935. Mais une très large majorité de ces dons s’était concentrée sur les sciences dures et la médecine. La fondation Ford, quant à elle, fut créée en 1935 par Henry Ford mais ne commença son activité qu’au début des années 1950 à la suite des décès successifs de Henry Ford et de son fils. Elle se fixa alors comme objectif de dépenser 500 millions de dollars de l’époque (environ 2,5 milliards de dollars de 2005) pour « améliorer le bien-être humain », avec 5 thèmes d’action : l’établissement de la paix dans le monde, le renforcement de la démocratie, le soutien à l’économie, l’éducation et l’amélioration des relations humaines (manquaient pas d'ambition ces Ford !). Concernant le soutien aux universités, cette Fondation cherchait un moyen de se distinguer des grosses fondations concurrentes et l’a trouvé en se focalisant sur le soutien aux sciences sociales (Economie, Sociologie, Psychologie), ce qui constitue comme un pied-de-nez à ceux qui pensent en France que ces matières sont incapables d’attirer des fonds privés. Pour enfoncer le clou, rappelons que c’est la Fondation Ford qui a financé la construction de la Maison des Sciences de l’Homme de l’EHESS ainsi que la création du Centre de Sociologie Européenne (dirigé par Raymond Aron, puis Pierre Bourdieu…).

Mais revenons au sujet des « business schools » : la fondation Ford décida de dépenser 35 millions de dollars spécifiquement pour réformer le système des « business schools » dans un sens très précis : encourager l’établissement d’une science du management fondée sur les acquis de l’Economie, de la Psychologie et des Mathématiques. Pour y parvenir, la Fondation mit d’une part l’essentiel de son argent sur deux « business schools » destinées à devenir les leaders de la réforme, Harvard et Carnegie-Mellon, et d’autre part organisa la diffusion de ces meilleures pratiques en commandant un rapport très largement diffusé sur le sujet, en organisant des séminaires de formation des professeurs en place ainsi qu’en proposant des fonds aux « business schools » qui adopteraient ces nouvelles pratiques.

En quoi consistaient exactement ces nouvelles pratiques ? Il s’agissait de réformer de fond en comble le mode de formation et de recrutement des enseignants : alors qu’auparavant ces derniers n’étaient pas toujours docteurs et encore moins enclins à mener une recherche active, il était désormais impératif de recruter en priorité dans le vivier des Docteurs en Economie, en Sociologie, en Psychologie ou en Mathématiques et d’inciter fortement à publier dans les revues de ces matières. La stratégie de la Fondation fut un véritable succès et à la fin des années 1960, lorsque la Fondation mit fin à ce programme de don, le contenu des formations était devenu beaucoup plus homogène, orienté autour des sciences sociales et des disciplines quantitatives et recrutant par la même occasion des élèves de meilleure qualité via les tests mis en place à l’époque, tels que le GMAT. Ce système d’enseignement est d’ailleurs encore en place aujourd’hui.

La lente disparition du manager efficace et bienveillant

Ce que montre ensuite Khurana, c’est que cette maturation de l’enseignement de la gestion est allée de pair avec un éloignement de l’idéal d’une « profession » de manager. Dans un premier temps, la scientisation de la gestion fut considérée comme garante de managers honnêtes et inspirés par un idéal de service : la Seconde Guerre Mondiale avait montré comment les grandes entreprises pouvaient servir l’intérêt général ainsi que l’étendue des ressources que l’on pouvait tirer d’une gestion plus rationnelle. La réforme de l’enseignement menée par la fondation Ford n’avait dans ce contexte pas cru bon d'insister sur l’inculcation de règles de bon comportement.

Toutefois, à partir des années 1970 et avec les contre-performances de l’économie américaine, les « managers » allaient lentement perdre leur aura, et les bénéfices tirés d’une « science » du management allaient être de plus en plus contestés. Deux fronts se sont alors constitués contre l’idéal d’un manager professionnel aux compétences alimentées par une recherche « scientifique ».

Dans le grand public, les méthodes d’enseignement des « business schools » furent de plus en plus critiquées au nom du « bon sens » par la presse, mais aussi par des hommes politiques. Par ailleurs, les anciens élèves firent de plus en plus état de leurs doutes quant à l’utilité de techniques comme la programmation linéaire ou la théorie des jeux pour prendre des décisions. C’est notamment dans les années 1980 qu’ont été publiés dans la presse les premiers classements des MBA américains fondés sur des enquêtes indépendantes auprès des étudiants, des recruteurs et des doyens de business schools. Ces classements ont été très vite adoptés par les élèves, qui payaient déjà des frais d’inscription très élevés, puis par les « business schools » elles-mêmes. Ce qui s’est trouvé valorisé alors plus que tout, c’est la capacité à placer les élèves dans les meilleures positions sur le marché du travail : les bureaux de recrutement ont été fortement développés ainsi que les institutions d’anciens élèves.

Cette logique de marché n’est pas mauvaise en soi, mais selon Khurana, elle sape l’idéal professionnel du « manager » en faisant des étudiants non plus le réceptacle de connaissances et de valeurs à respecter mais de simples clients qui valorisent dans la « business school » uniquement son diplôme et son réseau d’anciens élèves plutôt que ce que l’on y apprend. L’auteur fait ainsi état d’une relation aujourd’hui dégradée entre des élèves qui méprisent la formation et la veulent la plus simple possible et les enseignants qui dispensent cette formation, avec une pression très forte pour donner des notes aussi peu discriminantes que possibles et pour interdire de transmettre ces notes aux recruteurs.

Sur le front académique, l’idéal du manager bienveillant a été largement écorné par les nouvelles théories de l’agence, popularisées par Michael Jensen et William Meckling dés 1976 : d'après ces théories, le manager n’est plus cette personne impartiale qui recherche à atteindre la plus grande efficacité pour l’entreprise mais un « agent » qui n’est que mal contrôlé par un « principal », l’actionnaire, et qui cherche à maximiser son bien-être personnel via des acquisitions justifiées seulement par l’appétit de pouvoir, plutôt que par le souci d'augmenter la valeur de l’entreprise. La popularisation de cette littérature a eu deux conséquences : à court-terme, les OPA hostiles menées dans les années 1980 sur de gros conglomérats ont pu être présentées par leurs promoteurs comme contribuant à l’intérêt général ; à long terme, les cours donnés dans les MBA se sont trouvés de plus en plus influencés par cette littérature, ce qui a contribué à légitimer l’idée que les managers sont fondamentalement égoïstes et doivent simplement voir leurs incitations alignées avec l’intérêt le mieux défini, i.e. celui des actionnaires, via des systèmes de stock-options.

Cette nouvelle orientation des cours est devenue d’autant plus populaire que les diplômés de MBA se sont de plus en plus orientés vers des métiers dans lesquels cette vison du « manager » est la plus naturelle : ainsi entre 1965 et 1985, le nombre de diplômés de la HBS choisissant de travailler dans la finance et dans le conseil plutôt que comme cadres d’entreprise était déjà passé de 23 à 52%, et l’on peut penser qu’aujourd’hui ces carrières sont devenues encore plus attractives. Freiner contre une telle évolution, c’est risquer de perdre des élèves, surtout dans une période où des diplômes de finance plus spécialisés et moins chers, tels le CFA sont apparus, et alors que les cabinets de conseil et de finance organisent souvent eux-mêmes la formation .

Tout ça pour ça ?

In fine, la véritable question posée par le livre est de savoir s’il existe vraiment une nécessité de faire du « management » une profession au sens fort du terme. La manière dont ont répondu les écoles à cette question, c’est de mettre en exergue non plus le « manager » qui résout des problèmes, mais le « leader » qui fait avancer des idées nouvelles. L’idéal ne serait plus d’intercéder entre le travail et le capital, mais plutôt d’accompagner les parties prenantes à l’entreprise vers de nouvelles opportunités. Vous seriez aujourd’hui bien en peine de trouver un site de business school dans lequel les mots « leader » ou « leadership » n’apparaissent pas ! Mais tout cela est pourtant bien flou, et ce que montre Khurana c’est qu’il n’existe pratiquement pas d’études académiques du « leadership » hormis ces fabuleux livres de confessions de dirigeants à succès. Les « business schools » choisissent alors de présenter le peu de choses qu’ont à dire les sciences sociales sur le sujet (avec un retour à Max Weber et son concept de domination charismatique), ou de mettre en situation les élèves face à de vrais problèmes de restructuration d’entreprises (un peu comme la filière Entrepreneurs d’HEC), ou enfin d’axer la formation sur l’introspection (dans le style « quel leader êtes-vous ? »).

Les « business schools » sont donc dans le flou, et pourtant le problème de l’éthique des dirigeants est devenu une tarte à la crème du débat public avec l’affaire d’Enron dans laquelle, rappelons-le, les cadres impliqués sont passés par les meilleures écoles. Dans le même temps, la régulation étatique se fait de plus en plus à contre-temps dans un monde des hautes sphères qui a de plus grandes facilités qu’auparavant à échapper aux griffes des Etats. Pour répondre à cette nouvelle crise de légitimité, Khurana se fait l’avocat d’un retour à l’inspiration initiale des « business schools ». Cela ressemble malheureusement plus à de l’incantation qu’à autre chose : il est dommage après une démonstration aussi éclairante d’en revenir au point de départ.

Ce que l'on pourrait aussi reprocher à l'auteur c'est de se focaliser uniquement sur les "business schools" les plus élitistes qui forment par définition les futurs membres des plus grandes sociétés ou de celles qui brassent le plus d'argent. Or la nouvelle frontière des "business schools" c'est peut-être autant l'introduction des principes d'une gestion efficace dans les PME que l'inculcation de principes éthiques dans les esprits des futurs dirigeants d'entreprises du Dow Jones. Comme nous l'avions déjà évoqué dans un post précédent, il se trouve que les PME américaines semblent avoir des pratiques managériales plus efficaces que les PME européennes : cela n'est peut-être pas tout à fait étranger à l'importance du MBA dans l'éventail des formations américaines.
_Laurent_

Lire la suite...

mercredi 2 janvier 2008

Felix sit annus novus !


_Ecopublix_

Lire la suite...

mardi 25 décembre 2007

L'élasticité en économie et à Noël


S’il est une profession pour laquelle la période des fêtes est cruciale, c’est bien celle de producteur de sapin de Noël. Certains seront peut-être surpris d’apprendre que le Gaulois se désintéresse de plus en plus du « vrai » sapin de Noël, à tel point que l’AFSNN (Association Française du Sapin de Noël Naturel) serait très inquiète. Le marché du sapin de Noël ne se porte pas au mieux et il doit de plus cette année faire face à une hausse des coûts d’exploitation qui va faire monter le prix de vente de l’arbre. Cette inflation risque encore d’éloigner certains consommateurs du résineux. Toute la question pour les producteurs est de connaître l’amplitude de cette baisse de la demande. Pour répondre à cette question, un économiste cherchera à estimer l’élasticité de la demande de sapin de Noël. Aïe ! Voilà encore que ces économistes utilisent leur langage incompréhensible ! D’autant plus qu’à Ecopublix nous avons déjà maintes fois utilisé ce fameux terme d’élasticité. Court post sur sa définition et son importance en économie.

I/ La définition de l'élasticité

Commençons par la définition : l’élasticité d’une grandeur Q par rapport à une grandeur P est définie comme le rapport entre le pourcentage de variation de Q et le pourcentage de variation de P. Elle mesure la sensibilité de Q à P. Par exemple si Q est la demande et P le prix, alors l’élasticité-prix de la demande est définie comme le rapport entre le pourcentage de variation de la demande d'un bien et le pourcentage de variation du prix de ce bien. Elle mesure donc la sensibilité de la demande par rapport aux variations de prix. On a coutume de dire qu’une élasticité de valeur e signifie qu’une augmentation de 1% modifie la demande de e%. L’élasticité possède ainsi une définition intuitive qui facilite son usage (1). Une autre qualité importante de l’élasticité est qu’elle est adimensionnelle, c'est-à-dire qu’elle ne dépend pas des unités dans lesquelles les grandeurs P et Q sont exprimées (les prix peuvent être exprimés en euros, dollars, ou couronnes suédoises, la valeur de l’élasticité restera inchangée). Le concept peut donc s’appliquer identiquement à tout domaine et tout pays où l’on souhaite mesurer la sensibilité d’une variable par rapport à une autre.

On peut définir l’élasticité par rapport à d’autres variables que le prix du bien. On pourra ainsi s’intéresser à l’élasticité-revenu de la demande d’un bien qui donnera le changement en pourcentage de la demande quand le revenu du consommateur varie de 1%. L’élasticité est dite croisée quand elle se réfère au prix d’un autre bien. Par exemple la valeur de l’élasticité du chauffage solaire par rapport au prix du pétrole a un intérêt non seulement pour les producteurs de panneaux solaires mais aussi pour les politiques environnementales

La courbe de demande nous fournit une illustration graphique de l’élasticité-prix de la demande (nous utilisons l’exemple de la demande mais on pourrait faire de même avec une courbe d’offre, ou de n’importe quelle variable). Nous avons expliqué qu’une élasticité élevée signifiait qu’une faible variation de prix se traduisait par une large variation de quantité. La courbe va donc être très horizontale, comme sur le graphique suivant :


On dira alors que la demande est élastique : une augmentation de prix se traduit par une forte chute de la demande (2). Par exemple, c'est parce que les compagnies aériennes font face à une demande très élastique que les compagnies « low cost » ont pu en profiter.

En revanche, une élasticité faible impose que la demande ne réagisse que très peu à la variation de prix. Sa courbe est donc très verticale, comme illustré sur le graphique suivant :


On dira alors que la demande est inélastique. Par exemple, la demande d’essence est inélastique car, au moins dans le court terme, les consommateurs ne réduisent que très peu leur consommation suite à la suite d'une augmentation du prix à la pompe.

II/ Elasticité et taxation

L’élasticité est donc un concept utile en ce qu'elle permet de caractériser de manière très simple l'allure d'une courbe de demande (ou d’offre) d’un bien. Cependant son utilité ne s’arrête pas là car beaucoup de résultats en économie dépendent de l’élasticité du bien et les économistes s’y réfèrent fréquemment. Nous avons déjà évoqué dans des billets précédents à quel point les conséquences des politiques publiques dépendaient des élasticités : marché du logement sur lequel l’offre de court terme est inélastique, partage des cotisations salariales et patronales, taxation des stocks-options, et taxation des époux. Il n’est pas étonnant que l’élasticité entre fréquemment dans les raisonnements impliquant taxations et subventions. Pour appréhender leurs effets, il est nécessaire de comprendre à quel point la demande du bien taxé va chuter. Or cette sensibilité est exactement mesurée par l’élasticité de la demande.

Prenons un célèbre exemple d’application. Un résultat important de la théorie économique de la taxation stipule que ce sont les biens les moins élastiques qui devraient être les plus taxés (règle dite de « l'élasticité inverse »). Armés de notre définition de l’élasticité, comment interpréter ce résultat sans pour autant construire un modèle complet de taxation? Imaginons qu’un bien soit taxé. Son prix va augmenter et sa demande chuter, plus ou moins fortement selon son élasticité. La demande d’un bien inélastique ne changerait presque pas en comparaison de la variation de son prix. Le gain de cette réforme pour le législateur correspond au revenu prélevé. Cependant la taxation engendre aussi une perte. Les consommateurs paient plus cher et par conséquent réduisent leur consommation, ce qui réduit leur bien-être. Il est facile de comprendre graphiquement que plus le bien est élastique, c’est-à-dire plus la courbe de demande est horizontale, et plus la différence entre le gain et la perte est élevée, comme on peut le voir sur le graphique suivant :


L’élasticité fournit un critère simple pour choisir quels biens taxer le plus fortement. Les gouvernements l’ont bien compris : les biens inélastiques (essence, cigarettes) sont particulièrement taxés. Au-delà de ce simple résultat de la taxation des biens, l’élasticité intervient dans nombre de raisonnements : taxation du revenu du travail (l’offre de travail la moins élastique sera plus taxée), pouvoir de monopole (une entreprise en monopole abuse plus de sa position dominante si la demande est inélastique), théorie de la firme (élasticité de substitution entre le travail et le capital), théorie de l’incidence fiscale (voir le post d’Overzelus)...

III/ Elasticité et sapins de Noël

Mais revenons à nos sapins de Noël. Un article de l’American Journal of Agricultural Economics estime deux élasticités de la demande d’arbre de Noël naturel en utilisant des données américaines. Les auteurs trouvent une élasticité prix égale à -0,674. D'après notre définition, cela signifie que si le prix du sapin de Noël augmente de 1%, la quantité demandée chute (puisque le signe est négatif) de 0,674%. En d’autres termes, si les pépiniéristes augmentent cette année leurs prix de 15% (comme anticipé ici), la demande devrait chuter de 0,674*15=10,11% (3). L’article ne s’arrête pas là et estime ensuite l’élasticité croisée de l’arbre de Noël par rapport au sapin artificiel et trouve une valeur de 0,188 : si le prix de l’arbre artificiel augmente de 1% alors les ventes d’arbres naturels augmenteront de 0,188%. Il y a donc substitution entre l’arbre naturel et celui en plastique puisque les consommateurs ont tendance à consommer plus du premier quand le prix du second augmente. C’est un autre intérêt de l’élasticité : elle permet de savoir quand et à quel point deux biens sont substituts (élasticité croisée positive, par exemple entre sapins naturels et artificiels), ou compléments (élasticité croisée négative, par exemple entre sapins de Noël et boules à accrocher aux branches).

La prochaine fois que nous parlerons d’élasticité, vous serez (j’espère) un peu moins troublés et vous pourrez faire le lien avec l’intuition derrière le concept. En attendant les billets Ecopublix 2008, toujours plus élastiques aux politiques publiques, bonnes fêtes à tous, joyeux Noël, et ne proposez pas au petit cousin qui vient de recevoir un kit de pyrogravure des mains du Père Noël fraîchement débarqué du Kyrgyzstan de mesurer l’élasticité du sapin, ça pourrait mal finir...


NOTES :

(1) Cette définition n’est cependant pas rigoureusement exacte puisque la définition mathématique à l’aide de dérivées ne considère pas un changement de prix de 1% mais un changement infinitésimal en pourcentage. Pour être précis, la définition exacte de l’élasticité est P/Q*(dQ/dP).
(2) Attention cependant à ne pas confondre la pente de la courbe de demande et élasticité. Sur tous les graphiques présentés ici la pente est constante, alors que l'élasticité ne l’est pas.
(3) Evidemment cette élasticité provient d’une étude réalisée sur données américaines, ce petit exercice n’a donc aucune valeur prédictive pour le marché français. L’élasticité de la demande française d’arbre de Noël n’a à ma connaissance jamais été estimée.
_Emmanuel_

Lire la suite...

mardi 18 décembre 2007

Combien d’impôt paie-t-on sur un euro de bénéfice ?


Est-il équivalent du point de vue fiscal de gagner des revenus de son activité et de gagner des revenus d’un patrimoine ? Question pleine de sens, qu’on a rarement posée aussi simplement, et dont la réponse contribuerait grandement à dissiper quelques malentendus ou à refréner quelques égarements poujadistes…Pour y répondre donc, Ecopublix a procédé en marchant en crabe : on a déterminé ici et ici quelques concepts clés de l’analyse fiscale (incidence fiscale, taux moyen et marginal, etc…) et puis Antoine a expliqué ici ce qui se passait du point de vue des revenus d’activité. Nous allons désormais tâcher de montrer combien d’impôt paie vraiment un euro de bénéfice, et comparer cela à un euro de salaire. Ce petit éclairage sur la structure des prélèvements sur les bénéfices tombe d’ailleurs à point nommé, le Projet de Loi de Finances pour 2008 (PLF2008) ayant considérablement, et en catimini, transformé la forme des impositions pesant sur les bénéfices….

I/ Les fondements de l’exercice

Le but du jeu est de rendre compte de l’effet de chacun des prélèvements existant dans notre système socio-fiscal sur 1 euro de bénéfice distribué sous forme de dividende. Evidemment, il existe tout un tas d’autres placements, de sorte que les bénéfices distribués ne sont qu’une des nombreuses manières de générer du revenu à partir d’un patrimoine, mais nous commencerons par là, avant d’élargir dans la mesure du possible notre analyse dans des posts à venir. Par ailleurs, nous nous contenterons d’une analyse descriptive, laissant au placard pour le moment les considérations théoriques (« est-il plus efficace/juste de taxer plus/moins les revenus du travail/du patrimoine? »).

Pour commencer, décrivons les prélèvements pesant ou susceptibles de peser sur les bénéfices et leur fonctionnement (nous nous appuyons dans un premier temps sur la législation en vigueur pour les bénéfices 2006). Tout d’abord, soyons clairs : les cotisations sociales ne pèsent pas sur les bénéfices, comme Overzelus en a admirablement administré la preuve. Le prélèvement le plus important, c’est donc tout simplement l’impôt sur les sociétés (IS), dit aussi « impôt sur les bénéfices des sociétés », dont le taux est égal à 33,33% du bénéfice. C’est une « flat tax » des plus classiques. Nous considérons ici que l’IS est payé à 100% par les bénéfices, ou pour le dire autrement, que l’incidence fiscale de l’IS est à 100% sur les bénéfices. Cette hypothèse est importante, bien que est discutable : a priori, il n’est pas impossible qu’une partie de l’IS soit reportée sur les salaires, ou même sur les prix. Par manque tragique d’études précise sur cette question, il est plus facile de faire l’hypothèse haute que l’intégralité de l’IS est payée par les bénéfices, mais nous verrons que relâcher cette hypothèse conduit à amender considérablement le tableau final.

Ensuite, il y a la TVA : là, nous ferons au contraire l’hypothèse que cet impôt est payé à 100% par les consommateurs, sous la forme d'un renchérissement des prix à la consommation. Evidemment, ceci n’est vrai qu’à long terme, et encore pas nécessairement complètement. Mais ceci reste quand même l’hypothèse la plus robuste : l’incidence de la TVA sur les bénéfices est donc supposée supposée nulle.

Après cela, vient habituellement la taxe professionnelle (TP) : malheureusement, l’assiette de la taxe professionnelle est très particulière, puisqu’il s’agit essentiellement des immobilisations depuis la suppression de la partie salaires dans l’assiette de la TP, et son taux varie énormément selon les régions/départements/communes, de telle sorte que le niveau moyen de TP payé par une entreprise est extrêmement variable. Nous avons donc décidé de l’exclure de notre analyse. Mais ceci porte peu à conséquence. En effet, la taxe professionnelle est désormais plafonnée en fonction de la valeur ajoutée (VA) : elle ne peut dépasser 4% de la VA, et dans la réalité seules 200 000 entreprises en France paient plus de 3,5% (en % de la VA) de TP nous dit le ministère des Finances. On pourrait toujours choisir de considérer un taux moyen de TP valable pour l’ensemble de l’économie française, mais cela masquerait inévitablement les grandes divergences locales : dans ce cas, le plus juste serait de rapporter la masse de TP payée (de l’ordre de 25 milliards) à la masse des bénéfices bruts (soit 1/3 du PIB) et l’on obtiendrait quelque chose de l’ordre de 4% de taux moyen de prélèvement au titre de la TP. Si l’on veut donc incorporer coûte que coûte la TP, il faudra donc rehausser de 4 points tous les taux moyens calculés par la suite. Au demeurant, la question de l’incidence de la TP reste pendante, et il n’est pas du tout évident que 100% de la TP porte sur les bénéfices, une grande partie étant probablement répercutée sur les salaires.

Après cela, cet euro de bénéfice est distribué comme nous l’avons dit sous forme de dividende, et à ce titre il est redevable de la Contribution Sociale Généralisée (CSG) et de l’impôt sur le revenu (IR). L’IR est le seul prélèvement à proprement parler progressif dans l’imposition des bénéfices, la progressivité dépendant du montant du revenu imposable. Son importance symbolique et sa complexité méritent qu’on s’y attarde quelques secondes.

II/ L’IR et l’imposition des dividendes

L’IR a récemment considérablement changé son traitement des dividendes. Historiquement, les dividendes étaient traités par le mécanisme de l’avoir fiscal dont le but était d’éviter la « double-imposition » des bénéfices, puisque ces bénéfices qu’on taxe à l’IR étaient déjà taxés à l’Impôt sur les sociétés. Attention louable du législateur, même si on peut se demander pourquoi diable compenser l’imposition à l’IS et pas à la TP ou à la CSG. Car l’IS n’est pas seul à avoir un effet a priori distorsif sur les revenus de la propriété. Passons. L’idée consistait donc à redonner au contribuable ce dont son bénéfice avait été amputé par l’impôt sur les sociétés. En contrepartie de la suppression de fait de l’IS, cela revenait à augmenter considérablement le revenu imposable d’un contribuable au titre de l’IR (puisque son revenu imposable augmentait de 33,33% du dividende brut ou, ce qui est équivalent, de 50% du dividende net d’IS) : comme le barème de l’IR est progressif (plus mon revenu est important, plus mon taux moyen augmente), ceci avait pour conséquence de faire augmenter rapidement le montant de l’IR payé.

L’avoir fiscal a été supprimé en 2005 et remplacé par un abattement de 40%. Techniquement, ceci revient à dire que le contribuable ne touche plus d’avoir fiscal, mais qu’en contrepartie son revenu imposable est beaucoup plus faible, donc qu’il paie un taux moyen d’imposition beaucoup plus faible sur son dividende net d’IS.

III/ Travail et capital, même combat

Au final, le fonctionnement de l’ensemble du système fiscal sur 1 euro de bénéfice est décrit dans le graphique suivant, qui donne le taux marginal de prélèvement pour les deux systèmes de l’IR (l’avoir fiscal et l’abattement de 40%) :


Le premier enseignement, c’est que l’imposition des bénéfices est, quel que soit le système, relativement progressive, et loin d’être « confiscatoire ». On oscille entre des taux marginaux de 10 à 55%, ce qui est loin des antiennes du type « les bénéfices sont surtaxés, nos entreprises sont pressurées, extorquées, etc… ».

On observe ensuite que le système de l’avoir fiscal, en supprimant complètement l’IS était au final plus avantageux que le nouveau système avec abattement qui, lui, maintient le prélèvement proportionnel de l’IS à 33,33%. Ceci, bien sûr, est fortement lié à notre hypothèse de départ, à savoir que l’IS pèse à 100% sur les bénéfices. Si l’IS venait à être répercuté sur les prix, ou sur les salaires, alors, le taux marginal baisserait de manière importante et il se pourrait même que le nouveau système soit au final plus avantageux que le système avec avoir fiscal, ce qui expliquerait l’explosion des dividendes distribués constatée dans les statistiques fiscales pour 2005. La question de l’incidence de l’IS est donc cruciale pour apprécier la progressivité globale du système, et on ne peut que regretter qu’aucun travail n’ait encore été mené (à notre connaissance) sur cet aspect de la fiscalité gauloise.

Dernier point important, le taux de prélèvement d’un euro de bénéfice est globalement comparable au taux de prélèvement d’un euro de revenu d’activité, comme le montre le graphique suivant :


La progressivité des prélèvements sur les revenus du travail peut même apparaître moins importante et le taux de prélèvement global plus élevé sur l’activité que sur les bénéfices ! Il faut toutefois souligner que le taux marginal sur les revenus d’activité inclut des cotisations sociales contributives, c’est-à-dire qui ouvrent des droits proportionnels à des contributions telles que l’assurance chômage ou la retraite. Ces cotisations ne sont donc pas forcément assimilables à 100% à un prélèvement, à tous le moins aux types de prélèvement qui pèsent sur les bénéfices.

Au final, ce qu’il est important de garder en tête, c’est qu’il y a globalement une mesure commune : les taux d’imposition du capital et du travail ne sont pas complètement aux antipodes. L’autre point c’est que jusqu’à aujourd’hui, l’imposition des bénéfices gardait un caractère assez progressif. Mais cette caractéristique, elle, pourrait disparaître…

IV/ La réforme de 2008 et le prélèvement libératoire ?

Le PLF2008 a en effet décidé d’instaurer un prélèvement libératoire de 18% sur les dividendes distribués en lieu et place de l’imposition de ces dividendes au barème de l’IR. La raison d’une telle réforme est désespérément simple : trouver de l’argent pour boucler le budget, quitte à se débarrasser des bijoux de famille ! Pourquoi ? C’est cristallin : le principe d’un prélèvement libératoire, c’est d’être payé immédiatement, au moment de la réalisation du revenu. L’Etat touche donc les recettes immédiatement. A contrario, les revenus soumis au barème de l’IR ne sont déclarés qu’en mars de l’année n+1 et perçus par l’Etat au cours de l’année n+1 : passer d’un système d’imposition au barème à un système de prélèvement libératoire permet de toucher deux fois les gains fiscaux une année donnée. En 2008, l’Etat touchera l’impôt au barème sur les dividendes de 2007 ET le prélèvement libératoire sur les dividendes de 2008 ! Super banco pour une équipe gouvernementale qui a bien besoin de ces petits zakouskys pour éviter de tomber dans la zone rouge (celle de Jean Claude Juncker, pas celle de Jean-Pierre Foucault !).

Ce petit changement a en fait une portée symbolique beaucoup plus forte que ce que l’on croit habituellement : en fait, il s’agit tout simplement du dernier avatar dans la longue histoire de la sortie des revenus de patrimoine du domaine de droit commun de l’IR, qui est la progressivité, au profit d’une imposition proportionnelle (flat tax). Le graphique suivant montre indique le taux marginal d’imposition induit par le nouveau système de prélèvement libératoire :


Premier enseignement : la réforme n’est avantageuse qu’au niveau des très gros bénéfices distribués. Deuxième enseignement : le taux marginal reste élevé lorsqu’on additionne tous les prélèvements. Troisième enseignement : a priori, le choix du prélèvement libératoire est libre, donc les petits bénéfices devraient toujours choisir d’être imposés au barème et les gros dividendes au prélèvement libératoire. Mais comme il y a fort à parier que les petits dividendes ne sont pas toujours aussi bien informés que les gros, les petits dividendes vont souvent choisir par commodité le prélèvement libératoire, sans se rendre compte qu’ils y perdent. Au final donc, la réforme nous fait perdre pas mal en progressivité, et pas mal aussi en ressources fiscales sur les très gros dividendes, pour boucler le budget 2008 de façon cosmétique. C’est le Canadair pour un feu de broussaille !

P.S. : Certains d’entre vous auront constaté que l’on a gentiment négligé l’ISF dans notre petit calcul. C’est que les choses ne sont pas simples car l’assiette de l’ISF est constituée par le stock de patrimoine et non par le le flux de revenus du patrimoine. Donc il faut pouvoir imputer un patrimoine à notre euro de bénéfice. La technique la plus simple, qui consiste à dire que l’euro de bénéfice n’est rien d’autre que la traduction d’un rendement moyen de 4% environ (c’est le taux d’un placement sans risque) ne change rien à la donne, car on obtient ainsi des impôts sur la fortune assez faibles, du fait de la forte progressivité du barème de l’ISF et de l’abattement de 750 000 euros. Toutefois, pour les niveaux élevés de bénéfices, l’ISF pourrait devenir important. Je n’ai donc pas encore d’avis tranché, ni de hard facts sur cette question. J’y réfléchis, et je vous rappelle…
_Camille_

Lire la suite...

mardi 11 décembre 2007

Les Gaulois sont-ils plus productifs que les autres ?


Cocorico ! Dans un accès de gallophilie remarqué par Olivier Bouba-Olga (mais contesté par quelques rabat-joie), Paul Krugman s’appuyait il y a quelques mois sur l’exemple gaulois pour pourfendre le mythe d’une Europe moins productive que les Etats-Unis. Pour étayer sa thèse, l’économiste américain rappelait que la productivité du travail en France (égale à la production divisée par le nombre d’heures travaillées) était supérieure à celle de nos voisins d’outre-Atlantique et réfutait l’argument selon lequel cet écart serait la conséquence d’un taux de chômage plus élevé et d’une durée du travail moyenne plus faible dans notre pays. Oncle Sam-le-glandu aurait-il donc du souci à se faire face à l’irrésistible ascension de Vercingétorix-le-productif ? On aimerait tellement le croire… mais soyons prudents... car avant de fourbir nos armes, d’avaler une bonne rasade de potion magique et d’entonner fièrement l’hymne de la victoire, on serait bien avisé d’aller faire un petit tour du côté des chiffres. On ne sait jamais quelles surprises ces coquins-là peuvent nous réserver…

I/ Une productivité apparente du travail à faire pâlir ?

A première vue, la comparaison de la productivité horaire du travail en Gaule avec celle des autres pays de l’OCDE est plutôt flatteuse, puisque notre ardeur légendaire nous place au sommet de la hiérarchie des pays les plus productifs :


Ce graphique fait apparaître que notre productivité horaire, supérieure de 13% à celle des Etats-Unis (qui servent de point de comparaison), n’était dépassée en 2002 que par celle des valeureux Norvégiens (125) et se situait très au-dessus de celle des perfides Bretons (78). Certes, mais en confrontant ainsi les niveaux de productivité entre pays, ne commet-on pas un abus de langage ? Compare-t-on réellement des choses comparables ?

II/ Oui, mais… la légende d’Ocedeus

Une légende tirée de notre tradition nationale permet d’en douter.

En des temps reculés, quelque part dans la forêt d’Ocedeus, une assemblée de druides gaulois décida de lancer un grand concours : le village « le plus productif de Gaule » se verrait récompensé par la remise du fameux bouclier de Brennus. Au terme de longues péripéties (que je vous épargnerai par charité), deux villages parvinrent en finale : à ma gauche, Malthusianus, où la coutume locale interdisaient aux habitants incapables de produire plus d’un menhir par an de travailler, ce qui revenait à exclure les jeunes et les anciens des carrières du village (leur productivité individuelle étant justement égale à un menhir par an) ; à ma droite, Darwinianus, où toute la population, conduite d’une main de fer par l’impitoyable Stakhanovix, était contrainte aux travaux forcés, du berceau jusqu’à la tombe. Chacun de ces villages était peuplé de 100 habitants. A l’issue d’une année de dur labeur, le village de Darwinianus parvint à faire sortir 400 menhirs de ses carrières, dont 100 produits à la sueur de leur front par les 50 jeunes et vieux du village (qui représentaient la moitié des habitants). De son côté, le village de Malthusianus amena 250 menhirs à l’assemblée des druides, en signalant au jury qu’ils avaient été produits par les seuls membres du village autorisés à travailler (soit 50 individus en tout). A l’issue d’une longue délibération, les druides décidèrent d’attribuer le bouclier de Brénus aux Malthusiens, en justifiant ainsi leur décision : « la productivité du travail des Malthusiens s’élevant à 250/50 = 5 menhir/travailleur contre 400/100 = 4 menhir/travailleur pour les Darwiniens, l’assemblée des druides déclare Malthusianus village le plus productif de Gaule ! ».

Criant à l’injustice, les économistes darwiniens contestèrent le verdict des druides, en faisant valoir que pris individuellement, les Darwiniens étaient tous plus productifs que les Malthusiens : la productivité des jeunes et vieux de Darwinianus s’élevait en effet à 2 menhirs/travailleur (100/50) contre une productivité potentielle de 1 menhir/habitant chez les jeunes et vieux de Malthusianus ; la productivité des individus d’âge mur atteignait quant à elle 6 menhir/habitant (300/50) chez les Darwiniens contre 5 menhirs/habitant (250/50) chez les Malthusiens. A l’appui de leur réclamation, les Darwiniens demandèrent à leurs meilleurs économètres de produire le tableau suivant, afin de faire apparaître clairement que leur productivité structurelle était supérieure à celle de leurs adversaires malthusiens, quand bien même leur productivité apparente était inférieure :


Ce louable effort n’eut pas l’effet escompté : instruits par le barde Attalix de l’incompétence des économistes darwiniens et n’étant eux-mêmes guère versés dans l’occultisme économétrique, les druides gaulois traitèrent cette requête avec le plus grand mépris et confirmèrent leur décision souveraine. Il n’en fallut pas plus pour mettre le feu aux poudres et déclencher une interminable guerre civile…

Cette petite fable montre les limites d’une comparaison naïve de la productivité apparente du travail entre différents pays. Qu’un pays ait une productivité apparente du travail plus élevée qu’un autre ne signifie nullement qu’un individu pris au hasard dans ce pays soit plus productif en moyenne qu’un individu pris au hasard dans un autre pays : techniquement, la moyenne d’une distribution tronquée est différente de la moyenne de l’ensemble de la distribution. Dans l’exemple qui précède, les Darwiniens sont réellement plus productifs que les Malthusiens pris globalement ; la raison pour laquelle la productivité des seconds apparaît supérieure à celle des premiers est que la fraction la moins productive des Malthusiens ne travaille pas, ce qui tend à « gonfler » artificiellement leurs statistiques.

Or, que nous apprennent les statistiques gauloises à ce sujet ? Eh bien, qu’il y a de bonnes raisons de penser que certaines caractéristiques de notre marché du travail pourraient expliquer une légère surévaluation de nos performances productives…

Ces caractéristiques sont au nombre de deux, ainsi qu’on peut le voir sur le tableau suivant :


1/ Ce que ces statistiques font d’abord apparaître, c’est que notre taux d’emploi (égal à la population en emploi rapportée à la population totale) se situe en deçà de la moyenne des pays de l’OCDE : en 2002, seuls 62,2% des Français âgés de 15 à 64 ans occupaient un emploi, contre 71,9% aux Etats-Unis, 72,7% au Royaume-Uni et 65,1% en moyenne pour les pays membre de l’OCDE. Cet écart de taux d’emploi est particulièrement accusé pour deux catégories de la population : les jeunes âgés de 15 à 24 ans d’une part (taux d’emploi de 24,1% contre 43,7% dans les pays de l’OCDE) et les seniors âgés de 55 à 64 ans (39,3% contre 49,4%). Plusieurs facteurs expliquent cette situation relativement atypique :
  • une durée d’études plus longue en moyenne, qui retarde l’entrée sur le marché du travail d’une grande partie des jeunes ;
  • un taux de chômage relativement élevé, particulièrement pour les 20-25 ans ;
  • enfin, un certain nombre de dispositifs légaux qui ont eu pour effet de diminuer drastiquement le taux d’emploi des seniors : abaissement de l’âge de la retraite à 60 ans, politiques d’incitation aux départs anticipés (dispenses de recherche d’emploi, préretraites, contribution « Delalande », etc.) ;
Certes, me direz-vous, mais en quoi cela influence-t-il notre productivité ? La réponse est simple : à l’image du village gaulois de Mathusianus, il est probable que la productivité des jeunes et des seniors qui ne sont pas en emploi soit plus faible que celle des adultes en emploi : les jeunes, parce qu’ils n’ont pas acquis l’expérience professionnelle de leurs aînés ; les seniors, en raison du phénomène de tassement de la productivité individuelle observée après 55 ans et surtout parce que ceux d’entre eux qui sont sortis de la population active, outre qu’ils étaient sans doute initialement moins productifs que ceux qui y sont restés, ont vraisemblablement subi une dégradation importante de leur capital humain en n’étant plus sur le marché du travail. Le fait que le taux de chômage des jeunes et des plus de 55 ans soit sensiblement plus élevé que la moyenne semble d’ailleurs plaider en faveur de cette hypothèse. Dans ces conditions, que se passerait-il si on augmentait le taux d’emploi de ces deux catégories de la population ? Selon toute probabilité, on assisterait à un abaissement relatif de la productivité horaire du travail, en vertu du même mécanisme que celui qui expliquait que la productivité apparente des Darwiniens était plus faible que celle des Malthusiens, quand bien même leur productivité structurelle était plus élevée.

2/ L’autre caractéristique du marché du travail français qui peut biaiser à la hausse la productivité apparente du travail est notre faible durée du travail : en 2002, la durée annuelle du travail en France était égale à 1437 heures/an contre 1739 heures/an en moyenne dans les pays de l’OCDE, en raison principalement d’une durée légale du travail plus faible qu’ailleurs (35 heures oblige). Or il ne paraît pas absurde de penser que les rendements de la durée du travail sont globalement décroissants : autrement dit, plus on travaille longtemps, et moins on est efficace. Cette idée était d’ailleurs au cœur de l’argumentation en faveur du passage aux 35 heures, la réduction du temps de travail devant permettre non seulement de réduire l’ « effet fatigue » des salariés, mais également d’accroître la durée d’utilisation des équipements afin d’optimiser la chaîne de production. Il est donc probable que si la durée du travail des français était portée au niveau de la moyenne des pays de l’OCDE, la productivité horaire diminuerait sensiblement.

III/ Ouf… l’honneur est sauf, par Belenos !

Les deux remarques qui précèdent devraient nous inciter à considérer avec circonspection les comparaisons de productivité apparente du travail entre pays. Au minimum, il faudrait pouvoir corriger ces comparaisons des effets structurels liés aux différentiels de taux d’emploi et de durée du travail.

C’est à cet exercice que ce sont livrés deux économistes gaulois : dans cet article paru dans la Revue économique de l’OCDE, Renaud Bourlès et Gilbert Cette proposent une estimation des niveaux de productivité structurels de 25 pays de l’OCDE sur la période 1992-2002. Malgré les limites de l’approche adoptée (petit nombre d’observations, hypothèses simplificatrices), les auteurs se sont efforcés d’estimer le niveau de productivité horaire « structurelle » qui serait observée dans les différents pays si la durée du travail et le taux d’emploi (pour chaque catégorie d’âge) étaient les mêmes qu’aux Etats-Unis, pris comme pays de référence.

Le tableau suivant reproduit les résultats de leurs estimations :


Plusieurs enseignements peuvent être tirés de la lecture de ces résultats :
1/ Pour tous les pays, le niveau relatif (aux Etats-Unis) de la productivité horaire « structurelle » du travail est inférieur à celui de la productivité horaire « observée ». Cette différence provient du fait que la plupart des pays présentent une durée du travail et un taux d’emploi plus faible que celui des Etats-Unis.
2/ Comme on pouvait s’y attendre, la productivité structurelle relative de la France diminue sensiblement par rapport à sa productivité observée : par rapport aux Etats-Unis, elle perd 15 points, en passant de 113 à 98 (ce qui signifie que notre productivité structurelle est égale à 98% de celle des Américains). Les calculs des auteurs indiquent que les deux tiers de cette diminution sont imputables à l’écart de durée du travail, le tiers restant provenant du différentiel de taux d’emploi entre les deux pays.
3/ Néanmoins, malgré cette correction, la France continue de faire plutôt bonne figure par rapport à ses voisins européens : elle n’est dépassée que par l’Irlande et la Norvège et sa productivité structurelle reste sensiblement supérieure à celle des Anglais (77), même si l’écart de productivité entre les deux pays se réduit de 30% environ.

Au total, si l’étude de Bourlès et Cette devrait inciter plus d’un commentateur à mettre de l’eau dans sa cervoise et à ne pas conclure trop rapidement à la supériorité productive du peuple gaulois, elle montre que nos performances ne sont pas humiliantes non plus, en tout cas pas autant que certains voudraient le faire croire.

IV/ Et alors ?

Que conclure de tout cela ?

1/ D’abord, que les comparaisons naïves des productivités horaires du travail sont tout sauf un bon indicateur de la productivité réelle d’un pays.

2/ Ensuite, que ces chiffres doivent au minimum être corrigés des effets structurels liés aux écarts de durée du travail et de taux d’emploi des pays considérés.

3/ Enfin et surtout, qu’il faut s’interroger sur le sens de ces écarts. La faiblesse de notre taux d’emploi et de notre volume d’heures de travail est-elle le signe d’un dysfonctionnement du marché du travail français ou bien l’expression d’un choix de société ayant contribué à améliorer le bien-être global ? Derrière cette question en apparence anodine se situe un débat particulièrement difficile à trancher, surtout en ce qui concerne la réduction du temps de travail : d’un côté, l’adoption des 35 heures peut être vue comme une politique malthusienne qui a tari artificiellement la production de richesses en France ; mais d’un autre côté, si les 35 heures n’ont fait que traduire légalement une plus forte préférence des Français pour le loisir, leur suppression serait synonyme de perte de bien-être, notamment si les individus n’ont pas la faculté de choisir librement leur temps de travail et sont contraints de travailler plus qu’ils ne le souhaiteraient (c’est d’ailleurs l’un des arguments avancé par Krugman dans sa défense du modèle français). Pour approfondir cette question, je renvoie le lecteur aux riches échanges qu’Emmanuel de Ceteris Paribus et Alexandre d’Econoclaste avaient eu il y a trois ans sur la durée du travail, en cinq actes (I, II, III, IV et V) résumés ici pour les flemmards. Et qu’on ne vienne pas nous dire après ça que les blogueurs gaulois ne sont pas productifs, par Toutatis !
_Julien_

Lire la suite...

lundi 10 décembre 2007

Jean Tirole sur l'autonomie des universités


A lire : cette tribune dans le Monde, signée Jean Tirole. Ici à Ecopublix, on applaudit des deux mains.
_Ecopublix_

Lire la suite...

jeudi 6 décembre 2007

Contrôle des loyers et pouvoir d'achat


Parmi les mesures annoncées par le chef Sarkozix pour augmenter le pouvoir d’achat des Gaulois, le logement occupe une place de choix, avec la proposition de supprimer la caution et de changer l’indice de référence pour l’indexation des loyers. En effet, si les loyers en Gaule sont fixés librement lors d’un changement de locataire, leur hausse, une fois le bail signé, est limitée par la croissance d’un indice défini par l’Etat. La proposition du chef consiste à remplacer l’indice actuel, appelé l’indice de référence des loyers, par l’indice des prix à la consommation (hors loyers et tabac). Cette substitution des indices va-t-elle augmenter le pouvoir d’achat des Gaulois ? Pour faire court, la réponse est peut-être oui pour certains d’entre eux au détriment d’autres catégories dans le court terme, mais certainement non à plus long terme. Pour bien comprendre pourquoi, il est utile de replacer cette mesure un peu technique dans le contexte plus général des politiques de contrôle des loyers, et de la discussion des économistes sur leur efficacité.

I/ Les consequences néfastes du controle des loyers

La régulation des loyers est apparue en Europe à l'occasion de la Première guerre mondiale, pour aider les locataires, (et en premier lieu les familles de soldats) à faire face à cette situation exceptionnelle, dans un contexte général de contrôle des prix. Cette régulation a généralement été prolongée jusqu’à la Seconde guerre mondiale, au cours de laquelle les loyers furent de nouveau gelés, aussi bien en Europe qu’aux Etats-Unis (1). En 1970, de nombreuses villes européennes maintenaient un contrôle des loyers plus ou moins strict et parfois réservé aux anciennes habitations, héritage direct des programmes mis en place pendant la guerre. Dans un contexte de forte inflation, le contrôle des loyers a connu un renouveau à cette période, sous diverses formes dont nous reparlerons plus loin.

Le contrôle des loyers représente un cas d’étude standard en économie. On peut illustrer le problème avec un simple graphique d’offre et de demande de logements locatifs. On porte sur l’axe horizontal la quantité d’appartements sur le marché (Q), et sur l’axe vertical le loyer versé aux propriétaires (P).


Sans régulation, l’équilibre s'établit au point E. Supposons qu'on décide d'instaurer un plafonnement des loyers, qui ne peuvent légalement excéder le niveau PR. Le nouvel équilibre s'établit au point R. Quelles en sont les caractéristiques ?

1/ L'effet sur les prix : le loyer régulé (PR) est plus faible que le loyer de l’équilibre non réglementé (PE).

2/ L'effet sur les quantités : pour ce niveau de loyer, la demande de logements locatifs excède le nombre de logements effectivement loués à l'équilibre. Sur le graphique, on constate que pour le loyer PR, la demande est plus élevée que la quantité disponible QR. En présence d'un excès de demande de ce type, l'allocation des logements aux locataires désireux de louer un logement s'organise selon le principe du rationnement : l'ensemble des demandeurs solvables ne pouvant être servis, le tri s'effectue selon d'autres critères que le prix (position dans la file d'attente, garanties de paiement, discrimination, etc.)

3/ Une baisse de la qualité des logements : La perte de profitabilité de la location décourage l’entretien des immeubles, ainsi que la construction de nouveaux logements, si bien que la mise en place d'un contrôle des loyers entraîne une diminution de la qualité du parc locatif.

4/ Une perte d'efficacité : le rationnement induit par le contrôle des loyers constitue l’inefficacité majeure de la régulation : graphiquement, cette perte d'efficacité ( baptisée « perte sèche » par les économistes) correspond à l'aire coloriée en jaune. En présence d'un plafonnement des loyers, les consommateurs sont prêts à payer plus que ce que les propriétaires demanderaient pour un accroissement du nombre de logements sur le marché, car la demande se situe au-dessus de l’offre entre les points R et E. Le contrôle des loyers empêche ces transactions d'avoir lieu, alors qu'elles augmenteraient le bien être global. Cette inefficacité prend plusieurs formes, qui peuvent s’observer actuellement en Suède, un pays Barbare qui a ceci de singulier que les loyers y sont encore complètement contrôlés : les files d’attente pour obtenir un appartement situés au cœur des grandes ville s'y étalent sur plusieurs dizaines d’années (on parle de 30 à 50 ans). Les locataires en place conservent leur logement le plus longtemps possible puisqu’ils bénéficient de bas loyers, préférant sous-louer (souvent illégalement) leur appartement avec des baux de courte durée plutôt que de le perdre, même s’ils ne comptent pas l’habiter dans un futur proche. Du coup, les nouveaux arrivants sur le marché du logement, par exemple les jeunes et les étrangers, éprouvent de grandes difficultés à se loger. Les propriétaires (et les agences de location) exploitent cette pénurie en demandant aux locataires des versements annexes, souvent illégaux, et sélectionnent leurs locataires. Enfin, les très nombreux locataires qui ne parviennent pas à mettre la main sur un bail de longue durée se voient obligés de multiplier les sous-locations et les déménagements, et n’ont souvent d’autre choix que d’acheter un logement pour surmonter cette pénurie.

5/ Une réduction de la mobilité des individus : en incitant les propriétaires à mettre en vente leurs appartements auparavant mis en location (cette dernière formule rapportant moins d’argent), le contrôle des loyers fait chuter le nombre de logements disponibles sur le marché locatif. Cela pénalise fortement les jeunes, les personnes mobiles géographiquement et plus généralement tous ceux qui ne souhaitent ou ne peuvent investir dans l'achat d'une maison ou d'un appartement. Le marché du travail pâtit indirectement de cette réduction de la mobilité des locataires, puisque les individus vont limiter leurs recherches d’emploi à un secteur géographique qui ne les force pas à déménager. Ces deux effets ont été confirmés au Danemark : les locataires jouissant d’un appartement à loyer régulé restent plus longtemps dans leur logement et les chômeurs acceptent plus souvent une offre d’emploi proche de leur habitation que ceux qui occupent des appartements à loyer non contrôlé.

6/ Les effet redistributifs du contrôle des loyers : a priori, les gagnants et les perdants de la réglementation des loyers sont relativement aisés à identifier. La baisse des loyers profite aux locataires, alors que les propriétaires gagnent moins d’argent. Le contrôle des loyers opère donc une redistribution des propriétaires vers les locataires. Sur le graphique, cette redistribution est représentée par le rectangle vert dont l’aire est égale à la différence entre le montant total des loyers payés par les locataires (loyer multiplié par quantité de logement) et ce qu’ils paieraient en l'absence de plafond. Il faut néanmoins ajouter un bémol à ce bilan redistributif : certes, la législation opère un transfert de revenu des propriétaires vers les locataires, mais uniquement en faveur de ceux qui ont conservé leur logement à la suite du plafonnement des loyers, c'est-à-dire sans prendre en compte tous ceux qui ont été lourdement pénalisé par la perte de leur logement (
QE-QR), provoquée par le rationnement du marché. Au total, le bien-être global diminue : graphiquement, cette perte est mesurée par le triangle jaune situé entre les courbes d'offre et de demande de logement.

II/ Quelle marge pour la régulation du marché ?

L'inefficacité du contrôle des loyers signifie-t-elle qu'il n'y ait aucune place pour l'intervention publique en matière de régulation du marché locatif ? Non, car il existe un certain nombre d'imperfections sur le marché du logement qui peuvent justifier dans certains cas la mise en place d'une régulation de la progression des loyers. Le système aujourd'hui en vigueur en Gaule comme dans beaucoup d’autres pays ne consiste d'ailleurs pas en un contrôle total du niveau des loyers, mais en une limitation de la croissance du loyer, une fois le bail signé, ce qui modifie les effets de la régulation.

Le marché du logement est en effet loin d’être un marché « parfait » où l’information circule librement et où le coût de trouver un bien est nul : les locataires supportent des coûts de recherche élevés et accepteront probablement le premier logement qui correspond à leurs critères sans savoir s’il en existe un autre similaire pour un prix moins élevé. Ceci confère aux propriétaires un pouvoir de marché qui leur permet d’extraire une rente au détriment des locataires : dans cette situation, une régulation pourrait être bénéfique afin d’éviter que les propriétaires ne fixent les loyers à un niveau supérieur à celui qui prévaudrait si le marché du logement était parfaitement fluide.

Par ailleurs, la régulation des loyers telle qu’elle fonctionne actuellement en France et dans d’autres pays d’Europe ne correspond pas à un côntrôle pur et simple des prix : elle ne fixe plus le niveau des loyers mais régule son évolution. Ce type de mesure s’est développé dans les années 1970, en accompagnement de réglementations visant à protéger les locataires contre le risque d'exclusion de leur logement, tout en poursuivant initialement l’objectif de limiter la hausse des prix dans une période d’inflation galopante. Cette forme de régulation a moins d’effets négatifs que le contrôle pur et simple des loyers, puisque le niveau des loyers peut s’ajuster à chaque fois que le bail d'un logement mis en location expire. Elle génère donc moins d’inefficacités, tout en assurant les ménages contre de fortes variations imprévues du niveau des loyers. Elle réduit aussi le pouvoir de monopole des propriétaires qui s'exerce en particulier au moment du renouvellement du bail. Le loueur va profiter du coût élevé d'un déménagement pour son locataire pour augmenter fortement le loyer. Le contrôle limite ces comportements.

Sans parler de monopole, d'autres arguments laissent penser que le marché souffre de problèmes d'information. D'un côté les propriétaires ne connaissent pas les caractéristiques des différents locataires, c'est-à-dire s'ils vont payer leur loyer, respecter les règles de copropriété, dégrader le logement, etc. Ce problème de sélection adverse va faire monter les prix. De l'autre les locataires ne connaissent pas non plus les caractéristiques du propriétaire: va-t-il entretenir le logement, a-t-il l'intention de vendre dans un futur proche? Les deux parties prennent en compte ces risques lorsqu'ils négocient le contrat et la loi peut fournir un contrat type pour éviter qu'une des deux parties ne soit clairement désavantagée.

Si le blocage des prix apparaît comme une mesure particulièrement néfaste, on peut donc envisager des arguments en faveur de formes plus sophistiquées de contrôle, sur les prix ou sur la nature des contrats. Il faut cependant souligner que ces justifications théoriques ne permettent pas de conclure sur l’optimalité des formes actuelles de régulation, parce que les études empiriques mesurant les imperfections sur le marché du logement et calculant les bénéfices attendus de telles mesures n’existent pas encore à notre connaissance. En revanche, et comme nous l'avons déjà souligné dans la première partie, les conséquences négatives sont connues, obervées, et parfois précisément mesurées. On ne peut en dire autant des effets positifs.

III/ Quel sera l’effet du changement d’indice sur le pouvoir d’achat ?

Après cette petite mise en perspective du contrôle des loyers, revenons à nos sangliers : quel sera l’effet du changement d’indice de référence de revalorisation des loyers proposé par le chef des Gaulois ? S’il est difficile de prévoir l’évolution future des différents indices, une analyse de leur évolution passée permet de tirer quelques enseignements.

Il faut d’abord souligner que l’indice historique de référence utilisé pour les révisions de loyer en cours de bail était l’indice du coût de la construction (ICC, qui mesure comme son nom l’indique l’évolution du coût de la construction de nouveaux bâtiments) mais il a été remplacé depuis le 1er janvier 2006 par l’indice de référence des loyers (IRL). Quel était l'objectif poursuivi ? L’indice de référence des loyers a été conçu à la fois pour lisser les évolutions de l’ICC (très sensible à l’évolution du coût des matières premières) et pour limiter les hausses de ce dernier : il est composé à 60% de l’indice des prix à la consommation (IPC) hors loyers et tabac, à 20 % de l’ICC et à 20 % de l’indice des prix des travaux d’entretien et d’amélioration du logement. Etant donné la faiblesse de l’inflation actuelle, le graphique suivant montre que l’IPC hors loyers et tabac a évolué beaucoup moins vite entre 2000 et 2006 que les deux autres indices.


Si la tendance actuelle devait se poursuivre, l’utilisation de l’IPC hors loyers et tabac pourrait permettre aux ménages locataires qui ne déménagent pas de bénéficier de plus faibles hausses de loyer à court terme. Mais ceci n'est pas du tout garanti à moyen terme, car ce changement d’indice devrait aussi affecter en retour le niveau des loyers à chaque fois qu'un bail sera signé, puisque les propriétaires s’attendront à être contraints jusqu'à la signature du prochain bail de limiter les hausses de loyer à un niveau qui ne reflètera pas forcément le coût d’entretien du logement : l’effet attendu d’une telle mesure sera donc une hausse plus forte des loyers lors du changement de locataire, un allongement de la durée d’occupation des logements par les locataires actuels, une baisse des efforts d’entretien des propriétaires et la mise en vente de certains appartements.

Ainsi, s'il est possible que ces mesures bénéficient à court terme aux ménages locataires bien installés dans leur logement, cet effet s’estompera à long terme à mesure que ces ménages seront obligés de déménager. En outre, les ménages les plus mobiles vont être directement touchés par la hausse des loyers, puisqu'ils seront les premières victimes de la réévaluation des loyers qui interviendront à l'occasion de la signature des nouveaux baux de location. La mesure va donc avoir des effets redistributifs assez peu désirables, puisqu'elle va favoriser les ménages les moins mobiles (en général les plus âgés) au détriment des ménages les plus mobiles (c’est-à-dire les jeunes et les célibataires), ces catégories ne recoupant pas forcément celles qui ont connu la plus forte baisse de leur pouvoir d’achat. Enfin, comme nous l’avons déjà souligné dans la première partie, cette mesure peut avoir un effet pervers pour l’emploi, en décourageant les chômeurs de déménager pour trouver un nouvel emploi.

Finalement, si, cette avec cette mesure, le chef des Gaulois peut essayer de se faire barde et de calmer les esprits, il risque à plus long terme de les échauffer, car ce changement d'indice n'aura pas d’effet durable sur le pouvoir d’achat.


NOTES :

(1) La guerre imposait souvent de déplacer le travail (par exemple vers une nouvelle usine d’armement) et le gel évitait que ces déplacements ne s’accompagnent de hausses brutales des loyers. A la sortie de la guerre, ces restrictions empêchèrent les propriétaires de profiter de la hausse de la demande suscitée par le retour des soldats.
_Emmanuel_ _Gabrielle_

Lire la suite...

mardi 4 décembre 2007

Qui comprend Hartz (2/3) ?


Il y a quelques semaines de cela, nous avions entrepris d’éclairer ce en quoi que les fameuses réformes Hartz mises en place en Allemagne entre 2003 et 2005 avaient véritablement consisté. Nous avions rappelé qu’elles s’étaient entre autres accompagnées d’un programme complet d’évaluation empirique, dont le coût était prévu dès la mise en place de la réforme et avions souligné que nous autres Gaulois devrions nous inspirer de telles pratiques, histoire de savoir à quoi nous dépensons nos deniers publix.

L’évaluation des réformes Hartz montre à quel point même avec la volonté politique, l’évaluation, et le fait d’en tirer les conséquences qui s’imposent n’est pas une tâche aisée.

Lorsqu’on demande à un économiste qui s’intéresse à l’Allemagne (là par exemple) ce qu’il pense de la guérison rapide de l’économie allemande au cours des trois à cinq dernières années, il répondra inlassablement quelque chose du style « les réformes structurelles, au premier rang desquelles celles entreprises depuis 2003 sur le marché du travail, ont joué un rôle majeur dans la baisse du chômage et le retour de la croissance ». Qu’en est-il exactement ?

En l’état actuel de nos connaissances, la seule chose qu'on puisse affirmer avec quelque certitude est que « certaines des mesures instituées dans le cadre des réformes Hartz ont sans doute contribué à une baisse accélérée du chômage alors que le contexte économique était favorable pour toute une série de raisons relativement indépendantes des réformes Hartz, et que cette baisse du chômage a pu en retour soutenir la croissance ». Toute proposition plus affirmative serait téméraire, et ce car l’évaluation des politiques publiques est malheureusement une activité nécessairement lente et partielle.

Lente car au temps de la mise en place de la réforme ou du nouveau dispositif s’ajoute celui de la collecte des données, et même si les chercheurs travaillent jour et nuit une fois les données disponibles, les premiers résultats raisonnablement robustes sur l’évaluation d’un dispositif peuvent n’arriver que plusieurs années après la réforme. Partielle car on peut rarement répondre à une question du type « les réformes ont-elles conduit au retour de la croissance ?»

I/ Aider les chômeurs à créer leur entreprise : l'exemple du dispositif Ich-AG

L’exemple du dispositif « Société anonyme à moi tout seul » (Ich-AG), mis en place dans le cadre de la loi Hartz II est à cet égard édifiant et vaut à mon avis la peine d’être détaillé tant il illustre certains problèmes auxquels l’évaluation, même bien faite, peut se heurter. Nous brosserons dans un prochain post un panorama plus complet des résultats de l’évaluation des autres mesures.

Lorsqu'il fut mis en place, le dispositif Ich-AG n'était pas tout à fait inédit : les aides à la création d’entreprise pour les chômeurs existaient depuis 1986 en République fédérale d’Allemagne. Mais ces aides ont été considérablement accrues, selon deux dispositifs distincts :
1/ le premier constituait une nouveauté : l’aide à la création d’entreprise individuelle (Existenzgründungszuschüsse dits « Ich AG ») introduite par la loi Hartz II et entrées en vigueur début 2003.
2/ l’autre qui existait déjà auparavant : l’allocation de transition (Überbrückungsgeld qui a été réformée depuis début 2004 dans le cadre de la loi Hartz III).

Les principes des deux dispositifs étaient les suivants :
  • l’allocation de transition devait permettre à des chômeurs de continuer à recevoir leurs allocations pendant une durée de 6 mois s’ils s’établissaient en tant qu’entreprise individuelle, et ce quel que soit le revenu perçu grâce à leur nouvelles activité ;
  • l’aide à la création d’entreprise individuelle visait quant à elle à autoriser les chômeurs qui décideraient de fonder leur entreprise de recevoir pendant trois ans une allocation dégressive (de 600€/mois la première année à 240€/mois la dernière) ;
Le choix pour un chômeur entre les deux systèmes dépend du dernier revenu perçu avant l’épisode de chômage, des perspectives de revenu de l’entreprise individuelle ainsi que de la durée de chômage anticipée. En gros un chômeur certain de son affaire et ayant touché des revenus élevés avant son épisode de chômage optera pour la première solution, alors qu’un chômeur prévoyant des débuts difficiles et n’ayant de toutes les manières pas de fortes allocations chômage préfèrera la deuxième solution.

II/ Les difficultés de l'évaluation

En quoi a consisté l’évaluation des ces nouvelles mesures ? Les chercheurs qui ont été recrutés à cette fin par le ministère allemand de l’emploi ont tenté de répondre à la question suivante : ceux qui ont bénéficié de cette mesure ont-ils vu leur probabilité de rester au chômage diminuer et si oui, de combien ?

Cette question est relativement ardue, pour au moins deux raisons :

1/ la première est que ces mesures ont eu tendance à faire augmenter initialement le taux de chômage des individus qui ont bénéficié, puisqu'il s'agissait par définition de chômeurs tout occupés à la fondation de leur entreprise, et par conséquent peu occupés à rechercher un emploi. Comparer naïvement le taux de retour à l’emploi des participants à celui des non participants conduirait ainsi de façon indue à considérer la mesure comme inefficace voir nuisible : il faut donc du recul pour s’abstraire de cet « enfermement » des chômeurs dans la mesure qu’on leur propose, et qui est destinée à les faire sortir plus vite du chômage ensuite (ce phénomène est encore plus évident avec les formations). Il faut donc attendre que le dispositif ait terminé de fonctionner pour pouvoir en mesurer l’effet réel sur les chances de sortie du chômage des bénéficiaires. Mais Ich-AG était prévue pour durer trois années ! Il faut donc s’armer de patience… ce qui n’est pas forcément aisé pour un homme politique qui attend qu’on lui dise avant les élections si l’argent qu’il a dépensé a été utilisé efficacement ou non…

2/ La deuxième raison pour laquelle l’évaluation est ardue, même lorsqu’on peut observer des individus qui ne sont plus touchés par l’aide, est que les bénéficiaires de cette aide ne sont pas comparables à ceux qui n’y ont pas eu recours (en fait et parfoit même en droit). On pourrait penser par exemple que ce sont en moyenne les chômeurs les plus débrouillards qui ont décisé de postuler pour l’aide à la création d’entreprise. Si tel est le cas, peut-on déduire de l'observation que ces individus sont moins souvent au chômage que leurs congénères après quelques années que l’aide a joué son rôle ? A priori non, parce que même en l'absence de cette mesure, il est probable que ces chômeurs plus débrouillards aient de toute manière retrouvé un emploi salarié plus facilement que les autres… Ce problème dit de « sélection endogène » des participants nécessite d’avoir recours à des techniques d’estimation plus sophistiquées que la simple comparaison brutale de deux groupes. Ces techniques sophistiquées sont gourmandes en données détaillées et donc en enquêtes coûteuses et qui prennent du temps.

III/ Des résultats plutôt encourageants

Finalement, que disent les études qui ont cherché à évaluer le dispositif Ich-AG (voir les papiers ici et ) ?

Pour l’allocation de transition, qui n’est payée que durant 6 mois, elles concluent que la probabilité d’être en emploi est, « grâce à l’allocation » de 32% plus élevée 10 mois après la fin du soutien, et entre 8% (Ouest) et 13% (Est) plus élevée 42 mois après la fin du soutien.

Pour l’aide à la création d’entreprise individuelle, l’évaluation est moins aisée dans la mesure où le recul ne permettait pas d’observer d’individus qui avaient bénéficié mais ne profitaient plus de l’aide. Les probabilités de ne plus être au chômage sont, en fonction de l’âge et de la zone géographique, entre 30 et 50% plus élevées 16 mois après le début de la mesure (alors que le soutien n’est plus de que 360€ mensuels). Les auteurs en concluaient, en l’attente de résultats plus robustes avec plus de recul temporel, que la mesure avait sans doute elle aussi eu un effet positif et significatif.

Ces résultats appellent deux remarques :

1/ D’une part on voit à quel point pour produire des connaissances précises et solides, il faut limiter les ambitions des conclusions : les chercheurs n’évaluent pas l’effet de la Ich-AG sur le PIB ou sur l’emploi dans cinq ans, mais seulement sur la probabilité pour un chômeur de retrouver un emploi, dans un contexte macroéconomique donné. Il n’est pas évident que mise en place ailleurs, à une autre époque, ces dispositifs fonctionneraient aussi bien. Toutefois, si la communauté des économistes n’a pas découvert le saint Graal avec Ich-AG, elle est sortie enrichie de cette évaluation : désormais, on sait que ce type de dispositif peut vraiment marcher dans un contexte comme celui de l’Allemagne des années 2000 et pas seulement parce qu’un bel esprit a écrit un modèle théorique cohérent où ça marche (ce qui est utile, mais pas suffisant pour justifier de dépenser les précieux deniers publics).

2/ D’autre part, il se trouve que les deux dispositifs, dont la différenciation semblait être une qualité puisque chacun s’adressait (efficacement visiblement) à un profil de chômeurs différent, ont été fusionnés par le ministère du Travail avant même qu'on ait le recul suffisant pour terminer l’évaluation ! Vouloir évaluer c’est bien, mais encore faut-il en tirer les conséquences qui s’imposent, au premier rang desquelles la nécessité d'une dose de patience et d'un soupçon de modestie.

Les Goths sont en avance sur les Gaulois, mais il semble bien qu’il leur reste aussi du chemin à faire...
_Fabien_

Lire la suite...