samedi 28 avril 2007

Evaluation des politiques publiques (4/7) : les institutions


Nous continuons notre série sur l'évaluation des politiques publiques. Après avoir évoqué les motivations pour des politiques économiques reposant sur des évaluations solides, décrit les obstacles techniques à surmonter pour réaliser des études de qualité, nous abordons aujourd'hui les difficultés institutionnelles. Le rôle des économistes dans la campagne électorale est en débat. Certains choisissent une posture militante, certains s'abstiennent de prendre parti et d'autres ne participent pas du tout au débat public. Pour alimenter le débat public, ce post défend le besoin d'institutions qui allient la nécessaire crédibilité scientifique et des talents de communication, une subtile potion magique, encore inconnue des Gaulois.

La difficulté technique est réelle mais n’est pas forcement le point sur lequel nous avons en France le retard le plus important. Ce qui manque cruellement ce sont des institutions qui sachent communiquer aux citoyens comme à leurs représentants les résultats et les discussions des chercheurs sur ces évaluations. Ce besoin d’institutions ne veut pas dire qu’il soit facile aux chercheurs de convaincre leurs concitoyens de leurs résultats, bien au contraire ! La recherche scientifique est en partie une recherche de résultats et en partie un exercice de persuasion de la communauté scientifique (avec des méthodes, une démarche de réplication…). Pour le succès de l’évaluation, il faut convaincre en plus les politiques et les citoyens qui les élisent. Les chercheurs ne peuvent se satisfaire du modèle de l'intellectuel engagé, ils ont besoin d’institutions crédibilisant leur participation au débat public.

Communiquer comme exercice démocratique.

La décision doit rester celle des citoyen : l’expert n’est pas là pour capturer le pouvoir des citoyens, mais pour l’éclairer. Les citoyens doivent savoir, car c’est là la garantie d’un vote qui ne se laisse pas abuser par les démagogies. C’est aussi une nourriture indispensable pour la démocratie, afin qu’elle ne sombre ni dans le populisme ni dans une aristocratie élitiste.
Les représentants doivent savoir, d’une part pour pouvoir contrôler efficacement l’exécutif, et d’autre part car ce sont eux qui dans une large mesure font l’offre politique. Ils doivent pouvoir être en mesure de savoir s’ils font des propositions crédibles ou totalement fantaisistes, et surtout si les politiques qu’ils proposent ont des chances d’atteindre les objectifs qu’ils ont annoncé à leurs électeurs. Le problème n’est pas tant que nos femmes et hommes politiques disent qu’ils souhaitent baisser le chômage, que de savoir comment.

La crédibilité indispensable.

La qualité d’une évaluation ne dépend pas que de sa qualité technique et de la communication qui peut en être faite : son utilité pour le débat publique repose avant tout sur sa crédibilité auprès du public. Trois écueils doivent être impérativement évités :

  1. Le premier est la dépendance au pouvoir politique. Les évaluations des politiques publiques ne peuvent pas être réalisées par les administrations chargées de leur mise en place (on ne peut être juge et partie). Il est impossible de penser qu’un ministre (voire une administration) n’ait pas la tentation de contrôler l’évaluation de la politique qu’il a défendue. De nombreux exemples récents en France soulignent qu’un tel contrôle a lieu régulièrement, soit en censurant les études réalisées, soit en empêchant leur réalisation par l’interdiction d’accès aux données.
  2. Rexecode ou l’IRES sont officiellement liés respectivement au patronat ou aux syndicats et leurs études ont de fortes chances d’être idéologiquement orientées, même si elles peuvent être de qualité.

  3. Le troisième est le coût de la neutralité. L’Insee est l’institut le plus à même à réaliser des évaluations sérieuses et respectées des politiques publiques en France, mais l’institution a les mains liées par sa principale tâche qui est la production de données fiables et respectées de tous. La crédibilité de l’Insee est une chose trop précieuse pour que ses membres se risquent sur les sujets controversés et trop politiques. On voit aujourd’hui par la remise en cause frontale de l’indice des prix et de la mesure de la pauvreté que même établir des faits (des données de base) nécessite une institution au-dessus de tout soupçon.

Des institutions pour communiquer.

La communication de l’évaluation des politiques publiques demande des compétences et des institutions particulières. Il faut pouvoir communiquer au point de vue scientifique (faire valider par ses pairs les méthodes utilisées comme dans tout autre discipline scientifique), mais il faut aussi communiquer les résultats aux décideurs et à la représentation (rapports d’expertise) et enfin communiquer au grand public pour éclairer les enjeux (presse de grand public).

Une telle communication est un véritable métier et si on peut reprocher aux chercheurs de ne pas assez sortir de leur tour d’ivoire, il faut reconnaître qu’il n’existe que peu d’institutions (think tanks de niveau universitaire) qui peuvent jouer ce rôle en France. Ce constat est à la fois le résultat de la pauvreté des universités et de leur éloignement institutionnel de la sphère publique (qui n’est pas étranger à leur éloignement du marché du travail…) et le manque de demande d’évaluation de la part de l’Etat. Les administrations ont le plus souvent leurs propres services d’études qui gardent jalousement leurs données contre de cupides chercheurs prêts à les exploiter. Chaque service est en rivalité avec les autres administrations, pour conserver le contrôle sur des données qu’ils assimilent à une forme de pouvoir dans le rapport de force politique. Enfin la formation généraliste des élites de l’administration française est peu propice à la consommation de travaux d’évaluation de politique publique de qualité (utilisant les méthodes économétriques récentes et ayant fait l’objet de publication scientifique).

L’évaluation des politiques publiques n’est pas un slogan, c’est un vaste programme de réforme des universités, de la recherche, des administrations et de la façon de faire de la politique. La recette de la potion magique est donc un subtile équilibre de compétence universitaire, de crédibilité, d'indépendance politique, d'honnêteté intellectuelle, de communication moderne, d'efficacité de l'Etat... Bon ça sonne un peu science-fiction dit comme ça, mais on y croit très fort!

Avant d’en venir à des propositions concrètes, il nous faudra faire un tour d’horizon des institutions chargées de l’évaluation en France.

Suite au prochain numéro !
_Antoine_ _ Fabien_

Lire la suite...

mercredi 18 avril 2007

Les conseillers de César et Cléopâtre (le retour)


A lire sur le site du Monde, un entretien réalisé avec Philippe Aghion et Olivier Blanchard à propos du programme économique du (de la) candidat(e) qu'ils soutiennent respectivement : Ségolène Royal pour le premier, Nicolas Sarkozy pour le second. Tout en reconnaissant la difficulté de l'exercice, il nous semble que cette interview illustre parfaitement l'incapacité des économistes à se faire entendre au cours de cette campagne présidentielle, parce que l'affichage de leur soutien politique a pour effet de masquer le consensus pourtant réel qu'ils partagent sur les réformes économiques nécessaires (et dont rien ne prouve qu'il soit partagé par leurs poulains respectifs).

Grosso modo, cet entretien révèle que Blanchard et Aghion sont, comme la plupart de leurs collègues, d'accord sur les points suivants :
1/ il faut réformer le marché du travail en introduisant une dose de flexibilité ;
2/ compte tenu du niveau de la dette, il n'est pas opportun de baisser les prélèvements obligatoires ;
3/ il faut maintenir le principe de la redistribution.

Au-delà de ces trois points, il est hautement probable qu'Aghion et Blanchard soient également d'accord pour dire :
1/ qu'il faut introduire davantage de concurrence sur le marché des biens et services (suppression des lois Galland, Royer et Raffarin, en particulier) ;
2/ qu'il faut réformer en profondeur l'enseignement supérieur pour le rendre compétitif sur le plan international.

Au total, l'interview produit un malaise évident : on sent bien que l'un et l'autre sont d'accord sur l'essentiel, mais qu'ils cherchent à tout prix à justifier la cohérence de leurs prises de position respectives, à coup :
  • d'interprétations pour le moins « héroïques » des propositions économiques de leur candidat(e) préféré(e) : où dans le programme de Ségolène est-il écrit qu'elle s'inspirera de la flexicurité danoise ? où dans le programme de Sarkozy est-il écrit qu'il maintiendra le même niveau de redistribution ? Le comble étant atteint lorsque, à la question du journaliste qui lui rappelle que le programme de Sarkozy ne mentionne nulle part l'idée d'une taxe sur les licenciements, Blanchard répond presque candidement : « c'est vrai, mais je sais qu'il n'y est pas hostile ». Et le citoyen lambda ? Est-il censé le savoir également ?
  • d'omissions volontaires sur les aspects positifs des propositions du candidat adverse et, a fortiori, sur les aspects potentiellement « gênants » du programme du candidat soutenu : Aghion ne dit rien sur le contrat unique ; Blanchard est vraiment en position délicate lorsqu'il faut parler du programme fiscal de Sarkozy.
A tout prendre, on aurait préféré qu'Aghion et Blanchard disent vraiment ce qu'ils pensent et interpellent les candidats sur leur propositions de réformes économiques
(en matière de retraites, de logement, d'éducation, etc.) pour les inciter à en préciser le contenu, plutôt que de se faire les interprètes plutôt maladroits et peu convaincants de la pensée-Ségolène-Royal et de la pensée-Nicolas-Sarkozy.
_Julien_

Lire la suite...

mardi 17 avril 2007

Trop d'impôt tue l'impôt ! Certes, mais on en est loin


Trop d’impôt tue l’impôt ! L’impôt sur le revenu français fait fuir les contribuables productifs ! Après le délire paranoïaque et la lamentation sur le départ de Jonnhy, quelle est la réalité ? Elle se trouve bien loin de ces clichés. Si on compare à l’Allemagne et le Royaume-Uni, souvent cités en exemple en Europe, avec les Etats-Unis et le Canada, et plus généralement avec l’Union européenne et l’OCDE, on s’aperçoit que la France a l’impôt sur le revenu des personnes physique de très loin le plus faible, comme le montre le graphique ci-dessous:


On entend alors souvent que la France à certes un impôt faible, mais que l’impôt américain par exemple est beaucoup moins progressif que l’impôt français. C’est encore une idée reçue, le barème de l’impôt américain fédéral est tout à fait progressif, comme le montre le tableau ci-dessous:


Le barème français parait certes plus progressif encore. Il ne faut cependant pas oublier qu’il n’est calculé que pour 72 % des salaires (jusqu’à plus de 11 000 euros nets mensuels) et 50 % des revenus de capitaux mobiliers, sans parler du nombre très important de déductions et de réductions fiscales, et des quotients conjugaux et familiaux, qui réduisent encore considérablement l’impôt sur le revenu des familles les plus aisées.

Et ce n’est pas tout : si la France a le plus faible taux d’imposition sur le revenu des personnes physiques, l’IR proprement dit est minoritaire dans ces recettes fiscales. Il n’a rapporté en 2005 que 2,9 % du PIB, alors que la plus grande part des impôts sur le revenu est prélevée au travers de la CSG (4,2 % du PIB en 2005). Or la CSG n’est pas du tout progressive, elle est même régressive puisqu’une grande partie est déductible de l’impôt sur le revenu.

L’impôt sur le revenu est donc faible et finalement pas si progressif que cela en France. Et si la France a un taux de prélèvements obligatoires élevé, elle le doit surtout à des cotisations sociales et une TVA très importantes.
_Clement_

Lire la suite...

lundi 16 avril 2007

Astérix et le Financial Times


Le Financial Times consacre son édition d'aujourd'hui (lundi 16 avril) à l'élection présidentielle française. Un article a en particulier attiré mon regard du fait du dessin d'Astérix qui l'accompagnait (non reproduit dans l'édition en ligne). L'article est un entretien avec David Thesmar à propos de son dernier livre coécrit avec Augustin Landier et dont Capitalrix a déjà longuement parlé dans les colonnes de ce blog. Ce qui m'a troublé dans cet article, c'est l'association qui y est faite entre Astérix et une vision nationaliste et étriquée de la France. Astérix = José Bové = Le Pen. Mais le lecteur attentif des aventures de nos amis gaulois ne peut qu'être opposé à cette lecture partiale.

Les héros d'Uderzo et de Goscinny défendent, il est vrai, une certaine idée de la France, une certaine indépendance d'esprit, mais rien qui puisse s'apparenter a un quelconque extrémisme nationaliste : la lutte des Gaulois contre les Romains est bien plus la référence dans cette France d'après-guerre à la lutte de la Résistance contre l'emprise nazie (voir les références dans Astérix chez les Goths, dernière page, ou le passage à Lyon dans le Tour de Gaule...). Les amis des Gaulois dans les autres pays sont toujours présentés de façon sympathique, qu'il s'agisse des Bretons, les Helvètes, les Hispaniques ou les Indiens. Idéfix est un chien écologiste, mais s'il pleure quand on arrache un arbre, Panoramix et Astérix ont aussi à cœur de donner du travail aux esclaves (lire : le Tiers-monde) dans le Domaine des dieux.

Que les lecteurs du Financial Times qui viendraient à errer du côté d'Ecopublix ne concluent donc pas hâtivement de nos références à certains ancêtres gaulois que nous prônons l'apologie d'une identité nationale nauséabonde ou un appel au repli sur un passé glorieux. C'est au contraire une manière pour nous d'ironiser sur le chauvinisme national pour amener à réfléchir. D'ailleurs, Vercingétorix, c'était pas forcement glorieux !

Enfin, un peu d'autodérision n'ayant jamais fait de mal à personne, je dois avouer que la première idée qui m'est venue en voyant le dessin d'Astérix dans le Financial Times était de croire que leur article était consacré à.... Ecopublix ! Snif ;)
_Antoine_

Lire la suite...

vendredi 13 avril 2007

La propriété, c'est le vote ?


Pour répondre au problème du logement, qui s’est invité cette année de façon particulièrement insistante dans la campagne, les candidats proposent un grand choix de potions. Si certaines formules sont intéressantes, d’autres, comme la déductibilité fiscale des intérêts d’emprunts pour les ménages accédant à la propriété, une des priorités de Nicolas Sarkozy, mais aussi une des propositions de l’UDF, ne constituent certainement pas la recette de la potion magique en matière de logement, bien au contraire.

L’objectif affiché d’une telle mesure est de baisser le coût d’achat d’un logement pour inciter les ménages à accéder à la propriété, comme l’indique clairement le discours du 14 janvier de Nicolas Sarkozy qui propose « que l’on fasse de la France un pays de propriétaires, parce que lorsqu’on a accédé à la propriété on respecte son immeuble, son quartier, son environnement… et donc les autres ». Or, si l’objectif de faire de la Gaule un village de propriétaires est déjà discutable d’un point de vue économique, il a de toutes façons peu de chances d’être atteint avec l’instauration de la déductibilité fiscale des intérêts d’emprunts.

En effet, la mesure risque d’abord d’avoir un impact inflationniste sur les prix immobiliers (comme cela l’a déjà été expliqué ici par Etienne Wasmer). Si la déductibilité des intérêts d’emprunt fait dans un premier temps baisser le coût d’acquisition d’un logement, les ménages devraient logiquement être plus nombreux à vouloir acheter, ou chercher des logements plus grands. Mais si l’offre de logement n’augmente pas beaucoup suite à cette demande supplémentaire, alors la mesure aura surtout pour conséquence une hausse des prix immobiliers, selon le mécanisme expliqué sur le graphique suivant :


Déjà, en 1984, James Poterba soulevait ce problème pour les Etats-Unis, où la déductibilité des intérêts d’emprunt existe depuis longtemps. D’après ses calculs, l’effet inflationniste de ces déductions a pu représenter jusqu’à 30% de la hausse des prix immobiliers aux Etats-Unis dans les années 70 (1). Or, comme on peut supposer que l’offre de logement n’est pas moins réactive aux Etats-Unis qu’en France, la mise en place d’une telle disposition aura très probablement un fort effet inflationniste sur les prix immobiliers gaulois, qui réduira d’autant le montant réel de la subvention pour les accédants (tout en enrichissant les vendeurs…).
Et quand bien même cette mesure permettait effectivement de réduire un peu le coût d’achat d’un logement, il est néanmoins peu probable qu’elle entraîne une forte augmentation de l’accession à la propriété au sein des ménages modestes. En effet, il existe déjà pour ces catégories de ménages des prêts aidés (comme le prêt à l'accession sociale et le prêt à taux zéro), visant à favoriser l’accession à la propriété. De plus, ces prêts sont en partie garantis par l’Etat, pour inciter les banques à accorder des crédits immobiliers sur la base de critères moins restrictifs, et relâcher ainsi les contraintes d’emprunt qui pèsent sur les ménages modestes. Or, l’impact de ces aides sur la décision d’accéder à la propriété semble relativement faible. Une étude de Laurent Gobillon et David Le Blanc sur des données de la fin des années 1990 évalue que, même en négligeant l’effet inflationniste de la mesure, 85% des ménages bénéficiaires d’un prêt à taux zéro seraient tout de même devenus propriétaires sans cette subvention. Ils attribuent ce résultat à l’absence de ciblage précis de ce type de prêts vers les ménages les plus modestes, car 94% des locataires étaient alors éligibles pour un prêt à taux zéro. Dès lors, si l’objectif poursuivi était vraiment de permettre aux ménages modestes d’accéder à la propriété, il faudrait redéfinir des critères d’éligibilité qui ciblent vraiment les foyers à bas revenus, en élargissant le montant des prêts.

Or, ce n’est clairement pas le cas de la proposition de déductibilité fiscale des intérêts d’emprunt. Au pire, en l’absence de plafond, l’effet principal de la mesure sera de remplir de sesterces les poches des ménages aisés, qui auraient de toute façon accédé à la propriété en l'absence de cette mesure. En effet, les ménages les plus riches sont aussi ceux qui accèdent le plus à la propriété et empruntent le plus. Ainsi, d’après une étude sur l’endettement des ménages parue récemment dans Insee Première, 62,5% des ménages ayant un revenu annuel de plus de 50 000 euros avaient un prêt immobilier en 2004, pour un endettement (total) médian de 62 700 euros, alors que c’était le cas de seulement 21,4% des ménages ayant un revenu annuel compris entre 15 000 et 25 000 euros pour un endettement médian de 29 500 euros. De plus, comme les ménages locataires sont aussi les moins aisés, l’effet principal de la mesure serait une redistribution « à l’envers » en direction des ménages les plus aisés.

La déductibilité fiscale des intérêts d’emprunts sera aussi une mesure très coûteuse pour les finances publiques, puisque les ménages s’endetteront probablement plus pour financer l’achat d’un logement plus cher. Les charges d’intérêts payés par les propriétaires s’élevaient déjà à près de 17 milliards d’euros en 2004 d’après les Comptes du Logement, à comparer avec les 14 milliards d’euros distribués en aides personnelles au logement. Même s’il est question d’introduire un plafond de ressources pour limiter les effets d’aubaine, le coût de la subvention risque d’être fortement alourdi par les effets inflationnistes de l’aide, sans permettre aux ménages qui n’ont actuellement pas les moyens d’accéder à la propriété de le faire.

Enfin, on peut s’interroger sur l’idéal d’un village gaulois de propriétaires. Favoriser la propriété peut se justifier si les externalités liées à la propriété sont fortes, c’est-à-dire si la société entière bénéficie d’une augmentation du nombre de propriétaires. Or là encore, les arguments sont loin d’être convaincants. Certes, les propriétaires ont intérêt à entretenir la valeur de leur hutte, et des études sur données américaines et allemandes ont montré que les propriétaires s’occupent plus de leur maison, font du jardinage … ce qui peut bénéficier aux autres habitants du quartier (bien qu’il ne faille pas négliger les effets de la jalousie entre voisins !). Les propriétaires semblent aussi, toutes choses égales par ailleurs, avoir une vie sociale plus active, s’investir plus dans les associations de quartier et voter plus. D’un autre côté, la propriété peut entraîner des externalités négatives pour la société, car les propriétaires risquent de s’opposer à toute initiative publique (comme la construction d’Habitations Latines Mélangées par exemple) qui risque de diminuer la valeur de leur bien. L’existence d’un lien entre propriété et chômage a aussi été évoquée (et déjà développée ici), car les coûts de mobilité élevés des propriétaires peuvent avoir des effets négatifs sur l’emploi. Veut-on vraiment favoriser l'accession à la propriété des ménages modestes dans les zones industrielles sinistrées, au risque de les pénaliser fortement en cas de chômage, car un déménagement dans une autre région serait très couteux ? Finalement, rien ne permet de dire que les effets positifs de la propriété l’emportent sur les effets négatifs pour la société. Pour les candidats, c’est peut-être différent : en effet, les études ont montré qu’aux Etats-Unis, non seulement les propriétaires votent plus, mais qu’ils votent aussi plus républicain… La propriété, c’est le vote ?

(1) James Poterba « Tax Subsidy to Owner-Occupied Housing: An Asset Market Approach », Quaterly Journal of Economics, 1984.
_Gabrielle_

Lire la suite...

jeudi 12 avril 2007

Les conseillers de César (et de Cléopâtre)


Les trois candidats en tête ont choisi chacun une personalité pour défendre leur programme économique. Christian Blanc pour Nicolas Sarkozy, Thomas Piketty pour Ségolène Royal et Christian Saint-Etienne pour Francois Bayrou. Voici le débat relaté par Les Echos. Le débat est plutôt décevant, avec des juxtapositions et peu d'arguments contradictoires. Il est difficile de savoir ce que les lecteurs auront retenu de ces interviews: l'offre contre la demande, le court terme versus le long terme ? Notre conseil pour la prochaine fois : une bonne rasade de potion avant l'entrée dans l'arène !
_Antoine_

Lire la suite...

mardi 10 avril 2007

Relationpublix


Le petit Ecopublix est né depuis bientôt dix jours et il est temps de remercier tous ceux qui ont la gentillesse fêter sa venue au monde.

Tout d'abord, il faut rendre à César ce qui appartient à César et remercier Econoclaste pour leur sympathique soutien. Disons le tout net, la seule raison qui explique qu'Ecopublix n'ait pas vu le jour plus tôt vient de la qualité du blog d'Alexandre Delaigue et SM : bien souvent, à peine nos discussions entamées sur un sujet d'actualité économique, qu'un post de grande qualité apparaissait sur leur site. Autant dire que cela a découragé plus d'une fois nos bonnes volontés...

Merci également à Optimum, leconomiste, la Thilde et Versac pour leurs encouragements.
_Ecopublix_

Lire la suite...

vendredi 6 avril 2007

Les 30 Mystérieuses racontées à leurs enfants


Pourquoi s’intéresser encore à cette période des 30 Glorieuses qu’on ressasse tel un âge d’or que nous (enfin… certains d’entre nous) n’aurions pas connu et ne serions pas prêts de revivre ? Justement, parce qu’à force de s’en servir comme totem, on finit par travestir le sens à donner à cette époque.

On peut classer les explications sur le sujet très simplement : soit vous êtes de gauche et vous considérez que cette période exceptionnelle a pour origine l’application d’un programme de la Résistance imposé par la force, soit vous êtes de droite et vous pensez que c’est un simple rattrapage technologique auquel nous avons assisté. Dans la première version, vous direz que les réformes de 1945 ont été travesties depuis 1974 ; dans la seconde, vous direz que le rattrapage étant terminé, il faut au plus vite en finir avec cet Etat qui bloque tout. Le trait est grossi à dessein, et il y a certainement en chacun d’entre nous un mélange des deux visions. Raison de plus pour se clarifier les idées sur le sujet.

Pour revenir là-dessus, j’ai choisi de vous raconter une lecture croisée de deux ouvrages écrits en 1972 et 1981, à une époque où l’on avait pas encore tout à fait conscience d’être sortis pour de bon des 30 Glorieuses, tout en ayant la possibilité d’en tirer déjà quelques enseignements : un livre d’analyse statistique de la croissance française, devenu un classique, « La Croissance Française », de Jean-Jacques Carré, Paul Dubois et Edmond Malinvaud, alors économistes à l’INSEE, et un livre d’histoire de la modernisation française, « Le capitalisme et l’Etat en France », de Richard Kuisel, historien américain. La confrontation de l’historien et du statisticien, de l’étranger et du français est particulièrement fructueuse.

Quel est l’objet du livre de Kuisel ? Rien de moins que de comprendre la rupture spectaculaire de la Seconde Guerre Mondiale dans l’histoire économique française. Et pour l’auteur, cela passe par une analyse serrée du rôle de l’Etat dans cette évolution : l’évolution de la pensée économique, de la formation de l’élite, du contexte international, l’état des institutions publiques, le rôle des groupes socioprofessionnels, l’incarnation par un petit nombre d’individus des grandes idéologies, tout cela est passé en revue sur la période 1900-1960 de manière minutieuse et magistrale. Sa thèse est la suivante : le triomphe du dirigisme économique de 1945 n’est que l’aboutissement d’une longue mue commencée avec la 1ère Guerre Mondiale, mais cette évolution idéologique a été particulièrement conflictuelle, avec deux champs de bataille principaux : les tenants du statu quo libéral contre les promoteurs d’une organisation de l’économie plus ordonnée, et au sein de ces derniers, les défenseurs d’un capitalisme organisé contre les planificateurs socialistes. La toile de fond qui inspire ces débats c’est le sentiment d’un déclassement économique de la France, d’abord par rapport à l’Allemagne puis par rapport aux Etats-Unis. Une vraie tradition en somme, encore très bien représentée aujourd’hui.

C’est ici qu’un premier détour vers le livre de Carré, Dubois, Malinvaud peut être utile. C’est le premier livre à rassembler sur très longue période (de 1896 à 1969) des données quantitatives détaillées sur l’économie française : production brute, évolutions quantitatives et qualitatives du capital productif et de la population active, structures des marchés, etc. Et que disent ces statistiques sur un éventuel déclin français dans la première partie du 20ème siècle ? La réponse est : que nenni !, comme le montre ce tableau :


La France est loin d’être déclassée en termes de niveau de vie par ses concurrents les plus proches durant le premier tiers du 20ème siècle. Elle est bien placée dans la 2ème Révolution Industrielle avec son industrie automobile et aéronautique et la taylorisation commence à faire des émules en France parmi les grandes entreprises dés les années 20 (la « rationalisation » était alors un mot à la mode). Sur le plus long terme, le pays commence à bénéficier de sa politique de scolarisation de masse. Ce qui va mettre les Français dans le doute, c’est la crise des années 30, qui touche justement très fort ces industries neuves de la 2ème Révolution Industrielle.

Que fait l’Etat pendant cette période ? Il navigue à vue et cherche surtout à éviter les représailles politiques de la crise économique sans offrir de véritable politique cohérente. Les élections se jouant souvent auprès de notables locaux, les hommes politiques s’efforcent surtout d’éviter les faillites retentissantes et d’encourager les cartels et autres restrictions à la production et aux échanges. Les leviers du pouvoir économique (Ministère des Finances, Banque de France) sont détenus par une élite financière soucieuse avant tout de préserver les épargnants, et qui a donc pour dogmes l’étalon or et l’équilibre budgétaire.

La Seconde Guerre Mondiale renverse ces rapports de force. De nombreux capitalistes y ont perdu leurs biens, comme peuvent le montrer les statistiques fiscales sur les hauts revenus, et quand ils ont pu conserver leur entreprise, ils ont souvent subi l’opprobre à la Libération pour ne s’être pas suffisamment opposés à l’occupation allemande. En revanche, du côté de la Résistance sont surreprésentés les partisans d’une économie dirigée, et ce d’autant plus qu’ils ont vu fonctionner avec succès les économies de guerre américaine et britannique. Il est désormais acquis que l’orthodoxie libérale a vécu mais à la fin de la Libération on peut tout de même distinguer deux camps.

D’un côté les partisans de la table rase, parmi lesquels se rangent les socialistes et notamment Pierre Mendès France ; pour eux, les principaux responsables de la chute de la France depuis 1929, ce sont les dirigeants d’entreprises et leur immobilisme (on parle alors de « malthusianisme économique ») et il faut donc les écarter en nationalisant lorsqu’il s’agit de grosses entreprises, en freinant l’inflation, qui permet de mettre à l’abri les producteurs incompétents, et enfin en taxant les grandes fortunes pour permettre à l’économie de repartir sur des bases plus justes. L’autre groupe est celui des planificateurs « néo-libéraux », parmi lesquels on peut ranger Jean Monnet. Ils sont bien conscients que la France ne peut faire l’économie d’une coordination des décisions économiques pour reconstruire le pays. Mais pour eux, cela ne doit pas se faire contre les capitalistes et surtout ils ne croient pas que les fonctionnaires fassent de bons chefs d’entreprises. Ils proposent donc que l’économie soit coordonnée par l’Etat mais que les orientations d’ensemble doivent se décider de manière concertée avec les chefs d’entreprises, dans le cadre des Commissions de Modernisation du Plan.

Dés 1946 et la démission de Pierre Mendès France, il apparaît que le premier groupe a perdu : l’inflation ne sera jamais jugulée, l’impôt sur la fortune ne sera pas mis en œuvre avant 1981, les nationalisations sont réduites à la portion congrue, le Plan prendra exactement la forme voulue par Jean Monnet. En réalité, cette victoire a été largement influencée par le Plan Marshall : il est beaucoup plus facile de se « concerter » lorsque l’on doit partager de l’argent tombé du ciel. Surtout, les Résistants de l’époque avaient l’impression que la guerre avait largement profité aux capitalistes alors que c’est exactement l’inverse qui s’est produit : l’Occupation a été de très loin la période de redistribution la plus importante du 20ème siècle. Dés lors, on peut comprendre que les industriels encore en place après une telle purge aient su trouver les arguments pour faire pencher la balance en faveur du groupe « néo-libéral ».

Comment peut-on lier la croissance des 30 Glorieuses à ces joutes idéologiques ? C’est finalement la question qui nous intéresse le plus aujourd’hui. Mais l’historien ne peut plus guère nous aider à ce stade, il s’agit de faire parler les chiffres et un peu de théorie économique. Nos statisticiens de l’INSEE ont ainsi décomposé les facteurs de la croissance du PIB sur la période 1929-1963 :


C’est un graphe assez classique en comptabilité de la croissance. Il permet simplement de voir quelle est la part des causes observables de la croissance économique (investissements physiques, capital humain, etc.) et quelle est la part des facteurs inobservables (ce qu’on appelle le résidu). Il est classique d’obtenir un résidu élevé mais ce que Carré, Dubois et Malinvaud remarquent, c’est que ce résidu est particulièrement élevé en France par rapport aux estimations réalisées en Allemagne, aux Etats-Unis et en Angleterre. L’explication donnée par les auteurs à ce dynamisme français est une très forte capacité d’adoption de nouvelles techniques ainsi que de nouvelles méthodes de gestion (sans être beaucoup plus précis). Mais qui en est réellement responsable ?
Ici s’arrête la comptabilité et commence l’explication. Deux thèses s’affrontent, avec chacune leur part de vérité. D’une part celle du rattrapage : la France était sortie d’un chemin de croissance forte après 1929, elle ne ferait que le retrouver spontanément après-guerre. D’autre part, on a la thèse du choc de la défaite et du renouveau de la Libération : le triomphe de l’Etat, par le biais du Plan et des nationalisations, aurait fait entrer l’économie française dans un nouvel âge, débarrassée de ses habitudes malthusiennes d’antan. Qui a raison, qui a tort ? La première thèse souffre d’un problème : elle ne permet pas d’expliquer pourquoi la France s’est perdue après 1929. La deuxième thèse fait peu de cas de la période de croissance des années 20 : à l’époque le dynamisme économique allait sans Etat fort, pourquoi en irait-il autrement après 1945 ?
La synthèse passe par une analyse de la répartition des revenus ; s’il y a un choc bien identifié juste avant et surtout pendant la guerre, c’est une euthanasie des gros détenteurs de capital à très forte puissance, comme le montre ce graphique tiré du livre de Thomas Piketty :


Cela a probablement permis aux patrons les plus entreprenants d’émerger plus facilement après-guerre. Et ce sont ces personnes qui porteront les innovations techniques et gestionnaires de l’après-guerre, au moins autant que les rares entreprises nationalisées. L’Etat français n’a été ni plus ni moins intelligent que dans les autres pays : il fallait avoir un Plan pour la reconstruction, c’est évident, mais ce Plan ne permet pas d’expliquer la croissance d’après 1950 ; quant aux autres interventions dans l’économie, elles ont pris place de la même manière que dans toutes les autres économies développées de l’époque. Nul besoin d’exhiber un rapport de forces favorable à la classe ouvrière pour comprendre la sécurité sociale ou la nationalisation des entreprises de transport et d’énergie, il suffit pour cela de suivre un bon cours d’économie publique !

Quel souvenir faut-il donc garder des 30 Glorieuses ? Celui d’un rattrapage technologique porté par les entreprises privées mais permis par un renouvellement brutal des élites dirigeantes et soutenu par des interventions d’Etat raisonnables. La leçon est toujours la même : si vous voulez croître, il faut écarter les rentiers (si possible sans guerre ni révolution) ET faire fonctionner correctement les marchés. En bref, du Mendès France et du Monnet.
_Laurent_

Lire la suite...

mercredi 4 avril 2007

Où sont les Gauloises ?


Je ne doute pas, cher lecteur, que tu te sois posé gravement cette question en parcourant la liste des contributeurs de ce blog. Car cette liste, je te l’accorde, fleure bon la testostérone, le bitume et la cervoise, bien que nous ayons la chance de compter dans nos rangs l’une des rares blogueuses économistes de Gaule (et encore... au village, Noblabla s’occupe avant tout de l’économie du logis, option tâches domestiques). Et c’est parce que, comme toi, nous sommes préoccupés par cette situation, que nous avons essayé de déchiffrer l'origine des inégalités de salaires entre les hommes et les femmes, avant de suggérer (dans un prochain post) quelques pistes de réforme pour essayer de les corriger.

Les Gaulois ne sont pas réputés pour être de grands défenseurs de la cause des femmes. Certes, comme le rappelle ce document, publié récemment par la Commission européenne, le tableau est sans doute moins noir que notre réputation de rudes machos ne pourrait le laisser penser a priori : on y découvre que les Gaulois font plutôt mieux que les autres peuples européens en matière d’écart de rémunération, d’accès aux postes de chefs d’entreprise (1er rang en Europe avec 36% de chefs d’entreprises qui sont des femmes), où encore d’accès aux postes de professeurs des universités (13% des universitaires gauloises ont le rang de professeur, contre 6% en Europe). Pas de quoi se décerner la palme de l’égalité professionnelle pour autant. Dans l’ensemble, la situation telle que la révèlent les chiffres de la Commission est plutôt inquiétante : les inégalités entre les hommes et les femmes sur le marché du travail restent importantes et ne semblent pas avoir diminué au cours des 10 dernières années.

Pour y voir plus clair, intéressons-nous à une question débattue depuis fort longtemps par les économistes, et que l’on peut formuler très simplement : Pourquoi les femmes sont-elles moins bien payées que les hommes ?

La réponse à cette interrogation est loin d’être évidente. Prenons l’exemple gaulois : en moyenne, le salaire mensuel des femmes y est inférieur de 30% à celui des hommes. Cela signifie-t-il que les Gauloises sont victimes d’une discrimination salariale qui ampute leur rémunération d’un tiers ? Non, car ce serait oublier que les écarts de rémunération entre hommes et femmes peuvent avoir d’autres causes. Traditionnellement, les économistes distinguent trois composantes de l’inégalité salariale hommes-femmes :

1/ Les écarts de salaires peuvent d’abord provenir de différences entre les caractéristiques intrinsèques observables des hommes et les femmes : par exemple, si les femmes sont en moyenne moins diplômées que les hommes, ou ont accumulé moins d’expérience professionnelle en raison de plus fréquentes interruptions d’activité, alors il est logique que cela se traduise par une rémunération moyenne plus faible.

2/ Les inégalités de salaires peuvent également s’expliquer par le type d’emploi que les femmes occupent : si elles sont davantage à temps partiel que les hommes, leur rémunération sera pour cette raison inférieure, dans la mesure où le salaire mensuel associés aux emplois à temps partiel est par définition plus faible que celui des emplois à temps complet.

3/ Enfin, les femmes sont potentiellement victimes de discrimination salariale : ce sera le cas à chaque fois qu’une femme présentant exactement les mêmes caractéristiques (enfin… presque : même diplôme, même âge, même expérience professionnelle, etc.) et occupant exactement le même emploi qu’un homme (même secteur, même fonction…) gagnera néanmoins un salaire inférieur.

Que nous apprennent les études empiriques consacrées aux écarts de rémunérations hommes-femmes sur la part respective de ces différents facteurs ? En utilisant une technique d’estimation baptisée « décompositions de Oaxaca » et assez populaire dans les études empiriques consacrées à ce sujet, Dominique Meurs et Sophie Pontieu (dans « Une mesure de la discrimination dans l’écart de salaire entre hommes et femmes », Economie et Statistique n°337-338, 2000) proposent la décomposition suivante :


D’après ce tableau, pour l’ensemble de la population (deux premières colonnes), 40,9% de l’écart salarial total proviendrait de la durée du travail (30 % des femmes occupant un emploi à temps partiel contre seulement 5 % des hommes) ; 43,7%, de leurs caractéristiques individuelles (moindre expérience professionnelle, en raison notamment des interruption d’activité liées à la maternité et à l'éducation des enfants) ou des caractéristiques des emplois occupés (plus souvent dans le public et dans le secteur tertiaire) et seulement 15,4% de cet écart serait « inexpliqué » par les facteurs structurels, ce qu’on interprète généralement comme une mesure de la discrimination salariale « pure ».

Cela signifie-t-il pour autant que la discrimination n’est qu’un facteur marginal dans l’explication des écarts de salaires entre les hommes et les femmes ? Rien n’est moins sûr, pour au moins deux raisons.

1/ D’une part, l’étude de Meurs et Ponthieu montre que lorsqu’on se limite aux salariés à temps complet (deux dernières colonnes du tableau), la part « inexpliquée » des écarts de salaires est beaucoup plus élevée : les caractéristiques structurelles n’expliquent plus que 52% de l’écart salarial, les 48% restants pouvant être imputés à la discrimination salariale « pure ». Cela signifie qu’il ne suffit pas de promouvoir l’accès des femmes aux emplois à temps complet pour espérer annuler leur retard salarial sur les hommes.

2/ Plus fondamentalement, l’approche précédente, bien qu’éclairante sur le plan conceptuel, privilégie une conception trop étroite de la notion de discrimination. Car la discrimination salariale « pure » n’est pas la seule forme de discrimination à laquelle se heurtent les femmes sur le marché du travail. Prenons l’exemple du temps partiel : si certaines femmes décident librement de travailler à temps partiel (pour élever des enfants, prendre en charge un parent ou encore suivre une formation), nombreuses sont celles qui déclarent ne pas travailler à temps partiel par choix, mais par contrainte. D’après cette étude de l'Insee, si 31% des femmes travaillant à temps partiel ont choisi de le faire pour des raisons d’ordre familial, elles sont plus de 37% à déclarer le subir, faute d’avoir trouvé un emploi à temps plein. Par ailleurs, la discrimination subie par les femmes passe par l’existence d'une forte ségrégation des emplois, à diplôme donné : on constate par exemple que parmi les bacheliers, les hommes sont 40 % à occuper un emploi de cadre, contre seulement 7 % chez les femmes. Plus on monte dans l’échelle des qualifications, plus les femmes semblent se heurter au fameux « plafond de verre » qui limite leur accès aux postes à responsabilités.

Même si la frontière n’est pas aisée à tracer entre la discrimination salariale plus ou moins directe et l’effet des caractéristiques observables des femmes et des emplois qu'elles occupent, il n’en demeure pas moins que les différentes composantes de l’inégalité salariale entre les hommes et les femmes semblent bien résister aux progrès de l’égalité professionnelle. Après une longue période de réduction de l’écart salarial hommes/femmes, sous l’effet principalement de l’amélioration du niveau de qualification des femmes, plus rapide que celui des hommes, l’écart global semble s’être stabilisé autour de 30% pour l’ensemble des salariés depuis le début des années 1990 et autour de 18% pour les salariés à temps complet, comme le montre le graphique ci-dessous :


Pour expliquer cette stagnation, les économistes invoquent généralement trois séries de facteurs qui ont eu tendance à renforcer les trois composantes de l’inégalité salariale entre les sexes :

1/ Du côté des caractéristiques observables, le principal enseignement des études empiriques est que les femmes continuent de sacrifier une grande partie de leur carrière professionnelle à l’éducation de leurs enfants, à travers des périodes d’interruption d’activité qui les pénalisent à double titre : en réduisant leurs gains salariaux liés à l’accumulation de l’expérience professionnelle, d’une part ; en les exposant aux difficultés de la réinsertion sur le marché du travail, d’autre part. Cette note de l’Insee montre ainsi que si les salaires de début de carrière des femmes sont aujourd'hui très proches de ceux des hommes, l’écart salarial continue d’augmenter tout au long de leur carrière professionnelle, même pour les générations les plus récentes. Cela semble indiquer qu’aujourd’hui, ce n’est pas avant tout parce qu’elles subissent une discrimination salariale à l’embauche que les femmes sont moins bien payées que les hommes, mais parce qu’elles « décrochent » progressivement en raison de leur investissement familial : entre 20 et 30 ans, on estime qu’à emploi comparable dans le secteur privé, la progression salariale d’une femme est deux fois plus faible que celle d'un homme.

2/ Du côté des caractéristiques des emplois occupés par les femmes, il est avéré que les dispositifs d’exonérations de charges sociales mis en place à partir du début des années 1990 (et sur lesquels nous ne manquerons pas de revenir dans ce blog) ont favorisé le développement du travail à temps partiel et la création d’emplois peu qualifiés, très largement pourvus par des femmes, ce qui a eu pour effet de ralentir le rapprochement de leurs rémunérations de celles des hommes

3/ Enfin, la part « inexpliquée » des écarts salariaux, ou discrimination salariale pure, est restée étonnamment stable, malgré les nombreuses professions de foi qui ont accompagné la revendication de l’égalité professionnelle pour les femmes au cours de la décennie 1990. Un des grands apports des études empiriques récentes consacrées à ce sujet a été de montrer à quel point la discrimination est un phénomène complexe à cerner et difficile à combattre, dans la mesure où il n'est pas toujours aisé de distinguer ce qui relève du choix de ce qui relève de la contrainte. Dans un livre qui fit pas mal de bruit lors de sa sortie (Women Don’t Ask : Negociation and the Gender Divide), Linda Babcock et Sara Laschever ont notamment montré qu'une certaine forme d'autocensure pouvait expliquer en partie la persistance d'une discrimination salariale largement intériorisée par les femmes. Une étude citée dans ce livre indique par exemple que le salaire d’embauche des diplômées en Master de l’université de Carnegie Mellon aux Etats Unis est inférieur de 7,4% à celui de leurs condisciples masculins, pour la simple raison que ces derniers sont plus nombreux à négocier leur salaire à la hausse. Ainsi, à compétences égales, il semblerait que les femmes très qualifiées aient davantage de scrupules à négocier leurs salaires que leurs homologues masculins.

Faut-il conclure de ce constat assez pessimiste que l’égalité salariale entre les sexes est à ranger au rayon des généreuses utopies ? Ce n’est pas sûr, à condition de savoir utiliser les instruments appropriés. Cette question fera l’objet d’un prochain post.

Bon, c’est pas tout ça mais je commence à avoir une petite soif, moi... Noblabla, pendant que t’es debout, tu voudrais pas m’apporter une cervoise bien fraîche ?
_Julien_

Lire la suite...

lundi 2 avril 2007

Mind the gap !


J’indique aux lecteurs de ce blog le site web gapminder qui permet de visualiser l’évolution des PIB des pays du monde depuis 1960. Je ne peux que recommander aux profs d’économie qui viendraient à errer sur notre blog d’aller voir ces graphiques animés. C’est un outil pédagogique très parlant pour expliquer l’évolution des inégalités dans le monde, les théories de la croissance et même des intuitions basiques d’économétrie.

Le graphique par défaut est l’évolution du PIB en abscisse et l’espérance de vie en ordonnée. Chaque pays est représenté par un disque dont la taille est proportionnelle à la population, chaque continent est d’une couleur différente et les données varient de façon animée dans le temps. Le mieux est de commencer par ralentir la vitesse de défilement des années afin de pouvoir repérer les pays en question en posant le curseur sur les bulles colorées.

On voit de façon frappante la Chine croître à une vitesse considérable depuis les années 1980, l’Inde suit avec une dizaine d’années de retard. Ces deux pays représentent la moitié de la population mondiale et influencent largement la moyenne mondiale. L’Afrique (en bleu) stagne désespérement en restant en bas à gauche avec l’espérance de vie la plus faible et sans croissance des revenus nationaux. Plus frappant encore est l’impact du Sida et des guerres sur les pays africains : l’Afrique du Sud voit son espérance de vie réduite avec la montée de l’épidémie, le Rwanda chute littéralement avec le génocide (l’espérance de vie atteint 20 ans !)... La Russie et les pays de l’ex-URSS voient aussi leur espérance de vie baisser dans les années 1990. De façon assez comique les pays du Golfe (petits en vert) zigzaguent de droite à gauche avec les prix du pétrole. A côté de ces faits majeurs, les différences entre nos pays développés sont à peine visibles. Il est possible d’utiliser la fonction zoom (en bas à droite) et d’obtenir un encadré d’un groupe de pays. Si l’on zoom sur les pays développés, un certain nombre de faits économiques récents apparaissent clairement : pendant les années 1960, les pays européens rattrapent les Etats-Unis et l’écart se creuse à nouveau pendant la décennie 1990. Un petit point jaune mérite un peu d’intérêt. Dans le groupe des pays riches, il a tendance à reculer par période et se rapproche peu à peu du groupe des pays de richesse intermédiaire : vous l’avez reconnu ? C’est l’Argentine.

Il y a quelques années, un vif débat sur l’évolution des inégalités dans le monde avait occupé la communauté des économistes. The Economist avait largement relaté l’opposition entre les chiffres proposés par Martin Ravallion de la Banque mondiale et ceux du professeur de l’université Columbia Xavier Sala-i-Martin. Ce dernier mettait en évidence que la pauvreté dans le monde était en forte réduction et ainsi que les inégalités entre individus du monde. Les chercheurs de la Banque mondiale, trouvaient que la pauvreté avait baissé dans le monde, mais en restant à un niveau très élevé (deux fois plus élevé que les chiffres de l’universitaire catalan) et que les inégalités entre pays étaient aussi importantes qu’auparavant. De nombreuses raisons expliquaient les différences de résultat entre les deux études (données différentes, échantillon de pays différent), mais un des points majeurs soulevés par ce débat était le poids que l’Inde et la Chine exercent sur la moyenne. Si l’on regarde l’inégalité uniquement entre pays (chaque pays est une observation), les inégalités ont tendance à s’accroître depuis une dizaine d’années. A l’inverse, si on pondère chaque pays par sa population, les inégalités ont tendance à se réduire (du fait de la croissance de l’Inde et de la Chine). Enfin, une troisième mesure consiste à comparer tous les individus du monde en utilisant les distributions de revenu au sein de chaque pays et la baisse de la pauvreté (réelle) est moins forte que dans la seconde mesure. A la figure ci-dessous, issue de The Economist (11 mars 2004), on retrouve cette vision opposée :


Pour les spécialistes : On peut même aller plus loin pour ceux qui sont familiers avec le modèle de Solow et les débats économétriques autour de sa validité. Si on régresse le taux de croissance des pays (comme une observation) sur leur niveau de richesse en 1960, on ne trouve pas la relation négative prédite par le modèle de Solow, mais si on contrôle pour le degré d’éducation, l’épargne et la croissance démographique (à la Mankiw, Romer et Weil, QJE 1992), on retrouve la prédiction de Solow que les pays plus pauvres doivent croître plus vite que les plus riches et donc les rattraper. C’est là qu’on peut discuter l’exogénéité du niveau d’éducation : n’est-il pas simplement corrélé au niveau de revenu ? est-ce que l’éducation est la source de la croissance ou seulement un signe de richesse ?… mais je sens que je perds des lecteurs, donc je vous laisse jouer avec cet outil formidable et méditer sur l’évolution des inégalités dans le monde.

On peut aussi changer les variables, comme la mortalité enfantine, le nombre de médecins, les dépenses militaires….
_Antoine_

Lire la suite...

vendredi 30 mars 2007

Vivre et laisser mourir ?


Lorsqu’en France, on veut exhiber le dynamisme de notre économie on montre le nombre faramineux de créations d’entreprises. En général, la réponse des déclinologues c’est de dire que tout ça n’est qu’illusion puisqu’une part très importante de ces nouvelles entités meurent peu de temps après leur naissance, selon l'INSEE. Et d’ailleurs, s’il y a un chiffre qui fait peur c’est bien celui des défaillances d’entreprises. Nous allons voir pourquoi il faudrait peut-être en réalité s’en réjouir (sans sadisme de notre part bien sûr !).

Comme tout le monde le sait aujourd’hui, le nerf de la croissance économique, c’est l’innovation. Par là, on n’entend pas seulement des bonshommes dans un labo qui découvrent la potion magique pour la vendre ensuite aux pauvres petits gaulois que nous sommes. L’innovation, c’est aussi des nouveaux types d’organisation du travail, des nouveaux services (y compris dans des secteurs très anciens tels le commerce de détail). En règle générale, on attribue au capitalisme cette faculté de générer plus d’innovations que tout autre système économique. Cela n’empêche pas l’intervention de l’Etat pour développer les connaissances, mais on sait qu’une économie d’entreprises est plus à même de sélectionner les connaissances les plus utiles pour la population. Cela veut-il dire qu’il faille s’inquiéter de la santé du capitalisme lorsqu’une part non négligeable de ces entreprises disparaît régulièrement ?

Nous allons voir que la réponse est non. Le problème de l’innovation dans une entreprise, c’est son coût ; il y a des dépenses en recherche-développement bien évidemment, mais aussi et surtout un coût d’opportunité : si je suis déjà le meilleur sur mon marché, innover ne m’apportera que peu de profits supplémentaires ; en revanche, si je pars de zéro, innover me permettra de dépasser les firmes en place et donc de générer un surprofit beaucoup plus conséquent. Ce raisonnement vaut surtout si le coût de recherche de l’innovation est sensiblement le même pour toutes les entreprises, c’est-à-dire lorsque l’innovation est dite radicale (et non incrémentale). Mais l’argument est encore plus fort s’il est coûteux pour une entreprise en place de changer d’organisation du travail : bouger les habitudes prises, faire comprendre la nécessité du changement, cela prend effectivement du temps et de l’argent. Or coût est nécessairement moins élevé lorsque l’on part de zéro. Pour toutes ces raisons, les innovations les plus radicales ont plus de chances d'être portées par de jeunes entreprises.

Si l’on croit à tout ceci, une économie efficace détruirait et créerait certainement beaucoup plus d’entreprises que dans la réalité, avec à la clé une croissance économique plus forte. Qu’est-ce donc qui freine ce processus ? En grande partie les entreprises en place qui, du fait même de leur présence, empêchent le développement de nouvelles entreprises plus innovantes : elles peuvent temporairement livrer une guerre des prix, les clients peuvent prendre beaucoup de temps avant de changer leurs habitudes de consommation, etc. Si la nouvelle entreprise n’a pas les reins solides et les fonds nécessaires pour résister à cette période difficile, l’innovation qu’elle porte ne prendra pas place dans l’économie. La conclusion, c’est donc que la mort des entreprises peut favoriser le lancement d’innovations : la nature ayant horreur du vide, de nouveaux acteurs pourront plus facilement entrer sur le marché en mettant en œuvre des techniques plus récentes.

Cet argument n’est pas neuf, Joseph Schumpeter l’a exposé le premier en parlant de « destruction créatrice ». Mais en général, on ne saisit pas bien sa portée : ici, les disparitions d’entreprises sont au moins aussi importantes que les créations dans le processus de croissance. Il est certes important d’encourager les vocations d’entrepreneur, mais il l’est peut-être encore plus de ne pas donner trop de chances de survie aux entreprises en place. A l’extrême, l’exemple le plus parfait de « destruction créatrice » dans l’histoire de France, c’est la Seconde Guerre Mondiale : de vieilles usines ont été détruites, des capitalistes bien en place ont été expropriés, on a empêché les vieux cartels de se reformer, tout ceci a certainement été une des raisons du « rattrapage » de l’après-guerre.

Comment savoir si la « destruction créatrice » est encore forte en France ? La seule manière de faire est probablement de comparer notre situation avec celle des autres pays développés. Nous allons donc analyser l’origine et l’âge des 300 entreprises du monde dont les dépenses en recherche-développement étaient les plus importantes en 2005, selon un classement réalisé par le ministère de l'industrie britannique. Rapidement, on voit que 59 entreprises sont nées après 1960, la plupart dans des secteurs dont les innovations ont été « radicales » (informatique et biotechnologies), ce qui confirme notre raisonnement précédent. Mais sur ces 59 entreprises, 53 sont américaines et deux seulement sont européennes, Vodafone et SAP. Ceci ne veut pas dire que l’Europe est un pur imitateur puisque les entreprises européennes incluses dans ce classement dépensent au total autant en recherche-développement que les entreprises américaines. Simplement l’Europe est capable de générer beaucoup d’innovations « incrémentales » mais très peu d’innovations « radicales » par rapport aux Etats-Unis. Tirons aussi de ce classement la conclusion que la France est loin d’être seule dans son retard en la matière.

Beaucoup pensent que cette différence est liée à un goût du risque plus important chez les Américains, mais ceci est infirmé par la plupart des études psychologiques et expérimentales en la matière, comme l'ont bien exposé Augustin Landier et David Thesmar. Reste donc la possibilité que d’une part les entreprises en place mènent une vie trop dure aux petits nouveaux en Europe, et d’autre part les nouveaux entrepreneurs ne disposent pas de fonds suffisants en Europe pour faire face aux acteurs en place. Autrement dit, en France et en Europe, les entreprises ne sont pas assez fragiles et le système financier pas assez développé pour aboutir au niveau d’innovation radicale des Etats-Unis.

Laissons de côté les faiblesses financières européennes et focalisons-nous sur les raisons de la trop forte résistance des entreprises en place. Un élément important est qu’il il y a en France une tradition de sauvetage par l’Etat des entreprises en difficulté, officiellement pour préserver l’emploi. L’argument consiste à dire qu’en l’absence de possibilités de reconversion professionnelle les employés de l’entreprise défaillante ne seront pas capables de trouver un emploi convenant à leur spécialisation. Les études empiriques ne semblent pas confirmer cela : en France en 2005, une destruction d'emploi dans un secteur donné a 90% de chances de correspondre à une création d'emploi dans le même secteur, d'après l'INSEE. Ceci tout simplement parce que les nouveaux entrants n’innovent pas à partir de rien, ils ont aussi besoin d’employés disposant d’un savoir-faire spécifique au secteur en question. A priori donc, les personnes ayant le plus intérêt à un sauvetage de l’entreprise sont celles qui disposaient d’une rente grâce à cette entreprise, soit le plus souvent ses propriétaires et ses cadres dirigeants. Or ces personnes disposent aussi de bons moyens d’influencer l’action publique en faveur du sauvetage de leur entreprise. On pourrait citer d'autres politiques ayant sensiblement les mêmes origines et les mêmes effets, tels la réglementation des ouvertures de grandes surfaces commerciales. Ce qui est certain, c'est qu'en empêchant la mort des entreprises, toutes ces mesures sont très défavorables à l’innovation sans qu’elles préservent véritablement l’emploi.
Et quand bien même il y aurait encore trop de salariés visiblement mis sur le carreau par la concurrence autochtone ou étrangère (ce que les chiffres ne montrent pas), on sent bien que de telles souffrances ne relèvent pas d'une politique industrielle défensive (au coût par emploi sauvé faramineux) mais de la politique de l'emploi.

Enfin, la « destruction créatrice » ne signifie pas uniquement grand nombre de faillites, mais aussi grand nombre de transmissions d’entreprises (que l'on mesure très mal en France) : l’innovation a plus de chances d’être mise en œuvre si les machines, les usines peuvent facilement changer de mains. A cet égard, la fiscalité est un outil à double tranchant : une forte imposition sur le capital et les hauts revenus incite à vendre tout ou partie des parts d’entreprise que l’on possède et donc accélère la circulation du capital, mais une fiscalité qui favorise les transmissions d’entreprise héréditaires (comme c’est le cas en France) est encore pire que pas d’impôts du tout pour la mobilité du capital. Et là encore la transmission d’entreprises sera d’autant plus simple que les repreneurs éventuels seront capables de trouver facilement des fonds pour le rachat.

Laisser mourir les entreprises, encourager leur vente nous rapprocheraient donc de la situation américaine ; mais cela ne se ferait-il pas alors au prix d’inégalités fortes comme on le constate aux Etats-Unis ? Il apparaît que non car d’une part ce renouvellement incessant permet probablement d’accroître la mobilité sociale (ce que disait déjà Schumpeter) et d’autre part il peut être encouragé comme on l’a vu par une fiscalité fortement progressive. Encourager la destruction créatrice est donc plus que compatible avec les deux objectifs d’égalité des chances et d’égalité des situations.
_Laurent_

Lire la suite...

jeudi 29 mars 2007

Eugenix ?


Je conçois déjà ton chagrin, cher lecteur, quand tu vas t’apercevoir dans quelques lignes, que ce post ne traite pas des Banques de sperme des Prix Nobel ! (Pour ceux qui seraient néanmoins intéressés par cette question, tous les détails de l’affaire se trouvent ici). Malheureusement, les économistes, pour ceux qui en douteraient encore, sont des gens beaucoup plus (trop ?) sérieux que cela. C’est donc, plus prosaïquement, à un voyage au pays des échelles d’équivalence qu’Ecopublix vous convie aujourd’hui (émotion garantie, vous pourrez toujours vous plaindre au modérateur) ! Ce petit voyage pose une question simple : notre politique familiale serait-elle imperceptiblement teintée des préceptes eugénixtes du bon vieux Charles Darwin ?

Ecoutons le grand homme :

« Nous devons supporter les effets indubitablement mauvais de la survie des plus faibles et de la propagation de leur nature ; mais il apparaît ici qu’il y a au moins un frein à cette action régulière, à savoir que les membres faibles et inférieurs de la société ne se marient pas aussi librement que les sains ; et ce frein pourrait être indéfiniment renforcé par l’abstention du mariage des faibles de corps et d’esprit »

Simple, et de bon goût !

Un petit détour par les échelles d’équivalences est nécessaire pour comprendre en quoi notre politique familiale est peut-être plus eugéniste qu’il n’y paraît. De quoi s’agit-il exactement ? Les échelles d’équivalence, ce sont ces barèmes d’unité de consommation, qui permettent de tenir compte des économies d’échelles liées à la composition familiale. En gros, vivre à deux, ou à trois, ou à quatre, engendre des coûts supplémentaires, certes, mais génère aussi des économies : mutualisation d’un certain nombre de dépenses, rendements souvent croissants de la « production » domestique, etc. Ces économies d’échelle dans la consommation doivent impérativement être prises en compte dès lors que l’on veut comparer les niveaux de vie des ménages dont la composition familiale est différente. Car une famille de trois enfants gagnant 2000 euros nets par mois ne saurait se comparer à un célibataire touchant le même revenu. Comment font les économistes pour construire ces échelles ? Tout le problème tient à la quantification de ces fameuses économies de consommation réalisées. Ces économies ont d’ailleurs toutes les chances de dépendre de la nature des biens consommés : je ne fais pas les mêmes économies sur les yogourts et sur l’électricité ! Une idée simple, étant donné que les enquêtes ne peuvent différencier les consommations du ménage selon la personne du ménage, est de se servir des pratiques de consommation effectivement observées sur les ménages en fonction de leur composition familiale. Si, toutes choses égales par ailleurs, une famille de trois enfants a tendance à consommer 30% de plus qu’une famille de deux enfants, on en conclura que le troisième enfant vaut 0,3 unités de consommations. On le voit, plus les économies réalisées par individu supplémentaire dans le ménage sont fortes, moins chaque personne représentera d’unités de consommation. A l’opposé, en l’absence de ces économies d’échelles, chaque membre supplémentaire d’un ménage compterait pour 1 unité de consommation.

A partir de ce type d’études empiriques, plusieurs échelles ont été proposées. La plus communément utilisée aujourd’hui est celle dite « OCDE modifiée ». Elle attribue une unité de consommation au premier adulte, puis 0,5 à chaque adulte supplémentaire, et 0,3 unité pour tout enfant de moins de 14 ans. Evidemment, cette échelle ne saurait représenter parfaitement les économies réalisées par tous les ménages, dans tous les pays, à tous niveaux de revenu. Mais son avantage est d’être utilisée par tous, et donc d’offrir une comparabilité des résultats dans le temps et l’espace particulièrement appréciable.

A côté des ces échelles empiriques, il est amusant d’observer que les échelles d’équivalence connaissent de facto une traduction légale au travers des barèmes des prestations sociales et familiales accordées par les pouvoirs publics. En effet, la modulation des prestations selon la situation familiale repose sur des échelles implicites d’équivalence : on donne 440 euros de RMI à une personne seule, mais 661 euros à une personne en couple, car l’Etat vise à maintenir le même niveau de vie selon les situations familiales (objectif de solidarité horizontale). On le voit dans cet exemple, l’Etat considère donc qu’au niveau du RMI, une personne adulte supplémentaire représente 0,5 unité de consommation en plus ((661-440)/440=50,2%).

Et là, ça devient franchement drôle. Car quand l’on calcule les échelles d’équivalences implicites prévalant pour les différents dispositifs de politique sociale et familiale en France, voilà ce que l’on trouve (pour plus de détails, voir Colin et Guérin « Quelles prise en compte de la taille du ménage dans le système français de transferts sociaux-fiscaux ? » Document de Travail, DSDS, INSEE, 2005).

On le voit, le quotient familial, qui s’applique aux contribuables imposables (donc les 50% des foyers aux revenus les plus élevés), a tendance à considérer que ces économies d’échelle sont faibles voire nulles à ces niveaux de revenus, tandis que pour les autres prestations, qu’elles soient universelles (comme les allocations) ou ciblées sur les bas revenus, elles ont tendance à prendre en compte de fortes économies d’échelles familiales. Autrement dit, le système socio-fiscal français est beaucoup plus généreux avec les enfants de ménages riches qu’avec les enfants de ménages pauvres…

Bien sûr, comparer prestation par prestation n’a pas forcément grand sens. C’est pourquoi, en effectuant des micro-simulations de l’impact de toutes ces prestations sur les ménages, on peut obtenir une mesure de l’équivalence implicite du système socio-fiscal dans son ensemble, et ce pour différents niveaux de revenus. Le résultat est assez troublant : au niveau des très hauts revenus, le conjoint représente implicitement une unité de consommation et les 2 premiers enfants supplémentaires presque 0,4, quant au troisième, il représente aux yeux du système socio-fiscal presque 1 unité ! C’est une échelle beaucoup plus généreuse que celle qui prévaut à des niveaux de revenu inférieurs…

Du coup, on peut interpréter ces chiffres de deux manières :

1/ On peut d’abord penser que la puissance publique est capable de prouver que les ménages riches ne font pas d’économie d’échelle à vivre à deux, à la différence des ménages pauvres (du genre, les riches ont deux chambres séparées pour les conjoints, tandis que les pauvres, qui n’ont pas de chauffage peuvent partager le lit pour se réchauffer !). Ou encore que le coût d’un enfant riche est proportionnellement beaucoup plus fort que celui d’un enfant pauvre. (En soi, ce n’est pas impensable, mais tout de même, de tels écarts sont stupéfiants !)

2/ L’autre solution c’est d’admettre que parfois l’Etat fait sans doute plus que compenser les charges de famille. Indirectement donc, il soutient plus directement la nuptialité et la fécondité des ménages riches que celles des ménages pauvres (si l’on admet que les ménages réagissent de la même manière aux incitations financières quel que soit leur niveau de revenu, ce qui, en soi, n’a rien d’évident) !

Un brin eugéniste, donc, notre système socio-fiscal ? Pas forcément étonnant, me direz-vous, lorsque l’on sait la place prépondérante occupée par les réflexions des associations familiales et natalistes dans la genèse de la politique familiale française. Oui, mais tout de même, il est amusant d’en constater les séquelles un demi-siècle plus tard !

Pour une discussion des conséquences économiques de l’eugénisme, nous verrons plus tard, si ça ne vous dérange pas. Mais sachez tout de même que l’eugénisme, petits économistes, n’est pas forcément un mal pour vous... Songez aux mots de Platon dans la République :

« Créer des unions au hasard serait une impiété dans une cité heureuse. Il est donc évident qu'après cela nous ferons des mariages aussi sains qu'il sera en notre pouvoir ; or les plus sains seront aussi les plus avantageux. Quant aux jeunes gens qui se seront signalés à la guerre ou ailleurs [ce n’est pas totalement explicite, mais Platon pense très forts aux docteurs en économie ici !], nous leur accorderons, entre autres privilèges et récompenses, une plus large liberté de s'unir aux femmes » !

I love it ! (sorry Noblabla…)
_Camille_

Lire la suite...

mardi 27 mars 2007

Evaluation des politiques publiques (3/7) : les techniques


Pour clarifier les enjeux, il faut clairement distinguer les objectifs et les moyens de l’action publique. Les objectifs sont de l’ordre des choix politiques des citoyens dans le cadre de la démocratie. Faut-il dépenser plus dans l’éducation ou dans l’armée, dans les retraites ou la recherche, pour l’aide au développement ou pour la santé ? A l’inverse une partie des choix des politiques publiques sont de l’ordre des moyens. Tout le monde s’accorde à vouloir un taux de chômage plus faible, mais la question est comment faire ? Faut-il faire des préretraites, les 35 heures, modifier le contrat de travail, modifier le système d’assurance chômage, mettre en place des baisses de charges sociales, modifier le salaire minimum, baisser les impôts, faire du déficit public… ?

Une première possibilité consiste à évaluer l’efficacité de ces différentes politiques en vue de l’objectif fixé et à juger si celles-ci ont des effets non désirés. Si par exemple améliorer la flexibilité du marché du travail permet de baisser le chômage en dégradant les conditions de vie des salariés, les citoyens sont en droit de refuser une telle politique en faveur d’une autre plus adéquate. Mais pour faire ce choix en connaissance de cause, il faut d’abord étudier quels sont les effets des différentes politiques proposées. Et ceci n’a rien d’évident.

La difficulté majeure de l’évaluation des politiques publiques vient du fait qu’il est techniquement difficile d’estimer « l’effet pur » des politiques publiques. On ne peut pas observer un même pays avec une politique x et sans cette politique. Toute la question de l’évaluation repose sur ce problème : il n’est pas possible d’observer le « contrefactuel » (ce qui ce serait passé si cette politique n’avait pas eu lieu).

Prenons l’exemple du CNE : on mesure qu’un an après l’introduction du nouveau contrat, 570 000 contrats ont été signés (de septembre 2005 à août 2006 selon l’Acoss). Qu’en conclure ?

  • Que le CNE a « permis de créer 570 000 nouveaux emplois » ? (ça serait le cas si l’on pouvait vérifier que, dans un monde sans CNE, le nombre d’emplois créés serait inférieur de 570 000) ;

  • Que le CNE a « a simplement conduit à une substitution de CNE à des CDI » ? (ça serait le cas si l’on pouvait vérifier que, dans un monde sans CNE, au bout d’un an 570 000 nouveau CDI auraient de toutes les façons été créés).


Le problème fondamental est qu’une « France sans CNE » n’existe pas en même temps qu’une « France avec CNE » : estimer la causalité de l’existence du CNE sur l’emploi n’a donc rien d’évident !

L’approche la plus basique consiste à comparer l’emploi après avec celui avant l’introduction de la politique publique (en l’occurrence le CNE) qui nous intéresse. Or imaginons qu’au moment où le CNE est mis en place le dollar monte, l’Allemagne sort de récession ou encore l’hiver dure moins longtemps : comment peut-on faire pour savoir quelle part de ce qu’on observe attribuer au CNE et quelle part aux autres facteurs favorables qui se sont manifestés de manière simultanée ?

Une autre méthode consiste à comparer deux groupes, les entreprises touchées par le CNE (moins de 20 salariés) et les entreprises non touchées par le CNE (plus de 20 salariés) : peut-on déduire de la comparaison de ces deux groupes que la différence d’embauche est liée au CNE ? Pas vraiment. Cette différence représenterait l’effet du CNE uniquement si les entreprises de moins de 20 salariés et celles de plus de 20 salariés sont en tout points identiques quant à l’embauche et au cycle économique. Pas besoin de longues études d’économie pour être d’accord sur le point que ces deux groupes ne sont pas tout à fait comparable : le biais de sélection est évident.

Les économistes ont alors cherché à utiliser des méthodes statistiques pour isoler l’effet de causalité et s’émanciper des biais de sélection. Pour établir des relations de causalité, la méthode la plus convaincante est de faire une expérience. On tirer au sort deux groupes, l’un « test » à qui la réforme est appliquée, l’autre « de contrôle », sert de groupe de comparaison. Le choix aléatoire des deux groupes les rend identiques et donc retire le biais de sélection. Si cette méthode a des atouts indéniables du point de vue scientifique, elle est coûteuse à mettre en place et fait souvent face à l’opposition de ceux qui considèrent l’expérimentation des politiques sociales comme non éthique.

Pour pallier le manque de telles expériences, les économistes ont recours à des expériences naturelles, c’est-à-dire l’étude de réformes ou de variations qui se rapprochent d’une expérience contrôlée (différents groupes touchés différemment). Une des méthodes les plus utilisées aujourd’hui (parmi d’autres méthodes), s’appelle « la double différence ». L’idée est de comparer la différence entre deux groupes (l’un touché par la réforme, l’autre pas) avant la réforme puis après la réforme. Si les deux groupes n’évoluent pas de façon différente (hormis à cause de la réforme), on va pouvoir identifier l’effet pur de celle-ci. Cette méthode a l’avantage d’être très transparente pour les évaluations et donc de pouvoir plus facilement convaincre des lecteurs non spécialistes. C’est un avantage considérable qui explique largement son succès. Toute la difficulté consiste à trouver des groupes tests et de contrôle convaincants, c’est-à-dire qui soient aussi similaires les uns des autres avant la réforme, comme s’ils avaient été tirés au sort.

Pour autant, la recherche économique qui s’est concentrée sur les évaluations de politiques publiques est beaucoup plus complexe et a développé bien d’autres méthodes, non pas pour maintenir le débat aux mains d’experts tout puissants, mais parce les questions en jeu sont d’une réelle complexité. Plusieurs exemples peuvent aider à préciser cette nécessité :

D’abord, l’effet à court terme peut être différent d’un effet à long terme. Par exemple, l’introduction du CNE peut conduire à court terme à la création de nouveaux emplois, mais qui vont progressivement se substituer aux CDI qui disparaissent. Ou, à l’inverse, la création d’un nouveau contrat de travail n’a que peu d’effet à court terme mais accroît à plus long terme l’embauche de tous les salariés.

Ensuite, une politique économique touche les individus de façon différente : certains peuvent réagir nettement d’autres pas du tout. Effectuer des simples comparaisons des effets moyens masque parfois la diversité des situations : il est possible que le CNE soit très efficace pour offrir des emplois à des jeunes sans qualification qui étaient exclus avant du marché du travail car les employeurs ne voulaient pas leur faire confiance pour un essai, mais que ce contrat soit destructeur de stabilité pour les plus qualifiés. Un effet moyen masque alors des situations très différentes, voire opposées (les économistes appellent ce problème l’hétérogénéité des réactions).

Enfin, le problème de l’équilibre général se pose de façon nette à tous les spécialistes de l’évaluation : une politique peut avoir un effet au niveau micro (en équilibre partiel) et avoir un effet net très différent une fois que son impact sur toutes les autres variables est pris en compte. Ainsi, si le CNE incite à la création d’emploi (hypothèse), les salaires vont réagir à l’augmentation de la demande de travail (ils risquent d’augmenter si l’offre de travail est contrainte), ce qui va faire baisser en retour la demande de travail (si la demande de travail est sensible à son coût) ou l’augmenter (selon un effet keynésien d’augmentation de la consommation). L’effet net d’une politique va dépendre au final d’un certain nombre de réactions de l’économie que les économistes cherchent à étudier séparément. Les méthodes des expériences naturelles ont l’avantage de mesurer un effet global à un moment donné, mais comme la décomposition des effets est difficile, elles se prêtent mal à des généralisations. Par exemple si l’introduction du CNE est évalué comme positif pour l’emploi (hypothèse), cela ne prouve pas que le CPE (qui vise un autre public) va être efficace.

Les méthodes d’évaluation des politiques publiques sont en amélioration permanente depuis une quinzaine d’année. Elles se sont diffusées depuis les universités (américaines) pour alimenter de larges pans de la recherche économique. Pour que ces innovations parviennent à alimenter des évaluations de qualité, il faut un contact permanent et intense entre les institutions qui mènent les évaluations et la recherche de pointe dans ces domaines. Il y a donc une seconde difficulté à l’évaluation, institutionnelle cette fois… Suite au prochain numéro !
_Antoine_ _Fabien_

Lire la suite...

lundi 26 mars 2007

Grand méchant marché ou gros méchants rentiers ?


Augustin Landier et David Thesmar ont frappé fort avec le lancement de leur livre « Le grand méchant marché » en pleine campagne présidentielle. Il ne s’agira pas ici de faire un résumé du livre, ce qui a déjà été très bien fait par Econoclaste, ici et . Mais s’agissant d’un sujet aussi médiatisé que « la finance ennemie de l’emploi », il est nécessaire de distinguer les éléments incontestables de leur thèse de leurs conclusions plus aventureuses et politiquement marquées.

Le livre commence par une succession de preuves théoriques et empiriques que la finance n’est pas l’ennemie de l’emploi et de la croissance. L’originalité repose ici sur les éléments économétriques de réponses à d’aussi vastes questions que : les marchés sont-ils myopes ? Y a-t-il des licenciements boursiers ? les offres publiques d’achat hostiles détruisent-elles de l’emploi ? Les fonds de pension et autres fonds de private equity appauvrissent-ils les salariés ?

La réponse va systématiquement contre la doxa française anti-finance, mais faut-il y croire ? La réponse est oui, à ceci près que la quasi-totalité de ces études a été réalisée sur données américaines. Les résultats de telles études seraient-ils qualitativement différents en France ? A priori non, et on peut même imaginer que les résultats seraient encore plus favorables aux marchés financiers en France : comme le capitalisme français se caractérise surtout par une reproduction de ses élites dirigeantes plus forte qu’ailleurs (via la famille (1) ou la haute fonction publique), les marchés financiers pourraient contribuer à dynamiser les entreprises en cassant les rentes détenues par les dirigeants d’entreprise actuels, générant ainsi des gains de productivité synonymes de hausse des salaires et de l’emploi.

Si Landier et Thesmar ont donc raison de démystifier les marchés financiers, leurs explications des réticences françaises actuelles sont beaucoup plus discutables. En gros, les Français ne seraient pas naturellement opposés aux profits, mais seraient en réalité coupables d’une erreur collective d’appréciation : ayant observé que les 30 Glorieuses étaient associées à des marchés financiers faibles et un Etat fort, alors même que c’était aussi une période de reconstruction, les Français ne seraient pas capables de voir que cette potion magique ne fonctionne plus dans la période normalisée que nous vivons aujourd’hui.

Pour nous en convaincre, les auteurs s’adonnent à un exercice d’histoire de la culture économique française qui n’a bien sûr pas autant de valeur que les études scientifiques dont il était question précédemment. Ils décrivent un marché financier très démocratisé avant-guerre, en se fondant principalement sur les travaux de Pierre-Cyrille Hautcoeur. Il y avait en effet autant de détenteurs de titres financiers en 1914 qu’au début des années 1980. Faut-il en conclure que la finance et le profit étaient très populaires à l’époque ? Peut-être pas autant que semblent le penser nos auteurs si l’on regarde la répartition de ces titres au sein de la population française de l’époque. A cet égard, les travaux de Thomas Piketty sur les hauts revenus, étrangement jamais cités dans le livre, sont d’une grande aide : il estime qu’au début du siècle le patrimoine des « 200 familles » (i.e. les foyers qui appartiennent au 10000ème de la population disposant des plus gros patrimoines) était environ 600 fois supérieur au patrimoine des « classes moyennes supérieures » (i.e. les foyers riches, donc faisant partie des 10% de la population les plus riches en patrimoine, mais pas trop, donc ne faisant pas partie des 5% de la population les plus riches en patrimoine), alors que ce ratio n’était plus que de 50 en 1994, la véritable rupture se situant sans surprise durant les années 1940. Sachant que le patrimoine est d’autant plus composé de titres financiers qu’il est gros, ces estimations minorent certainement la réalité concernant la répartition de la détention des titres financiers avant-guerre. Conclusion : à moins de considérer qu’un franc égale une voix, le marché financier français de la Belle Epoque n’avait rien de démocratique !

C’est d’ailleurs une constante du livre de choisir comme unique indicateur de la popularité des marchés financiers le nombre de détenteurs d’actions sans jamais considérer la concentration de ces détentions d’actions. Or, que l’on regarde les Etats-Unis ou la France, cette concentration est largement plus forte que la concentration des revenus : aux Etats-Unis en 1997, le centième de la population détenant directement ou indirectement (via fonds de pension, organismes de placement ou assurance-vie) le plus d’actions, détenait plus de 50% de la capitalisation totale. En France en 1997, ce chiffre était légèrement inférieur à 50%.

Pourquoi en est-il ainsi ? Il y a des raisons qui ne sont pas propres aux actions : parce que le patrimoine s’hérite et parce que les riches épargnent une part plus importante de leur revenu, le patrimoine est toujours plus concentré que le revenu. Néanmoins, les actions sont un titre bien particulier : elles sont censées donner un pouvoir sur la direction de l’entreprise, mais pour réellement compter au moment des décisions importantes il faut disposer d’une part suffisamment importante du capital d’une entreprise. On peut répondre à cela que les actionnaires peuvent s’associer via des fonds de pension. Mais là encore, en empruntant les concepts de la théorie de l’information, cela ne consiste qu’à faire surveiller un agent par un autre agent ! Autrement dit, si je ne fais pas confiance aux managers pour bien gérer l’argent que j’ai investi, pourquoi faudrait-il a priori que je fasse confiance à mon gestionnaire de patrimoine ? In fine, ce n’est donc pas parce que les actionnaires sont nombreux que le pouvoir est réparti de manière égalitaire.

Enfin, les auteurs n’évoquent que très succinctement les effets délétères des diverses crises financières qui ont émaillé la période : emprunts russes, crise boursière des années 30. Dans la mesure où ces évènements sont trop récents et imprévisibles pour qu’il soit garanti que rien de tel ne se reproduira, on peut comprendre cette réticence des Français à placer leur épargne en bourse. La survenance d’évènements rares mais très destructeurs est d’ailleurs un des principaux candidats dans la littérature théorique pour expliquer le dédain inexplicable pour les titres d’actions, en France comme ailleurs.

Ceci nous amène à leur conclusion selon laquelle la manière de réconcilier les Français avec le profit serait de favoriser l’éclosion des fonds de pension. En augmentant le nombre de Français propriétaires de nos entreprises, cela permettrait de modifier l’équilibre politique en faveur du profit. Or en réalité il est peu probable que l’on puisse créer en France une société de rentiers véritablement démocratique, pour les raisons citées plus haut : le pouvoir des actionnaires est dans les faits un pouvoir laissé à la fraction la plus riche de la population. Aux Etats-Unis, ce modèle est légitime car dans l’imaginaire américain, l’actionnaire, c’est Warren Buffett ou Bill Gates, des self-made-men auxquels on s’identifie facilement, alors qu’en France on pense plutôt à Ernest-Antoine Seillière et les rares exemples de réussite fulgurante sont considérés avec suspicion. Cet argument d’économie politique pour les fonds de pension est donc pour le moins douteux (2).

Que peut-on donc retenir de ce livre ? Certainement la peinture qu’il fait de nos dirigeants actuels. Lorsqu’il s’agit de grandes entreprises, les patrons sont trop souvent issus des mêmes cercles (haute administration, grandes écoles). Quant aux patrons de PME, ils sont trop souvent issus de la famille du fondateur. Tous s’abritent derrière la défense de l’intérêt général pour défendre leurs rentes. Mais pour changer cet état de fait, il n’y a pas qu’une seule politique possible telle qu’elle est proposée dans ce livre, qui consisterait à construire une société de rentiers doublée d’un marché du travail dérégulé, soit une intelligente politique de droite. Une autre solution passerait par une concurrence plus forte sur le marché des biens (3), une politique fiscale encourageant la mobilité du capital (4) et un système éducatif d’élite moins malthusien.


NOTES :

(1) Une étude récente de John Van Reenen et Nick Bloom portant sur des moyennes entreprises industrielles américaines et européennes conclut qu’environ 40% de l’écart de productivité entre entreprises françaises et américaines provient des trop nombreuses transmissions familiales d’entreprises en France.
(2) Ceci ne préjuge pas de l’inéquité des fonds de pension par ailleurs, pour autant qu’ils investissent dans des titres moins coûteux en acquisition d’informations pour l’investisseur (comme c’est le cas aux Pays-Bas) et/ou qu’ils soient gérés par des autorités publiques ou parapubliques (comme c’est le cas en Suède).
(3) Le cas du commerce de détail est ici particulièrement frappant, puisqu’une libéralisation dans ce secteur pourrait probablement créer des centaines de milliers d’emplois. On peut lire à ce sujet la toute récente étude de Philippe Askénazy et Katia Weidenfeld.
(4) A cet effet, le rôle de l’impôt sur les successions est capital et trop rarement souligné.
_Laurent_

Lire la suite...

dimanche 25 mars 2007

Evaluation des politiques publiques (2/7) : tout un programme


Pour alimenter les débat de ce blog, nous allons proposer sur des sujets précis des feuilletons de longue haleine. Nous commençons par l’évaluation des politiques publiques. Pourquoi ? Le sujet peut apparaître aride à certains, digne des débats des commissions du Sénat. Il est pourtant au cœur des motivations qui fondent l’existence de ce blog et de nos travaux de recherche et répond exactement au débat sur le chiffrage des programmes économiques des candidats à l'élection présidentielle.

Depuis le 21 avril 2002, la France semble faire l’expérience d’un décrochage entre citoyens et hommes politiques ou plus généralement entre les citoyens et les « experts » des politiques publiques. Les Français ont l’impression d’avoir abandonné leur souveraineté à des experts dont ils contestent les choix qu’ils soient bureaucrates à Bruxelles, énarques à Paris ou même statisticiens à l’Insee. Le succès des propositions de Ségolène Royal et de Nicolas Sarkozy repose largement sur la remise en cause de ceux-ci.

A l’inverse, le constat pratiquement inverse est partagé par les chercheurs en sciences sociales qui déplorent à chaque intervention dans le débat public combien l’évaluation des politiques publiques est en retard en France, combien les données disponibles pour mesurer l’efficacité des politiques sont d’accès difficiles et combien les politiques publiques répondent plus souvent à des impératifs électoraux qu’à des nécessités de long terme.

Ces deux constats sont-ils vraiment contradictoires, opposant la vision d’experts méprisant la démocratie à celle des citoyens qui souhaitent reconquérir une souveraineté disparue ? Notre conviction est qu’il s’agit, au contraire, du même problème qui vient des lacunes de notre système d’évaluation des politiques publiques.

Les administrations publiques taxent 45 % du PIB et en dépensent 48%. Cela représente près de 800 milliards d’Euros en 2005. Ces dépenses sont largement essentielles au fonctionnement de notre pays, la santé, l’éducation, la police, l’armée, les institutions judiciaires, les assurances de retraite, d’invalidité, de maternité, de chômage, l’aide au logement… la liste est longue et non exhaustive. La plupart des débats politiques tournent autour du niveau de prélèvement : trop élevé pour beaucoup, il faut faire des économies, arrêter le « grand gaspillage ». Un débat récent s’intitulait ainsi faut-il augmenter ou baisser les prélèvements obligatoires. Il s’agit finalement d’une vieille rengaine du débat économique : le secteur privé ou le secteur public doivent-ils fournir les biens et les services demandés par la collectivité. Nationalisation contre privatisation, économie administrée contre économie de marché, gauche contre droite ? Cette vision correspond à une vision idéologique de l’économie, un choix des moyens et non des objectifs. A l’inverse, l’approche par l’évaluation des politiques publiques repose sur l’idée que les objectifs sont d’ordre politique, résultat des choix des citoyens, mais que les moyens pour atteindre ces objectifs peuvent être plus ou moins efficaces et doivent donc être soumis à l’analyse.

Le débat économique français reste pourtant cantonné à une vision idéologique des politiques publiques. Les politiques sont classées plus ou moins à droite ou à gauche et on choisit les études économiques qui vont dans le sens du résultat escompté. Le problème est que le plus souvent les effets de ces politiques sont a priori inconnus pour ceux qui ne se reposent pas sur une croyance idéologique. Pour savoir si une politique est efficace, il faut le plus souvent l’évaluer. C’est un travail difficile, minutieux et qui nécessite l’honnêteté intellectuelle de celui qui le mène. Contrairement à une pensée répandue, on ne peut pas faire dire ce que l’on veut aux statistiques !

Pour mener à bien de telles évaluations, de nombreuses conditions doivent être réunies : des chercheurs proches de la recherche académique, évalués par leurs pairs de façon indépendante, mais suffisamment proches des administrations pour connaître les institutions en jeu et pouvoir transmettre leurs résultats au public par la presse.

On est très loin d’un tel système en France. Le constat se nourrit d’un cercle vicieux que l’on pourrait décrire ainsi : le débat économique est notoirement faible ; les journalistes sont souvent accusés de rédiger de piètres articles économiques et de répéter les poncifs idéologiques des uns et des autres. Mais il faut reconnaître que les journalistes n’ont pratiquement pas à leur disposition des analyses économiques de qualité, des conférences de vulgarisation où ils pourraient être conviés. On ne peut pas décemment demander aux journalistes de lire les revues scientifiques en anglais pour traduire à leurs lecteurs les avancées de la recherche économique ! Est-ce alors la faute des chercheurs français ? Pas vraiment. Ceux-ci n’ont pas d’institutions pour communiquer leurs résultats ; ne disposant pas de données françaises gardées jalousement par les administrations, ils se reportent sur les données étrangères (qui intéressent nettement moins le débat national) ou plus souvent sur les questions théoriques… du coup, on n’investit pas dans la recherche sous prétexte que les chercheurs vivent dans leur bulle. Et la boucle est bouclée.

Pour réconcilier les Français avec leurs politiques publiques, il faut deux conditions sine qua non : que celles-ci soient efficaces et que les Français comprennent pourquoi. L’évaluation est un exercice d’expertise et un exercice de citoyenneté. Pour paraphraser Ségolène Royal, « les experts sont des citoyens »…

Ce feuilleton va d’abord aborder la question du problème de l’évaluation (pourquoi évaluer est compliqué : techniquement et institutionnellement), puis faire un bilan de l’évaluation en France, à l’étranger et enfin proposera des réformes.
_Antoine_ _Fabien_

Lire la suite...