lundi 16 avril 2007

Astérix et le Financial Times


Le Financial Times consacre son édition d'aujourd'hui (lundi 16 avril) à l'élection présidentielle française. Un article a en particulier attiré mon regard du fait du dessin d'Astérix qui l'accompagnait (non reproduit dans l'édition en ligne). L'article est un entretien avec David Thesmar à propos de son dernier livre coécrit avec Augustin Landier et dont Capitalrix a déjà longuement parlé dans les colonnes de ce blog. Ce qui m'a troublé dans cet article, c'est l'association qui y est faite entre Astérix et une vision nationaliste et étriquée de la France. Astérix = José Bové = Le Pen. Mais le lecteur attentif des aventures de nos amis gaulois ne peut qu'être opposé à cette lecture partiale.

Les héros d'Uderzo et de Goscinny défendent, il est vrai, une certaine idée de la France, une certaine indépendance d'esprit, mais rien qui puisse s'apparenter a un quelconque extrémisme nationaliste : la lutte des Gaulois contre les Romains est bien plus la référence dans cette France d'après-guerre à la lutte de la Résistance contre l'emprise nazie (voir les références dans Astérix chez les Goths, dernière page, ou le passage à Lyon dans le Tour de Gaule...). Les amis des Gaulois dans les autres pays sont toujours présentés de façon sympathique, qu'il s'agisse des Bretons, les Helvètes, les Hispaniques ou les Indiens. Idéfix est un chien écologiste, mais s'il pleure quand on arrache un arbre, Panoramix et Astérix ont aussi à cœur de donner du travail aux esclaves (lire : le Tiers-monde) dans le Domaine des dieux.

Que les lecteurs du Financial Times qui viendraient à errer du côté d'Ecopublix ne concluent donc pas hâtivement de nos références à certains ancêtres gaulois que nous prônons l'apologie d'une identité nationale nauséabonde ou un appel au repli sur un passé glorieux. C'est au contraire une manière pour nous d'ironiser sur le chauvinisme national pour amener à réfléchir. D'ailleurs, Vercingétorix, c'était pas forcement glorieux !

Enfin, un peu d'autodérision n'ayant jamais fait de mal à personne, je dois avouer que la première idée qui m'est venue en voyant le dessin d'Astérix dans le Financial Times était de croire que leur article était consacré à.... Ecopublix ! Snif ;)
_Antoine_

Lire la suite...

vendredi 13 avril 2007

La propriété, c'est le vote ?


Pour répondre au problème du logement, qui s’est invité cette année de façon particulièrement insistante dans la campagne, les candidats proposent un grand choix de potions. Si certaines formules sont intéressantes, d’autres, comme la déductibilité fiscale des intérêts d’emprunts pour les ménages accédant à la propriété, une des priorités de Nicolas Sarkozy, mais aussi une des propositions de l’UDF, ne constituent certainement pas la recette de la potion magique en matière de logement, bien au contraire.

L’objectif affiché d’une telle mesure est de baisser le coût d’achat d’un logement pour inciter les ménages à accéder à la propriété, comme l’indique clairement le discours du 14 janvier de Nicolas Sarkozy qui propose « que l’on fasse de la France un pays de propriétaires, parce que lorsqu’on a accédé à la propriété on respecte son immeuble, son quartier, son environnement… et donc les autres ». Or, si l’objectif de faire de la Gaule un village de propriétaires est déjà discutable d’un point de vue économique, il a de toutes façons peu de chances d’être atteint avec l’instauration de la déductibilité fiscale des intérêts d’emprunts.

En effet, la mesure risque d’abord d’avoir un impact inflationniste sur les prix immobiliers (comme cela l’a déjà été expliqué ici par Etienne Wasmer). Si la déductibilité des intérêts d’emprunt fait dans un premier temps baisser le coût d’acquisition d’un logement, les ménages devraient logiquement être plus nombreux à vouloir acheter, ou chercher des logements plus grands. Mais si l’offre de logement n’augmente pas beaucoup suite à cette demande supplémentaire, alors la mesure aura surtout pour conséquence une hausse des prix immobiliers, selon le mécanisme expliqué sur le graphique suivant :


Déjà, en 1984, James Poterba soulevait ce problème pour les Etats-Unis, où la déductibilité des intérêts d’emprunt existe depuis longtemps. D’après ses calculs, l’effet inflationniste de ces déductions a pu représenter jusqu’à 30% de la hausse des prix immobiliers aux Etats-Unis dans les années 70 (1). Or, comme on peut supposer que l’offre de logement n’est pas moins réactive aux Etats-Unis qu’en France, la mise en place d’une telle disposition aura très probablement un fort effet inflationniste sur les prix immobiliers gaulois, qui réduira d’autant le montant réel de la subvention pour les accédants (tout en enrichissant les vendeurs…).
Et quand bien même cette mesure permettait effectivement de réduire un peu le coût d’achat d’un logement, il est néanmoins peu probable qu’elle entraîne une forte augmentation de l’accession à la propriété au sein des ménages modestes. En effet, il existe déjà pour ces catégories de ménages des prêts aidés (comme le prêt à l'accession sociale et le prêt à taux zéro), visant à favoriser l’accession à la propriété. De plus, ces prêts sont en partie garantis par l’Etat, pour inciter les banques à accorder des crédits immobiliers sur la base de critères moins restrictifs, et relâcher ainsi les contraintes d’emprunt qui pèsent sur les ménages modestes. Or, l’impact de ces aides sur la décision d’accéder à la propriété semble relativement faible. Une étude de Laurent Gobillon et David Le Blanc sur des données de la fin des années 1990 évalue que, même en négligeant l’effet inflationniste de la mesure, 85% des ménages bénéficiaires d’un prêt à taux zéro seraient tout de même devenus propriétaires sans cette subvention. Ils attribuent ce résultat à l’absence de ciblage précis de ce type de prêts vers les ménages les plus modestes, car 94% des locataires étaient alors éligibles pour un prêt à taux zéro. Dès lors, si l’objectif poursuivi était vraiment de permettre aux ménages modestes d’accéder à la propriété, il faudrait redéfinir des critères d’éligibilité qui ciblent vraiment les foyers à bas revenus, en élargissant le montant des prêts.

Or, ce n’est clairement pas le cas de la proposition de déductibilité fiscale des intérêts d’emprunt. Au pire, en l’absence de plafond, l’effet principal de la mesure sera de remplir de sesterces les poches des ménages aisés, qui auraient de toute façon accédé à la propriété en l'absence de cette mesure. En effet, les ménages les plus riches sont aussi ceux qui accèdent le plus à la propriété et empruntent le plus. Ainsi, d’après une étude sur l’endettement des ménages parue récemment dans Insee Première, 62,5% des ménages ayant un revenu annuel de plus de 50 000 euros avaient un prêt immobilier en 2004, pour un endettement (total) médian de 62 700 euros, alors que c’était le cas de seulement 21,4% des ménages ayant un revenu annuel compris entre 15 000 et 25 000 euros pour un endettement médian de 29 500 euros. De plus, comme les ménages locataires sont aussi les moins aisés, l’effet principal de la mesure serait une redistribution « à l’envers » en direction des ménages les plus aisés.

La déductibilité fiscale des intérêts d’emprunts sera aussi une mesure très coûteuse pour les finances publiques, puisque les ménages s’endetteront probablement plus pour financer l’achat d’un logement plus cher. Les charges d’intérêts payés par les propriétaires s’élevaient déjà à près de 17 milliards d’euros en 2004 d’après les Comptes du Logement, à comparer avec les 14 milliards d’euros distribués en aides personnelles au logement. Même s’il est question d’introduire un plafond de ressources pour limiter les effets d’aubaine, le coût de la subvention risque d’être fortement alourdi par les effets inflationnistes de l’aide, sans permettre aux ménages qui n’ont actuellement pas les moyens d’accéder à la propriété de le faire.

Enfin, on peut s’interroger sur l’idéal d’un village gaulois de propriétaires. Favoriser la propriété peut se justifier si les externalités liées à la propriété sont fortes, c’est-à-dire si la société entière bénéficie d’une augmentation du nombre de propriétaires. Or là encore, les arguments sont loin d’être convaincants. Certes, les propriétaires ont intérêt à entretenir la valeur de leur hutte, et des études sur données américaines et allemandes ont montré que les propriétaires s’occupent plus de leur maison, font du jardinage … ce qui peut bénéficier aux autres habitants du quartier (bien qu’il ne faille pas négliger les effets de la jalousie entre voisins !). Les propriétaires semblent aussi, toutes choses égales par ailleurs, avoir une vie sociale plus active, s’investir plus dans les associations de quartier et voter plus. D’un autre côté, la propriété peut entraîner des externalités négatives pour la société, car les propriétaires risquent de s’opposer à toute initiative publique (comme la construction d’Habitations Latines Mélangées par exemple) qui risque de diminuer la valeur de leur bien. L’existence d’un lien entre propriété et chômage a aussi été évoquée (et déjà développée ici), car les coûts de mobilité élevés des propriétaires peuvent avoir des effets négatifs sur l’emploi. Veut-on vraiment favoriser l'accession à la propriété des ménages modestes dans les zones industrielles sinistrées, au risque de les pénaliser fortement en cas de chômage, car un déménagement dans une autre région serait très couteux ? Finalement, rien ne permet de dire que les effets positifs de la propriété l’emportent sur les effets négatifs pour la société. Pour les candidats, c’est peut-être différent : en effet, les études ont montré qu’aux Etats-Unis, non seulement les propriétaires votent plus, mais qu’ils votent aussi plus républicain… La propriété, c’est le vote ?

(1) James Poterba « Tax Subsidy to Owner-Occupied Housing: An Asset Market Approach », Quaterly Journal of Economics, 1984.
_Gabrielle_

Lire la suite...

jeudi 12 avril 2007

Les conseillers de César (et de Cléopâtre)


Les trois candidats en tête ont choisi chacun une personalité pour défendre leur programme économique. Christian Blanc pour Nicolas Sarkozy, Thomas Piketty pour Ségolène Royal et Christian Saint-Etienne pour Francois Bayrou. Voici le débat relaté par Les Echos. Le débat est plutôt décevant, avec des juxtapositions et peu d'arguments contradictoires. Il est difficile de savoir ce que les lecteurs auront retenu de ces interviews: l'offre contre la demande, le court terme versus le long terme ? Notre conseil pour la prochaine fois : une bonne rasade de potion avant l'entrée dans l'arène !
_Antoine_

Lire la suite...

mardi 10 avril 2007

Relationpublix


Le petit Ecopublix est né depuis bientôt dix jours et il est temps de remercier tous ceux qui ont la gentillesse fêter sa venue au monde.

Tout d'abord, il faut rendre à César ce qui appartient à César et remercier Econoclaste pour leur sympathique soutien. Disons le tout net, la seule raison qui explique qu'Ecopublix n'ait pas vu le jour plus tôt vient de la qualité du blog d'Alexandre Delaigue et SM : bien souvent, à peine nos discussions entamées sur un sujet d'actualité économique, qu'un post de grande qualité apparaissait sur leur site. Autant dire que cela a découragé plus d'une fois nos bonnes volontés...

Merci également à Optimum, leconomiste, la Thilde et Versac pour leurs encouragements.
_Ecopublix_

Lire la suite...

vendredi 6 avril 2007

Les 30 Mystérieuses racontées à leurs enfants


Pourquoi s’intéresser encore à cette période des 30 Glorieuses qu’on ressasse tel un âge d’or que nous (enfin… certains d’entre nous) n’aurions pas connu et ne serions pas prêts de revivre ? Justement, parce qu’à force de s’en servir comme totem, on finit par travestir le sens à donner à cette époque.

On peut classer les explications sur le sujet très simplement : soit vous êtes de gauche et vous considérez que cette période exceptionnelle a pour origine l’application d’un programme de la Résistance imposé par la force, soit vous êtes de droite et vous pensez que c’est un simple rattrapage technologique auquel nous avons assisté. Dans la première version, vous direz que les réformes de 1945 ont été travesties depuis 1974 ; dans la seconde, vous direz que le rattrapage étant terminé, il faut au plus vite en finir avec cet Etat qui bloque tout. Le trait est grossi à dessein, et il y a certainement en chacun d’entre nous un mélange des deux visions. Raison de plus pour se clarifier les idées sur le sujet.

Pour revenir là-dessus, j’ai choisi de vous raconter une lecture croisée de deux ouvrages écrits en 1972 et 1981, à une époque où l’on avait pas encore tout à fait conscience d’être sortis pour de bon des 30 Glorieuses, tout en ayant la possibilité d’en tirer déjà quelques enseignements : un livre d’analyse statistique de la croissance française, devenu un classique, « La Croissance Française », de Jean-Jacques Carré, Paul Dubois et Edmond Malinvaud, alors économistes à l’INSEE, et un livre d’histoire de la modernisation française, « Le capitalisme et l’Etat en France », de Richard Kuisel, historien américain. La confrontation de l’historien et du statisticien, de l’étranger et du français est particulièrement fructueuse.

Quel est l’objet du livre de Kuisel ? Rien de moins que de comprendre la rupture spectaculaire de la Seconde Guerre Mondiale dans l’histoire économique française. Et pour l’auteur, cela passe par une analyse serrée du rôle de l’Etat dans cette évolution : l’évolution de la pensée économique, de la formation de l’élite, du contexte international, l’état des institutions publiques, le rôle des groupes socioprofessionnels, l’incarnation par un petit nombre d’individus des grandes idéologies, tout cela est passé en revue sur la période 1900-1960 de manière minutieuse et magistrale. Sa thèse est la suivante : le triomphe du dirigisme économique de 1945 n’est que l’aboutissement d’une longue mue commencée avec la 1ère Guerre Mondiale, mais cette évolution idéologique a été particulièrement conflictuelle, avec deux champs de bataille principaux : les tenants du statu quo libéral contre les promoteurs d’une organisation de l’économie plus ordonnée, et au sein de ces derniers, les défenseurs d’un capitalisme organisé contre les planificateurs socialistes. La toile de fond qui inspire ces débats c’est le sentiment d’un déclassement économique de la France, d’abord par rapport à l’Allemagne puis par rapport aux Etats-Unis. Une vraie tradition en somme, encore très bien représentée aujourd’hui.

C’est ici qu’un premier détour vers le livre de Carré, Dubois, Malinvaud peut être utile. C’est le premier livre à rassembler sur très longue période (de 1896 à 1969) des données quantitatives détaillées sur l’économie française : production brute, évolutions quantitatives et qualitatives du capital productif et de la population active, structures des marchés, etc. Et que disent ces statistiques sur un éventuel déclin français dans la première partie du 20ème siècle ? La réponse est : que nenni !, comme le montre ce tableau :


La France est loin d’être déclassée en termes de niveau de vie par ses concurrents les plus proches durant le premier tiers du 20ème siècle. Elle est bien placée dans la 2ème Révolution Industrielle avec son industrie automobile et aéronautique et la taylorisation commence à faire des émules en France parmi les grandes entreprises dés les années 20 (la « rationalisation » était alors un mot à la mode). Sur le plus long terme, le pays commence à bénéficier de sa politique de scolarisation de masse. Ce qui va mettre les Français dans le doute, c’est la crise des années 30, qui touche justement très fort ces industries neuves de la 2ème Révolution Industrielle.

Que fait l’Etat pendant cette période ? Il navigue à vue et cherche surtout à éviter les représailles politiques de la crise économique sans offrir de véritable politique cohérente. Les élections se jouant souvent auprès de notables locaux, les hommes politiques s’efforcent surtout d’éviter les faillites retentissantes et d’encourager les cartels et autres restrictions à la production et aux échanges. Les leviers du pouvoir économique (Ministère des Finances, Banque de France) sont détenus par une élite financière soucieuse avant tout de préserver les épargnants, et qui a donc pour dogmes l’étalon or et l’équilibre budgétaire.

La Seconde Guerre Mondiale renverse ces rapports de force. De nombreux capitalistes y ont perdu leurs biens, comme peuvent le montrer les statistiques fiscales sur les hauts revenus, et quand ils ont pu conserver leur entreprise, ils ont souvent subi l’opprobre à la Libération pour ne s’être pas suffisamment opposés à l’occupation allemande. En revanche, du côté de la Résistance sont surreprésentés les partisans d’une économie dirigée, et ce d’autant plus qu’ils ont vu fonctionner avec succès les économies de guerre américaine et britannique. Il est désormais acquis que l’orthodoxie libérale a vécu mais à la fin de la Libération on peut tout de même distinguer deux camps.

D’un côté les partisans de la table rase, parmi lesquels se rangent les socialistes et notamment Pierre Mendès France ; pour eux, les principaux responsables de la chute de la France depuis 1929, ce sont les dirigeants d’entreprises et leur immobilisme (on parle alors de « malthusianisme économique ») et il faut donc les écarter en nationalisant lorsqu’il s’agit de grosses entreprises, en freinant l’inflation, qui permet de mettre à l’abri les producteurs incompétents, et enfin en taxant les grandes fortunes pour permettre à l’économie de repartir sur des bases plus justes. L’autre groupe est celui des planificateurs « néo-libéraux », parmi lesquels on peut ranger Jean Monnet. Ils sont bien conscients que la France ne peut faire l’économie d’une coordination des décisions économiques pour reconstruire le pays. Mais pour eux, cela ne doit pas se faire contre les capitalistes et surtout ils ne croient pas que les fonctionnaires fassent de bons chefs d’entreprises. Ils proposent donc que l’économie soit coordonnée par l’Etat mais que les orientations d’ensemble doivent se décider de manière concertée avec les chefs d’entreprises, dans le cadre des Commissions de Modernisation du Plan.

Dés 1946 et la démission de Pierre Mendès France, il apparaît que le premier groupe a perdu : l’inflation ne sera jamais jugulée, l’impôt sur la fortune ne sera pas mis en œuvre avant 1981, les nationalisations sont réduites à la portion congrue, le Plan prendra exactement la forme voulue par Jean Monnet. En réalité, cette victoire a été largement influencée par le Plan Marshall : il est beaucoup plus facile de se « concerter » lorsque l’on doit partager de l’argent tombé du ciel. Surtout, les Résistants de l’époque avaient l’impression que la guerre avait largement profité aux capitalistes alors que c’est exactement l’inverse qui s’est produit : l’Occupation a été de très loin la période de redistribution la plus importante du 20ème siècle. Dés lors, on peut comprendre que les industriels encore en place après une telle purge aient su trouver les arguments pour faire pencher la balance en faveur du groupe « néo-libéral ».

Comment peut-on lier la croissance des 30 Glorieuses à ces joutes idéologiques ? C’est finalement la question qui nous intéresse le plus aujourd’hui. Mais l’historien ne peut plus guère nous aider à ce stade, il s’agit de faire parler les chiffres et un peu de théorie économique. Nos statisticiens de l’INSEE ont ainsi décomposé les facteurs de la croissance du PIB sur la période 1929-1963 :


C’est un graphe assez classique en comptabilité de la croissance. Il permet simplement de voir quelle est la part des causes observables de la croissance économique (investissements physiques, capital humain, etc.) et quelle est la part des facteurs inobservables (ce qu’on appelle le résidu). Il est classique d’obtenir un résidu élevé mais ce que Carré, Dubois et Malinvaud remarquent, c’est que ce résidu est particulièrement élevé en France par rapport aux estimations réalisées en Allemagne, aux Etats-Unis et en Angleterre. L’explication donnée par les auteurs à ce dynamisme français est une très forte capacité d’adoption de nouvelles techniques ainsi que de nouvelles méthodes de gestion (sans être beaucoup plus précis). Mais qui en est réellement responsable ?
Ici s’arrête la comptabilité et commence l’explication. Deux thèses s’affrontent, avec chacune leur part de vérité. D’une part celle du rattrapage : la France était sortie d’un chemin de croissance forte après 1929, elle ne ferait que le retrouver spontanément après-guerre. D’autre part, on a la thèse du choc de la défaite et du renouveau de la Libération : le triomphe de l’Etat, par le biais du Plan et des nationalisations, aurait fait entrer l’économie française dans un nouvel âge, débarrassée de ses habitudes malthusiennes d’antan. Qui a raison, qui a tort ? La première thèse souffre d’un problème : elle ne permet pas d’expliquer pourquoi la France s’est perdue après 1929. La deuxième thèse fait peu de cas de la période de croissance des années 20 : à l’époque le dynamisme économique allait sans Etat fort, pourquoi en irait-il autrement après 1945 ?
La synthèse passe par une analyse de la répartition des revenus ; s’il y a un choc bien identifié juste avant et surtout pendant la guerre, c’est une euthanasie des gros détenteurs de capital à très forte puissance, comme le montre ce graphique tiré du livre de Thomas Piketty :


Cela a probablement permis aux patrons les plus entreprenants d’émerger plus facilement après-guerre. Et ce sont ces personnes qui porteront les innovations techniques et gestionnaires de l’après-guerre, au moins autant que les rares entreprises nationalisées. L’Etat français n’a été ni plus ni moins intelligent que dans les autres pays : il fallait avoir un Plan pour la reconstruction, c’est évident, mais ce Plan ne permet pas d’expliquer la croissance d’après 1950 ; quant aux autres interventions dans l’économie, elles ont pris place de la même manière que dans toutes les autres économies développées de l’époque. Nul besoin d’exhiber un rapport de forces favorable à la classe ouvrière pour comprendre la sécurité sociale ou la nationalisation des entreprises de transport et d’énergie, il suffit pour cela de suivre un bon cours d’économie publique !

Quel souvenir faut-il donc garder des 30 Glorieuses ? Celui d’un rattrapage technologique porté par les entreprises privées mais permis par un renouvellement brutal des élites dirigeantes et soutenu par des interventions d’Etat raisonnables. La leçon est toujours la même : si vous voulez croître, il faut écarter les rentiers (si possible sans guerre ni révolution) ET faire fonctionner correctement les marchés. En bref, du Mendès France et du Monnet.
_Laurent_

Lire la suite...

mercredi 4 avril 2007

Où sont les Gauloises ?


Je ne doute pas, cher lecteur, que tu te sois posé gravement cette question en parcourant la liste des contributeurs de ce blog. Car cette liste, je te l’accorde, fleure bon la testostérone, le bitume et la cervoise, bien que nous ayons la chance de compter dans nos rangs l’une des rares blogueuses économistes de Gaule (et encore... au village, Noblabla s’occupe avant tout de l’économie du logis, option tâches domestiques). Et c’est parce que, comme toi, nous sommes préoccupés par cette situation, que nous avons essayé de déchiffrer l'origine des inégalités de salaires entre les hommes et les femmes, avant de suggérer (dans un prochain post) quelques pistes de réforme pour essayer de les corriger.

Les Gaulois ne sont pas réputés pour être de grands défenseurs de la cause des femmes. Certes, comme le rappelle ce document, publié récemment par la Commission européenne, le tableau est sans doute moins noir que notre réputation de rudes machos ne pourrait le laisser penser a priori : on y découvre que les Gaulois font plutôt mieux que les autres peuples européens en matière d’écart de rémunération, d’accès aux postes de chefs d’entreprise (1er rang en Europe avec 36% de chefs d’entreprises qui sont des femmes), où encore d’accès aux postes de professeurs des universités (13% des universitaires gauloises ont le rang de professeur, contre 6% en Europe). Pas de quoi se décerner la palme de l’égalité professionnelle pour autant. Dans l’ensemble, la situation telle que la révèlent les chiffres de la Commission est plutôt inquiétante : les inégalités entre les hommes et les femmes sur le marché du travail restent importantes et ne semblent pas avoir diminué au cours des 10 dernières années.

Pour y voir plus clair, intéressons-nous à une question débattue depuis fort longtemps par les économistes, et que l’on peut formuler très simplement : Pourquoi les femmes sont-elles moins bien payées que les hommes ?

La réponse à cette interrogation est loin d’être évidente. Prenons l’exemple gaulois : en moyenne, le salaire mensuel des femmes y est inférieur de 30% à celui des hommes. Cela signifie-t-il que les Gauloises sont victimes d’une discrimination salariale qui ampute leur rémunération d’un tiers ? Non, car ce serait oublier que les écarts de rémunération entre hommes et femmes peuvent avoir d’autres causes. Traditionnellement, les économistes distinguent trois composantes de l’inégalité salariale hommes-femmes :

1/ Les écarts de salaires peuvent d’abord provenir de différences entre les caractéristiques intrinsèques observables des hommes et les femmes : par exemple, si les femmes sont en moyenne moins diplômées que les hommes, ou ont accumulé moins d’expérience professionnelle en raison de plus fréquentes interruptions d’activité, alors il est logique que cela se traduise par une rémunération moyenne plus faible.

2/ Les inégalités de salaires peuvent également s’expliquer par le type d’emploi que les femmes occupent : si elles sont davantage à temps partiel que les hommes, leur rémunération sera pour cette raison inférieure, dans la mesure où le salaire mensuel associés aux emplois à temps partiel est par définition plus faible que celui des emplois à temps complet.

3/ Enfin, les femmes sont potentiellement victimes de discrimination salariale : ce sera le cas à chaque fois qu’une femme présentant exactement les mêmes caractéristiques (enfin… presque : même diplôme, même âge, même expérience professionnelle, etc.) et occupant exactement le même emploi qu’un homme (même secteur, même fonction…) gagnera néanmoins un salaire inférieur.

Que nous apprennent les études empiriques consacrées aux écarts de rémunérations hommes-femmes sur la part respective de ces différents facteurs ? En utilisant une technique d’estimation baptisée « décompositions de Oaxaca » et assez populaire dans les études empiriques consacrées à ce sujet, Dominique Meurs et Sophie Pontieu (dans « Une mesure de la discrimination dans l’écart de salaire entre hommes et femmes », Economie et Statistique n°337-338, 2000) proposent la décomposition suivante :


D’après ce tableau, pour l’ensemble de la population (deux premières colonnes), 40,9% de l’écart salarial total proviendrait de la durée du travail (30 % des femmes occupant un emploi à temps partiel contre seulement 5 % des hommes) ; 43,7%, de leurs caractéristiques individuelles (moindre expérience professionnelle, en raison notamment des interruption d’activité liées à la maternité et à l'éducation des enfants) ou des caractéristiques des emplois occupés (plus souvent dans le public et dans le secteur tertiaire) et seulement 15,4% de cet écart serait « inexpliqué » par les facteurs structurels, ce qu’on interprète généralement comme une mesure de la discrimination salariale « pure ».

Cela signifie-t-il pour autant que la discrimination n’est qu’un facteur marginal dans l’explication des écarts de salaires entre les hommes et les femmes ? Rien n’est moins sûr, pour au moins deux raisons.

1/ D’une part, l’étude de Meurs et Ponthieu montre que lorsqu’on se limite aux salariés à temps complet (deux dernières colonnes du tableau), la part « inexpliquée » des écarts de salaires est beaucoup plus élevée : les caractéristiques structurelles n’expliquent plus que 52% de l’écart salarial, les 48% restants pouvant être imputés à la discrimination salariale « pure ». Cela signifie qu’il ne suffit pas de promouvoir l’accès des femmes aux emplois à temps complet pour espérer annuler leur retard salarial sur les hommes.

2/ Plus fondamentalement, l’approche précédente, bien qu’éclairante sur le plan conceptuel, privilégie une conception trop étroite de la notion de discrimination. Car la discrimination salariale « pure » n’est pas la seule forme de discrimination à laquelle se heurtent les femmes sur le marché du travail. Prenons l’exemple du temps partiel : si certaines femmes décident librement de travailler à temps partiel (pour élever des enfants, prendre en charge un parent ou encore suivre une formation), nombreuses sont celles qui déclarent ne pas travailler à temps partiel par choix, mais par contrainte. D’après cette étude de l'Insee, si 31% des femmes travaillant à temps partiel ont choisi de le faire pour des raisons d’ordre familial, elles sont plus de 37% à déclarer le subir, faute d’avoir trouvé un emploi à temps plein. Par ailleurs, la discrimination subie par les femmes passe par l’existence d'une forte ségrégation des emplois, à diplôme donné : on constate par exemple que parmi les bacheliers, les hommes sont 40 % à occuper un emploi de cadre, contre seulement 7 % chez les femmes. Plus on monte dans l’échelle des qualifications, plus les femmes semblent se heurter au fameux « plafond de verre » qui limite leur accès aux postes à responsabilités.

Même si la frontière n’est pas aisée à tracer entre la discrimination salariale plus ou moins directe et l’effet des caractéristiques observables des femmes et des emplois qu'elles occupent, il n’en demeure pas moins que les différentes composantes de l’inégalité salariale entre les hommes et les femmes semblent bien résister aux progrès de l’égalité professionnelle. Après une longue période de réduction de l’écart salarial hommes/femmes, sous l’effet principalement de l’amélioration du niveau de qualification des femmes, plus rapide que celui des hommes, l’écart global semble s’être stabilisé autour de 30% pour l’ensemble des salariés depuis le début des années 1990 et autour de 18% pour les salariés à temps complet, comme le montre le graphique ci-dessous :


Pour expliquer cette stagnation, les économistes invoquent généralement trois séries de facteurs qui ont eu tendance à renforcer les trois composantes de l’inégalité salariale entre les sexes :

1/ Du côté des caractéristiques observables, le principal enseignement des études empiriques est que les femmes continuent de sacrifier une grande partie de leur carrière professionnelle à l’éducation de leurs enfants, à travers des périodes d’interruption d’activité qui les pénalisent à double titre : en réduisant leurs gains salariaux liés à l’accumulation de l’expérience professionnelle, d’une part ; en les exposant aux difficultés de la réinsertion sur le marché du travail, d’autre part. Cette note de l’Insee montre ainsi que si les salaires de début de carrière des femmes sont aujourd'hui très proches de ceux des hommes, l’écart salarial continue d’augmenter tout au long de leur carrière professionnelle, même pour les générations les plus récentes. Cela semble indiquer qu’aujourd’hui, ce n’est pas avant tout parce qu’elles subissent une discrimination salariale à l’embauche que les femmes sont moins bien payées que les hommes, mais parce qu’elles « décrochent » progressivement en raison de leur investissement familial : entre 20 et 30 ans, on estime qu’à emploi comparable dans le secteur privé, la progression salariale d’une femme est deux fois plus faible que celle d'un homme.

2/ Du côté des caractéristiques des emplois occupés par les femmes, il est avéré que les dispositifs d’exonérations de charges sociales mis en place à partir du début des années 1990 (et sur lesquels nous ne manquerons pas de revenir dans ce blog) ont favorisé le développement du travail à temps partiel et la création d’emplois peu qualifiés, très largement pourvus par des femmes, ce qui a eu pour effet de ralentir le rapprochement de leurs rémunérations de celles des hommes

3/ Enfin, la part « inexpliquée » des écarts salariaux, ou discrimination salariale pure, est restée étonnamment stable, malgré les nombreuses professions de foi qui ont accompagné la revendication de l’égalité professionnelle pour les femmes au cours de la décennie 1990. Un des grands apports des études empiriques récentes consacrées à ce sujet a été de montrer à quel point la discrimination est un phénomène complexe à cerner et difficile à combattre, dans la mesure où il n'est pas toujours aisé de distinguer ce qui relève du choix de ce qui relève de la contrainte. Dans un livre qui fit pas mal de bruit lors de sa sortie (Women Don’t Ask : Negociation and the Gender Divide), Linda Babcock et Sara Laschever ont notamment montré qu'une certaine forme d'autocensure pouvait expliquer en partie la persistance d'une discrimination salariale largement intériorisée par les femmes. Une étude citée dans ce livre indique par exemple que le salaire d’embauche des diplômées en Master de l’université de Carnegie Mellon aux Etats Unis est inférieur de 7,4% à celui de leurs condisciples masculins, pour la simple raison que ces derniers sont plus nombreux à négocier leur salaire à la hausse. Ainsi, à compétences égales, il semblerait que les femmes très qualifiées aient davantage de scrupules à négocier leurs salaires que leurs homologues masculins.

Faut-il conclure de ce constat assez pessimiste que l’égalité salariale entre les sexes est à ranger au rayon des généreuses utopies ? Ce n’est pas sûr, à condition de savoir utiliser les instruments appropriés. Cette question fera l’objet d’un prochain post.

Bon, c’est pas tout ça mais je commence à avoir une petite soif, moi... Noblabla, pendant que t’es debout, tu voudrais pas m’apporter une cervoise bien fraîche ?
_Julien_

Lire la suite...

lundi 2 avril 2007

Mind the gap !


J’indique aux lecteurs de ce blog le site web gapminder qui permet de visualiser l’évolution des PIB des pays du monde depuis 1960. Je ne peux que recommander aux profs d’économie qui viendraient à errer sur notre blog d’aller voir ces graphiques animés. C’est un outil pédagogique très parlant pour expliquer l’évolution des inégalités dans le monde, les théories de la croissance et même des intuitions basiques d’économétrie.

Le graphique par défaut est l’évolution du PIB en abscisse et l’espérance de vie en ordonnée. Chaque pays est représenté par un disque dont la taille est proportionnelle à la population, chaque continent est d’une couleur différente et les données varient de façon animée dans le temps. Le mieux est de commencer par ralentir la vitesse de défilement des années afin de pouvoir repérer les pays en question en posant le curseur sur les bulles colorées.

On voit de façon frappante la Chine croître à une vitesse considérable depuis les années 1980, l’Inde suit avec une dizaine d’années de retard. Ces deux pays représentent la moitié de la population mondiale et influencent largement la moyenne mondiale. L’Afrique (en bleu) stagne désespérement en restant en bas à gauche avec l’espérance de vie la plus faible et sans croissance des revenus nationaux. Plus frappant encore est l’impact du Sida et des guerres sur les pays africains : l’Afrique du Sud voit son espérance de vie réduite avec la montée de l’épidémie, le Rwanda chute littéralement avec le génocide (l’espérance de vie atteint 20 ans !)... La Russie et les pays de l’ex-URSS voient aussi leur espérance de vie baisser dans les années 1990. De façon assez comique les pays du Golfe (petits en vert) zigzaguent de droite à gauche avec les prix du pétrole. A côté de ces faits majeurs, les différences entre nos pays développés sont à peine visibles. Il est possible d’utiliser la fonction zoom (en bas à droite) et d’obtenir un encadré d’un groupe de pays. Si l’on zoom sur les pays développés, un certain nombre de faits économiques récents apparaissent clairement : pendant les années 1960, les pays européens rattrapent les Etats-Unis et l’écart se creuse à nouveau pendant la décennie 1990. Un petit point jaune mérite un peu d’intérêt. Dans le groupe des pays riches, il a tendance à reculer par période et se rapproche peu à peu du groupe des pays de richesse intermédiaire : vous l’avez reconnu ? C’est l’Argentine.

Il y a quelques années, un vif débat sur l’évolution des inégalités dans le monde avait occupé la communauté des économistes. The Economist avait largement relaté l’opposition entre les chiffres proposés par Martin Ravallion de la Banque mondiale et ceux du professeur de l’université Columbia Xavier Sala-i-Martin. Ce dernier mettait en évidence que la pauvreté dans le monde était en forte réduction et ainsi que les inégalités entre individus du monde. Les chercheurs de la Banque mondiale, trouvaient que la pauvreté avait baissé dans le monde, mais en restant à un niveau très élevé (deux fois plus élevé que les chiffres de l’universitaire catalan) et que les inégalités entre pays étaient aussi importantes qu’auparavant. De nombreuses raisons expliquaient les différences de résultat entre les deux études (données différentes, échantillon de pays différent), mais un des points majeurs soulevés par ce débat était le poids que l’Inde et la Chine exercent sur la moyenne. Si l’on regarde l’inégalité uniquement entre pays (chaque pays est une observation), les inégalités ont tendance à s’accroître depuis une dizaine d’années. A l’inverse, si on pondère chaque pays par sa population, les inégalités ont tendance à se réduire (du fait de la croissance de l’Inde et de la Chine). Enfin, une troisième mesure consiste à comparer tous les individus du monde en utilisant les distributions de revenu au sein de chaque pays et la baisse de la pauvreté (réelle) est moins forte que dans la seconde mesure. A la figure ci-dessous, issue de The Economist (11 mars 2004), on retrouve cette vision opposée :


Pour les spécialistes : On peut même aller plus loin pour ceux qui sont familiers avec le modèle de Solow et les débats économétriques autour de sa validité. Si on régresse le taux de croissance des pays (comme une observation) sur leur niveau de richesse en 1960, on ne trouve pas la relation négative prédite par le modèle de Solow, mais si on contrôle pour le degré d’éducation, l’épargne et la croissance démographique (à la Mankiw, Romer et Weil, QJE 1992), on retrouve la prédiction de Solow que les pays plus pauvres doivent croître plus vite que les plus riches et donc les rattraper. C’est là qu’on peut discuter l’exogénéité du niveau d’éducation : n’est-il pas simplement corrélé au niveau de revenu ? est-ce que l’éducation est la source de la croissance ou seulement un signe de richesse ?… mais je sens que je perds des lecteurs, donc je vous laisse jouer avec cet outil formidable et méditer sur l’évolution des inégalités dans le monde.

On peut aussi changer les variables, comme la mortalité enfantine, le nombre de médecins, les dépenses militaires….
_Antoine_

Lire la suite...

vendredi 30 mars 2007

Vivre et laisser mourir ?


Lorsqu’en France, on veut exhiber le dynamisme de notre économie on montre le nombre faramineux de créations d’entreprises. En général, la réponse des déclinologues c’est de dire que tout ça n’est qu’illusion puisqu’une part très importante de ces nouvelles entités meurent peu de temps après leur naissance, selon l'INSEE. Et d’ailleurs, s’il y a un chiffre qui fait peur c’est bien celui des défaillances d’entreprises. Nous allons voir pourquoi il faudrait peut-être en réalité s’en réjouir (sans sadisme de notre part bien sûr !).

Comme tout le monde le sait aujourd’hui, le nerf de la croissance économique, c’est l’innovation. Par là, on n’entend pas seulement des bonshommes dans un labo qui découvrent la potion magique pour la vendre ensuite aux pauvres petits gaulois que nous sommes. L’innovation, c’est aussi des nouveaux types d’organisation du travail, des nouveaux services (y compris dans des secteurs très anciens tels le commerce de détail). En règle générale, on attribue au capitalisme cette faculté de générer plus d’innovations que tout autre système économique. Cela n’empêche pas l’intervention de l’Etat pour développer les connaissances, mais on sait qu’une économie d’entreprises est plus à même de sélectionner les connaissances les plus utiles pour la population. Cela veut-il dire qu’il faille s’inquiéter de la santé du capitalisme lorsqu’une part non négligeable de ces entreprises disparaît régulièrement ?

Nous allons voir que la réponse est non. Le problème de l’innovation dans une entreprise, c’est son coût ; il y a des dépenses en recherche-développement bien évidemment, mais aussi et surtout un coût d’opportunité : si je suis déjà le meilleur sur mon marché, innover ne m’apportera que peu de profits supplémentaires ; en revanche, si je pars de zéro, innover me permettra de dépasser les firmes en place et donc de générer un surprofit beaucoup plus conséquent. Ce raisonnement vaut surtout si le coût de recherche de l’innovation est sensiblement le même pour toutes les entreprises, c’est-à-dire lorsque l’innovation est dite radicale (et non incrémentale). Mais l’argument est encore plus fort s’il est coûteux pour une entreprise en place de changer d’organisation du travail : bouger les habitudes prises, faire comprendre la nécessité du changement, cela prend effectivement du temps et de l’argent. Or coût est nécessairement moins élevé lorsque l’on part de zéro. Pour toutes ces raisons, les innovations les plus radicales ont plus de chances d'être portées par de jeunes entreprises.

Si l’on croit à tout ceci, une économie efficace détruirait et créerait certainement beaucoup plus d’entreprises que dans la réalité, avec à la clé une croissance économique plus forte. Qu’est-ce donc qui freine ce processus ? En grande partie les entreprises en place qui, du fait même de leur présence, empêchent le développement de nouvelles entreprises plus innovantes : elles peuvent temporairement livrer une guerre des prix, les clients peuvent prendre beaucoup de temps avant de changer leurs habitudes de consommation, etc. Si la nouvelle entreprise n’a pas les reins solides et les fonds nécessaires pour résister à cette période difficile, l’innovation qu’elle porte ne prendra pas place dans l’économie. La conclusion, c’est donc que la mort des entreprises peut favoriser le lancement d’innovations : la nature ayant horreur du vide, de nouveaux acteurs pourront plus facilement entrer sur le marché en mettant en œuvre des techniques plus récentes.

Cet argument n’est pas neuf, Joseph Schumpeter l’a exposé le premier en parlant de « destruction créatrice ». Mais en général, on ne saisit pas bien sa portée : ici, les disparitions d’entreprises sont au moins aussi importantes que les créations dans le processus de croissance. Il est certes important d’encourager les vocations d’entrepreneur, mais il l’est peut-être encore plus de ne pas donner trop de chances de survie aux entreprises en place. A l’extrême, l’exemple le plus parfait de « destruction créatrice » dans l’histoire de France, c’est la Seconde Guerre Mondiale : de vieilles usines ont été détruites, des capitalistes bien en place ont été expropriés, on a empêché les vieux cartels de se reformer, tout ceci a certainement été une des raisons du « rattrapage » de l’après-guerre.

Comment savoir si la « destruction créatrice » est encore forte en France ? La seule manière de faire est probablement de comparer notre situation avec celle des autres pays développés. Nous allons donc analyser l’origine et l’âge des 300 entreprises du monde dont les dépenses en recherche-développement étaient les plus importantes en 2005, selon un classement réalisé par le ministère de l'industrie britannique. Rapidement, on voit que 59 entreprises sont nées après 1960, la plupart dans des secteurs dont les innovations ont été « radicales » (informatique et biotechnologies), ce qui confirme notre raisonnement précédent. Mais sur ces 59 entreprises, 53 sont américaines et deux seulement sont européennes, Vodafone et SAP. Ceci ne veut pas dire que l’Europe est un pur imitateur puisque les entreprises européennes incluses dans ce classement dépensent au total autant en recherche-développement que les entreprises américaines. Simplement l’Europe est capable de générer beaucoup d’innovations « incrémentales » mais très peu d’innovations « radicales » par rapport aux Etats-Unis. Tirons aussi de ce classement la conclusion que la France est loin d’être seule dans son retard en la matière.

Beaucoup pensent que cette différence est liée à un goût du risque plus important chez les Américains, mais ceci est infirmé par la plupart des études psychologiques et expérimentales en la matière, comme l'ont bien exposé Augustin Landier et David Thesmar. Reste donc la possibilité que d’une part les entreprises en place mènent une vie trop dure aux petits nouveaux en Europe, et d’autre part les nouveaux entrepreneurs ne disposent pas de fonds suffisants en Europe pour faire face aux acteurs en place. Autrement dit, en France et en Europe, les entreprises ne sont pas assez fragiles et le système financier pas assez développé pour aboutir au niveau d’innovation radicale des Etats-Unis.

Laissons de côté les faiblesses financières européennes et focalisons-nous sur les raisons de la trop forte résistance des entreprises en place. Un élément important est qu’il il y a en France une tradition de sauvetage par l’Etat des entreprises en difficulté, officiellement pour préserver l’emploi. L’argument consiste à dire qu’en l’absence de possibilités de reconversion professionnelle les employés de l’entreprise défaillante ne seront pas capables de trouver un emploi convenant à leur spécialisation. Les études empiriques ne semblent pas confirmer cela : en France en 2005, une destruction d'emploi dans un secteur donné a 90% de chances de correspondre à une création d'emploi dans le même secteur, d'après l'INSEE. Ceci tout simplement parce que les nouveaux entrants n’innovent pas à partir de rien, ils ont aussi besoin d’employés disposant d’un savoir-faire spécifique au secteur en question. A priori donc, les personnes ayant le plus intérêt à un sauvetage de l’entreprise sont celles qui disposaient d’une rente grâce à cette entreprise, soit le plus souvent ses propriétaires et ses cadres dirigeants. Or ces personnes disposent aussi de bons moyens d’influencer l’action publique en faveur du sauvetage de leur entreprise. On pourrait citer d'autres politiques ayant sensiblement les mêmes origines et les mêmes effets, tels la réglementation des ouvertures de grandes surfaces commerciales. Ce qui est certain, c'est qu'en empêchant la mort des entreprises, toutes ces mesures sont très défavorables à l’innovation sans qu’elles préservent véritablement l’emploi.
Et quand bien même il y aurait encore trop de salariés visiblement mis sur le carreau par la concurrence autochtone ou étrangère (ce que les chiffres ne montrent pas), on sent bien que de telles souffrances ne relèvent pas d'une politique industrielle défensive (au coût par emploi sauvé faramineux) mais de la politique de l'emploi.

Enfin, la « destruction créatrice » ne signifie pas uniquement grand nombre de faillites, mais aussi grand nombre de transmissions d’entreprises (que l'on mesure très mal en France) : l’innovation a plus de chances d’être mise en œuvre si les machines, les usines peuvent facilement changer de mains. A cet égard, la fiscalité est un outil à double tranchant : une forte imposition sur le capital et les hauts revenus incite à vendre tout ou partie des parts d’entreprise que l’on possède et donc accélère la circulation du capital, mais une fiscalité qui favorise les transmissions d’entreprise héréditaires (comme c’est le cas en France) est encore pire que pas d’impôts du tout pour la mobilité du capital. Et là encore la transmission d’entreprises sera d’autant plus simple que les repreneurs éventuels seront capables de trouver facilement des fonds pour le rachat.

Laisser mourir les entreprises, encourager leur vente nous rapprocheraient donc de la situation américaine ; mais cela ne se ferait-il pas alors au prix d’inégalités fortes comme on le constate aux Etats-Unis ? Il apparaît que non car d’une part ce renouvellement incessant permet probablement d’accroître la mobilité sociale (ce que disait déjà Schumpeter) et d’autre part il peut être encouragé comme on l’a vu par une fiscalité fortement progressive. Encourager la destruction créatrice est donc plus que compatible avec les deux objectifs d’égalité des chances et d’égalité des situations.
_Laurent_

Lire la suite...

jeudi 29 mars 2007

Eugenix ?


Je conçois déjà ton chagrin, cher lecteur, quand tu vas t’apercevoir dans quelques lignes, que ce post ne traite pas des Banques de sperme des Prix Nobel ! (Pour ceux qui seraient néanmoins intéressés par cette question, tous les détails de l’affaire se trouvent ici). Malheureusement, les économistes, pour ceux qui en douteraient encore, sont des gens beaucoup plus (trop ?) sérieux que cela. C’est donc, plus prosaïquement, à un voyage au pays des échelles d’équivalence qu’Ecopublix vous convie aujourd’hui (émotion garantie, vous pourrez toujours vous plaindre au modérateur) ! Ce petit voyage pose une question simple : notre politique familiale serait-elle imperceptiblement teintée des préceptes eugénixtes du bon vieux Charles Darwin ?

Ecoutons le grand homme :

« Nous devons supporter les effets indubitablement mauvais de la survie des plus faibles et de la propagation de leur nature ; mais il apparaît ici qu’il y a au moins un frein à cette action régulière, à savoir que les membres faibles et inférieurs de la société ne se marient pas aussi librement que les sains ; et ce frein pourrait être indéfiniment renforcé par l’abstention du mariage des faibles de corps et d’esprit »

Simple, et de bon goût !

Un petit détour par les échelles d’équivalences est nécessaire pour comprendre en quoi notre politique familiale est peut-être plus eugéniste qu’il n’y paraît. De quoi s’agit-il exactement ? Les échelles d’équivalence, ce sont ces barèmes d’unité de consommation, qui permettent de tenir compte des économies d’échelles liées à la composition familiale. En gros, vivre à deux, ou à trois, ou à quatre, engendre des coûts supplémentaires, certes, mais génère aussi des économies : mutualisation d’un certain nombre de dépenses, rendements souvent croissants de la « production » domestique, etc. Ces économies d’échelle dans la consommation doivent impérativement être prises en compte dès lors que l’on veut comparer les niveaux de vie des ménages dont la composition familiale est différente. Car une famille de trois enfants gagnant 2000 euros nets par mois ne saurait se comparer à un célibataire touchant le même revenu. Comment font les économistes pour construire ces échelles ? Tout le problème tient à la quantification de ces fameuses économies de consommation réalisées. Ces économies ont d’ailleurs toutes les chances de dépendre de la nature des biens consommés : je ne fais pas les mêmes économies sur les yogourts et sur l’électricité ! Une idée simple, étant donné que les enquêtes ne peuvent différencier les consommations du ménage selon la personne du ménage, est de se servir des pratiques de consommation effectivement observées sur les ménages en fonction de leur composition familiale. Si, toutes choses égales par ailleurs, une famille de trois enfants a tendance à consommer 30% de plus qu’une famille de deux enfants, on en conclura que le troisième enfant vaut 0,3 unités de consommations. On le voit, plus les économies réalisées par individu supplémentaire dans le ménage sont fortes, moins chaque personne représentera d’unités de consommation. A l’opposé, en l’absence de ces économies d’échelles, chaque membre supplémentaire d’un ménage compterait pour 1 unité de consommation.

A partir de ce type d’études empiriques, plusieurs échelles ont été proposées. La plus communément utilisée aujourd’hui est celle dite « OCDE modifiée ». Elle attribue une unité de consommation au premier adulte, puis 0,5 à chaque adulte supplémentaire, et 0,3 unité pour tout enfant de moins de 14 ans. Evidemment, cette échelle ne saurait représenter parfaitement les économies réalisées par tous les ménages, dans tous les pays, à tous niveaux de revenu. Mais son avantage est d’être utilisée par tous, et donc d’offrir une comparabilité des résultats dans le temps et l’espace particulièrement appréciable.

A côté des ces échelles empiriques, il est amusant d’observer que les échelles d’équivalence connaissent de facto une traduction légale au travers des barèmes des prestations sociales et familiales accordées par les pouvoirs publics. En effet, la modulation des prestations selon la situation familiale repose sur des échelles implicites d’équivalence : on donne 440 euros de RMI à une personne seule, mais 661 euros à une personne en couple, car l’Etat vise à maintenir le même niveau de vie selon les situations familiales (objectif de solidarité horizontale). On le voit dans cet exemple, l’Etat considère donc qu’au niveau du RMI, une personne adulte supplémentaire représente 0,5 unité de consommation en plus ((661-440)/440=50,2%).

Et là, ça devient franchement drôle. Car quand l’on calcule les échelles d’équivalences implicites prévalant pour les différents dispositifs de politique sociale et familiale en France, voilà ce que l’on trouve (pour plus de détails, voir Colin et Guérin « Quelles prise en compte de la taille du ménage dans le système français de transferts sociaux-fiscaux ? » Document de Travail, DSDS, INSEE, 2005).

On le voit, le quotient familial, qui s’applique aux contribuables imposables (donc les 50% des foyers aux revenus les plus élevés), a tendance à considérer que ces économies d’échelle sont faibles voire nulles à ces niveaux de revenus, tandis que pour les autres prestations, qu’elles soient universelles (comme les allocations) ou ciblées sur les bas revenus, elles ont tendance à prendre en compte de fortes économies d’échelles familiales. Autrement dit, le système socio-fiscal français est beaucoup plus généreux avec les enfants de ménages riches qu’avec les enfants de ménages pauvres…

Bien sûr, comparer prestation par prestation n’a pas forcément grand sens. C’est pourquoi, en effectuant des micro-simulations de l’impact de toutes ces prestations sur les ménages, on peut obtenir une mesure de l’équivalence implicite du système socio-fiscal dans son ensemble, et ce pour différents niveaux de revenus. Le résultat est assez troublant : au niveau des très hauts revenus, le conjoint représente implicitement une unité de consommation et les 2 premiers enfants supplémentaires presque 0,4, quant au troisième, il représente aux yeux du système socio-fiscal presque 1 unité ! C’est une échelle beaucoup plus généreuse que celle qui prévaut à des niveaux de revenu inférieurs…

Du coup, on peut interpréter ces chiffres de deux manières :

1/ On peut d’abord penser que la puissance publique est capable de prouver que les ménages riches ne font pas d’économie d’échelle à vivre à deux, à la différence des ménages pauvres (du genre, les riches ont deux chambres séparées pour les conjoints, tandis que les pauvres, qui n’ont pas de chauffage peuvent partager le lit pour se réchauffer !). Ou encore que le coût d’un enfant riche est proportionnellement beaucoup plus fort que celui d’un enfant pauvre. (En soi, ce n’est pas impensable, mais tout de même, de tels écarts sont stupéfiants !)

2/ L’autre solution c’est d’admettre que parfois l’Etat fait sans doute plus que compenser les charges de famille. Indirectement donc, il soutient plus directement la nuptialité et la fécondité des ménages riches que celles des ménages pauvres (si l’on admet que les ménages réagissent de la même manière aux incitations financières quel que soit leur niveau de revenu, ce qui, en soi, n’a rien d’évident) !

Un brin eugéniste, donc, notre système socio-fiscal ? Pas forcément étonnant, me direz-vous, lorsque l’on sait la place prépondérante occupée par les réflexions des associations familiales et natalistes dans la genèse de la politique familiale française. Oui, mais tout de même, il est amusant d’en constater les séquelles un demi-siècle plus tard !

Pour une discussion des conséquences économiques de l’eugénisme, nous verrons plus tard, si ça ne vous dérange pas. Mais sachez tout de même que l’eugénisme, petits économistes, n’est pas forcément un mal pour vous... Songez aux mots de Platon dans la République :

« Créer des unions au hasard serait une impiété dans une cité heureuse. Il est donc évident qu'après cela nous ferons des mariages aussi sains qu'il sera en notre pouvoir ; or les plus sains seront aussi les plus avantageux. Quant aux jeunes gens qui se seront signalés à la guerre ou ailleurs [ce n’est pas totalement explicite, mais Platon pense très forts aux docteurs en économie ici !], nous leur accorderons, entre autres privilèges et récompenses, une plus large liberté de s'unir aux femmes » !

I love it ! (sorry Noblabla…)
_Camille_

Lire la suite...

mardi 27 mars 2007

Evaluation des politiques publiques (3/7) : les techniques


Pour clarifier les enjeux, il faut clairement distinguer les objectifs et les moyens de l’action publique. Les objectifs sont de l’ordre des choix politiques des citoyens dans le cadre de la démocratie. Faut-il dépenser plus dans l’éducation ou dans l’armée, dans les retraites ou la recherche, pour l’aide au développement ou pour la santé ? A l’inverse une partie des choix des politiques publiques sont de l’ordre des moyens. Tout le monde s’accorde à vouloir un taux de chômage plus faible, mais la question est comment faire ? Faut-il faire des préretraites, les 35 heures, modifier le contrat de travail, modifier le système d’assurance chômage, mettre en place des baisses de charges sociales, modifier le salaire minimum, baisser les impôts, faire du déficit public… ?

Une première possibilité consiste à évaluer l’efficacité de ces différentes politiques en vue de l’objectif fixé et à juger si celles-ci ont des effets non désirés. Si par exemple améliorer la flexibilité du marché du travail permet de baisser le chômage en dégradant les conditions de vie des salariés, les citoyens sont en droit de refuser une telle politique en faveur d’une autre plus adéquate. Mais pour faire ce choix en connaissance de cause, il faut d’abord étudier quels sont les effets des différentes politiques proposées. Et ceci n’a rien d’évident.

La difficulté majeure de l’évaluation des politiques publiques vient du fait qu’il est techniquement difficile d’estimer « l’effet pur » des politiques publiques. On ne peut pas observer un même pays avec une politique x et sans cette politique. Toute la question de l’évaluation repose sur ce problème : il n’est pas possible d’observer le « contrefactuel » (ce qui ce serait passé si cette politique n’avait pas eu lieu).

Prenons l’exemple du CNE : on mesure qu’un an après l’introduction du nouveau contrat, 570 000 contrats ont été signés (de septembre 2005 à août 2006 selon l’Acoss). Qu’en conclure ?

  • Que le CNE a « permis de créer 570 000 nouveaux emplois » ? (ça serait le cas si l’on pouvait vérifier que, dans un monde sans CNE, le nombre d’emplois créés serait inférieur de 570 000) ;

  • Que le CNE a « a simplement conduit à une substitution de CNE à des CDI » ? (ça serait le cas si l’on pouvait vérifier que, dans un monde sans CNE, au bout d’un an 570 000 nouveau CDI auraient de toutes les façons été créés).


Le problème fondamental est qu’une « France sans CNE » n’existe pas en même temps qu’une « France avec CNE » : estimer la causalité de l’existence du CNE sur l’emploi n’a donc rien d’évident !

L’approche la plus basique consiste à comparer l’emploi après avec celui avant l’introduction de la politique publique (en l’occurrence le CNE) qui nous intéresse. Or imaginons qu’au moment où le CNE est mis en place le dollar monte, l’Allemagne sort de récession ou encore l’hiver dure moins longtemps : comment peut-on faire pour savoir quelle part de ce qu’on observe attribuer au CNE et quelle part aux autres facteurs favorables qui se sont manifestés de manière simultanée ?

Une autre méthode consiste à comparer deux groupes, les entreprises touchées par le CNE (moins de 20 salariés) et les entreprises non touchées par le CNE (plus de 20 salariés) : peut-on déduire de la comparaison de ces deux groupes que la différence d’embauche est liée au CNE ? Pas vraiment. Cette différence représenterait l’effet du CNE uniquement si les entreprises de moins de 20 salariés et celles de plus de 20 salariés sont en tout points identiques quant à l’embauche et au cycle économique. Pas besoin de longues études d’économie pour être d’accord sur le point que ces deux groupes ne sont pas tout à fait comparable : le biais de sélection est évident.

Les économistes ont alors cherché à utiliser des méthodes statistiques pour isoler l’effet de causalité et s’émanciper des biais de sélection. Pour établir des relations de causalité, la méthode la plus convaincante est de faire une expérience. On tirer au sort deux groupes, l’un « test » à qui la réforme est appliquée, l’autre « de contrôle », sert de groupe de comparaison. Le choix aléatoire des deux groupes les rend identiques et donc retire le biais de sélection. Si cette méthode a des atouts indéniables du point de vue scientifique, elle est coûteuse à mettre en place et fait souvent face à l’opposition de ceux qui considèrent l’expérimentation des politiques sociales comme non éthique.

Pour pallier le manque de telles expériences, les économistes ont recours à des expériences naturelles, c’est-à-dire l’étude de réformes ou de variations qui se rapprochent d’une expérience contrôlée (différents groupes touchés différemment). Une des méthodes les plus utilisées aujourd’hui (parmi d’autres méthodes), s’appelle « la double différence ». L’idée est de comparer la différence entre deux groupes (l’un touché par la réforme, l’autre pas) avant la réforme puis après la réforme. Si les deux groupes n’évoluent pas de façon différente (hormis à cause de la réforme), on va pouvoir identifier l’effet pur de celle-ci. Cette méthode a l’avantage d’être très transparente pour les évaluations et donc de pouvoir plus facilement convaincre des lecteurs non spécialistes. C’est un avantage considérable qui explique largement son succès. Toute la difficulté consiste à trouver des groupes tests et de contrôle convaincants, c’est-à-dire qui soient aussi similaires les uns des autres avant la réforme, comme s’ils avaient été tirés au sort.

Pour autant, la recherche économique qui s’est concentrée sur les évaluations de politiques publiques est beaucoup plus complexe et a développé bien d’autres méthodes, non pas pour maintenir le débat aux mains d’experts tout puissants, mais parce les questions en jeu sont d’une réelle complexité. Plusieurs exemples peuvent aider à préciser cette nécessité :

D’abord, l’effet à court terme peut être différent d’un effet à long terme. Par exemple, l’introduction du CNE peut conduire à court terme à la création de nouveaux emplois, mais qui vont progressivement se substituer aux CDI qui disparaissent. Ou, à l’inverse, la création d’un nouveau contrat de travail n’a que peu d’effet à court terme mais accroît à plus long terme l’embauche de tous les salariés.

Ensuite, une politique économique touche les individus de façon différente : certains peuvent réagir nettement d’autres pas du tout. Effectuer des simples comparaisons des effets moyens masque parfois la diversité des situations : il est possible que le CNE soit très efficace pour offrir des emplois à des jeunes sans qualification qui étaient exclus avant du marché du travail car les employeurs ne voulaient pas leur faire confiance pour un essai, mais que ce contrat soit destructeur de stabilité pour les plus qualifiés. Un effet moyen masque alors des situations très différentes, voire opposées (les économistes appellent ce problème l’hétérogénéité des réactions).

Enfin, le problème de l’équilibre général se pose de façon nette à tous les spécialistes de l’évaluation : une politique peut avoir un effet au niveau micro (en équilibre partiel) et avoir un effet net très différent une fois que son impact sur toutes les autres variables est pris en compte. Ainsi, si le CNE incite à la création d’emploi (hypothèse), les salaires vont réagir à l’augmentation de la demande de travail (ils risquent d’augmenter si l’offre de travail est contrainte), ce qui va faire baisser en retour la demande de travail (si la demande de travail est sensible à son coût) ou l’augmenter (selon un effet keynésien d’augmentation de la consommation). L’effet net d’une politique va dépendre au final d’un certain nombre de réactions de l’économie que les économistes cherchent à étudier séparément. Les méthodes des expériences naturelles ont l’avantage de mesurer un effet global à un moment donné, mais comme la décomposition des effets est difficile, elles se prêtent mal à des généralisations. Par exemple si l’introduction du CNE est évalué comme positif pour l’emploi (hypothèse), cela ne prouve pas que le CPE (qui vise un autre public) va être efficace.

Les méthodes d’évaluation des politiques publiques sont en amélioration permanente depuis une quinzaine d’année. Elles se sont diffusées depuis les universités (américaines) pour alimenter de larges pans de la recherche économique. Pour que ces innovations parviennent à alimenter des évaluations de qualité, il faut un contact permanent et intense entre les institutions qui mènent les évaluations et la recherche de pointe dans ces domaines. Il y a donc une seconde difficulté à l’évaluation, institutionnelle cette fois… Suite au prochain numéro !
_Antoine_ _Fabien_

Lire la suite...

lundi 26 mars 2007

Grand méchant marché ou gros méchants rentiers ?


Augustin Landier et David Thesmar ont frappé fort avec le lancement de leur livre « Le grand méchant marché » en pleine campagne présidentielle. Il ne s’agira pas ici de faire un résumé du livre, ce qui a déjà été très bien fait par Econoclaste, ici et . Mais s’agissant d’un sujet aussi médiatisé que « la finance ennemie de l’emploi », il est nécessaire de distinguer les éléments incontestables de leur thèse de leurs conclusions plus aventureuses et politiquement marquées.

Le livre commence par une succession de preuves théoriques et empiriques que la finance n’est pas l’ennemie de l’emploi et de la croissance. L’originalité repose ici sur les éléments économétriques de réponses à d’aussi vastes questions que : les marchés sont-ils myopes ? Y a-t-il des licenciements boursiers ? les offres publiques d’achat hostiles détruisent-elles de l’emploi ? Les fonds de pension et autres fonds de private equity appauvrissent-ils les salariés ?

La réponse va systématiquement contre la doxa française anti-finance, mais faut-il y croire ? La réponse est oui, à ceci près que la quasi-totalité de ces études a été réalisée sur données américaines. Les résultats de telles études seraient-ils qualitativement différents en France ? A priori non, et on peut même imaginer que les résultats seraient encore plus favorables aux marchés financiers en France : comme le capitalisme français se caractérise surtout par une reproduction de ses élites dirigeantes plus forte qu’ailleurs (via la famille (1) ou la haute fonction publique), les marchés financiers pourraient contribuer à dynamiser les entreprises en cassant les rentes détenues par les dirigeants d’entreprise actuels, générant ainsi des gains de productivité synonymes de hausse des salaires et de l’emploi.

Si Landier et Thesmar ont donc raison de démystifier les marchés financiers, leurs explications des réticences françaises actuelles sont beaucoup plus discutables. En gros, les Français ne seraient pas naturellement opposés aux profits, mais seraient en réalité coupables d’une erreur collective d’appréciation : ayant observé que les 30 Glorieuses étaient associées à des marchés financiers faibles et un Etat fort, alors même que c’était aussi une période de reconstruction, les Français ne seraient pas capables de voir que cette potion magique ne fonctionne plus dans la période normalisée que nous vivons aujourd’hui.

Pour nous en convaincre, les auteurs s’adonnent à un exercice d’histoire de la culture économique française qui n’a bien sûr pas autant de valeur que les études scientifiques dont il était question précédemment. Ils décrivent un marché financier très démocratisé avant-guerre, en se fondant principalement sur les travaux de Pierre-Cyrille Hautcoeur. Il y avait en effet autant de détenteurs de titres financiers en 1914 qu’au début des années 1980. Faut-il en conclure que la finance et le profit étaient très populaires à l’époque ? Peut-être pas autant que semblent le penser nos auteurs si l’on regarde la répartition de ces titres au sein de la population française de l’époque. A cet égard, les travaux de Thomas Piketty sur les hauts revenus, étrangement jamais cités dans le livre, sont d’une grande aide : il estime qu’au début du siècle le patrimoine des « 200 familles » (i.e. les foyers qui appartiennent au 10000ème de la population disposant des plus gros patrimoines) était environ 600 fois supérieur au patrimoine des « classes moyennes supérieures » (i.e. les foyers riches, donc faisant partie des 10% de la population les plus riches en patrimoine, mais pas trop, donc ne faisant pas partie des 5% de la population les plus riches en patrimoine), alors que ce ratio n’était plus que de 50 en 1994, la véritable rupture se situant sans surprise durant les années 1940. Sachant que le patrimoine est d’autant plus composé de titres financiers qu’il est gros, ces estimations minorent certainement la réalité concernant la répartition de la détention des titres financiers avant-guerre. Conclusion : à moins de considérer qu’un franc égale une voix, le marché financier français de la Belle Epoque n’avait rien de démocratique !

C’est d’ailleurs une constante du livre de choisir comme unique indicateur de la popularité des marchés financiers le nombre de détenteurs d’actions sans jamais considérer la concentration de ces détentions d’actions. Or, que l’on regarde les Etats-Unis ou la France, cette concentration est largement plus forte que la concentration des revenus : aux Etats-Unis en 1997, le centième de la population détenant directement ou indirectement (via fonds de pension, organismes de placement ou assurance-vie) le plus d’actions, détenait plus de 50% de la capitalisation totale. En France en 1997, ce chiffre était légèrement inférieur à 50%.

Pourquoi en est-il ainsi ? Il y a des raisons qui ne sont pas propres aux actions : parce que le patrimoine s’hérite et parce que les riches épargnent une part plus importante de leur revenu, le patrimoine est toujours plus concentré que le revenu. Néanmoins, les actions sont un titre bien particulier : elles sont censées donner un pouvoir sur la direction de l’entreprise, mais pour réellement compter au moment des décisions importantes il faut disposer d’une part suffisamment importante du capital d’une entreprise. On peut répondre à cela que les actionnaires peuvent s’associer via des fonds de pension. Mais là encore, en empruntant les concepts de la théorie de l’information, cela ne consiste qu’à faire surveiller un agent par un autre agent ! Autrement dit, si je ne fais pas confiance aux managers pour bien gérer l’argent que j’ai investi, pourquoi faudrait-il a priori que je fasse confiance à mon gestionnaire de patrimoine ? In fine, ce n’est donc pas parce que les actionnaires sont nombreux que le pouvoir est réparti de manière égalitaire.

Enfin, les auteurs n’évoquent que très succinctement les effets délétères des diverses crises financières qui ont émaillé la période : emprunts russes, crise boursière des années 30. Dans la mesure où ces évènements sont trop récents et imprévisibles pour qu’il soit garanti que rien de tel ne se reproduira, on peut comprendre cette réticence des Français à placer leur épargne en bourse. La survenance d’évènements rares mais très destructeurs est d’ailleurs un des principaux candidats dans la littérature théorique pour expliquer le dédain inexplicable pour les titres d’actions, en France comme ailleurs.

Ceci nous amène à leur conclusion selon laquelle la manière de réconcilier les Français avec le profit serait de favoriser l’éclosion des fonds de pension. En augmentant le nombre de Français propriétaires de nos entreprises, cela permettrait de modifier l’équilibre politique en faveur du profit. Or en réalité il est peu probable que l’on puisse créer en France une société de rentiers véritablement démocratique, pour les raisons citées plus haut : le pouvoir des actionnaires est dans les faits un pouvoir laissé à la fraction la plus riche de la population. Aux Etats-Unis, ce modèle est légitime car dans l’imaginaire américain, l’actionnaire, c’est Warren Buffett ou Bill Gates, des self-made-men auxquels on s’identifie facilement, alors qu’en France on pense plutôt à Ernest-Antoine Seillière et les rares exemples de réussite fulgurante sont considérés avec suspicion. Cet argument d’économie politique pour les fonds de pension est donc pour le moins douteux (2).

Que peut-on donc retenir de ce livre ? Certainement la peinture qu’il fait de nos dirigeants actuels. Lorsqu’il s’agit de grandes entreprises, les patrons sont trop souvent issus des mêmes cercles (haute administration, grandes écoles). Quant aux patrons de PME, ils sont trop souvent issus de la famille du fondateur. Tous s’abritent derrière la défense de l’intérêt général pour défendre leurs rentes. Mais pour changer cet état de fait, il n’y a pas qu’une seule politique possible telle qu’elle est proposée dans ce livre, qui consisterait à construire une société de rentiers doublée d’un marché du travail dérégulé, soit une intelligente politique de droite. Une autre solution passerait par une concurrence plus forte sur le marché des biens (3), une politique fiscale encourageant la mobilité du capital (4) et un système éducatif d’élite moins malthusien.


NOTES :

(1) Une étude récente de John Van Reenen et Nick Bloom portant sur des moyennes entreprises industrielles américaines et européennes conclut qu’environ 40% de l’écart de productivité entre entreprises françaises et américaines provient des trop nombreuses transmissions familiales d’entreprises en France.
(2) Ceci ne préjuge pas de l’inéquité des fonds de pension par ailleurs, pour autant qu’ils investissent dans des titres moins coûteux en acquisition d’informations pour l’investisseur (comme c’est le cas aux Pays-Bas) et/ou qu’ils soient gérés par des autorités publiques ou parapubliques (comme c’est le cas en Suède).
(3) Le cas du commerce de détail est ici particulièrement frappant, puisqu’une libéralisation dans ce secteur pourrait probablement créer des centaines de milliers d’emplois. On peut lire à ce sujet la toute récente étude de Philippe Askénazy et Katia Weidenfeld.
(4) A cet effet, le rôle de l’impôt sur les successions est capital et trop rarement souligné.
_Laurent_

Lire la suite...

dimanche 25 mars 2007

Evaluation des politiques publiques (2/7) : tout un programme


Pour alimenter les débat de ce blog, nous allons proposer sur des sujets précis des feuilletons de longue haleine. Nous commençons par l’évaluation des politiques publiques. Pourquoi ? Le sujet peut apparaître aride à certains, digne des débats des commissions du Sénat. Il est pourtant au cœur des motivations qui fondent l’existence de ce blog et de nos travaux de recherche et répond exactement au débat sur le chiffrage des programmes économiques des candidats à l'élection présidentielle.

Depuis le 21 avril 2002, la France semble faire l’expérience d’un décrochage entre citoyens et hommes politiques ou plus généralement entre les citoyens et les « experts » des politiques publiques. Les Français ont l’impression d’avoir abandonné leur souveraineté à des experts dont ils contestent les choix qu’ils soient bureaucrates à Bruxelles, énarques à Paris ou même statisticiens à l’Insee. Le succès des propositions de Ségolène Royal et de Nicolas Sarkozy repose largement sur la remise en cause de ceux-ci.

A l’inverse, le constat pratiquement inverse est partagé par les chercheurs en sciences sociales qui déplorent à chaque intervention dans le débat public combien l’évaluation des politiques publiques est en retard en France, combien les données disponibles pour mesurer l’efficacité des politiques sont d’accès difficiles et combien les politiques publiques répondent plus souvent à des impératifs électoraux qu’à des nécessités de long terme.

Ces deux constats sont-ils vraiment contradictoires, opposant la vision d’experts méprisant la démocratie à celle des citoyens qui souhaitent reconquérir une souveraineté disparue ? Notre conviction est qu’il s’agit, au contraire, du même problème qui vient des lacunes de notre système d’évaluation des politiques publiques.

Les administrations publiques taxent 45 % du PIB et en dépensent 48%. Cela représente près de 800 milliards d’Euros en 2005. Ces dépenses sont largement essentielles au fonctionnement de notre pays, la santé, l’éducation, la police, l’armée, les institutions judiciaires, les assurances de retraite, d’invalidité, de maternité, de chômage, l’aide au logement… la liste est longue et non exhaustive. La plupart des débats politiques tournent autour du niveau de prélèvement : trop élevé pour beaucoup, il faut faire des économies, arrêter le « grand gaspillage ». Un débat récent s’intitulait ainsi faut-il augmenter ou baisser les prélèvements obligatoires. Il s’agit finalement d’une vieille rengaine du débat économique : le secteur privé ou le secteur public doivent-ils fournir les biens et les services demandés par la collectivité. Nationalisation contre privatisation, économie administrée contre économie de marché, gauche contre droite ? Cette vision correspond à une vision idéologique de l’économie, un choix des moyens et non des objectifs. A l’inverse, l’approche par l’évaluation des politiques publiques repose sur l’idée que les objectifs sont d’ordre politique, résultat des choix des citoyens, mais que les moyens pour atteindre ces objectifs peuvent être plus ou moins efficaces et doivent donc être soumis à l’analyse.

Le débat économique français reste pourtant cantonné à une vision idéologique des politiques publiques. Les politiques sont classées plus ou moins à droite ou à gauche et on choisit les études économiques qui vont dans le sens du résultat escompté. Le problème est que le plus souvent les effets de ces politiques sont a priori inconnus pour ceux qui ne se reposent pas sur une croyance idéologique. Pour savoir si une politique est efficace, il faut le plus souvent l’évaluer. C’est un travail difficile, minutieux et qui nécessite l’honnêteté intellectuelle de celui qui le mène. Contrairement à une pensée répandue, on ne peut pas faire dire ce que l’on veut aux statistiques !

Pour mener à bien de telles évaluations, de nombreuses conditions doivent être réunies : des chercheurs proches de la recherche académique, évalués par leurs pairs de façon indépendante, mais suffisamment proches des administrations pour connaître les institutions en jeu et pouvoir transmettre leurs résultats au public par la presse.

On est très loin d’un tel système en France. Le constat se nourrit d’un cercle vicieux que l’on pourrait décrire ainsi : le débat économique est notoirement faible ; les journalistes sont souvent accusés de rédiger de piètres articles économiques et de répéter les poncifs idéologiques des uns et des autres. Mais il faut reconnaître que les journalistes n’ont pratiquement pas à leur disposition des analyses économiques de qualité, des conférences de vulgarisation où ils pourraient être conviés. On ne peut pas décemment demander aux journalistes de lire les revues scientifiques en anglais pour traduire à leurs lecteurs les avancées de la recherche économique ! Est-ce alors la faute des chercheurs français ? Pas vraiment. Ceux-ci n’ont pas d’institutions pour communiquer leurs résultats ; ne disposant pas de données françaises gardées jalousement par les administrations, ils se reportent sur les données étrangères (qui intéressent nettement moins le débat national) ou plus souvent sur les questions théoriques… du coup, on n’investit pas dans la recherche sous prétexte que les chercheurs vivent dans leur bulle. Et la boucle est bouclée.

Pour réconcilier les Français avec leurs politiques publiques, il faut deux conditions sine qua non : que celles-ci soient efficaces et que les Français comprennent pourquoi. L’évaluation est un exercice d’expertise et un exercice de citoyenneté. Pour paraphraser Ségolène Royal, « les experts sont des citoyens »…

Ce feuilleton va d’abord aborder la question du problème de l’évaluation (pourquoi évaluer est compliqué : techniquement et institutionnellement), puis faire un bilan de l’évaluation en France, à l’étranger et enfin proposera des réformes.
_Antoine_ _Fabien_

Lire la suite...

vendredi 23 mars 2007

Evaluation des politiques publiques (1/7): chiffrage ou déchiffrage?


La blogosphère économique et la presse se sont retrouvées récemment pour critiquer le chiffrage des programmes politiques (à l’exception notable d’Alexandre Delaigue, de Charles Wyplosz et de Daniel Cohen). Qu’il s’agisse de Daniel Schneidermann, de Francis Kramarz, de Philippe Askénazy ou encore de Bernard Salanié, tous considèrent qu’il ne faut pas prêter une attention trop importante à ces chiffres, les responsables de l’OFCE allant même jusqu’à manifester leur opposition de principe à un chiffrage des programmes, considéré comme nuisible et dangereux.

Les arguments sont de deux ordres : le premier est que la cellule de chiffrage du site Debat2007 est financée par l’Institut de l’entreprise qui est suspectée de partialité du fait de des relations privilégiées de son patron, le PDG de la BNP Michel Pébereau, avec la droite, les entreprises et le patronat ; le second argument est qu’un chiffrage du simple coût budgétaire est insuffisant car les politiques économiques peuvent d’avoir des effets positifs susceptibles de réduire ex post le coût de ces politiques. Ces deux arguments sont recevables. Néanmoins, entre une vision critique du « chiffrage » et le dénigrement de toute analyse économique des programmes des candidats, il y a un pas que beaucoup semblent tentés de franchir. En effet, à la lecture de l’article du monde ou du post de D. Schneidermann, le lecteur peu familier des questions économiques risque de ne retenir qu’une seule chose : « on peut tout faire dire aux chiffres ! ». En affirmant que « la question fondamentale tient, en effet, au modèle économique sous-jacent aux différents dispositifs mis en oeuvre», Le Monde semble adhérer à la thèse (est-ce celle de l'OFCE?) selon laquelle les chiffres et l’analyse économique sont avant tout une question de conviction politique : si vous êtes de gauche, vous devez être néo-keynésien, c’est-à-dire que vous considérez que toute dépense « booste » mécaniquement la croissance et fait baisser le chômage ; si vous êtes libéral, vous pensez plutôt que c’est en diminuant le coût du travail (en allégeant les charges sociales par exemple) que l’on peut espérer faire baisser le chômage. Tout serait donc une question de conviction idéologique.

Les contributeurs de ce blog partagent une conviction radicalement opposée : nous pensons que la politique économique peut être efficace pour réaliser les objectifs politiques et sociaux que les citoyens se fixent, pourvu qu’on ait une vision claire des mécanismes à l’œuvre. La question n’est donc pas de savoir si vous êtes néo-classique ou néo-keynésien, mais de savoir si la demande de travail est sensible à son coût, à la flexibilité de la main-d’œuvre, aux variations du taux d’intérêt… Toutes choses qui ne sont pas « idéologiques » par natures et qui peuvent être tranchées en s’appuyant sur les résultats d’études quantitatives de qualité. Ce qui relève du choix politique, ce sont les objectifs eux-mêmes et la manière dont les citoyens souhaitent les hiérarchiser : qualité des emplois, quantité d’emploi, degré de flexibilité du marché du travail, redistribution, etc.

Que dire alors du chiffrage des programmes politiques ? Il a fondamentalement un double intérêt : d’abord, d’obliger les candidats à réfléchir au réalisme de leur programme économique. Les hommes et femmes politiques sont les relais des citoyens : ils doivent donc comprendre leurs aspirations et leurs souhaits s’ils espèrent conquérir leurs suffrages. Les Français souffrent du chômage : il faut donc leur promettre de combattre ce fléau. Mais comme le plein emploi ne se décrète pas, il est nécessaire que les politiques expliquent par quels moyens ils comptent atteindre cet objectif. Or le rôle des chercheurs et instituts indépendants est précisément de passer au crible ces propositions de politique économique : le chiffrage des mesures permet de mettre en balance le coût probable (et incertain) de la politique vis-à-vis des gains escomptés. Cela évite que les programmes ne ressemblent par trop à un inventaire à la Prévert destiné à satisfaire tous les corporatismes. Le chiffrage, ou l’analyse chiffrée des programmes, vise à éviter une telle dérive.

Le second avantage d’un chiffrage des programmes est de forcer à la cohérence. On ne peut pas dire en même temps que l’on va dépenser plus, qu’on va baisser la dette tout en promettant de réduire les impôts. Il y a un arbitrage à faire et c’est sur celui-ci que le débat doit porter. Laisser croire qu’il n’y a pas d’arbitrage à faire et qu’une politique de dépenses nouvelles ou de baisse d’impôt va miraculeusement relancer l’économie et ainsi régler tous les problèmes des Français est une illusion. Le Chiffrage les programmes, c’est le premier pas de l’évaluation des politiques économiques publiques. Cela oblige ceux ou celles qui se souhaitent présider aux destinées du pays à préciser leurs projets : plus de moyens pour la recherche ? Très bien, mais comment, pour qui, combien, quel financement ? Dire que la recherche est un investissement socialement rentable – une position défendue par tous l’ensemble des contributeurs de ce blog – n’est pas suffisant pour éviter de parler de son financement. L’augmentation du budget de la recherche ne va pas se traduire immédiatement par une croissance économique plus forte. Tout dépendra de la façon dont le budget supplémentaire est alloué : une raison supplémentaire pour demander des détails à nos candidats !

Chiffrer, c’est demander des engagements précis, un programme et non pas de vagues promesses. Ceux qui s’y opposent sous prétexte qu’il existe des débats économiques sur les effets de différentes mesures se trompent de cible. "Des experts nous abreuvent de chiffres pour soi-disant éclairer les citoyens, mais leurs calculs ne correspondent pas à la réalité et escamotent entièrement le débat politique" écrit Xavier Timbeau dans Le Monde. C’est plutôt tout le contraire : trop peu d’experts indépendants fournissent des analyses chiffrées sur les programmes politiques et le débat politique s’en trouve diminué.

Le journal Libération a alors apporté une réponse originale en mettant en ligne un blog de quatre économistes "Déchiffrer la campagne": l'idée est visiblement de s'opposer à la vision comptable du chiffrage mais de permettre aux lecteurs de bénéficier de l'expertise d'économistes pour "traduire" les propositions des politiques économiques. L'initiative doit être saluée d'autant qu'elle souligne le manque criant de ce type d'analyse et leur caractère artisanal et disparate.

Cela rend d’autant plus nécessaire une prochaine chronique sur ce blog consacré à l’évaluation des politiques publiques en France. Nous parlerons des motivations de l'évaluation, des techniques statistiques et économétriques disponibles, de la facon dont les politiques publiques sont évaluées en France et à l'étranger... A suivre sur ecopublix.eu !
_Antoine_

Lire la suite...

mardi 6 mars 2007

Qui sommes nous ?


Nous sommes une bande de jeunes chercheurs en économie publique (avec des domaines de recherche variés), pas forcément d'accord sur tout, mais décidés à garder leur bonne humeur. Voici quelques-uns d'entre nous :

ANTOINE : Après avoir consacré trois ans à une these sur les retraites, Antoine travaille aujourd'hui outre-manche à l’évaluation des politiques publiques en particulier sur des questions d’emploi, de fiscalité et de retraite. Il enseigne en outre l’économie de la fiscalité dans une université britannique. [posts]

CAMILLE : Camille a fait son doctorat à Paris, et profite désormais du soleil californien pour enrichir sa connaissance de l'économie publique à Berkeley et pour fréquenter les spots de surf de Santa Cruz... C'est ça aussi Ecopublix, les économistes en maillot! [posts]

CLÉMENT : ayant quitté Massalia pour vendre de la cervoise à Lutèce, il finit par y étudier les incidences fiscales. Il n'en a pas moins gardé des liens avec ses premières amours puisqu'il habite près du dernier vignoble lutécien et travaille à côté des anciens entrepôts vinicoles, placés à cet endroit pour se soustraire à l'octroi : incidence fiscale ? [posts]

EMMANUEL : Après avoir obtenu sa thèse au Royaume-Uni, Emmanuel s'est installé en Suède où il travaille essentiellement sur l'aide au développement. [posts]


FABIEN : Lutécien d'origine, il continue à consacrer ses fins de semaine à une thèse sur les inégalités de revenus et de patrimoine. Pour l'heure, il travaille chez les Goths et tente d'en tirer des leçons pour la Gaule. [posts]


GABRIELLE : elle a fait ses premières régressions dans le même bureau qu'un grand nombre des
membres d'Ecopublix. Depuis elle a migré comme beaucoup d’entre eux, mais plus au sud. [posts]

GUILHEM: en thèse d'économie du développement à Paris, il s'intéresse à la construction des identités ethniques. Plus particulièrement, il travaille sur le système de caste Indien et l'influence de la présence coloniale sur ce dernier.[posts]

JULIEN : il s'est spécialisé dans l'analyse des réformes éducatives qui ne marchent pas. Sévèrement critiqué dans son pays pour son excès de zèle, il a dû s'exiler chez les Bretons où il noie le mal du pays dans la bière et le jelly. [posts]

LAURENT: Ex-apprenti vendeur de menhirs, il a vite troqué son costume de pingouin pour la tenue plus décontractée de thésard. Mais il s'intéresse encore aux délices du managementum à la gauloise, et en particulier à son financement. [posts]

MATHIEU : Initié à l'économie du côté de Strasbourg, Mathieu a vite quitté le pays du Gewürztramine pour rejoindre les économistes de la capitale. Ses travaux actuels ont pout but de comprendre pourquoi certains écoliers français éprouvent des difficultés à assimiler les pourtant très digestes programmes du Mammouth. [posts]

_Ecopublix_

Lire la suite...