lundi 22 mars 2010

Ethnicité : spin off


Le premier post sur l’ethnicité et la fourniture du bien public nous avait laissé la désagréable impression que la seule issue permettant une fourniture de biens publics de qualité était la formation de « ghettos ethniques » dans lesquels chacun s’entendrait sur le type de bien public à fournir, serait prêt à participer à son financement, collaborerait efficacement avec les autres membres de son ethnie et surveillerait attentivement que chacun en fasse bien de même.
Ce post va s’attaquer à cette impression de deux manières.



Tout d’abord, plutôt que de la dénoncer sur des critères éthiques, nous allons, en bons économistes, voir si l’on peut effectivement atteindre un optimum social stable en redécoupant les frontières des pays selon des critères d’homogénéité ethnique.
Une fois cet exercice terminé, nous verrons également que notre impression que la solution ne saurait résider que dans une forme d’apartheid tient à une hypothèse très forte (et très fausse) sur l’ethnicité, à savoir qu’un individu ne peut se définir que par une et une seule identité ethnique au cours de sa vie.


I. La taille des Nations.

La question de la détermination de la taille optimale des pays, telle qu’analysée par Alberto Alesina et Enrico Spolaore dans leur ouvrage The Size of Nations (dont on peut trouver une partie des arguments résumés dans cet article ), nous offre un cadre analytique permettant de savoir si, oui ou non, on peut parvenir à un optimum social stable en redécoupant les pays selon des critères d’homogénéité ethnique. En effet, ces auteurs cherchent à comprendre la détermination de la taille des pays, dans un contexte d’arbitrage entre des économies d’échelles (plus le pays est grand, plus le coût par tête de la fourniture de bien public est faible) et d’hétérogénéité des préférences (plus le pays est grand, plus ses habitants diffèrent en termes de préférences sur le bien public). Définissant le nombre optimal de pays comme celui qui permet de maximiser la somme des utilités des habitants du monde, ils cherchent alors à savoir si celui-ci est effectivement réalisable.

Dans le modèle qu’ils proposent, volontairement simplifié, la distance géographique entre les individus est proportionnelle à leurs différences en termes de préférences sur le bien public à fournir. En posant que les groupes ethniques sont répartis sur des zones géographiques spécifiques, on peut donc reprendre leur problématique en l’appliquant à des groupes ethniques qui auraient des préférences différentes sur les biens publics à fournir.

Le nombre optimal de pays va être fonction décroissante du coût du bien public et croissante de la perte d’utilité que représente pour un individu le fait que ce bien est relativement éloigné de ses préférences (c'est-à-dire, ici, géographiquement éloigné). Ainsi, si l’on représente le monde comme une ligne et que le nombre de pays optimal est de 5, on peut représenter le monde comme sur le graphique ci-dessous. Dans le 3e pays, le bien public, est fourni exactement au centre (de même que dans chacun des autres pays). Il en résulte que les individus, ou groupes ethniques, situés près de la frontière seront très peu satisfaits car, alors qu’ils contribuent au financement de ce bien, ils n’en obtiennent qu’une faible utilité, car il ne correspond pas au bien public qu’ils désirent. Dès lors, les habitants de chaque pays résidant près des frontières auront intérêt à faire sécession et à créer leur propre pays, qui leur fournirait un bien public plus proche de leurs attentes. Partant d’une situation optimale, on constate alors que le nombre de pays n’est pas stable, et que, dans un cadre où la sécession peut se faire relativement aisément, le nombre de pays sera supérieur à celui désirable socialement.




En d’autres termes, laisser les individus décider de la taille de leur pays en fonction de leurs préférences entraine un nombre socialement sous optimal de pays. Dans notre contexte, cela signifie qu’un monde de ghettos ethniques, dans lesquels les populations sont très homogènes du point de vue de leurs préférences est un monde inefficace, car ne prenant pas bien en compte le fait qu’appartenir à un pays plus grand, et donc plus hétérogène ethniquement, permet de réduire la facture du bien public.


II. Un portefeuille d’identités ethniques ?

Définir les frontières des pays ou des juridictions sur des critères ethniques ne semble donc pas être optimal, alors même que nous avions complètement négligé le coût que peut représenter un tel découpage (les relations entre l’Inde et le Pakistan ou entre Israéliens et Palestiniens semblent pourtant indiquer que ce coût est loin d’être négligeable). Cependant, il ne faut pas nécessairement en conclure que nous sommes condamnés à une sous provision de biens publics due à la cohabitation de trop de groupes ethniques différents.
En effet, nous avons jusqu’à présent supposé que l’ethnicité des individus était clairement définie, identifiable et inaltérable. C’est en réalité loin d’être le cas. Les théories constructivistes ont en effet largement démontré à quel point l’identité ethnique peut être fluctuante. Ce type d’approche montre en effet que loin d’être quelque chose de fixé, l’identité ethnique d’un individu est le fruit d’une construction sociale, et qu’elle est donc sujette à évolution et manipulation.
La définition du concept d’ethnicité fait débat, car, comme l’écrit Max Weber, « le concept général d’ethnie […] est un fourre tout ». Kanchan Chandra dans un survey sur la définition du concept, propose de comprendre l’identité ethnique comme « un sous ensemble de catégories d’identité auxquelles l’éligibilité est déterminée par des attributs liés à l’origine (« descent based attributes ») » Dans cette définition, sont donc définies comme ethniques des identités telles que la couleur de la peau ou la région d’origine, que le sens commun ne considère généralement pas comme des ethnies, alors qu’elles le sont dans la littérature sur l’ethnicité.

Si l’on en croit Daniel Posner , les théories constructivistes enrichissent la question de l’ethnicité de deux manières. Tout d’abord, loin d’être définis par une seule identité ethnique, les individus, en possèdent en réalité plusieurs, susceptibles d’être mobilisées à des moments spécifiques dépendant du contexte économique et social (un individu peut choisir de s’identifier d’abord à son clan, à sa région, à sa langue, à sa couleur de peau, à son pays…).
Ensuite, à supposer que le type d’identité ethnique à laquelle on s’identifie soit fixé, la frontière entre chaque « ethnie » est souvent floue, rendant possible le passage d’une ethnie à l’autre. Même dans le cas extrême de la couleur de peau, pour lequel l’appartenance ethnique est directement visible, et donc difficilement manipulable, la différence de couleur n’est en réalité pas discrète mais continue, rendant possible des changements d’ethnie à la marge.
Ce type de manipulation d’identité ethnique a peu été étudié empiriquement, car nécessitant d’avoir des données d’identité ethnique prises en différentes périodes. On peut néanmoins citer l’exemple historique de la mobilisation des associations de caste dans l’Inde du début du XXe siècle (étudiés notamment par Nicholas Dirks ou Susan Bayly), qui cherchaient à améliorer le statut de leur caste, en passant notamment par une modification du nom de celle-ci pour adopter des noms tels que « Brahmane » ou « Rajput », plus prestigieux. Les données de recensement de l’époque sont en ce sens éloquentes, soulignant les tentatives des différents groupes de castes pour manipuler leurs noms face aux autorités du recensement. Ainsi, la caste des Kanets de l’actuel Himachal Pradesh (qui appartenait à l’époque à la Province du Punjab) a obtenu, au recensement de 1921, le droit de se déclarer comme Rajput, entrainant une modification massive de la population de ces deux groupes dans le recensement, comme on peut l’observer sur le graphique.




Cependant, ce type de manipulation reste relativement rare car difficile à mettre en œuvre, tant au niveau individuel qu’au niveau collectif. Il n’est donc pas celui qui nous intéresse en priorité ici, le cas de figure le plus fréquent n’étant pas celui d’un changement d’ethnie (par exemple, changer de clan), mais plutôt celui où l’identité ethnique « pertinente » (en anglais « salient », je n’ai pas trouvé de traduction moins moche) change.

De nombreux travaux ont en effet montré à quel point l’identité ethnique « pertinente » répond au contexte économique et social. Les travaux de Daniel Posner sur la Zambie sont particulièrement marquants sur la question.
Dans cet article en particulier, il utilise le fait que la frontière entre la Zambie et le Malawi, décidée arbitrairement au moment des indépendances, ne coïncide pas avec la répartition géographique des groupes ethniques, et en coupe donc certains en deux. Il s’intéresse ainsi aux relations entre les Chewas et les Tumbukas, deux groupes répartis d’un coté et de l’autre de la frontière. L’arbitraire dans le tracé de la frontière implique que le fait de se trouver d’un coté ou de l’autre de celle-ci est uniquement du au hasard. Dès lors, on peut supposer qu’un Chewa du Malawi a des caractéristiques très similaires à celles d’un Chewa de Zambie, et de même pour les Tumbukas. Il en résulte que les différences culturelles entre Chewas et Tumbukas sont les mêmes de part et d’autre de la frontière, et que toute différence dans les rapports entre ces deux groupes peut être attribuée au fait d’appartenir à un pays différent, avec ce que cela implique en terme de différences institutionnelles, plutôt qu’à des différences culturelles fondamentales entre ces groupes spécifiques à un pays.

Or, on constate de manière relativement surprenante que si au Malawi ces deux groupes ethniques tendent à être des adversaires sur le plan politique, avec des partis spécifiques, et des votes très marqués par l’appartenance à l’une ou l’autre de ces communautés, ils sont au contraire alliés en Zambie, avec un parti politique commun, et le sentiment d’appartenir à une même communauté, celle de la région. Ce sentiment se trouve illustré de manière flagrante dans les résultats d’une enquête menée par Posner, et reproduite dans le graphe ci-après.




Pour rendre compte de cet état de fait, l’argument de Daniel Posner est que la taille relative de chacun de ces groupes par rapport à la population du pays dans son ensemble est très différente de part et d’autre de la frontière : alors qu’au Malawi, chacun représente une large part de la population, ils sont tous les deux très minoritaires en Zambie. Dès lors, un politicien désireux de remporter des élections en ayant recours à une identification ethnique des électeurs n’aura pas la même stratégie d’un coté ou de l’autre de la frontière : le politicien Zambien aura tout intérêt à chercher à mobiliser ses électeurs sur les bases de leur identité régionale, afin de s’assurer une base suffisamment large pour espérer gagner les élections, tandis qu’un politicien Malawite, lui, cherchera à mobiliser les électeurs sur leur identité communautaire.

Il apparait donc que l’écart culturel existant entre différents groupes ethniques n’est pas en soit clivant : il ne le devient que parce qu’il est stratégiquement construit en réponse à un contexte donné. D’autres études abondent dans le sens d’une identification stratégique à l’ethnie, qui n’est d’ailleurs pas systématiquement due aux calculs des hommes politiques, mais peut être également le fruit de stratégies individuelles, comme dans le cas de la recherche d’un emploi.


III. Heal the world, make it a better place.

L’identité ethnique étant largement construite, et donc susceptible d’être manipulée, notre problème de fourniture de biens publics dans un environnement multi ethnique n’apparait plus totalement insoluble, puisque pouvant potentiellement être surmonté par la redéfinition des lignes de clivages entre groupes ethniques. Il en résulte une large responsabilité des hommes politiques, qui, s’ils veulent véritablement tenter de résoudre cette situation sous optimale, doivent résister à la tentation électoraliste de mobiliser les électeurs sur des identités clivantes, pour tenter au contraire de lisser celles-ci afin qu’elles ne viennent pas polluer le débat politique. Autant dire qu’il n’y a pas de raison d’être très optimiste, les incitations des hommes politiques allant clairement à l’encontre d’une évolution bisounours des rapports entre groupes ethniques. Il ne reste plus qu’à gagner souvent des coupes du monde de rugby, de foot, ou les JO...
_Guilhem_

Lire la suite...

vendredi 5 mars 2010

Philanthropie, « joie de donner » et normes sociales.


Dans son post précédent, Guilhem a expliqué le problème des biens publics, auxquels tout le monde a accès, sans pourtant être obligé de participer à leur financement : chaque individu est ainsi tenté de laisser les autres payer pour ces biens. Ce comportement de passager clandestin conduit à un montant de financement privé trop faible des biens publics et justifie l’intervention de l’Etat. Le raisonnement économique classique ne permet cependant pas d’expliquer de façon très satisfaisante pourquoi les individus continuent à donner à des associations d’intérêt général ou d’utilité publique, alors même que la fourniture de biens publics par l’Etat s’est fortement développée.


Le raisonnement économique standard sur les biens publics implique en effet qu’il y devrait y avoir un effet d’éviction total (« perfect crowding out ») entre les impôts levés pour financer un bien public et les financements privés préexistants, c’est-à-dire qu’un euro de financement public supplémentaire devrait conduire à une réduction du financement privé d’un euro. Par exemple, si une association d’intérêt général comme les Restos du Cœur financée par des dons privés reçoit une aide de l’Etat, la théorie économique standard prédit que les donateurs privés devraient réduire leur dons d’un montant équivalent au montant de l’aide publique. En d’autres termes, ce qui importe est le montant total de bien public financé, et non la façon dont le bien est financé.

Ce raisonnement est ainsi souvent évoqué pour expliquer le faible niveau de dons privés en France par rapport à un pays comme les Etats-Unis, où le niveau des dépenses publics est plus faible : en ne prenant en compte que les dons monétaires réalisés en faveur d’institutions philanthropiques et déclarés à l’administration fiscale, les dons représentaient 1,4 % du PIB aux USA en 2002 contre 0,08% en France. Il est cependant difficile en pratique d’établir un lien de causalité direct entre le niveau des dépenses publiques et le niveau de philanthropie de différents pays, car les systèmes institutionnels diffèrent selon un grand nombre d’autres caractéristiques qui peuvent affecter le niveau de dons. Ainsi, de nombreux pays tentent d’encourager les dons aux associations au moyen d’incitations fiscales : en France, pour chaque euro de don, un contribuable imposable peut bénéficier d’une baisse d’au moins 0,66 centime du montant de son impôt sur le revenu (et jusqu’à 75 centimes pour les dons à des associations comme les Restos du Cœur), ce qui en fait l’un des systèmes les plus incitatifs au monde, et devrait en théorie conduire les ménages à donner plus.

Pour tester précisément l’existence d’un effet d’éviction entre le financement public et le financement privé des biens publics, des expérimentations « contrôlées » ont été menées en laboratoire. James Andreoni a ainsi conduit une expérience avec différents groupes d’individus : dans le premier groupe les membres pouvaient choisir de contribuer à un bien public de façon totalement volontaire, alors que dans un second groupe les individus étaient taxés pour le financement du bien public et devaient décider s’ils étaient prêts à contribuer de façon volontaire en plus de la taxe. Les résultats de l’expérimentation suggèrent que lorsque les individus sont taxés, ils réduisent effectivement leurs contributions volontaires, mais pas complètement : l’effet d’éviction n’est pas total, et le montant disponible pour financer le bien public augmente. Il apparait que la philanthropie est un comportement complexe que la modélisation économique standard ne parvient pas bien à expliquer.

Les économistes ont cherché cependant à enrichir leur modèle pour comprendre les motivations des comportements philanthropiques. Deux types de motivations d’ordre sociologique et psychologique ont été explorées : la « joie de donner » d’une part et l’importance des normes sociales d’autre part. La joie de donner reflète l’idée que les individus retirent un certain bénéfice au fait de donner à une association qu’ils ont choisie. Dans ce cas, si les individus ne réduisent pas totalement leurs dons lorsqu’ils sont taxés, c’est parce que le fait de donner leur procure une utilité supplémentaire. A l’opposé, la pression sociale peut conduire les individus à donner lorsqu’ils sont sollicités par une association, alors qu’ils choisiraient de ne pas donner s’ils n’étaient pas sollicités. Dans ce cas, le don « forcé » réduit l’utilité des individus.

Pour mesurer l’importance de la pression sociale dans les comportements de don, Stephano Della Vigna, John List et Ulrike Malmendier ont eu l’idée de mener une expérimentation grandeur nature en réalisant une campagne pour une association caritative aux Etats-Unis, en testant plusieurs techniques de sollicitation « porte à porte » sur différent groupes de ménages tirés au hasard. Pour certains groupes test, la campagne était annoncée par un prospectus accroché à la porte des maisons un jour avant et les ménages avaient la possibilité de cocher une case « Ne pas déranger », pour ne pas être sollicités le jour suivant. Dans le groupe de contrôle, la campagne de sollicitation était menée de façon traditionnelle, sans prévenir au préalable les ménages qu’une opération porte à porte serait réalisée. Les résultats montrent qu’une fraction non négligeable des ménages choisit de cocher la case « Ne pas déranger » lorsqu’ils en ont la possibilité (ou de ne pas répondre à la porte lorsqu’ils savent que l’opération de porte à porte aura lieu). De plus, lorsque l’on compare le montant des dons récoltés dans le groupe de contrôle par rapport au montant de dons récolté dans le groupe test, on constate que le montant des dons est plus faible de 30% dans ce dernier groupe et que la différence vient d’un nombre beaucoup plus faible de petits dons (inférieurs à 10 dollars). Ce résultat suggère que certains ménages donnent uniquement à cause de la pression sociale lorsqu’ils sont sollicités, mais qu’ils préfèrent ne pas donner s’ils ont la possibilité d’éviter de répondre à l’opération porte à porte. La pression sociale semble donc jouer un rôle non négligeable dans le succès des campagnes de sollicitation porte à porte. Heureusement ce n’est pas la seule raison qui explique le don, puisque certains ménages choisissent de donner alors même qu’ils auraient pu éviter d’être sollicités.

Si les économistes ont encore une compréhension bien imparfaite des mécanismes qui poussent les individus à donner, les expérimentations grandeur nature sont utilisées activement par les chercheurs pour essayer de mieux comprendre les ressorts de la philanthropie. J’aurai l’occasion d’en reparler plus longuement dans un prochain post, mais en attendant, j´en profite pour signaler cet institut qui collecte des fonds de façon innovante, et pour faire de la publicité pour un projet qui me tient particulièrement à cœur.
_Gabrielle_

Lire la suite...

mercredi 27 janvier 2010

Ethnicité et bien public 1/2


Oui, le sujet est ouvert de manière claire : demandez à n’importe quel économiste qui, selon lui, doit orchestrer la fourniture des biens publics, et « l’Etat » sera la réponse sans équivoque que vous obtiendrez. En effet, le financement de ce type de biens, tels les routes ou les trottoirs, qui ont notamment la particularité d’être ouverts à tous, est souvent problématique. Car, si tout le monde y a accès, sans condition de participation au financement, alors risquent de surgir des phénomènes de « passager clandestin » : chacun ayant intérêt à utiliser le bien, mais personne n’ayant de raison de le financer, plus personne ne finance le bien, qui au final, n’est donc pas produit. C’est pourquoi la théorie économique standard préconise une intervention publique afin de pallier à ce type de comportements, et ainsi d’éviter la sous production de biens publics. Nous allons voir cependant dans ce post que cette réponse n’est parfois pas suffisante, notamment dans le cas de communautés ou pays divisés par des tensions ethniques.


La question de la fourniture de biens publics est un objet de recherche central en économique publique. En particulier, on assiste depuis une dizaine d’années au développement d’une littérature s’intéressant au problème de l’impact de la composition et des tensions ethniques au sein des communautés sur l’accès aux biens publics.
Je négligerai ici volontairement la question de la définition de l’ethnie (que je compte traiter dans un post ultérieur), pour me concentrer d’abord simplement sur le constat du rôle de la composition ethnique dans l’accès aux biens publics et l’analyse des mécanismes potentiellement à l’œuvre. Ce post (et plus encore, le prochain de la série) pioche largement dans le récent ouvrage de Habyarimana, Humphreys, Posner et Weinstein « Coethnicity, diversity and the dilemmas of collective actions » (2009), et en est une forme de compte rendu de lecture.

I. Le rôle négatif de la diversité ethnique dans la fourniture de biens publics.

Le constat de la corrélation négative entre ce que l’on appelle la « fractionalisation ethnique » (qui mesure la probabilité que deux personnes tirées au sort dans la population soient de groupes ethniques différents) et le moindre accès aux biens publics est partagé par un nombre important de travaux empiriques, portant pourtant sur des contextes souvent très différents, et avec des définitions très différentes de l’ethnicité. Si ces travaux ne présentent souvent que des corrélations (et ne sauraient donc être interprétés causalement), ils prennent le soin de contrôler pour un ensemble de variables telles que les inégalités de revenu ou les situations économiques, géographiques et démographiques des régions étudiées, et donnent donc tout de même un certain degré d’assurance quant au fait qu’ils comparent des régions « toutes choses égales par ailleurs ».
Parmi les travaux pionniers de cette littérature, Alesina et al. montrent que la fractionalisation ethnique semble jouer un rôle négatif sur le financement des écoles publiques, routes, égouts et collecte des ordures des villes américaines. Leur argument est que lorsque les groupes ethniques présentent des préférences différentes pour différents types de biens publics, alors le financement de ceux-ci devient problématique : ne pouvant s’entendre sur un bien public « moyen » satisfaisant les deux groupes à la fois, chaque groupe préfère renoncer à financer le bien, et augmenter sa consommation privée (pour fixer les idées : si les Noirs préfèrent peindre les écoles en noir et les Blancs en blanc, personne ne voudra d’une école peinte en gris, et chaque groupe achètera sa propre peinture pour peindre sa maison, mais l’école n’aura par contre pas de ravalement de façade). Ils montrent alors qu’effectivement, dans les agglomérations américaines, on constate un moindre financement des biens publics lorsque la fractionalisation ethnique est élevée.

Miguel et Gugerty, très loin des Etats-Unis, travaillent sur des villages Kenyans, et constatent eux aussi que la diversité ethnique conduit à une réduction du financement des écoles par les communautés locales. Au Kenya, en effet, si le gouvernement paye les salaires des enseignants, le financement du matériel scolaire (de la craie aux locaux) est assuré par les contributions des communautés locales. Une action collective menée par les habitants des villages est donc nécessaire pour contribuer au bon fonctionnement de ces écoles. Conscients de la difficulté à considérer la composition ethnique d’une ville ou d’une région comme exogène (on peut en effet imaginer qu’en réalité, les résultats obtenus dans les travaux d’Alesina et al., par exemple, ne sont pas dus à la fractionalisation ethnique, mais à une autre variable qui serait corrélée à la composition ethnique des villes), ils utilisent de manière astucieuse l’histoire de la conquête coloniale du Kenya, qui a déterminé la répartition géographique des groupes ethniques, ainsi que nous allons le voir. En effet, jusqu’à l’affirmation de l’autorité coloniale Britannique sur la partie du Kenya qu’ils étudient, en 1894, les différents groupes ethniques étaient très souvent en conflit, entrainant une grande mobilité de la population, au gré des aléas des combats. L’arrivée de la puissante armée coloniale imposa l’arrêt de ces hostilités, et avec elles, celle des migrations, et ce d’autant plus que furent délimitées des « African Land Units », qui allouaient administrativement des terres aux différents groupes ethniques, et par là, empêchaient tout conflit de survenir de nouveau. Les migrations ayant été également relativement faibles après l’indépendance, il en résulte que la composition ethnique des localités a été fixée de manière quasi aléatoire par la composition ethnique de celles-ci au moment de l’arrivée des Britanniques. Utilisant cette forme d’expérience naturelle, ils retrouvent le résultat classique des études n’ayant pas à leur disposition ce type d’événement historique : les écoles (et les puits) sont moins financés dans les localités à plus forte fractionalisation ethnique. Cette relation, qui est dans leur étude une relation de causalité, est expliquée selon eux par le fait que les groupes ethniques homogènes peuvent plus facilement sanctionner les individus jouant au « passager clandestin ». Les auteurs défendent en effet l’idée qu’à l’intérieur d’un même groupe ethnique, les personnes se connaissent mieux, font partie des mêmes réseaux, et sont donc plus à même d’identifier et de punir un membre qui ne jouerait pas le jeu, tandis qu’une telle possibilité serait moins évidente entre membres de groupes ethniques différents.

II. Quelle théorie pour le lien entre action collective et ethnicité ?


Mais si ces deux études concordent dans leurs résultats empiriques, les justifications théoriques qu’elles fournissent sont par contre très différentes (des gouts hétérogènes dans un cas, des possibilités de sanctions moindres dans un autre). Et c’est là l’une des faiblesses de cette littérature : si l’on constate un large consensus quant à la régularité empirique du lien entre composition ethnique et biens publics, sa compréhension théorique fait par contre débat.
De nombreux arguments ont été avancés pour expliquer le rôle joué par l’ethnicité dans la plus ou moins grande réussite de l’action collective. On peut en effet penser, comme Alesina et al., que les membres d’un même groupe ethnique auront tendance à avoir les mêmes préférences quant au type de bien public à obtenir. Dans ce cas, une plus grande homogénéité ethnique entraine une plus grande facilité à l’obtention de ce bien. Mais ce n’est pas le seul mécanisme passant par les préférences. On peut tout aussi bien penser que les membres d’une ethnie ont plus tendance à prêter attention aux bien être les uns des autres, auquel cas, les problèmes de passagers clandestins ne se posent pas dans le cas d’un groupe homogène (puisque chaque individu obtient un gain d’utilité à améliorer la situation des autres membres du groupe) et surgissent uniquement avec l’hétérogénéité ethnique. D’autres auteurs, comme Miguel et Gugerty, on l’a vu, mettent en avant la plus grande facilité de sanction à l’intérieur d’un groupe ethnique.

Les théories ne manquent donc pas, la difficulté étant d’en évaluer leur pertinence respective, dans la mesure où elles ont la même prédiction empirique. Habyarimana et al. les classent en 3 grandes catégories : celle des préférences, qui regroupe les théories défendant l’idée que l’ethnie affecte les préférences des individus, celles des technologies, théories pour lesquelles l’ethnie affecte les outils à disposition pour mener à bien l’action collective, et enfin celles des sélection de stratégie, qui défendent l’idée que l’identité ethnique affecte le choix des stratégies poursuivies par les individus lors d’une interaction. Ces différents mécanismes sont résumés dans le tableau présenté en illustration (et directement traduit de l’ouvrage).



La contribution de l’ouvrage est justement dans sa tentative de tester chacun de ces types de théories. Pour ce faire, les auteurs ont recours aux méthodes de l’économie expérimentale, afin de créer en laboratoire les conditions leur permettant de tester chacune de ces mécanismes.
Ce type d’approche soulève généralement des objections quant au caractère généralisable des résultats obtenus. Pour tenir compte de cette forte limitation, les auteurs ont choisi de situer leur expérimentation dans des quartier pauvres de Kampala, la capitale de l'Ouganda, et dans lesquels les questions de fractionalisation ethnique et d’accès aux biens publics se posent avec acuité. Ensuite, le recrutement des personnes participant à l’expérience a été fait de manière aléatoire, afin de recruter une population représentative de ces quartiers.
Ce faisant, la généralisation de leurs résultats à un contexte autre que celui des quartiers qu’ils étudient n’est pas assurée, mais, contrairement à une large part des travaux d’économie expérimentale, on est néanmoins relativement confiant dans le fait qu’ils sont effectivement valables pour ceux-ci, et non uniquement pour les personnes ayant participé à l’expérimentation elle-même. En d’autres termes, par cette approche, les auteurs parviennent à un niveau de qualité de résultat très proche de celui des « expériences contrôlées » (dont Antoine a parlé à plusieurs reprises ) : une très forte « validité interne » (on est tout à fait convaincu des résultats obtenus) mais une faible « validité externe » (on n’est absolument pas certain que les résultats obtenus auraient été les mêmes dans un autre contexte).

Je vous présenterai ces expériences et leurs résultats dans le second post de cette série. Auparavant néanmoins, vous aurez droit à un spin off sur l'ethnicité, qui nous permettra d'aborder la question des politiques à mettre en œuvre pour tenter de résoudre ce problème de coordination de l'action collective entre groupes ethniques. Nous pourrons constater en particulier que la recherche d'une hypothétique "homogénéité" ethnique n'est certainement pas la solution.

edit le 29/01/2010: suite au commentaire de Pierre, correction de "Kampala, un district urbain pauvre d’Ouganda" par "dans les quartier pauvres de Kampala, la capitale de l'Ouganda"
_Guilhem_

Lire la suite...

jeudi 26 novembre 2009

Pourquoi paie-t-on nos impôts?


Pour financer leurs actions, les pouvoirs publics doivent lever des ressources auprès de leurs administrés: ce sont les impôts. Mais vouloir prélever un certain niveau de ressources ne suffit pas, encore faut-il que les gens paient! L'histoire des impôts est pleine d'anecdotes qui démontrent l'inventivité sans limite de l'espèce humaine en matière d'évasion fiscale. Comme disait Keynes, éviter de payer des impôts est la seule activité intellectuelle gratifiante. De l'autre côté, les pouvoirs publics n'ont pas fait preuve de moins d'inventivité pour trouver des techniques de prélèvements (plus ou moins violentes) susceptibles de limiter l'évasion fiscale. Un fait central domine pourtant l'histoire de ce petit jeu du chat et de la souris : il y a cent ans, la part des impôts dans la richesse nationale était inférieure à 10% dans tous les pays. Aujourd'hui, elle est de l'ordre de 35% dans les pays de l'OCDE, et même de 45% en France, de 50% en Suède. Pourquoi l'Etat est-il aujourd'hui capable de prélever une part 4 fois plus importante de la richesse nationale qu'il y a cent ans?

La première explication, c'est évidemment que la demande de biens publics a considérablement augmenté. C'est la fameuse loi de Wagner, qui postule que l'élasticité revenu de la demande de biens publics est supérieure à 1: lorsque mon revenu augmente de 10%, ma demande de biens publics augmente de plus de 10%. Au cours du siècle passé, la demande sociale vis-à-vis de l'intervention publique s'est considérablement élargie, et il nous paraît désormais normal de voir l'Etat intervenir dans des domaines aussi divers que la santé ou la régulation des jeux d'argent. Ce que la loi de Wagner passe sous silence toutefois, c'est la manière dont l'on finance cette demande accrue de biens publics sans se heurter au problème classique de free riding (passager clandestin en français: c'est l'idée que, un bien public étant utilisable par tout le monde (on parle de bien non exclusif), personne n'a intérêt à payer pour le financer, et qu'au contraire tout le monde va agir en passager clandestin, c'est-à-dire attendre que les autres paient). Ce que la loi de Wagner n'explique pas non plus c'est pourquoi, alors que les revenus ont continué de croître dans les pays riches au cours des 20 dernières années, la part des prélèvements dans la richesse nationale s'est, elle, globalement arrêtée de croître (cf. graphique 1).

La seconde explication régulièrement avancée, nous la devons à Baumol, qui s'intéresse non pas à la demande, mais à l'offre de biens publics. L'idée est que la productivité augmente plus vite dans le secteur privé que dans le secteur public, car les activités du secteur public sont plus tournées vers les services, et par nature moins intensives en capital et plus intensives en travail. Le résultat est donc que la part des dépenses publiques dans la richesse nationale augmente nécessairement au cours du temps. Sur l'évolution comparée de la productivité dans le secteur public et privé, j'avoue ne pas être familier de la littérature empirique sur le sujet, mais je doute que les hypothèses de Baumol aient jamais réussies à être solidement étayées. Par ailleurs, le même problème se pose pour expliquer pourquoi les gains de productivité très importants dans les pays de l'OCDE dans les années 50 à 75 ne se sont pas traduits par une augmentation encore plus brutale de la part des dépenses publiques dans le PIB.


D'autres explications insistent plus spécifiquement sur la dimension historique du problème. Peacock and Wiseman (1961) défendent une théorie fondée sur des "effets de cliquets": les prélèvements publics font face à des chocs historiques (guerres, etc.), après lesquels ils ne retrouvent jamais leur niveau antérieur, car les chocs affectent durablement les normes sociales concernant le niveau désirable de prélèvements publics. Lorsque l'on regarde le graphique 1, cette théorie paraît assez séduisante, en particulier pour le cas de la Grande Bretagne, où le niveau de prélèvement a augmenté deux fois, par paliers, à la suite de chacune des deux guerres mondiales. Mais comment expliquer, si l'on croit à cette théorie, que la part des prélèvements soit restée si stable (et si faible) tout au long du 19ème siècle, alors que les guerres et autres révolutions susceptibles de créer des chocs temporaires sur la dépense publique n'ont pas été moins nombreuses. Et comment expliquer que la Suède, dont l'implication dans chacune des guerres mondiales a été bien plus faible que celle de la Grande-Bretagne ou des Etats-Unis, a pourtant connu une croissance soutenue de la part des prélèvements dans le PIB semblable à celle de ces deux pays? Mentionnons enfin les théories du type économie politique, à la Acemoglu & Robinson, qui insistent sur l'importance des équilibres politiques et de la part dévolue aux classes moyennes et populaires dans la Constitution pour expliquer la part croissante des politiques redistributives.

Aussi intéressantes soient-elles, ce que ces théories passent sous silence, fondamentalement, c'est qu'il existe d'importantes contraintes qui pèsent sur la capacité qu'ont les pouvoirs publics à observer et prélever les ressources des individus. Et il y a un monde entre vouloir prélever des ressources, et être effectivement capable de les prélever: des Bagaudes du Bas-Empire, aux Jacqueries de l'Ancien Régime, les exemples de gouvernement se heurtant à des révoltes fiscales ne manquent pas. Et à lire la très intéressante Histoire de l'impôt de Gabriel Ardant, on a l'impression que le ressort de l'histoire fiscale n'est rien d'autre que cela: des gouvernements qui butent sans arrêt sur l'impossibilité de prélever des ressources plus abondantes, qui se heurtent de façon récurrente aux limites de leur capacité de contrainte fiscale.

Or que nous disent les économistes sur ce petit jeu-là. Le modèle standard, que l'on doit à Allingham et Sandmo (1971) se fonde sur l'idée simple que les individus sont rationnels, et détiennent de l'information, qui n'est pas directement observable par les pouvoirs publics, sur le niveau réel de leurs ressources. En contrepartie, les pouvoirs publics ont une capacité de contrainte: ils peuvent contrôler les individus et les forcer à payer une amende en cas de fraude. Ce que nous dit ce modèle simple, c'est que les individus ont intérêt à tricher jusqu'à ce que le bénéfice marginal de la fraude soit égal au bénéfice marginal de ne pas tricher. Et le bénéfice marginal de la fraude est 1 euro supplémentaire en cas d'absence d'audit, et 1 euro moins l'amende en cas d'audit. Donc tout dépend évidemment de l'importance de l'amende et de la probabilité d'être découvert, comme dans les modèles Beckeriens de criminalité.

Ce petit modèle permet-il d'expliquer pourquoi les pouvoirs publics sont aujourd'hui capables de prélever une part de la richesse nationale quatre fois plus importante qu'il y a cent ans? Pas franchement! Car pour cela, il faudrait que les taux de contrôle fiscal aient augmenté drastiquement. Or c'est plutôt l'inverse qui s'est produit: il semble que le coût administratif de prélèvement des impôts en pourcentage du montant prélevé ait plutôt baissé depuis le siècle dernier. Slemrod, dans une revue de littérature faisait justement remarquer que si l'on prenait le modèle d'Allingham et Sandmo à la lettre, étant donné les taux d'audits, le taux actuel de fraude fiscale est absurdement faible dans les pays développés! Quant aux amendes, il ne semble pas qu'elles aient considérablement augmenté non plus. Pour parvenir à réconcilier la théorie avec les faits, il faudrait donc ajouter des aspects non-standards dans la manière dont les individus se comportent vis-à-vis de l'administration fiscale, de type altruisme (les individus font naturellement preuve de respect vis-à-vis des injonctions de l'administration fiscale), erreurs de perception sur la probabilité d'être contrôlés, etc. Ces aspects non-standards sont sans doute tout à fait importants et réels. Ils peinent toutefois à expliquer la révolution fiscale du vingtième siècle. Car on comprend mal pourquoi les individus seraient aujourd'hui quatre fois plus enclins à respecter les demandes de leur administration fiscale qu'il y a cent ans.

Et si la solution était en fait beaucoup plus simple? C'est ce que suggèrent deux papiers récents signés Emmanuel Saez et le gang de Danois (Henrik Kleven et Claus Kreiner). Leur réponse: le salariat. Au cours du premier vingtième siècle, la part de la population salariée a explosé dans tous les pays développés. Or que permet le salariat? D'observer le revenu des individus, qui est désormais stipulé dans un contrat de travail. Le premier des deux papiers généralise cette idée simple. Un petit modèle théorique montre que la naissance des entreprises modernes, avec de nombreux salariés et poursuivant des tâches de production complexes nécessitant de garder des comptes de toutes leurs opérations, limite de manière importante les possibilités de fraude fiscale collusive au sein de l'entreprise. Cela ne veut pas dire que toute fraude fiscale disparaît. Mais qu'elle est largement limitée par rapport au cas du paysan qui peut simplement cacher son grain chez le voisin. Avec le salariat naît aussi la possibilité de double-déclaration des salaires: les administrations fiscales peuvent contrôler les déclarations des individus au travers des informations qui leur sont transmises directement par les entreprises. Plus besoin donc de faire donner la troupe pour aller lever la capitation! Avec le salariat naît un outil d'observation et de contrôle des ressources absolument redoutable pour le pouvoir fiscal. Le second papier, qui se fonde sur une expérience contrôlée auprès de l'administration fiscale danoise démontre justement que la fraude fiscale est très limitée, pour les revenus soumis à double déclaration comme les salaires, et ce en dépit de taux d'audits faibles, tandis que les revenus déclarés individuellement (comme les revenus d'activité non-salariées) révèlent des taux de fraude beaucoup plus importants. Evidemment, cela ne veut pas dire que la fraude disparaît, même parmi les salariés. Certains salariés peuvent toujours s'engager dans des stratégies d'évasion fiscale complexes, mais leurs coûts sont nécessairement beaucoup plus élevés.

La naissance de l'entreprise moderne et la généralisation du salariat ont donc été de puissants outils de la transformation du pouvoir fiscal au cours du 20ème siècle. Lorsque 80% de la population exerce une activité dont les revenus sont facilement observables par la puissance publique, la question du prélèvement fiscal change fondamentalement de nature, et c'est ce qui permet la naissance de l'Etat moderne tel que nous le connaissons. On notera d'ailleurs que les salaires ne sont pas nécessairement la seule base fiscale dont l'observation est facilitée par le développement de la comptabilité moderne au sein des entreprises: les ventes peuvent être également mieux observées et l'ingéniosité de la Taxe sur le Valeur Ajoutée est justement d'avoir créé un système implicite de double déclaration (par l'entreprise vendeuse qui paie la taxe et par l'acheteur qui déduit de la TVA de ses consommations intermédiaires) qui a considérablement réduit les opportunités d'évasion fiscale. C'est ce qui explique pourquoi la majeure partie des recettes fiscales des Etats modernes provient désormais de ces deux types de taxes (impôts sur les revenus et taxe sur la valeur ajoutée).
_Camille_

Lire la suite...

mardi 13 octobre 2009

Prix Nobel et Sebastien


C'est avec une joie sans pareille qu'Ecopublix se joint à l'ensemble du monde de la recherche en économie pour chanter les louanges de ces deux chercheurs récemment distingués par un prix des plus prestigieux. Comme le titre de ce post ne l'indique pas, je veux bien entendu parler de Julien et Camille, lauréats du Prix de thèse de l'AFSE pour le premier, et d'une mention à ce prix, pour le second.

La vidéo de l'annonce du prix est visible ici.

Et rendez vous dans 6 mois pour un autre post de 2 lignes...
_Guilhem_

Lire la suite...

mardi 28 avril 2009

La médaille d'or de la gentillesse


Une très bonne nouvelle est venue vendredi de l’American Economic Association : la John Bates Clark Medal a été décernée à Emmanuel Saez. Cette médaille, aussi prestigieuse que le Prix Nobel, et un peu comme la médaille Fields en mathématiques, récompense une fois tous les 2 ans, le meilleur économiste de moins de 40 ans, ayant contribué de manière décisive par ses travaux à l’avancée du savoir dans le domaine de l’économie. Ecopublix félicite évidemment très chaleureusement l’impétrant. A travers lui, c’est aussi une belle reconnaissance faite aux innovations décisives opérées dans le domaine de l’économie publique depuis une dizaine d’années. Comme Emmanuel n’est par ailleurs pas complètement inconnu à la plupart des membres d’Ecopublix, il nous est apparu qu’un post un petit peu plus personnel serait bienvenu. Pour ceux qui voudraient se contenter d’un aperçu de ses travaux, vous pouvez trouver sur le site de l’AEA une bio bien ficelée.

Commençons bien sûr par l’essentiel : ses travaux. Emmanuel Saez est essentiellement connu du grand public pour son importante contribution à l’analyse de l’évolution des inégalités aux Etats-Unis et dans le monde dans le très long terme, qui a donné lieu à un certain nombre de publications avec son compère Thomas Piketty qui était son prof au MIT pour la petite histoire. (Vous trouverez tous ces papiers sur la page de Saez). Ces travaux, reposant sur l’utilisation de statistiques inédites de l’administration fiscale et de la sécurité sociale, ont permis de mettre en lumière des aspects de l’évolution de la structure des revenus qui sont désormais passés dans le savoir commun, mais qui étaient avant ces travaux, largement incompris. En particulier, Piketty & Saez ont montré que les inégalités de revenus se sont considérablement accrues aux Etats-Unis depuis le début des années 80 ; que ceci est dû à la croissance extrêmement rapide des revenus d’une petite fraction de ménages (1%) dans le haut de la distribution des revenus, et que ces revenus sont essentiellement des revenus d’activité. En outre, ils ont documenté la forte baisse de la progressivité du système fiscal américain depuis une trentaine d’année, et de manière plus iconoclaste encore, Emmanuel Saez (avec W. Kopczuk) a montré que la mobilité des individus au sein de la pyramide des revenus aux Etats-Unis avait été incroyablement stable au cours du 20ème siècle et sensiblement plus faible que ce que l’on avait l’habitude de penser, écornant au passage le stéréotype des Etats-Unis « Land of Opportunity ». L’ensemble de ces contributions a considérablement alimenté le débat public aux Etats-Unis, notamment durant la campagne présidentielle et il va sans dire que ce sont des études d’une importance capitale pour notre compréhension de l’économie et des inégalités. Pour autant, ce ne sont sans doute pas ces travaux qui lui ont valu sa médaille.

Si Emmanuel Saez s’est vu distingué par la communauté scientifique avec cette Bates Clark Medal, c’est surtout parce qu’il a fait sensiblement bouger la frontière de l’économie publique dans au moins deux importantes directions.

Tout d’abord, il a contribué de manière substantielle à penser l’articulation entre les résultats théoriques et les résultats positifs tirés de l’évaluation empirique des effets des politiques publiques. Pour arriver à faire ce pont, il faut tout d’abord maîtriser parfaitement les deux bouts de la chaîne. Et il faut bien reconnaître qu’il possède ce talent de jongler entre l’écriture de papiers de qualité dans le domaine théorique (sur la taxation optimale des revenus de l’épargne, sur la taxation optimale des conjoints, sur les incitations fiscales à la fourniture de biens publics, sur le salaire minimum …) et des études empiriques sophistiquées du point de vue de ce que les économètres appellent l’identification, c’est-à-dire la manière d’isoler et de faire apparaître le lien de causalité existant entre deux variables. Ces papiers sur l’effet de la taxation des dividendes sur la distribution des dividendes (avec R. Chetty), ou encore sur l’incidence des cotisations sociales à partir d’une réforme en Grèce (à venir) n’ont rien à envier aux meilleurs travaux d’Angrist ou de Card.

Mais ce qui intéresse Saez, c’est vraiment le lien entre ces deux mondes de la théorie et de l’empirique, car sa vision de l’économie publique est fermement ancrée dans l’idée que les économistes doivent être capables de produire des recommandations utiles et pratiques de politiques à mettre en œuvre. Pour comprendre cela, partons d’un des domaines dans lesquels les travaux de Saez ont eu le plus de portée : la taxation des revenus. La question de la taxation des revenus pour le gouvernement, c’est un choix complexe impliquant un niveau de taxe à lever, et un barème (un ensemble de taux applicables à différents niveaux de revenus). La manière dont sont fixés les différents taux du barème agit sur les comportements des individus. Intuitivement, plus les taux sont élevés, plus le revenu net qu’un individu tire de son travail diminue, réduisant l’offre de travail. Mais dans le même temps, le gouvernement a un objectif redistributif. Il veut redistribuer des plus riches vers les moins riches, et c’est la raison pour laquelle le gouvernement souhaite fixer des taux croissants en fonction du revenu. Comment fixer alors le barème pour tenir compte de ces différents objectifs? Si le modèle de Mirrlees (1971) offrait déjà les bases du raisonnement permettant de penser cet arbitrage, la dérivation du barème optimal posait de nombreux problèmes. Et là arrive Emmanuel Saez (à l’époque il termine tout juste son PhD au MIT), qui montre à la fois une manière simple de dériver le barème et identifie les paramètres décisifs pour simuler proprement ledit barème.
Cette série de papiers (, et )est importante pour l’économie publique non seulement pour ses résultats (l’idée notamment que le taux marginal supérieur de l’impôt sur le revenu est à l’optimum croissant jusqu’à un niveau très elévé de rémunération compte tenu de la forme de la distribution des revenus même avec une élasticité relativement forte de l’offre de travail), mais surtout importante du point de vue de la méthode : elle montre comment faire marcher la théorie sur ses deux pieds, c’est-à-dire produire des modèles qui s’appuient sur des paramètres qui sont proprement identifiables empiriquement, et que l’on peut ensuite réinjecter dans le modèle pour générer des recommandations utiles.

La deuxième direction importante dans laquelle Emmanuel Saez a engagé l’économie publique est celle de l’incorporation des leçons de la « behavioral economics ». C’est un domaine bien sûr dans lequel il n’est pas seul (des économistes comme Bernheim, Gruber ou Diamond sont aussi très sensibles à ce genre de problématiques). Mais c’est une percée majeure pour l’économie publique qui y renouvelle profondément sa boîte à outils. Concrètement, la « behavioral economics » s’intéresse à tous les comportements économiques non-standard ou non conformes à la représentation économique habituelle des préférences et des choix. Ces comportements incluent l’incohérence temporelle (avoir des préférences qui changent au cours du temps), les erreurs, la myopie (le fait d’accorder une attention trop importante au présent comme dans le cas d’actualisation quasi-hyperbolique), l’addiction, etc. Ces comportements sont traditionnellement ignorés de modèles classiques d’économie publique. Ce que montrent les travaux de Saez c’est que ces comportements non standard jouent de manière cruciale sur les politiques publiques optimales à mettre en place. Un exemple simple : si les programmes d’impôt négatif visant à favoriser l’offre de travail des personnes à bas-revenus sont peu efficaces, c’est sans doute aussi et avant tout du fait de la très mauvaise information véhiculée par les pouvoirs publics sur la forme des incitations procurées par ces barèmes complexes. Avec R. Chetty, ils ont ainsi mené une expérience contrôlée chez un grand « tax preparer » américain (une entreprise spécialisée dans l’aide à la préparation des déclarations d’impôts) : le groupe de traitement reçoit une information précise expliquant le fonctionnement de l’EITC (la prime pour l’emploi à l’américaine) tandis que le groupe de contrôle ne reçoit aucun complément d’information. Le résultat : les personnes ayant reçu le complément d’information sont plus nombreuses à optimiser leur comportement de manière à maximiser leur EITC l’année suivante. Cela peut paraître trivial aux yeux de beaucoup, mais cela change fondamentalement l’approche des politiques publiques : un programme d’information peut avoir des effets bien plus efficaces que l’accroissement des sommes versées pour l’impôt négatif.

Mais ce qui fait vraiment d’Emmanuel Saez un chercheur pas comme les autres, ce que rappelait Steve Levitt pas plus tard qu’hier, c’est qu’en dépit d’être un esprit brillant, Emmanuel Saez est un trésor d’humilité et de gentillesse. Il a accepté la lourde tâche de siéger au comité de thèse de quelques membres d’Ecopublix, a même soutenu la publication de leurs premiers papiers en tant qu’éditeur du Journal of Public Economics. A d’autres, il a pris le temps d’apprendre les rudiments du surf, étant lui-même, petit basque immigré en Californie, un surfeur émérite qui passe tous ses vendredis à Santa Cruz. La petite histoire veut que vendredi dernier, alors que le Chairman du département d’économie de Berkeley courait dans tous les couloirs en criant de joie pour annoncer la nouvelle, Emmanuel, sans se douter de rien, était, bienheureux, sur sa planche en train de regarder la vague de Pleasure Point…

_Camille_

Lire la suite...

mardi 21 avril 2009

Taxer les riches ? Oui...mais pourquoi ?


Petit mot pour ceux qui n’auraient pas suivi, sur le site de The Economist, la semaine dernière, ce débat intéressant autour de T. Piketty et C. Edwards, sur la proposition d’augmenter les taux supérieurs de l’impôt sur le revenu en Europe à 80% au-dessus d’un million d’euros. Le public de la Tax Academy a voté, et la proposition l’a emporté à peu de choses près. Très bien, et ensuite …?


On pourrait bien sûr en profiter pour lancer un jeu pour étudiants en licence d’Economie Publique du type : qu’est-ce que ce vote nous apprend sur la distribution des revenus au sein du lectorat de The Economist ? Ou encore prendre le temps de détailler et de mieux expliquer l’ensemble des arguments avancés sur le forum par les uns et les autres tout au long de la semaine, tant cette question nous paraît importante et traitée avec beaucoup de désinvolture dans le débat public français actuellement.

La contribution de W. Kopczuk offre toutefois une bonne première synthèse des différents arguments présents dans la littérature actuelle dite de taxation optimale. Cette littérature, qui s’est développée depuis une trentaine d’années suite à la contribution décisive de Mirrlees, prix Nobel d’Economie, a l’avantage et la beauté d’offrir une vision intégrée des problèmes de taxation en modélisant explicitement l’arbitrage entre équité et efficacité. D’un côté on spécifie une fonction de choix social, qui permet de donner plus ou moins de poids dans la décision aux différents individus selon leur niveau de revenu, et de l’autre on modélise les décisions des individus de travailler plus ou moins selon le niveau d’imposition.

Ce cadre théorique, qui peut paraître trivial à première vue, est un petit bijou en vérité car il est l’un des premiers à avoir permis de synthétiser les contributions essentielles de tout un tas de champs de la recherche en public finance, dont, entre autres, l’analyse du bien-être, l’économie normative, la littérature sur les asymétries d’information (car le gouvernement ne peut jamais observer quel est votre niveau de productivité, auquel cas il serait optimal pour lui de taxer directement en le niveau de productivité de chacun…). A partir de ce modèle se sont également développés un grand nombre de travaux empiriques permettant de calibrer le type d’impôt sur le revenu optimal en fonction des réactions réelles des individus aux variations de l’impôt sur le revenu. C’est entre autre cette littérature que Kopczuk résume dans son intervention. Il y explique notamment que, si du côté redistribution, le débat est avant tout une question de niveau de préférence pour la redistribution, du côté efficacité, les évidences empiriques sont extrêmement partagées sur la perte sèche (i.e. la perte de ressources totales pour l’ensemble de la communauté, et ceci indépendamment de la manière dont cette perte est répartie entre les individus) liée à la taxation des hauts revenus, du fait de la superposition de trois réponses différentes : une réponse liée à la mobilité, l’évasion fiscale et/ou l’optimisation fiscale, une réponse liée à des transferts de ressources dans le temps ou entre différentes bases d’imposition, et une réponse sur les comportements d’offre de travail.

Aussi intéressante que soit cette littérature, il me semble que dans le débat qui nous occupe, (faut-il, oui ou non taxer les riches à 80% au-dessus d’un certain niveau de revenu, niveau suffisamment élevé pour ne servir que de plafond de verre), les leçons des travaux de taxation optimale sont insuffisantes. Et ce pour une raison simple : toute cette littérature ne peut pas penser que la fixation initiale des rémunérations puisse être inefficace. L’arbitrage fondamental en taxation optimale est uniquement entre redistribution et incitations au travail, sous l’hypothèse centrale que la fixation des salaires sur le marché du travail est au niveau de la productivité marginale. Ce qui veut dire que taxer les patrons est un choix entre réduire les inégalités ou augmenter l’offre de travail des patrons. Que cet arbitrage existe, nul ne le nie. Mais tel que je le conçois, et tel que je crois comprendre le type d’idées que Piketty a en tête en formulant sa proposition, l’idée est plus profonde. L’argument, c’est que c’est bien la fixation des rémunérations des patrons qui n’est pas optimale.

Une fois de plus, ce n’est pas une idée neuve. Une vaste littérature, centrée sur les problèmes de corporate governance, a tenté d’expliquer et de mesurer en quoi la rémunération des PDG pouvait s’éloigner de leur productivité marginale. C’est une littérature passionnante, et j’espère avoir l’occasion d’y revenir très bientôt. Mais c’est aussi une littérature sans résultat fortement consensuel pour le moment. Non que la plupart des économistes contestent que les salaires des PDG puissent être différents de leur productivité marginale, mais plutôt du fait que les mécanismes par lesquels se fixent ces rémunérations reste très débattus. Or on peut regretter que le débat de The Economist n’ait pas plus été présenté en ces termes, car cela aurait permis de mieux en comprendre les enjeux.

En effet, lorsque Piketty avance l’idée de taxer à 80% les salaires au-dessus d’1 million d’euros, ce qu’il a en tête c’est que cela réduise l’inefficacité dans la fixation des revenus primaires, en rapprochant la rémunération des patrons de leur productivité marginale et en ramenant le comportement du patron vers son comportement optimal c’est-à-dire celui de maximisation de la valeur de la firme. Mais prenons un modèle simplissime d’inefficacité dans la fixation des rémunérations : les actionnaires n’exercent aucun contrôle effectif sur le PDG, qui peut fixer librement sa rémunération, en puisant sans coût dans les ressources de la firme. Dans cet exemple simple, la taxation n’a pas de raison de réduire intrinsèquement l’inefficacité, sauf à supposer que les coûts pour le PDG de puiser dans les ressources n’est pas de second ordre. A contrario, la fixation de règles plus strictes de contrôle par les actionnaires des modes de fixation de rémunération pourrait évidemment jouer à la racine de l’inefficacité. La difficulté, c’est qu’il existe très peu de travaux empiriques démontrant l’efficacité de telle ou telle piste de réforme des règles de gouvernance, en particulier du fait de la difficulté d’identifier proprement l’effet causal de telle ou telle règle particulière. C’est un sujet extrêmement complexe, et sur lequel je risque de m’ étendre dans quelques posts à venir.

Donc taxer peut paraître une bonne solution de court terme, en l’absence d’évidence plus précise. Mais on souhaiterait quand même montrer en quoi l’impôt est un instrument plus adéquat que les autres, et en particulier plus efficace que la fixation de règles intelligentes pour améliorer la qualité plus que moyenne de la gouvernance d’entreprise en France.. En tous les cas, on peut simplement regretter que ce type de questions n’ait pas vraiment été débattue.
_Camille_

Lire la suite...

jeudi 5 mars 2009

Les économistes font des graphs


Pour un anniversaire bien dans l'esprit Ecopublix, nous avons proposé au merveilleux Lomki, auteur des illustrations de notre blog, d'exprimer à sa manière l'expression "les économistes font des graphs". Parce qu'il n'est pas un jeu de mot foireux que nous n'oserions faire. N'hésitez pas à jeter un oeil à son site ainsi qu'à son blog photo.
Voici le cadeau qu'il nous a offert :



Encore merci Lomki !
_Ecopublix_

Lire la suite...

Les blogués de l'an 2


Ecopublix fête aujourd'hui son deuxième anniversaire ! C'est l'occasion pour nous de regarder le chemin parcouru jusqu'ici, et de constater, non sans fierté, que nous avons su produire les jeux de mot les plus foireux de la blogosphère éco, et ce, sans jamais faiblir ! Et si le poids des mots est essentiel, il ne serait rien sans le choc des photos et des illustrations accompagnant les posts. Sans entrer dans les secrets de fabrication, il nous faut reconnaitre que c'est là un véritable travail de recherche, qui nous occupe souvent plus que la rédaction du post lui-même. Mais quand on n'aime, on ne compte pas.

Dans cet esprit, et parce que c'est la fête, nous vous avons réservé, avec la complicité d'amis blogueurs, une petite surprise. En en attendant d'autres pour cette nouvelle année...
_Ecopublix_

Lire la suite...

jeudi 26 février 2009

Faut-il généraliser l’ouverture des commerces le dimanche ? La priorité est ailleurs (3/3)


Le précédent post a montré que les coûts de distribution et des coûts sociaux associés à l’ouverture des commerces du dimanche pourraient sérieusement limiter les bénéfices économiques de cette réforme. Mais ils le principal obstacle est ailleurs et trouve son origine dans le défaut de concurrence qui caractérise le commerce de détail en France. Dans un contexte peu concurrentiel, on peut craindre en effet que l'avantage économique que les consommateurs pourraient trouver à faire davantage leurs courses dans les grandes surfaces soit réduit à néant : les marges réalisées par les enseignes de la grande distribution n’étant pas menacées par l’émergence de nouveaux concurrents, le surcroît de demande suscité par l’ouverture dominicale des commerces risque d’être absorbé par une hausse des prix supérieure à l’augmentation des coûts de distribution. Elargir les possibilités d’ouverture dominicale des commerces sans résoudre ce problème de concurrence, ce n’est pas un peu mettre la charrue avant les bœufs ?

Un manque de concurrence au nom de la protection du petit commerce

Le défaut de concurrence dans le secteur du commerce de détail en France trouve son origine dans une série de dispositions légales adoptées depuis le milieu des années 1970 dont on trouvera une bonne analyse économique dans cet article signé Allain et Chambolle. Ces lois imposent aux acteurs du secteur deux types de règles étroitement liées : des règles de comportement (relations entre fournisseurs et distributeurs) et des règles de structure (contrôle des concentrations et régulation des implantations commerciales).

1/ La loi Galland : votée en 1996 pour modifier l’ordonnance de 1986 qui posa les jalons du droit de la concurrence en France, cette loi réglemente les relations entre les distributeurs et les fournisseurs dans le but de protéger ces derniers ainsi que les petits commerçants. Au moment du vote de la loi, l’objectif clairement affiché était de rétablir la « loyauté et l’équilibre des relations commerciales » face à la puissance d’achat croissante des enseignes de la grande distribution. Les petits commerçants reprochaient aux grandes surfaces de pratiquer des « prix prédateurs » en vendant certains produits à des prix excessivement bas afin d’éliminer du marché les distributeurs indépendants. Les fournisseurs se plaignaient quant à eux de la concurrence intense que se livraient les distributeurs et qui les conduisait à pratiquer des prix très bas, voire à revendre certains produits à perte (notamment pour les produits dits « d’appel »), ce qui pouvait nuire à l’image de marque de certains produit tout en désorganisant la chaîne d’approvisionnement. Pour répondre à ces préoccupations, la loi Galland a mis en place deux garde-fous : la transparence tarifaire et une définition plus stricte de l’interdiction de la vente à perte. La transparence tarifaire impose aux fournisseurs d’appliquer les mêmes conditions générales de vente à tous les distributeurs (qu’ils soient gros ou petits). Avant la loi, les fournisseurs consentaient généralement des ristournes aux gros distributeurs, ce qui permettait à ces derniers d’alléger leur facture au moment de l’achat et de vendre ces produits moins cher que dans le petit commerce. Pour combattre cette pratique, la loi Galland a interdit aux grandes surfaces de répercuter dans le prix de vente aux consommateurs les ristournes et les rémunérations de prestation commerciales qu’elles reçoivent de leurs fournisseurs (les fameuses « marges arrières »). Dans le nouveau système, les petits commerçants comme les grandes surfaces achètent leurs produits auprès des fournisseurs au même prix, qui correspond au seuil de revente à perte. Les uns comme les autres vendent ces produits en magasin pour un prix public plus élevé et l’écart entre le prix public de vente et le prix d’achat définit la « marge avant » qu’empochent les distributeurs. En plus de cette « marge avant », les gros distributeurs empochent une « marge arrière » car ils reçoivent après coup de leurs fournisseurs des ristournes pour rémunérer leurs prestations commerciales (positionnement du produit sur les rayons, prospectus, etc.), ce qui réduit le prix effectif d’achat par rapport au prix d’achat facturé. Mais ces « marges arrières » ne peuvent être prises en compte dans le calcul du seuil de revente à perte, si bien que le prix public de vente ne peut dépasser le prix d’achat initialement facturé. La décomposition (simplifiée) du prix de vente d’un produit vendu en grande surface qui découle de ce système peut être schématisée ainsi :


2/ La loi Royer : votée en 1973, cette loi de défense du petit commerce oblige les projets de création de commerces de plus de 1000 m² dans une commune de moins de 40000 habitants et de plus 1500 m² au-delà, à demander une autorisation spéciale auprès d’une Commission départementale d'urbanisme commercial pour s'implanter ou s'agrandir, avant même de déposer un permis de construire. Les représentants du petit commerce étant largement représentés dans ces commissions, la loi Royer a eu pour effet de restreindre considérablement l’implantation des hypermarchés et, du coup, à réduire la concurrence dans le secteur de la grande distribution.

3/ La loi Raffarin : votée en 1996 sous l’égide du « phénix du Poitou », cette loi a rendu plus contraignant encore le régime d’autorisation des implantations commerciales, en abaissant à 300 m² le seuil à partir duquel les Commissions départementales doivent être saisies. Destinée principalement à freiner l’implantation en France des magasins de « Hard discount » venus d’Allemagne, la loi Raffarin a eut pour effet de renforcer les barrières à l’entrée pour les moyennes et grandes surfaces, tout en créant une convergence d’intérêt entre les petits commerçants et les grandes chaînes de distribution françaises, trop heureux d’être ainsi mis à l’abri de la concurrence étrangère sur le territoire français.

… aux conséquences économiques particulièrement néfastes

Les conséquences économiques négatives de ces lois de protection du petit commerce ont été abondamment documentées.

Les effets pervers de la réglementation des relations entre fournisseurs et distributeurs par la loi Galland sont apparus peu après sa mise en application. On a effectivement constaté que loin de renforcer la position fournisseurs et des petits commerçants par rapport aux grands distributeurs, le durcissement de l’interdiction de la revente à perte a plutôt eu tendance à renforcer la dépendance économique des premiers et d’exposer les seconds à des formes nouvelles de concurrence, face auxquelles ils étaient mal armés.

L’alignement des conditions de facturation a conduit les gros distributeurs à axer toute leur stratégie de négociation sur les marges arrières, puisque ces dernières sont « garanties » (le prix de vente ne pouvant descendre en dessous du prix facturé par le fournisseur) alors que la marge avant est plus incertaine dans la mesure où elle dépend du prix public de vente qui varie lui-même avec la demande des consommateurs. Depuis l’entrée en vigueur de la loi Galland, les marges arrières n’ont cessé d’augmenter au point d’atteindre en moyenne près de 35% du prix d’achat des produits, ce qui représente un cas unique en Europe. Dans un contexte de forte concentration des enseignes de la grande distribution (le secteur étant dominé par sept grands groupes), le rapport de force s’est clairement déplacé en faveur des gros distributeurs, qui n’ont pas eu trop de mal à imposer à leurs fournisseurs de leur consentir des rétro-commissions de plus en plus importantes pour des services parfois fictifs. En outre, les fournisseurs ont dû faire face au développement des marques de distributeurs (par exemple, la Marque Repère des centres Leclerc). Ces dernières ont été lancées par les grandes enseignes de distribution afin de contourner les contraintes imposées par la loi Galland : le prix d’achat des produits « maison » étant fixé directement par les distributeurs, les marques de distributeurs sont devenues des armes de dissuasion efficaces contre les fournisseurs peu coopératifs.

Le commerce de proximité n’a pas été davantage protégé par la loi. En effet, l’interdiction de la revente à perte était assortie d’une exception destinée initialement à profiter aux petits commerçants indépendants : le « droit d’alignement » permettait aux magasins alimentaires de moins de 300 mètres carrés et non alimentaires de moins de 1000 mètres carrés de vendre un produit à perte pour s’aligner sur les tarifs d’un concurrent direct (en général une grande surface) situé dans une même zone de chalandise. Le problème est que pour bénéficier du même avantage, les gros distributeurs se sont mis à ouvrir en centre ville de nombreux magasins occupant une surface inférieure à cette limite mais bénéficiant d’une forte puissance d’achat grâce aux centrales d’achat auxquelles ils sont affiliés. Le résultat de cette nouvelle forme de concurrence est que la loi s’est finalement retournée contre ceux qu’elle était censée protéger.

Non seulement la loi Galland n’a pas permis de rééquilibrer les relations entre fournisseurs et distributeurs, pas plus qu'entre petits et gros distributeurs, mais elle a également eu des conséquences inflationnistes particulièrement dommageables pour le pouvoir d’achat des consommateurs. En imposant un prix minimum de revente, cette loi a nivelé les prix pratiqués en France tout en empêchant au mécanisme de concurrence par les prix de venir modérer les marges réalisées par les distributeurs. Immédiatement après l’entrée en vigueur de la loi, un grand nombre de biens jusqu’alors vendus à perte pour attirer les clients dans un point de vente ont vu leur prix augmenter brutalement. Par ailleurs, l’interdiction de la revente à perte a facilité l’adoption de pratiques non-concurrentielles par un certain nombre de fournisseurs, notamment sous la forme des « prix de revente imposés ». Alors que cette pratique est normalement prohibée par le droit de la concurrence, elle a été abondamment utilisée par les fournisseurs soucieux de protéger l'image de leur marque en facturant leurs produits à des prix excessivement élevés. Parce qu’ils n’ont pas le droit de vendre à perte, les distributeurs sont tenus de respecter ce prix minimum imposé mais exigent d’être compensés par de juteuses marges arrières. Au final, tout le monde s’y retrouve… sauf le consommateur !

Les règles qui gouvernent les relations entre fournisseurs et distributeurs n’auraient pas eu de tels effets pervers si le secteur de la grande distribution fonctionnait de manière réellement concurrentielle. Or tel n’est pas le cas, à la fois parce que la régulation exercée par les autorités de contrôle de la concurrence est insuffisante et parce que la réglementation des implantations commerciales érige de puissantes barrières à l’entrée qui ne permettent pas de combattre efficacement les rentes de situation acquises par certaines enseignes de la grande distribution.

Le Conseil de la concurrence est en France l’autorité chargée d’analyser et de réguler le fonctionnement de la concurrence sur les marchés. Elle est compétente notamment pour émettre des avis sur les opérations de concentrations entre entreprises françaises, sauf si les entreprises en question réalisent une grande partie de leur chiffre d’affaire dans d’autres pays de l’Union européenne. Dans ce cas, c’est la Commission européenne qui compétente, mais elle peut choisir de renvoyer l’opération aux autorités nationales. Le problème est qu’en pratique, le Conseil de la concurrence ne s’est pas montré très déterminé à freiner le mouvement de concentration de la grande distribution : la totalité des opérations de concentration entre distributeurs français ont été jusqu’ici acceptées, en particulier la fusion Carrefour-Promodès en 1999 (magasins Carrefour, Champion, Dia, Ed, Shopi, 8 à 8, etc.). Or cette approche est loin d’être partagée par les autorités en charge de la politique de la concurrence dans d’autres pays : aux États-Unis, en particulier, les autorités anti-trust empêchent régulièrement certaines opérations de concentration dans le secteur de la distribution. La Commission européenne, pourtant perçue comme relativement conciliante en matière d’opérations de concentration dans la distribution, a également refusé un certain nombre de projets de fusion en raison de la position dominante qu’ils auraient conférés à la nouvelle entité.

Plus encore que l’insuffisance du contrôle exercé par les autorités de concurrence, le principal obstacle à l’émergence d’une véritable concurrence dans le secteur de la grande distribution est aujourd’hui représenté par la réglementation des implantations commerciales. En imposant de fortes restrictions à la création de nouvelles grandes surfaces, les lois Royer et Raffarin ont considérablement limité la pression concurrentielle sur les prix et freiné le développement de d’emploi dans le commerce de détail.

L’article de référence sur le sujet est celui que Marianne Bertrand et Francis Kramarz ont consacré à la loi Royer en 2002. Dans cette étude, les auteurs comparent l’évolution de l’emploi et des prix d’un département à l’autre en fonction du taux d’autorisation des surfaces de ventes. Les taux d’autorisation étant susceptibles d’être corrélés à un grand nombre de caractéristiques influençant à la fois l’emploi et les prix, Bertrand et Kramarz utilisent la couleur politique du département comme source de variation exogène des autorisations d’implantation : les élus de la droite et du centre étant plus favorables aux petits commerçants que les élus de gauche, ils bloquent plus souvent les autorisations. Les estimations des auteurs indiquent que sans la loi Royer, le nombre de grandes surfaces aurait pu être supérieur de 30% à celui constaté au moment de l’étude. Ils évaluent par ailleurs à 3% le déficit d’emplois dans le commerce alimentaire qui est directement imputable à cette loi.

L’impact conjugué des lois Galland et Raffarin a quant à lui fait l’objet d’une analyse approfondie par Philippe Askenazy et Katia Weinfeld. Le graphique suivant, tiré de leur étude, indique l’évolution des créations, extensions et transferts nets des grandes surfaces alimentaires (supérieures à 400 m2) entre 1993 et 2006 :


L’impact de la réforme Raffarin de 1996 est clairement perceptible sur ce graphique : la croissance de tous les formats de vente s’est ralentie à partir de 1996 et la croissance annuelle du nombre de mètres carrés par habitants, qui était encore de 3,5% au début des années 1990, est tombée à près de 1% à partir de 1997. Les auteurs montrent qu’en limitant drastiquement la concurrence par l’offre et en protégeant les marges arrières des enseignes de la grande distribution, les lois Galland et Raffarin ont eu pour effet de limiter la pression concurrentielle sur les prix et de gonfler les profits réalisés par les entreprises du secteur sans pour autant parvenir à enrayer la disparition du petit commerce : entre 1996 et 2002, le taux de marge économique du grand commerce alimentaire a augmenté de 12 points et les auteurs évaluent à près de 50 000 le nombre d’emplois qui n’ont pas été créés du fait de ces lois. Les conclusions de l’étude n’ont visiblement pas plu au ministère des PME qui s’est fendu d’une note de lecture au ton pour le moins agressif, à laquelle Askenazy et Weinfeld ont apporté des réponses détaillées dans ce document.

Comment intensifier la concurrence dans le secteur de la distribution ?

L’analyse qui précède suggère que les dividendes de la réforme du travail dominical pourraient être en grande partie atteints, sans ses coûts sociaux, par le simple torpillage des lois Royer, Galland et Raffarin. De ce point de vue, le chapitre 5 du rapport Attali contenait un certain nombre de propositions intéressantes, malheureusement mises au placard avec leurs consœurs.

Une première série de réformes pourraient être engagées pour instaurer le principe de liberté tarifaire dans la distribution et le commerce de détail, en interdisant les interdictions de « revente à perte » qui existent aujourd’hui. Ces réformes devraient permettre de faire baisser significativement les prix à la consommation, à condition d’être encadrée par le Conseil de la concurrence pour éviter que certaines firmes en position dominantes ne pratiquent des prix prédateurs dans le seul but d’exclure des concurrents indésirables. La loi Chatel de 2007 a représenté un premier pas dans cette direction, mais reste très insuffisante : en effet, bien que les marges arrières soient désormais incluses dans le calcul du seuil de revente à perte, cette loi n’instaure pas à proprement parler de liberté tarifaire dans les négociations commerciales puisqu’elle maintient le principe de l’interdiction de la revente à perte.

L’instauration de la liberté tarifaire ne pourra entraîner une baisse significative des prix que si elle s’accompagne d’une levée des barrières à l’entrée dans le secteur du commerce de détail, afin de faciliter l'entrée de nouveaux acteurs au niveau local. Pour y parvenir, il n’y a guère d’autre solution que d’abroger les lois Royer et Raffarin en supprimant les procédures d’autorisation qui sont actuellement gérées par les Commissions départementales d’équipement commercial et en conditionnant désormais l’ouverture de nouvelles grandes surfaces à la seule obtention d’un permis de construire. Pour limiter les risques de concentration qu’une telle déréglementation pourrait provoquer, il est nécessaire que le Conseil de la concurrence puisse exercer son contrôle dès lors que le rachat d’un magasin par son concurrent entraînerait un risque d’abus de position dominante.

La fusion de l’autorisation d’implantation commerciale avec le permis de construire aurait pour avantage de ne soumettre les implantations commerciales à des critères d’urbanisme et d’aménagement du territoire plutôt qu’à un objectif de protection du petit commerce. Cette approche permettrait ainsi de faciliter les nouvelles implantations sans pour autant négliger leur impact écologique et « esthétique », afin de répondre à la crainte exprimée par certains d’un enlaidissement des centres-villes par les grandes surfaces. En Belgique, l’adoption d’une réforme de ce type en 2005 à permis d’augmenter significativement les autorisations d’ouvertures commerciales sans pour autant provoquer de catastrophe urbanistique.

Conclusion

Du fait du manque de concurrence qui caractérise le secteur de la grande distribution en France, les bénéfices économiques d’une extension de l’ouverture dominicale des commerces ont peu de chances d’être massifs. On peut craindre en effet que le report vers les grandes surfaces des achats auparavant effectués dans les petits commerces se traduise surtout par une augmentation des prix pratiqués dans la grande distribution, limitant ainsi l’impact positif de la réforme sur l’emploi et le pouvoir d’achat.

Le projet de réforme actuellement en discussion a donc un côté finalement assez contreproductif : en concentrant l’attention sur une mesure qui ligue contre elle une foule de mécontents (petits commerçants, syndicats de salariés, autorités ecclésiastiques) alors que ses bénéfices économiques ne paraissent pas immenses, ce projet retarde encore un peu plus l’abolition des lois malthusiennes qui gênent le développement du commerce de détail en France et restreignent artificiellement la concurrence dans la grande distribution.

C’est pas tous les jours dimanche…
_Julien_

Lire la suite...

mercredi 18 février 2009

Faut-il généraliser l’ouverture des commerces le dimanche ? Côté face (2/3)


Le précédent post consacré aux conséquences économiques de l’extension des possibilités d’ouverture dominicale des commerces a montré qu’une telle réforme pourrait bien avoir pour effet de stimuler la consommation des ménages. Cet effet positif vient non seulement du fait qu’une journée supplémentaire pour faire les courses pourrait inciter à effectuer plus d’achats, mais également du fait que ces achats seraient davantage réalisés en grande surface, où les prix sont plus faibles que dans le petit commerce. Le bénéfice principal de la réforme vient donc des gains de productivité que permettrait la substitution économiquement efficace d’une partie de la consommation des ménages. Le problème est que cette analyse ne prend pas en compte ce qui se passe du côté de l’offre et néglige les coûts sociaux, voire sociétaux, qu’une telle mesure pourrait entraîner. La prise en compte de ces facteurs jette-t-elle un doute sur l’intérêt économique de la réforme ?

Une augmentation probable des coûts de distribution

Commençons par nous intéresser aux effets probables de la réforme sur l’offre commerciale. L’impact global de l’extension de l’ouverture des commerces le dimanche dépend de manière cruciale de la manière dont les acteurs du secteur du commerce de détail vont réagir à l’accroissement de la demande qui a été décrit dans le précédent post.

La réforme incitera d’autant plus les consommateurs à réorienter leur consommation des petits commerces vers la grande distribution que les prix pratiqués par celle-ci resteront bas. Or, comme l’explique Philippe Askenazy dans cette tribune parue dans le Monde, il fait peu de doute que l’ouverture dominicale des commerces tendra à augmenter les coûts de distribution. Il y a deux raisons à cela. La première est qu’en étant ouverts plus longtemps pendant la semaine, les commerces de la grande distribution verront probablement le nombre de consommateurs présents par heure d’ouverture diminuer, ce qui tendra à augmenter les coûts par unité vendue (ne serait-ce qu’en raison du surcroît de consommation énergétique induit par des horaires d’ouvertures plus longs). Mais c’est surtout la forte compensation salariale qui accompagne le travail dominical qui risque d’alourdir considérablement les coûts de distribution, le projet en cours de discussion prévoyant qu’un salarié acceptant de travailler le dimanche sera payé le double du salaire touché les autres jours de la semaine. Or qui dit coûts marginaux de distribution plus importants dit prix de vente plus élevés, ce qui réduiit mécaniquement les bénéfices économiques de la réforme.

Dans ces conditions, il n’est pas étonnant que les études empiriques qui ont cherché à évaluer l’impact économique de la déréglementation des horaires d’ouverture dans le commerce de détail ne trouvent pas en général d’effets très forts sur l’activité économique (cf. Skuterud, 2004 ; Goos, 2004 ; Burda & Weil, 2005). La plupart de ces travaux exploitent les réformes qui ont conduit depuis la fin des années 1960 un certain nombre d’États américains et de Provinces canadiennes à relâcher les restrictions pesant sur l’ouverture dominicale des commerces de la grande distribution (Blue laws). En comparant l’évolution de l’emploi et des prix pratiqués dans le commerce de détail avant et après l’abolition des Blue laws, ces différentes études concluent en général à une faible augmentation du nombre de commerces (de l’ordre de 1 à 2%) et à une augmentation de l’emploi dans le secteur de la grande distribution assez limitée, puisque comprise entre 2 et 5% à moyen terme. Les règles gouvernant l’implantation des grandes surfaces aux Etats-Unis et au Canada étant beaucoup moins restrictives qu’en France, l’impact relativement limité de la suppression des Blue laws semble pouvoir être attribué pour l’essentiel à l’augmentation des coûts de distribution associés au commerce dominical : la plupart des études citées trouvent en effet qu’à la suite de ces réformes, les prix de vente pratiqués dans la grande distribution ont augmenté de 2 à 5%.

Ainsi, l’augmentation des coûts de distribution constitue un obstacle qui risque de fortement atténuer les bénéfices économiques associés à l’ouverture dominicale des commerces. Le problème est que même si ces bénéfices restent positifs, la réforme n’est justifiée que si ses coûts ne sont pas trop élevés. Or ces derniers ne sont pas a priori négligeables

Des coûts sociaux ?

Le coût social le plus souvent mis en avant concerne les salariés qui se retrouveront contraints de travailler le dimanche pour assurer le fonctionnement des commerces sans l’avoir réellement choisi. Le gouvernement, par la voix de Xavier Bertrand, assure qu’en plus de la compensation salariale prévue dans le projet de loi, il y aura un « droit » au refus du travail dominical. On peut se montrer sceptique quant à l’efficacité des « verrous » décrits par l’ex-ministre du Travail : dès la signature du contrat de travail, le salarié pourra refuser de travailler le dimanche et un employeur qui refuserait une embauche parce qu'un salarié ne veut pas travailler le dimanche serait « immédiatement » sanctionné. S’il est permis de douter de l’efficacité de ce type de clauses légales, c’est parce qu’un employeur aura toujours la possibilité de faire valoir d’autres motifs que le refus du travail dominical pour justifier la non-embauche d’un candidat et qu’on voit mal un individu postulant à ce type d’emploi se priver du petit avantage que lui donnerait l’acceptation du travail le dimanche. Il paraît évident qu’un tel équilibre conduirait à dégrader sérieusement la situation de tous ceux qui, parce qu’ils souhaitent préserver une vie sociale et une vie de famille, persisteraient à refuser de travail le dimanche.

Des coûts « sociétaux » ?

Au coût social lié à la nature potentiellement « contrainte » du travail dominical, on pourrait ajouter que les restrictions imposées au travail dominical représentent une externalité positive à laquelle on ne peut renoncer sans coût. En France, le repos dominical a été instauré en 1906 à l’issue d’une lutte intense menée par à la fois par le clergé catholique, soucieux de faire respecter le jour du Seigneur, et par un certain nombre de réformateurs sociaux comptant notamment dans leurs rangs des défenseurs de la famille traditionnelle ainsi que des adeptes des mouvements hygiénistes. Si les motifs mis en avant à l’époque par les promoteurs de la loi sur le repos hebdomadaire paraissent aujourd’hui irrémédiablement datés, le concept d’externalité lui fournit en revanche une justification moderne. Une possible rationalisation de l’interdiction du travail le dimanche (discutée par Burda et Weil dans ce papier) est qu’à côté de leur loisir individuel, les membres d’une société valorisent le loisir « collectif », autrement dit la possibilité de partager une partie de leur temps libre avec d’autres individus. La pratique associative ou religieuse, les sports collectifs, les concerts, constituent autant d’exemples d’activités qui sont rendus possibles par la synchronisation du temps consacré au loisir. Or de telles externalités soulèvent des problèmes de coordination et justifient une intervention publique pour éviter que la désynchronisation des horaires et des jours de travail n’empêche les individus de bénéficier du loisir collectif. Dans une telle perspective, la législation interdisant le travail dominical constitue une manière relativement simple de préserver cette externalité en faisant du dimanche un jour dédié au loisir collectif.

Il faut toutefois noter que si le choix du dimanche plutôt qu’un jour de la semaine pour le repos hebdomadaire (justifié historiquement par des motifs d’ordre religieux) ne pose pas en soi de problème, le fait que la coordination du loisir collectif se concentre sur un seul jour de la semaine engendre un certain nombre d’externalités négatives qu’on aurait tort de négliger et qui prennent des formes aussi diverses que les files d’attente devant les expositions, les hôtels qui affichent complet ou encore les embouteillages des retours de weekend. En toute rigueur, ces externalités négatives doivent être retranchées du bénéfice social qu’on associe traditionnellement au repos dominical.

Dans ce contexte, il paraît difficile d’évaluer précisément les coûts sociaux nets de la déréglementation partielle du travail dominical. Etant donné la fraction relativement modeste de la population qui serait amenée à travailler le dimanche à la suite de la réforme, on est tenté de considérer que ces coûts seraient faibles et confinés à une petite partie de la société. Pourtant, une étude récente de Gruber et Hungerman suggère que les conséquences sociales de la déréglementation de l’ouverture dominicale des commerces ne sont peut-être pas aussi indolores que cela. Leur article démontre qu’aux Etats-Unis, la suppression des Blue laws entre le début des années 1960 et la fin des années 1990 a eu des effets pour le moins inattendus : en utilisant le fait que les différents États américains ont aboli ces lois à différentes dates, ils montrent que la possibilité de faire ses courses le dimanche est directement responsable de la baisse de la fréquentation des églises (de l’ordre de 5%) et de la diminution des contributions financières des fidèles (environ 25%). De manière encore plus surprenante, l’étude de Gruber et Hungerman révèle que la suppression des Blue laws a eu pour effet d’augmenter la consommation de drogues et d’alcool de 5 à 15% parmi les individus appartenant aux communautés dont la fréquentation religieuse a le plus baissé. Bien que le contexte culturel et religieux américain soit trop spécifique pour que cette étude puise donner une idée de l’importance des coûts sociaux associés à l’ouverture dominicale des commerces en France, elle suggère néanmoins que ces coûts ne sont ni aisément prévisibles, ni a priori négligeables.

La prise en compte des coûts de distribution et des coûts sociaux associés à l’ouverture des commerces du dimanche conduit à relativiser l’intérêt économique d’une telle réforme, mais pas nécessairement à conclure qu’elle est inutile. Le problème est que dans le contexte spécifiquement français, il existe un obstacle bien plus important que les deux précédents et, pour tout dire, rédhibitoire : le manque de concurrence dans le secteur de la grande distribution. L’existence de fortes barrières à l’entrée dans le secteur du commerce de détail risque de rendre la réforme du travail dominical non seulement inefficace, mais également contre-productive, en éloignant le débat de la véritable priorité : intensifier la concurrence dans la grande distribution.

Suite et fin au prochain post.
_Julien_

Lire la suite...