jeudi 26 novembre 2009

Pourquoi paie-t-on nos impôts?


Pour financer leurs actions, les pouvoirs publics doivent lever des ressources auprès de leurs administrés: ce sont les impôts. Mais vouloir prélever un certain niveau de ressources ne suffit pas, encore faut-il que les gens paient! L'histoire des impôts est pleine d'anecdotes qui démontrent l'inventivité sans limite de l'espèce humaine en matière d'évasion fiscale. Comme disait Keynes, éviter de payer des impôts est la seule activité intellectuelle gratifiante. De l'autre côté, les pouvoirs publics n'ont pas fait preuve de moins d'inventivité pour trouver des techniques de prélèvements (plus ou moins violentes) susceptibles de limiter l'évasion fiscale. Un fait central domine pourtant l'histoire de ce petit jeu du chat et de la souris : il y a cent ans, la part des impôts dans la richesse nationale était inférieure à 10% dans tous les pays. Aujourd'hui, elle est de l'ordre de 35% dans les pays de l'OCDE, et même de 45% en France, de 50% en Suède. Pourquoi l'Etat est-il aujourd'hui capable de prélever une part 4 fois plus importante de la richesse nationale qu'il y a cent ans?

La première explication, c'est évidemment que la demande de biens publics a considérablement augmenté. C'est la fameuse loi de Wagner, qui postule que l'élasticité revenu de la demande de biens publics est supérieure à 1: lorsque mon revenu augmente de 10%, ma demande de biens publics augmente de plus de 10%. Au cours du siècle passé, la demande sociale vis-à-vis de l'intervention publique s'est considérablement élargie, et il nous paraît désormais normal de voir l'Etat intervenir dans des domaines aussi divers que la santé ou la régulation des jeux d'argent. Ce que la loi de Wagner passe sous silence toutefois, c'est la manière dont l'on finance cette demande accrue de biens publics sans se heurter au problème classique de free riding (passager clandestin en français: c'est l'idée que, un bien public étant utilisable par tout le monde (on parle de bien non exclusif), personne n'a intérêt à payer pour le financer, et qu'au contraire tout le monde va agir en passager clandestin, c'est-à-dire attendre que les autres paient). Ce que la loi de Wagner n'explique pas non plus c'est pourquoi, alors que les revenus ont continué de croître dans les pays riches au cours des 20 dernières années, la part des prélèvements dans la richesse nationale s'est, elle, globalement arrêtée de croître (cf. graphique 1).

La seconde explication régulièrement avancée, nous la devons à Baumol, qui s'intéresse non pas à la demande, mais à l'offre de biens publics. L'idée est que la productivité augmente plus vite dans le secteur privé que dans le secteur public, car les activités du secteur public sont plus tournées vers les services, et par nature moins intensives en capital et plus intensives en travail. Le résultat est donc que la part des dépenses publiques dans la richesse nationale augmente nécessairement au cours du temps. Sur l'évolution comparée de la productivité dans le secteur public et privé, j'avoue ne pas être familier de la littérature empirique sur le sujet, mais je doute que les hypothèses de Baumol aient jamais réussies à être solidement étayées. Par ailleurs, le même problème se pose pour expliquer pourquoi les gains de productivité très importants dans les pays de l'OCDE dans les années 50 à 75 ne se sont pas traduits par une augmentation encore plus brutale de la part des dépenses publiques dans le PIB.


D'autres explications insistent plus spécifiquement sur la dimension historique du problème. Peacock and Wiseman (1961) défendent une théorie fondée sur des "effets de cliquets": les prélèvements publics font face à des chocs historiques (guerres, etc.), après lesquels ils ne retrouvent jamais leur niveau antérieur, car les chocs affectent durablement les normes sociales concernant le niveau désirable de prélèvements publics. Lorsque l'on regarde le graphique 1, cette théorie paraît assez séduisante, en particulier pour le cas de la Grande Bretagne, où le niveau de prélèvement a augmenté deux fois, par paliers, à la suite de chacune des deux guerres mondiales. Mais comment expliquer, si l'on croit à cette théorie, que la part des prélèvements soit restée si stable (et si faible) tout au long du 19ème siècle, alors que les guerres et autres révolutions susceptibles de créer des chocs temporaires sur la dépense publique n'ont pas été moins nombreuses. Et comment expliquer que la Suède, dont l'implication dans chacune des guerres mondiales a été bien plus faible que celle de la Grande-Bretagne ou des Etats-Unis, a pourtant connu une croissance soutenue de la part des prélèvements dans le PIB semblable à celle de ces deux pays? Mentionnons enfin les théories du type économie politique, à la Acemoglu & Robinson, qui insistent sur l'importance des équilibres politiques et de la part dévolue aux classes moyennes et populaires dans la Constitution pour expliquer la part croissante des politiques redistributives.

Aussi intéressantes soient-elles, ce que ces théories passent sous silence, fondamentalement, c'est qu'il existe d'importantes contraintes qui pèsent sur la capacité qu'ont les pouvoirs publics à observer et prélever les ressources des individus. Et il y a un monde entre vouloir prélever des ressources, et être effectivement capable de les prélever: des Bagaudes du Bas-Empire, aux Jacqueries de l'Ancien Régime, les exemples de gouvernement se heurtant à des révoltes fiscales ne manquent pas. Et à lire la très intéressante Histoire de l'impôt de Gabriel Ardant, on a l'impression que le ressort de l'histoire fiscale n'est rien d'autre que cela: des gouvernements qui butent sans arrêt sur l'impossibilité de prélever des ressources plus abondantes, qui se heurtent de façon récurrente aux limites de leur capacité de contrainte fiscale.

Or que nous disent les économistes sur ce petit jeu-là. Le modèle standard, que l'on doit à Allingham et Sandmo (1971) se fonde sur l'idée simple que les individus sont rationnels, et détiennent de l'information, qui n'est pas directement observable par les pouvoirs publics, sur le niveau réel de leurs ressources. En contrepartie, les pouvoirs publics ont une capacité de contrainte: ils peuvent contrôler les individus et les forcer à payer une amende en cas de fraude. Ce que nous dit ce modèle simple, c'est que les individus ont intérêt à tricher jusqu'à ce que le bénéfice marginal de la fraude soit égal au bénéfice marginal de ne pas tricher. Et le bénéfice marginal de la fraude est 1 euro supplémentaire en cas d'absence d'audit, et 1 euro moins l'amende en cas d'audit. Donc tout dépend évidemment de l'importance de l'amende et de la probabilité d'être découvert, comme dans les modèles Beckeriens de criminalité.

Ce petit modèle permet-il d'expliquer pourquoi les pouvoirs publics sont aujourd'hui capables de prélever une part de la richesse nationale quatre fois plus importante qu'il y a cent ans? Pas franchement! Car pour cela, il faudrait que les taux de contrôle fiscal aient augmenté drastiquement. Or c'est plutôt l'inverse qui s'est produit: il semble que le coût administratif de prélèvement des impôts en pourcentage du montant prélevé ait plutôt baissé depuis le siècle dernier. Slemrod, dans une revue de littérature faisait justement remarquer que si l'on prenait le modèle d'Allingham et Sandmo à la lettre, étant donné les taux d'audits, le taux actuel de fraude fiscale est absurdement faible dans les pays développés! Quant aux amendes, il ne semble pas qu'elles aient considérablement augmenté non plus. Pour parvenir à réconcilier la théorie avec les faits, il faudrait donc ajouter des aspects non-standards dans la manière dont les individus se comportent vis-à-vis de l'administration fiscale, de type altruisme (les individus font naturellement preuve de respect vis-à-vis des injonctions de l'administration fiscale), erreurs de perception sur la probabilité d'être contrôlés, etc. Ces aspects non-standards sont sans doute tout à fait importants et réels. Ils peinent toutefois à expliquer la révolution fiscale du vingtième siècle. Car on comprend mal pourquoi les individus seraient aujourd'hui quatre fois plus enclins à respecter les demandes de leur administration fiscale qu'il y a cent ans.

Et si la solution était en fait beaucoup plus simple? C'est ce que suggèrent deux papiers récents signés Emmanuel Saez et le gang de Danois (Henrik Kleven et Claus Kreiner). Leur réponse: le salariat. Au cours du premier vingtième siècle, la part de la population salariée a explosé dans tous les pays développés. Or que permet le salariat? D'observer le revenu des individus, qui est désormais stipulé dans un contrat de travail. Le premier des deux papiers généralise cette idée simple. Un petit modèle théorique montre que la naissance des entreprises modernes, avec de nombreux salariés et poursuivant des tâches de production complexes nécessitant de garder des comptes de toutes leurs opérations, limite de manière importante les possibilités de fraude fiscale collusive au sein de l'entreprise. Cela ne veut pas dire que toute fraude fiscale disparaît. Mais qu'elle est largement limitée par rapport au cas du paysan qui peut simplement cacher son grain chez le voisin. Avec le salariat naît aussi la possibilité de double-déclaration des salaires: les administrations fiscales peuvent contrôler les déclarations des individus au travers des informations qui leur sont transmises directement par les entreprises. Plus besoin donc de faire donner la troupe pour aller lever la capitation! Avec le salariat naît un outil d'observation et de contrôle des ressources absolument redoutable pour le pouvoir fiscal. Le second papier, qui se fonde sur une expérience contrôlée auprès de l'administration fiscale danoise démontre justement que la fraude fiscale est très limitée, pour les revenus soumis à double déclaration comme les salaires, et ce en dépit de taux d'audits faibles, tandis que les revenus déclarés individuellement (comme les revenus d'activité non-salariées) révèlent des taux de fraude beaucoup plus importants. Evidemment, cela ne veut pas dire que la fraude disparaît, même parmi les salariés. Certains salariés peuvent toujours s'engager dans des stratégies d'évasion fiscale complexes, mais leurs coûts sont nécessairement beaucoup plus élevés.

La naissance de l'entreprise moderne et la généralisation du salariat ont donc été de puissants outils de la transformation du pouvoir fiscal au cours du 20ème siècle. Lorsque 80% de la population exerce une activité dont les revenus sont facilement observables par la puissance publique, la question du prélèvement fiscal change fondamentalement de nature, et c'est ce qui permet la naissance de l'Etat moderne tel que nous le connaissons. On notera d'ailleurs que les salaires ne sont pas nécessairement la seule base fiscale dont l'observation est facilitée par le développement de la comptabilité moderne au sein des entreprises: les ventes peuvent être également mieux observées et l'ingéniosité de la Taxe sur le Valeur Ajoutée est justement d'avoir créé un système implicite de double déclaration (par l'entreprise vendeuse qui paie la taxe et par l'acheteur qui déduit de la TVA de ses consommations intermédiaires) qui a considérablement réduit les opportunités d'évasion fiscale. C'est ce qui explique pourquoi la majeure partie des recettes fiscales des Etats modernes provient désormais de ces deux types de taxes (impôts sur les revenus et taxe sur la valeur ajoutée).
_Camille_

Lire la suite...

mardi 13 octobre 2009

Prix Nobel et Sebastien


C'est avec une joie sans pareille qu'Ecopublix se joint à l'ensemble du monde de la recherche en économie pour chanter les louanges de ces deux chercheurs récemment distingués par un prix des plus prestigieux. Comme le titre de ce post ne l'indique pas, je veux bien entendu parler de Julien et Camille, lauréats du Prix de thèse de l'AFSE pour le premier, et d'une mention à ce prix, pour le second.

La vidéo de l'annonce du prix est visible ici.

Et rendez vous dans 6 mois pour un autre post de 2 lignes...
_Guilhem_

Lire la suite...

mardi 28 avril 2009

La médaille d'or de la gentillesse


Une très bonne nouvelle est venue vendredi de l’American Economic Association : la John Bates Clark Medal a été décernée à Emmanuel Saez. Cette médaille, aussi prestigieuse que le Prix Nobel, et un peu comme la médaille Fields en mathématiques, récompense une fois tous les 2 ans, le meilleur économiste de moins de 40 ans, ayant contribué de manière décisive par ses travaux à l’avancée du savoir dans le domaine de l’économie. Ecopublix félicite évidemment très chaleureusement l’impétrant. A travers lui, c’est aussi une belle reconnaissance faite aux innovations décisives opérées dans le domaine de l’économie publique depuis une dizaine d’années. Comme Emmanuel n’est par ailleurs pas complètement inconnu à la plupart des membres d’Ecopublix, il nous est apparu qu’un post un petit peu plus personnel serait bienvenu. Pour ceux qui voudraient se contenter d’un aperçu de ses travaux, vous pouvez trouver sur le site de l’AEA une bio bien ficelée.

Commençons bien sûr par l’essentiel : ses travaux. Emmanuel Saez est essentiellement connu du grand public pour son importante contribution à l’analyse de l’évolution des inégalités aux Etats-Unis et dans le monde dans le très long terme, qui a donné lieu à un certain nombre de publications avec son compère Thomas Piketty qui était son prof au MIT pour la petite histoire. (Vous trouverez tous ces papiers sur la page de Saez). Ces travaux, reposant sur l’utilisation de statistiques inédites de l’administration fiscale et de la sécurité sociale, ont permis de mettre en lumière des aspects de l’évolution de la structure des revenus qui sont désormais passés dans le savoir commun, mais qui étaient avant ces travaux, largement incompris. En particulier, Piketty & Saez ont montré que les inégalités de revenus se sont considérablement accrues aux Etats-Unis depuis le début des années 80 ; que ceci est dû à la croissance extrêmement rapide des revenus d’une petite fraction de ménages (1%) dans le haut de la distribution des revenus, et que ces revenus sont essentiellement des revenus d’activité. En outre, ils ont documenté la forte baisse de la progressivité du système fiscal américain depuis une trentaine d’année, et de manière plus iconoclaste encore, Emmanuel Saez (avec W. Kopczuk) a montré que la mobilité des individus au sein de la pyramide des revenus aux Etats-Unis avait été incroyablement stable au cours du 20ème siècle et sensiblement plus faible que ce que l’on avait l’habitude de penser, écornant au passage le stéréotype des Etats-Unis « Land of Opportunity ». L’ensemble de ces contributions a considérablement alimenté le débat public aux Etats-Unis, notamment durant la campagne présidentielle et il va sans dire que ce sont des études d’une importance capitale pour notre compréhension de l’économie et des inégalités. Pour autant, ce ne sont sans doute pas ces travaux qui lui ont valu sa médaille.

Si Emmanuel Saez s’est vu distingué par la communauté scientifique avec cette Bates Clark Medal, c’est surtout parce qu’il a fait sensiblement bouger la frontière de l’économie publique dans au moins deux importantes directions.

Tout d’abord, il a contribué de manière substantielle à penser l’articulation entre les résultats théoriques et les résultats positifs tirés de l’évaluation empirique des effets des politiques publiques. Pour arriver à faire ce pont, il faut tout d’abord maîtriser parfaitement les deux bouts de la chaîne. Et il faut bien reconnaître qu’il possède ce talent de jongler entre l’écriture de papiers de qualité dans le domaine théorique (sur la taxation optimale des revenus de l’épargne, sur la taxation optimale des conjoints, sur les incitations fiscales à la fourniture de biens publics, sur le salaire minimum …) et des études empiriques sophistiquées du point de vue de ce que les économètres appellent l’identification, c’est-à-dire la manière d’isoler et de faire apparaître le lien de causalité existant entre deux variables. Ces papiers sur l’effet de la taxation des dividendes sur la distribution des dividendes (avec R. Chetty), ou encore sur l’incidence des cotisations sociales à partir d’une réforme en Grèce (à venir) n’ont rien à envier aux meilleurs travaux d’Angrist ou de Card.

Mais ce qui intéresse Saez, c’est vraiment le lien entre ces deux mondes de la théorie et de l’empirique, car sa vision de l’économie publique est fermement ancrée dans l’idée que les économistes doivent être capables de produire des recommandations utiles et pratiques de politiques à mettre en œuvre. Pour comprendre cela, partons d’un des domaines dans lesquels les travaux de Saez ont eu le plus de portée : la taxation des revenus. La question de la taxation des revenus pour le gouvernement, c’est un choix complexe impliquant un niveau de taxe à lever, et un barème (un ensemble de taux applicables à différents niveaux de revenus). La manière dont sont fixés les différents taux du barème agit sur les comportements des individus. Intuitivement, plus les taux sont élevés, plus le revenu net qu’un individu tire de son travail diminue, réduisant l’offre de travail. Mais dans le même temps, le gouvernement a un objectif redistributif. Il veut redistribuer des plus riches vers les moins riches, et c’est la raison pour laquelle le gouvernement souhaite fixer des taux croissants en fonction du revenu. Comment fixer alors le barème pour tenir compte de ces différents objectifs? Si le modèle de Mirrlees (1971) offrait déjà les bases du raisonnement permettant de penser cet arbitrage, la dérivation du barème optimal posait de nombreux problèmes. Et là arrive Emmanuel Saez (à l’époque il termine tout juste son PhD au MIT), qui montre à la fois une manière simple de dériver le barème et identifie les paramètres décisifs pour simuler proprement ledit barème.
Cette série de papiers (, et )est importante pour l’économie publique non seulement pour ses résultats (l’idée notamment que le taux marginal supérieur de l’impôt sur le revenu est à l’optimum croissant jusqu’à un niveau très elévé de rémunération compte tenu de la forme de la distribution des revenus même avec une élasticité relativement forte de l’offre de travail), mais surtout importante du point de vue de la méthode : elle montre comment faire marcher la théorie sur ses deux pieds, c’est-à-dire produire des modèles qui s’appuient sur des paramètres qui sont proprement identifiables empiriquement, et que l’on peut ensuite réinjecter dans le modèle pour générer des recommandations utiles.

La deuxième direction importante dans laquelle Emmanuel Saez a engagé l’économie publique est celle de l’incorporation des leçons de la « behavioral economics ». C’est un domaine bien sûr dans lequel il n’est pas seul (des économistes comme Bernheim, Gruber ou Diamond sont aussi très sensibles à ce genre de problématiques). Mais c’est une percée majeure pour l’économie publique qui y renouvelle profondément sa boîte à outils. Concrètement, la « behavioral economics » s’intéresse à tous les comportements économiques non-standard ou non conformes à la représentation économique habituelle des préférences et des choix. Ces comportements incluent l’incohérence temporelle (avoir des préférences qui changent au cours du temps), les erreurs, la myopie (le fait d’accorder une attention trop importante au présent comme dans le cas d’actualisation quasi-hyperbolique), l’addiction, etc. Ces comportements sont traditionnellement ignorés de modèles classiques d’économie publique. Ce que montrent les travaux de Saez c’est que ces comportements non standard jouent de manière cruciale sur les politiques publiques optimales à mettre en place. Un exemple simple : si les programmes d’impôt négatif visant à favoriser l’offre de travail des personnes à bas-revenus sont peu efficaces, c’est sans doute aussi et avant tout du fait de la très mauvaise information véhiculée par les pouvoirs publics sur la forme des incitations procurées par ces barèmes complexes. Avec R. Chetty, ils ont ainsi mené une expérience contrôlée chez un grand « tax preparer » américain (une entreprise spécialisée dans l’aide à la préparation des déclarations d’impôts) : le groupe de traitement reçoit une information précise expliquant le fonctionnement de l’EITC (la prime pour l’emploi à l’américaine) tandis que le groupe de contrôle ne reçoit aucun complément d’information. Le résultat : les personnes ayant reçu le complément d’information sont plus nombreuses à optimiser leur comportement de manière à maximiser leur EITC l’année suivante. Cela peut paraître trivial aux yeux de beaucoup, mais cela change fondamentalement l’approche des politiques publiques : un programme d’information peut avoir des effets bien plus efficaces que l’accroissement des sommes versées pour l’impôt négatif.

Mais ce qui fait vraiment d’Emmanuel Saez un chercheur pas comme les autres, ce que rappelait Steve Levitt pas plus tard qu’hier, c’est qu’en dépit d’être un esprit brillant, Emmanuel Saez est un trésor d’humilité et de gentillesse. Il a accepté la lourde tâche de siéger au comité de thèse de quelques membres d’Ecopublix, a même soutenu la publication de leurs premiers papiers en tant qu’éditeur du Journal of Public Economics. A d’autres, il a pris le temps d’apprendre les rudiments du surf, étant lui-même, petit basque immigré en Californie, un surfeur émérite qui passe tous ses vendredis à Santa Cruz. La petite histoire veut que vendredi dernier, alors que le Chairman du département d’économie de Berkeley courait dans tous les couloirs en criant de joie pour annoncer la nouvelle, Emmanuel, sans se douter de rien, était, bienheureux, sur sa planche en train de regarder la vague de Pleasure Point…

_Camille_

Lire la suite...

mardi 21 avril 2009

Taxer les riches ? Oui...mais pourquoi ?


Petit mot pour ceux qui n’auraient pas suivi, sur le site de The Economist, la semaine dernière, ce débat intéressant autour de T. Piketty et C. Edwards, sur la proposition d’augmenter les taux supérieurs de l’impôt sur le revenu en Europe à 80% au-dessus d’un million d’euros. Le public de la Tax Academy a voté, et la proposition l’a emporté à peu de choses près. Très bien, et ensuite …?


On pourrait bien sûr en profiter pour lancer un jeu pour étudiants en licence d’Economie Publique du type : qu’est-ce que ce vote nous apprend sur la distribution des revenus au sein du lectorat de The Economist ? Ou encore prendre le temps de détailler et de mieux expliquer l’ensemble des arguments avancés sur le forum par les uns et les autres tout au long de la semaine, tant cette question nous paraît importante et traitée avec beaucoup de désinvolture dans le débat public français actuellement.

La contribution de W. Kopczuk offre toutefois une bonne première synthèse des différents arguments présents dans la littérature actuelle dite de taxation optimale. Cette littérature, qui s’est développée depuis une trentaine d’années suite à la contribution décisive de Mirrlees, prix Nobel d’Economie, a l’avantage et la beauté d’offrir une vision intégrée des problèmes de taxation en modélisant explicitement l’arbitrage entre équité et efficacité. D’un côté on spécifie une fonction de choix social, qui permet de donner plus ou moins de poids dans la décision aux différents individus selon leur niveau de revenu, et de l’autre on modélise les décisions des individus de travailler plus ou moins selon le niveau d’imposition.

Ce cadre théorique, qui peut paraître trivial à première vue, est un petit bijou en vérité car il est l’un des premiers à avoir permis de synthétiser les contributions essentielles de tout un tas de champs de la recherche en public finance, dont, entre autres, l’analyse du bien-être, l’économie normative, la littérature sur les asymétries d’information (car le gouvernement ne peut jamais observer quel est votre niveau de productivité, auquel cas il serait optimal pour lui de taxer directement en le niveau de productivité de chacun…). A partir de ce modèle se sont également développés un grand nombre de travaux empiriques permettant de calibrer le type d’impôt sur le revenu optimal en fonction des réactions réelles des individus aux variations de l’impôt sur le revenu. C’est entre autre cette littérature que Kopczuk résume dans son intervention. Il y explique notamment que, si du côté redistribution, le débat est avant tout une question de niveau de préférence pour la redistribution, du côté efficacité, les évidences empiriques sont extrêmement partagées sur la perte sèche (i.e. la perte de ressources totales pour l’ensemble de la communauté, et ceci indépendamment de la manière dont cette perte est répartie entre les individus) liée à la taxation des hauts revenus, du fait de la superposition de trois réponses différentes : une réponse liée à la mobilité, l’évasion fiscale et/ou l’optimisation fiscale, une réponse liée à des transferts de ressources dans le temps ou entre différentes bases d’imposition, et une réponse sur les comportements d’offre de travail.

Aussi intéressante que soit cette littérature, il me semble que dans le débat qui nous occupe, (faut-il, oui ou non taxer les riches à 80% au-dessus d’un certain niveau de revenu, niveau suffisamment élevé pour ne servir que de plafond de verre), les leçons des travaux de taxation optimale sont insuffisantes. Et ce pour une raison simple : toute cette littérature ne peut pas penser que la fixation initiale des rémunérations puisse être inefficace. L’arbitrage fondamental en taxation optimale est uniquement entre redistribution et incitations au travail, sous l’hypothèse centrale que la fixation des salaires sur le marché du travail est au niveau de la productivité marginale. Ce qui veut dire que taxer les patrons est un choix entre réduire les inégalités ou augmenter l’offre de travail des patrons. Que cet arbitrage existe, nul ne le nie. Mais tel que je le conçois, et tel que je crois comprendre le type d’idées que Piketty a en tête en formulant sa proposition, l’idée est plus profonde. L’argument, c’est que c’est bien la fixation des rémunérations des patrons qui n’est pas optimale.

Une fois de plus, ce n’est pas une idée neuve. Une vaste littérature, centrée sur les problèmes de corporate governance, a tenté d’expliquer et de mesurer en quoi la rémunération des PDG pouvait s’éloigner de leur productivité marginale. C’est une littérature passionnante, et j’espère avoir l’occasion d’y revenir très bientôt. Mais c’est aussi une littérature sans résultat fortement consensuel pour le moment. Non que la plupart des économistes contestent que les salaires des PDG puissent être différents de leur productivité marginale, mais plutôt du fait que les mécanismes par lesquels se fixent ces rémunérations reste très débattus. Or on peut regretter que le débat de The Economist n’ait pas plus été présenté en ces termes, car cela aurait permis de mieux en comprendre les enjeux.

En effet, lorsque Piketty avance l’idée de taxer à 80% les salaires au-dessus d’1 million d’euros, ce qu’il a en tête c’est que cela réduise l’inefficacité dans la fixation des revenus primaires, en rapprochant la rémunération des patrons de leur productivité marginale et en ramenant le comportement du patron vers son comportement optimal c’est-à-dire celui de maximisation de la valeur de la firme. Mais prenons un modèle simplissime d’inefficacité dans la fixation des rémunérations : les actionnaires n’exercent aucun contrôle effectif sur le PDG, qui peut fixer librement sa rémunération, en puisant sans coût dans les ressources de la firme. Dans cet exemple simple, la taxation n’a pas de raison de réduire intrinsèquement l’inefficacité, sauf à supposer que les coûts pour le PDG de puiser dans les ressources n’est pas de second ordre. A contrario, la fixation de règles plus strictes de contrôle par les actionnaires des modes de fixation de rémunération pourrait évidemment jouer à la racine de l’inefficacité. La difficulté, c’est qu’il existe très peu de travaux empiriques démontrant l’efficacité de telle ou telle piste de réforme des règles de gouvernance, en particulier du fait de la difficulté d’identifier proprement l’effet causal de telle ou telle règle particulière. C’est un sujet extrêmement complexe, et sur lequel je risque de m’ étendre dans quelques posts à venir.

Donc taxer peut paraître une bonne solution de court terme, en l’absence d’évidence plus précise. Mais on souhaiterait quand même montrer en quoi l’impôt est un instrument plus adéquat que les autres, et en particulier plus efficace que la fixation de règles intelligentes pour améliorer la qualité plus que moyenne de la gouvernance d’entreprise en France.. En tous les cas, on peut simplement regretter que ce type de questions n’ait pas vraiment été débattue.
_Camille_

Lire la suite...

jeudi 5 mars 2009

Les économistes font des graphs


Pour un anniversaire bien dans l'esprit Ecopublix, nous avons proposé au merveilleux Lomki, auteur des illustrations de notre blog, d'exprimer à sa manière l'expression "les économistes font des graphs". Parce qu'il n'est pas un jeu de mot foireux que nous n'oserions faire. N'hésitez pas à jeter un oeil à son site ainsi qu'à son blog photo.
Voici le cadeau qu'il nous a offert :



Encore merci Lomki !
_Ecopublix_

Lire la suite...

Les blogués de l'an 2


Ecopublix fête aujourd'hui son deuxième anniversaire ! C'est l'occasion pour nous de regarder le chemin parcouru jusqu'ici, et de constater, non sans fierté, que nous avons su produire les jeux de mot les plus foireux de la blogosphère éco, et ce, sans jamais faiblir ! Et si le poids des mots est essentiel, il ne serait rien sans le choc des photos et des illustrations accompagnant les posts. Sans entrer dans les secrets de fabrication, il nous faut reconnaitre que c'est là un véritable travail de recherche, qui nous occupe souvent plus que la rédaction du post lui-même. Mais quand on n'aime, on ne compte pas.

Dans cet esprit, et parce que c'est la fête, nous vous avons réservé, avec la complicité d'amis blogueurs, une petite surprise. En en attendant d'autres pour cette nouvelle année...
_Ecopublix_

Lire la suite...

jeudi 26 février 2009

Faut-il généraliser l’ouverture des commerces le dimanche ? La priorité est ailleurs (3/3)


Le précédent post a montré que les coûts de distribution et des coûts sociaux associés à l’ouverture des commerces du dimanche pourraient sérieusement limiter les bénéfices économiques de cette réforme. Mais ils le principal obstacle est ailleurs et trouve son origine dans le défaut de concurrence qui caractérise le commerce de détail en France. Dans un contexte peu concurrentiel, on peut craindre en effet que l'avantage économique que les consommateurs pourraient trouver à faire davantage leurs courses dans les grandes surfaces soit réduit à néant : les marges réalisées par les enseignes de la grande distribution n’étant pas menacées par l’émergence de nouveaux concurrents, le surcroît de demande suscité par l’ouverture dominicale des commerces risque d’être absorbé par une hausse des prix supérieure à l’augmentation des coûts de distribution. Elargir les possibilités d’ouverture dominicale des commerces sans résoudre ce problème de concurrence, ce n’est pas un peu mettre la charrue avant les bœufs ?

Un manque de concurrence au nom de la protection du petit commerce

Le défaut de concurrence dans le secteur du commerce de détail en France trouve son origine dans une série de dispositions légales adoptées depuis le milieu des années 1970 dont on trouvera une bonne analyse économique dans cet article signé Allain et Chambolle. Ces lois imposent aux acteurs du secteur deux types de règles étroitement liées : des règles de comportement (relations entre fournisseurs et distributeurs) et des règles de structure (contrôle des concentrations et régulation des implantations commerciales).

1/ La loi Galland : votée en 1996 pour modifier l’ordonnance de 1986 qui posa les jalons du droit de la concurrence en France, cette loi réglemente les relations entre les distributeurs et les fournisseurs dans le but de protéger ces derniers ainsi que les petits commerçants. Au moment du vote de la loi, l’objectif clairement affiché était de rétablir la « loyauté et l’équilibre des relations commerciales » face à la puissance d’achat croissante des enseignes de la grande distribution. Les petits commerçants reprochaient aux grandes surfaces de pratiquer des « prix prédateurs » en vendant certains produits à des prix excessivement bas afin d’éliminer du marché les distributeurs indépendants. Les fournisseurs se plaignaient quant à eux de la concurrence intense que se livraient les distributeurs et qui les conduisait à pratiquer des prix très bas, voire à revendre certains produits à perte (notamment pour les produits dits « d’appel »), ce qui pouvait nuire à l’image de marque de certains produit tout en désorganisant la chaîne d’approvisionnement. Pour répondre à ces préoccupations, la loi Galland a mis en place deux garde-fous : la transparence tarifaire et une définition plus stricte de l’interdiction de la vente à perte. La transparence tarifaire impose aux fournisseurs d’appliquer les mêmes conditions générales de vente à tous les distributeurs (qu’ils soient gros ou petits). Avant la loi, les fournisseurs consentaient généralement des ristournes aux gros distributeurs, ce qui permettait à ces derniers d’alléger leur facture au moment de l’achat et de vendre ces produits moins cher que dans le petit commerce. Pour combattre cette pratique, la loi Galland a interdit aux grandes surfaces de répercuter dans le prix de vente aux consommateurs les ristournes et les rémunérations de prestation commerciales qu’elles reçoivent de leurs fournisseurs (les fameuses « marges arrières »). Dans le nouveau système, les petits commerçants comme les grandes surfaces achètent leurs produits auprès des fournisseurs au même prix, qui correspond au seuil de revente à perte. Les uns comme les autres vendent ces produits en magasin pour un prix public plus élevé et l’écart entre le prix public de vente et le prix d’achat définit la « marge avant » qu’empochent les distributeurs. En plus de cette « marge avant », les gros distributeurs empochent une « marge arrière » car ils reçoivent après coup de leurs fournisseurs des ristournes pour rémunérer leurs prestations commerciales (positionnement du produit sur les rayons, prospectus, etc.), ce qui réduit le prix effectif d’achat par rapport au prix d’achat facturé. Mais ces « marges arrières » ne peuvent être prises en compte dans le calcul du seuil de revente à perte, si bien que le prix public de vente ne peut dépasser le prix d’achat initialement facturé. La décomposition (simplifiée) du prix de vente d’un produit vendu en grande surface qui découle de ce système peut être schématisée ainsi :


2/ La loi Royer : votée en 1973, cette loi de défense du petit commerce oblige les projets de création de commerces de plus de 1000 m² dans une commune de moins de 40000 habitants et de plus 1500 m² au-delà, à demander une autorisation spéciale auprès d’une Commission départementale d'urbanisme commercial pour s'implanter ou s'agrandir, avant même de déposer un permis de construire. Les représentants du petit commerce étant largement représentés dans ces commissions, la loi Royer a eu pour effet de restreindre considérablement l’implantation des hypermarchés et, du coup, à réduire la concurrence dans le secteur de la grande distribution.

3/ La loi Raffarin : votée en 1996 sous l’égide du « phénix du Poitou », cette loi a rendu plus contraignant encore le régime d’autorisation des implantations commerciales, en abaissant à 300 m² le seuil à partir duquel les Commissions départementales doivent être saisies. Destinée principalement à freiner l’implantation en France des magasins de « Hard discount » venus d’Allemagne, la loi Raffarin a eut pour effet de renforcer les barrières à l’entrée pour les moyennes et grandes surfaces, tout en créant une convergence d’intérêt entre les petits commerçants et les grandes chaînes de distribution françaises, trop heureux d’être ainsi mis à l’abri de la concurrence étrangère sur le territoire français.

… aux conséquences économiques particulièrement néfastes

Les conséquences économiques négatives de ces lois de protection du petit commerce ont été abondamment documentées.

Les effets pervers de la réglementation des relations entre fournisseurs et distributeurs par la loi Galland sont apparus peu après sa mise en application. On a effectivement constaté que loin de renforcer la position fournisseurs et des petits commerçants par rapport aux grands distributeurs, le durcissement de l’interdiction de la revente à perte a plutôt eu tendance à renforcer la dépendance économique des premiers et d’exposer les seconds à des formes nouvelles de concurrence, face auxquelles ils étaient mal armés.

L’alignement des conditions de facturation a conduit les gros distributeurs à axer toute leur stratégie de négociation sur les marges arrières, puisque ces dernières sont « garanties » (le prix de vente ne pouvant descendre en dessous du prix facturé par le fournisseur) alors que la marge avant est plus incertaine dans la mesure où elle dépend du prix public de vente qui varie lui-même avec la demande des consommateurs. Depuis l’entrée en vigueur de la loi Galland, les marges arrières n’ont cessé d’augmenter au point d’atteindre en moyenne près de 35% du prix d’achat des produits, ce qui représente un cas unique en Europe. Dans un contexte de forte concentration des enseignes de la grande distribution (le secteur étant dominé par sept grands groupes), le rapport de force s’est clairement déplacé en faveur des gros distributeurs, qui n’ont pas eu trop de mal à imposer à leurs fournisseurs de leur consentir des rétro-commissions de plus en plus importantes pour des services parfois fictifs. En outre, les fournisseurs ont dû faire face au développement des marques de distributeurs (par exemple, la Marque Repère des centres Leclerc). Ces dernières ont été lancées par les grandes enseignes de distribution afin de contourner les contraintes imposées par la loi Galland : le prix d’achat des produits « maison » étant fixé directement par les distributeurs, les marques de distributeurs sont devenues des armes de dissuasion efficaces contre les fournisseurs peu coopératifs.

Le commerce de proximité n’a pas été davantage protégé par la loi. En effet, l’interdiction de la revente à perte était assortie d’une exception destinée initialement à profiter aux petits commerçants indépendants : le « droit d’alignement » permettait aux magasins alimentaires de moins de 300 mètres carrés et non alimentaires de moins de 1000 mètres carrés de vendre un produit à perte pour s’aligner sur les tarifs d’un concurrent direct (en général une grande surface) situé dans une même zone de chalandise. Le problème est que pour bénéficier du même avantage, les gros distributeurs se sont mis à ouvrir en centre ville de nombreux magasins occupant une surface inférieure à cette limite mais bénéficiant d’une forte puissance d’achat grâce aux centrales d’achat auxquelles ils sont affiliés. Le résultat de cette nouvelle forme de concurrence est que la loi s’est finalement retournée contre ceux qu’elle était censée protéger.

Non seulement la loi Galland n’a pas permis de rééquilibrer les relations entre fournisseurs et distributeurs, pas plus qu'entre petits et gros distributeurs, mais elle a également eu des conséquences inflationnistes particulièrement dommageables pour le pouvoir d’achat des consommateurs. En imposant un prix minimum de revente, cette loi a nivelé les prix pratiqués en France tout en empêchant au mécanisme de concurrence par les prix de venir modérer les marges réalisées par les distributeurs. Immédiatement après l’entrée en vigueur de la loi, un grand nombre de biens jusqu’alors vendus à perte pour attirer les clients dans un point de vente ont vu leur prix augmenter brutalement. Par ailleurs, l’interdiction de la revente à perte a facilité l’adoption de pratiques non-concurrentielles par un certain nombre de fournisseurs, notamment sous la forme des « prix de revente imposés ». Alors que cette pratique est normalement prohibée par le droit de la concurrence, elle a été abondamment utilisée par les fournisseurs soucieux de protéger l'image de leur marque en facturant leurs produits à des prix excessivement élevés. Parce qu’ils n’ont pas le droit de vendre à perte, les distributeurs sont tenus de respecter ce prix minimum imposé mais exigent d’être compensés par de juteuses marges arrières. Au final, tout le monde s’y retrouve… sauf le consommateur !

Les règles qui gouvernent les relations entre fournisseurs et distributeurs n’auraient pas eu de tels effets pervers si le secteur de la grande distribution fonctionnait de manière réellement concurrentielle. Or tel n’est pas le cas, à la fois parce que la régulation exercée par les autorités de contrôle de la concurrence est insuffisante et parce que la réglementation des implantations commerciales érige de puissantes barrières à l’entrée qui ne permettent pas de combattre efficacement les rentes de situation acquises par certaines enseignes de la grande distribution.

Le Conseil de la concurrence est en France l’autorité chargée d’analyser et de réguler le fonctionnement de la concurrence sur les marchés. Elle est compétente notamment pour émettre des avis sur les opérations de concentrations entre entreprises françaises, sauf si les entreprises en question réalisent une grande partie de leur chiffre d’affaire dans d’autres pays de l’Union européenne. Dans ce cas, c’est la Commission européenne qui compétente, mais elle peut choisir de renvoyer l’opération aux autorités nationales. Le problème est qu’en pratique, le Conseil de la concurrence ne s’est pas montré très déterminé à freiner le mouvement de concentration de la grande distribution : la totalité des opérations de concentration entre distributeurs français ont été jusqu’ici acceptées, en particulier la fusion Carrefour-Promodès en 1999 (magasins Carrefour, Champion, Dia, Ed, Shopi, 8 à 8, etc.). Or cette approche est loin d’être partagée par les autorités en charge de la politique de la concurrence dans d’autres pays : aux États-Unis, en particulier, les autorités anti-trust empêchent régulièrement certaines opérations de concentration dans le secteur de la distribution. La Commission européenne, pourtant perçue comme relativement conciliante en matière d’opérations de concentration dans la distribution, a également refusé un certain nombre de projets de fusion en raison de la position dominante qu’ils auraient conférés à la nouvelle entité.

Plus encore que l’insuffisance du contrôle exercé par les autorités de concurrence, le principal obstacle à l’émergence d’une véritable concurrence dans le secteur de la grande distribution est aujourd’hui représenté par la réglementation des implantations commerciales. En imposant de fortes restrictions à la création de nouvelles grandes surfaces, les lois Royer et Raffarin ont considérablement limité la pression concurrentielle sur les prix et freiné le développement de d’emploi dans le commerce de détail.

L’article de référence sur le sujet est celui que Marianne Bertrand et Francis Kramarz ont consacré à la loi Royer en 2002. Dans cette étude, les auteurs comparent l’évolution de l’emploi et des prix d’un département à l’autre en fonction du taux d’autorisation des surfaces de ventes. Les taux d’autorisation étant susceptibles d’être corrélés à un grand nombre de caractéristiques influençant à la fois l’emploi et les prix, Bertrand et Kramarz utilisent la couleur politique du département comme source de variation exogène des autorisations d’implantation : les élus de la droite et du centre étant plus favorables aux petits commerçants que les élus de gauche, ils bloquent plus souvent les autorisations. Les estimations des auteurs indiquent que sans la loi Royer, le nombre de grandes surfaces aurait pu être supérieur de 30% à celui constaté au moment de l’étude. Ils évaluent par ailleurs à 3% le déficit d’emplois dans le commerce alimentaire qui est directement imputable à cette loi.

L’impact conjugué des lois Galland et Raffarin a quant à lui fait l’objet d’une analyse approfondie par Philippe Askenazy et Katia Weinfeld. Le graphique suivant, tiré de leur étude, indique l’évolution des créations, extensions et transferts nets des grandes surfaces alimentaires (supérieures à 400 m2) entre 1993 et 2006 :


L’impact de la réforme Raffarin de 1996 est clairement perceptible sur ce graphique : la croissance de tous les formats de vente s’est ralentie à partir de 1996 et la croissance annuelle du nombre de mètres carrés par habitants, qui était encore de 3,5% au début des années 1990, est tombée à près de 1% à partir de 1997. Les auteurs montrent qu’en limitant drastiquement la concurrence par l’offre et en protégeant les marges arrières des enseignes de la grande distribution, les lois Galland et Raffarin ont eu pour effet de limiter la pression concurrentielle sur les prix et de gonfler les profits réalisés par les entreprises du secteur sans pour autant parvenir à enrayer la disparition du petit commerce : entre 1996 et 2002, le taux de marge économique du grand commerce alimentaire a augmenté de 12 points et les auteurs évaluent à près de 50 000 le nombre d’emplois qui n’ont pas été créés du fait de ces lois. Les conclusions de l’étude n’ont visiblement pas plu au ministère des PME qui s’est fendu d’une note de lecture au ton pour le moins agressif, à laquelle Askenazy et Weinfeld ont apporté des réponses détaillées dans ce document.

Comment intensifier la concurrence dans le secteur de la distribution ?

L’analyse qui précède suggère que les dividendes de la réforme du travail dominical pourraient être en grande partie atteints, sans ses coûts sociaux, par le simple torpillage des lois Royer, Galland et Raffarin. De ce point de vue, le chapitre 5 du rapport Attali contenait un certain nombre de propositions intéressantes, malheureusement mises au placard avec leurs consœurs.

Une première série de réformes pourraient être engagées pour instaurer le principe de liberté tarifaire dans la distribution et le commerce de détail, en interdisant les interdictions de « revente à perte » qui existent aujourd’hui. Ces réformes devraient permettre de faire baisser significativement les prix à la consommation, à condition d’être encadrée par le Conseil de la concurrence pour éviter que certaines firmes en position dominantes ne pratiquent des prix prédateurs dans le seul but d’exclure des concurrents indésirables. La loi Chatel de 2007 a représenté un premier pas dans cette direction, mais reste très insuffisante : en effet, bien que les marges arrières soient désormais incluses dans le calcul du seuil de revente à perte, cette loi n’instaure pas à proprement parler de liberté tarifaire dans les négociations commerciales puisqu’elle maintient le principe de l’interdiction de la revente à perte.

L’instauration de la liberté tarifaire ne pourra entraîner une baisse significative des prix que si elle s’accompagne d’une levée des barrières à l’entrée dans le secteur du commerce de détail, afin de faciliter l'entrée de nouveaux acteurs au niveau local. Pour y parvenir, il n’y a guère d’autre solution que d’abroger les lois Royer et Raffarin en supprimant les procédures d’autorisation qui sont actuellement gérées par les Commissions départementales d’équipement commercial et en conditionnant désormais l’ouverture de nouvelles grandes surfaces à la seule obtention d’un permis de construire. Pour limiter les risques de concentration qu’une telle déréglementation pourrait provoquer, il est nécessaire que le Conseil de la concurrence puisse exercer son contrôle dès lors que le rachat d’un magasin par son concurrent entraînerait un risque d’abus de position dominante.

La fusion de l’autorisation d’implantation commerciale avec le permis de construire aurait pour avantage de ne soumettre les implantations commerciales à des critères d’urbanisme et d’aménagement du territoire plutôt qu’à un objectif de protection du petit commerce. Cette approche permettrait ainsi de faciliter les nouvelles implantations sans pour autant négliger leur impact écologique et « esthétique », afin de répondre à la crainte exprimée par certains d’un enlaidissement des centres-villes par les grandes surfaces. En Belgique, l’adoption d’une réforme de ce type en 2005 à permis d’augmenter significativement les autorisations d’ouvertures commerciales sans pour autant provoquer de catastrophe urbanistique.

Conclusion

Du fait du manque de concurrence qui caractérise le secteur de la grande distribution en France, les bénéfices économiques d’une extension de l’ouverture dominicale des commerces ont peu de chances d’être massifs. On peut craindre en effet que le report vers les grandes surfaces des achats auparavant effectués dans les petits commerces se traduise surtout par une augmentation des prix pratiqués dans la grande distribution, limitant ainsi l’impact positif de la réforme sur l’emploi et le pouvoir d’achat.

Le projet de réforme actuellement en discussion a donc un côté finalement assez contreproductif : en concentrant l’attention sur une mesure qui ligue contre elle une foule de mécontents (petits commerçants, syndicats de salariés, autorités ecclésiastiques) alors que ses bénéfices économiques ne paraissent pas immenses, ce projet retarde encore un peu plus l’abolition des lois malthusiennes qui gênent le développement du commerce de détail en France et restreignent artificiellement la concurrence dans la grande distribution.

C’est pas tous les jours dimanche…
_Julien_

Lire la suite...

mercredi 18 février 2009

Faut-il généraliser l’ouverture des commerces le dimanche ? Côté face (2/3)


Le précédent post consacré aux conséquences économiques de l’extension des possibilités d’ouverture dominicale des commerces a montré qu’une telle réforme pourrait bien avoir pour effet de stimuler la consommation des ménages. Cet effet positif vient non seulement du fait qu’une journée supplémentaire pour faire les courses pourrait inciter à effectuer plus d’achats, mais également du fait que ces achats seraient davantage réalisés en grande surface, où les prix sont plus faibles que dans le petit commerce. Le bénéfice principal de la réforme vient donc des gains de productivité que permettrait la substitution économiquement efficace d’une partie de la consommation des ménages. Le problème est que cette analyse ne prend pas en compte ce qui se passe du côté de l’offre et néglige les coûts sociaux, voire sociétaux, qu’une telle mesure pourrait entraîner. La prise en compte de ces facteurs jette-t-elle un doute sur l’intérêt économique de la réforme ?

Une augmentation probable des coûts de distribution

Commençons par nous intéresser aux effets probables de la réforme sur l’offre commerciale. L’impact global de l’extension de l’ouverture des commerces le dimanche dépend de manière cruciale de la manière dont les acteurs du secteur du commerce de détail vont réagir à l’accroissement de la demande qui a été décrit dans le précédent post.

La réforme incitera d’autant plus les consommateurs à réorienter leur consommation des petits commerces vers la grande distribution que les prix pratiqués par celle-ci resteront bas. Or, comme l’explique Philippe Askenazy dans cette tribune parue dans le Monde, il fait peu de doute que l’ouverture dominicale des commerces tendra à augmenter les coûts de distribution. Il y a deux raisons à cela. La première est qu’en étant ouverts plus longtemps pendant la semaine, les commerces de la grande distribution verront probablement le nombre de consommateurs présents par heure d’ouverture diminuer, ce qui tendra à augmenter les coûts par unité vendue (ne serait-ce qu’en raison du surcroît de consommation énergétique induit par des horaires d’ouvertures plus longs). Mais c’est surtout la forte compensation salariale qui accompagne le travail dominical qui risque d’alourdir considérablement les coûts de distribution, le projet en cours de discussion prévoyant qu’un salarié acceptant de travailler le dimanche sera payé le double du salaire touché les autres jours de la semaine. Or qui dit coûts marginaux de distribution plus importants dit prix de vente plus élevés, ce qui réduiit mécaniquement les bénéfices économiques de la réforme.

Dans ces conditions, il n’est pas étonnant que les études empiriques qui ont cherché à évaluer l’impact économique de la déréglementation des horaires d’ouverture dans le commerce de détail ne trouvent pas en général d’effets très forts sur l’activité économique (cf. Skuterud, 2004 ; Goos, 2004 ; Burda & Weil, 2005). La plupart de ces travaux exploitent les réformes qui ont conduit depuis la fin des années 1960 un certain nombre d’États américains et de Provinces canadiennes à relâcher les restrictions pesant sur l’ouverture dominicale des commerces de la grande distribution (Blue laws). En comparant l’évolution de l’emploi et des prix pratiqués dans le commerce de détail avant et après l’abolition des Blue laws, ces différentes études concluent en général à une faible augmentation du nombre de commerces (de l’ordre de 1 à 2%) et à une augmentation de l’emploi dans le secteur de la grande distribution assez limitée, puisque comprise entre 2 et 5% à moyen terme. Les règles gouvernant l’implantation des grandes surfaces aux Etats-Unis et au Canada étant beaucoup moins restrictives qu’en France, l’impact relativement limité de la suppression des Blue laws semble pouvoir être attribué pour l’essentiel à l’augmentation des coûts de distribution associés au commerce dominical : la plupart des études citées trouvent en effet qu’à la suite de ces réformes, les prix de vente pratiqués dans la grande distribution ont augmenté de 2 à 5%.

Ainsi, l’augmentation des coûts de distribution constitue un obstacle qui risque de fortement atténuer les bénéfices économiques associés à l’ouverture dominicale des commerces. Le problème est que même si ces bénéfices restent positifs, la réforme n’est justifiée que si ses coûts ne sont pas trop élevés. Or ces derniers ne sont pas a priori négligeables

Des coûts sociaux ?

Le coût social le plus souvent mis en avant concerne les salariés qui se retrouveront contraints de travailler le dimanche pour assurer le fonctionnement des commerces sans l’avoir réellement choisi. Le gouvernement, par la voix de Xavier Bertrand, assure qu’en plus de la compensation salariale prévue dans le projet de loi, il y aura un « droit » au refus du travail dominical. On peut se montrer sceptique quant à l’efficacité des « verrous » décrits par l’ex-ministre du Travail : dès la signature du contrat de travail, le salarié pourra refuser de travailler le dimanche et un employeur qui refuserait une embauche parce qu'un salarié ne veut pas travailler le dimanche serait « immédiatement » sanctionné. S’il est permis de douter de l’efficacité de ce type de clauses légales, c’est parce qu’un employeur aura toujours la possibilité de faire valoir d’autres motifs que le refus du travail dominical pour justifier la non-embauche d’un candidat et qu’on voit mal un individu postulant à ce type d’emploi se priver du petit avantage que lui donnerait l’acceptation du travail le dimanche. Il paraît évident qu’un tel équilibre conduirait à dégrader sérieusement la situation de tous ceux qui, parce qu’ils souhaitent préserver une vie sociale et une vie de famille, persisteraient à refuser de travail le dimanche.

Des coûts « sociétaux » ?

Au coût social lié à la nature potentiellement « contrainte » du travail dominical, on pourrait ajouter que les restrictions imposées au travail dominical représentent une externalité positive à laquelle on ne peut renoncer sans coût. En France, le repos dominical a été instauré en 1906 à l’issue d’une lutte intense menée par à la fois par le clergé catholique, soucieux de faire respecter le jour du Seigneur, et par un certain nombre de réformateurs sociaux comptant notamment dans leurs rangs des défenseurs de la famille traditionnelle ainsi que des adeptes des mouvements hygiénistes. Si les motifs mis en avant à l’époque par les promoteurs de la loi sur le repos hebdomadaire paraissent aujourd’hui irrémédiablement datés, le concept d’externalité lui fournit en revanche une justification moderne. Une possible rationalisation de l’interdiction du travail le dimanche (discutée par Burda et Weil dans ce papier) est qu’à côté de leur loisir individuel, les membres d’une société valorisent le loisir « collectif », autrement dit la possibilité de partager une partie de leur temps libre avec d’autres individus. La pratique associative ou religieuse, les sports collectifs, les concerts, constituent autant d’exemples d’activités qui sont rendus possibles par la synchronisation du temps consacré au loisir. Or de telles externalités soulèvent des problèmes de coordination et justifient une intervention publique pour éviter que la désynchronisation des horaires et des jours de travail n’empêche les individus de bénéficier du loisir collectif. Dans une telle perspective, la législation interdisant le travail dominical constitue une manière relativement simple de préserver cette externalité en faisant du dimanche un jour dédié au loisir collectif.

Il faut toutefois noter que si le choix du dimanche plutôt qu’un jour de la semaine pour le repos hebdomadaire (justifié historiquement par des motifs d’ordre religieux) ne pose pas en soi de problème, le fait que la coordination du loisir collectif se concentre sur un seul jour de la semaine engendre un certain nombre d’externalités négatives qu’on aurait tort de négliger et qui prennent des formes aussi diverses que les files d’attente devant les expositions, les hôtels qui affichent complet ou encore les embouteillages des retours de weekend. En toute rigueur, ces externalités négatives doivent être retranchées du bénéfice social qu’on associe traditionnellement au repos dominical.

Dans ce contexte, il paraît difficile d’évaluer précisément les coûts sociaux nets de la déréglementation partielle du travail dominical. Etant donné la fraction relativement modeste de la population qui serait amenée à travailler le dimanche à la suite de la réforme, on est tenté de considérer que ces coûts seraient faibles et confinés à une petite partie de la société. Pourtant, une étude récente de Gruber et Hungerman suggère que les conséquences sociales de la déréglementation de l’ouverture dominicale des commerces ne sont peut-être pas aussi indolores que cela. Leur article démontre qu’aux Etats-Unis, la suppression des Blue laws entre le début des années 1960 et la fin des années 1990 a eu des effets pour le moins inattendus : en utilisant le fait que les différents États américains ont aboli ces lois à différentes dates, ils montrent que la possibilité de faire ses courses le dimanche est directement responsable de la baisse de la fréquentation des églises (de l’ordre de 5%) et de la diminution des contributions financières des fidèles (environ 25%). De manière encore plus surprenante, l’étude de Gruber et Hungerman révèle que la suppression des Blue laws a eu pour effet d’augmenter la consommation de drogues et d’alcool de 5 à 15% parmi les individus appartenant aux communautés dont la fréquentation religieuse a le plus baissé. Bien que le contexte culturel et religieux américain soit trop spécifique pour que cette étude puise donner une idée de l’importance des coûts sociaux associés à l’ouverture dominicale des commerces en France, elle suggère néanmoins que ces coûts ne sont ni aisément prévisibles, ni a priori négligeables.

La prise en compte des coûts de distribution et des coûts sociaux associés à l’ouverture des commerces du dimanche conduit à relativiser l’intérêt économique d’une telle réforme, mais pas nécessairement à conclure qu’elle est inutile. Le problème est que dans le contexte spécifiquement français, il existe un obstacle bien plus important que les deux précédents et, pour tout dire, rédhibitoire : le manque de concurrence dans le secteur de la grande distribution. L’existence de fortes barrières à l’entrée dans le secteur du commerce de détail risque de rendre la réforme du travail dominical non seulement inefficace, mais également contre-productive, en éloignant le débat de la véritable priorité : intensifier la concurrence dans la grande distribution.

Suite et fin au prochain post.
_Julien_

Lire la suite...

vendredi 13 février 2009

Faut-il généraliser l’ouverture des commerces le dimanche ? Côté pile (1/3)


La proposition de loi sur l’extension du travail dominical, qui figurait parmi les mesures phares du programme présidentiel de Nicolas Sarkozy, est devenue au fil des semaines et des mois un véritable chemin de croix pour ses principaux promoteurs, Xavier Betrand et Luc Chatel. Portée par une coalition d’opposants qui va des syndicats de salariés aux représentants des petits commerçants en passant par les autorités ecclésiastiques, la fronde contre l’ouverture des commerces le dimanche a progressivement gagné les rangs de la majorité, justifiant le report de l’examen des articles et du vote à la rentrée 2009 avant leur ajournement sine die. L’hostilité croissante que suscite l’extension du travail dominical repose sur l’idée que l’intérêt économique d’une telle réforme est faible au regard de ses coûts sociaux, voire sociétaux. Est-ce si sûr ? Sans prétendre apporter de réponses tranchées à une question complexe, le raisonnement économique et l’analyse des expériences étrangères en matière de réglementation des heures d’ouvertures des commerces peuvent éclairer utilement les enjeux de ce débat.

La réglementation actuelle

En France, le Code du travail interdit d’occuper un même salarié plus de six jours par semaine. Le repos hebdomadaire accordé aux salariés doit avoir une durée d’au moins 24 heures consécutives et être donné le dimanche. Le Code du travail prévoit néanmoins un certain nombre de dérogations. Les commerces qui n’emploient pas de salariés (ce qui correspond en pratique aux petits commerces de proximité tenus par des indépendants) peuvent ouvrir le dimanche sauf s’il existe un arrêté préfectoral stipulant que les établissements d’une branche particulière doivent fermer ce jour-là. Par ailleurs, le commerce alimentaire de détail (supermarchés) et certains secteurs du commerce non-alimentaire (fleurs, meubles, presse, etc.) bénéficient d’une dérogation de droit le dimanche matin jusqu’à midi. Enfin, des dérogations peuvent être accordées ponctuellement au commerce de détail par le maire (dans la limite de 5 jours par an) ou par le préfet (notamment dans les communes touristiques ou thermales). En pratique, seule une petite partie des commerces qui ont la possibilité d’ouvrir le dimanche le font.

D’après les chiffres mentionnés par ce rapport du Crédoc, le commerce de détail emploie en France près de 1,8 millions de personnes, dont 300 000 commerçants indépendants qui ont réglementairement le droit d’ouvrir le dimanche. Au total, près de 13% des individus employés dans le commerce de détail travaillent habituellement le dimanche et 24 % occasionnellement.

Un projet de loi en peau de chagrin

Dans sa version maximaliste, la déréglementation de l’ouverture dominicale du commerce de détail consisterait à autoriser l’ensemble des établissements appartenant au secteur du commerce alimentaire et non-alimentaire à ouvrir le dimanche. En pratique, cette disposition concernerait essentiellement les hypermarchés (qui, à la différence des supermarchés, ne sont pas aujourd’hui autorisés à ouvrir le dimanche matin) et aux enseignes de la distribution non-alimentaire (bricolage, habillement, culture et multimédia, etc.)

En réalité, il semble qu’on s’achemine vers une version beaucoup plus restrictive de la réforme que celle initialement envisagée. Aux dernières nouvelles, le dispositif retenu se limiterait à augmenter le nombre de zones touristiques bénéficiant de dérogations (à Paris, cela concernerait essentiellement les Champs-Elysées et les grands boulevards) et à autoriser l’ouverture dominicale dans les agglomérations frontalières de plus d’un million d’habitants confrontées à la concurrence commerciale transfrontalière (seule Lille est dans ce cas). Enfin, les maires auraient la possibilité d’autoriser les commerces à ouvrir dix dimanches par an au lieu de cinq actuellement.

On est donc très loin d’une « généralisation » du travail dominical et si le projet qui est finalement adopté reste dans les limites du scenario minimal aujourd’hui proposé, son impact économique ne pourrait être qu’infime. Il reste que la question de l’intérêt économique d’une déréglementation de l’ouverture des commerces le dimanche est posée et mérite d’être examinée tant du point de vue théorique qu’à la lumière des expériences étrangères en la matière.

En théorie : un impact positif sur la demande…

Les principaux bénéfices qu’on peut attendre d’une extension des possibilités d’ouverture dominicale des commerces dépendent pour l’essentiel des réactions de la demande, c'est-à-dire des consommateurs.

Quel peut être l’effet d’une telle mesure sur la consommation des ménages ? A priori, on aurait tendance à répondre : aucun, si on pense qu’à revenu donné, les consommateurs se contenteront de répartir différemment le temps qu’ils consacrent aux courses pendant la semaine sans pour autant consommer davantage. Dans cette situation, l’extension de l’ouverture dominicale des commerces se traduirait simplement par une augmentation des dépenses réalisées le dimanche au détriment des autres jours de la semaine. Ce paradoxe, décrit par l’économiste allemand Wolfgang Stüzel au début des années 1950, postule l’idée que la valeur ajoutée générée par le commerce de détail est indépendante de la durée totale d’ouverture des magasins.

Ce raisonnement néglige en réalité deux mécanismes par lesquels une dérèglementation de l’ouverture dominicale des commerces est susceptible d’accroître la quantité totale de biens consommés.

D’une part, il est possible que les restrictions pesant sur les horaires d’ouverture des magasins empêchent un certain nombre d’achats d’être effectués : on songe évidemment aux touristes qui effectuent un séjour en France et qui achèteront ailleurs ce qu’ils n’ont pas pu acheter le dimanche, ainsi qu’aux nationaux qui vont faire leurs courses de l’autre côté de la frontière s’ils habitent à proximité d’un pays où l’ouverture des commerce est autorisée le dimanche. Ces deux catégories de consommateurs semblent d’ailleurs représenter le cœur de cible du projet actuel. De manière plus surprenante, un certain nombre d’études empiriques (par exemple cet article sur données néerlandaises) suggèrent que l’extension des horaires d’ouverture des magasins pourrait inciter les individus à consacrer une partie plus importante de leur temps à faire leurs courses et à consommer davantage, ce qui va à l’encontre du paradoxe de Stüzel évoqué plus haut. Ce phénomène peut s’interpréter comme le résultat d’un effet de « temps disponible » : l’ouverture des commerces le dimanche pourrait stimuler la consommation des biens qui nécessitent un minimum de prospection (vêtements, hi-fi, livres, etc.) et pour l’achat desquels on manque parfois de temps le samedi parce qu’on doit en plus faire ses courses au supermarché : si je pouvais profiter de mon dimanche pour me balader tout en essayant plusieurs paires de chaussures dans différentes boutiques, peut-être aurais-je tendance à en changer plus souvent, sans attendre d’y être contraint par l’état pitoyable de la paire que je porte aux pieds…

En plus de la demande générée par le surcroît de consommation touristique ou frontalière ainsi que par la plus forte exposition des consommateurs, l’ouverture dominicale des commerces pourrait stimuler l’activité économique par le biais d’un autre mécanisme, plus complexe et moins souvent mis en avant. Parce qu’elle concernerait prioritairement les grandes enseignes de distribution, la réforme devrait favoriser une substitution des achats réalisés par les consommateurs des petits commerces de proximité vers les grandes surfaces. Ce phénomène de substitution peut être illustré au moyen d’un modèle très simple, tiré de cet article de Morrisson et Newman. Dans ce modèle, on suppose qu’un consommateur peut acheter le même bien dans deux types de magasins : les petits commerces, indexés par la lettre e (comme épiceries) et les grandes surfaces, indexées par la lettre g. Le coût total C associé à la consommation d’une quantité Q de biens dans le commerce de type i (i=g,e) peut être considéré comme la somme de deux coûts : un coût direct, égal à la valeur des achats réalisés dans le magasin (soit Pi.Q où Pi désigne le prix unitaire dans le magasin de type i) et un coût indirect fixe (noté Fi), qui est une fonction notamment de la distance au magasin, mais également de ses horaires d’ouverture. On suppose que parce que les coûts de distribution des grands magasins sont plus faibles que ceux des petits magasins, leurs prix unitaires sont également plus faibles (soit Pg ≤ Pe) ; en revanche, on fait l’hypothèse que le coût fixe supporté par le consommateur qui fait ses courses dans une grande surface est plus élevé que lorsqu’il va chez un petit commerçant, si bien que Fg ≥ Fe. Pour une même quantité Q de biens achetés, un consommateur paiera donc un coût total Ce=Pe.Q + Fe s’il choisit de faire ses courses dans le petit commerce et Cg=Pg.Q + Fg s’il choisit une grande surface.

Sur le graphique suivant, chaque courbe représente le coût total associé aux achats dans le petit commerce (courbe orange) et en grande surface (courbe bleue), en fonction de la quantité achetée (en abscisse) :


La quantité Q* correspond à la taille totale du panier telle que le consommateur est indifférent entre les deux types de magasins. Pour les petits achats (Q ≤ Q*), il préfèrera faire ses courses à l’épicerie du coin alors que pour les gros achats (Q≥Q*), il optera pour la grande surface.

Quel serait dans ce modèle très simple l’impact d’une extension de l’ouverture des grandes surfaces le dimanche ? La réforme aurait pour effet de réduire le coût fixe supporté par les consommateurs effectuant leurs courses en grande surface, ce qui se traduirait sur le graphique par une translation de la courbe bleue vers le bas. La courbe orange, correspondant au coût des achats dans le petit commerce, resterait quant à elle inchangée. L’effet de la réforme sur la répartition des achats est alors indiqué sur le graphique suivant :


Dans cette nouvelle configuration, la taille totale du panier de biens Q** qui laisse le consommateur indifférent entre les deux types de magasins est clairement inférieure à celle qui prévalait avant l’extension des horaires d’ouverture des grandes surfaces (Q** ≤ Q*). Après la réforme et à condition que les prix restent inchangés (un point qui sera abordé dans le prochain post), on doit donc observer que davantage d’achats sont effectués en grande surface et moins dans le petit commerce.

Fort bien, me direz-vous. Mais quelle est l’intérêt de cette réallocation des achats des petits commerces vers les grandes surfaces, du point de vue du bénéfice économique de l’ouverture dominicale des commerces ? La réponse est simple : en moyenne, les biens achetés par le consommateur lui coûteront moins cher, puisqu’une partie plus importante de sa consommation sera réalisée en grande surface. Or qui dit prix plus bas dit demande plus élevée. C’est là le bénéfice principal de la réforme : en permettant au consommateur de réaliser une plus grande partie de ses achats dans des magasins moins chers, l’ouverture des commerces le dimanche tend à stimuler la demande globale indépendamment du rôle joué par les touristes ou les frontaliers.

A ce stade de l’analyse, quel jugement peut-on porter sur les bénéfices économiques de la réforme ? Du point de vue des consommateurs, ils sont incontestables : en faisant davantage leurs courses dans les grandes surfaces et moins dans les petits commerces (effet de substitution), ils gagneraient du pouvoir d’achat susceptible d’être dépensé dans les deux types de commerces (effet de revenu). Un exemple simple permet d’en comprendre la raison : supposons que je dispose d’un budget de 100 euros à dépenser chaque semaine en achats alimentaires. Lorsque seuls les petits commerces sont autorisés à ouvrir le dimanche, je dépense en moyenne 60 euros en grande surface et 40 euros chez l’épicier du coin. Supposons maintenant que l’ouverture des grandes surfaces le dimanche me conduise à acheter le même panier de bien en dépensant 70 euros en grande surface et 20 euros chez l’épicier (effet de substitution). Il me reste alors 10 euros à dépenser comme bon me semble dans l’un ou l’autre commerce, ou bien encore pour effectuer d’autres dépenses (effet de revenu).

… et sur l’emploi

Les effets de l’extension du commerce dominical sur l’emploi méritent qu’on s’y arrête un instant. A priori, l’analyse suggère que l’impact d’une telle réforme est ambigu : l’effet de substitution tend à favoriser les créations d’emploi dans la grande distribution mais risque d’entraîner des destructions d’emploi dans le petit commerce. Un argument souvent mis en avant par les opposants à la réforme est que l’effet global sur l’emploi risque d’être négatif, dans la mesure où le petit commerce est plus intensif en main-d’œuvre que la grande distribution, si bien que les destructions d’emploi dans le premier secteur seront plus nombreuses que les créations d’emploi dans le second. Ce type de discussion s’appuie généralement sur un certain nombre d’études (notamment celle-ci) qui démontrent qu’à court terme, le développement de grandes surfaces du type Walmart aux États-Unis a pu détruire des emplois dans le secteur du commerce détail.

Cet argument est néanmoins fallacieux, car il repose sur une vision partielle de l’impact économique des implantations de grandes surfaces. Certes, celles-ci peuvent détruire localement et à court terme des emplois dans le commerce de détail, mais il serait absurde d’en conclure que ce qui est vrai à l’échelle micro-locale vaut à l’échelle globale, comme le rappelait utilement Paul Krugman dans cette chronique. Les « anti » grandes surfaces négligent en effet une dimension importante du phénomène de « cannibalisme » des grandes surfaces qu’ils cherchent à dénoncer : ce phénomène est économiquement efficace car il améliore la productivité globale de l’économie en substituant à des unités peu productives (les petits commerces) des entités plus productives (la grande distribution). La substitution des achats en direction de la grande distribution libère du pouvoir d’achat qui stimule l’activité économique globale (le fameux effet de revenu décrit précédemment), et donc à moyen terme les créations d’emploi tant dans le commerce de détail que dans les autres secteurs de l’économie. La comparaison de la structure des emplois des pays développés, étudiée par Thomas Piketty dans ce document, tend d’ailleurs à indiquer qu’en réalité, le commerce de détail est d’autant plus intensif en main-d’œuvre que le pouvoir d’achat des consommateurs est élevé, dans la mesure où ces derniers tendent à acheter davantage de biens sophistiqués (électroménager, informatique, biens culturels) qui nécessitent un personnel plus nombreux, ne serait-ce que pour conseillers les clients. Dans ces conditions, défendre le petit commerce au nom de l’emploi, c’est un peu comme considérer que l’invention de la charrue fut une régression économique parce qu’elle a réduit le nombre de travailleurs nécessaires pour produire une quantité donnée de blé, sans voir qu’en permettant une réallocation efficace de la main-d’œuvre vers des activités plus productives, elle constitua un progrès difficile à contester. Peu de gens souscriraient à cet argument s’il était présenté de cette manière. Pourtant, l’idée que les gains de productivité nuisent à l’emploi constitue l’une des erreurs de raisonnement les plus répandues et les plus régulièrement combattues par les économistes.

On pourrait conclure de ce qui précède qu’en réorientant la demande vers des circuits de distributions plus efficaces, l’extension de l’ouverture des commerces le dimanche constitue une mesure à l’impact économique globalement positif. Il faut cependant noter qu’en ne considérant que la partie « demande » du marché, on a supposé implicitement que les prix payés par les consommateurs dans les petits et les grands commerces resteraient inchangés par la réforme. Or, l’examen du côté « offre » du marché montre qu’il y a de fortes chances que les bénéfices économiques d’une telle réforme soient plus faibles qu’initialement espérés, d’autant que celle-ci comporte un certain nombre de coûts sociaux qu’on aurait tort de négliger.

Suite au prochain post.
_Julien_

Lire la suite...

jeudi 5 février 2009

Collusion dans les mers du Sud ?


Dimanche, Michel Desjoyeaux a marqué l’histoire de la voile en remportant, pour la seconde fois, le Vendée Globe, l’une des courses au large les plus mythiques. Cette course autour du monde en solitaire, sans escale ni assistance, est encore considérée comme une aventure humaine, dépassant bien des considérations économiques (la prime du vainqueur ne s’élève qu’à 150 000 euros et les retombées médiatiques pour les partenaires sont difficiles à mesurer). Pourtant, le calcul rationnel est au cœur des stratégies des navigateurs et certains comportements observés pendant cette course semblent proches d’un mécanisme bien connu en économie industrielle : la collusion.

Un petit retour sur la course permet de bien comprendre ce parallèle. Retardé par un incident technique peu après le départ, Michel Desjoyeaux n’a pas compté parmi les marins de tête pendant près de la moitié de la course. Les honneurs du classement revenaient alors à d’autres, comme Loïck Peyron, Jean Le Cam, Jean-Pierre Dick, Sébastien Josse ou encore Mike Golding. Certains commentateurs ont suggéré que, dans les mers du Sud, particulièrement dangereuses, ces marins se seraient entendus pour réduire leur vitesse afin de préserver leur matériel. Ainsi, Libération rapporte les propos d’un spécialiste : « J’ai le sentiment qu’il y a eu, à un moment, un pacte de non-agression. Qui a tenu jusqu’au moment où Michel est rentré dans le jeu. Alors tout a volé en éclats». Un tel accord entre les concurrents présente les mêmes caractéristiques que les ententes entre entreprises pour, par exemple, augmenter leur prix.

Si l’objectif d’une entente est simple – augmenter les profits par rapport à la situation de concurrence, cette pratique est difficilement soutenable, car chaque concurrent a des incitations à tricher unilatéralement. Par exemple, en cas d’une entente en prix durant une période, la théorie des jeux prédit que la meilleure stratégie de chaque entreprise, dans le cas où tous les autres compétiteurs se sont engagés à respecter l’entente, est de dévier en fixant un prix légèrement inférieur afin de récupérer toute la demande. Cependant, si les entreprises sont toujours sur le marché aux périodes suivantes, cette stratégie n’est pas forcément la plus rentable. En effet, si une entreprise triche, elle peut s’attendre à ce que les autres entreprises reviennent aux prix de concurrence aux périodes suivantes en guise de punition. Le succès d’une entente dépend donc du montant des gains espérés si l’on respecte l’entente par rapport aux gains réalisés lorsque l’on triche. Chaque concurrent compare ainsi la somme actualisée des « profits de collusion » réalisés à chaque période, à la somme actualisée du profit (important) réalisé en première période s’il triche et des profits moindres réalisés aux périodes suivantes, où les prix baissent en représailles.

Dans le cas du Vendée Globe, dévier consistait à augmenter sa vitesse par rapport à une cadence plus limitée (par exemple en passant de 17 à plus de 20 nœuds), et prendre la tête de la course. La punition, elle, n’impliquait rien d’autre que la reprise des attaques des autres concurrents aux périodes suivantes. Pour un marin, le gain à dévier était finalement assez faible, comparé à la perspective de devoir faire face à une concurrence féroce pendant le reste du trajet étant donné le chemin qui restait alors à parcourir avant la ligne d’arrivée (pour que le raisonnement économique soit valable, il faut d’ailleurs faire l’hypothèse qu’à ce stade de la course, le passage du Cap Horn semble tellement lointain que c’est comme si l’horizon temporel était infini).

Mais le succès d’une entente dépend aussi de la crédibilité de la menace de punition : il faut que le marché soit suffisamment transparent pour que les éventuels tricheurs puissent être repérés, et il faut aussi que les différents concurrents soient en mesure de punir les tricheurs (par exemple, qu’ils puissent effectivement baisser leurs prix). Dans le cas du Vendée Globe, la transparence était assurée par les pointages, effectués quatre fois par jour, à 5h, 11h, 16h, 20h, et qui rendaient publiques les positions de tous les bateaux : il était donc facile de repérer les marins qui auraient décidé d’augmenter la cadence. La menace de punition était elle aussi crédible, car la plupart des marins en tête de course étaient très expérimentés.

Tandis que les critères mentionnés ci-dessus permettent d’assurer la stabilité interne de l’entente, une dernière condition pour qu’un tel équilibre soit soutenable est qu’aucune entreprise extérieure à l’entente ne vienne la déstabiliser. On parle alors de stabilité externe. Par exemple, sur un marché, il peut exister de petites entreprises, dénommées parfois « mavericks » ou « franc-tireurs », qui cherchent à gagner des parts de marché au détriment des membres de l’entente. Ces entreprises déséquilibrent alors l’entente. C’est bien ce rôle qu’a joué Michel Desjoyeaux quand il est arrivé à hauteur des marins de tête. Son talent, unanimement reconnu dans le milieu de la voile, consiste, entre autres, à pouvoir aller plus vite que les autres sans solliciter son matériel plus que de raison. Il n’avait donc aucun intérêt à adopter le « pacte de non-agression » et pouvait plutôt le faire « voler en éclats ».

Sur les marchés, les autorités de concurrence cherchent à lutter contre ces accords qui portent généralement atteinte au consommateur, mais elles ne peuvent attaquer que lorsqu’elles obtiennent les preuves d’un accord explicite entre les cadres des différentes entreprises. En effet, le même équilibre de coordination des entreprises avec fixation d’un prix plus élevé que le prix de concurrence pourrait s’observer sans accord explicite entre les entreprises. On parle alors de « collusion tacite », et cet équilibre, qui résulte du libre jeu de la concurrence, ne rentre pas dans la liste des pratiques anticoncurrentielles. En revanche, les autorités de concurrence peuvent interdire des fusions entre entreprises au motif qu’elles pourraient rendre plus facile une entente tacite.

Sur le Vendée Globe, a priori, toutes les stratégies sont permises, quoique… Pour l’anecdote, il y a déjà eu un cas où les autorités juridiques ont estimé que la concurrence entre athlètes dans le cadre d’une compétition sportive relevait bien du droit de la concurrence. Deux nageurs exclus pour dopage ont en effet déposé une plainte en justice en avançant que l’interdiction de dopage était une règle portant atteinte au libre jeu de la concurrence dans les compétitions sportives. L’affaire est allée jusque devant la Cour de Justice des Communautés Européennes, qui a considéré que le cas relevait bien du droit communautaire de la concurrence (mais a considéré que les restrictions sur le seuil acceptable de nandrolone imposées aux sportifs dans les compétitions de natation n’entravaient pas le libre jeu de la concurrence).

Et le passage des mers du Sud aura quand même été le moment le plus intense de la course !

Note : ce post a été écrit en collaboration avec un économiste spécialisé en politique de la concurrence et grand amateur de voile.

Crédit Photo : Juan Pablo Canario
_Gabrielle_

Lire la suite...

mardi 3 février 2009

Deaton et les instruments de developpement


Juste un mot pour revenir sur le débat sur les expérimentations et les méthodes d'évaluation des politiques d'aide au développement. Angus Deaton vient de mettre en ligne le papier qui décrit précisement l'analyse qu'il avait présentée à la British Academy à Londres en novembre dernier. Un document à lire absolument pour tous ceux qui sont intéressés par ce débat.
_Antoine_

Lire la suite...

jeudi 22 janvier 2009

Médias et manipulation de l'information


Il y a un peu plus d’un mois Guilhem nous parlait de liberté de la presse et de démocratie. Son post soulignait le lien entre presse libre et bon fonctionnement démocratique mais n’entrait pas dans le subtil domaine de la manipulation de l’information. Il faut en effet un certain talent pour manipuler l’information sans pour autant décrédibiliser la source.

Le pouvoir politique a certes intérêt à contrôler l’information mais on perçoit aussi le risque créé par ce contrôle. Si la source perd toute validité, l’information n’aura aucune valeur et l’influence sur les électeurs sera très faible. Sous un régime dictatorial où les élections n’existent pas ou sont facilement biaisées, il importe finalement peu que personne n’accorde de valeur aux informations véhiculées par les médias puisqu’elles n’ont pas d’impact sur la vie politique. A l’inverse dans une démocratie au fonctionnement irréprochable et aux électeurs parfaitement informés, toute manipulation sera inutile car immédiatement mise à jour et pénalisée. Mais qu’en est-il dans le monde réel, le plus souvent situé entre ces deux extrêmes ? Les politiciens devront se révéler moins grossiers dans leur contrôle. Quand la force brute est à éviter, on peut utiliser des moyens plus subtils.

Amos Tversky et Daniel Kahneman, tous deux récompensés par le Prix Nobel d’économie en 2002, ont étudié en profondeur le concept de « framing » ou cadrage, c’est-à-dire la manière dont est présenté un choix à des individus. En économie traditionnelle, les agents rationnels ignorent ce genre de détails et choisissent l’option qui leur apporte le plus de bien-être sans ne porter aucune attention à l’emballage. Kahneman et Tversky ont montré que dans de nombreuses situations le « framing » avait au contraire un effet très important et qu’on pouvait influencer les décisions par le choix des mots, des images, ou parfois même de détails totalement hors de propos. Le marketing se délecte de ces exercices de fine manipulation pour modifier nos perceptions d’objets sinon identiques et nous faire acheter l’un plutôt que l’autre. Le pouvoir politique, par l’intermédiaire des médias officiels, va lui aussi tenter de jouer sur ces biais de perceptions dont nous sommes tous victimes. L’art consiste donc à ne pas mentir mais à cependant présenter les faits de manière à tromper l’électeur. En voici trois exemples assez savoureux.

Au mois de novembre se déroula à Stockholm une conférence intitulée « Russia beyond oil », à laquelle participa l’économiste Konstantin Sonin, de la New Economic School située à Moscou. Sa présentation portait sur les médias en Russie. Il expliqua que le pouvoir russe ne falsifiait pas ouvertement les faits mais usait de moyens beaucoup plus malins visant à communiquer des faits corrects mais à donner une impression différente de la réalité. L’image qui suit, tirée de sa présentation, présente les résultats d’une élection locale en Russie et donne les pourcentages (exacts) obtenus par chaque parti.


Les chiffres n’ont pas été modifiés, l’information est correcte. Cependant si on regarde les barres, a priori censées avoir une hauteur proportionnelle au nombre de voix, on observe un léger décalage. Le vainqueur semble avoir gagné largement, tandis que les trois autres partis semblent avoir reçu un nombre similaire de voix. Mais ceci ne correspond pas du tout aux chiffres. Que va retenir le téléspectateur ? Les chiffres ou le graphique ? Et même s’il lit bien les chiffres, ne sera-t-il pas influencé par le graphique ? Nous sommes en pleine manipulation.

Deuxième exemple : le graph suivant donne la production de Gazprom par année.


Si on regarde les barres verticales, on a l’impression que l’entreprise produit de plus en plus. Cependant les chiffres contredisent clairement cette interprétation. La production est stable. Là encore la manipulation est manifeste mais assez subtile pour passer inaperçue.

Dernier exemple, moins délicat. Le Kremlin ne supporte guère l’oligarque Boris Berezovsky. Le journal anglais le Times a publié un point de vue le critiquant dans ses pages « opinion. La télévision russe a repris l’information en montrant que même le Times, respectueux et sérieux journal anglais, critiquait l’homme d’affaire, et que cette information faisait même la une du journal. L’image ci-dessous montre à gauche la première page, fictive, qui est apparue à la télévision russe, et à droite la véritable première page, parue en Angleterre.


Dans tous ces exemples, la chaîne de télévision pourra se défendre d’avoir falsifié les faits : les pourcentages de voix obtenues sont corrects, les chiffres de la production sont justes, l’article a bien été publié. Mais dans tous les cas, la présentation est tellement biaisée qu’elle vide l’information de son contenu. Comme quoi il vaut toujours mieux remonter à la source de l’information et surtout apprendre à savoir déchiffrer les graphiques et données qui nous sont présentés.

Crédit photo : fliegender
_Emmanuel_

Lire la suite...