stats count

vendredi 31 octobre 2008

Le projet de loi de financement de la sécurité sociale (1/2) : l’incidence fiscale


En cet automne 2008 arrivent les projets de loi de finances ; en particulier, le projet de loi de financement de la sécurité sociale a été présenté par les nombreux ministres concernés. Pour se faire une idée, on peut lire le dossier de presse, regroupement des discours d’Eric Woerth, Xavier Bertrand et Roselyne Bachelot-Narquin devant différentes commissions parlementaires ainsi que la présentation du projet de loi à Bercy le 28 septembre et bon nombre de fiches explicatives des différentes mesures. Le présent post est surtout un prétexte pour présenter des exemples d’incidences fiscales, et rappeler une fois de plus que ce n’est pas forcément l’agent officiellement taxé qui paie réellement l’impôt. Ceci avait déjà été présenté sur ce blog dans le cas général, pour les cotisations sociales ou bien encore la TVA, et bien entendu dans bien d’autres blog comme liberté réelle, mais nous ne craignons pas la répétition. Ici, nous allons pouvoir nous pencher sur un impôt sur les bénéfices et une contribution sur des revenus du travail. Dans un second post sur l’assurance maladie, nous présenterons les différentes conséquences de l’augmentation des cotisations des mutuelles.

I/ Présentation du projet de loi de finance

Nous allons nous pencher sur une partie restreinte de ce projet de loi, mais pas la moins intéressante : l’augmentation des recettes. En effet, même si le contrôle des dépenses est encore mis en avant, il est prévu que celles-ci augmentent de manière importante, d’où un besoin accru de financement. Les mesures en vue d’augmenter les recettes sont principalement de trois ordres : une contribution patronale de 2 % sur l’intéressement et la participation, une contribution des organismes complémentaires sur leurs bénéfices et une augmentation des cotisations retraites.

Le thème général de la présentation du PLFSS 2009 a été que les assurés ne paieraient pas le surplus de financement. On trouve ainsi écrit que l’ensemble des mesures d’augmentation des recettes ne conduira à "aucune participation supplémentaire pour les assurés respectant le parcours de soins coordonnés". On peut cependant fortement en douter. Notre but n’est pas de dire si les assurés doivent ou pas supporter la charge de ces besoins de financement, car ce pourrait être légitime bien qu’impopulaire. De plus, les conséquences des augmentations des cotisations de mutuelles (ce qui n’est qu’un des moyens de faire porter la charge des recettes supplémentaires sur les assurés) seront étudiées dans un prochain post. Nous nous contenterons ici de montrer que contrairement à ce qui est dit, les assurés, même ceux suivant le parcours de soins coordonnés, supporteront au moins en partie la charge des besoins de financements supplémentaires.

Pour ce qui concerne la hausse des cotisations retraites, elle est présentée sans coût car elle doit être compensée par une baisse des cotisations pour l’assurance chômage. Si le chômage a été en baisse au cours des années 2007 et 2008, il semble repartir à la hausse, ce qui devrait interdire ce basculement. Il est cependant resté présent dans la version du PLFSS 2009. Il faut probablement en tirer comme conclusion que soit les cotisations retraites augmenteront sans baisse des cotisations chômage, soit que le déficit de l’assurance maladie sera partiellement financé par un déficit de l’assurance chômage.

Pour la justification de la contribution de 2 % sur la participation et l’intéressement, l’accent est donné sur un principe d’équité : ces revenus, qui ne sont pas officiellement considérés comme des revenus du travail, sont exonérés de charges sociales (ce qui veut d’ailleurs dire qu’ils n’ouvrent pas de droits supplémentaires au chômage ou à la retraite). Les seules contributions qui les touchent à la source sont la CSG et la CRDS. Si l’intéressement et la participation ne sont pas considérés socialement comme des salaires, ils n’en sont pas moins une rémunération du travail, lié à une négociation entre employé et employeur. Comme le montre le post de Julien sur l’incidence des cotisations sociales, cette nouvelle contribution de 2 % sur la participation entrainera forcément une hausse des primes brutes et une baisse des primes nettes, c’est à dire qu’à la fois l’employeur et l’employé la paieront, ce qui contredit la déclaration qu’il n’y aura "aucune participation supplémentaire pour les assurés respectant le parcours de soins coordonné", si on considère que notamment les salariés sont parmi les assurés.

II/ Pouvoir n’est pas vouloir ou l’impossibilité de légiférer sur l’incidence fiscale

Les gouvernements, et probablement pas seulement en France, aiment bien les déclarations d’intentions sur les incidences fiscales, ou alors oublier celles-ci totalement. Pour ce qui concerne la taxe sur les bénéfices des complémentaires santé, le discours est ici pour le moins ambigu. Si le principe des incidences fiscales est implicitement reconnu, le problème est écarté avec des arguments peu convaincants économiquement. On peut ainsi lire dans le compte rendu des propos d’Eric Woerth cette phrase qui n’a pas trop de sens économique : "Cette contribution peut donc être absorbée par les complémentaires sans hausse des cotisations.". Outre les justifications qu’il donne à cette possibilité, le terme "peut" est totalement hors de propos. La question n’est pas de savoir si les complémentaires peuvent ou non le faire, mais si elles le feront réellement. Et c’est d’ailleurs un raisonnement que le gouvernement connaît très bien. Lors de débats sur le niveau de certaines taxes sur les hauts revenus (IR, IS, ISF…) la question est rarement posée de savoir si les personnes concernées pourraient payer des montant plus élevés, mais si oui ou non il y a un risque qu’elles envoient leurs capitaux fructifier à l’étranger.

La justification donnée par Eric Woerth pour cette possibilité est la suivante : "Chaque année, en l’absence de mécanisme de rééquilibrage, près de 600 millions d’euros de plus sont à la charge de l’assurance maladie obligatoire et ne sont plus remboursés par les complémentaires". Le ministre se réfère là au rapport annuel du Haut Conseil pour l’Avenir de l’Assurance Maladie, qui ne dit pourtant pas exactement cela. En effet, si la première partie de la phrase correspond au-dit rapport, la seconde partie donne l’impression que chaque année le régime général rembourse une plus grande part des dépenses, ce qui permet aux mutuelles d’avoir moins à rembourser. Or ce n’est pas ce que déclare le HCAAM. Ce haut conseil trouve certes une hausse des dépenses de l’assurance obligatoire de cet ordre (3 milliards d’euros sur 5 ans) du fait du vieillissement de la population et des prises en charge à 100 %, mais ne dit à aucun moment que cela est dû à un transfert global des prises en charge vers le régime obligatoire. On lit au contraire dans ce rapport que "le taux de prise en charge a connu un très léger fléchissement" et que "le taux d’engagement de la sécurité sociale dans la dépense reconnue ne varie que de façon très faible, résultat de mouvements de sens contraires.". En réalité, si les dépenses de sécurité sociale augmentent fortement, celles des complémentaires également, et ce n’est pas dû à un basculement de l’un sur l’autre, mais à une hausse importante des dépenses globales.

Alors pourquoi les complémentaires pourraient-elles ne pas répercuter sur les cotisations leur nouvelle contribution ? Toujours dans le même élan, le ministre nous dit que c’est parce que leurs profits ont fortement augmenté ces derniers temps. Mais encore une fois le raisonnement est biaisé, et au contraire, si elles ont pu augmenter autant leurs bénéfices ces dernières années, c’est peut-être qu’elles sont en position de force sur le marché de l’assurance maladie complémentaire. Et si elles sont en position de force, il y a fort à parier qu’elles pourront répercuter leur nouvelle taxe sur leurs assurés. Et en effet, le rapport du HCAAM note que les cotisations d’assurance complémentaire entre 2001 et 2006 ont augmenté de 48 % pendant que les dépenses de ces organismes n’augmentaient que de 32 %, notamment du fait d’une "restructuration de l’offre par concentration". Ce n’est donc pas parce qu’ils se sont déchargés sur l’état que les organismes d’assurance maladie complémentaire ont réussi à augmenter fortement leurs bénéfices, mais parce que la concurrence sur ces marchés a fortement décru.

III/ De l’incidence fiscale de la taxe sur les bénéfices

Alors les complémentaires maladie vont-elles oui ou non répercuter cette nouvelle contribution sur les cotisations ? Pour revenir à cette question, et si on regarde pour cela la littérature économique sur l’incidence des taxes sur les bénéfices, et en particulier cet article récent d’Auerbach qui fait le point sur les connaissances, on trouve beaucoup de résultats contradictoires. Si les résultats les plus connus et les plus anciens disent que les taxes sur les bénéfices sont supportées entièrement par les détenteurs de capital (et aussi bien les détenteurs d’autres capitaux – actions d’autres entreprises, bien immobiliers... – que les actionnaires des entreprises touchées), ces résultats sont basés sur beaucoup d’hypothèses fortes, dont une économie fermée, une offre de capital globalement fixe et surtout la concurrence parfaite sur les marchés concernés. L’idée générale est que les décisions en vue de maximiser les profits ne sont pas modifiées, mais que les rendements du capital sont juste linéairement réduits, pour l’ensemble des capitaux, quelque soit leur forme.

Cependant, d’autres analyses relâchant ces hypothèses trouvent que d’autres agents peuvent supporter la taxe, comme les employés, et dans le cas de la concurrence imparfaite, les consommateurs. En effet, si le marché est déjà concentré, entrainant une réduction de l’offre afin d’augmenter les prix, une taxe supplémentaire sur les bénéfices peut renforcer encore la concentration, permettant ainsi aux entreprises présentes d’augmenter leur pouvoir de marché, ce qui conduit à une augmentation des prix. Des études empiriques et théoriques citées dans la revue de la littérature d’Auerbach présentent même la possibilité que l’augmentation des prix soit plus importante que la nouvelle taxe : les entreprises sur le marché non concurrentiel augmentant leur bénéfice net après une augmentation de la taxe sur les bénéfices, du fait d’une forte baisse de la concurrence.

Quoi qu’il en soit, et vu le niveau élevé de concentration dans le marché des assurances maladie complémentaires, il est fort probable que cette contribution sur leurs bénéfices soit supportée au moins en partie, sinon en intégralité, par les assurés.
_Ecopublix_

Lire la suite...

mardi 28 octobre 2008

Beauty, money and experiments


Disclaimer : Ce post n'a pas de lien direct avec les expériences récentes de DSK à Washington... L'objet de ce post est d'étudier s'il existe une discrimination sur le marché du travail qui serait due à la beauté, en présentant quelques apports de l'économie expérimentale (la pédagogie par l´expérience est à la mode, Econoclaste dixit). Un article de Hamermesh et Biddle (1) a en effet établi une corrélation entre beauté et salaire sur données Nord-américaines : les salariés considérés comme plus beaux dans que la moyenne gagnent environ 5% de plus alors que ceux qui sont considérés comme moins beaux que la moyenne reçoivent entre 7 et 9% de moins. Une autre étude sur données anglo-saxonnes (2) a aussi montré que les hommes plus grands avaient des salaires plus élevés. La mise en évidence de ces corrélations ne permet cependant pas de conclure à l'existence d´une discrimination esthétique. Il se pourrait en effet que les personnes les plus belles soient aussi les plus productives et que les différences de salaire reflètent des différences de productivité. Le problème est que cette hypothèse est impossible à tester dans la réalité, car il est difficile d'observer la productivité intrinsèque des individus. Mais l'économie expérimentale nous permet de tester précisément certaines hypothèses sur le lien entre beauté et monnaie, et le résultat est quelque peu surprenant.

Reprenons d'abord l'analyse de la corrélation entre beauté et salaire. Deux hypothèses s'affrontent. Soit les personnes belles sont aussi plus productives, et le différentiel salarial peut s´expliquer par un modèle classique d´offre et demande sur le marché du travail. Soit la beauté n´est pas du tout corrélée avec la productivité et le différentiel salarial est affaire de discrimination de la part des employeurs. Ceux-ci peuvent en effet préférer s´entourer tops models et être prêts à les payer plus cher pour cela (on parle alors de « taste based discrimination »). Ils peuvent encore croire que les tops models sont en moyenne plus productifs que les autres et les payer plus (on parle alors de « statistical discrimination »).

Pour montrer l'existence d´une discrimination, il faudrait pouvoir montrer que beauté et productivité ne sont pas corrélées. Or deux types d´arguments peuvent être avancés pour expliquer l'existence d´une telle corrélation.

Le différentiel de productivité peut tout d´abord être dû à la préférence des consommateurs pour les top models. Ainsi, un groupe d´économistes a réalisé une expérience (3) où différentes personnes étaient recrutées pour faire du porte à porte et demander de l´argent pour une cause charitable. Les résultats de l´étude montrent que les hommes donnent en moyenne beaucoup plus d´argent si c´est une jolie femme qui frappe à leur porte (la Croix-Rouge a d´ailleurs bien compris le mécanisme …). On peut noter au passage que les femmes ne varient pas leurs dons en fonction de la beauté de l´homme qui frappe à leur porte.

Si les consommateurs sont influencés par l´apparence physique des employés, on devrait donc effectivement observer un premium salarial pour la beauté, mais celui-ci devrait varier en fonction du type d´emploi. En effet, les personnes les plus belles devraient s´auto sélectionner dans les postes où les contacts avec la clientèle (ou avec les autres employés) sont importants et où elles sont donc plus productives.
Hamermesh et Biddle montrent que les personnes les plus belles ont en effet tendance à choisir des professions où l´apparence est importante, mais que cet effet d´auto sélection ne suffit pas à expliquer le différentiel de salaire entre les « princesses » et les « crapauds ». En effet, ce différentiel persiste même lorsque l´on contrôle pour l´effet de composition lié au type d´emploi occupé: pour chaque type de travail donné, la beauté permet toujours de gagner un peu plus.

Cependant, le premium pour la beauté peut aussi provenir de caractéristiques liées avec la beauté, non mesurées dans les enquêtes et donc non observées par les économètres mais qui seraient détectées par l´employeur lors de l´entretien d´embauche et qui auraient un impact positif sur la productivité. On peut en particulier penser au fait que la beauté est une caractéristique particulièrement importante dans la cour de l´école pendant l´enfance et l´adolescence et que les plus beaux du lycée ont acquis de l´assurance et des compétences « sociales » qui leur permettent ensuite de réussir mieux sur le marché du travail. L´étude de Persico et al. sur le lien entre taille et salaire (citée plus haut) suggère d´ailleurs que de tels mécanismes sont à l´œuvre. Les auteurs montrent en effet que c´est la taille à l´âge de 16 ans et non la taille adulte qui a un impact sur le salaire : avoir été parmi les plus petits de sa classe au lycée confère un salaire plus faible, même si on a grandi par la suite. Les auteurs suggèrent que la taille au lycée a un fort impact sur l´acquisition de compétences « sociales » : les plus petits au lycée participent en effet moins souvent aux clubs et activités sportives extrascolaires, et cette variable semble expliquer une partie du différentiel salarial lié à la taille. Les auteurs concluent que les employeurs ne discriminent pas directement sur la taille, mais que cette caractéristique physique observable est bel et bien corrélée à des caractéristiques valorisées sur le marché du travail, ce qui peut expliquer une grande partie des différentiels de salaire observés.

Mais en fait, l´étude précédente ne fait que reporter le problème sur les caractéristiques inobservables, et elle ne permet toujours pas de trancher sur l´existence d´une discrimination : en effet, on ne sait toujours pas si les caractéristiques inobservables ont un effet sur la productivité. On pourrait très bien imaginer qu´un employeur préfère embaucher ceux qui ont un tempérament de « winner » plutôt que des « losers », mais que la confiance en soi ne soit pas du tout corrélée avec la productivité.

Comme il est difficile de mesurer la productivité avec des données d´enquête, Markus Mobius et Tanya Rosenblat (4) ont eu l´idée de mener une expérience en reproduisant autant que possible les conditions du marché du travail, mais en contrôlant à la fois la productivité des « employés », leur beauté, ainsi que les caractéristiques connues par « l´employeur » au moment de fixer le salaire. Lors de l´expérience, les personnes qui jouent le rôle des employés doivent résoudre des jeux logiques très simples en un temps limité. Une première session test permet de déterminer leur productivité (le nombre de jeux résolus) et on leur demande aussi d´évaluer leur productivité pour la session suivante (ce qui donne une mesure de la confiance en soi des individus). Les personnes qui jouent le rôle de l´employeur doivent fixer le salaire de cinq employés, connaissant leur CV et leur productivité pendant la période test. En plus de ces informations, les employeurs sont répartis en cinq catégories : un groupe de contrôle, un groupe qui a des photos des futurs employés, un groupe qui réalise un entretien téléphonique avec les employés mais sans les voir, un quatrième qui a droit à la photo et à l´entretien téléphonique et un dernier qui réalise l´équivalent d´un vrai entretien d´embauche. Les résultats montrent d´une part que les personnes les plus belles ne sont pas plus productives que les autres pour résoudre des jeux logiques, mais qu´elles ont beaucoup plus confiance en elles (elles pensent qu´elles sont capables de résoudre plus de jeux que les autres). Ils montrent d´autre part que lorsque les employeurs ne voient ni n´entendent les personnes embauchées, ils n´attribuent pas un salaire élevé aux CV des plus beaux, mais que le biais envers la beauté réapparait dès que les employeurs ont l´occasion de voir ou d´entendre les futurs employés. Le fait que les employeurs sont prêts à payer plus les personnes belles après les avoir entendu parler et alors même qu'ils n'ont aucune information sur leurs caractéristiques physiques est un résultat surprenant. Il montre que les personnes belles transmettent des signaux qui font croire aux employeurs qu´elles sont plus productives que les autres personnes et que ces signaux ne passent pas uniquement par l´apparence physique. Une partie de l´effet tient à une plus grande confiance en soi des personnes plus avantagées par la nature, mais l'effet « beauté » persiste même après avoir pris en compte le niveau de confiance en soi. Finalement, dans cette expérience, le biais en faveur de la beauté ne vient clairement pas d´une plus grande productivité, mais il tient autant aux caractéristiques physiques qu´à des caractéristiques orales liées à la beauté mais inobservables !

Ces résultats montrent que les mécanismes de discrimination en fonction de la beauté existent, mais qu´ils sont relativement sophistiqués et qu´ils passent probablement en partie par des actes inconscients de la part des employés comme des employeurs. Ils suggèrent que certaines croyances et comportements se forment pendant l´enfance et l´adolescence (les sociologues diraient pendant la période de socialisation), qu´il sont en partie intériorisés par les personnes, et qu´ils influencent ensuite les comportements sur le marché du travail. Il est probable qu´il en soit de même pour les autres types de discrimination (en fonction du sexe, de la couleur de peau…Voir ce papier de Jeffrey Grogger pour une étude sur le différentiel de salaire en fonction de « l´identité raciale» de la voix). Cela rend la lutte contre la discrimination encore plus nécessaire mais aussi montre la nécessité de s´y prendre très tôt, bien avant l´entrée sur le marché du travail.

Notes :

(1) Hamermesh & Biddle, "Beauty and the Labor Market," American Economic Review, American Economic Association, vol. 84(5), 1994.

(2) Persico, Postlewaite and Silverman, “The Effect of Adolescent Experience on Labor Market Outcomes: The Case of Height”, Journal of Political Economy, 2004, vol. 112 (5).

(3) Landry, Lange, List, Price and Rupp, “Towards an understanding of the Economics of Charity: Evidence From a Field Experiment”, Quarterly Journal of Economics, MIT Press, vol. 121(2).

(4) Mobius & Rosenblat, “Why Beauty Matters”, American Economic Review, 2006, vol 96(1) .
_Gabrielle_

Lire la suite...

jeudi 23 octobre 2008

La crise financière, version suédoise


La crise financière a forcé les Etats à intervenir pour éviter une débâcle générale du système bancaire. Les Etats-Unis ont ouvert la marche avec le plan Paulson, puis le Royaume-Uni a suivi, entraînant l’ensemble des pays de l’Union Européenne. Les Etats-Unis, constatant que leurs annonces n’avaient pas stoppé la crise et inspirés par le plan de sauvetage britannique, ont dû revoir leur approche. Les gouvernements ont ainsi hésité sur la marche à suivre face à cette situation exceptionnelle, créant de l’incertitude sur les marchés qui n’en avaient pourtant pas besoin. Cependant, quelques années plus tôt, un petit pays d’Europe du Nord subissait une véritable tempête financière et adoptait un train de mesures qui se révélèrent bénéfiques. Le plan de sauvetage britannique, qui a inspiré ceux des américains et des européens, est en fait directement inspiré de celui alors mis en place par la Suède. Le modèle suédois aurait-il encore frappé, résolvant en toute discrétion et seize ans avant tout le monde ce qui aujourd’hui menace de nombreuses économies ?

I/ La crise financière suédoise de 1992

La Suède est une petite économie ouverte qui dépend énormément de ses exportations. La banque centrale, avant la crise, observait donc une politique de taux de change fixe afin d'éviter que les variations de taux de change n'affectent le prix des exportations à l’international. Quand les exportations représentent un revenu important pour le pays, on comprend les motivations de ce choix (voir les plaintes répétées d’Airbus à ce sujet lors de la chute du dollar ; si la BCE alignait l’euro sur le dollar ces plaintes n’existeraient plus). Par ailleurs, l'objectif principal du gouvernement était de maintenir un faible taux de chômage. Lorsque, dans les années soixante, la productivité des principales industries suédoises a ralenti, le gouvernement a agi afin de respecter cet engagement. Pour cela, il a augmenté ses dépenses, payant pour la reconversion des chômeurs et augmentant considérablement l’emploi dans le secteur public. Cette coûteuse politique a creusé le déficit, forçant le gouvernement à emprunter de l’argent sur les marchés internationaux et à augmenter l’impôt sur le revenu. Le très faible taux de chômage a aussi nourri une inflation des salaires, les puissants syndicats pouvant ainsi plus facilement négocier des augmentations.

La situation était donc la suivante : il était nécessaire de maintenir le prix des exportations fixes tandis que les salaires s’envolaient. La solution passait nécessairement par une dévaluation de la monnaie, qui fut utilisée de nombreuses fois. Malheureusement les syndicats anticipaient ces dévaluations qui réduisaient le pouvoir d’achat des suédois et demandaient des salaires encore plus élevés, préparant ainsi la prochaine dévaluation. Dans les années 1980, le gouvernement décida de casser la spirale inflationniste et de favoriser la croissance en adoptant une série de réformes.

Une de ces réformes consista à déréguler les marchés financiers en renonçant au contrôle des taux d’intérêts et de la quantité de crédits sur le marché. Le marché fut donc complètement libéralisé en 1985. Evidemment les entreprises qui auparavant n’avaient pas accès au crédit se dépêchèrent d’emprunter, créant un boom sur le marché du crédit (cela vous rappelle-t-il quelque chose ?). Les banques suivirent, empruntant à l’étranger pour ensuite prêter aux ménages et aux entreprises. Ceci était d’autant plus rentable que les taux suédois étaient beaucoup plus élevés que les taux étrangers. Ceci poussait, outre les banques, les entreprises suédoises à aussi emprunter à l’étranger, devenant ainsi de plus en plus exposées au risque de change. Les consommateurs, de leur côté, profitaient à plein de leurs nouvelles capacités d’emprunt. Les prix du logement augmentèrent fortement, doublant en 10 ans. Rétrospectivement, il est probable que les banques, plongées dans cet environnement nouveau pour elles, n’ont pas saisi les risques qu’elles prenaient (1).

Tous les ingrédients pour une crise étaient donc en place : des banques empruntant massivement en monnaie étrangère, prêtant tout aussi massivement en couronnes, alimentant une bulle immobilière, avec un taux de change fixe intenable face à la pression de l’inflation. A première vue, l’économie suédoise se portait bien : en 1989 le taux de chômage était de 1,4%, en août 1989 la bourse atteignit un pic, 42% au-dessus de son niveau de début d’année. Il suffisait cependant d’un choc externe pour déclencher la crise. Ce choc se produisit lors de la réunification de l’Allemagne : les taux d’intérêt allemands augmentèrent, forçant la Suède à faire de même pour matinenir son taux de change fixe (2).

Emprunter devint donc plus cher, ce qui mit un terme à la bulle immobilière. En cinq ans, de 1990 à 1995, les prix chutèrent de 25%, et de 42% pour l’immobilier d’entreprise. Les banques, habituées à des taux de défaut sur leurs prêts de 0,2 à 0,5%, les virent grimper à 5% en 1992. Le célèbre spéculateur George Soros s’attaqua alors aux taux de change fixes en vigueur en Europe et força la banque centrale suédoise à laisser flotter sa monnaie. La couronne, surévaluée, chuta brutalement. En 1993, le taux de défaut des prêts atteignit 11%, frappant de plein fouet les banques, surtout celles qui avaient emprunté à l’étranger. Les banques firent progressivement faillite, prises entre des individus incapables de payer leurs dettes, et leurs propres dettes en monnaie étrangère dont la valeur avait fortement augmenté. L’Etat injecta d’abord du capital ou accorda des garanties pour que les banques puissent emprunter. Malgré ces précautions, une banque appelée Gota Bank fit faillite en 1992. L’Etat garantit immédiatement tous ses dépôts puis étendit cette garantie à toutes les banques quelques semaines plus tard. Il procéda également à des nationalisations pour sauver les banques, qui le conduisirent à posséder près de 22% des actifs bancaires du pays. Le système bancaire était sauvé et, à l’instar d’un plan Paulson, l’Etat créa une banque qui absorba tous les « mauvais actifs » des banques qui avaient fait faillite. Le gouvernement, en entrant massivement au capital de certaines banques, suivit une politique visant à sauver les banques plutôt que leurs propriétaires. Chaque öre (centime pour les non-scandinaves) de capital apporté par l’Etat impliquait de laisser ce dernier devenir actionnaire. Seules les banques ayant vraiment besoin de cet argent se présentèrent donc, les autres préférant ne pas perdre le contrôle de leurs établissements. Le gouvernement fit aussi appel à des consultants suédois et étrangers spécialisés dans les crises bancaires, pour ne pas perdre de temps et fit payer la coûteuse facture aux banques qui demandaient de l’aide. L’Etat évita donc de subventionner des banques qui n’en avaient pas besoin. La plus grande banque du pays, SEB, décida ainsi de se passer de l’aide de l’Etat, ses actionnaires préférant puiser dans leurs poches.

Les « mauvais actifs » (parc immobilier, entreprises en faillite) placés dans une « mauvaise » banque, appelée Securum et détenue à 100% par l’Etat mais gérée intelligemment et indépendamment du pouvoir politique, furent revendues progressivement. Les ventes et restructurations d’entreprises furent terminées en 1997, amenant de l’argent dans les caisses de l’Etat, et Securum fut liquidée. La crise financière suédoise prit fin. L’Etat dépensa beaucoup, mais obtint des parts dans des banques et donc des dividendes qui lui rapportent toujours de l’argent, ainsi que le produit des ventes d’actifs. Au final, il a été estimé que le coût total pour le pays fut de 2,1% de PNB, une quantité jugée raisonnable pour éviter une faillite généralisée des banques. Ce coût est purement comptable. Pour être juste, il faudrait y ajouter trois années de récession, un taux chômage qui explose en un an et d’importantes difficultés de crédit pour les entreprises. D’un autre côté l’économie se remit assez vite et connut même une belle embellie, portée par des conditions mondiales favorables. Le graph ci-dessous montre l'évolution du taux de chômage en Suède, on voit bien le choc dû à la crise, puis le redémarrage de l'économie.


II/ Leçons

Comme pour la crise actuelle, le mot clé semble être dérégulation. Si l’Etat suédois n’avait pas libéralisé les marchés financiers, rien de tout ceci ne serait arrivé. Mais en est-on si sûr ? Peter Englund, un économiste suédois qui a étudié de près la crise et faisait partie du comité gouvernemental sur la crise, trouve cette idée beaucoup trop simpliste. D’après lui la responsabilité revient à un effet combiné de politiques économiques (dépenses effrénées, taux de change fixe, inflation débridée, et dérégulation) et non pas à un seul de ces facteurs. Quelles qu’en soient les causes, les deux crises ont reposé sur des bulles immobilières et ont eu des effets similaires, avec des banques en faillite nécessitant l’intervention de l’Etat. La solution adoptée par le gouvernement suédois à l’époque a cependant été différente de celle choisie par le Trésor américain qui avait d’abord choisi de ne pas rentrer au capital des banques, mais simplement de reprendre leurs actifs « toxiques ». Ce plan initial avait d’ailleurs été critiqué par de nombreux économistes, en grande partie pour ne pas exiger en retour du rachat des actifs toxiques dont personne ne veut des actions de la banque. Le Royaume-Uni a été le premier à choisir de recapitaliser les banques directement, une utilisation de l’argent du contribuable jugée plus judicieuse par beaucoup, mais aussi plus adaptée à la crise. Les Etats-Unis ont finalement suivi l’exemple anglais. La Suède avait aussi opté pour ce double mécanisme qui consista à prendre à son compte les actifs qui plombaient les banques et à entrer dans leur actionnariat, leur fournissant ainsi du capital. La réussite de l’opération de sauvetage suédoise a aussi reposé sur plusieurs critères : l’Etat a tout d’abord très vite imposé aux banques d’estimer de manière réaliste leurs pertes en renforçant les règles pour l’évaluation des actifs. De cette manièren, il a apporté de la transparence et de la confiance, le marché étant capable de prendre la mesure de la crise. Il a aussi, au travers de Securum, agi rapidement pour restaurer l’économie, liquidant les entreprises non viables, apportant des liquidités à celles qui pouvaient être sauvées et acquérant des parts de leur capital.

Le parallèle entre la crise suédoise et celle d’aujourd’hui a été fait à plusieurs reprises dans les médias et sur des blogs. Elles semblent en effet appeler les mêmes remèdes, même si leurs causes ne sont pas exactement identiques, au-delà de la frénésie des banques à prêter trop d’argent à des individus pas toujours solvables (les Etats-Unis n’ont souffert ni d’un taux de change fixe, ni d’inflation, ni de spéculation sur leur monnaie). La bonne gestion de la crise a reposé sur quelques idées simples. Tout d’abord, la transparence quant aux pertes bancaires. Il semble malheureusement que ce point pose justement problème actuellement. Les actifs « toxiques » suédois étaient principalement constitués d’immobilier et d’entreprises qui pouvaient être évalués, tandis que les banques américaines se retrouvent avec des produits financiers complexes dont la valeur est inconnue. Personne ne sait exactement quelles pertes les banques vont afficher tant elles sont emmêlées dans ces montages. Dans ces conditions, le marché a du mal à se faire une opinion quant à l’ampleur réelle de la crise. Deuxièmement, le gouvernement a agi vite et dans un climat de consensus avec l’opposition. Il a rapidement fourni les liquidités nécessaires et personne n’a douté qu’il apporterait son soutien à toute banque jugée en difficulté. Les Etats-Unis comme l’Europe ont tergiversé avant d’agir. Le Trésor américain a laissé plongé Lehman Brothers, puis les républicains ont fait capoter le premier plan Paulson, les allemands n’ont pas voulu d’une approche européenne coordonnée, puis les anglais ont agi seuls, donnant finalement des idées à leurs camarades européens. Troisièmement, le gouvernement suédois a compris que pour rendre le plan de sauvetage politiquement viable, il devait montrer aux contribuables que les propriétaires des banques n’étaient pas favorisés à leurs dépens. Là encore, le plan Paulson a fait les frais de ce genre de craintes. Finalement, la gestion des « mauvais » actifs a été confiée à des spécialistes qui purent travailler de manière indépendante, éloignés des pressions politiques. Cette gestion est généralement considérée comme un succès et a permis à l’économie de repartir sans être trop plombée pendant de trop longues années. Il reste à voir comment les Etats-Unis se débarrasseront de leurs actifs « toxiques ».

La crise suédoise apporte aussi une touche d’optimisme à l’atmosphère de fin du monde qui se répand parfois dans les médias. Il est possible de gérer une crise efficacement et à un coût raisonnable. Après la crise l’économie suédoise, jusqu’à aujourd’hui, est en bonne santé. Les prévisions qui avaient été faites durant la crise se sont révélées trop pessimistes, le marché de l’immobilier et le crédit se refaisant assez rapidement une santé. Les gouvernements ont aussi compris que leurs politiques économiques passées avaient engendré la crise et les citoyens, échaudés par la chute brutale du début des années 1990, ont accepté sans trop broncher les réformes nécessaires. Il est difficile de savoir où la comparaison s’arrête. Après tout, la crise bancaire ne concerna que les pays scandinaves, et jamais ne menaça le reste du monde. L’économie suédoise profita ensuite des bonnes conditions mondiales de la fin des années 1990. La configuration actuelle est différente, avec une crise généralisée touchant les plus importantes économies de la planète et qui menace de s’étendre aux pays émergents. Espérons que l’expérience suédoise n’aura pas été qu’une exception.

Notes :

(1) Comme me l’a fait remarquer Laurent, cette situation peut rappeler celle de l’Islande aujourd’hui dont les banques proposaient des taux plus élevées que le reste du marché, attirant des capitaux, mais n’étaient pas très regardantes sur la qualité de leurs investissements. A la différence de la Suède, l’Islande n’a cependant pas pu trouver de l’argent pour sauver ses banques. La Suède avait donc gardé une certaine crédibilité sur les marchés pour pouvoir emprunter et fournir des liquidités à ses banques. L’Islande, à court d’argent sur les marchés, a été obligée d’en appeler à ses partenaires occidentaux qui ont fait la sourde oreille, avant de se tourner vers la Russie.

(2) Le mécanisme est assez simple : si la Suède propose des taux plus faibles que les autres, les investisseurs vont s’en détourner et échanger leurs couronnes suédoises pour la monnaie d’autres pays. Il va y avoir afflux de couronnes sur le marché, ce qui va faire baisser leur valeur. Si le régime de taux de change n’est pas fixe, l’histoire s’arrête là car l’ajustement s’est fait par le taux de change. Avec un taux fixe, la banque centrale est obligée d’augmenter les taux d'intérêts pour éviter que les investisseurs ne se détournent du pays.
_Emmanuel_

Lire la suite...

lundi 20 octobre 2008

Réformes des retraites (7/40) : proposition... de lecture


Maintenant que vous avez lu le dernier Econoclaste, vous pouvez acheter dans toutes les bonnes librairies le dernier opuscule du Cepremap, consacré à la proposition faite par Thomas Piketty et votre serviteur pour une ambitieuse réforme des retraites. Il s’agit d’une version remaniée et révisée du document de travail esquissé en mars dans Le Monde, présenté sur Ecopublix et discuté par Emmanuel de Ceteris Paribus et Arthur Goldhammer de French politics. Un court article annonce la publication dans l’Express et l’opuscule sera présenté le 24 octobre à Paris et discuté par M. Charpin et M. Malys. Il y a peu de sexe et beaucoup de notes de bas de page, mais nous avons essayé d’être aussi pédagogique que possible sur ce sujet qui concerne chacun d’entre nous.

De nombreux autres travaux restent à faire, mais nous espérons que cette proposition suscitera suffisamment d’intérêt pour motiver d’autres études, plus poussées et plus précises. L’objectif n’est pas de proposer une solution miracle – l’équation fondamentale des retraites (cotisations, niveau des pensions et âge de la retraite) est incontournable – mais de clarifier les droits à la retraite sur le long terme et ainsi renforcer notre assurance vieillesse publique, obligatoire et en répartition.

Les points qui ont été clarifiés dans cette nouvelle version concernent en particulier la question de la revalorisation des pensions après la liquidation. La logique des comptes notionnels est d’offrir la même revalorisation que la croissance des salaires (et non pas une revalorisation, généralement plus faible, sur les prix). Ceci a l’avantage d’un système très simple en terme de mécanisme et aussi très clair : la croissance est partagée entre actifs et retraités et le niveau de vie des retraités est maintenu constant relativement au niveau de vie des actifs. Dans le système actuel, les retraites sont indexées sur les prix, entraînant en cas de croissance un décrochage progressif des pensions par rapport aux salaires, décrochage d’autant plus marqué que les retraités sont âgés ou sont partis tôt en retraite.

Bien évidemment, si l’on décide de passer à une revalorisation par les salaires et non les prix, cela a un coût qui se traduit par des taux de remplacement plus faible au début de la retraite, en échange de retraites qui sont revalorisées plus favorablement. Dans le système suédois actuel ainsi que dans le système italien, les pouvoirs publics ont décidé de maintenir l’indexation sur les prix et donc d’anticiper la croissance des salaires en offrant des taux de remplacement plus élevés en échange d’une revalorisation par les prix. C’est de là que vient le mécanisme de 1,6% de croissance (cas suédois) anticipé. Cela donne lieu à un mécanisme de correction automatique si la croissance se retrouve plus faible que le taux anticipé : les retraites peuvent ainsi croître plus faiblement que l’inflation si le taux de croissance passe en dessous des 1,6%.

Dans l’opuscule, nous avons proposé de considérer de revenir en arrière sur cette indexation sur les prix instituée par M. Balladur pour remettre en place une indexation sur les salaires. Non seulement le mécanisme d’ajustement est plus simple (tous les salariés et retraités profitent de la même croissance des salaires) mais aussi les choix de retraite sont plus transparents. Le succès de la réforme Balladur a été de réduire les pensions par un mécanisme d’indexation peu clair aux yeux des salariés (pas de baisse apparente du taux de remplacement) même si la réduction des taux de remplacement était bien réelle. La logique des comptes notionnels est de mettre au jour la soutenabilité du système et de clarifier les choix publics à faire.

Là encore vos commentaires sont les bienvenus.
_Antoine_

Lire la suite...

vendredi 17 octobre 2008

Hank you very much et Bercy beaucoup !


Impossible de ne pas être familier aujourd’hui avec les affres des Lehman Brothers, Merrill Lynch, Morgan Stanley et autres UBS. Les pertes individuelles se chiffrent en dizaines voire centaines de milliards de dollars. Si l’on fait la somme de toutes ces pertes, Nouriel Roubini prédit même que le total des pertes des banques pourrait se situer autour de 2000 milliards de dollars, ce qui représente environ 15% du PIB américain ! Ce chiffre veut-il pour autant dire que les Etats-Unis ont perdu 2000 milliards de richesses réelles (capital physique, capital humain, etc.), un peu comme si une suite de bombes atomiques détruisait des usines et des maisons d'une valeur totale de 2000 milliards de dollars ? Bien évidemment non !

Pour bien comprendre l’impact réel de la crise, il faut simplement se poser la question suivante : quel est le service rendu par les institutions financières au sein d’une économie développée ? dans quelle mesure les capitaux de tous ordres nécessaires à cette fonction sont-ils aujourd’hui réduits par les faillites bancaires ?

La première question a une réponse simple : les institutions financières servent à prendre à ceux qui ont trop d’argent dans la poche (les épargnants) pour en donner à ceux qui n’en ont pas assez (les emprunteurs).

Quels sont les éléments nécessaires pour fournir un tel service ? Il faut d’abord évidemment du personnel et une technologie pour gérer des masses de monnaie gigantesques et pour contrôler le comportement des emprunteurs. La faillite de quelques banques (et même de beaucoup de banques) ne remet pas vraiment en cause la disponibilité de ces facteurs de production : les salariés et les machines peuvent a priori facilement être réutilisés dans une institution financière nouvellement créée.

Le problème c’est que ces éléments ne sont pas suffisants ; en effet, pour pouvoir recevoir l’argent des épargnants, il faut aussi être digne de leur confiance et pour cela montrer des gages : d’une part, le banquier devra travailler à acquérir une bonne réputation, d’autre part, il devra investir une part suffisante de son propre argent auprès des emprunteurs, autrement dit avoir des capitaux propres de taille suffisante. C’est à ce niveau-là que la faillite des banques pose problème : leur capital réputationnel est perdu à tout jamais tandis que la disponibilité d’individus avec suffisamment de richesse pour devenir un banquier crédible est mise à mal par la dépréciation des actifs financiers qui a au préalable conduit à la faillite de certaines banques. C’est dans cette mesure que les banques faillies ne sont pas remplaçables instantanément, tout du moins pour les opérations bancaires sophistiquées requérant le plus de confiance entre épargnants et institutions financières.

La conséquence réelle pour l’économie est que tant que les banques faillies ne sont pas remplacées, les emprunteurs auront plus de mal à trouver l’argent dont ils ont besoin pour réaliser des projets d’investissement pourtant souvent très rentables, et même parfois ne trouveront pas l'argent nécessaire pour couvrir des besoins temporaires de trésorerie. C’est à travers ces bons projets d’investissement perdus et ces faillites d'entreprises saines que la faillite bancaire a un effet sur le marché d'actions et un effet sur l’économie réelle, mais il ne sera certainement pas de l’ordre de 15% du PIB et surtout cet effet ne durera que tant que les banques n’auront pas retrouvé une crédibilité, à la fois individuellement et collectivement. Néanmoins, comme on peut le constater chaque jour en ce moment, cela pose un problème suffisamment important pour que les Etats renflouent autant que possible ces banques proches de la faillite.

Mais alors si les banques américaines perdent l’équivalent de 15% du PIB alors que l’économie dans sa totalité en perd beaucoup moins, cela veut dire que les pertes des banques sont l’occasion d’un processus massif de redistribution à l’intérieur de l’économie américaine. Il est certes extrêmement difficile de distinguer qui sont précisément les gagnants et les perdants : les perdants sont ceux qui ont acheté trop ou trop tard des maisons, des dettes gagées sur des maisons, et ainsi de suite, tandis que les gagnants sont ceux qui ont vendu beaucoup et assez tôt de ces mêmes actifs. Mais en moyenne ce seront en priorité les détenteurs d’un patrimoine important qui vont perdre le plus, pour la bonne et simple raison que seules des personnes ayant un patrimoine important sont dans la capacité de placer leur argent dans des combinaisons financières sophistiquées : la complexité engendre l’opacité, et une foule de petits épargnants est beaucoup moins à même de percer à travers cette opacité qu’une grande fortune qui aura à cœur de mettre les moyens nécessaires pour contrôler ces placements. Or, comme on le voit à chaque crise financière, ce sont toujours les placements les plus complexes qui perdent le plus de leur valeur lors de ces épisodes.

Cet effet redistributif est d’autant plus fort qu’en général (et surtout depuis les années 30) l’Etat garantit les dépôts faits auprès des banques en-dessous d’un certain montant, ce qui tend à protéger la plupart des déposants sauf les plus riches. L’existence de ce seuil est d’ailleurs justifiée par l’incitation qu’elle donne aux grandes fortunes à contrôler les institutions financières à qui elles confient leur argent.

Pour qui ne serait pas déjà convaincu par ces arguments, il suffit de considérer les effets de la crise de 1929 sur la part du patrimoine détenue aux Etats-Unis par le centième le plus riche de la population.


On y voit de manière très nette que la crise a largement et très rapidement entamé le patrimoine des plus riches aux Etats-Unis (-30% en deux ans, et ce relativement au patrimoine total !), ce qui semble corroborer les arguments que nous venons de développer. Surtout, cet effet semble très persistant et ce pour deux raisons : d'une part, les plus hauts patrimoines d'avant 1929 concernaient des rentiers, au sens où ils finançaient leur train de vie principalement par les revenus de leurs investissements financiers ; de ce fait, ces individus ont dû vendre une partie de leur patrimoine en catastrophe dans le but de conserver un train de vie correct à leurs yeux, réalisant ainsi des pertes irrécouvrables même à moyen-terme (i.e. une fois que l'économie reprenait); d'autre part la progressivité du système fiscal américain a elle-même beaucoup freiné la reconstitution de ces patrimoines très importants.

La crise actuelle va-t-elle conduire de la même façon à une redistribution aussi massive de la richesse ? Probablement non, tout simplement car l'intervention de l'Etat et des banques centrales telle qu'elle fonctionne depuis les années 30 vise justement à empêcher l'écroulement des institutions financières ! Mais par opposition, l'analyse de la crise de 1929 permet de mieux comprendre qui va le plus profiter des injections massives de liquidité et autres recapitalisations bancaires opérées par les Etats ces derniers temps : en voulant se préserver d’une récession qui toucherait tout le monde à court-moyen terme, l’Etat protège pour beaucoup plus longtemps les grandes fortunes. Vu sous cet angle, la crise pourrait donc légitimer auprès du public une plus grande progressivité du système fiscal dans un esprit donnant-donnant : cela ne serait pas le moindre des bouleversements engendrés par les faillites bancaires des dernières semaines…
_Laurent_

Lire la suite...

mardi 14 octobre 2008

Migrations 1/40


Des émeutes anti Belges et Italiens de la France de la fin du XIXe siècle aux récentes violences xénophobes sud africaines, les questions de l’immigration et de la xénophobie sont souvent liées à la peur de perdre son emploi : l’arrivée d’une main d’oeuvre immigrée sur le marché ne travail ne va-t-elle pas mettre les locaux au chômage ou bien pousser les salaires vers le bas ? Les économistes se sont donc tout naturellement intéressés à cette question typiquement économique (blogs éco y compris). Et c’est pour Ecopublix l’occasion d’ouvrir une nouvelle saga. Pour commencer, nous vous proposons comme mise en bouche une perspective statistique de l’évolution des migrations au cours du siècle passé, graphiques à l'appui.

A partir des années 1960, la question des migrations a pris de plus en plus d’importance : avec la « globalisation », la mobilité internationale des biens et des personnes a atteint des sommets. C’est du moins la perception qu’en ont les pays développés, car si la population d’immigrés dans le monde est passée de 75 millions en 1965 à près de 191 millions en 2005 selon les chiffres de l’ONU, ces chiffres doivent être mis en rapport avec l’augmentation de la population mondiale. En termes relatifs en effet, la part des immigrés représente 2,5% de la population mondiale en 1960 contre 3% en 2005. Cette augmentation est donc loin d’être aussi massive que ce que l’on a généralement en tête, et ce, d’autant plus que, pour l’essentiel, cette augmentation est due à l’éclatement de l’URSS, qui a transformé tout à coup des migrants internes en migrants internationaux (puisque un Russe voyageant dans un pays de l’URSS est devenu du jour au lendemain un migrant international). Jusqu’à l’éclatement de l’URSS en effet, la part des immigrés était plutôt sur le déclin avec 2,2% de la population mondiale en 1970 et 1980. Surtout, jeter un œil sur l’évolution des migrations sur une période plus longue permet de souligner la faiblesse de ces chiffres : la part de la population immigrée est estimée à 10% de la population mondiale en 1913, soit une proportion d’immigrés dans le monde plus de 3 fois plus importante que celle que nous connaissons aujourd’hui.

Comment alors expliquer l’importance que revêt l’immigration dans le débat politique, dans les pays développés notamment ? Hatton et Williamson mettent en avant deux explications. La première est que si le stock de migrants est faible par rapport à celui du début du XXe siècle, sa répartition dans l’espace s’est profondément modifiée, les pays riches ayant connu une augmentation de la part de migrants dans leur population, celle-ci passant de 3,1% en 1965 à 4,5% en 1990. Plus encore, si l’on ne s’intéresse qu’à l’Amérique du Nord, l’Europe de l’Ouest et l’Australie, ce taux passe de 4,9% à 7,6%. On constate ainsi sur le graphe qu’à partir de 1995, le nombre de migrants dans les pays développés hors ex-URSS dépasse pour la première fois le nombre de migrants dans les régions peu développées. On comprend dès lors que si, en moyenne, la part des migrants a largement baissé au cours du XXe siècle, et est restée stable au cours de la seconde moitié de ce siècle, les destinations des migrations ont par contre beaucoup changé, pour se diriger vers un groupe de pays bien plus restreint qu’auparavant, pays pour lesquels l’immigration devient une question importante.


Une seconde explication que ces auteurs avancent quant au décalage entre la perception de l’importance de l’immigration et l’immigration effective est celle de la pression à la migration. En effet, une des différences majeures avec les migrations massives du XIXe siècle est qu’aujourd’hui, les migrants font face à tout un arsenal législatif visant à les décourager. Ainsi, si les niveaux de migration sont relativement faibles, les candidats à la migration vers les pays développés sont eux de plus en plus nombreux, ainsi que l’illustre le développement de l’immigration clandestine : selon Hatton et Williamson, près de 300 000 immigrants clandestins entrent chaque année aux Etats-Unis, et entre 400 000 et 500 000 passent les frontières des pays de l’Europe de l’Ouest (de 10 à 15% du stock de migrants des pays de l’OCDE serait constitué d’immigrés clandestins). Ce n’est donc peut être pas tant les migrations en elles-mêmes qui font tant parler, que les pressions à la migration : si le stock de migrants est aujourd’hui bien inférieur à celui qu’il était il y a un siècle de cela, c’est avant tout du à la mise en place de barrières aux migrations, et non pas à une diminution du nombre de candidats à la migration.

Les migrations internationales sont donc passées en l'espace d'un siècle d'une situation de liberté quasi totale à une réglementation très stricte. Causes de bien des fantasmes, elles sont devenues de véritables sujets de politique publique, dont nous aborderons dans de prochains posts les tenants et aboutissants.
_Guilhem_

Lire la suite...

lundi 13 octobre 2008

Ecopublix à l'école des bonnes bannières


Nous sommes très fiers de vous présenter notre nouvelle charte graphique réalisée par le talentueux lomkikour, que nous remercions encore une fois pour son aide et ses conseils. A cette occasion, nous sommes ravis de donner un coup de projecteur sur la nouvelle génération de graphistes français qui combine avec brio les techniques derniers cris et une
inventivité décapante.
_Ecopublix_

Lire la suite...

jeudi 9 octobre 2008

Combien donne-t-on réellement d'aide au développement?


Lors d’un précédent post sur l’aide au développement, des lecteurs s’étaient interrogés sur la pertinence de la définition même de l’aide au développement. Simple paranoïa sur le mode du « on nous cache tout on nous dit rien » ou réel souci ? Ecopublix revient sur le sujet en se livrant à un petit exercice comptable simple et instructif.


I/ De quoi est faite l’aide au développement ?

Nous l’avions déjà dit, la définition de l’aide publique au développement (APD) est donnée par l’OCDE en ces termes : « des dons ou prêts aux pays en développement qui : (a) proviennent du secteur public ; (b) ont pour objectif principal le développement économique et le bien-être ; (c) à des conditions financières avantageuses (pour un prêt, celui-ci doit avoir un équivalent don d’au moins 25%). En plus des flux financiers, la coopération technique est incluse dans l’aide. Les dons, prêts et crédits à des fins militaires sont exclus. Les paiements à des individus privés ne sont en général pas pris en compte » (ma traduction). Quelques définitions sont à préciser : l’équivalent don mesure à quel point un transfert est fait à des conditions avantageuses par rapport à un taux de marché de 10%. Un don pur (donc sans remboursement) a un équivalent de 100%, un prêt à taux d’intérêt de 10% un équivalent de 0%, etc. La coopération technique se définit comme suit : « (a) les dons aux citoyens des pays en développement qui reçoivent une éducation ou un apprentissage dans leur pays ou à l’étranger, et (b) le paiement des consultants, conseillers et autre personnel de ce type ainsi que celui des enseignants et des administrateurs servant dans les pays qui perçoivent de l’aide (incluant le coût de l’équipement associé). Si ce type d’aide sert spécifiquement à faciliter la mise en œuvre d’un projet, il est inclus dans les dépenses du projet, et non pas en tant que coopération technique. » Finalement, l’OCDE a publié cette note explicative pour en savoir un peu plus sur ce qu’est l’aide au développement.

Le point (b) de la définition de l’APD est assez problématique tellement il est vague mais d’un autre côté, on voit mal comment une définition pourrait préciser dans le détail ce qui relève du développement ou pas. Ce n’est généralement pas sur la partie (b) que les avis divergent, mais bien plus sur la suite qui stipule que la coopération technique fait partie de l’APD. On peut comprendre que la formation des personnes vivant dans les pays en développement soit de l’aide. En revanche les salaires des consultants payés par le pays développé sont beaucoup plus litigieux. On accuse la coopération technique de gonfler artificiellement les chiffres de l’APD : le pays en développement n’en profite pas directement et elle s’apparente à de l’aide liée, autre travers que nous avions déjà évoqué. L’aide liée consiste à donner les fonds pour, par exemple, construire une école, à la condition expresse qu’une entreprise choisie par le donneur (donc de son pays ou par « pure amitié », mais rarement sur des critères d’efficacité) la construise. Evidemment l’entreprise en question va profiter de cette situation de monopole pour alourdir la facture. Le montant « réel » de l’aide s’en trouve donc diminué. La coopération technique est similaire : on finance un projet mais on impose aussi son consultant, dont le salaire est considéré comme de l’aide. Quand de nombreux donneurs sont présents dans un pays, chacun va imposer son consultant, multipliant les coûts et réduisant l’« appropriation » du projet par le pays en développement. Les ONGs, telles que Action Aid, accusent directement la coopération technique d’avoir été utilisée pour contribuer aux intérêts commerciaux et géopolitiques des donneurs puisqu’elle a servi à mettre en place des réformes imposées de l’extérieur. Les pays développés se sont engagés à modifier leurs pratiques dans ce domaine. Il faut souligner qu’on ne peut pas non plus considérer que la coopération technique n’ait rien à voir avec l’APD. Les modalités de sa mise en place sont souvent critiquées, mais un accompagnement technique par du personnel qualifié relève bien, à mon sens, de l’APD (vous pouvez lire ici quelques « success stories » de la coopération technique du, et selon le, DFID, l’agence britannique de développement, souvent considérée comme un modèle de bonnes pratiques ; pour un résumé des critiques et des nouvelles pratiques concernant ce type d’aide lire ce document de l’Agence Française de Développement ; pour un rapport d’Action Aid sur le sujet, lire ici).

Le précédent post avait aussi souligné combien la prise en compte des allègements de dette faussait quelque peu la perspective. Ces allègements gonflent l’aide quand ils ont lieu. De plus, comme pour la coopération technique, le pays en développement ne « voit » pas l’argent. L’allègement modifie certes sa position financière mais dire que X reçoit 100 d’aide dans ses caisses car sa dette est allégée de 100 est un peu abusif. Là encore, il ne s’agit pas de dire que la remise de dette n’est pas de l’aide mais plutôt qu’elle ne se traduit pas directement en espèces sonnantes et trébuchantes. Autres points : l’aide alimentaire est souvent donnée en nature ou liée (ce qui permet parfois d’écouler la marchandise des pays développés au détriment des producteurs locaux, d’où une critique assez fréquente de ce genre d’aide) et l’aide humanitaire est délivrée en cas d’urgence et ne relève donc pas d’une stratégie de développement de long terme. Finalement, les coûts administratifs sont aussi une aide indirecte. Toutes ces catégories font partie du total « aide au développement » qui apparaît dans les médias et qui sert à mesurer l’effort financier des pays, en termes de produit intérieur brut (la fameuse cible des 0,7%, toujours renouvelée, jamais atteinte). Dernière catégorie à considérer : l’aide aux réfugiés est considérée comme de l’APD pendant les 12 premiers mois de résidence.

Ce petit tour d’horizon terminé, nous pouvons maintenant passer à la deuxième phase de notre exercice comptable : combien les pays développés, la France en particulier, donnent-ils « réellement » d’APD ?

II/ Le cœur de l’aide publique au développement

Une fois pris en compte ces éléments qui représentent un effort indirect envers le développement, que reste-t-il de l’aide ? Pour le savoir, nous définissons une nouvelle variable qui ne prend en compte, autant que possible, que les fonds qui peuvent être utilisés directement pour le développement. Cette grandeur est appelée CPA (country programmable aid) par Homi Kharas de la Brookings Institution, un think tank basé à Washington, mais aussi par l’OCDE lors de récentes études. Pour obtenir la CPA nous soustrayons à l’APD la coopération technique, l’aide alimentaire, l’aide humanitaire, les coûts administratifs, les allègements de dette et l’aide aux réfugiés. Précisons bien que le but de l’exercice n’est pas d’enlever ce qui « n’est pas » de l’aide au développement, mais de soustraire ce qui ne relève pas du « flux de trésorerie » pour les pays en développement. Nous ne disons pas ici que l’aide alimentaire, humanitaire, etc, sont inutiles et devraient être abandonnées.

Nous présentons d’abord les résultats en additionnant l’aide des 22 pays membres du Comité d’Aide au Développement (CAD), qui regroupe les plus gros donneurs. Quand les médias rapportent le montant total de l’APD pour l’année, ils se réfèrent à ce groupe de pays. Nous décomposons cette aide totale en trois groupes : CPA, aide bilatérale moins CPA, et contributions aux organisations multilatérales (ce sont les montants payés par les pays du CAD à ces organisations). Le graphique ci-dessous empile ces trois catégories. Il indique donc la décomposition de l’aide totale des « pays développés » (en fait les pays membres du CAD).


Si on ne regarde que la courbe supérieure, et donc l’aide totale, on observe que l’APD a augmenté jusqu’au début des années 1990, puis a chuté de 1993 à 1999 avant de repartir de plus belle à la hausse et de culminer en 2005 et de décroître en 2006. Nous ne pouvons malheureusement pas présenter les données pour 2007. Les chiffres sont encore préliminaires et ne permettent pas de faire la décomposition pour parvenir à la CPA. Cependant, par rapport à 2006, l’aide totale a chuté de 8,4% en 2007. Par ailleurs, l’aide aux institutions multilatérales a, bon an mal an, augmenté de manière continue mais est assez stable. La tendance générale est donc donnée par les évolutions de l’aide bilatérale, comme on le voit très bien sur le graphique. La décomposition qui nous intéresse véritablement est celle séparant la CPA du reste de cette aide bilatérale. Et là, surprise ! La CPA est grosso modo constante depuis 50 ans ou du moins le fort accroissement de l’aide n’est pas du tout expliqué par un accroissement de la CPA. Strictement parlant, la CPA est, en prix constants, plus basse en 2006 qu’en 1965. Je me garderai cependant d'en tirer des conclusions hâtives car il est fort probable que les directives de report de données aient été moins strictes, moins bien définies, ou moins bien suivies en 1960-1970 qu’aujourd’hui. La décomposition des flux en aide alimentaire, coûts administratifs, etc., était sûrement de moins bonne qualité dans le passé. Cependant, même en évitant cette dangereuse conclusion, il faut reconnaître que la CPA était plus basse en 2006 que dans le milieu des années 1980.

Les pays développés ont donc certes augmenté leur effort financier, mis à part une période de doute dans les années 1990, mais cet effort ne s’est porté que sur la « non-CPA ». Pour mieux comprendre comment cet accroissement s’est fait, on décompose sur le graphique qui suit cette non-CPA en ses différentes composantes.


Tout d’abord, de nombreuses catégories sont absentes avant les années 1970, ce qui confirme nos doutes sur la validité des données durant cette période. A part l’aide alimentaire qui a chuté, chaque secteur a bénéficié des fonds supplémentaires mais la coopération technique et les allègements de dette dominent. Il est frappant de voir à quel point la coopération technique pèse de plus en plus lourd dans l’aide, d’autant plus que cette expertise et ces conseils techniques ne semblent pas être accompagnés d’un plus grand nombre de projets matériels. Si c’était le cas, la CPA augmenterait aussi. Il y a eu inflation de la coopération technique sans inflation technique. Evidemment notre simple graphique ne nous permet d’aller plus loin et de comprendre les causes et conséquences de cette observation mais il y a là matière à réflexion.

III/ Et la France dans tout ça ?

Nous répétons l’analyse précédente pour la France en décomposant son aide. Nous retrouvons les variations commentées dans ce post : stabilité puis forte croissance à partir de 1981, pic en 1994, suivi d’une chute brutale jusqu’en 1998-1999 avant une forte reprise à la hausse pour retrouver un niveau proche du pic de 1994 (l’APD en 2007 est cependant de nouveau plus basse, principalement à cause de la fin des allègements importants de la dette, comme nous l’avions déjà évoqué). Mais c’est la courbe du bas qui nous intéresse maintenant (en bleu).


Si vous aviez été surpris par la courbe de CPA pour l’ensemble des pays développés, vous serez choqués par celle de la France. La CPA française en 2006 est faible et minime par rapport à l’aide bilatérale. Surtout, la chute marquée de l’aide française à partir de 1994 a essentiellement touché la CPA. En 10 ans, de 1993 à 2003, elle a chuté de 3,6 milliards à 208 millions. Regardons comment la France a pu maintenir son niveau d’aide tout en coupant largement dans sa CPA :


La France n’a pas vraiment augmenté le montant de sa coopération technique. Elle est certes prépondérante, mais assez stable. Ce sont les allègements de dette qui ont creusé l’écart entre l’APD et la CPA. De manière assez intéressante, on peut remarquer qu’au milieu des années 1990, quand les crédits diminuaient, les annulations de dette augmentaient et ont permis de ralentir la chute de l’aide. Comme le graphique précédent le soulignait déjà, sans la dette, l’aide française aurait encore plus chuté – comme la CPA l’a fait. On peut avoir une vague idée de ce qu’aurait été l’aide sans la dette. En 2001 la réduction de dette a été assez faible, mais la CPA n’a pas pour autant augmenté. C’est précisément le moment où l’aide française a été au plus bas depuis 1981. Par contre, en 2002, la CPA a comme réagi dans un bref sursaut à la faible annulation de dette de cette année. Nous l’avions déjà dit dans notre premier post sur l’aide française, les annulations de dette ne peuvent se répéter à l’infini et la France, si elle veut tenir ses engagements en matière d’aide (ou du moins ne pas trop y déroger) va bien devoir sortir des crédits pour combler le tarissement de cette source.

IV/ Et le reste du monde dans tout ça ?

Nous comparons maintenant les différents pays du Comité d’Aide au Développement en calculant leur ratio CPA sur aide bilatérale. Rappelons que ce ratio va simplement nous indiquer la part de l’aide bilatérale qui ne provient pas de l’aide alimentaire, humanitaire, aux réfugiés, de la coopération technique, des annulations de dette ou encore des coûts administratifs. Nous présentons uniquement les résultats pour 2006 (il est intéressant de regarder l’évolution de ce ratio au cours du temps pour chaque pays mais je vous épargne les 22 graphiques nécessaires) :


La France est en rouge, la moyenne des pays développés en violet (la moyenne et non le ratio qu’on obtiendrait à partir du premier graphique de ce post en aggrégeant tous les pays). Cela se passe, je crois, de commentaires. Ou plutôt une remarque : on pourrait faire valoir que les pays avec un faible ratio sont ceux qui ont annulé le plus de dette. En d’autres termes, ils ont répercuté ces annulations sur leur montant d’aide et il est donc « injuste » de les comparer avec, par exemple, les pays nordiques. C’est peut-être en partie correct, mais le contre-exemple du Royaume-Uni montre bien que dette et CPA ne sont pas nécessairement liées. L’annulation de la dette anglaise n’a pas entraîné de réduction de sa CPA, au contraire. La France et l’Allemagne ont fait l’inverse. Elles ont en partie compensé l’augmentation des annulations de dette par une moindre CPA. Il sera intéressant de voir comment la France ajustera sa CPA quand les allègements de dettes diminueront dans le futur.

V/ Conclusion

S’il fallait donner un chiffre choc, propre à faire la une des journaux, ce serait celui-ci : seuls 6,8% de l’aide bilatérale française parviennent vraiment aux pays en développement. La France est avant-dernière des principaux pays donateurs en ce qui concerne le ratio aide « effective » sur aide « déboursée ». Elle fait beaucoup moins bien que la moyenne des donneurs, située à 39%. L’Irlande, première du classement, achemine 76% de son aide vers ces mêmes pays. Ceci signifie que la France, troisième plus gros pourvoyeur d’aide bilatérale en 2006 après les Etats-Unis et le Royaume-Uni, a un niveau d’aide effective juste au-dessus de celui de… l’Irlande, seulement dix-septième sur vingt-deux du classement des quantités déboursées!

Mais l’esprit suédois du consensus universel, et la rigueur scientifique dont ce blog se réclame, m’oblige à qualifier ce chiffre de médiatique. Comme nous l’avons indiqué, il semble que la France ait profité de la réduction de la dette pour maintenir un niveau d’aide élevé. Les années à venir nous diront si sa CPA n’est faible qu’à cause de ces allègements de dette. Deuxième point, la France dépense une part très importante de son budget en coopération technique ; son exclusion de la CPA réduit donc fortement l’aide française. Nous avons vu que cette catégorie d’aide a été et est toujours très critiquée. Il me semble pour autant exagéré de dire que la coopération technique est totalement inutile. Une évaluation plus fine tenterait d’estimer la part de cette coopération qui a un impact sur le développement. Il reste cependant que les quelques chiffres présentés ici offrent une perspective assez éloignée des chiffres officiels.
_Emmanuel_

Lire la suite...

vendredi 3 octobre 2008

Ecole maternelle et finances publiques


La tempête financière actuelle a vite enterré (à côté d’un vieux mammouth) la controverse sur l'école maternelle lancée par une petite phrase de Xavier Darcos. Au delà de la polémique sur les termes employés pour qualifier le rôle des enseignants des écoles maternelles, la question de l'efficacité de la scolarisation précoce des enfants mérite, il est vrai, d'être posée. La petite section de maternelle se substitue en effet à d'autres modes de garde, tous en partie subventionnés par l'Etat, et une analyse de l'efficacité des dépenses de l'Etat dans ce domaine est en effet une vraie question pour les finances publiques. De plus, la remise en question de la maternelle est aussi en partie celle d'un modèle qui favorise la socialisation précoce des enfants et le retour des mères sur le marché du travail. L'analyse de l'efficacité de cette politique de scolarisation doit donc prendre en compte non seulement son coût, mais aussi sa qualité et son effet sur les enfants et leurs parents.

Le coût de la maternelle doit d'abord être comparé aux coûts engendrés par les autres types de mode de garde. Il existe en effet en France une grande diversité des modes de gardes des enfants en bas âge, même si l'accès à certains est fortement rationné : assistante maternelle, garde à domicile, garde partagée, EAJE (établissement d'accueils de jeunes enfants, c'est-à-dire les crèches et structures similaires), ainsi que la garde par un proche ou parent. A cela s'ajoute la possibilité d'une scolarisation précoce des enfants, qui est une particularité du système français. En effet, si l'instruction est obligatoire à partir de 6 ans, les parents peuvent scolariser leur enfant à l'école maternelle à partir de 3 ans, voire 2 ans si l'école veut bien les accueillir. Or, la Cour des Comptes met bien en évidence dans son dernier rapport le faible coût de la maternelle par rapport aux autres modes de gardes auxquels devraient avoir recours les parents s'ils ne pouvaient envoyer leurs bouts de choux à l'école : une année de maternelle coûtait 4570 euros par enfant en 2006 contre 13368 en EAJE, soit près de trois fois plus cher! On peut calculer que les autres modes de gardes sont tous plus coûteux que l'école, d'environ 2 fois plus cher pour une assistante maternelle à près de 5 fois plus pour une garde à domicile. Enfin, le coût de garde des enfants par un de ses parents est lui aussi non négligeable, puisque la politique familiale française subventionne les parents qui s'arrêtent de travailler pour élever leur enfant, jusqu'à un maximum de 530 euros par mois pendant trois ans, sans compter le coût d'opportunité de retirer du marché du travail ces personnes pendant plusieurs années.

Les premières analyses économiques sur les gardes d'enfants s'intéressaient d'ailleurs essentiellement à l'impact de ces dispositifs sur l'offre de travail des femmes. Mesurer l'impact des subventions à la garde d'enfant sur l'offre de travail des femmes est cependant compliqué, car le choix du mode de garde et les décisions de participation des femmes sur le marché du travail ne sont en général pas indépendants. Dans une étude récente, Dominique Goux et Eric Maurin ont utilisé des variations exogènes de l'accès en maternelle pour estimer l'impact sur l'offre de travail des femmes. Plus précisément, ils ont exploité le fait que les possibilités de scolarisation d'un enfant dès deux ans dépendent en France du mois de naissance (il faut avoir au moins deux ans dans l'année d'entrée à l'école) : les enfants nés en décembre d'une année sont donc souvent scolarisés un an avant ceux qui sont nés quelques jours après, en janvier de l'année suivante. En utilisant cette variation de l'accès à l'école maternelle, les deux chercheurs mettent en évidence un effet positif de la scolarisation à deux ans sur la reprise d'activité des femmes seules, en particulier dans les régions où l'accès à d'autres types de mode de garde est limité. En revanche la scolarisation des enfants n'affecte pas l'offre de travail des femmes en couple. L'effet global de la scolarisation en maternelle sur l'offre de travail des femmes reste donc modeste, même s'il est important pour les femmes seules qui ont souvent moins de ressources pour faire garder leur enfant par des proches parents.

Finalement, la question de l'efficacité des modes de garde dépend en grande partie de la qualité du service rendu : a-t-on intérêt à socialiser très tôt les enfants, dans des structures d'accueil collectives? Si de nombreuses activités d'éveil sont proposées a l'école maternelle (en dehors de la sieste…), il n'est pas forcement évident que la vie en collectivité soit bénéfique pour les touts petits.

Les analyses économiques menées sur différents pays ne donnent d'ailleurs pas toutes les mêmes résultats. Si les premières études économiques sur le sujet, qui évaluaient l'impact de programmes expérimentaux en direction d'enfants défavorisés aux Etats-Unis concluaient à un effet positif d'une socialisation précoce, une récente étude sur données canadiennes a contesté l'effet bénéfique des modes de garde collectifs. Michael Baker, Jonathan Gruber et Kevin Milligan ont en effet étudié une politique de généralisation des subventions à la garde d'enfants, qui s'est accompagnée par une extension des structures d'accueil collectives pour les enfants de 0 à 4 ans, mise en place au Québec dans les années 90 mais pas dans les autres provinces canadiennes. Les trois chercheurs mettent en évidence que dans les années qui ont suivi la mise en place de cette politique, les petits québécois ont montré plus de signes d'inattention et d'agressivité que les autres petits canadiens, ainsi qu'une moins bonne santé. Cependant, ces résultats ne permettent pas de tirer un bilan définitif sur les modes de garde collectifs, car les chercheurs n'ont en effet mesuré que les effets à court terme de cette politique, mais pas à long terme. Or il est possible que les premières années de socialisation soient dures à vivre, que ce soit à deux ans ou plus tard. Toute la question est de savoir si socialiser trop tôt a un effet négatif en lui-même. Pour cela, il faut regarder les effets à long terme de la scolarisation précoce. De plus, il faut souligner que les modes de garde développés aux Québec étaient différents de l'école maternelle.

Plusieurs chercheurs se sont penchés sur l'impact à long terme des années passées en maternelle. L'étude de Dominique Goux et Eric Maurin sur données françaises a évalué l'impact de la scolarisation à deux ans sur les performances scolaires ultérieures des enfants. Leur technique d'estimation repose sur le fait que la possibilité de scolariser son enfant à deux ans dépend non seulement du mois de naissance, mais aussi du nombre de places disponibles dans les écoles, qui varie beaucoup de région en région. Le pourcentage d'enfants scolarisés à deux ans est toujours élevé pour ceux qui sont nés au début de l'année, mais il baisse fortement pour les enfants nés pendant l'été dans les régions qui ont peu de places, alors qu'il reste encore élevé dans les autres régions et ne baisse que pour les enfants nés à la fin de l'année. Si la scolarisation à deux ans avait un effet négatif, on devrait donc observer une baisse des performances des enfants nés pendant l'été dans les régions à fort taux de scolarisation précoce par rapport aux autres régions, qui devrait se résorber pour les enfants de la fin de l'année. Or l'analyse ne montre aucune divergence significative des résultats scolaires au primaire ou au collège (mesurés respectivement par les tests en CE2 et par la proportion de redoublants à 15 ans) en fonction des régions. D'autres études, en particulier celles de Samuel Berlinski, Sebastian Galiani, Marco Manacorda et Paul Gertler sur l'Uruguay et l'Argentine trouvent aussi des effets bénéfiques à plus long terme des politiques de scolarisation massive en maternelle. Non seulement les enfants qui ont été scolarisés plus tôt ont de meilleurs résultats aux tests passés à l'école, mais ils ont tendance à plus participer et être plus attentifs en classe.

Finalement, que conclure de ces études? D'abord que l'école maternelle semble faire au moins aussi bien que les autres types de modes de garde pour les petits de 2 et 3 ans : scolariser les enfants à l'école maternelle dès deux ou trois ans ne semble pas nuire à leur développement ultérieur. En revanche, on ne sait finalement pas grand-chose de l'effet des différents modes de gardes pour les bébés (entre 0 et 2 ans), alors que l'effort public en la metière est important et qu'il a été récemment fortement augmenté avec la mise en place de la Prestation d'Accueil du Jeune Enfant (voir le rapport de la Cour des Comptes). Avant de se prononcer sur l'efficacité de l'école maternelle, une étude comparative des différents modes de garde serait bien nécessaire.

Crédit photo : Julie70
_Gabrielle_

Lire la suite...