Skip to content

L’augmentation des inégalités de salaires

25 mars 2017

J’ai présenté il a quelques mois une étude (que je ne retrouve plus sur Internet) concluant que la majeure part de la hausse des inégalités de salaires entre 1977 et 2009 provenait des différences de salaires offerts entre les entreprises et non pas des différences de compétences entre les travailleurs comme on le pense souvent. Je concluais que, malgré la pertinence de cette étude, je demeurais perplexe face à ses résultats. J’ajoutais que je présenterais probablement une autre étude portant sur le même sujet, étude qui me semblait plus élaborée et plus crédible.

Cette étude, intitulée Firming Up Inequality (jeu de mots intraduisible entre «Renforcer les inégalités» et «Les inégalités dans les entreprises») et réalisée par cinq auteurs (Jae Song, David J. Price, Fatih Guvenen, Nicholas Bloom et Till von Wachterk), tente de quantifier la part de la hausse des inégalités de revenus d’emploi qui s’est réalisée entre les entreprises et celle qui provient des inégalités à l’intérieur des entreprises.

Les données

Le plus grand avantage de cette étude est d’avoir bénéficié de données complètes provenant de l’administration de la sécurité sociale aux États-Unis. Ces données portent sur toutes les personnes s’étant fait attribuer un numéro de sécurité sociale (l’équivalent de notre numéro d’assurance sociale). Cette source contient des données sur la date de naissance, le sexe, les gains (sans maximum, comme on en impose dans la plupart des autres sources contenant des données sur le revenu) provenant d’un travail (salaires, avantages sociaux, bonis, pourboires, options d’achat d’actions exercées, et d’autres sources de revenus considérés comme une rémunération aux fins de l’impôt) et sur l’employeur de ces travailleurs de 1978 à 2013. Comme certaines définitions étaient différentes en début de période, les auteurs utilisent ces données de 1981 à 2013. Tout ce qui manque est le nombre d’heures travaillées, ce qui empêche de calculer des taux de revenus horaires. Les auteurs utilisent donc les revenus annuels et éliminent les données trop basses qui risqueraient de fausser le portrait. Les graphiques qui suivent illustrent les résultats de base de cet exercice.

Le graphique de gauche montre la répartition de ces revenus d’emploi par centile de revenus en 1981 (ligne rouge) et en 2013 (ligne bleue) en milliers de dollars de 2013 (l’échelle verticale est logarithmique, ce qui fait diminuer visuellement les écarts réels). Si les deux lignes se confondent presque dans les centiles les plus bas, on peut voir qu’elles se séparent toujours davantage par la suite, indiquant ainsi une croissance des inégalités, car si le revenu des plus pauvres est demeuré assez stable, celui des plus riches a augmenté, encore plus du côté des ultra riches. Le graphique de droite, qui est construit de la même façon que celui de gauche, mais en millions de dollars de 2013, montre en effet que les écarts sont beaucoup plus grands pour les membres du 1 % les plus riches, leurs revenus ayant au moins doublé et plus que quadruplé pour les plus riches des plus riches (encore là, l’échelle verticale du graphique étant logarithmique, l’ampleur de cette hausse est plus forte qu’elle ne le semble visuellement).

Les auteurs précisent ensuite que la notion d’entreprise utilisée dans leur étude. Elle est basée sur les numéros d’employeur de ces entreprises. Il peut y avoir plusieurs établissements par numéros (comme des restaurants d’une même chaîne ou des succursales d’une même banque), mais comme ces numéros diffèrent d’un État à l’autre, il peut aussi y avoir plusieurs numéros d’employeur par grande entreprise. En plus de retirer les personnes avec des revenus trop faibles (moins de 3770 $ par an en dollars de 2013, soit l’équivalent de 13 semaines de travail à raison de 40 heures par semaine au salaire minimum horaire de 7,25 $), les auteurs limitent leur étude aux personnes âgées de 20 à 60 ans. De même, ils ne retiennent que les entreprises comptant au moins 20 employés de façon à pouvoir comparer le niveau des revenus d’emploi dans une même entreprise. Même réduit, l’échantillon retenu compte en moyenne 72,6 millions de personnes et 477 000 entreprises, ces nombres passant de 55,5 millions de personnes et 371 000 entreprises en 1981 à 85,2 millions de personnes et 517 000 entreprises en 2013. Avec un échantillon d’une telle taille, les auteurs peuvent se permettre d’analyser les données sous de nombreux angles.

Inégalités à l’intérieur des entreprises et entre elles

Les principaux résultats des auteurs sont présentés dans trois graphiques. Le premier montre l’évolution totale des inégalités (calculées en fonction de la variance des revenus d’emploi entre les employés) entre tous les travailleurs de toutes les entreprises (ligne bleue du haut), celle entre les travailleurs à l’intérieur des entreprises (ligne verte du centre) et celle entre les travailleurs de différentes entreprises (ligne rouge du bas). Si le niveau des inégalités est plus élevé entre des travailleurs à l’intérieur des entreprises qu’entre les travailleurs de différentes entreprises, les inégalités de ces dernières ont augmenté beaucoup plus fortement au cours de la période couverte. Plus précisément, alors que les inégalités ont globalement augmenté de 19 points de logarithme, celles observées entre les travailleurs de différentes entreprises ont augmenté de 13 points (donc celles entre les travailleurs à l’intérieur des entreprises de 6 points), expliquant ainsi environ 69 % de la hausse totale des inégalités.

Cherchant d’où proviennent ces hausses des inégalités, les auteurs examinent leur évolution selon la taille des entreprises. Ils refont donc cet exercice, mais cette fois seulement entre les entreprises comptant entre 20 et 10 000 employés (qui regroupent 70 % des travailleurs et plus de 99 % des entreprises) et entre celles qui en ont plus de 10 000.

Le graphique ci-contre montre les résultats pour les entreprises les plus petites. Il ressemble beaucoup au précédent, mais on peut remarquer que la ligne verte (celle qui illustre l’évolution des inégalités entre les travailleurs à l’intérieur des entreprises) est presque horizontale et que la ligne rouge (celle qui illustre l’évolution des inégalités entre les travailleurs de différentes entreprises) a une pente nettement plus accentuée. Cette fois, les inégalités entre les travailleurs de différentes entreprises expliquent environ 84 % de la hausse totale des inégalités, soit nettement plus que la proportion de 69 % observée pour l’ensemble des entreprises.

Le troisième graphique nous présente les résultats pour les plus grosses entreprises, en fait seulement 700 sur la moyenne de près de 500 000 entreprises. Cette fois, la ligne bleue (celle qui illustre l’évolution des inégalités entre tous les travailleurs) est plus abrupte que dans les graphiques précédents, montrant que les inégalités ont davantage augmenté dans ces grosses entreprises, et les deux autres lignes (la verte et la rouge) sont presque parallèles. Cela signifie que les inégalités entre les travailleurs d’une même entreprise ont augmenté presque autant qu’entre les travailleurs de différentes entreprises. D’ailleurs, les inégalités entre les travailleurs de différentes entreprises expliquent environ 58 % de la hausse totale des inégalités, soit nettement moins que la proportion de 69 % observée pour l’ensemble des entreprises et surtout que celle de 84 % observée pour les entreprises plus petites.

Les auteurs tentent ensuite d’expliquer la forte différence de l’évolution des revenus d’emplois entre les plus grosses entreprises et les plus petites (si on peut dire qu’une entreprise comptant par exemple 9000 employés à temps plein est petite…). Ils ont trouvé que deux facteurs ressortent clairement par rapport aux autres. D’une part, les revenus d’emploi des 50 travailleurs les mieux payés des grosses entreprises ont augmenté de 137 % entre 1981 et 2013, tandis que les revenus des travailleurs les mieux payés des entreprises plus petites n’ont augmenté «que» de 45 %. Ensuite, les revenus médians d’emploi des travailleurs des grosses entreprises ont diminué de 7 %, tandis que ceux des travailleurs des entreprises plus petites ont augmenté de 31 %. En conséquence, l’écart entre l’augmentation des revenus des travailleurs les mieux payés et celle des revenus médians fut de 156 % (237/93 = 255, soit une hausse de 155 %, la différence de 1 % venant sûrement des arrondissements) dans les entreprises les plus grosses, alors que cet écart fut de 22 % (j’arrive à 11 %, 145/131 = 111, mais, bon, cela est peut-être dû à l’utilisation de logarithmes…) dans les entreprises plus petites. Peu importe le résultat de ce calcul, la différence est vraiment énorme!

Autres aspects de la question

L’étude contient aussi des tests de robustesse (notamment en élargissant l’échantillon aux personnes initialement exclues et en appliquant la méthode utilisée à différentes régions des États-Unis, à de nombreuses industries, à différentes tranches d’âge et aux hommes et aux femmes) qui confirment les résultats et des analyses plus approfondies des caractéristiques des travailleurs des entreprises qui ont connu les plus fortes hausses de revenus et de celles des entreprises qui ont connu les plus faibles. Les auteurs ont ainsi pu établir un bon nombre de constats, mais je me contenterai de présenter les deux que je considère comme les plus marquants :

  • les travailleurs les plus qualifiés étaient en 2013 plus concentrés qu’en 1981 dans certaines entreprises et les moins qualifiés dans d’autres; les auteurs qualifient ce phénomène de «ségrégation des travailleurs»; ce phénomène expliquerait presque toute la forte hausse des inégalités de revenus entre les entreprises;
  • les revenus des personnes les moins bien rémunérées des grosses entreprises étaient en 1981 nettement plus élevés que ceux des personnes les moins bien rémunérées des entreprises plus petites, alors que ces revenus étaient presque égaux en 2013.

Et alors…

Comme mentionné en amorce, ce n’est pas la première étude que je présente sur ce sujet. Par contre, si la première m’avait laissé perplexe, celle-ci m’a convaincu sans peine, grâce à la qualité des données utilisées. Quand on utilise des données portant sur toute la population étudiée, ici les travailleurs et les entreprises, on n’a pas à s’inquiéter des marges d’erreur, car il n’y en a pas! Quand ces données contiennent en plus des précisions sur leurs caractéristiques, cela permet en plus de produire des analyses poussées des facteurs qui peuvent expliquer les résultats globaux.

Il est donc clair que les coupables de l’augmentation des inégalités de salaires ne sont pas tous ceux qu’on identifie trop souvent. Oui, les mieux payés ont un rôle important, mais il est moins clair que le clivage entre les compétences des travailleurs ait un rôle aussi important que bien des auteurs leur accordent. À l’inverse, les caractéristiques des entreprises, et pas nécessairement leur taille, jouent un rôle bien plus important.

Plus on en sait sur les causes des inégalités, plus on a de possibilités de les contrer. Mais, cela ne sera pas de la tarte, surtout dans le contexte politique actuel aux États-Unis!

Après le capitalisme

20 mars 2017

apres-le-capitalismeC’est après avoir lu un article du Devoir que j’ai décidé de réserver Après le capitalisme. Essai d’écologie politique de Pierre Madelin. L’auteur se demande dans ce livre «Comment s’émanciper de cette servitude volontaire où consommation et capitalisme riment avec destruction des conditions de vie sur Terre ?».

1. Que se passe-t-il? : L’auteur considère que la crise environnementale actuelle, avec le réchauffement climatique, la sixième extinction massive des espèces et la pollution sans cesse plus envahissante, représente «le plus grand défi auquel ait jamais été confronté l’homo sapiens dans toute son histoire». Ce n’est pas la planète qu’il faut sauver, elle a en masse le temps de se régénérer et même d’éliminer nos déchets radioactifs, mais les espèces qui y vivent dont l’être humain. Pour ce, il doit cesser de voir la nature comme une ressource qu’il doit dominer, mais accepter le fait qu’il en fait partie. Cela semble simple, mais cette transformation ne peut se réaliser qu’au moyen d’une révolution sociale et politique. Et l’objet de cette révolution doit être de se débarrasser du capitalisme, responsable de la crise environnementale. Cela dit, il ne faudrait pas le remplacer par un système qui présente les mêmes défauts…

2. «Le capitalisme ne mourra pas de mort naturelle» : L’auteur présente trois limites à la reproduction du capitalisme que je vais simplifier outrageusement :

  • la limite interne, celle de la croissance des profits essentiels à son existence;
  • la limite écologique qui repose sur le principe que la croissance infinie est impossible dans un monde fini;
  • la limite anthropologique qui détruit les liens sociaux essentiels à la nature humaine.

L’auteur précise ensuite que ces limites risquent de se manifester trop tard. Comme le titre de chapitre le mentionne, il faudra aider le capitalisme à disparaître avant que ces limites se manifestent…

3. Quels antagonismes? : L’auteur tente d’expliquer dans ce chapitre que le capitalisme se caractérise par la dépossession. La propriété a longtemps été basée sur l’usage. La personne qui utilisait une terre, par exemple, la possédait tant qu’elle la cultivait. Dans le capitalisme, la propriété est séparée de l’usage. Ainsi, le travailleur ne possède plus ses moyens de production. L’auteur présente ensuite d’autres types de dépossessions. Chacun de ces types de dépossessions crée un antagonisme entre les citoyens. Antagonisme de classe, bien sûr, mais bien d’autres, notamment entre ceux qui subissent le plus les effets du réchauffement climatique et de la pollution, et ceux qui les subissent moins, et antagonisme culturel et politique entre ceux qui veulent protéger la nature et ceux qui veulent continuer à l’exploiter.

4. La situation climatique et énergétique : L’auteur décrit les conséquences désastreuses du réchauffement climatique et montre que les solutions envisagées jusqu’à maintenant mènent à d’autres désastres. Même l’utilisation accrue des ressources renouvelables poserait potentiellement de gros problèmes si les infrastructures éoliennes et solaires étaient implantées sur une grande échelle (entre autres parce qu’elles ne sont pas éternelles et qu’elles utilisent des métaux dont la présence sur notre planète est limitée, comme des terres rares). En plus, certains sites choisis pour installer des parcs d’éoliennes et de panneaux solaires exigent le déplacement de populations pauvres. L’auteur conclut que «sans décroissance énergétique, aucune transition énergétique ne serait durable, et encore moins juste».

5. La situation démographique: néomalthusianisme ou écosocialisme? : Concédant que la taille de la population peut aggraver la crise environnementale, l’auteur considère toutefois que le problème est davantage le niveau des inégalités, car les activités de certains citoyens des pays riches entraînent au moins cent fois plus d’émissions de gaz à effets de serre (GES) que celles d’autres citoyens vivant dans des pays pauvres. Il craint aussi que des mesures de contrôle des naissances puissent viser les pays pauvres et soient teintées d’eugénisme ou de darwinisme social.

6. Vivre avec les animaux : Constatant que l’élevage est une des sources majeures d’émissions de GES, de déforestation et de pollution, l’auteur remet en question notre relation avec les animaux. S’il accepte la consommation de viande dans certaines circonstances, il la rejette telle qu’elle se fait aujourd’hui, tant pour des motifs écologiques qu’éthiques. Il aborde aussi la question de la domestication des animaux et s’oppose à l’approche abolitionniste (qui vise à l’extinction des animaux domestiques…).

7. Sortir de la crise écologique: I) L’État-nation et la «démocratie» actuelle : L’auteur décrit les actions qu’il faudrait entreprendre pour réussir la transition écologique. La liste est longue! Il convient que ces actions correspondent assez bien au concept de la décroissance, mais sans son aspect moralisateur. Il ajoute que tout ne doit pas décroître, par exemple que les services de santé et d’éducation doivent au contraire augmenter, surtout dans les pays pauvres. Il voit aussi sa proposition comme politique et non seulement sociale. Cet aspect politique ne représente toutefois pas un appui aux États comme on les connaît aujourd’hui qui sont au mieux devenus des oligarchies qui décident à la place du peuple plutôt que de réaliser ses volontés. «Il n’y aura pas de sortie du capitalisme sans sortie du régime représentatif, car c’est fondamentalement au nom des exigences du premier que le second s’est imposé».

8. Sortir de la crise écologique: II) L’auto-organisation libertaire des sociétés : L’auteur examine diverses possibilités pour remplacer le régime représentatif, examinant surtout les modèles anarchistes. Après un détour (pertinent) sur les manifestations du décalage prométhéenl’impossibilité pour la conscience humaine de concevoir, de comprendre toutes les conséquences possibles d’une technologie»), il favorise les structures politiques locales, proches des intérêts des citoyens. Cela ne veut pas dire de renverser les gouvernements actuels, mais de former des communautés qui les ignorent (c’est là que j’ai décroché…). Il faut dire que l’auteur habite au Chiapas.

9. L’écologie politique libertaire: I) La question des échelles : Mais, dans ce contexte, que faire de la majorité de la population qui habite les villes, lieux défavorisant la communauté idéalisée dans le chapitre précédent? Je n’ai rien compris à ses explications. Disons qu’ayant décroché, ma concentration n’était pas à son apogée…

10. L’écologie politique libertaire: II) La question de la souveraineté populaire : Idem.

11. Conclusion: révolution ou effondrement? : Idem.

Et alors…

Lire ou ne pas lire? Lire, mais surtout pour ses premiers chapitres qui analysent bien et de façon originale les problèmes actuels. C’est lorsque l’auteur propose des solutions que le bât blesse, comme trop souvent dans ce genre de livre. Nous sommes tous et toutes à la recherche de solutions, mais à part de décrire un monde qui permettrait de renverser la situation actuelle en modifiant en profondeur notre mode de vie et notre système politique, l’auteur semble bien incapable de présenter les moyens pour y parvenir. Cela dit, je n’ai pas plus de solution crédible à ce problème et n’ai jamais vu dans mes lectures des propositions qui m’ont satisfait.

Bon point, les notes, parfois substantielles, sont en bas de pages…

Joseph Schumpeter et la destruction créatrice

18 mars 2017

Joseph Schumpeter est surtout connu comme père du concept de la destruction créatrice. Ce concept, qui avance que le processus de destruction de certains secteurs et entreprises est souvent nécessaire pour voir apparaître de nouvelles entreprises et industries plus productives et innovatrices, a été interprété à toutes les sauces selon l’idéologie des auteurs. Mais qu’en est-il vraiment?

Timothy Taylor n’est pas seulement l’auteur d’un blogue que j’ai vanté à de nombreuses reprises, mais est aussi le rédacteur en chef du Journal of Economic Perspectives. Chaque trimestre, il présente sur son blogue les articles de ce journal qui sont disponibles gratuitement sur Internet. Dans le dernier de ces billets, j’ai retenu une dizaine d’articles. C’est justement un de ces textes que je vais présenter dans ce billet. Intitulé Do productive recessions show the recuperative powers of capitalism? Schumpeter’s analysis of the cleansing effect (Les récessions productives sont-elles le reflet des pouvoirs de récupération du capitalisme? L’analyse de Schumpeter de l’effet nettoyant), ce texte de Muriel Dal Pont Legrand, professeure de sciences économiques à l’Université Nice Sophia Antipolis, et Harald Hagemann, professeur de théorie économique à l’Université de Hohenheim, vise à clarifier la position de Schumpeter sur la destruction créatrice et à analyser à quel point ce processus s’observe (ou ne s’observe pas) lors des récessions.

Introduction

«Schumpeter considérait que le processus de liquidation et de redistribution des ressources productives qui a eu lieu pendant une récession et les phases de dépression des fluctuations cycliques n’était pas seulement une caractéristique essentielle et inévitable de l’évolution capitaliste, mais était aussi nécessaire et finalement bénéfique pour le développement à long terme.»

Cette vision a souvent été interprétée comme un appui de Schumpeter aux récessions et même aux dépressions, et comme un rejet de toute intervention gouvernementale dans ces situations. Les auteur.e.s contestent cette interprétation, la jugeant simpliste et malhonnête par rapport à la véritable vision de Schumpeter.

Les mouvements ondulatoires du développement du capitalisme

Schumpeter considérait que le progrès arrive par vagues et que les crises seraient des «points tournants du développement économique». Ces vagues seraient inévitables, car étant une conséquence de la période de prospérité antérieure. Il estimait que l’activité économique était sujette à trois types de cycles :

  • les cycles Kitchin, qui surviennent chaque trois à cinq ans et seraient basés sur des facteurs psychologiques, sur le rendement des cultures et sur les variations des stocks;
  • les cycles Juglar, qui se succèdent aux huit à dix ans et sont liés aux «fluctuations des niveaux d’investissements, souvent issus des vagues d’innovation»;
  • les cycles de Kondratiev, qui ne se produisent que dans des intervalles de 40 à 60 ans lors de changements technologiques majeurs.

Par après, Schumpeter divise les cycles en périodes de prospérité, de récession, de dépression et de reprise, périodes qui éloignent la situation économique de son équilibre. Selon lui :

«(…) les crises ne sont que des points tournants allant de la prospérité à la dépression, et c’est l’alternance entre la prospérité et la dépression qui est le phénomène vraiment intéressant.»

Il ajoute, comme Juglar, que «La seule cause de la dépression est la prospérité». Même si les trois types de cycles qu’il mettait de l’avant sont en théorie dus à des facteurs différents, Schumpeter les attribuait tous à l’innovation :

«Les innovations, leurs effets immédiats et ultérieurs, et la réaction qu’elles suscitent dans le système économique sont la cause commune de tous les cycles, bien que différents types d’innovations et différents types d’effets puissent jouer des rôles différents dans chacun de ces cycles.»

Il déplorait d’ailleurs que «les explications reposant sur l’innovation aient été tellement négligées par l’analyse traditionnelle du cycle économique». Dès ses premiers écrits, il avançait que «toute prospérité (…) induit une période de liquidation qui, en plus d’éliminer des entreprises devenues obsolètes, sans possibilité d’adaptation, implique également un processus douloureux de réajustement des prix, des quantités et des valeurs à mesure que les contours du nouveau système d’équilibre émergent», processus en effet douloureux qui cause au mieux des récessions et au pire des dépressions. En conséquence, il trouvait contradictoire de penser qu’une croissance puisse se faire graduellement, en douceur, car la croissance survient toujours de ce qu’il appelle la destruction créatrice. Cette destruction permet de «nettoyer» l’économie des excès des périodes de fortes croissances. Il considérait donc que les récessions ne sont pas seulement mauvaises, mais permettent de trouver un nouvel équilibre.

Schumpeter et la Grande Dépression

Selon Schumpeter, la Grande Dépression fut la conjonction des périodes de récession des trois types de cycles (court, moyen et long termes), toujours en lien avec les innovations. Il considérait que ces conjonctions n’ont rien d’exceptionnel, qu’elles pouvaient survenir chaque 55 ans environ. Cela dit, il acceptait que certaines circonstances, autres que la conjonction des cycles d’innovations (par exemple, les guerres), puissent accentuer l’ampleur des récessions et dépressions. Par contre, il prétendait qu’il «n’y avait rien de sans précédent dans la situation de 1929 à 1932 (…), l’intensité de la dépression fut en quelque sorte proportionnelle à l’intensité du progrès précédent». Il y tenait! Il acceptait que la spéculation et les méthodes bancaires douteuses de la période précédente ait pu rendre cette dépression plus profonde, mais concluait que cela n’était qu’une manifestation de phénomènes normaux après une longue période de croissance. Même après une dépression de cette ampleur, il tenait mordicus à affirmer qu’une récession est une condition nécessaire à toute reprise (ça ressemble à une tautologie…). Quelques années plus tard, il a adouci ses propos en affirmant que si une récession est nécessaire au progrès, on n’est pas obligé d’endurer des désastres «anormaux» comme celui qu’a causé la Grande Dépression. Il considérait dorénavant que la spéculation, la faiblesse du système bancaire et le dysfonctionnement des prêts hypothécaires étaient «anormaux» (alors qu’ils les avaient qualifiés de normaux quelques années plus tôt).

Durant une période de croissance, il est facile de faire des profits, ce qui encourage les erreurs et les mauvais comportements («misbehaviour»). Ces mauvaises habitudes disparaissent toutefois et heureusement quand la situation économique se détériore, ce qui est un des aspects positifs de la destruction créatrice de Schumpeter («par un processus douloureux, les entreprises et les activités dépassées et mal adaptées sont éliminées»). Pour que ce processus se produise, il faut selon lui éviter les interventions stabilisatrices des gouvernements. Tout au plus, il était ouvert à des politiques préventives pour éviter les crises trop violentes (dont l’adoption de l’étalon-or!). Par contre, Schumpeter reconnaissait que l’intervention gouvernementale peut se justifier lors de dépressions «anormales» qui détruisent «des choses qui auraient dû survivre», destruction alors non créatrice. Sans cette intervention, la dépression pourrait avoir des conséquences négatives à long terme. Il a même fini par approuver, mais uniquement dans ces cas de dépressions «anormales» les politiques fiscales recommandées par Keynes :

«La décision de laisser un budget se retrouver en déficit lors une dépression en maintenant les dépenses face à la diminution des recettes est une politique qui permet d’atténuer beaucoup de souffrances inutiles et de garder beaucoup de choses qui autrement seraient détruites.»

C’est toutefois après beaucoup de temps et avec beaucoup de réticence que Schumpeter en est venu à accepter ces interventions, favorisant presque toujours l’équilibre budgétaire des gouvernements, jugeant par exemple que l’habitude aux déficits peut finir par ressembler à la dépendance d’un consommateur de morphine. Cela dit, il est erroné de considérer Schumpeter comme un adversaire inconditionnel de l’intervention gouvernementale, comme trop de personnes le font. Même avant la sortie de la théorie générale de Keynes, Schumpeter soulignait «l’importance capitale, en période de crise, des dépenses publiques en faveur des travaux publics, et en particulier de l’aide directe aux chômeurs», surtout lorsqu’un pays a pris soin de garder ses finances en ordre avant la crise.

La littérature moderne sur la récession et la restructuration

Le concept de destruction créatrice est revenu en vogue dans les années 1980, avec l’utilisation de modèles dits néo-schumpetériens, se concentrant surtout les effets des récessions sur la structure de l’économie et sur la croissance. Ces modèles se reposent sur l’affirmation de Schumpeter que les récessions «ne sont que temporaires. Elles sont les moyens de reconstruire le système économique sur des bases plus efficaces». Même s’ils se disent inspirés par l’esprit de Schumpeter, ils s’en éloignent nettement. Les distinctions de Schumpeter sur l’éloignement de l’équilibre des périodes de croissance et de récession, et sur les récessions normales et anormales, ne s’y retrouvent par exemple pas. Ils ne lient pas nécessairement les récessions à des chocs technologiques, mais à des chocs de la demande.

Ces modèles sont, même avec ces modifications, difficiles à démontrer empiriquement. Par exemple, les investissements en recherche et développement n’augmentent pas en période de récession, mais le font plutôt en périodes de croissance. De même, les innovations sont bien plus souvent mises en œuvre en période de croissance que lors de récessions : «La preuve générale tirée de cette ligne de recherche suggère que le fait de considérer les récessions comme des périodes où les entreprises sont plus susceptibles de s’engager dans des activités visant à améliorer la productivité n’est pas empiriquement bien fondé». J’adore ce langage prudent des auteur.e.s… Pire, contrairement aux prétentions de Schumpeter ou des néo-schumpetériens, le niveau d’entrée de nouvelles entreprises est moins élevé lors de récessions, ce qui ne peut que retarder les changements de structure de l’économie.

Cela dit, il est indéniable que le processus de destruction créatrice est réel, sauf qu’il ne se produit pas majoritairement lors de récession, mais lors de période de croissance : «Néanmoins, la créativité et la restructuration qui se produisent au cours des périodes de croissance économique sont probablement plus importantes que les processus destructeurs causés par les récessions et, en outre, le niveau de réallocation de la destruction créatrice sont entravées par la récession et non accélérées».

Et alors…

Ce texte me rejoint sur de nombreux aspects. Tout d’abord, j’ai toujours été et suis encore réfractaire au concept de cycle économique. Je ne parviendrai jamais à accepter son déterminisme et son aspect mécanique. D’ailleurs, j’ai beau regarder les données de nombreux pays, j’ai de la difficulté à établir une durée fixe entre les récessions, chacune étant due à des facteurs différents (si ce n’est celles des débuts des années 1980 et 1990 créées toutes les deux par des interventions visant à combattre l’inflation).

Ensuite, j’ai toujours trouvé le concept de destruction créatrice intéressant, car il existe, comme le montre la disparition de 90 % des emplois dans l’agriculture compensée par la création d’emplois dans d’autres domaines, notamment dans la santé et l’éducation (mais aussi dans la publicité et les services financiers…). Mais j’ai toujours trouvé ridicule de l’associer aux récessions. Une récession représente en général une baisse du PIB de quelques points de pourcentage, mais bien inégalement répartie. C’est un drame pour certaines personnes et un non-événement pour la majorité de la population qui conserve son emploi. Je me rappelle avoir dit à mon père au début des années 1980 que tous ne subissaient pas de la même façon les effets de la récession et que, par exemple, lui en bénéficiait, car il avait conservé son emploi et profitait des taux d’intérêt élevés sur son épargne. Inutile de dire qu’il n’a pas aimé ma remarque, même si je ne l’accusais nullement d’en être responsable… Dans une période de récession, tout le monde pense subir ses effets, même si ce n’est pas le cas. Mais, je m’égare…

En plus, les secteurs les plus touchés par une récession peuvent varier. En général, les victimes de la récession iront moins souvent au restaurant, chez le coiffeur, au cinéma… Les entreprises qui subissent alors des baisses de leurs revenus et qui se voient forcées de fermer leurs portes ne sont pas nécessairement des entreprises obsolètes, mais bien des victimes de la baisse de la demande pour leur secteur. Et ces destructions seraient créatrices? Dur à avaler…

Bref, le concept de destruction créatrice ne peut être nié, mais la forme qu’il prend peut très bien être contestée. Et, ce texte remet bien les pendules à l’heure.

L’Académie contre la langue française

13 mars 2017

academieC’est en lisant un article du Devoir que j’ai décidé de me procurer le livre L’Académie contre la langue française, collectif sous la direction d’Éliane Viennot. J’y apprenais en effet que, non seulement ce livre parle de la langue française, ce qui m’attirait déjà, mais qu’en plus il s’attaque aux tendances machistes de l’Académie française. Comment résister?

Avant même que le livre commence, la maison d’édition précise qu’elle applique la règle de proximité qui accorde en genre «l’adjectif, le participe passé et le verbe avec le nom qui le précède ou les suit immédiatement». Ainsi, on écrira les hommes et les femmes sont contentes, mais les femmes et les hommes sont contents. On apprend en lisant le livre que cette règle était en force avant que l’Académie décrète que le masculin l’emporte sur le féminin parce que le masculin est «le genre le plus noble», et qu’elle a même été appliquée dans les statuts de l’Académie lors de sa création! Je compte bien adopter cette règle à l’avenir!

Avant-propos : On y présente l’objet et le contenu du livre, notamment la rigidité et le machisme de l’Académie française.

Le Saint-Siège : Ce texte débute en retraçant l’historique de la création de l’Académie française en 1634. L’objectif de sa création était de déterminer ce qui doit se dire et s’écrire et ce qui ne doit pas l’être, de façon à préserver «la pureté de la langue». Elle s’est fait octroyer de nombreux mandats lors de sa création (notamment d’autoriser la parution d’œuvres littéraires…), mais seul est demeuré celui de produire un dictionnaire. Cela a pris 60 ans avant que la première édition de ce dictionnaire paraisse, et, après bientôt 400 ans, on attend toujours sa neuvième version.

Ce n’est qu’en 1980 que la première femme fut admise à l’Académie parmi ses 40 membres, même si jamais ses statuts n’ont contenu de restriction à cet égard. On en compte maintenant cinq, soit 12,5 % de ses membres. Le texte aborde ensuite les luttes des académiciens pour masculiniser la langue française, notamment en éliminant les appellations féminines des professions «qu’il n’est pas dans leur nature d’exercer»… En plus d’avoir abandonné la règle de proximité comme mentionné auparavant, on a aussi rendu invariables les participes présents (en ne conservant que leur forme masculine) et quelques autres expressions («vu ma santé» au lieu de «vue ma santé», par exemple). Plus récemment, des Académiciens reprochaient à Charles de Gaulle de dire «Françaises, Français», alors que «Français» aurait suffi selon eux… Les auteur.e.s, soulignant entre autres l’absence de grammairiens, de linguistes et de lexicographes parmi les membres de l’Académie française, concluent à l’incompétence de cette institution pour réaliser le seul mandat qui lui est resté depuis ses débuts, écrire un dictionnaire. Ce texte se termine avec d’autres exemples du sexisme des 40, exemples que je vous laisse le «plaisir» de découvrir en lisant ce livre. Disons qu’on penserait ces remarques venir davantage d’une conversation de vestiaire que de déclarations d’une élite…

Les offenses : Les auteur.e.s présentent des décisions gouvernementales sur la féminisation des titres qui sont allées à l’encontre des préceptes de l’Académie et les réactions pitoyables des 40.

Les points de doctrine : Les auteur.e.s présentent et surtout détruisent les 12 arguments les plus utilisés par les 40 pour justifier l’utilisation abusive du masculin. Ce chapitre est pertinent et intéressant. Il montre que ces arguments sont à la fois faibles (pour ne pas dire ridicules) et contradictoires. On y lit aussi de nombreuses anecdotes loufoques. Par exemple quand un académicien avance que, quand on entend «écrivaine», on retient surtout «vaine», mais, quand on entend «écrivain», on ne remarquerait pas du tout «vain»… Ce genre de vanne pas subtile du tout amène les auteur.e.s à conclure ainsi : «Le plus souvent, c’est à travers des sarcasmes ou des jeux de mots vaseux, voire grossiers, que l’Académie tente de proscrire l’usage de certains termes».

Les bulles : Les auteur.e.s nous font connaître le contenu complet des bulles (ou décrets) de l’Académie sur la féminisation des métiers, titres et fonctions, et les critiquent en notes en bas de page. Même si ce chapitre est intéressant, il est un peu répétitif, car il contient in extenso des textes dont les éléments qui ressortent le plus ont été analysés (et critiqués) dans le chapitre précédent.

Les exégèses et Les suppliques  : Presque aussi répétitifs que le précédent, ces deux chapitres contiennent des textes de membres de l’Académie sur le même sujet, envoyés aux journaux (Les exégèses) ou à des politicien.ne.s (Les suppliques). Ces académiciens ont encore moins de retenue que leur institution et ne se gênent pas pour utiliser des propos encore plus méprisants que ceux contenus dans les bulles présentées dans le chapitre précédent : selon eux, les personnes qui prônent la féminisation des métiers, titres et fonctions :

  • sont des cancres, des démagogues, des crétins, des analphabètes, des zélateurs, des fanatiques, des ânes et des ânesses (dans ce cas, ils ont tenu à féminiser cette insulte…);
  • ont des fantasmes, utilisent des diatribes pathétiques, font la promotion de la ségrégation, défigurent la langue et participent à des comédies de boulevard;
  • appuient des modifications caricaturales, sottes, humiliantes et arbitraires.

Le chapelet des perles : Ce chapitre contient des citations provenant des chapitres précédents.

Et alors…

Lire ou ne pas lire? Lire, mais peut-être pas en entier. En effet, si les chapitres intitulés Le Saint-Siège et Les points de doctrine sont fort intéressants, le reste du livre est rempli de répétitions. S’il y a un certain intérêt à prendre connaissance du contenu intégral des lettres signées par l’Académie et ses académiciens, il devient lassant de lire constamment les mêmes arguments, d’autant plus qu’ils sont d’une faiblesse proportionnelle à leur objet, soit un combat d’arrière-garde de masculinistes frustrés. Le mépris dont ils font preuve amuse pendant un certain temps, mais devient lui aussi agaçant et toujours désagréable. Et j’aurais aimé trouver l’opinion de l’académicien québécois, Dany Laferrière, mais on n’en parle pas dans le livre et je n’ai rien trouvé sur le sujet sur Internet.

Cela dit, je ne regrette nullement d’avoir lu ce livre. J’avais bien sûr connaissance de ce refus de l’Académie d’accepter la féminisation des métiers, titres et fonctions, et avais lu quelques-unes des perles de l’opposant en chef, Maurice Druon, mais avais de la difficulté à croire que les arguments des 40 étaient aussi puérils et méprisants. Or, ils le sont…

La disparition des sociétés publiques

11 mars 2017

Comme je l’ai mentionné à de nombreuses reprises, le blogue de Timothy Taylor est incontournable si on veut se tenir au courant des études économiques les plus novatrices et intéressantes. Dans un billet récent, il a commenté une récente étude du sociologue Gerald F. Davis intitulée Post-Corporate: the Disappearing Corporation in the New Economy (Post-sociétés : la disparition des sociétés publiques dans la nouvelle économie).

Dès les premières lignes de cette étude, j’ai appris un fait que j’étais loin de soupçonner : «Le nombre d’entreprises américaines cotées au Nasdaq et au New York Stock Exchange a diminué de moitié depuis 1996». L’image qui accompagne ce billet montre clairement l’ampleur de cette baisse, soit de 8000 sociétés publiques en 1996 à guère plus de 4000 en 2015. L’auteur ajoute que le nombre d’introductions en bourse («initial public offerings» ou IPO) au cours des cinq dernières années fut moins élevé qu’au cours de la seule année 1996. On pourrait penser que cette baisse est en premier lieu due à l’éclatement de la bulle technologique vers 2000 et à la crise de 2007-2009. Si de fait le graphique présente les fortes baisses observées lors de ces événements, il montre aussi que la baisse a commencé bien avant et qu’elle s’est poursuivie par la suite, quoique la situation semble s’être stabilisée depuis 2012, avec même une très légère hausse depuis. Cela dit, l’étude tente surtout de répondre à deux questions : «Pourquoi les sociétés publiques (cotées en bourse) disparaissent-elles? Et cela devrait-il nous inquiéter?».

Quels types de sociétés ont quitté la bourse?

Pour expliquer la baisse du nombre de sociétés publiques (terme qui désigne les sociétés inscrites à la bourse et non pas des sociétés d’État), il faut à la fois regarder l’évolution du nombre de celles qui ont quitté et de celles qui y ont été introduites («IPO»). C’est ce que tente de nous montrer le graphique ci-contre. Il indique le nombre de sociétés par industrie qui ont quitté la bourse (partie du haut) et qui y ont été introduites (partie du bas) entre 2000 et 2015 (on présente en fait les 11 industries où il y a eu le plus de départs et d’introductions). Il est dommage que ce graphique ne parte pas du sommet de 1996, mais la baisse fut quand même de près de 3000 entre ces deux années, le nombre de sociétés publiques passant d’environ 7000 à 4000.

Ce graphique montre d’une part que les départs furent beaucoup plus nombreux que les introductions et que ce fut le cas dans toutes les industries illustrées. Par exemple, si l’industrie pharmaceutique («Drugs») fut celle où il y a eu le plus d’introductions (environ 220), elle a connu bien plus de départs (environ 330, soit 50 % de plus). L’écart fut bien plus grand du côté de l’informatique («computer programming, data processing»), avec l’entrée de 200 sociétés, mais le départ de plus de 800, et du secteur bancaire («Commercial banks» et «Savings institutions»), avec la sortie de quelque 700 sociétés et l’introduction de moins de 150. Si ce graphique fournit un bon portrait de la situation, il ne nous montre pas les moments où les départs ont eu lieu ni les raisons de ces départs. C’est ce que l’auteur examine par la suite.

L’éclatement de la bulle technologique

Comme le graphique précédent l’a montré, l’informatique est de loin le secteur qui a connu les départs les plus nombreux. Sans surprise, et comme le montre le graphique ci-contre, ces départs furent les plus nombreux juste après l’éclatement de la bulle technologique, au début des années 2000, atteignant même presque 160 départs en 2001, huit fois plus que la moyenne observée entre 2013 et 2015. On remarquera que, si les fusions et acquisitions («Merged», partie orange des barres) ont nettement dominé en 2000 et de 2004 à 2015, les radiations («Delisted», partie grise des barres, dues principalement à des faillites, mais aussi à la privatisation de ces sociétés) furent les plus fréquentes en 2001 et en 2002 et ont aussi été importantes en 2003.

L’auteur montre ensuite que l’éclatement de la bulle technologique fut aussi dévastateur dans le secteur des télécommunications (non illustré), mais a touché bien moins de sociétés (probablement parce qu’il y en avait moins au départ, mais l’auteur n’en parle pas), la proportion de radiations ayant été encore plus élevée. Dans ce secteur, l’emploi a augmenté de 50 % entre 1993 et 2001, passant d’un peu moins de 1 million à presque 1,5 million, avant de fondre de moitié entre 2001 et 2016 pour se retrouver cette année-là à guère plus de 750 000.

Consolidation et effondrement dans le secteur bancaire

Le graphique ci-contre montre l’évolution des départs dans les banques commerciales (graphique du haut) et dans les banques d’épargne («savings banks»), banques effectuant essentiellement des prêts hypothécaires (je ne crois pas que la distinction entre ces deux types de banques existe au Canada, car le code industriel des banques d’épargne n’y est pas utilisé). Ce qui est frappant, c’est que le nombre de départs dans les deux cas n’a pas du tout augmenté lors de la crise de 2007 à 2009. Par contre, on peut voir que la proportion de départs dus à la radiation (portion grise des barres, je le rappelle) a fortement augmenté du côté des banques commerciales de 2008 à 2012, atteignant son maximum en 2009. Il demeure que la principale raison des départs de ces sociétés au cours de cette période est due aux fusions et que celles-ci furent même plus nombreuses au début des années 2000 parmi les banques d’épargne. Il faut dire qu’il y avait aux États-Unis 12 000 banques commerciales et 4000 banques d’épargne en 1980, alors qu’il y en avait moins de 10 au Canada. L’auteur attribue une grande partie de ces départs à la déréglementation de ce secteur.

La délocalisation de la fabrication de produits électroniques et informatiques

On a vu plus tôt que le secteur de l’informatique fut le secteur le plus touché par les départs de sociétés publiques. On a aussi observé la disparition d’un grand nombre de sociétés publiques dans la fabrication de produits électroniques et informatiques. Cela est moins évident dans la «Figure 2» présentée plus tôt, car ce secteur y est divisé en trois industries différentes, celles de la fabrication de composants électroniques («Electronic componants»), de matériel informatique et de bureau («Computer and office equipment»), et de matériel de communication («Communications Equipment»).

Les graphiques ci-contre montrent que les départs furent plus nombreux au début des années 2000 dans les industries de la fabrication de composants électroniques et de matériel informatique et de bureau, et que ces départs furent fortement concentrés dans des radiations, alors qu’ils furent moins nombreux par la suite et davantage concentrés dans les fusions. La situation fut par contre différente dans l’industrie de la fabrication de matériel de communication, où les départs furent mieux répartis entre 2000 et 2015, et plus nombreux dans les fusions que dans les radiations tout au long de la période couverte. L’auteur ajoute que ces trois industries furent fortement touchées par la délocalisation de la production et des emplois vers les pays à bas salaires. D’ailleurs, l’emploi dans l’ensemble des produits électroniques et informatiques est passé aux États-Unis d’environ 1,8 million en 2001 à guère plus de 1 million en 2016, la plus forte baisse s’étant produite entre 2001 et 2004 (500 000 pertes d’emploi sur la baisse totale d’un peu moins de 800 000), soit juste après l’éclatement de la bulle technologique et l’adhésion de la Chine à l’Organisation mondiale du commerce (OMC).

Les fusions pharmaceutiques

Les industries de la fabrication de produits pharmaceutiques («Drugs») et de fournitures et de matériel médicaux («Surgical, medical, and dental instruments») ont, de leur côté, connu de nombreuses fusions accompagnées de radiations moins nombreuses, comme le montrent les graphiques ci-contre. Dans ces deux industries, les départs furent mieux répartis que dans le cas des industries analysées précédemment, si ce n’est que le nombre de départs semble avoir ralenti depuis 2011 dans l’industrie de la fabrication de fournitures et de matériel médicaux. L’auteur explique qu’il est courant que les nouvelles entreprises soient rapidement «avalées» par les géants de ce secteur. Il ajoute que certaines fusions visent à déplacer le centre de propriété dans des juridictions où les taux d’imposition sont moins élevés, notamment en Irlande. Rappelons-nous la saga de la société Pfizer des États-Unis qui a voulu fusionner avec la canadienne Allergan l’an dernier justement pour payer moins d’impôt… Mais, pour une fusion à motif fiscal qui est abandonnée, il y en a de nombreuses qui se réalisent.

Conclusion sur les départs

On voit que si certains facteurs ressortent, comme l’éclatement de la bulle technologique, la crise de 2007-2009, la déréglementation du secteur financier et les délocalisations, ils ne sont pas les seuls à avoir eu un impact. Par exemple, l’absence de possibilité de croissance a porté un bon nombre de sociétés publiques à utiliser leurs profits pour se privatiser (sortir de la bourse) en rachetant leurs actions boursières (ça, ce n’est pas dans l’étude…).

La baisse des introductions en bourse («initial public offerings» ou IPO)

La forte baisse du nombre de sociétés publiques ne s’explique pas seulement par l’augmentation du nombre de départs, mais aussi par la diminution de nouvelles introductions en bourse, comme le montre éloquemment le graphique ci-contre. On peut en effet voir que le nombre d’introductions a plongé en 2001 et n’a jamais par la suite dépassé la barre des 200, se situant même sous la centaine la majorité de ces années, alors qu’il avait presque atteint 700 en 1996 et était au-dessus de cette barre de 200 toutes les années entre 1991 et 2000. Même si le nombre d’introductions tend à augmenter lorsque la bourse est en croissance, il est demeuré bien faible après la crise malgré la croissance des indices boursiers au cours de ces années. Comme mentionné plus tôt, il y en a même eu moins entre 2011 et 2016 qu’en 1996. Comment expliquer ce comportement atypique?

L’auteur explore quelques-unes des raisons invoquées par certains observateurs, comme l’adoption de la Loi Dodd-Frank après la crise (et d’autres réglementations, les arguments classiques des néolibéraux), mais les rejette toutes. Il se demande plutôt quelles sont les raisons qui portent les sociétés à s’inscrire en bourse.

Historiquement, les entreprises qui se sont inscrites en bourse, que ce soit dans les chemins de fer et dans le secteur manufacturier ou dans les infrastructures et le commerce de détail, le faisaient parce qu’elles avaient besoin de sommes importantes pour investir dans leurs équipements de production ou dans la construction de bâtiments pour pouvoir augmenter leur production. De nos jours, les nouvelles entreprises de grande taille sont dans le domaine des services et n’ont plus besoin de ce genre d’infrastructures. Par exemple, quand Facebook a décidé de s’inscrire en bourse, son pdg a dit le faire pour permettre à ses employés d’acquérir des actions de l’entreprise de façon ordonnée. Il disait ne pas avoir d’objectif précis sur l’utilisation de ce capital supplémentaire et l’a placé dans des actifs financiers! Souvent, ces entreprises ont moins d’employés que des entreprises qui ont des actifs dix ou vingt fois moins élevés. Blockbuster avait 84 000 employés lors de sa liquidation, mais Netflix, un des grands responsables de sa faillite, en a 3700, soit moins de 5 % qu’une de ses victimes! Bref, ces nouveaux géants n’ont plus besoin d’autant de capitaux que les géants d’antan. On peut même de nos jours partir une banque avec quelques logiciels…

Ensuite, il y a de plus en plus de façons de se financer sans s’inscrire en bourse, notamment auprès des banques d’investissement et des prêteurs institutionnels, comme les fonds de pension. L’auteur mentionne à cet effet que, depuis 2008, «les sociétés de capital d’investissement («private equity firms») sont passées de la gestion de 1000 milliards de dollars à la gestion de 4300 milliards de dollars». Comme les entreprises peuvent se financer autrement, la baisse du nombre de sociétés publiques est-elle vraiment inquiétante?

Les conséquences de la disparition des sociétés

L’auteur mentionne que, si les nouvelles entreprises peuvent se financer autrement qu’avec une introduction en bourse, certains des avantages propres aux sociétés publiques risquent, eux, de ne pas être remplacés. Tout d’abord, le changement de mode de financement modifie les relations de travail et aussi les avantages sociaux. Les géants d’antan embauchaient des centaines de milliers d’employés et les rémunéraient très bien. Par contre, la médiane du nombre d’employés des sociétés qui se sont inscrites en bourse depuis 2000 s’est située à 51 et ces employés touchaient souvent de faibles salaires.

Ensuite, même si on a l’impression que les grandes entreprises contribuent à faire augmenter les inégalités, c’est en fait le contraire. À l’ère des grandes entreprises, dans les années 1960, le coefficient de Gini était à son minimum historique aux États-Unis. Quand leur taille a commencé à diminuer dans les années 1980, et surtout quand elles ont décidé de sous-traiter leurs emplois dans les années 1990 et de les délocaliser dans les pays à bas salaires dans les années 2000, les inégalités ont grimpé en flèche. L’auteur ajoute que cette relation entre la taille des entreprises et les inégalités s’observe dans de nombreux pays.

Par ailleurs, les conséquences de la baisse de la taille des grandes entreprises (en termes de nombre d’employés) a des conséquences encore plus importantes aux États-Unis, car les employeurs sont souvent ceux qui fournissent les programmes sociaux, comme l’assurance maladie et les fonds de pension : «De toute évidence, la disparition des sociétés publiques laisse de gros trous dans le filet de sécurité sociale».

En plus, leur disparition affaiblit l’efficacité des interventions gouvernementales. Il est en effet bien moins compliqué de veiller au respect de la réglementation par des grosses entreprises que par des petites. Dans les années 1960, les 25 plus grandes sociétés embauchaient près de 10 % de la main-d’œuvre des États-Unis. Il était donc plus facile pour les organismes veillant au respect des lois et des règlements sur la santé et sécurité au travail, sur l’environnement et sur la discrimination de faire leur travail, d’autant plus que ces grandes entreprises pouvaient exiger de leurs fournisseurs de les respecter aussi. L’auteur donne ensuite quelques exemples appuyant ce raisonnement.

Conclusion

L’auteur insiste dans cette conclusion sur les effets négatifs de la disparition des sociétés publiques pour les travailleurs. Les inégalités augmentent, le travail précaire se répand, la mobilité professionnelle et sociale diminue, et le filet de protection sociale est de moins en moins étendu. Et, on ne peut pas s’attendre à ce que la situation s’améliore à l’avenir. Il serait donc temps que les politiques publiques prennent le relais et que l’État assure dorénavant la protection sociale de sa population plutôt que de la laisser aux bons soins des employeurs.

Et alors…

Cette étude est assez renversante. Tout d’abord, je n’avais aucunement conscience de la diminution du nombre de sociétés publiques aux États-Unis, encore moins de l’ampleur de cette baisse. En conséquence, je ne pouvais bien sûr pas connaître les facteurs qui expliquaient cette baisse. Mais, surtout, je ne savais pas que cette baisse est un des facteurs importants de la hausse des inégalités aux États-Unis et surtout de la précarisation de l’emploi dans ce pays. On peut bien se dire que ce phénomène, s’il est semblable au Canada, ne pourrait pas nous toucher autant parce que notre filet social est davantage de la responsabilité des programmes publics que des employeurs, mais il y a quand même de quoi s’inquiéter quand on sait que ce qui se passe dans ce pays a toujours de l’influence chez nous. L’effet sur la précarisation pourrait par exemple aussi se faire sentir ici. Comme si nous n’avions pas déjà suffisamment de matière à s’inquiéter avec ce qui se passe dans ce puissant pays voisin…

L’économisme

6 mars 2017

economismeJ’ai dû lire au moins une dizaine de mentions favorables sur le livre Economism de James Kwak avant de me décider à le réserver à la bibliothèque. C’est ce billet de Noah Smith qui m’a finalement convaincu de le lire. Smith prétend que le livre de Kwak, tout en étant pertinent dans ses dénonciations de la façon dont est enseignée et exercée l’économie, va trop loin en prétendant que cela «(traduction) reflète les croyances de certains groupes d’intérêt et servent leurs buts». J’ai tendance moi aussi à ne pas attribuer les errances des économistes orthodoxes à ce genre d’objectif, mais cette affirmation m’a porté à aller vérifier si le livre de Kwak verse vraiment dans ce genre d’excès de mise en récit de l’économie. Et de toute façon, les critiques des fondements de l’économie orthodoxe m’intéressent tout le temps…

Avant-propos : Simon Johnson explique pourquoi une grande partie de la population considère la situation économique et politique déplorable dans les pays riches, même si, selon les bases de la théorie économique orthodoxe, la population n’a jamais été aussi choyée.

1. Le meilleur des mondes possibles : Alors qu’on promettait un paradis après la mort pour faire accepter les inégalités de richesses au XVIIIe siècle et qu’on utilisait le darwinisme social au XIXe aux mêmes fins (la survie du plus fort ou du plus brillant serait la source de tout progrès), on tente de nos jours de convaincre la population que ces inégalités sont l’état optimal de l’économie selon les cours de base de l’économie 101, puisque les revenus correspondent toujours à l’apport d’une personne à l’économie. Toute intervention de l’État ne peut que nuire à la croissance, donc au bien-être de tous. Pour l’auteur, l’économisme est «l’invocation des leçons d’économie de base pour expliquer tous les phénomènes sociaux».

L’auteur poursuit en soulignant que la plupart des économistes savent bien que les hypothèses derrière la théorie orthodoxe sont irréalistes et qu’ils sont nombreux à plutôt chercher des preuves empiriques. Par contre, l’économie est toujours enseignée de la même façon et les mises en récit basées sur la théorie orthodoxe (l’impôt tue l’impôt, une hausse du salaire minimum nuit aux personnes qu’on veut aider, le gouvernement est inefficace, etc.) à force d’être répétées ont toujours une aura de vérité.

2. La magie du marché : L’auteur présente tout d’abord le principe (je ne parviens pas à écrire «la loi»…) de l’offre et de la demande. Il montre ensuite que ce principe mène inévitablement à accroître les inégalités et les injustices. Par exemple, dans le cas d’une épidémie, ce ne serait pas les gens qui ont le plus besoin d’un vaccin qui les recevraient (femmes enceintes, enfants, personnes âgées, etc.), mais les gens qui ont le plus les moyens de se le procurer (il donne beaucoup d’autres exemples).

3. La longue marche de l’économisme : Après avoir cité Keynes et Hayek sur le fait que les idées l’emportent sur les intérêts personnels dans l’établissement d’une vision de l’économie, Kwak affirme tout de même qu’une idée doit avantager un groupe social pour s’imposer. «L’économisme existe parce que des personnes et des organisations ont vu comment ils pouvaient utiliser les principes économiques de base à leur avantage». Comme je l’ai mentionné dans l’amorce de ce billet, tout comme Noah Smith, j’appuie Keynes et Hayek à ce sujet.

Kwak prétend par exemple que ce sont les riches et les puissants qui ont combattu les premiers l’interventionnisme gouvernemental des Trente glorieuses. Je considère plutôt que ce sont des penseurs comme Hayek et Friedman, notamment en fondant la Société du Mont Pélerincomposée d’économistes (…), d’intellectuels ou de journalistes»), qui ont le plus fortement contesté l’interventionnisme gouvernemental. Bien sûr, les riches et les puissants les ont appuyés, créant des «think tank» et finançant des politiciens conservateurs et même des départements d’économie qui enseignaient la théorie orthodoxe, mais les initiateurs furent toujours des penseurs qui croyaient vraiment que leur vision était la meilleure. Et c’est d’ailleurs ce que raconte ce chapitre, mais en concluant étrangement que ce fut l’appui des riches et des puissants qui fut primordial. On voit donc que, malgré un désaccord sur l’élément initiateur de la démarche, nos positions ne sont pas foncièrement antagonistes. L’auteur montre ensuite avec pertinence que l’économisme a fini par atteindre aussi les partis dits de gauche, comme si une seule option existait, celle qui correspond aux préceptes de l’économie 101…

4. Vous obtenez ce que vous méritez : Selon la théorie orthodoxe, l’existence même d’un salaire minimum ferait perdre des emplois. Son augmentation aurait donc des effets désastreux. Or, les études empiriques ne montrent rien de tel. En effet, la théorie orthodoxe ne considère que les effets d’une hausse du salaire minimum sur l’offre et la demande (baisse de la demande et hausse de l’offre, négligeant souvent cette dernière qui peut être bénéfique sur l’emploi en période de difficultés de recrutement), sans tenir compte du faible rapport de force des travailleurs face à celui des employeurs ni de ses effets sur la baisse du roulement de personnel, la hausse de la productivité, l’augmentation du pouvoir d’achat des travailleurs au salaire minimum, etc. Elle néglige aussi de souligner les effets positifs d’une telle hausse sur la pauvreté et surtout sur les inégalités de revenu. Elle fournit plutôt un modèle simple (et simpliste) et facile à comprendre pour appuyer les intérêts des entreprises, des politiciens et des puissants qui s’opposent à cette hausse, modèle qui sert aussi à justifier les attaques contre le syndicalisme, alors que la baisse du taux de syndicalisation aux États-Unis explique, selon les études, entre le cinquième et le tiers de la hausse des inégalités depuis 40 ans.

De même, la théorie orthodoxe prétend que le salaire d’une personne est déterminé par sa productivité. Or il est clair depuis au moins 40 ans que ce n’est pas le cas, car les salaires augmentent à un rythme bien moins élevé que la productivité. On se sert aussi de cet argument pour justifier la rémunération exorbitante des pdg, alors que personne n’est en mesure de calculer la productivité spécifique à un seul individu. Et, la chance ne joue selon elle aucun rôle dans le succès d’une entreprise ou dans la richesse d’un individu, alors qu’elle est en fait bien souvent déterminante.

5. Il n’y a que les incitatifs : Selon l’économie orthodoxe, les taxes et les impôts sont toujours nuisibles à l’économie. Les taxes sur les biens et les services les rendent plus chers, l’impôt sur les sociétés fait réduire les investissements et celui sur les revenus des particuliers réduit l’incitation au travail (même si en fait on doit travailler davantage pour obtenir le revenu désiré). Cette théorie omet de considérer de nombreux autres effets des taxes et impôts, notamment qu’ils permettent à l’État d’offrir des biens et services à la population et de leur transférer des revenus, actions qui stimulent l’activité économique. Cette théorie prétend en plus que les taxes et les impôts sont encore plus dommageables lorsque appliqués aux revenus des plus riches, car ils sont les plus productifs et les véritables créateurs d’emploi… Pourtant, aucune donnée empirique ne va dans ce sens, quelle que soit l’affirmation sur le rôle des taxes et des impôts sur l’épargne, l’emploi, les heures travaillées (par les riches ou le reste de la population) et la croissance.

L’économie orthodoxe ne tient pas compte non plus de l’utilité marginale décroissante des revenus. Une personne qui gagne 1 million $ par année ne verra son bien-être n’augmenter que très peu, voire pas du tout, si son revenu augmente de 10 000 $, tandis que cette somme augmentera beaucoup le bien-être d’une famille ayant un revenu de 30 000 $ par année. Les politiques de redistribution permettent donc de faire croître le bien-être global d’une société.

6. Le consommateur est celui qui connaît le mieux ce qui est bon pour lui : Selon les préceptes de l’économisme, le meilleur système de santé en serait un qui fonctionnerait sans intervention de l’État et même sans assurance privée. Ainsi, le citoyen ne consommerait que les services de santé qu’il jugerait valoir le montant qu’il paierait. L’auteur démonte habilement cette vision en montrant que ce marché n’est pas comme les autres. Sa démonstration est tellement bien présentée qu’il serait très long de simplement la résumer. Disons seulement qu’il en arrive à la conclusion que, si l’Obamacare est nettement une meilleure solution que le laisser-faire, il serait encore mieux de se débarrasser de cette réglementation complexe et de faire comme tous les autres pays industrialisés le font, soit de se doter d’un système de santé public.

7. Le capital n’a aucun lien : L’économisme n’aime pas la réglementation qui défavoriserait, selon ses préceptes, l’allocation la plus efficace des ressources. Il a réussi à faire éliminer de grands pans de la réglementation du secteur financier, avec le grand succès de l’allocation efficace des ressources lors de la crise débutée en 2007 (j’ironise bien sûr et je résume férocement ce chapitre)…

8. C’est un petit monde après tout : Selon la théorie orthodoxe, le commerce international est toujours une bonne chose. Kwak explique cette conclusion en présentant le principe des avantages comparatifs (un des concepts économiques parmi les plus difficiles à comprendre selon Paul Krugman, qui a reçu le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel justement en présentant une théorie qui s’éloigne de ce concept, tout en demeurant favorable au commerce international). Mais, s’il y a des gagnants, il y a aussi des perdants. Une opératrice de machine à coudre ne deviendra pas une machiniste ou une ingénieure en aérospatial en criant ciseaux!

Après avoir cité des études (dont celle dont j’ai parlé dans ce billet) qui montrent que l’accroissement du commerce international avec la Chine a été désastreux dans certaines régions des États-Unis (notamment en raison du manque de mobilité professionnelle et géographique des travailleurs) et a eu un impact négatif sur les inégalités de revenus, l’auteur s’attarde sur les ententes commerciales modernes, comme le Partenariat transpacifique (PTP). En fait, ce type d’entente a peu à voir avec le commerce (les tarifs sont déjà très faibles), mais beaucoup avec d’autres réglementations (environnement, travail, propriété intellectuelle, etc.) et avec les modes de règlement des différends. Dans ce dernier cas, il s’agit de permettre aux entreprises de poursuivre des pays si leurs décisions prises démocratiquement ont le potentiel de nuire à leurs intérêts. L’auteur a bien raison de dire que ces clauses n’ont rien à voir avec le commerce, mais tout à voir avec un privilège octroyé aux grosses entreprises et avec une attaque contre la souveraineté des pays signataires.

9. Le meilleur monde possible – pour qui? : L’auteur conclut que l’économisme ne crée qu’une catégorie de gagnant, celle des riches et puissants. Un peu plus nuancé ici qu’au début du livre, il avance que «Avec les contributions aux campagnes électorales, les liens sociaux (avec les économistes et les politiciens) et le prestige culturel, il (l’économisme) est une des raisons pour lesquelles le système politique américain est si ouvert à répondre aux désirs des très riches».

Il conteste aussi le supposé arbitrage entre la croissance et la lutte contre les inégalités en citant des études (dont certaines que j’ai déjà présentées sur ce blogue) qui montrent que les inégalités nuisent en fait à la croissance. Il suggère de modifier l’enseignement de l’économie pour laisser plus de place à d’autres écoles de pensée (institutionnalisme, économie comportementale, etc.), aux défaillances du marché et aux études empiriques. Il termine son livre en insistant sur l’importance de présenter d’autres aspects de la vie en société que la seule croissance économique, en se basant par exemple sur les aspirations collectives et le plaisir de vivre.

Et alors…

Lire ou ne pas lire? Oui, sans hésitation! Je ne peux pas dire que j’ai appris beaucoup de choses avec ce livre, mais il est toujours bon de revoir sous différents angles les concepts qu’il aborde. L’auteur s’exprime clairement, vulgarise très bien et présente des exemples pertinents. Ses explications sur les bases de ce qu’il appelle l’économisme (et moi la théorie orthodoxe) sont parmi les plus faciles à comprendre que j’ai vues. La seule partie que j’aurais aimée plus consistante est celle où il présente ses solutions. C’est bien beau de vouloir changer le contenu des cours d’économie et enlever du pouvoir aux riches et puissants, mais il ne dit pas comment atteindre ces objectifs. Finalement, les notes sont à la fin. Heureusement, il s’agit presque uniquement de sources (mais, seulement presque, ce qui nous force à les consulter quand même), certaines explications supplémentaires étant en bas de page (bravo!). Bref, sans être un chef-d’œuvre, ce livre est de très bon niveau!

La politique de l’enfant unique en Chine

4 mars 2017

enfant-unique-en-chineLa politique de l’enfant unique en Chine a été instaurée en 1979 et abolie à la fin de 2015. Elle consistait à pénaliser les parents de plus d’un enfant pour éviter la surpopulation de la Chine. On a bien sûr déjà entendu parler de certains de ses effets, dont l’augmentation de la proportion de naissances masculines (le nombre de naissances masculines par 100 naissances féminines serait passé de 106 en 1979 à 116 en 2010), mais je n’ai jamais lu d’étude sérieuse sur son impact sur le nombre de naissances et sur d’autres effets sociaux. Une étude récente de Junsen Zhang, professeur d’économie à l’Université chinoise de Hong Kong, intitulée The Evolution of China’s One-Child Policy and Its Effects on Family Outcomes (L’évolution de la politique de l’enfant unique en Chine et ses effets sur les caractéristiques familiales) aborde justement ce sujet.

Introduction

Il n’est pas aussi facile qu’on pourrait le penser d’évaluer l’impact de la politique de l’enfant unique en Chine. En effet, cette politique fut précédée par d’autres mesures de planification familiale dans les années 1970. En plus, cette politique fut mise en œuvre en même temps que des réformes politiques qui ont entraîné une forte croissance économique ayant aussi des effets sur le taux de fécondité. En plus, l’application de cette politique a grandement varié entre les régions de la Chine. Il est donc difficile de dégager l’impact spécifique de cette politique.

Évolution des politiques familiales en Chine

Mao Zedong a eu des politiques contradictoires dans le domaine de la planification des naissances. Dans les années 1940, il plaidait pour une forte croissance de la population, a appuyé des mesures de planification familiale dans les années 1950, mais a de nouveau encouragé la croissance de la population vers la fin de cette décennie (lors du Grand Bond en avant). D’ailleurs, juste après la Grande famine (de 1958 à 1961), le taux de fécondité a bondi à plus de six enfants par femme. Alors, le gouvernement est revenu avec des politiques de planification des naissances dans les villes et les régions rurales densément peuplées. Un peu plus tard, on a étendu cette politique à tout le territoire. On a lors assisté à un nouveau revirement lors de la Révolution culturelle (pas celle de Raymond Bachand…) à la fin des années 1960, où la politique de planification des naissances fut remise en question puis réintroduite au début des années 1970, sous les slogans «Un enfant n’est pas insuffisant, deux sont très bien, et trois sont trop nombreux» et «Plus tard, plus longtemps et moins». «Plus longtemps» veut dire ici plus de temps entre les naissances. Résultat, le taux de fécondité a diminué de moitié entre 1971 et 1978. La participation à cette campagne était théoriquement volontaire, mais présentait des éléments coercitifs. On a envoyé des planificateurs familiaux dans toutes les régions pour enregistrer plein de détails sur les familles : âge de la mère lors des naissances et, s’il y a lieu, des naissances antérieures, utilisation de contraceptifs, mortalité intra-utérine, stérilisations, avortements et même des précisions sur le cycle menstruel de chaque femme!

Après la mort de Mao en 1976, Deng Xiaoping, partisan de la planification des naissances depuis longtemps (il fut à l’origine des premières mesures dans ce sens prises dans les années 1950) qui a pris le pouvoir en 1978, considérait avec l’appui d’autres leaders du pays que les mesures en vigueur étaient trop timides. En plus, les deux tiers de la population avait moins de 30 ans et les femmes nées lors de l’explosion des naissances de la fin des années 1950 entraient dans leurs années de fertilité. Les autorités, visant une amélioration de la croissance économique et du niveau de vie, jugeaient essentiel de prendre des mesures plus contraignantes pour contrôler les naissances.

C’est d’ailleurs dès 1979 que fut adoptée la politique de l’enfant unique, prévoyant des mesures juridiques, économiques et administratives contre les contrevenants. Les dirigeants locaux et régionaux recevaient des incitatifs importants s’ils atteignaient les objectifs de la politique. Malgré toutes ces mesures, la résistance était forte dans certains milieux, surtout ruraux. La politique fut assouplie vers le milieu des années 1980, en prévoyant 14 exceptions à la politique, la plus importante consistant à permettre un deuxième enfant pour les familles rurales ayant une fille… Le résultat fut une légère hausse du taux de fécondité de 1984 à 1986, ce qui a porté les autorités à resserrer à nouveau les critères de la politique. Par la suite, son application est demeurée plus stable.

Même si la politique visait la Chine entière, son application variait selon les personnes chargées responsables de son respect, les régions et les ethnies. Elle était par exemple plus facile à appliquer de façon stricte dans les régions urbaines, mais moins dans les régions rurales et auprès des minorités ethniques.

Tendances des taux de fécondité en Chine et dans certains pays: 1960-2010

Le graphique qui suit présente l’évolution des taux de fécondité entre 1960 et 2010 dans la Chine rurale (ligne rouge), dans la Chine urbaine (ligne bleue) et dans quelques autres pays en développement : Corée du Sud (ligne bleu pâle), Thaïlande (ligne orange), Mexique (ligne verte) et Inde (ligne violette).

enfant-unique-en-chine1

Le graphique montre bien que le taux de fécondité a diminué grandement dans tous ces pays depuis les années 1970, peu importe les politiques de planification familiale adoptées dans ces pays. On remarquera aussi que les taux de fécondité de la Corée du Sud et de la Thaïlande ont diminué à peu près au même rythme que ceux de la Chine, leur taux se retrouvant dans les années 2000 entre ceux de la Chine rurale et de la Chine urbaine. Pourtant, ces pays n’ont jamais adopté de politiques de contrôle des naissances aussi sévères que celle de la Chine. Par contre, ce fut les deux pays qui ont connu les croissances économiques les plus fortes au cours de cette période. Le taux de fécondité a aussi diminué fortement au Mexique et en Inde, mais beaucoup moins que dans les quatre autres pays, leur taux se retrouvant en 2010 près de deux fois plus élevé (autour de 2,5 enfants par femme par rapport à entre 1 et 1,5). Ce sont aussi les pays qui ont connu les taux de croissance économique les moins élevés. Comment alors isoler l’impact spécifique de la politique de l’enfant unique?

L’auteur examine ensuite plus attentivement les deux courbes de la Chine. Les deux ont augmenté en flèche entre 1961 et 1963 au lendemain de la Grande famine (de 1958 à 1961). Le taux de fécondité est demeuré élevé jusqu’en 1970 et a diminué très fortement entre 1970 et 1978 (de plus de 6 à un peu moins de 3 en Chine rurale, et de plus de 3 à environ 1,5 en Chine urbaine), soit juste avant l’adoption de la politique de l’enfant unique. Si le taux de fécondité a continué à diminuer par la suite (si ce n’est la légère hausse mentionnée auparavant entre 1984 et 1986), il est demeuré assez stable entre 1990 et 2010. Cette évolution laisse penser que la politique de l’enfant unique a peut-être eu un certain effet à ses débuts, entre 1979 et 1990, mais guère par la suite. Encore là, la forte baisse observée au cours des mêmes années en Corée du Sud et en Thaïlande pourrait signifier que la croissance économique a peut-être influencé davantage ces baisses que la politique de l’enfant unique. Assez étrangement, les politiques moins coercitives de planification des naissances dans la Chine des années 1970 semblent avoir eu plus d’effets, car la croissance économique fut bien faible en Chine au cours de cette décennie.

Et alors…

Le reste de l’étude présente différentes études pour isoler l’effet de la politique de l’enfant unique sur la baisse du taux de fécondité, sur la scolarité, les divorces et d’autres questions sociales (comme le taux d’activité et la migration rurale), mais ces études ne sont pas vraiment concluantes ou ne trouvent que de faibles effets, pas toujours significatifs. Ces études ne sont pas inintéressantes, ne serait-ce que parce qu’elles montrent la difficulté d’isoler un seul facteur dans des transformations profondes de sociétés complexes comme celle de la Chine.

De toute façon, si j’ai décidé de parler de cette étude, c’est essentiellement pour sa première partie, je dirais même surtout pour le graphique que j’ai présenté. Comme bien du monde, j’étais convaincu de l’impact majeur de la politique de l’enfant unique. Mais, mis à part ses conséquences indéniables sur la surreprésentation des garçons, il n’est vraiment pas évident que cette politique a eu les effets qu’on lui prête sur son objet premier, la réduction des naissances. Juste pour cela, cette étude est importante.

Par contre, j’ai déploré qu’elle n’aborde pas suffisamment les aspects éthiques de cette politique. Il est assez renversant qu’un État mené par une poignée de personnes puisse adopter ce genre de politique qui intervient dans une des décisions les plus personnelles de nos vies dans un pays d’une telle population, sans aucun débat. Sur cet aspect de la question, je vais laisser le mot de la fin à un des auteurs d’une autre étude citée par l’auteur :

«L’histoire se souviendra de la politique de l’enfant unique de Chine comme l’exemple le plus extrême de l’intervention de l’État dans la reproduction humaine à l’époque moderne. L’histoire considérera probablement cette politique comme une erreur, née de l’héritage d’un système politique qui planifiait sa population de la même manière qu’elle le faisait pour la production de biens. Cet exemple fait ressortir l’impact d’un processus d’élaboration de politiques qui, en l’absence de délibérations publiques, de transparence, de débat et de responsabilisation, peut causer des dommages permanents aux membres d’une société.»