Aller au contenu principal

Trois études sur le salaire minimum

24 juillet 2019

Ça fait maintenant 10 mois que je n’ai pas écrit de billet sur le salaire minimum. J’ai par contre lu récemment trois études sur le sujet. J’ai pris connaissance des deux premières grâce au blogue Economist’s View de Mark Thoma, et de la troisième de nombreuses sources différentes. Ces études me semblent chacune apporter un éclairage complémentaire sur le sujet.

Première étude

La première étude qui a attiré mon attention est intitulée Can Economic Policies Reduce Deaths of Despair? (Les politiques économiques peuvent-elles réduire la mortalité de désespoir?) et date d’avril dernier. Les auteur.es, quatre professeur.es de l’University of California, Berkeley associé.es à l’Institute for Research on Labor and Employment (William H. Dow, Anna Godøy, Christopher A. Lowenstein et Michael Reich), mentionnent en introduction que «le taux de décès par surdose de drogue ajusté selon l’âge a augmenté de 256 % entre 1999 et 2017, tandis que le nombre de suicides a augmenté de 33 %», surtout chez les Blanc.hes non Hispaniques peu scolarisé.es (phénomène dont j’ai parlé dans ce billet). Comme les facteurs les plus mentionnés dans les études sur le sujet tournent autour de la détérioration de la situation économique et sociale de ces personnes, les auteur.es ont voulu savoir si une hausse du salaire minimum et du crédit d’impôt pour le revenu de travail (Earned Income Tax Credit ou EITC, voir ce billet), deux politiques économiques qui augmentent les revenus des personnes à faible revenu, pourrait contribuer à réduire ce type de mortalité.

Pour évaluer l’impact de ces deux programmes sur ce qu’ils appellent la mortalité de désespoir (due à des surdoses de drogue, à des suicides et à des maladies liées à la consommation d’alcool), les auteur.es étudient l’évolution du niveau de ces deux programmes dans chacun des États des États-Unis entre 1999 et 2015. Ils et elle lient cette évolution avec la mortalité et ses causes (surdoses et suicides uniquement, car les décès dus à des maladies liées à la consommation d’alcool prennent des années à se développer et sont peu susceptibles d’être influencés rapidement par ce genre de politique), ainsi qu’avec l’ethnie, l’âge, le sexe et le niveau de scolarité (et d’autres facteurs qu’il serait long à énumérer). Ils et elle utilisent la méthode des différences dans les différences pour estimer l’impact des variations dans les niveaux de ces deux programmes.

Cette étude permet de dégager les constats suivants :

  • une hausse de 10 % du salaire minimum diminuerait le nombre de suicides de 3,6 % (4,6 % chez les femmes et 2,3 % chez les hommes) chez les personnes n’ayant pas de diplôme postsecondaire;
  • une hausse de 10 % du crédit d’impôt pour le revenu de travail les réduirait de 5,5 % (7,4 % chez les femmes et à 3,3 % chez les hommes) chez les personnes n’ayant pas de diplôme postsecondaire;
  • l’impact plus grand chez les femmes s’explique par le fait qu’elles sont plus nombreuses à travailler au salaire minimum et à recevoir des crédits d’impôt pour le revenu de travail;
  • l’impact plus grand du crédit d’impôt s’explique par le fait qu’il n’est reçu que par les familles à faible revenu, alors que des travailleur.euses au salaire minimum peuvent vivre dans des ménages à revenus moyens ou élevés;
  • ces deux hausses éviteraient environ 1200 suicides annuellement;
  • l’effet de la hausse du salaire minimum est sensiblement le même dans tous les groupes ethniques, mais celui de la hausse du crédit d’impôt est plus marqué chez les personnes racisées (8,1 % par rapport à 5,1 % chez les Blanc.hes non Hispaniques);
  • ces hausses n’ont aucun effet sur la mortalité des titulaires de diplômes postsecondaires, ce qui est normal (et rassurant sur la pertinence des résultats de l’étude), parce qu’ils et elles sont très peu touché.es par ces programmes;
  • ces mesures n’ont toutefois pas d’impact significatif sur la mortalité due à la consommation de drogue, probablement parce que cette mortalité s’explique surtout par la plus grande disponibilité des opioïdes illégaux, notamment du fentanyl et de l’héroïne.

Les auteur.es procèdent à divers tests pour s’assurer que les effets observés sont dus à ces deux programmes. Ils et elle montrent ensuite que ces résultats sont cohérents avec d’autres études portant sur le lien entre les politiques économiques et la santé et les comportements connexes, puis concluent que «les constats de cette étude suggèrent que les effets positifs d’une hausse du salaire minimum et du crédit d’impôt pour le revenu de travail sont plus importants qu’on ne le pensait auparavant et que ces politiques économiques peuvent aider à faire diminuer le nombre de décès par désespoir».

Notons qu’un résumé de cette étude a été publié récemment (7 juillet) par les auteur.es et que le Journal de Montréal lui a consacré un article en mai dernier.

Deuxième étude

La deuxième étude que je vais présenter est intitulée Minimum Wage Effects in Low-Wage Areas (Les effets du salaire minimum dans les régions à bas salaire) et date du début juillet 2019. Les auteur.es de cette étude (Anna Godøy et Michael Reich) ont aussi participé à la précédente. Il et elle tentent ici d’estimer les conséquences d’une hausse du salaire minimum fédéral aux États-Unis de 7,25 $ à 15,00 $ en 2024 (finalement en 2025, selon un projet de loi adopté la semaine dernière par la Chambre des représentants, projet qui a toutefois une probabilité nulle d’être adopté au Sénat et donc d’entrer en vigueur) dans les États où les salaires médians sont les moins élevés. Par exemple, le salaire minimum sur le salaire médian atteindrait alors dans certains États un ratio supérieur à 0,70 et dans un cas (Mississippi) à 0,80.

Pour estimer ces conséquences, les auteur.es analysent les données de 2005 à 2017 de plus de 700 comtés («counties») et autres petits territoires. En effet, dans certains de ces territoires, le ratio du salaire minimum sur le salaire médian a déjà atteint des niveaux aussi élevés, c’est-à-dire supérieurs à 0,70 et même à 0,80. Avec ces données, il et elle utilisent, comme dans l’étude précédente, la méthode des différences dans les différences pour analyser l’impact sur les salaires, l’emploi, le chômage et la pauvreté de ratios aussi élevés et aussi de proportions élevées de personnes travaillant au salaire minimum en comparant les données de ces territoires avec celles des territoires où ces proportions et ratios sont plus bas.

Cette étude montre que, en moyenne dans toutes les régions, on observe :

  • des effets positifs sur les salaires (mais plus importants dans les régions où la proportion des salarié.es travaillant au salaire minimum et le ratio du salaire minimum sur le salaire médian sont élevés);
  • aucun effet sur l’emploi et les heures travaillées;
  • une baisse de la pauvreté dans les régions où la proportion des salarié.es travaillant au salaire minimum et le ratio du salaire minimum sur le salaire médian sont élevés, mais pas dans les autres régions;
  • les effets positifs sur les salaires sont plus importants chez les personnes peu scolarisées, chez les adolescent.es, chez les femmes et chez les personnes racisées, toutes des personnes qui travaillent plus souvent au salaire minimum que le reste de la population, toujours sans effet négatif sur l’emploi et les heures travaillées.

Les auteur.es présentent quelques facteurs qui peuvent expliquer qu’une hausse du salaire minimum ne fasse pas baisser l’emploi comme de nombreux économistes le prétendent encore :

  • la hausse des coûts est compensée par de légères hausses des prix dans les industries les plus touchées, comme la restauration;
  • une hausse du salaire minimum réduit le taux de roulement de la main-d’œuvre (et donc les coûts d’embauche et de formation);
  • les emplois à bas salaires sont concentrés dans les services de proximité, qui ne sont pas touchés par la concurrence internationale;
  • la productivité augmente souvent;
  • la hausse des salaires fait augmenter la demande par la hausse de la consommation.

J’ajouterais qu’un salaire minimum plus élevé attire plus de personnes sur le marché du travail qui peuvent alors pourvoir des postes vacants. Les auteur.es concluent que la littérature qui prétend qu’une hausse du salaire minimum nuit nécessairement à l’emploi, et de plus en plus quand le ratio du salaire minimum sur le salaire médian (ou sur le salaire moyen, comme on le calcule au Québec) dépasse un certain seuil, par exemple 0,45 ou 0,50, comme certaines personnes l’affirment encore, est contredite par les constats de cette étude.

Notons qu’un article portant sur cette étude a été publié récemment sur le site Vox, mais qu’aucun média du Québec ou du Canada n’en a parlé à ma connaissance.

Troisième étude

La dernière étude que je vais présenter fut de loin la plus commentée (notamment par Julia Posca de l’IRIS). Intitulée The Effects on Employment and Family Income of Increasing the Federal Minimum Wage (Les effets sur l’emploi et le revenu familial de l’augmentation du salaire minimum fédéral), elle a été publiée en juillet 2019 par le Congressional Budget Office (CBO), «une agence fédérale américaine faisant partie de la branche législative du gouvernement des États-Unis». Elle vise à examiner «l’incidence sur l’emploi et le revenu familial d’une augmentation du salaire minimum fédéral à 10, 12 ou 15 dollars l’heure d’ici 2025».

Les options à 10 et 12 $ l’heure avantageraient selon le CBO respectivement 3,5 et 11 millions de salarié.es et feraient perdre respectivement zéro et 300 000 emplois (en fait, le rapport parle d’une probabilité de 66,7 % que ces pertes se situent entre 0 et 800 000 emplois, avec une médiane des estimations à 300 000). Il est toutefois plus intéressant de prendre connaissance des conclusions du CBO sur les conséquences d’une augmentation à 15 $ de l’heure en 2025, car c’est l’option qu’a adoptée la Chambre des représentants et la revendication des groupes progressistes depuis quelques années.

Selon le CBO, une hausse du salaire minimum à 15 $ de l’heure en 2025 ferait augmenter les revenus hebdomadaires de 27,3 millions de salarié.es (environ 18 % des salarié.es), soit 17 millions gagnant moins de 15 $ de l’heure et 10,3 millions gagnant un peu plus, mais qui verraient leur salaire augmenter pour garder un écart avec le salaire minimum (effet indirect ou d’émulation). Encore plus intéressant, comme le montre le graphique ci-contre, le revenu annuel des familles ayant un revenu :

  • équivalent ou inférieur au seuil de pauvreté augmenterait de 5,3 %, alors qu’un salaire minimum à 12 $ de l’heure le ferait augmenter de 1,4 % et un à 10 $ de seulement 0,2 %;
  • se situant entre le seuil de pauvreté et 1,49 fois ce seuil augmenterait de 1,9 %, alors qu’un salaire minimum à 12 $ de l’heure ne le ferait augmenter que de 0,4 % et un à 10 $ pas du tout;
  • se situant entre 1,5 et 1,99 fois le seuil de pauvreté augmenterait de 1,2 %, alors qu’un salaire minimum à 12 $ de l’heure le ferait augmenter de 0,2 %;
  • se situant entre 2,0 et 2,99 fois le seuil de pauvreté augmenterait de 0,6 %, alors qu’un salaire minimum à 12 $ de l’heure le ferait augmenter de 0,1 %;
  • se situant entre trois et six fois le seuil de pauvreté demeurerait stable avec les trois niveaux d’augmentation du salaire minimum;
  • d’au moins six fois le seuil de pauvreté diminuerait de 0,3 %, alors qu’un salaire minimum à 12 $ de l’heure le ferait diminuer de 0,1 % et qu’un salaire minimum à 10 $ de l’heure n’aurait aucun effet.

En plus, le taux de pauvreté diminuerait de 1,3 % avec un salaire minimum à 15 $, mais de seulement 0,4 % avec un salaire minimum à 12 $ et demeurerait stable avec un salaire minimum à 10 $. Par contre, une augmentation du salaire minimum à 15 $ ferait perdre 1,3 million d’emplois, avec une probabilité de 66,7 % que ces pertes se situent entre 0 et 3,7 millions emplois, nombre (1,3 million) qui représente 0,8 % de l’emploi total aux États-Unis ou 7 % de l’emploi avec un salaire horaire d’au plus 15 $. Notons que ces pertes d’emplois ainsi que les effets de la hausse des prix que prévoit le rapport (il ne mentionne malheureusement pas l’ampleur de cette hausse, mais selon les données qu’il contient à ce sujet, j’ai calculé que les prix augmenteraient en moyenne de 0,2 %, peut-être de 0,3 %) sont pris en compte dans l’estimation de la variation des revenus familiaux présentée dans le paragraphe précédent.

On pourrait discuter longtemps du bilan de ces avantages et désavantages (27 millions de salarié.es avantagé.es par rapport à 1,3 million désavantagé.es, quoique les désavantagé.es seraient plus désavantagé.es que les avantagé.es seraient avantagé.es, baisse des inégalités et de la pauvreté, etc.), mais, en fait, cette dernière conclusion (perte de 1,3 million d’emplois) a été contestée par de très nombreux économistes :

  • Paul Krugman considère que «le CBO a donné trop de poids à des études douteuses» et que ces études douteuses viennent du fait qu’il existe «une clique d’économistes inflexibles qui refusent d’accepter les preuves empiriques accablantes montrant des effets très faibles sur l’emploi du niveau du salaire minimum»;
  • Arindrajit Dube, lui-même auteur de nombreuses études sur les effets du salaire minimum, juge que les élasticités utilisées par le CBO pour estimer les pertes d’emploi sont «plus pessimistes que ce qui est justifié par le poids de la preuve, en particulier par des études approfondies et de grande qualité», comme la deuxième que j’ai présentée ici qu’il cite;
  • Jared Bernstein, du Center on Budget and Policy Priorities (CBPP), souligne que «la meilleure recherche suggère que leur estimation de perte d’emplois est trop élevée» et que, compte tenu du roulement dans les emplois à bas salaires, la plupart des personnes qui perdraient des emplois en trouveraient d’autres rapidement, peut-être mieux rémunérées;
  • Heidi Shierholz de l’Economic Policy Institute (EPI) affirme elle aussi que «dans le choix des paramètres qui ont abouti à cette conclusion, le CBO n’a pas correctement pondéré les études de la plus haute qualité de la vaste littérature universitaire consacrée à cette question» «étant donné que les études approfondies sur le salaire minimum révèlent en moyenne que les augmentations du salaire minimum ont des effets minimes, voire nuls sur l’emploi».

Si le rapport du CBO souligne qu’il y a «beaucoup d’incertitude quant aux effets sur l’emploi d’une augmentation du salaire minimum», son analyse de ces effets suit le discours des économistes orthodoxes en accordant plus de poids aux facteurs qui désavantagent l’emploi qu’à ceux qui l’avantagent, mais sans jamais fournir de données pour appuyer ses raisonnements théoriques. On peut d’ailleurs lire dans le rapport que «l’élasticité retenue de chaque option [10, 12 ou 15 $] est supérieure à celle de l’augmentation historique moyenne du salaire minimum», justifiant ce non respect des constats historiques par le fait que la hausse du salaire minimum serait annoncée au moins cinq ans avant que le niveau choisi (10 $, 12 $ ou 15 $) soit atteint, laissant plus de temps aux employeurs pour diminuer les emplois. Pourtant, le choc devrait au contraire être atténué…

Et alors…

J’aurais pu aussi parler de l’étude intitulée The Effect of Minimum Wages on Low-Wage Jobs (L’effet du salaire minimum sur les emplois à bas salaire) parue en avril dernier, mais bon, ce billet est déjà assez long et celle-là compte 130 pages… Disons seulement que les auteurs (dont Arindrajit Dube, que j’ai cité plus tôt) n’ont trouvé aucun impact négatif significatif à une hausse du salaire minimum sur le nombre d’emplois à bas salaires en examinant les effets de 138 hausses du salaire minimum aux États-Unis entre 1984 et 2016, sauf dans les industries d’exportation, et même là, avec un effet minime et imprécis. Cela change de l’estimation du CBO!

Bref, si on met à part l’estimation des pertes d’emploi du rapport du CBO, on peut voir que la littérature s’enrichit chaque année de nouvelles études qui tendent de plus en plus à contredire les vieilles conclusions théoriques des économistes orthodoxes. Si certain.es de ces économistes ont depuis accepté les faits, beaucoup d’autres, comme l’a mentionné Paul Krugman, refusent de voir leur théorie se plier ainsi aux faits. Le plus triste est que les politicien.nes qui régissent le salaire minimum écoutent davantage les économistes orthodoxes, à moins que ce ne soit les lobbys des employeurs!

Publicités

Ne sommes-nous pas Québécoises ?

22 juillet 2019

Avec son livre Ne sommes-nous pas Québécoises ?, Rosa Pires fait part des résultats d’une enquête qu’elle a menée «auprès de 10 femmes de la deuxième génération issue de l’immigration afin de sonder leur point de vue sur les inégalités, l’appartenance et la question nationale».

Introduction – Ne suis-je pas Québécoise? : L’autrice explique les raisons pour lesquelles elle a écrit ce livre et a choisi son titre. Elle décrit ensuite les événements qui l’ont menée à un poste à la permanence du PQ et à le quitter. Puis est arrivée la Charte des valeurs… Elle a réalisé que «les inégalités liées aux constructions de sexe, de genre, de classe, d’ethnicité et de race ont engendré un mode d’exclusions et d’inclusions proprement québécois». Pour approfondir sa réflexion, elle a «voulu rencontrer d’autres féministes de la deuxième génération d’immigration» intéressées comme elle «par les débats politiques entourant la citoyenneté».

1. Les oubliées de la citoyenneté : L’autrice montre que les femmes racisées ont longtemps été exclues des débats politiques et féministes au Québec, et que cette exclusion présente des caractéristiques particulières chez les femmes de la deuxième génération d’immigration, car elles sont à la lisière entre la majorité et la minorité.

2. Trajectoires et lieux de passage – la construction d’une identité transculturelle : L’autrice raconte les parcours d’intégration au Québec de ses parents et de ceux des 10 femmes interrogées. Elles expliquent ensuite les événements qui les ont rendus féministes, tout en demeurant critiques du mouvement féministe dominant. Elles abordent ensuite la question de l’identité nationale (québécoise, canadienne, du pays d’origine des parents, immigrante, etc.), mettant de l’avant une forme de transculturalisme et bien d’autres aspects de leurs spécificités.

Je trouve important de préciser que l’autrice accompagne les citations des femmes interrogées d’analyses intéressantes appuyées par des sources nombreuses.

3. Comment la majorité opère une citoyenneté racialisée : «Le Québec n’est pas une société plus raciste que les autres, elle l’est simplement autant que n’importe quelle autre société, dont le Canada (…)». Cette citation d’une des femmes interrogées introduit bien ce chapitre. Et les exemples qu’elles donnent montrent que cette citation est appropriée (euphémisme), dont celui d’une femme voilée qui a été enfermée dans une pièce par sa patronne jusqu’à ce qu’une cliente d’un salon d’esthétique qui n’aimait pas les femmes voilées s’en aille. Elles abordent ensuite :

  • la difficile intégration des femmes racisées (l’auteur utilise aussi le terme «racialisées») au mouvement féministe majoritaire;
  • l’impact du documentaire Disparaître de Lise Payette et Jean-François Mercier;
  • les appuis et les résistances à l’approche intersectionnelle dans le mouvement féministe;
  • leurs réactions à la question «d’où viens-tu»;
  • les concepts d’hospitalité coloniale et d’hospitalité bienveillante;
  • l’absence des femmes racisées dans l’histoire du Québec et dans la sphère médiatique et culturelle.

4. Savoirs politiques et moments de dissonance : L’autrice et les femmes qu’elle interroge discutent cette fois de la politique québécoise. Elles mentionnent «six événements de la politique québécoise qui ont suscité chez elles des moments de dissonance» :

  • le discours de Jacques Parizeau sur l’argent et le vote ethnique (le choc fut encore plus violent pour l’autrice qui travaillait à l’époque à la permanence du PQ et qui siégeait au comité ethnoculturel pour le oui), et les débats entourant la Charte des valeurs dites québécoises (ce fut l’événement qui a suscité chez elles les réactions les plus vives, certaines ayant rompu par la suite avec le PQ et même avec l’idée d’indépendance, comme je le craignais lorsque cette charte a été présentée);
  • la grève étudiante de 2012;
  • les inégalités économiques et le néolibéralisme;
  • l’élection de Pierre Karl Péladeau comme chef du PQ;
  • la crise des accommodements raisonnables;
  • la fermeture des Centres d’orientation et de formation des immigrants (COFI).

Conclusion – À la lisière de la citoyenneté québécoise : Dans cette conclusion, l’autrice se penche sur la contribution que les féministes de la deuxième génération d’immigration peuvent apporter à la conception de la citoyenneté et à la cohésion sociale. Je retiens surtout deux phrases de cette conclusion :

«Les réflexions de ces féministes laissent entrevoir que l’émancipation de toutes les femmes passe par une prise en compte à la fois des différences et des similarités. Si le Nous adossé à une pensée universaliste comporte des pièges pour le vivre-ensemble, le Je de la différenciation peut facilement mener à une désolidarisation s’il n’est pas d’abord ancré dans la lutte contre toutes les formes hégémoniques du pouvoir.»

Et alors…

Lire ou ne pas lire? Lire! Je devrais cesser de dire que j’avais des réticences avant de me procurer un livre, car comme c’est souvent le cas, notamment pour celui-ci, ça devient répétitif. Le thème est en effet semblable à au moins trois livres que j’ai lus cette année. Mais, il m’a séduit. Tout d’abord, comme mentionné plus tôt, l’autrice accompagne toujours les réflexions des femmes qu’elle a interrogées de sources plus générales qui permettent de les mettre en contexte et de les appliquer de façon plus large que celle de l’opinion d’une dizaine de personnes. Ensuite, le texte est clair et agréable à lire. Puis, on se reconnaît facilement dans les événements qui ont marqué l’évolution de la pensée sociale et politique de ces personnes. En plus, les notes sont en bas de page!

Prévisions démographiques et vieillissement

18 juillet 2019

L’Institut de la statistique du Québec (ISQ) a publié la semaine dernière son nouveau scénario de prévisions démographiques, de 2016 à 2066. Les médias se sont contentés de présenter les grandes lignes de ces résultats, sans comparer ces prévisions à celles des scénarios antérieurs (2003, 2009 et 2014) et sans préciser que l’ISQ a en fait publié trois scénarios de prévisions (plus quatre scénarios d’analyse). Je compte ici combler cette omission.

Lorsque j’ai présenté les données des scénarios de 2009 (en février 2012) et de 2014 (en septembre 2014), j’ai débuté mes billets avec une citation d’un livre de Luc Godbout, Pierre Fortin, Matthieu Arseneau et Suzie St-Cerny publié en 2007, Oser choisir maintenant, citation que je reproduis ici :

«Au Québec, d’ici 2031, le nombre d’aînés augmentera de plus d’un million alors que le bassin de travailleurs potentiels diminuera de 500 000. Ce n’est pas de la météo, ce sont les données de l’Institut de la statistique du Québec».

J’ai montré que cette baisse de 500 000 chez les personnes âgées de 20 à 64 ans (travailleur.euses potentiel.les) prévue dans le scénario de référence de 2003 entre 2013 (le sommet prévu) et 2031 s’était transformée en une baisse de 222 000 dans le scénario de 2009 et de 131 000 dans celui de 2014, soit une baisse représentant à peine plus du quart de celle prévue en 2003. La parution du nouveau scénario par l’ISQ permet de voir ce qu’il en est maintenant. Il est certain que des prévisions démographiques sont plus solides que des prévisions météorologiques, car basées sur un stock de départ important (la population lors de l’année de base), mais, contrairement à ce que disaient les auteurs de Oser choisir maintenant, ce ne sont pas des données, mais bien des prévisions.

Hypothèses des scénarios de référence

Les prévisions démographiques, comme toutes prévisions, sont basées sur des hypothèses. Or, le choix des hypothèses a une grande importance sur les prévisions. Le tableau ci-contre indique justement les principales hypothèses des scénarios de référence (ou moyen) des prévisions de l’ISQ de 2003 (page 8), 2009 (page 20), 2014 (page 12) et 2019 (page 15). La première ligne présente les hypothèses sur l’indice synthétique de fécondité. On peut voir que la prévision de cet indice a augmenté dans les scénarios de 2009 et 2014 (de 1,50 en 2003 à 1,70 en 2014), mais qu’elle a diminué dans celui de 2019 (1,60).

La ligne suivante est directement liée à l’évolution du «bassin de travailleurs potentiels». En effet, les gens qui immigrent au Québec font en grande majorité partie de ce bassin dès leur arrivée (environ 65 % des personnes qui ont obtenu leur statut d’immigrant entre 2013 et 2017 avaient entre 25 et 64 ans, voir la page 29). La prévision du solde migratoire international passe de 28 000 dans le scénario de 2003 à 46 000 dans celui de 2019, une hausse de 18 000 personnes ou de 64 %. Sur la troisième ligne, on peut constater que la prévision du solde migratoire interprovincial est demeurée la même en 2003 et en 2019. Notons que depuis 2009, le scénario prévoit aussi l’effectif des résident.es non permanent.es (formé.es surtout de travailleur.euses étranger.ères temporaires, d’étudiant.es étranger.ères et de revendicateur.trices du statut de réfugié, dont environ 90 % font partie du «bassin de travailleurs potentiels»). Les prévisions de cet effectif sont passées d’un niveau fixe de 80 000 dans le scénario de 2009, à 130 000 dans celui de 2014 et à 258 000 dans celui de 2019. Même si cette hausse est importante, comme les scénarios prévoient des niveaux fixes (à partir de 2026 dans le scénario de référence de 2019), elle a un impact limité sur les prévisions de la population et du «bassin de travailleurs potentiels».

Hypothèses des scénarios de 2019

Comme mentionné en amorce, l’ISQ publie en fait trois scénarios de prévisions démographiques. Ces scénarios reposent bien sûr sur des hypothèses différentes, comme on peut le voir dans le tableau ci-contre :

  • indice synthétique de fécondité (ISF) : le scénario de référence le situe aux niveaux réels de 2017 (1,60) et 2018 (1,59), niveaux qui correspondent aussi à la moyenne des 20 dernières années, tandis qu’on le diminue et l’augmente de 0,15 dans les scénarios faible et fort, en faisant réduire et augmenter le niveau actuel pour atteindre 1,45 (niveau récent le plus bas, soit en 2000) et 1,75 (niveau récent le plus élevé, soit en 2008 et en 2009) en 2026, et en conservant ces niveaux par la suite;
  • solde migratoire international : la prévision du solde migratoire international du scénario fort est plus de deux fois plus élevée (63 000, soit 70 000 immigrant.es et 7000 émigrant.es) que celle du scénario faible (29 000, soit 40 000 immigrant.es et 11 000 émigrant.es). Le scénario faible d’immigration est basé sur l’hypothèse que le niveau d’immigration prévu en 2019 (40 000) se maintiendrait, celui de référence (46 000, soit 55 000 immigrant.es et 9000 émigrant.es) sur le fait que le niveau de 2019 augmenterait graduellement à 55 000 et se maintiendrait à partir de 2026 (notamment en raison de la hausse des cibles du gouvernement fédéral), et le scénario fort qu’il atteindrait 70 000 en 2026 (19 % de la cible du gouvernement fédéral) pour demeurer à ce niveau ensuite. Les hypothèses d’émigration reposent sur les observations minimales, moyennes et maximales des dernières années;
  • solde migratoire interprovincial : l’hypothèse de référence du solde migratoire interprovincial (-9000) repose sur la moyenne des 15 dernières années, l’hypothèse forte (-4 000) représente la moyenne des cinq années présentant les valeurs les plus élevées (ou les moins négatives) au cours des 15 dernières, et l’hypothèse faible (-14 000) celle des cinq années avec les valeurs les plus faibles. Comme le niveau observé en 2017 et 2018 était en moyenne d’environ 6360, les niveaux prévus seraient atteints graduellement en 2021.
  • résident.es non permanent.es (prévisions non illustrées) : le nombre de résident.es non permanent.es a augmenté fortement récemment (par exemple, de plus de 30 000 en 2017 et d’environ 40 000 en 2018). Ainsi, le scénario faible maintient le niveau actuel (188 000 en 2019), celui de référence le fait augmenter graduellement à 258 000 en 2026 (avec maintien de ce niveau par la suite) et le fort à 328 000 la même année.

Je saute les hypothèses sur la mortalité, basées sur l’évolution de l’espérance de vie, avec des hypothèses optimiste, moyenne et pessimiste selon le scénario.

Conséquences

– sur les scénarios de référence de 2003, 2009, 2014 et 2019

Les deux graphiques qui suivent montrent l’effet des hypothèses des scénarios de référence de 2003, 2009, 2014 et 2019 sur l’évolution de la population totale du Québec et de celle des personnes âgées de 20 à 64 ans. Les prévisions de 2003 et 2009 ne sont plus sur le site Internet de l’ISQ, mais proviennent de fichiers que j’avais enregistrés à l’époque. Malheureusement, je n’avais conservé du scénario de 2003 que les données régionales qui ne couvrent pas toute la période de prévision. J’ai pu obtenir la prévision de fin de période (2051) dans le document analytique qui, lui, est toujours sur Internet. Notons que j’ai utilisé les données réelles (le fichier Excel intitulé «Population du Québec par âge et sexe, 1996 à 2018» sur cette page) pour les années 2001 à 2005 dans le scénario de 2009, pour les années 2001 à 2010 pour le scénario de 2014 et pour les années 2001 à 2015 pour le scénario de 2019.

Ce graphique montre l’impact des hypothèses que j’ai présentées plus haut. Alors que le scénario de référence de 2003 prévoyait une baisse de 3,3 % de la population entre 2031 et 2051, les trois scénarios de référence plus récents indiquent plutôt que la population du Québec devrait continuer à augmenter jusqu’à la fin de leur période de prévision. Ainsi, selon le dernier scénario de référence, la population du Québec atteindrait 9,57 millions en 2051, soit 22,3 % de plus que la prévision de 2003 (7,83 millions), mais 2,7 % de moins que prévu dans le scénario de référence de 2014 (9,84 millions). On voit donc qu’il est pertinent de refaire cet exercice à intervalles réguliers.

Comme mentionné plus tôt, la baisse de 500 000 personnes âgées de 20 à 64 ans prévue dans le scénario de référence de 2003 s’est grandement amoindrie dans ceux de 2009 et 2014. Dans celui de 2019, cette baisse se situe à 134 000 personnes, une baisse représentant à peine 27 % de celle prévue en 2003, mais en hausse de 2,6 % par rapport à celle prévue en 2014 (131 000). La prévision du nombre de personnes âgées de 20 à 64 ans en 2051 dans le scénario de 2019 est plus élevée de 23,1 % que celle du scénario de 2003, écart à peine un peu plus élevé que pour l’ensemble de la population (22,3 %). Par contre, l’écart entre les prévisions pour 2061 des scénarios de 2014 et 2019 (0,9 % de moins dans le dernier scénario) est nettement moins élevé que l’écart de ces prévisions pour l’ensemble de la population (3,3 % de moins dans le dernier scénario). Le niveau moins élevé de cet écart s’explique par le fait que les principales différences entre ces deux scénarios sont la baisse de l’indice synthétique de fécondité, qui touche plus les jeunes, et la hausse du solde migratoire (et des effectifs de résident.es non permanent.es) qui avantage surtout les personnes âgées de 20 à 64 ans. D’ailleurs, l’écart de ces prévisions pour les jeunes âgé.es de moins de 20 ans est de 5,9 % et celui des personnes âgées de 65 ans et plus de 6,0 %. En conséquence, le rapport de dépendance, «soit la somme de la population des jeunes (0-19 ans) et des aînés (65 ans et plus) rapportée à la population dite en âge de travailler (20-64 ans)», en 2061 passe de 94,5 dépendant.es par 100 personnes âgées de 20 à 64 ans dans le scénario de 2014 à 89,8 dans celui de 2019.

Le tableau ci-contre montre l’évolution de la population totale, des trois tranches d’âge principales et du rapport de dépendance entre 2016 et 2066 dans le scénario de référence de 2019. On voit que si ce scénario prévoit que la population totale augmentera de 20 % en 50 ans, plus des trois quarts de cette augmentation se réaliseraient chez les personnes âgées de 65 ans et plus. Cette population augmenterait de 85 %, tandis que celle des moins de 20 ans augmenterait de 12 % et celle des 20 à 64 ans de seulement 3,8 %. En fait, cette population diminuerait de 3,1 % entre 2018 et 2030 (pour une moyenne annuelle de -0,26 %), puis augmenterait de 6,3 % entre 2030 et 2066 (ou de 0,18 % par année). En conséquence, la part de la population qui serait âgée de moins de 20 ans passerait de 20,9 % en 2016 à 19,5 % en 2066, celle âgée de 20 à 64 ans de 61,1 % à 52,8 % et celle âgée de 65 ans et plus de 18,0 % à 27,7 %.

Le tableau nous montre aussi que le rapport de dépendance augmenterait de 40 %. Cela dit, il reviendrait à peu près à son niveau de 1971, mais avec une proportion beaucoup plus élevée de personnes âgées et nettement moins élevée de jeunes. En fait, le niveau de dépendance réel sur la population en emploi serait moindre qu’à l’époque, car la proportion de femmes âgées de 20 à 64 ans sur le marché du travail était beaucoup moins élevée en 1971 que de nos jours et que du niveau qu’elle aura probablement en 2066. Par exemple, selon le tableau 14-10-0327-01 de Statistique Canada, le taux d’emploi des femmes âgées de 20 à 64 ans est passé de 42,7 % en 1976 à 75,2 % en 2018 (et était sûrement encore moins élevé en 1971), ce qui montre que la dépendance aux personnes en emploi était bien plus importante à l’époque.

– sur les scénarios faible, de référence et fort de 2019

Le graphique qui suit illustre les prévisions des scénarios faible, de référence et fort de 2019. La population diminuerait de 5,8 % entre 2016 et 2066 selon le scénario faible (ligne bleue), augmenterait de 20,1 % selon le scénario de référence (ligne rouge) et de 46,2 % selon le scénario fort (ligne jaune). On voit donc, encore une fois, que les hypothèses présentées en début de billet ont une très grande influence sur les résultats. D’ailleurs, les hypothèses du scénario de référence de 2009 étaient presque identiques à celle du scénario fort de 2003, et les hypothèses du scénario de référence de 2014 était entre celles des scénarios de référence et fort de 2009, ce qui explique les écarts entre les prévisions des scénarios de référence de ces exercices. Cela montre que le fait de présenter trois scénarios n’est pas un exercice théorique, mais que même les hypothèses les mieux basées peuvent se révéler inexactes et celles plus optimistes ou pessimistes devenir plus pertinentes que les hypothèses plus prudentes.

Le tableau ci-contre montre les différences entre les prévisions démographiques des scénarios faible et fort de la population totale, des trois tranches d’âge principales et du rapport de dépendance entre 2016 et 2066. On peut voir que, si la population prévue serait 55 % plus élevée avec le scénario fort qu’avec le faible, elle le serait d’un peu plus de 80 % chez les personnes âgées de moins de 20 ans (surtout en raison de la forte différence entre les prévisions de l’indice synthétique de fécondité, soit 1,45 et 1,75), d’un peu plus de 50 % chez les personnes âgées entre 20 et 64 ans et d’un peu moins de 50 % chez celles âgées de 65 ans et plus. Par ailleurs, la part de la population qui serait âgée de moins de 20 ans serait de 18,0 % en 2066 selon le scénario faible et de 21,0 % selon le scénario fort, celle âgée de 20 à 64 ans serait respectivement de 53,7 % et de 52,2 % et celle âgée de 65 ans et plus de 28,3 % et de 26,7 %. On voit donc que malgré les grandes différences entre ces scénarios, la structure d’âge ne changerait pas de façon majeure et que l’ampleur du vieillissement de la population ne se réduirait que légèrement. Et, peut-être contre-intuitivement, le rapport de dépendance serait plus élevé avec le scénario fort (91,1) qu’avec le scénario faible (86,2).

Et alors…

On voit que, toutes solides qu’elles soient, des prévisions démographiques peuvent changer grandement selon les hypothèses retenues. Cela dit, il est clair qu’on n’évitera pas les principaux effets du vieillissement de la population, même si son effet peut différer légèrement en fonction de l’évolution des facteurs qui influencent son évolution, surtout de l’indice synthétique de fécondité, mais aussi de mortalité et du solde migratoire. On a en effet vu que les hypothèses des scénarios de l’ISQ peuvent varier grandement en seulement cinq ans, avec des conséquences importantes sur ses prévisions. Je ne répéterai jamais assez à quel point il faut interpréter ces prévisions avec prudence et humilité.

Que faire des cons ?

15 juillet 2019

Avec son livre Que faire des cons ? – Pour ne pas en rester un soi-même, Maxime Rovere, professeur de philosophie à l’Université pontificale catholique de Rio de Janeiro, «propose une nouvelle éthique pour penser et soigner ce fléau de notre temps, maladie du collectif et poison de nos vies individuelles».

Introduction : «Le problème n’est pas la connerie, ce sont les cons». En effet, si on doit sans hésiter combattre et anéantir la connerie, il n’est pas question d’anéantir les con.nes, et le vouloir montrerait qu’on en est un.e! Mais, comment faire pour vivre avec ces personnes exaspérantes? L’auteur se demande «si la philosophie peut trouver des solutions claires à ce problème urgent».

1. Trois conclusions jetées en préliminaire : Ces trois conclusions sont :

  • «on est toujours le con de quelqu’un», notamment parce qu’il «est très difficile de cerner avec précision ce qu’est un con» et qu’il s’agit d’une notion relative;
  • «les formes de la connerie sont en nombre infini», par exemple, il y a des con.nes qui ne doutent jamais de leurs certitudes et d’autres qui doutent de tout, même de ce qui est démontré;
  • «le principal con se trouve en nous-mêmes».

2. Comment on tombe dans les filets des cons : Même s’il a dit qu’il est difficile de définir ce qu’est un.e con.ne, l’auteur avance que «le con est celui qui manque de respect aux autres (…), qui en définitive détruit les conditions pour vivre ensemble». Et c’est notre répulsion pour les con.nes qui nous font tomber dans leurs filets et devenir nous-mêmes un peu con.nes…

3. Comment se remettre de sa stupeur : Pour éviter les effets de notre répulsion pour les con.nes, notamment la stupeur (ou sidération) qu’elle entraîne, il faut chercher des ressources qui nous sont souvent extérieures et passer par-dessus notre réaction instinctive.

4. Comment on passe de la faute à la chance : Un autre moyen de vaincre nos réactions impulsives est de voir cet objectif comme un défi. Réagir aux con.nes, c’est devenir leur complice. Mais ne pas le faire est difficile, d’où l’ampleur du défi.

5. Rechutes dans l’émotion : Et si, malgré tout cela, on recommence à réagir? Même après avoir relevé le défi, il n’est en effet pas exclu qu’une connerie particulièrement conne (j’essaie de rendre le ton de l’auteur) nous fasse rechuter. Il ne faut pas dans cette situation rejeter nos émotions, mais bien relever un autre défi, soit «d’épuiser la force des émotions en l’exprimant tout entière, jusqu’à plus soif» (pas sûr d’avoir compris).

6. Comment l’impuissance engendre le devoir : Quand une personne dit ou fait une connerie, on ressent le devoir de lui souligner pour qu’elle s’amende. Mais si la personne est conne, cela ne servira qu’à souligner que nous ne sommes pas con.nes comme elle, ce qui est par le fait même une réaction un peu conne (si j’ai bien compris).

7. Comment les autorités morales entrent en conflit : L’auteur montre l’inefficacité du recours à la morale ou aux autorités morales pour faire comprendre à des con.nes qu’ils et elles viennent de dire une connerie, d’autant plus que, selon les valeurs des personnes, ce qui est une connerie pour les un.es ne l’est pas nécessairement pour les autres. Les con.nes peuvent aussi n’avoir aucune cohérence, ce qui n’arrange rien.

8. Comment écouter un con : Quand un.e con.ne nous fait la morale, il faut surtout éviter de se justifier, car on embarque ainsi dans son système de valeur (ou dans son incohérence) et on ne peut que s’y enliser.

9. Pourquoi l’État se fout de nous : Dans les domaines de la religion et de la politique (et dans d’autres), les con.nes n’ont que faire des nuances, n’ayant que des certitudes. De même, ils et elles se considèrent toujours dans leur droit, dans toute situation. Mais, nous sommes vraiment dans notre droit de contester les institutions, car elles sont toujours en retard sur la société. L’auteur précise toutefois que, en raison de ce décalage permanent, ce sont les institutions qui sont connes, pas les fonctionnaires qui sont les premier.ères à subir les effets de cette connerie.

10. Pourquoi la menace est une forme de soumission : L’État, même si décalé, tend à intervenir dans de plus en plus de domaines. Pour éviter le totalitarisme, l’extension de ses domaines d’intervention doit être contrebalancée par un renforcement de notre autonomie de façon à pouvoir résoudre la plupart de nos problèmes sans faire intervenir l’État, tout en ayant la possibilité d’y recourir au besoin. Ce recours doit être utilisé uniquement en cas d’urgence, surtout contre des con.nes, car la menace d’y recourir nous place en position de faiblesse (et même de soumission).

11. Comment la morale achève l’interaction : Le recours à la morale comporte les mêmes désavantages que le recours à l’État, mais sans ses avantages. En plus, l’intervention de la morale est une forme de condition au dialogue qui doit justement se faire sans condition.

12. Pourquoi les cons préfèrent détruire : C’est une obsession bien répandue de vouloir détruire ce qui nous déplaît. Et, bien sûr, les con.nes parviennent rarement à résister à cette obsession. Il ne faut donc pas s’en étonner et on doit en tenir compte dans nos interactions avec ces personnes.

13. Pourquoi les cons gouvernent : S’il est désagréable d’échanger avec un.e con.ne, c’est bien pire quand il s’agit de son ou de sa patron.ne! L’auteur explique pourquoi il y a tant de con.ne dans des postes de direction (y compris en politique), pourquoi c’est inévitable et pourquoi c’est aussi bien…

14. Pourquoi les cons se multiplient : En fait, ce sont leur visibilité et le nombre de nos interactions avec les con.nes qui ont augmenté, notamment avec le gain de popularité des réseaux sociaux, pas nécessairement leur nombre. L’auteur avance aussi quelques autres raisons de cette impression de hausse.

15. Pourquoi les cons gagnent toujours : Même si l’humain a une grande capacité d’adaptation, il favorise souvent l’inertie, surtout lorsqu’il est con. Et, c’est cette inertie qui le fait gagner!

Conclusion : De cette conclusion, je ne retiendrai ici qu’une phrase :

«Pour ne pas sombrer dans la guerre contre les cons, qui serait celle de tous contre tous, nous ne pouvons qu’osciller entre trois stratégies : négocier avec ceux qui le peuvent, faire évoluer ceux qui se laissent faire, laisser être ceux qui s’y refusent.»

Et alors…

Lire ou ne pas lire? Bof… Je ne me souviens plus ce qui m’a amené à me procurer ce livre, car je sais que j’avais beaucoup de réticences envers lui la première fois que j’en ai entendu parler. Ce livre oscille constamment entre l’analyse sérieuse, l’ironie et la dérision, sans qu’on puisse de façon certaine attribuer ce qu’on est en train de lire à une de ces possibilités. Le discours est souvent décousu et, surtout, l’auteur ne donne pas suffisamment d’exemples de ce dont il parle. J’ai ressenti l’incompréhension qui m’habite parfois en lisant des philosophes… Puis, je ne me sens pas mieux armé pour dialoguer avec des con.nes! Je préfère sa troisième proposition, les laisser tranquilles, quand c’est possible, un genre d’application de l’éloge de la fuite… Je soulignerai finalement qu’il n’y a pas de note, seulement une courte bibliographie de neuf livres que l’auteur dit ne pas avoir ouverts lors de la rédaction du sien. Bref, à moins d’aimer ce genre, on peut passer son tour.

La part socialement optimale du revenu du travail

11 juillet 2019

La Banque centrale européenne (BCE) a publié en avril 2018 un document de travail intitulé On the optimal labor income share (La part optimale du revenu du travail) qui a attiré mon attention (document mis à jour en 2019, mais sans changement notable). Notons que, encore une fois, j’ai pris connaissance de cette étude récemment grâce au blogue Economist’s View de Mark Thoma, qui a suggéré un résumé paru sur le site Vox du Centre for Economic Policy Research (CEPR).

Introduction

Les auteurs (Jakub Growiec, Peter McAdam et Jakub Mućk) remarquent que l’intérêt des économistes au sujet de la part du revenu de travail dans la production totale (ou «la fraction de la production économique qui revient aux travailleurs à titre de rémunération en échange de leur travail», selon le Bureau of Labor Statistics) s’est accentué depuis quelques décennies en raison de sa baisse dans de nombreux pays. Par contre, on parle moins du point de comparaison qui devrait se démarquer, soit sa part socialement optimale.

Or, cette part n’est pas évidente à établir. Les graphiques ci-contre montrent à cet effet que la part du revenu de travail aux États-Unis et en France a grandement varié dans ces deux pays au cours des 120 dernières années (les lignes pointillées en bleu indiquent les données annuelles et les lignes rouges la tendance). Devant de telles fluctuations, il est difficile de savoir s’il existe une part socialement optimale et, s’il y en a une, quel est son niveau.

Étrangement, il n’existe aucune recherche portant spécifiquement sur cette question, absence d’autant plus étrange que la littérature sur la part du travail dans la production (ou dans le revenu national) et sur d’autres aspects l’entourant est relativement abondante. Il est aussi intéressant de noter que les économistes du milieu du XXe siècle prétendaient que cette part était théoriquement supposée demeurer stable… Même Keynes s’est trompé sur le sujet («Keynes (1939) a qualifié la stabilité de la part du travail dans le revenu national comme «l’un des faits les plus surprenants, et pourtant les mieux établis, de l’ensemble des statistiques économiques»)!

Le modèle et ses résultats

Je ne décrirai pas en détail le modèle utilisé par les auteurs. Disons seulement qu’il est théorique, avec beaucoup d’hypothèses et de simplifications, qu’il utilise des agents représentatifs, qu’il recherche un équilibre général et que sa présentation s’étend sur 12 pages, soit la moitié du texte du document de travail avant les références et les annexes (dont les deux premières pages apportent d’autres précisions sur le modèle)…

Pour savoir quelle serait la part socialement optimale du revenu du travail sur la production, les auteurs comparent la part qui serait obtenue par un planificateur social (un «décideur qui tente d’obtenir le meilleur résultat pour toutes les parties impliquées») par rapport à un système décentralisé (la situation réelle). Selon leur calibrage préféré du modèle, ils constatent que la part optimale du revenu du travail sur la production aux États-Unis serait plus élevée de 17 %, soit de 11 points de pourcentage. Selon leurs calculs, cela signifie que cette part passerait de 67,4 % à 78,5 %.

Notons qu’il y a différentes façons de calculer cette part selon ce qu’on considère faire partie de la rémunération du travail, selon les secteurs considérés (par exemple, seulement le secteur privé) et selon l’estimation de la production totale (ou du revenu national). Le plus difficile est de calculer la part due au travail dans les revenus totaux des travailleur.euses autonomes, revenus qui comprennent à la fois des revenus de travail et des revenus de capital. Le graphique ci-contre, tirée de cette page du Bureau of Labor Statistics (BLS), présente en bleu foncé la part du revenu de travail des salarié.es, en rouge la part des revenus totaux des travailleur.euses autonomes («Proprietors» dans le graphique) et avec la ligne en bleu pâle la part des salarié.es plus la part des travailleur.euses autonomes considérée provenir de leur travail (sans la part considérée provenir du capital), ce qui représente la part totale des revenus de travail sur la production («All worker labor share» dans le graphique). On voit que la répartition des revenus des travailleur.euses autonomes provenant du travail et du capital varie énormément d’une année à l’autre, selon les calculs du BLS. La part du capital dans leurs revenus était en effet estimée à peu près nulle de 1980 à 1992 environ, mais elle représenterait environ la moitié de leurs revenus totaux depuis 2010. Cela est dû à la méthode utilisée par le BLS pour départager leurs revenus de travail de leurs revenus de capital (méthode que je ne décrirai pas dans cette digression déjà un peu longue…).

Les deux premiers graphiques de ce billet sont calculés autrement (et présentent donc des niveaux de la part du travail différents), les auteurs ne mentionnant que leur provenance, soit d’un document produit par Thomas Piketty et Gabriel Zucman en 2014, sans préciser leur méthode de calcul (que je n’ai pas non plus trouvée dans le document cité, quoique cette part semble calculée sur le revenu national plutôt que sur la production). Bref, retenons que ce sont les tendances qui importent le plus, pas les niveaux.

Les auteurs se demandent ensuite quels facteurs peuvent expliquer que la part réelle du revenu de travail soit aussi éloignée de sa part socialement optimale. Leur modèle leur permet d’en trouver quelques-uns :

  • les marchés ne tiennent pas compte des effets négatifs du capital physique sur l’activité en recherche et développement (les auteurs ne sont pas très clairs sur la nature de ces effets);
  • le prix du capital établi par le planificateur social est moins élevé que le prix du marché, qui est gonflé en raison du manque de concurrence sur le marché réel;
  • les marchés ne parviennent pas à internaliser les effets du dédoublement de la main-d’œuvre en recherche et développement (plusieurs entreprises cherchant la même chose);
  • les marchés ne peuvent pas capter les effets positifs de l’accumulation de connaissances sur les activités futures en recherche et développement (la valeur réelle du patrimoine des connaissances est un bien public ne générant pas de ventes, mais générant du bien-être).

Les auteurs analysent par la suite d’autres aspects de la question, mais encore plus techniques que les précédentes, notamment le niveau de l’élasticité de substitution entre le capital et la main-d’œuvre qui serait moins élevée dans le modèle du planificateur social que dans la réalité, ce qui contribue à faire augmenter la part du revenu de travail dans leur modèle.

Et alors…

Je ne suis pas très friand des études basées sur des modèles aussi théoriques que celui construit par les auteurs de celle-ci. Ce n’est pas parce que j’aime leur conclusion, soit que la part socialement optimale du revenu de travail est beaucoup plus élevée que celle observée dans la réalité, que je vais changer d’idée (je tente de calmer mon biais de confirmation…). Notons aussi que le terme «socialement» utilisé dans ce document n’a pas le sens qu’on lui donne habituellement, mais repose sur la maximisation de l’utilité de l’ensemble de la population. De toute façon, c’est surtout en raison des analyses de l’évolution de cette part que j’ai été attiré par cette étude et que j’ai choisi de la présenter ici. Cette étude m’a aussi permis de relire le texte intéressant du BLS sur la façon d’estimer la part du revenu de travail sur la production et d’en présenter une partie ici. J’y reviendrai sûrement un jour…

Les inégalités contre la démocratie

8 juillet 2019

Avec son livre Les inégalités contre la démocratie, Jean-Pierre Derriennic, professeur au Département de science politique de l’Université Laval, montre que «certaines institutions auxquelles nous sommes habitués, notamment la façon dont nous élisons les gouvernants, créent souvent des inégalités très graves entre concitoyens».

1. Introduction : «Pour limiter les inégalités économiques, il faudrait avoir des institutions démocratiques efficaces; et pour avoir des institutions démocratiques efficaces, il faudrait que les inégalités économiques soient moins grandes». C’est pour trouver le moyen de sortir de ce cercle vicieux que l’auteur a décidé d’écrire ce livre.

2. Dynamique et conséquences des inégalités économiques : L’auteur explique (très bien) les données utilisées pour mesurer les inégalités, avec leurs forces et leurs faiblesses (par exemple, on ne comptabilise pas toutes les activités économiques), puis montre que ces inégalités ont augmenté grandement depuis 1980. Il distingue ensuite les inégalités de revenus des inégalités de richesse, et ces inégalités avec celles de pouvoir. Il analyse ensuite les facteurs qui influencent l’évolution des inégalités. Il aborde aussi :

  • le rôle (exagéré) du mérite;
  • l’impact réel, mais limité, de la recherche de l’utilité maximale dans ses décisions;
  • l’utilité marginale décroissante des revenus;
  • l’impact néfaste de la spéculation;
  • les effets négatifs des inégalités (voir ce billet).

3. L’importance de l’égalité : Selon l’auteur, l’idée d’égalité n’est pas naturelle pour l’être humain (opinion que Kate Pickett et Richard Wilkinson contesteraient sûrement, rappelant que les sociétés de chasseurs-cueilleurs étaient très égalitaires et que ce n’est que depuis 10 000 ans que les inégalités sont courantes), ce sont les lois morales (y compris les religions) et humaines qui l’imposent. Si presque tout le monde considère de nos jours comme fondamentale l’égalité devant la loi, l’auteur ajoute que «les inégalités économiques importent aussi, parce qu’elles sont des obstacles à l’égalité devant la loi». Il aborde ensuite :

  • les justifications des inégalités (qui n’éliminent jamais leurs effets négatifs);
  • quelques obstacles à la réduction des inégalités;
  • les inégalités identitaires (qui peuvent être enrichissantes pour une société, mais qui sont particulièrement dangereuses lorsqu’elles sont accompagnées d’inégalités économiques);
  • quelques mesures pour réduire les inégalités économiques (dont l’établissement de droits de succession, la hausse du taux marginal d’imposition maximal, le salaire maximal et l’éradication des paradis fiscaux).

4. L’égalité dans la démocratie : La démocratie repose sur quatre caractéristiques fondamentales: l’État de droit, la liberté, l’égalité et le pouvoir du peuple. L’importance et la façon de concrétiser ces quatre caractéristiques peuvent toutefois varier considérablement selon les pays. L’auteur analyse donc les différentes interprétations données à ces concepts, leurs applications et les conflits qu’ils peuvent générer entre eux et même à l’intérieur de chacun d’eux. S’il se penche sur chacun de ces quatre concepts, il approfondit encore plus celui du pouvoir du peuple (de façon très pertinente).

5. Des institutions démocratiques moins inégalitaires : L’auteur présente dans ce chapitre des propositions qui portent «sur la façon de limiter l’influence des grands intérêts économiques sur les politiciens et les partis» et «sur la façon d’inciter les élus à tenir compte également des opinions et des intérêts de tous les citoyens». Ces propositions touchent :

  • aux possibilités de conflits d’intérêts;
  • au financement des partis politiques;
  • au mode de scrutin (partie de ce chapitre la plus substantielle, dans laquelle l’auteur accorde plus d’importance à l’égalité entre les citoyen.nes qu’à l’égalité entre les partis);
  • à la représentation intégrale, où le poids du vote des député.es est pondéré en fonction de la population de la circonscription qu’ils et elles représentent.

6. Par où commencer ? : L’auteur revient sur ses propositions et tente de déterminer celles qui ont les meilleures possibilités d’être adoptées, espérant que l’adoption de ces dernières fasse augmenter les appuis aux autres. Il explique aussi certaines des raisons invoquées par les personnes qui résistent à ces changements, souvent parce qu’elles bénéficient du système injuste actuel.

Et alors…

Lire ou ne pas lire? Lire! Ce livre aborde en effet des aspects des inégalités qui sont rarement abordées, en tout cas dans les livres sur le sujet que j’ai lu. Il est bien structuré, ses présentations sont claires et ses analyses originales et bien fondées. Je n’appuie pas toutes ses propositions, mais elles suscitent toutes la réflexion. Je suis moins optimiste que l’auteur sur les possibilités réelles de les voir adoptées, mais on ne lui reprochera pas d’y croire! Ce petit livre (152 pages, selon l’éditeur) n’est pas bien long à lire tout en approfondissant des sujets essentiels à la vie démocratique de nos sociétés. En plus, les notes sont en bas de page!

La part conjoncturelle et structurelle des soldes budgétaires du Québec

5 juillet 2019

La Chaire de recherche en fiscalité et en finances publiques de l’Université de Sherbrooke (CFFP) a publié la semaine dernière un cahier de recherche réalisé par Luc Godbout et Julie S. Gosselin intitulé Équilibre budgétaire dans les provinces canadiennes : perspectives sur le rôle des cycles économiques. J’ai pris connaissance de ce document grâce à cet article du Devoir. Puis, après avoir regardé cette entrevue de Luc Godbout sur le contenu de ce cahier de recherche à RDI économie, j’ai décidé de le lire sans tarder.

Introduction

Ce cahier de recherche vise à estimer «les composantes conjoncturelles et structurelles des soldes budgétaires» des provinces du Canada.

Les auteur.es comparent tout d’abord les surplus budgétaires des provinces pour l’année 2018-2019, comme on peut le voir sur le graphique ci-contre. Assez étrangement, le surplus du Québec est illustré après versement au Fonds des générations, alors que M. Godbout dit clairement dans l’entrevue (vers 4 min 30) qu’il a accordée à RDI qu’on doit utiliser le surplus avant ce versement pour que le solde budgétaire du Québec soit comparable à ceux des autres provinces. D’ailleurs, c’est le surplus avant versement qui est utilisé dans le cahier pour un graphique que je présenterai plus loin. La différence n’est pas anodine, car ce surplus passe alors de 4,4 à 7,9 milliards $, ou de 1,0 % à 1,8 % du PIB, comme je l’ai indiqué en ajoutant un trait pas très esthétique dans ce graphique.

Mais, que ce soit avant ou après versement, il est clair que le solde budgétaire du Québec se démarque nettement de celui des autres provinces. Cela dit, les auteurs se demandent si ces soldes représentent bien la situation budgétaire de ces provinces. Pour le savoir, il faut estimer la portion de ces soldes qui est «liée aux fluctuations conjoncturelles», le reste représentant le solde structurel. Cette question est importante, car elle permet de déterminer s’il est approprié d’utiliser le solde fortement positif du Québec pour réduire les recettes ou augmenter les dépenses récurrentes, ou s’il est préférable de rester prudent à ce chapitre. Sauf en cas de récession ou d’autres situations spéciales, seul le surplus structurel devrait être considéré pour réduire les recettes ou augmenter les dépenses récurrentes, et encore, seulement si ce surplus structurel est durable, car un surplus conjoncturel est appelé à disparaître dès que les conditions économiques se détérioreront pour revenir à la «normale».

Le PIB potentiel

La première étape pour répartir le solde total en soldes conjoncturel et structurel est d’estimer le PIB potentiel. Selon le directeur parlementaire du budget (DPB), le PIB potentiel «correspond à la capacité de production soutenable d’une économie. Il est normalement défini comme étant le niveau de production que permettent d’obtenir les ressources existantes (p. ex. main-d’œuvre, capital et technologie) sans créer de pressions inflationnistes». La différence entre le PIB réel et le PIB potentiel est alors l’écart de production. Le calcul du PIB potentiel n’est pas une mince affaire. J’ai même déjà publié un billet dans lequel je me demandais si le PIB potentiel n’est pas en fait une idée zombie, c’est-à-dire une idée qui a été tuée, mais qui revit toujours. Cette comparaison est exagérée, mais il n’en demeure pas moins que son estimation repose sur de nombreuses hypothèses portant notamment sur l’évolution de la démographie et des tendances de productivité, d’heures travaillées et de taux d’emploi par tranche d’âge. Je n’entrerai pas dans les détails, mais, dans un précédent cahier de recherche de la CFFP sur le sujet, les auteurs ont jugé important de mentionner que «le PIB potentiel n’étant pas observable, son estimation est incertaine».

Les deux graphiques ci-contre (tirés de ce texte) présentent les estimations du PIB potentiel des États-Unis effectués au cours de six années différentes, aux deux ans de 2007 à 2017. Les estimations du graphique du haut ont été faites par le Congressional Budget Office (CBO) et celles du graphique du bas en utilisant la méthode développée par Olivier Blanchard et Danny Quah (BQ).

La première chose qui nous frappe dans ces deux graphiques est que les estimations du PIB potentiel ont grandement varié avec le temps. Chaque nouvelle estimation ne baissait pas seulement pour l’année courante, mais aussi pour chacune des années postérieures à 2008 et parfois de façon importante. Dans le premier graphique, c’est le PIB potentiel qui s’approche constamment du PIB réel (ligne noire) et non l’inverse comme la théorie le prétend. Il l’avait d’ailleurs quasiment rejoint avec l’estimation de 2017.

La deuxième chose qui nous frappe est que, à partir de l’estimation de 2013 (ligne en pointillés noirs), la méthode de Blanchard et Quah incorpore à ses estimations du PIB potentiel une partie de la baisse du PIB de 2009, qu’on pensait auparavant essentiellement conjoncturelle. Selon cette méthode, environ 60 % de la baisse du PIB de 2009 était en 2017 estimée structurelle, alors que, avec la méthode du CBO, la baisse du PIB de 2009 était encore en 2017 estimée en grande majorité conjoncturelle. Finalement, avec la méthode de Blanchard et Quah, le niveau du PIB réel serait encore plus bas que le PIB potentiel en 2017, et l’écart entre le PIB potentiel et le PIB réel aurait été assez stable de 2009 à 2017, ce qui n’est pas du tout le cas avec la méthode du CBO.

Ces deux graphiques montrent que, de fait, l’estimation du PIB potentiel est très incertaine! Cela dit, il est probable que le niveau d’incertitude de cette estimation augmente après une récession, car il est difficile de savoir à quel point la baisse du PIB aura des effets durables ou uniquement temporaires. Pourtant, dans un exercice utilisant le PIB potentiel par le DPB et une méthode différente par la CFFP (et uniquement pour le budget de la province, alors que le DPB incluait les administrations locales comme les municipalités dans ses estimations), les deux organismes sont arrivés à des résultats très différents en tentant d’estimer si la structure budgétaire du Québec était viable à long terme. Le DPB a conclu dans son rapport de 2017 qu’elle le serait jusqu’en 2091, accumulant cette année-là des surplus correspondant à près de quatre fois son PIB (voir ce graphique)! Il estimait en conséquence que le Québec avait une marge de manœuvre correspondant à 3,0 % de son PIB (entre 2.2 et 3,6 % selon ses hypothèses) pour diminuer ses recettes ou augmenter ses dépenses, ce qui est énorme! L’année suivante, son rapport concluait que le surplus accumulé du Québec serait en 2092 d’un peu moins de deux fois son PIB et sa marge de manœuvre de 1,6 % de son PIB (au lieu de 3,0 % l’année précédente). De son côté, les auteur.es du cahier de recherche du CFFP arrivaient à la conclusion que le Québec entrerait en déficit en 2028 et que ce déficit irait par la suite en s’aggravant.

Je ne cherche pas ici à savoir qui a raison, mais simplement à montrer à quel point ces estimations peuvent varier en seulement un an pour les rapports du DPB et peuvent mener à des conclusions opposées selon la méthodologie retenue. Cela ne veut pas dire qu’il est inutile de tenter d’estimer un PIB potentiel et les parts structurelle et conjoncturelle d’un solde budgétaire, mais qu’il faut le faire avec beaucoup de prudence et d’humilité, et qu’il est important d’avertir ses lecteur.trices de la fragilité des résultats d’un tel exercice.

La situation structurelle et conjoncturelle

– PIB

Le graphique ci-contre, tiré de l’entrevue de M. Godbout à RDI économie (vers 2 minutes), montre l’évolution du PIB réel (ligne bleue) par rapport au PIB potentiel (la ligne verticale à 0 %). J’ai choisi ce graphique parce que je le trouve plus clair que le graphique correspondant qui est présenté dans le cahier de recherche.

Il est étonnant de constater que le PIB réel serait demeuré inférieur au PIB potentiel de 2009 (année de récession) à 2016 (il s’agit en fait des années 2009-2010 à 2016-2017, d’avril à mars) et avec à peine une légère réduction de l’écart de production avec le PIB potentiel. Pourtant, selon le tableau 14-10-0327-01 de Statistique Canada, les taux d’emploi des 12 tranches d’âge (15 à 19 ans, 20 à 24 ans, jusqu’à 70 ans et plus) ont augmenté en moyenne de trois points de pourcentage entre 2009 et 2016, et le taux de chômage a diminué de 1,5 point. J’imagine que le calcul du PIB potentiel a considéré que ces hausses étaient structurelles, et non pas seulement conjoncturelles. De même, le PIB réel a tout de même augmenté en moyenne de 1,4 % par année au cours de cette période selon les données de Statistique Canada publiées par l’Institut de la statistique du Québec (ISQ), et cela malgré le vieillissement de la population.

Ensuite, le PIB réel est devenu plus élevé que le PIB potentiel, passant d’un écart de production négatif représentant près de 1 % du PIB à un écart positif estimé à 2,5 % du PIB en 2019, une hausse de près de 3,5 points en seulement trois ans. Il est vrai que la croissance du PIB réel fut plus forte en 2017 (2,8 %) et en 2018 (2,5 %), et que les taux d’emploi par tranche d’âge ont continué à augmenter en 2017 (de 1,5 point de pourcentage en moyenne) et en 2018 (de 0,6 point) malgré leur niveau déjà élevé en 2016 en termes historiques. Notons que les estimations de 2018-2019 et de 2019-2020 (en pointillé) sont basées sur les prévisions de croissance réelle du gouvernement du Québec.

Il est fort possible que cette estimation soit juste, mais, comme on l’a vu auparavant, cela peut prendre jusqu’à une dizaine d’années pour savoir si une hausse ou une baisse du PIB réel est structurelle ou conjoncturelle (et, même là, les conclusions peuvent varier selon les méthodes utilisées). Par contre, il demeure étrange qu’une telle hausse conjoncturelle ne puisse être associée à des événements précis (on parle plutôt d’une hausse des incertitudes au niveau mondial qui devrait rendre la conjoncture plus négative que positive) et n’ait entraîné aucune hausse de l’inflation, étant donné que la définition du PIB potentiel repose sur le fait qu’un niveau du PIB réel plus élevé que celui du PIB potentiel est inflationniste. Or, selon les données du tableau 18-10-0004-01 de Statistique Canada, l’inflation au Québec entre les cinq premiers mois de 2018 et les cinq premiers mois de 2019 fut de 1,6 %, soit dans le bas de la fourchette cible de la Banque du Canada (qui va de 1,0 % et 3,0 %), niveau même inférieur à l’inflation pour l’ensemble du Canada (1,9 %). J’ajouterai que dans un contexte de manque de main-d’œuvre, il est aussi possible que plus de personnes aient été attirées sur le marché du travail qu’auparavant et que cet attrait puisse bien se maintenir à l’avenir, devenant ainsi structurel. Alors, la hausse du PIB réel et des taux d’emplois depuis 2016 est-elle vraiment conjoncturelle? Tant que cela? Comme le dirait notre premier ministre, on verra!

– soldes budgétaires

Pour passer des estimations des écarts de production entre le PIB réel et le PIB potentiel aux composantes conjoncturelles et structurelles des soldes budgétaires, les auteur.es estiment l’élasticité de chacune des sources de revenus des provinces, c’est-à-dire en gros le lien entre les recettes de l’État et le niveau du PIB réel et du PIB potentiel. Je n’insisterai pas sur les calculs à la base de ces estimations, me contentant de souligner qu’ils contiennent eux aussi leur part d’hypothèses et d’incertitude. Par exemple, l’élasticité de l’impôt sur le revenu des particuliers par rapport au revenu total pour le Québec est estimée à 1,91, mais avec un intervalle se situant entre 1,33 et 2,11.

J’emprunte encore un graphique de l’entrevue de M. Godbout à RDI économie (vers 6 minutes) pour montrer certains des résultats de ces calculs. Je ne commenterai que la partie gauche du graphique, car l’analyse de la partie droite n’ajouterait rien. Les deux premières barres montrent que le surplus budgétaire avant versement au Fonds des générations a représenté environ 1,8 % du PIB en 2018-2019 (comme mentionné au début de ce billet), dont 1,4 % serait un surplus structurel, mais que ce surplus tomberait à environ 0,5 % du PIB en 2019-2020, en grande majorité composé d’un surplus conjoncturel. En fait, le surplus structurel très important de 2018-2019 disparaîtrait presque complètement en 2019-2020, ce qui signifierait que le gouvernement aurait complètement éliminé ce surplus par des baisses d’impôts et des hausses de dépenses. Dans son entrevue, M. Godbout explique que ce résultat provient des prévisions du dernier budget du Québec et que le gouvernement pourrait très bien réviser de façon importante ses prévisions, comme il l’a fait les années précédentes. J’ajouterai que, lorsque le budget de 2019-2020 a été déposé, le ministre des Finances niait encore que le surplus de 2018-2019 serait aussi important. Après dépôt au Fonds des générations, il l’estimait en mars 2019 à 2,5 milliards $ (en forte hausse depuis le déficit prévu de 1,6 milliard $ lors du dépôt de ce budget en mars 2018), l’a corrigé à 3,6 milliards $ en mai 2019, alors que nous apprenions en juin 2019 qu’il fut finalement de 4,4 milliards $ (et qu’il pourrait encore être révisé). Il est donc probable que, comme le gouvernement le fait depuis des années, celui-ci ait sous-estimé son surplus et que le surplus structurel n’est en fait pas complètement disparu, d’autant plus que les transferts de péréquation ont augmenté de 1,4 milliard $ en 2019-2020. Cela dit, je le répète, on verra!

Et alors…

Même si je suis sévère envers les concepts de PIB potentiels et de soldes budgétaires structurels et conjoncturels (en fait surtout envers l’incertitude que comportent leurs estimations), le genre d’exercice fait dans le cahier de recherche que j’ai présenté demeure essentiel. Je suis aussi en accord avec la conclusion de ce cahier qui affirme que «La prudence est donc de mise avant de prendre de nouveaux engagements aux effets récurrents, qu’il s’agisse de réductions fiscales ou d’augmentation de dépenses», moi qui ai déjà conclu quelque chose de semblable il y a quelques mois en écrivant que «Le pire serait que ce gouvernement se vante de ces surplus conjoncturellement plus élevés et se mette à diminuer les taxes et impôts, ce qui, jumelé aux effets du vieillissement de la population, pourrait hypothéquer gravement la situation financière du Québec à moyen et long termes». Bref, la conclusion est la même que l’on considère une partie plus ou moins importante du surplus actuel comme structurel ou conjoncturel. Il faut dire que je ne connaissais pas l’ampleur du surplus quand j’ai écrit cela!