Skip to content

Différence et liberté

30 octobre 2017

J’ai longtemps hésité à me procurer le livre Différence et liberté – Enjeux actuels de l’éducation au pluralisme de Georges Leroux, même si je m’étais engagé à le faire il y a un an en conclusion d’un billet sur le livre La face cachée du cours éthique et culture religieuse qui m’avait laissé un mauvais arrière-goût. Comme je le mentionnais dans cette conclusion, je craignais de souffrir en lisant un livre de Georges Leroux, «moi qui avais même de la difficulté à comprendre ses critiques de livres publiées dans le Devoir». Mais, là, je ne peux que dire alea jacta est! Compte tenu de la richesse de ce livre, il ne me sera pas possible de le résumer convenablement. Je me contenterai donc de mentionner les sujets abordés dans chaque chapitre.

Préface : Face à la diversification des valeurs dans nos sociétés, diversification venant aussi bien de l’immigration que des populations établies au Québec depuis longtemps, que «faut-il enseigner à nos enfants dans le respect de tous les citoyens, surtout quand cela concerne la religion, la morale, les règles mêmes du vivre ensemble»? Dans cette préface, Charles Taylor nous explique que George Leroux défend passionnément dans ce livre le cheminement «qui l’a amené à adopter (…) le programme obligatoire Éthique et culture religieuse (ECR)».

Note de l’auteur : L’auteur explique que ce livre regroupe des textes déjà publiés (mais remaniés) au cours des dix années précédant la parution de ce livre (premier trimestre 2016) et des morceaux inédits conçus pour clarifier sa pensée philosophique et lui donner un caractère concret.

Prologue : L’auteur se rappelle la grande uniformité des valeurs identitaires de sa jeunesse, que la présence d’anglophones juifs ou protestants ne parvenait pas à modifier. Ce n’est que lors de ses études supérieures (et surtout hors du Québec), accessibles à une faible minorité de la population, qu’il a pu prendre connaissance de la diversité des cultures et des valeurs. Il aborde ensuite différents aspects de la question, notamment la contradiction, sur laquelle il reviendra, entre l’éducation à la liberté et l’imposition d’un programme de formation.

Introduction : L’auteur rapporte ici les principales étapes qui ont mené à l’implantation du programme ECR et explique ses principaux objectifs. Il aborde ensuite quelques questions qui ont fait l’objet de débats au cours de la dizaine d’années d’existence de ce programme, notamment «la complémentarité de l’éthique et de la culture religieuse, et les relations entre pluralisme et éducation à la citoyenneté» questions qui correspondent à la structure de ce livre et qui seront donc approfondies par la suite.

1. Éduquer au pluralisme : le débat : Après avoir rapidement fait le tour des arguments qui s’opposaient à l’abolition de l’enseignement religieux confessionnel au Québec qui a été obtenue en 2005, l’auteur consacre ce chapitre à répondre à trois séries d’objections «aux mesures de laïcité mises en place par l’État et au programme ECR». Ces objections et réponses portent sur :

  • les mesures d’égalité dans le respect de la liberté de conscience et de religion;
  • les exigences de la laïcité;
  • les requêtes relatives à l’identité nationale.

L’auteur conclut au sujet des deux premières séries d’objections qu’entre «la volonté des uns de fermer hermétiquement les fenêtres qui permettraient de s’ouvrir à la diversité et le projet des autres d’effacer entièrement jusqu’aux dernières traces de la tradition religieuse, comment ne pas voir qu’il y a, à l’œuvre, le même non-dit, la même occultation, le même refoulement à bien des égards funeste, de l’importance du religieux dans notre société? L’avènement du pluralisme exige des uns et des autres un changement d’attitude qui se révèle beaucoup plus difficile que prévu». Du côté de l’objection nationaliste, l’auteur considère que le «refus du pluralisme maintient tous ces critiques dans un espace fermé qui les rapproche malheureusement du traditionalisme le plus strict et montre la distance qui les sépare d’une véritable philosophie libérale de l’éducation».

2. Face à la diversité : relativisme et pluralisme : Dans ce chapitre, l’auteur «propose de distinguer les concepts qui désignent une attitude ou une position dans le débat moral et religieux contemporain et ceux qui n’ont qu’un statut descriptif, tels les concepts de diversité ou de pluralité». Pour ce, il aborde les questions suivantes :

  • le relativisme comme approche philosophique de la diversité;
  • la différence entre relativisme et pluralisme;
  • le pluralisme moral et le pluralisme religieux;
  • les droits, le pluralisme et la laïcité scolaire.

Il m’est impossible de rendre compte correctement du contenu de ce chapitre que j’ai trouvé difficile à lire mais éclairant. Je tiens toutefois à souligner ce passage (que j’ai compris facilement!) :

«L’État moderne n’a donc pas le choix d’être pluraliste : il l’est par principe et par nécessité, car il doit reconnaître chaque religion comme légitime et méritant le respect, mais il ne doit en promouvoir aucune, et donc s’abstenir de les juger selon le critère de la vérité. C’est ce principe qui soutient la laïcité scolaire et rend nécessaire la déconfessionnalisation. Car une société pluraliste, c’est une société où cohabitent non seulement plusieurs religions, mais aussi plusieurs positions athées, agnostiques, laïcistes et syncrétiques. Aucune, croyante ou incroyante, ne peut prétendre au soutien de l’État, chacune doit au contraire exiger la neutralité de celui-ci, seule garante de sa liberté.»

3. Le dialogue et l’éducation démocratique : L’auteur présente dans ce chapitre «les modalités du dialogue relatif aux normes et aux croyances, et en discute l’extension et les limites», puis aborde la philosophie contemporaine du dialogue ainsi que la philosophie pour enfants. Cette réflexion permet «de mesurer les limites du pluralisme dans la transmission des normes et de la culture religieuse».

4. Identité et neutralité : L’auteur «examine les difficiles questions relatives à l’endoctrinement, à la laïcité et à la neutralité dans la pratique de l’enseignement normatif». Ce chapitre contient beaucoup d’exemples concrets de situations face auxquelles la façon dont l’enseignant.e doit réagir n’est pas évidente. Le plus important selon l’auteur est de toujours faire preuve de franchise et de respect envers l’identité de chacun.

5. Vertus et compétences : l’enseignement de l’éthique et les modèles de la vie bonne : En raison des excès auxquels peuvent mener les «modèles substantiels de la vie bonne dans l’éducation», l’auteur aborde dans ce chapitre l’évolution qu’a connu le contenu de la formation scolaire, passant de l’enseignement des vertus à celui des savoirs puis des compétences (et de plus en plus des savoirs et compétences utiles sur le marché du travail). Il examine ensuite deux questions, soit «les modèles traditionnels de la vie bonne dans l’histoire de l’éducation» et la possibilité «de les introduire dans un projet de formation compatible avec les finalités et les compétences du programme ECR, en particulier avec la compétence éthique».

Au sujet du virage vers les compétences utiles sur le marché du travail, l’auteur considère qu’on «transforme ainsi un idéal de liberté, et l’éducation qui s’efforce de le réaliser, en une forme d’asservissement aux contraintes extérieures (…)». Et il conclut ainsi : «La liberté est l’idéal ultime de la personne, cependant elle ne sera une richesse que si l’éducation permet de dégager cette liberté de l’individualisme libéral moderne qui en est le contraire pour la relier aux sources morales de la culture».

Épilogue – Citoyenneté et culture commune : les enjeux de la transmission : Dans cet épilogue, l’auteur s’interroge «sur la contribution de l’éducation au pluralisme au développement d’une culture publique commune [ce qui devrait être commun à tous les membres de la société] et à l’éducation à la citoyenneté».

Et alors…

Lire ou ne pas lire? Ça dépend. Si la présentation de l’auteur est complète et impeccable, elle est souvent répétitive (les mêmes éléments sont repris sous différents angles) et à bien des endroits difficile à lire et à comprendre (enfin, pour moi!). Cela dit, l’auteur sait bien transmettre son enthousiasme et sa passion pour l’enseignement en général et pour celui du programme ECR en particulier. Par contre, si l’auteur examine ce programme sous toutes ses coutures et sait convaincre de la pertinence de ce programme (en tout cas, il m’a convaincu), il n’aborde pas les deux types d’arguments que j’ai lus le plus souvent pour s’y opposer, soit le contenu des livres d’accompagnement et la réalité de son enseignement. L’auteur a beau nous expliquer de façon exhaustive comment les enseignant.es sont formé.es et doivent agir en donnant ce cours, on ne sait pas ce qu’ils et elles font vraiment en le donnant ni ce qu’ils et elles en pensent ni si ils et elles ont tou.tes reçu la formation complète. Je ne sais toujours pas si ces arguments sont justes ni à quel point. En plus, comme l’auteur le dit lui-même dans cette entrevue, on ne sait pas ce qu’en retirent vraiment les élèves et donc les ajustements qu’il faudrait lui apporter. Finalement, j’ai apprécié que les notes soient en bas de page.

Publicités

L’évolution du ratio prestataires/chômeurs

27 octobre 2017

Cela fait maintenant cinq mois que le Rapport de contrôle et d’évaluation de l’assurance-emploi 2015-2016 a été déposé, et je n’ai pas encore pris le temps de faire le point sur l’évolution du ratio prestataires/chômeurs (P/C). Dans un billet datant de plus de deux ans, j’avais expliqué les facteurs à l’origine de la baisse continuelle de ce ratio entre 2009 et 2014. Il est plus que temps de voir si la situation a changé ou si la glissade s’est poursuivie, et de s’interroger sur les facteurs qui expliquent ces mouvements.

Le ratio P/C est une des données les plus pertinentes pour vérifier si la proportion de chômeurs qui touchent des prestations régulières d’assurance-emploi est en hausse ou en baisse. Ce ratio est le résultat de la division du nombre de personnes qui reçoivent des prestations régulières d’assurance-emploi (excluant les prestations spéciales, soit de maladie, de maternité, parentales et de compassion) par le nombre de chômeurs.

Le graphique qui suit montre l’évolution du ratio P/C de 1976 à 2016. Pour réaliser ce graphique, j’ai utilisé deux séries de données. Celle que j’ai intitulée «Rapport» (ligne rouge) vient des données publiées dans les rapports de contrôle et d’évaluation de l’assurance-emploi. Il n’y a que deux de ces rapports actuellement accessibles sur Internet, mais celui de l’an passé contient des données historiques débutant en 2004 (voir les données du graphique 21 sur cette page). L’autre série («Calculé», ligne bleue) est obtenue en divisant la moyenne annuelle du nombre de prestataires d’assurance-emploi des tableaux cansim 276-0001 et 276-0022 par la moyenne annuelle du nombre de chômeurs selon le tableau cansim 282-0008. Les données sont un peu différentes dans les deux séries parce que les ratios des rapports de contrôle et d’évaluation sont calculés à partir des données de mars, juin, octobre et décembre plutôt qu’à partir de celles de tous les mois. Les tendances sont toutefois identiques.

Ce graphique montre clairement que la proportion de chômeurs canadiens qui touchent des prestations d’assurance-emploi a fortement diminué au cours des dernières décennies. Il nous apprend en outre que cette baisse s’est manifestée en premier lieu au cours des années 1990 (passant de 86,6 en 1989 à 47,1 en 1997, une baisse de 46 %), décennie au cours de laquelle de nombreuses réformes ont vu le jour. Par la suite, la tendance fut à peine un peu négative de 1997 et 2008, le ratio P/C se situant tout au long de cette période entre 45,9 (en 2003) et 48,4 (en 1998). Ensuite, ce ratio a augmenté en 2009 lors de la récession (à 50,6 selon mes calculs et à 51,8 selon les données des rapports), ce qui est normal, car une proportion plus grande des chômeurs était composée de personnes qui ont perdu leur emploi récemment et qui ont droit aux prestations. En plus, quand le taux de chômage augmente, le nombre d’heures nécessaires pour recevoir des prestations diminue et le nombre de semaines auxquelles un chômeur a droit à des prestations augmente. Finalement, les gouvernements adoptent toujours des mesures de prolongation des prestations lors de récessions. La baisse de 2010 s’explique par le même raisonnement, mais à l’inverse. La baisse de 2011 était plus étrange, car elle indiquait un ratio inférieur à celui d’avant la récession. J’ai par contre déjà expliqué cette baisse dans un billet datant de quatre ans montrant qu’elle était due en très grande partie à l’augmentation de la proportion de chômeurs n’ayant pas travaillé depuis plus d’un an (de 29,8 % en 2007, 30,2 % en 2008 et 28,9 % en 2009 à 35,8 % en 2010 et à 39,0 % en 2011), les personnes n’ayant pas travaillé depuis plus d’un an ne pouvant bien sûr pas avoir cotisé à l’assurance-emploi au cours des 52 dernières semaines et donc avoir droit à des prestations.

Les baisses de 2012 à 2014 étaient plus intrigantes, car les proportions de chômeurs n’ayant pas travaillé depuis plus d’un an de ces années n’ont pas augmenté, demeurant plutôt à 39,0 % en 2012, diminuant même en 2013 (38,3%) et demeurant à peu près à ce niveau (38,4%) en 2014, soit moins élevé qu’en 2011 et 2012, ce qui aurait dû pousser le ratio P/C à la hausse. C’est ce qui est finalement arrivé en 2015 et en 2016, alors que la proportion de chômeurs n’ayant pas travaillé depuis plus d’un an a diminué en 2015 à 36,9 %, mais a augmenté un peu en 2016 à 37,3 %, à un niveau tout de même moins élevé qu’en 2011 et 2012 (39,0 %). Il est donc clair que si la proportion de chômeurs n’ayant pas travaillé depuis plus d’un an peut expliquer les mouvements du ratio P/C, il n’est pas le seul facteur à l’influencer.

Comme mentionné en amorce, j’ai déjà expliqué dans un billet datant de plus de deux ans les baisses du ratio P/C observées de 2009 à 2014 (ne pouvant toutefois pas expliquer celle 2014 par manque de données). Je vais reprendre ici ces explications en les complétant avec quelques éléments supplémentaires et en analysant aussi les mouvements de 2014 et de 2015. Malheureusement, il faudra attendre un peu pour les explications de la hausse de 2016!

L’évolution du ratio prestataires/chômeurs de 2012 à 2015

Pour tenter de trouver les facteurs qui expliquent les mouvements du ratio P/C de 2012 à 2015, j’ai résumé les données disponibles dans les rapports de contrôle et d’évaluation portant sur les années 2011 à 2015 (en ajoutant au tableau du précédent billet quelques éléments supplémentaires et les données de 2014 et 2015) dans le tableau qui suit.

Je vais tout d’abord expliquer les éléments présentés dans ce tableau :

Chômeurs : Chômeurs selon l’Enquête sur la couverture de l’assurance-emploi, soit la moyenne des données de mars, juin, octobre et décembre de l’Enquête sur la population active.

Autonomes : Chômeurs qui avaient exercé un emploi comme travailleur autonome avant de tomber en chômage : comme ces personnes ne cotisent pas à l’assurance-emploi, elles n’ont donc pas droit aux prestations de ce programme.

Pas travaillé au cours des 12 derniers mois : Chômeurs qui n’ont pas travaillé, donc pas cotisé au cours de la dernière année et n’ont en conséquence pas droit aux prestations; cette catégorie inclut aussi les personnes qui n’ont jamais travaillé (environ le quart d’entre elles).

Études : Chômeurs qui ont laissé leur travail pour retourner aux études et qui n’ont donc pas droit aux prestations parce qu’ils ne sont pas disponibles pour travailler.

Motif non valable : Chômeurs qui ont soit quitté volontairement leur travail sans motif valable (selon la Loi) ou qui ont été licenciés pour inconduite (aussi, selon la Loi). Ces personnes n’ont pas droit non plus aux prestations.

Admissibles : Chômeurs moins les quatre lignes précédentes.

Pas assez d’heures : Chômeurs admissibles, mais qui n’ont pas accumulé assez d’heures pour avoir droit à des prestations.

Admissibles et assez d’heures : Nombre de chômeurs admissibles moins la ligne précédente.

Pas de demande : Pour différentes raisons pas toujours claires, une proportion importante de chômeurs admissibles ayant accumulé assez d’heures ne touchent pas de prestations régulières; il peut s’agir de chômeurs:

  • qui touchaient des prestations spéciales (maladie, maternité, parentales, etc.), quoique ces personnes ne sont généralement pas en chômage (mais qui peuvent se déclarer disponibles pour travailler et à la recherche d’un emploi à Statistique Canada);
  • dont les prestations avaient été interrompues temporairement (inadmissibilité pour manque de recherche d’emploi, non disponibilité, en vacances à l’étranger, etc.);
  • qui avaient épuisé leurs prestations;
  • qui n’avaient pas présenté de demande de prestations.

Chômeurs qui ont touché des prestations : Chômeurs admissibles ayant accumulé assez d’heures moins ceux de la ligne précédente. On notera que la proportion de chômeurs qui ont touché des prestations s’est située entre 25 et 30 % de 2011 à 2015.

Prestataires totaux : Prestataires ordinaires, catégorie qui comprend des chômeurs et des non chômeurs. Le pourcentage dans la partie droite du tableau représente de ratio P/C (enfin!).

On notera que les pourcentages que j’ai indiqués dans la partie droite du tableau vis-à-vis ces lignes représentent la proportion de ces catégories de personnes par rapport au nombre total de chômeurs (première ligne du tableau). Par contre, les pourcentages indiqués au trois dernières lignes représentent plutôt la proportion des trois prochaines catégories de personnes que je vais présenter sur le nombre de prestataires totaux, comme je l’ai indiqué dans le tableau (comme ils ne sont pas chômeurs, il aurait été étrange de les diviser par le nombre de chômeurs). Pour éviter la confusion, j’ai en plus mis ces pourcentages en italique.

Prestataires non chômeurs : Les Prestataires totaux moins les Chômeurs qui ont touché des prestations.

PNC avec gains : Prestataires non chômeurs parce qu’ils travaillent, sûrement à temps partiel, et qu’ils reçoivent un revenu de travail qui n’est toutefois pas assez élevé pour ne pas recevoir de prestations.

PNC sauf avec gains : Personnes qui reçoivent des prestations sans se déclarer chômeurs; comme ces personnes ne font pas partie de l’échantillon de l’Enquête sur la couverture de l’assurance-emploi, on sait peu de choses sur elles. Certaines participent à des mesures d’emploi tout en touchant des prestations (on peut estimer qu’ils représentent entre 20 et 30 % de ce groupe à l’aide les données sur les mesures d’emploi), mais la majorité d’entre elles semblent simplement répondre à Statistique Canada qu’elles ne cherchent pas d’emploi même si elles touchent des prestations (et, dans ce cas, elles seront considérées «inactives»). Elles peuvent par exemple être des travailleurs saisonniers qui ne cherchent pas vraiment d’emploi (mais disent en chercher dans leur déclaration de prestataires) au cours de la saison morte en attendant de reprendre leur emploi saisonnier. Les données des recensements et de l’Enquête nationale auprès des ménages (ENM) laissent penser que cela ne serait pas rare, car on y trouve une forte proportion d’inactifs dans les professions saisonnières, par exemple dans les professions de la forêt (les recensements et l’ENM ont lieu en mai, quand la forêt n’est pas encore dégelée dans toutes les régions). Cela montre que des personnes qui touchent des prestations se déclarent inactives (et non pas en chômage) quand elles sont interrogées par Statistique Canada.

Conclusions qu’on peut tirer de ce tableau

Pour simplifier le tout (ironie), certains remarqueront peut-être que les données sur le ratio P/C du graphique et du tableau ne sont pas les mêmes en 2011 et en 2012. Cela est vrai, mais cela est dû à une révision des données (phénomène courant avec les données de Statistique Canada). Malheureusement, cette révision n’a été publiée que pour le ratio P/C, pas pour les autres éléments du tableau, ce qui crée des petites incohérences. Cela dit, cela ne change pas beaucoup l’analyse qui suit.

Le tableau nous montre que la baisse du ratio P/C en 2012 est due tout d’abord à l’augmentation du nombre et de la proportion des prestataires non admissibles dans les quatre catégories (travail autonome, pas de travail au cours des 12 derniers mois, retours aux études et abandons volontaires non justifiés et licenciements pour inconduite), ce qui fait en sorte que la proportion de chômeurs admissibles est passée de 51,7 % en 2011 à 48,0 % en 2012, comme on peut le voir sur la ligne où j’ai mis ces pourcentages en caractères gras. Cette différence de 3,7 points de pourcentage est ensuite réduite, car la proportion de chômeurs admissibles qui n’ont pas accumulé assez d’heures pour satisfaire aux critères de l’assurance-emploi a été moins élevée en 2012 (8,7 %) qu’en 2011 (11,2 %), on ne sait pas trop pourquoi… Ainsi, la proportion de chômeurs admissibles ayant eu assez d’heures n’a diminué que de 1,2 point de pourcentage entre 2011 (40,5 %) et 2012 (39,3 %). Par contre, une proportion plus grande de chômeurs n’a pas déposé de demande ou avait épuisé ses prestations (ligne «Pas de demande»), soit 13,5 % en 2012 par rapport à 12,0 % en 2011. En conséquence, la proportion de chômeurs qui ont touché des prestations est passée de 28,5 % en 2011 à 25,9 % en 2012. Finalement, l’écart entre ces deux taux (2,6 points) a été réduit légèrement (à 2,4) pour le ratio P/C (41,3 en 2011 à 38,9 en 2012) parce que le nombre de prestataires non chômeurs a diminué un peu. Au bout du compte, on a trouvé des facteurs qui ont contribué à la baisse du ratio P/C, soit surtout la hausse de la proportion des prestataires non admissibles et de chômeurs qui n’a pas déposé de demande ou qui a épuisé ses prestations, et un facteur qui a atténué cette baisse, soit la baisse de la proportion de chômeurs admissibles qui n’avait pas assez d’heures pour satisfaire aux critères de l’assurance-emploi.

Comme l’analyse des changements entre 2011 et 2012 a permis de faire comprendre le contenu du tableau, je vais me contenter de faire ressortir les facteurs les plus importants pour 2013, 2014 et 2015.

En 2013, les données du tableau montrent une toute petite baisse du ratio P/C (de 38,9 à 38,4) :

  • la proportion de chômeurs admissibles a légèrement diminué (de 48,0 % à 47,6 %), surtout parce que les retours aux études furent plus nombreux (7,1 % par rapport à 5,7 %), ce qui a plus qu’annulé la baisse de la proportion de chômeurs qui n’ont pas travaillé au cours des 12 derniers mois (33,0 % par rapport à 33,9 %);
  • en raison d’une baisse importante de la proportion de chômeurs admissibles qui n’ont pas accumulé assez d’heures (de 8,7 % à 6,7 %), la proportion de chômeurs qui ont touché des prestations est passée de 25,9 % en 2012 à 27,6 % en 2013;
  • à l’inverse, la baisse importante (de près de 30 000 personnes) du nombre de prestataires non chômeurs (aussi bien de ceux qui déclarent des gains que de ceux qui n’en déclarent pas) a plus qu’annulé la hausse de la proportion de chômeurs qui ont touché des prestations.

En 2014, les données du tableau montrent une quasi-stabilité du ratio P/C (de 38,4 à 38,6) : une hausse notable de la proportion de chômeurs qui n’ont pas travaillé au cours des 12 derniers mois (34,7 % par rapport à 33,0 %) a été annulée presque complètement par une hausse de plus de 15 000 prestataires non chômeurs, uniquement du côté de ceux qui ne déclarent pas de gains.

En 2015, les données du tableau montrent une hausse notable du ratio P/C (de 38,6 à 39,8) :

  • le facteur qui a le plus contribué à cette hausse est le passage de la proportion de chômeurs admissibles de 46,1 % à 52,9 %, une hausse impressionnante de 6,8 points de pourcentage, qui s’explique par une baisse importante de 4,0 points de la proportion de chômeurs qui n’ont pas travaillé au cours des 12 derniers mois (30,7 % en 2015 par rapport à 34,7 % en 2014) et une autre de 3,1 points de la proportion de retours aux études (de 7,7 % en 2014 à 4,6 %, baisses à peine atténuées par une hausse de 0,6 point de la proportion des abandons volontaires non justifiés et licenciements pour inconduite;
  • par contre, cette hausse fut fortement affaiblie par une hausse de 1,3 point de la proportion de chômeurs admissibles qui n’ont pas accumulé assez d’heures pour satisfaire aux critères de l’assurance-emploi, de 2,5 points de la proportion de chômeurs admissibles ayant assez d’heures qui n’ont pas déposé de demande ou avaient épuisé leurs prestations et une baisse de près de 20 000 prestataires non chômeurs, uniquement du côté de ceux qui ne déclarent pas de gains.

Et alors…

Le résultat de cet exercice peut paraître frustrant. Après quelques heures de recherche et de compilation et d’analyse de données, on se gratte encore la tête pour bien comprendre ce qui peut bien expliquer les mouvements du ratio prestataires/chômeurs. Moi, au contraire, je trouve cela instructif. Ce billet montre selon moi très bien la complexité des situations de chômage et des comportements ou événements qui peuvent influencer cet indicateur. Par exemple, il aurait été tentant d’attribuer les baisses du ratio P/C de 2013 et 2014 (qui furent très faibles, on l’a vu) à la réforme des conservateurs de 2013 (pour consulter les changements apportés par cette réforme, voir ce document, surtout les pages numérotées 9 à 11), alors que les facteurs que j’ai trouvés n’ont rien à voir avec cette réforme, d’autant plus que la proportion de chômeurs qui ont touché des prestations a augmenté en 2013 et est demeurée en 2014 plus élevée qu’en 2012 (je m’attendais à une hausse de la proportion des chômeurs admissibles qui ont assez d’heures, mais qui ne déposent pas de demande, mais cette proportion a au contraire diminué un peu en 2013 et un peu plus en 2014!). Cette réforme a davantage pourri la vie des prestataires et nuit au travail saisonnier qu’elle a fait diminuer le ratio prestataires/chômeurs.

Bref, tout ce qui touche le chômage est entouré de zones grises et j’aime bien y voir un peu plus clair. Cela dit, on devra attendre encore deux ans pour voir si la réforme de 2016 des libéraux a eu une influence sur la proportion de chômeurs qui touchent des prestations.

La démondialisation ou le chaos

23 octobre 2017

Face à de nombreux événements qui semblent nous mener au chaos, Aurélien Bernier propose avec son livre La démondialisation ou le chaos – démondialiser, décroître et coopérer de redonner espoir en l’avenir avec un projet politique reposant sur trois piliers : «la démondialisation pour rompre avec le capitalisme, la décroissance pour répondre aux crises environnementales et la coopération internationale pour renouer avec l’idée de justice sociale au sens le plus global».

Introduction : «Face [au] capitalisme hégémonique, les mouvements progressistes sont dépassés. Ils doivent se battre à la fois contre une classe dominante extrêmement puissante et contre un fatalisme qui s’est profondément ancré dans la conscience collective». Pour pouvoir surmonter ces obstacles, l’auteur ne voit qu’une piste de solution, soit d’«articuler la démondialisation, la coopération, la décroissance et la répartition des richesses dans un seul et même projet politique», alors que les mouvements qui prônent chacun de ces objectifs luttent actuellement trop souvent séparément les uns des autres.

1. De quoi la mondialisation est-elle le nom? : Le concept et la réalité de la mondialisation ont grandement évolué au cours du dernier siècle. Les objectifs des entreprises transnationales ne sont plus uniquement de conquérir de nouveaux marchés, mais aussi et surtout de discipliner les salariés et leurs revendications, et les États et leurs politiques (fiscales, sociales, environnementales, pénales, etc.). L’auteur donne ensuite de nombreux exemples de ces «nouveaux» objectifs, insistant entre autres sur la mondialisation de la culture des États-Unis, qui n’est en fait qu’une forme d’impérialisme culturel.

2. L’échec des forces progressistes : L’auteur relate le contexte du virage à droite des partis socialistes et sociaux-démocrates après les Trente Glorieuses, et même un peu avant en Allemagne. Il poursuit en racontant:

  • la montée en popularité de l’altermondialisme dans les années 1990, qui, même si prometteuse, n’a pas amené de changements durables;
  • l’élection de gouvernements de gauche en Amérique du Sud qui, même si elle a permis une réduction de la pauvreté, a vu ses efforts limités par la grande dépendance de ces économies aux matières premières;
  • les contestations des mouvements d’indignation et d’occupation, qui se sont éteintes sans avancées notables;
  • l’élection d’un vrai parti de gauche en Grèce (mais qui s’est enlevé toute marge de manœuvre en refusant d’envisager la sortie de la zone euro) et la montée d’autres de ces partis en Espagne, au Portugal, en France et en Allemagne (ainsi que le virage à gauche du parti travailliste au Royaume-Uni), événements qui n’ont pas permis de changement réel.

L’auteur conclut de ce tour d’horizon que «Les mouvements qui devraient porter l’utopie ne sont plus crédibles. Si leurs positions n’évoluent pas, ils sont voués à disparaître».

3. Démondialiser : L’auteur présente tout d’abord quelques documents et livres portant sur la démondialisation. Si certains auteurs de ces textes abordent la question avec clarté, d’autres (notamment des politiciens) semblent plutôt dénaturer ce concept pour des motifs électoralistes. L’auteur considère qu’on ne peut pas vraiment démondialiser sans remettre en question le capitalisme. Il émet ensuite une série de recommandations portant aussi bien sur la monnaie et la dette que sur la forme juridique des entreprises, les nationalisations nécessaires et bien d’autres sujets.

4. Refuser la croissance : Après avoir démontré que nous consommons beaucoup plus de ressources que la Terre ne peut en régénérer, l’auteur tente de rejeter certaines solutions qu’il juge inadéquates. Il s’attaque en premier lieu à l’altercroissance (que je favorise) avec un raisonnement que j’ai trouvé circulaire et utilisant le sophisme de l’épouvantail, soit en supposant que les altercroissancistes ne prônent pas de changement majeur au système économique et donc, au mode de vie, alors que ces changements sont justement à la base du concept d’altercroissance. Il ne s’agit pas de produire les mêmes choses en consommant moins de ressources comme il le dit, mais de cesser la production de biens qui utilisent beaucoup de ressources (comme des automobiles individuelles) et de produire plus de services qui utilisent peu ou pas de ressources tout en améliorant vraiment le bien-être de la population, comme des services sociaux.

Cela dit, l’auteur a bien raison de reprocher à bien des politiciens d’avoir dénaturé les concepts d’autre croissance, de développement durable et d’économie verte pour faire bonne figure. Il décrit ensuite sa vision de la décroissance qui me semble surprenamment timide en termes de modification du mode de vie, car visant surtout les modes de production (comme l’obsolescence planifiée) et la fabrication de biens de luxe et d’armements. Il parle bien d’investissements dans le transport en commun et le logement (financés on ne sait trop comment par des fonds publics), mais sans préciser s’il vise la disparition de la voiture individuelle. Il mentionne aussi l’agriculture, mais insiste surtout sur le mode de production industrielle (surutilisation des pesticides et des antibiotiques, entre autres) et sur les pertes inutiles (aliments jetés lors du processus de fabrication), sans parler spécifiquement du gaspillage de ressources que constitue l’élevage. Je suis peut-être un peu sévère ici, car il y a quand même de bons points dans ses propositions.

5. Sortir de l’ère néocoloniale : L’auteur fait rapidement le tour de l’ère coloniale et de l’arrivée de l’ère néocoloniale qui l’a suivie. Il explique plus longuement pourquoi les anciennes colonies et les autres pays en développement ont échoué dans leurs tentatives d’émancipation. Il recommande notamment que la France quitte le Fonds monétaire international (FMI), la Banque mondiale, l’Organisation mondiale du commerce (OMC) et l’Organisation du traité de l’Atlantique Nord (OTAN), qu’elle nationalise les entreprises des secteurs dits stratégiques comme l’énergie, les télécommunications, la défense, les matières premières et la construction (avec ou sans indemnités, dans le cas de firmes coupables de «crimes économiques»), et qu’elle se contente de démanteler les autres entreprises multinationales trop grosses. Il poursuit en plaidant pour le droit des pays à l’autonomie en reconnaissant le droit démocratique des peuples de choisir leur propre système économique et politique.

Il conclut ce chapitre en prônant la coopération, tout en reconnaissant qu’il peut être difficile, voire contradictoire, de respecter l’autonomie d’un pays tout en lui demandant de coopérer (par exemple à la réduction des émissions de gaz à effet de serre), surtout quand l’autre pays a un système politique et économique néolibéral ou autoritaire. Sa solution repose sur la nationalisation des multinationales effectuée plus tôt. Comme elles sont présentes dans ces pays aussi, on pourrait leur imposer «une exemplarité absolue en termes de protection sociale des employés, de respect de l’environnement et de démocratie interne. Non seulement ces changements auront pour effet d’améliorer directement les conditions de vie des salariés et des populations locales, mais ils constitueront des points d’appuis majeurs pour les luttes sociales, dans le respect scrupuleux de la souveraineté des peuples». Simple, non?

6. Transformer les relations marchandes : Dans ce chapitre, l’auteur présente les changements qu’il voudrait instaurer dans les relations marchandes internationales. Il faudrait changer «la structure des échanges de marchandises et de services, les stratégies d’investissement et le fonctionnement des multinationales, et [reprendre] le contrôle public des outils financiers». Il fournit ensuite des recommandations pour atteindre ces objectifs.

7. Développer la coopération non marchande : L’auteur donne comme exemple à imiter l’envoi de médecins par Cuba dans d’autres pays ayant des systèmes de santé moins élaborés que le sien. Il aimerait bien voir la France en faire autant dans d’autres domaines, notamment en éducation, en agronomie, en transports, en environnement et en gestion de l’eau. Il recommande aussi une augmentation de l’aide aux pays en développement, mais avec un véritable esprit de coopération. Pour les pays développés, il croit qu’il serait possible de coopérer avec les régions ou villes progressistes de pays ayant encore des systèmes politiques et économiques opposés aux valeurs qu’il met de l’avant. Il propose par ailleurs de modifier les politiques d’immigration pour compenser les pays d’où proviennent les immigrants sélectionnés (en général formés à coûts élevés dans leur pays d’origine), d’améliorer les programmes d’accueil, d’assurer l’asile aux réfugiés politiques et climatiques, et de terminer la décolonisation des territoires d’outre-mer français.

En guise de conclusion : Face au chaos actuel (crises économiques, austérité néolibérale, terrorisme alimenté par le néocolonialisme, racisme et repli identitaire de l’extrême droite, crises écologiques et sanitaires, etc.), les résistances sont pour l’instant morcelées. L’auteur considère que seul son projet, reposant sur la démondialisation, la décroissance et la coopération, peut permettre, même si cela sera difficile, d’offrir une alternative viable.

Et alors…

Lire ou ne pas lire? Pas sûr… Si son idée de viser l’union des forces progressistes (cette expression, en plus d’être un clin d’œil à un des partis qui ont fondé Québec solidaire, aurait fait un meilleur titre que celui-ci axé sur un seul des trois piliers du projet de l’auteur), c’est-à-dire l’union des personnes qui militent aussi bien pour la démondialisation que pour la décroissance, la coopération, l’environnement et d’autres enjeux progressistes, est excellente, ses propositions et recommandations m’ont plutôt refroidi. Il est possible que j’aie lu trop de livres qui mettent en vedette LA solution d’un auteur pour régler tous les problèmes. Livre après livre, j’en sors déçu par le manque de précision sur les moyens d’atteindre les objectifs des auteurs, surtout sur la transition entre la situation actuelle et l’utopie qui nous est présentée. Dans ce livre, cette lacune (y a-t-il au moins un organisme, regroupement ou parti politique qui appuie le programme de l’auteur?) est doublée de projets qu’il est difficile d’imaginer se réaliser sans réaction d’une opposition qui est pourtant plus puissante que jamais (ce qu’il reconnaît). On va tout nationaliser sans coup férir, modifier les biens et services produits par les entreprises nationalisées tout en améliorant les conditions de travail de leurs employés et leurs processus de production en un tour de main, et ainsi convaincre la population d’autres pays d’embarquer avec nous! En même temps, on va augmenter l’aide aux pays en développement et nos investissements en transports en commun et en logement, tout en appliquant la décroissance. J’ai comme un doute! Mais bon, comme je le dis tout le temps après ce genre de critique, je n’ai pas de solution plus réaliste en tête… Au moins, les notes sont en bas de pages!

Les postes vacants et les pénuries de main-d’œuvre

20 octobre 2017

Depuis quelques années et encore plus au cours des derniers mois, le nombre d’articles portant sur des pénuries de main-d’œuvre se multiplie :

  • il manquerait de cuisiniers dans la région de Québec et en fait même de serveurs au comptoir dans la restauration rapide, à tel point qu’on fermerait durant la nuit des restaurants supposément ouverts 24 heures par jour;
  • cet autre article parle de pénuries de soudeurs, de machinistes, de préposé.es aux ventes, de programmeurs, d’ingénieurs et autres, et insiste pour affirmer que ce manque de main-d’œuvre est «cruel», en fait tellement que les employeurs se verraient forcés «d’améliorer les conditions de travail et d’offrir des salaires alléchants»; plus cruel que ça, ça ne s’imagine pas!
  • toujours à Québec, on veut retenir des étudiants étrangers en raison de la pénurie et on manque de mécaniciens;
  • en Estrie, il serait difficile de recruter des bouchers;
  • en Mauricie, ce serait aussi bien en technologies de l’information qu’en restauration qu’on voudrait plus de main-d’œuvre;
  • à Amos, en Abitibi-Témiscamingue, la «pénurie concerne autant les emplois spécialisés que ceux non spécialisés»;
  • sur la Côte-Nord, on manquerait de psychiatres, de psychologues, de gestionnaires, de personnel auxiliaire en soins de santé, et j’en passe.

Bon, j’arrête, désolé pour les employeurs des autres régions qui déplorent aussi manquer de main-d’œuvre. Le problème avec toutes ces affirmations, c’est qu’on ne sait jamais si ces pénuries sont réelles, exagérées, dues à des manques de compétences ou simplement à des conditions de travail insatisfaisantes. La source la plus pertinente sur le sujet est l’Enquête sur les postes vacants et les salaires (EPVS) dont les données ont justement été mises à jour par Statistique Canada la semaine dernière. Avec toutes ces affirmations, le taux de postes vacants a dû exploser!

Dans deux billets précédents, j’ai analysé les liens des postes vacants avec le chômage, puis avec le niveau de scolarité. Dans les deux cas, j’ai mentionné que le taux de postes vacants semble plus élevé dans les professions qui exigent le moins de compétences, mais n’ai pas pu quantifier ce phénomène par manque de données. En regardant les données les plus récentes sur les postes vacants la semaine dernière, j’ai imaginé une façon de le faire. Avant de présenter cette méthode et ses résultats, je vais d’abord faire le point sur la présence relative des postes vacants dans les provinces canadiennes, les régions du Québec et les industries. Pour ce faire, je vais utiliser les tableaux cansim provenant de l’EPVS, le tableau cansim 282-0142 provenant de l’Enquête sur la population active (EPA) et le fichier 99-012-X2011033 provenant de l’Enquête nationale auprès des ménages (ENM) de 2011.

Par province

Le tableau ci-contre expose certains constats intéressants sur le niveau de postes vacants :

  • le taux des postes vacants (tpv) a été nettement plus élevé au Canada qu’au Québec aussi bien au deuxième trimestre 2017 (2,9 % par rapport à 2,4 %) qu’en moyenne au cours des quatre derniers trimestres (2,60 % par rapport à 2,03 %);
  • le tpv a été plus élevé au cours du deuxième trimestre 2017 qu’au cours des trimestres précédents, ce qui est normal, le tpv étant toujours plus élevé au cours des deuxièmes et troisièmes trimestres qu’au cours des quatrièmes et premiers;
  • c’est en Colombie-Britannique et à l’Île-du-Prince-Édouard (!) que le tpv fut le plus élevé au cours du deuxième trimestre 2017.

Bref, s’il y a beaucoup d’articles sur les plaintes de pénuries au Québec, ça ne doit pas être drôle dans ces provinces!

Par région économique

Ce deuxième tableau conçu comme le premier indique les tpv des régions économiques du Québec :

  • les tpv les plus élevés du Québec ont été observés au deuxième trimestre 2017 en Gaspésie-Îles-de-la-Madeleine (!) et en Abitibi-Témiscamingue (!!), avec un taux de 2,8 %, finalement pas beaucoup plus élevé que la moyenne du Québec (2,4 %);
  • celui de la Capitale nationale, qu’on aurait pu penser très élevé en lisant tous les articles de journaux et en regardant les reportages sur les «pénuries» de main-d’œuvre qu’elle subit, était en fait inférieur à la moyenne au deuxième trimestre 2017 (2,2 %) et même au cours des quatre derniers trimestres (1,93 % par rapport à 2,03 %);
  • les écarts de tpv entre les régions sont étonnamment faibles, surtout pour la moyenne annuelle, où le plus élevé (2,23 %, en Outaouais) est à peine plus élevé que la moyenne de 2,03 %.

On pourrait trouver que les constats de ce tableau sont décevants, car ils ne montrent pas ce à quoi on pouvait s’attendre. Pour ma part, ce genre de constats me satisfait toujours, car ils dégonflent la rumeur publique, trop souvent basée sur les intérêts de groupes particuliers. Cela ne veut pas dire que les restaurateurs de Québec n’éprouvent pas de difficultés de recrutement (d’ailleurs, les données indiquent qu’il y aurait eu 325 postes de cuisiniers vacants dans la région de la Capitale nationale au cours du deuxième trimestre 2017, ce qui représente 16 % des 2060 postes de cuisiniers vacants au Québec, alors que cette région ne regroupe que 5,5 % des salariés), mais que ces difficultés semblent bien moins répandues que les médias ne le rapportent.

Par industrie

Le tableau ci-contre nous indique le taux de postes vacants par industrie au cours du deuxième trimestre 2017 au Québec et au Canada. Les secteurs où on observe les taux les plus élevés et les plus bas se ressemblent grandement dans les deux territoires. Du côté des plus élevés, le secteur gagnant est celui des cultures agricoles (8,2 % au Canada et 5,9 % au Québec) suivi de celui de l’hébergement (5,5 % et 5,6 %). Le secteur de la restauration, même si c’est celui dont on entend le plus parler (peut-être après les cultures agricoles) se classe de son côté au quatrième rang (4,9 % et 3,4 %). Du côté des plus faibles, j’ai été surpris de constater que le secteur de l’enseignement était celui avec le tpv le moins élevé (0,9 % et 0,4 %) et que les services publics (formés au Québec à environ 90 % d’Hydro-Québec et à près de 10 % de Gaz Métro) se classaient au deuxième rang au Canada (1,2 %) et au troisième au Québec (1,5 %), derrière l’élevage et l’aquaculture (1,3 %, autre surprise!).

Par profession

Le problème avec les données de l’EPVS par profession est qu’elle fournit le nombre de postes vacants totaux, pour les 10 genres de compétences, les 40 grands groupes, les 140 groupes intermédiaires et les 500 groupes de base (qu’on appelle fréquemment «les professions») de la Classification nationale des professions de 2016 ou CNP 2016 (lorsqu’il y en a suffisamment pour que ce nombre soit fiable et non confidentiel), mais pas le tpv ni le nombre de salariés. Cela est selon moi étrange, car ces données sont fournies dans le tableau des postes vacants par industrie. Pour la suite du billet, j’ai tenté de trouver une méthode pour estimer le nombre de salariés par profession et, par le fait même, le tpv. Ce taux se calcule en effet en divisant le nombre de postes vacants par le nombre de salariés + le nombre de postes vacants (ce que l’EPVS considère comme «la demande de travail»).

– la méthode

Pour estimer le nombre de salariés selon les 10 genres de compétences et les 40 grands groupes, j’ai utilisé les données de 2016 de l’EPA (à l’aide du tableau cansim 282-0142) et ai multiplié le nombre de personnes en emploi par le pourcentage de salariés (soit le nombre de personnes en emploi moins les travailleurs autonomes sur le nombre de personnes en emploi) de ces groupes de professions avec l’aide des données du fichier 99-012-X2011033 provenant de l’ENM de 2011. Pour les quelques professions dont je vais présenter un tpv, j’ai utilisé les données sur le nombre de personnes en emploi fournies sur ce site Internet (moyenne de 2013 à 2015 arrondie) que j’ai aussi multipliées par le pourcentage de salariés tiré du même fichier de l’ENM. Le résultat d’un exercice où on utilise trois sources différentes de données est forcément approximatif. D’ailleurs, le nombre total de salariés que j’ai obtenu est supérieur d’entre 7 et de 9 % à celui de l’EPVS, ce qui fera en sorte que les tpv que je vais présenter seront un peu plus faibles que ceux de l’EPVS publiés par Statistique Canada (car le nombre de postes vacants est divisé par un nombre d’emplois plus élevé). Cela dit, comme mon objectif est de trouver les professions et les genres et niveaux de compétences qui présentent les taux les plus bas et les plus élevés, je crois que cette méthode peut donner des résultats satisfaisants.

– selon les genres de compétences

Le tableau qui suit indique de nombre de salariés calculés (à titre purement indicatif compte tenu de la méthode de calcul), le nombre de postes vacants du deuxième trimestre 2016 au deuxième trimestre 2017, la moyenne des quatre derniers trimestres (soit la moyenne annuelle), le taux de croissance du nombre de postes vacants entre le deuxième trimestre 2016 et le deuxième trimestre 2017, puis finalement l’estimation du taux de postes vacants (tpv) au cours du deuxième trimestre 2017 et de ce taux moyen au cours des quatre derniers trimestres.

On remarque tout d’abord que le nombre de postes vacants au cours du deuxième trimestre 2017 (83 860) est de loin le plus élevé des cinq trimestres pour lesquels le tableau présente des données. On voit d’ailleurs que ce nombre a augmenté de 25 % en moyenne entre le deuxième trimestre 2016 et le deuxième trimestre 2017, cette hausse s’étant manifestée en premier lieu dans les professions des métiers et du transport (même si cette hausse de 68 % n’a porté le tpv de ces professions qu’à 2,55 %, au cinquième rang des 10 genres de compétence), puis dans les professions de la fabrication (42 %). Il n’y a que dans la gestion que leur nombre n’a pas augmenté. On peut donc conclure qu’il est vrai que les difficultés de recrutement sont en hausse, même si elles demeurent bien moins importantes que dans le reste du Canada.

Du côté du tpv, on peut voir que le taux le plus élevé, et de loin, s’observait au deuxième trimestre dernier dans les professions des ressources naturelles et de l’agriculture, avec un taux plus de deux fois plus élevé que la moyenne (5,3 % par rapport à 2,2 %). Ce résultat montre que la méthode approximative que j’ai utilisée semble bien fonctionner, car il est cohérent avec le résultat «officiel» par industrie qui a montré que le tpv le plus élevé était dans les cultures agricoles. Les tpv les plus élevés qui suivent étaient dans la fabrication (3,1 %) et la vente et services (2,8 %), et le plus faible dans l’enseignement, droit et services sociaux, communautaires et gouvernementaux (0,8 %), trois résultats qui sont aussi cohérents avec ceux par industrie.

– selon les niveaux de compétences

Le tableau qui suit est conçu comme le précédent.

On peut voir dans les deux colonnes de droite que les tpv augmentent à l’inverse du niveau de compétences, à la fois au cours du deuxième trimestre 2017 et dans la moyenne des quatre derniers trimestres. Ainsi, le tpv du personnel élémentaire était 2,4 fois plus élevé que celui du personnel professionnel (3,7 % par rapport à 1,5 %) au cours du deuxième trimestre 2017 et près de deux fois plus élevé (2,7 % par rapport à 1,4 %) dans la moyenne des quatre derniers trimestres. L’écart est un peu moindre dans la moyenne des quatre derniers trimestres qu’au cours du deuxième trimestre 2017 en raison des activités saisonnières plus nombreuses dans les professions élémentaires que professionnelles. La colonne précédente nous montre en plus que le nombre de postes vacants a augmenté davantage dans les professions aux niveaux de compétences les moins élevés entre le deuxième trimestre 2016 et le deuxième trimestre 2017 (entre 31,5 % et 33,4 %) que chez le personnel professionnel (17,1 %) et celui de la gestion (aucune augmentation). Ce tableau nous montre clairement ce que je soupçonne depuis longtemps, soit que le tpv est beaucoup plus élevé dans les professions qui exigent le moins de compétences que dans celles qui en exigent le plus, et que l’écart entre les deux tend à augmenter.

– quelques professions

Le tableau qui suit montre les six professions (comptant au moins 5000 salariés estimés) qui avaient les taux de postes vacants les plus élevés au deuxième trimestre 2017 (selon la méthode que j’ai décrite plus tôt) et les six professions avec le plus de postes vacants au même trimestre.

 

On peut voir que quatre des six professions montrant les tpv les plus élevés (dont les trois premières) font partie des professions élémentaires (dont le deuxième chiffre du code est un 6 ou un 7). De ces quatre professions, deux sont saisonnières, une énormément (les manœuvres en aménagement paysager et en entretien des terrains auraient eu selon l’EPVS moins de 400 postes vacants dans les trois autres trimestres des trois années précédentes et parfois aucun – ou trop peu pour que l’EPVS publie cette donnée – mais plus de 1000 dans le deuxième des années 2015, 2016 et 2017), l’autre moins (les manœuvres dans la transformation des aliments et des boissons, dont le nombre de postes vacants a varié entre 450 et 1250 au cours des 10 derniers trimestres, mais jamais en bas de 960 au deuxième trimestre). Les deux autres professions avec les tpv les plus élevés font partie des professions techniques (les animateurs/animatrices et responsables de programmes de sports, de loisirs et de conditionnement physique) et intermédiaires (les ouvriers/ouvrières agricoles), mais aucune du personnel professionnel ni de la gestion. Finalement, le tableau montre que les hausses les plus élevées entre les deuxièmes trimestres de 2016 et de 2017 se sont observées chez les nettoyeurs spécialisés (hausse de près de 400 %!) et chez les manœuvres dans le traitement des pâtes et papiers et la transformation du bois (hausse de 68 %), industries qui ont perdu beaucoup d’emplois au cours des dernières années et à l’avenir plutôt incertain.

Quatre des six professions comptant le plus de postes vacants sont dans la vente et les services (dont le premier chiffre du code est un six) et deux d’entre elles sont dans des professions élémentaires, soit les serveurs/serveuses au comptoir, aides de cuisine et personnel de soutien assimilé (dont la présence au sommet des postes vacants converge avec le tpv élevé dans la restauration et les difficultés de recrutement dont se plaignent les restaurateurs) et les caissiers/caissières, deux professions qui seraient en voie de disparition selon nos futurologues qui prévoient la disparition de la moitié des emplois actuels d’ici moins de 20 ans (il en reste 16…) en raison de leur automatisation. En tout cas, les employeurs ont actuellement de la difficulté à pourvoir leurs postes dans ces professions! On y trouve en plus les :

  • conducteurs/conductrices de camions de transport, qui ont toujours eu beaucoup de postes vacants, mais dont le nombre a augmenté de 87 % entre le deuxième trimestre 2016 et celui de 2017;
  • cuisiniers/cuisinières, dont la demande est en partie saisonnière et fortement médiatisée;
  • autres préposés/autres préposées aux services d’information et aux services à la clientèle, dont la demande reflète les difficultés de recrutement de ces préposés dans les centres d’appel (et ailleurs);
  • aides-infirmiers/aides-infirmières, aides-soignants/aides-soignantes et préposés/préposées aux bénéficiaires, professions dont les difficultés de recrutement sont souvent négligées, même si souvent médiatisées;

mais, encore une fois, aucune profession du personnel professionnel ni de la gestion. Bref, ces résultats cadrent tellement bien avec ceux par industrie et par niveau de compétences que ma méthode peu orthodoxe semble donner des résultats plus qu’acceptables!

Et alors…

Que conclure de tout cela? Il semble clair que les employeurs ont plus de difficulté à pourvoir des postes qui exigent peu de compétences que des postes qui en exigent beaucoup. Ce ne serait donc pas, comme on l’entend et le lit souvent, en premier lieu un problème de manque de compétences, ce qui correspondrait avec l’utilisation si fréquente du terme «pénurie», mais surtout une offre de main-d’œuvre peu qualifiée insuffisante et des conditions de travail peu attrayantes. Comme je l’écrivais dans un précédent billet (avec quelques modifications) : lorsqu’on offre en moyenne 11,45 $ au Canada et 11,25 $ au Québec (ce qui est exactement le salaire minimum) pour des postes de caissiers ou 11,90 $ au Canada et 11,80 $ au Québec pour des postes de serveurs au comptoir (et qu’on traite souvent les personnes qui acceptent de telles offres comme des moins que rien…), doit-on se demander longtemps pourquoi on ne trouve pas rapidement de personnes prêtes à occuper ces postes quand ils se libèrent et pourquoi ils se libèrent si souvent? On notera que ces salaires sont ceux qui sont offerts pour les postes demeurés vacants, mais on ne sait pas quels salaires ont été offerts pour les postes de caissiers et de serveurs au comptoir qui ont été pourvus. Chose certaine, si le salaire minimum augmentait à 15,00 $ de l’heure, non seulement la qualité de vie des personnes qui actuellement gagnent moins que ça serait améliorée, mais les employeurs auraient moins de difficulté à trouver preneurs pour ces postes et se plaindraient moins souvent aux journalistes de subir des pénuries de main-d’œuvre!

Maternité, la face cachée du sexisme

16 octobre 2017

Avec son livre Maternité, la face cachée du sexisme : plaidoyer pour l’égalité parentale, Marilyse Hamelin se demande «Pourquoi les mères sont-elles encore considérées comme LE parent par défaut ?». Selon elle, «il n’y aura pas d’égalité des chances tant que la majorité des responsabilités parentales échoira aux femmes».

Introduction – Jours de colère : L’auteure explique le contexte qui l’a amenée à entreprendre la rédaction de ce livre. Elle se désole de l’écart qui existe encore entre la situation actuelle et une véritable égalité des chances entre les hommes et les femmes. Elle attribue la majeure part de cet écart à la maternité et même à la simple possibilité qu’une femme ait des enfants (même si elle n’en a pas et n’en aura jamais).

1. Maternité et marché du travail – le règne de la discrimination : L’auteure donne de nombreux exemples de femmes qui ont perdu la responsabilité de dossiers, la «confiance» d’un employeur, un poste et même un emploi pour avoir décidé d’avoir un enfant, ou qui ont été écartées d’un poste ou d’une promotion parce qu’elles «risquent» d’en avoir uniquement parce qu’elles sont des femmes. Elle explique ensuite que le Régime québécois d’assurance parentale (RQAP) est un pas dans la bonne direction, mais qu’il est insuffisant, qu’il devrait être bonifié et que les travailleuses qui l’utilisent, surtout celles qui ont un emploi précaire, devraient être mieux protégées.

2. Pourquoi la mère est-elle encore considérée comme le parent par défaut ? : Non seulement les femmes accomplissent la grande majorité des tâches liées aux soins des enfants (l’auteure parle de 70 %, en citant les données de l’Enquête sociale générale de 2005; ce taux serait passé à un peu moins de 65 % en 2015 selon les données du tableau cansim 113-0004, une amélioration bien faible et bien lente accompagnée d’une hausse du temps de travail des femmes, ce qui a entraîné une légère réduction de leur temps libre), mais les gouvernements s’adressent toujours à elles pour ces questions et leur versent d’ailleurs les allocations pour enfants, institutionnalisant leur statut de parent principal. Il en est de même des services sociaux et communautaires, et des sites Internet offrant des conseils ou des services de soins aux enfants, qui s’adressent presque toujours aux femmes, rarement aux hommes ou aux hommes et aux femmes.

L’auteure poursuit en abordant :

  • la charge mentale liée à la responsabilité de devoir tout planifier pour la famille, charge supportée presque uniquement par les femmes;
  • la normalité des soins apportés par les femmes face à leur aspect extraordinaire quand ce sont des hommes qui les apportent (même si ces soins portent très souvent sur les formes de tâches les plus agréables à assumer, comme de jouer avec les enfants);
  • l’imposture de l’inné («on ne naît pas femme, on le devient»);
  • «la pression exercée sur les femmes pour devenir LA mère parfaite».

3. Les pères qui s’impliquent; obstacles et préjugés : Les hommes aussi peuvent subir des pressions s’ils s’éloignent du modèle du mâle pourvoyeur et tentent de s’impliquer davantage dans les soins aux enfants. Ces pressions viennent aussi bien des cercles sociaux et des employeurs (des hommes aussi, même si cela arrive moins souvent que chez les femmes, ont déjà perdu des postes, des promotions et des emplois pour avoir pris des congés de paternité «trop longs», entre autres), que de l’école et des services sociaux. Pour favoriser une véritable implication des pères, l’auteure recommande comme premier pas un meilleur partage du congé parental.

4. Le partage du congé parental, une mesure radicale ? : L’auteure raconte au début de ce chapitre les démarches et pressions qui ont mené à la création du RQAP, particulièrement à celle d’un congé de paternité non transférable à la mère pour inciter les pères à prendre ne serait-ce que quelques semaines de congé lors de la naissance d’un enfant. Même si la création de ce congé fut un succès (80 % des pères le prennent), sa courte durée (trois ou cinq semaines, selon le pourcentage de remboursement) ne permet pas vraiment à faire en sorte que la mère ne soit plus considérée comme le parent par défaut. Or, seulement le tiers des pères utilisent une partie du congé parental partageable de 32 semaines et souvent pour une très courte période.

L’auteure présente aussi des formules encore plus complètes de congés non partageables en vigueur dans quelques pays d’Europe et nous fait part des réactions négatives du président du Conseil du patronat (ce qui est déplorable, mais pas étonnant) et du président de l’Ordre des conseillers en ressources humaines (ce qui est franchement honteux) face à la possibilité que ces formules soient adoptées au Québec. L’auteure présente ensuite différentes opinions sur l’option idéale de la durée des congés non transférables et transférables. Disons seulement que la seule recommandation unanime touche la nécessité de prolonger le congé de paternité non transférable, manifestement trop court avec ses cinq semaines comme c’est le cas actuellement (ou pire, avec ses trois semaines si on demande le taux de remplacement de revenu majoré à 75 % plutôt qu’à 70 %…). Finalement, elle propose d’autres bonifications au RQAP, notamment une hausse du taux de remboursement pour les personnes à faible salaire.

5. Plus égalitaires, les parents de la génération Y ? : À l’aide de quelques témoignages et des faits présentés dans les précédents chapitres, l’auteure constate que les femmes retirent en général beaucoup moins de satisfaction de leur relation de couple hétérosexuel que les hommes. Elle se demande si les femmes n’endurent pas cette situation en grande partie parce que la société leur a inculqué dès leur plus jeune âge la croyance que la maternité est une condition nécessaire pour qu’elles se réalisent et qu’elles ont donc besoin d’un géniteur (je simplifie). Et lorsqu’elles reproduisent «trop» ce modèle, on leur reproche d’être trop contrôlantes, d’être des «Germaine»! L’auteure conclut ce chapitre en montrant à quel point les changements de mentalité sont lents et que les progrès ne peuvent donc être que graduels.

Conclusion – «Des changements nécessaires» : L’auteure aimerait être optimiste, mais comme les mentalités doivent évoluer pour que les institutions changent, on ne peut pas s’attendre à ce que les inégalités entre les hommes et les femmes disparaissent rapidement. Elle conclut en revenant sur les recommandations qu’elle a faites tout au long du livre.

Et alors…

Lire ou ne pas lire? Lire! Ce petit livre m’a agréablement surpris. On pourrait craindre que la thèse de l’auteure, qui est d’attribuer les inégalités entre les hommes et les femmes à un facteur prédominant, la maternité, soit réductrice, mais non, pas du tout. Elle sait en effet bien ramasser les différents aspects de la question pour au bout du compte livrer un argumentaire très solide et très complet. Elle est peut-être en colère de cette situation, mais pas amère et tout à fait lucide (et solidaire!). En plus, son écriture est agréable et ses sources solides et pertinentes. Et les notes fréquentes et souvent substantielles sont en bas de page! Bravo!

La viabilité financière du Québec et du Canada

13 octobre 2017

Les médias ont été nombreux à souligner la parution du dernier rapport du Directeur parlementaire du budget (DPB) sur la viabilité financière. Si l’article du Devoir m’a paru assez juste (expliquant très bien le sens du concept de viabilité financière), celui de Radio-Canada (en fait de la Presse canadienne, comme celui de La Presse) était laconique et celui de TVA (en fait de l’Agence QMI) carrément teinté politiquement (applaudissant l’impact des politiques d’austérité du gouvernement du Québec). On voit que ce rapport peut mener à toutes sortes d’interprétations. J’ai donc décidé de le lire pour pouvoir comprendre quel sont en fait les messages qu’on doit en retenir. En plus du rapport comme tel, j’utiliserai aussi pour rédiger ce billet les données fournies par le DPB dans les classeurs accessibles sur cette page.

Viabilité financière

Hélène Buzetti explique finalement mieux le concept de viabilité financière dans son article que ne le fait le rapport du DPB :

«La viabilité financière est un concept économique qui ne signifie pas qu’une entité gouvernementale est en équilibre budgétaire. Loin de là. Il s’agit plutôt de calculer si le niveau d’endettement d’un gouvernement (sa proportion par rapport à la taille de l’économie) restera le même au cours des 75 prochaines années considérant les niveaux actuels de revenus et de dépenses et les projections démographiques [et économiques]. Si le pourcentage d’endettement projeté reste le même, on dit qu’il y a viabilité financière. Si le pourcentage est appelé à diminuer, alors on dit que le gouvernement a une marge financière.»

Avec une telle définition, il est clair qu’il faut faire attention aux conclusions qu’on peut tirer d’un tel exercice, qui vise à estimer la viabilité financière de 2017 à 2091 des politiques budgétaires actuelles des gouvernements fédéral et provinciaux. D’ailleurs, si cet exercice était précis, le DPB n’aurait pas besoin de le mettre à jour chaque année! La nouveauté de son rapport de 2017 est d’avoir diffusé des estimations pour chaque province plutôt que seulement pour l’ensemble de ce qu’il appelle les administrations infranationales (provinces et territoires). Cela nous permet d’examiner les résultats pour chaque province. Dans ce billet, je présenterai succinctement les résultats pour le gouvernement fédéral, le Québec, l’Ontario et l’Alberta. Je ne ferai toutefois qu’effleurer la méthodologie utilisée par le DPB.

Gouvernement fédéral

Le graphique ci-contre montre que le pourcentage des revenus du gouvernement fédéral (ligne bleue) sur le PIB canadien a diminué de façon importante depuis 1990 (trait plein), passant d’un sommet de 18,5 % en 1997 à 13,7 % en 2016; le DPB prévoit (points bleus) que ce pourcentage diminuera légèrement à moyen terme pour atteindre 13,5 % en 2020 et remontera à 13,7 % en 2021 pour demeurer à ce niveau jusqu’en 2091.

Il montre aussi que le pourcentage des dépenses de programme (excluant donc les frais de la dette publique) du gouvernement fédéral (ligne dorée) sur le PIB a diminué de façon importante depuis 1990 (trait plein), passant d’un sommet de 17,9 % en 1992 à 13,4 % en 2016; le DPB prévoit (points dorés) que ce pourcentage diminuera légèrement à moyen terme jusqu’à 12,8 % en 2022, remontera à 13,0 % en 2030, puis diminuera graduellement par la suite pour atteindre 11,3 % en 2091.

Comme l’indique le graphique ci-contre, ces variations sont dues en bonne partie aux prestations pour les personnes âgées, dont le coût augmentera dans un premier temps en raison du vieillissement de la population (de 2,3 % du PIB en 2016 à 2,9 % en 2032), pour diminuer ensuite graduellement pour atteindre 1,9 % en 2091. Cette baisse s’explique par le fait que les prestations pour personnes âgées (sécurité de la vieillesse et supplément de revenu garanti) sont indexées selon l’indice des prix à la consommation qui augmente moins rapidement que le PIB par habitant. Et dire que le gouvernement Harper et bien des conservateurs et autres politiciens et économistes de droite nous cassent les oreilles en nous disant qu’il faut retarder l’admissibilité à ces programmes de 65 ans à 67 ans pour éviter un désastre financier, alors que l’importance de ces programmes par rapport au PIB sera en fait en baisse. On pourrait en fait se permettre de les bonifier et on devrait le faire! Ce graphique montre aussi que les dépenses pour les prestations pour enfants, après être passées de 0,7 % en 2014 à 1,0 % du PIB en 2016 en raison de la création de l’Allocation canadienne aux enfants, diminueront ensuite graduellement pour atteindre 0,5 % en 2091 en raison de la baisse en importance de la population âgée de moins de 18 ans.

Au bout du compte, en tenant compte aussi de la légère baisse en importance des transferts aux provinces (de 4,4 % du PIB en 2016 à 4,0 % en 2091), ces changements feraient en sorte que le pourcentage de la dette nette sur le PIB, qui est déjà passé de son sommet de 73 % en 1996 (voir les barres grises du graphique du début de cette partie) à 45 % en 2016, deviendrait négatif en 2062 et terminerait la période de prévision (en 2091) à -58 %! Le DPB conclut que le gouvernement fédéral pourrait augmenter ses dépenses ou diminuer ses revenus d’une moyenne de 1,2 % du PIB chaque année de cette période sans remettre en cause sa viabilité financière, ce qui représente 24,5 milliards $ en 2016. En prenant d’autres hypothèses, le DPB en arrive à des marges de manœuvre variant de 0,5 à 2,1 % du PIB, ou de 10 à plus de 40 milliards $. Bref, non seulement nos prophètes de malheur peuvent se calmer, mais ce gouvernement a les moyens d’améliorer ses programmes (transferts aux personnes âgées et aux provinces, assurance-emploi, etc.) sans mettre en danger sa viabilité financière et même sans avoir besoin d’augmenter ses revenus!

Québec

Le graphique ci-contre est l’équivalent du premier que j’ai montré pour le Canada. Il indique que le pourcentage des revenus du gouvernement du Québec (ligne bleue) sur le PIB (celui du Québec) a augmenté de façon notable depuis 2008 (trait plein), passant de 33,3 % à 34,9 % en 2016; se basant sur le plan des revenus du budget du Québec de 2017, le DPB prévoit (points bleus) que ce pourcentage augmentera graduellement pour atteindre 37,5 % en 2091. Cette hausse de 2,6 points de pourcentage s’explique presque uniquement par la hausse prévue de la péréquation, dont la contribution passerait de 2,6 % du PIB en 2016 à 5,0 % en 2091, contribuant ainsi à 2,4 des 2,6 points de pourcentage de hausse. En fait, alors que le Québec a reçu 60 % de la péréquation en 2016, il en recevrait 75 % en 2091, même si sa contribution par habitant demeurerait inférieure à celles reçues par le Nouveau-Brunswick et la Nouvelle-Écosse. Il faut ici comprendre que (même si le DPB ne l’explique pas) les sommes consacrées à la péréquation varient en fonction du taux de croissance du PIB canadien. Or, celui-ci serait 15,5 fois plus élevé en 2091 qu’en 2016, alors que celui du Québec ne serait que 10 fois plus élevé. Au lieu de représenter 19,4 % du PIB canadien comme en 2016, le PIB du Québec n’en représenterait plus que 12,6 % en 2091. Les hausses plus élevées que le PIB québécois de la péréquation lui seraient bien sûr bénéfiques.

Ce graphique montre aussi que le pourcentage des dépenses de programme (excluant ici aussi les frais de la dette publique) du gouvernement du Québec (ligne dorée) sur le PIB a diminué quelque peu depuis 2009 (année de récession, trait plein), passant de 32,2 % à 31,1 % en 2016; le DPB prévoit (points dorés) que ce pourcentage augmentera légèrement et graduellement par la suite pour atteindre 32,7 % du PIB en 2091. Cette augmentation de 1,6 point de pourcentage est le résultat d’une hausse bien plus importante dans le secteur de la santé (2,8 points), hausse atténuée par des baisses de 1,2 point en éducation, en services sociaux et dans les autres domaines.

Ces surplus budgétaires consécutifs de quatre à cinq points de pourcentage auraient un effet cumulatif majeur sur la dette nette. Elle qui correspondait à un peu plus de 52 % du PIB en 2012 et à 47 % en 2016 serait totalement éliminée dès 2031 et atteindrait un surplus ahurissant de 370 % du PIB en 2091! Selon les calculs du DPB, ce surplus correspondrait en 2016 à 3,0 % du PIB québécois (surplus variant de 2,2 % à 3,6 % du PIB en utilisant des hypothèses démographiques et économiques plus pessimistes ou plus optimistes) et permettrait au gouvernement du Québec d’augmenter ses dépenses de 9 %, soit de 11,7 milliards $ (ou, selon les hypothèses, d’une somme allant de 8,6 milliards à 14,0 milliards $) ou de diminuer ses recettes de 8 %. Je reviendrai sur les conséquences de ce constat en conclusion.

Ontario

Je vais ici me contenter de résumer les principaux constats du DPB. Le graphique ci-contre montre que le DPB estime que le pourcentage des revenus du gouvernement de l’Ontario (points bleus) sur le PIB demeurera très stable de 2016 à 2091, ne variant que de 0,2 point de pourcentage, passant de 24,1 % en 2016 à 23,9 % en 2091.

Ce graphique montre aussi que le DPB prévoit que le pourcentage des dépenses de programme (points dorés) sur le PIB passera de 23,5 % du PIB en 2016 à 22,6 % en 2021, avant d’augmenter graduellement par la suite pour atteindre 24,5 % du PIB en 2091.

Ces deux évolutions feraient en sorte que le solde primaire du budget de l’Ontario passerait d’un surplus de 1,4 point de pourcentage en 2021 à un déficit à compter de 2045, déficit qui augmenterait graduellement pour atteindre 0,9 point en 2091. Sa dette nette connaîtrait son plancher de 26,5 % du PIB en 2031 puis augmenterait par la suite pour atteindre 82,5 % du PIB en 2091. Le DPB ne considère pas cette situation viable. Mais il suffirait d’une baisse des dépenses ou d’une hausse des recettes de 2 % pour régler ce problème, variations qui correspondent à 0,4 % seulement du PIB ontarien (ou 3,5 milliards $). On voit donc que l’utilisation d’une période aussi longue de prévision a tendance à accentuer les problèmes et à les rendre plus menaçants qu’ils ne le sont vraiment. D’ailleurs, des hypothèses plus optimistes auraient transformé cet écart négatif de 0,4 % du PIB en un écart positif de 0,2 %, mais des hypothèses plus pessimistes l’auraient fait atteindre 1,2 %. Bref, il y a peu de choses à craindre dans ce verdict.

Alberta

Le graphique ci-contre montre tout d’abord que les revenus de l’Alberta (ligne bleue) ont diminué passablement de 2009 (avec un pourcentage de 19,5 % du PIB albertain) à 2016 (18,1%). Cette baisse s’explique en premier lieu par la chute des revenus provenant du pétrole. Même si l’ampleur des revenus de cette source est bien incertaine, le DPB estime que le pourcentage des revenus du gouvernement de l’Alberta (points bleus) sur le PIB demeurera très stable de 2020 à 2091, ne variant que de 0,2 point de pourcentage, passant de 18,5 % en 2016 à 18,3 % en 2091. Il note aussi que cette proportion est de loin la plus basse de toutes les provinces canadiennes. Je me permets de renchérir en précisant que le pourcentage prévu en 2091 est inférieur à la moitié de celui prévu au Québec (37,5 %).

Du côté des dépenses, ce graphique montre la grande variabilité des dépenses (ligne dorée) de 2008 à 2016, celles-ci étant passées de 16,8 % du PIB en 2014 à 23,7 % en 2016, hausse qui s’explique plus par la baisse du PIB (de 18 %) que par la hausse des dépenses (de 16 %). Tout en soulignant l’incertitude de l’évolution de ce pourcentage, le DPB prévoit tout de même (c’est son travail…) que le pourcentage des dépenses de programme (excluant les frais de la dette publique) du gouvernement de l’Alberta (points dorés) sur le PIB passerait de 23,7 % du PIB en 2016 à 21,3 % en 2021, avant d’augmenter graduellement par la suite pour atteindre 23,4 % du PIB en 2091, hausse due uniquement à l’augmentation des dépenses de santé.

Ces deux évolutions feraient en sorte que le solde primaire du budget de l’Alberta serait fortement déficitaire tout au long de cette période, avec une ampleur augmentant graduellement de 2,8 % en 2019 à 5,1 % en 2091. Sa dette nette exploserait, passant de seulement 1 % en 2016 (cette province avait un surplus représentant 15 % du PIB en 2009) à 323 % du PIB en 2091! C’est dans le fond une situation directement opposée à celle du Québec. Le DPB ne considère évidemment pas cette situation viable. Pour que cette situation soit viable, le gouvernement albertain devrait diminuer ses dépenses de 20 % ou augmenter ses recettes de 25 %, variations qui correspondent à 4,6 % du PIB albertain ou 14,1 milliards $. Les hypothèses plus optimistes et plus pessimistes font varier ce besoin de 3,2 % à 5,4 % du PIB, soit de 9,8 à 16,6 milliards $. Cela semble énorme, mais cela ferait passer le pourcentage des recettes de l’Alberta de 18,5 % du PIB à une fourchette allant de 21,7 à 23,9 % du PIB, soit grosso modo le niveau des recettes de l’Ontario (23,5%), et bien loin encore de celui des recettes du Québec (34,9 %). Cette hausse peut sembler bien raisonnable, mais, compte tenu du climat politique albertain, elle pourrait bien entraîner une révolution!

Portrait de la viabilité financière de l’ensemble des administrations infranationales

Le graphique ci-contre résume la situation pour toutes les administrations infranationales. On voit que le Québec et, dans une moindre mesure, la Nouvelle-Écosse sont les deux seules provinces qui présentent une situation financière viable. Si la situation ne semble pas trop négative dans les cinq provinces du centre du graphique (qui ont un écart financier d’au plus 1,5 % de leur PIB), elle est plus inquiétante pour le Manitoba (3,8 %), l’Alberta (4,6 %), Terre-Neuve (6,5 %) et les Territoires (7,2 %). Cela dit, ces gros écarts peuvent être trompeurs, car la première barre du graphique nous montre bien que, globalement, ils ne représentent que 0,9 % du PIB canadien. Or, on l’a vu dans la première partie de ce billet, le gouvernement fédéral a une marge de manœuvre que le DPB évalue à 1,2 % du PIB canadien, soit nettement plus que le déficit combiné des administrations infranationales (0,9 %).

Le graphique qui accompagne ce billet (que j’ai reproduit ci-contre dans un format plus lisible) montre bien avec la ligne pointillée noire que le secteur gouvernemental général, qui combine les lignes dorée et bleue, est tout à fait viable avec une dette nette qui ne s’élèverait qu’à environ 25 % du PIB canadien en 2091, le surplus du gouvernement fédéral (s’élevant à 58 % du PIB) compensant la grande majorité du déficit des administrations infranationales (environ 100 %). Dit autrement, la marge de manœuvre du gouvernement fédéral de 24,5 milliards $ pourrait amplement compenser le manque à gagner de 18,7 milliards $ des administrations infranationales en augmentant simplement les transferts aux provinces. Cette situation montre clairement que ce qu’on appelle le déficit fiscal des provinces par rapport au gouvernement fédéral est encore bien présent : si rien ne change, le gouvernement fédéral nagera dans les surplus (malgré une baisse énorme de ses revenus, soit de 18,5 % du PIB en 1997 à 13,7 % en 2016, une baisse de 25 %) et les provinces seront piégées dans leurs dettes en raison de la forte hausse des frais de santé. Il est certain qu’il y aurait des ajustements à faire, par exemple parce que plus des trois quarts du manque à gagner des administrations infranationales proviennent de l’Alberta, mais on voit que la situation financière globale du Canada est saine à long terme.

Finalement, je voudrais répéter que ces estimations sont fortement explosives en raison de la longue période de prévision, où la situation de départ est simplement prolongée sans changement de fiscalité ou de conjoncture. D’ailleurs, l’estimation du manque à gagner des administrations infranationales dans le rapport de l’an passé était de 1,5 % du PIB canadien ou de 30,2 milliards $, soit 60 % de plus que le manque à gagner estimé cette année (18,7 milliards $). Cela montre bien qu’il faut prendre ces estimations avec des pincettes, qu’elles sont faites pour lancer des signaux, pas pour être prises à la lettre. Malheureusement, je le rappelle, le rapport de l’an passé (et ceux des années précédentes) ne fournissait pas de données par province. J’aurais bien aimé voir les estimations du DPB des cinq dernières années pour l’Alberta et le Québec!

Et alors…

Ce rapport, malgré toutes les réserves qu’il faut prendre dans l’interprétation de ses estimations, vient apporter un élément de preuve supplémentaire de l’imposture utilisée par le gouvernement libéral du Québec pour vendre ses politiques d’austérité. Il disait en effet à son arrivée au pouvoir que la situation budgétaire du Québec était catastrophique. On peut d’ailleurs lire dans le discours du premier budget de ce gouvernement que «Pour 2014-2015 et 2015-2016, si rien n’était fait, le Québec serait confronté à des déficits respectifs de 5,9 milliards de dollars et de 7,6 milliards de dollars, ce qui l’éloignerait de nouveau du retour à l’équilibre budgétaire». En entrevue, Carlos Leitao, ministre des Finances, osait même prétendre que si on ne faisait rien, la situation budgétaire du Québec se comparerait à celles de la Grèce et du Portugal d’ici 5 ans! Sans avoir pu tout comptabiliser, l’Institut de recherche et d’informations socio-économiques (IRIS) estime que ce gouvernement a effectué pour au moins 4 milliards $ de compressions budgétaires, touchant aussi bien les enfants, les jeunes que les aîné.es, et plus particulièrement les femmes du Québec.

On savait déjà que ces compressions étaient idéologiques et non pas nécessaires comme ce gouvernement le prétendait. Le surplus de 4,5 milliards $ en 2016-2017 le montrait déjà, surplus qui est parti pour être encore plus élevé cette année (2017-2018) avec un surplus de 1200 millions $ en quatre mois, soit plus du double du surplus de 571 millions $ pour les quatre mêmes mois de l’année financière précédente. Mais, avec le rapport du DPB, on réalise que, même si la marge de manœuvre de 11,7 milliards $ qu’il a calculée était surestimée (ce qui ne semble pas être le cas, car elle correspond assez bien avec la différence entre le surplus de 4,5 milliards $ en 2016-2017 et le déficit qu’aurait pu se permettre le Québec pour stabiliser son ratio de la dette sur le PIB, objectif qui est à la base du concept de viabilité financière) et était plus près de son estimation minimale (8,6 milliards $), il est clair que la situation du Québec était en 2014 beaucoup plus solide que ne le prétendait M. Leitao à l’époque et même qu’elle était déjà viable. Cela dit, il est clair que ce gouvernement est déjà parti pour utiliser une bonne proportion de cette marge de manœuvre pour annuler une partie des compressions qu’il disait pourtant nécessaires et pour accorder une baisse d’impôts à ceux et celles qui en ont le moins besoin. Ne retenez pas votre souffle, le Québec n’aura pas un surplus correspondant à 370 % de son PIB en 2091!

La chance et la réussite économique

9 octobre 2017

Ayant apprécié (avec toutefois certaines réserves) le livre précédent que j’ai lu de Robert H. Frank, soit La course au luxe – l’économie de la cupidité et la psychologie du bonheur (je lui ai d’ailleurs consacré cinq billets), il n’est pas étonnant que je me sois procuré son livre le plus récent, Success and Luck: Good Fortune and the Myth of Meritocracy (La chance et la réussite économique : la bonne fortune et le mythe de la méritocratie) avant même qu’il soit traduit, d’autant plus que ce sujet m’a toujours fasciné (voir par exemple ce billet). Dans ce livre, Frank compte démontrer que «(traduction) les riches sous-estiment l’importance de la chance dans leurs succès – et que cela nuit à tous, même aux riches».

Préface : Selon l’auteur, le rôle de la chance dans la réussite économique est un des sujets qui divise le plus la droite et la gauche. «La droite a raison de dire que les personnes qui accumulent de grosses fortunes sont presque toujours talentueuses et travaillantes. Mais la gauche a également raison de souligner que beaucoup d’autres personnes ont ces mêmes qualités, mais qu’elles ne gagneront jamais de gros revenus». Frank analysera dans ce livre différents aspects de la méritocratie et du rôle important de la chance dans la réussite économique, la plus importante étant la famille dans laquelle on naît (ce qui inclut le pays, la classe sociale, l’école qu’on fréquente, les contacts dont on bénéficie, etc.).

1. Écrire sur ce que vous connaissez : Le titre de ce chapitre est un conseil que l’auteur tente toujours de suivre. Il donne à cet effet des exemples des nombreuses chances qui lui ont permis de rester en vie (notamment à la suite d’une crise cardiaque) et de réussir économiquement. Il se sent donc bien placé pour en parler. Il donne aussi des exemples opposés, soit de personnes malchanceuses qui sont mortes de façon inattendue ou qui, très travaillantes et talentueuses, vivent humblement. Il aborde ensuite quelques-uns des éléments qu’il analysera plus à fond dans les prochains chapitres et avance qu’on pourrait facilement améliorer le sort de la majorité en nuisant à peine aux plus riches.

2. Pourquoi les événements aléatoires apparemment insignifiants peuvent être importants : L’auteur donne de nombreux exemples d’événements semblant au départ insignifiants, mais qui finissent par avoir des conséquences importantes. Il présente les raisons (psychologiques, démographiques ou autres) qui expliquent ce phénomène, notamment que la chance joue presque toujours un rôle majeur dans la tournure que prennent ces événements.

3. Comment les marchés où le gagnant rafle la mise (winner-take-all markets) augmentent le rôle de la chance : L’auteur explique tout d’abord que la théorie du capital humain, qui prétend entre autres que le revenu d’une personne dépend en premier lieu de ses compétences, n’explique nullement le niveau atteint par les revenus les plus élevés. Par contre, l’avancée dans les transports, puis dans les communications ainsi que les caractéristiques de certains marchés, facteurs qui n’ont rien à voir avec les compétences des personnes, mais beaucoup avec la chance, font en sorte que de petites différences dans les compétences, et parfois même uniquement dans la perception des compétences (un autre facteur où la chance est importante), peuvent déboucher sur des écarts de revenus considérables. Cela est aussi vrai dans les domaines du sport et des arts, où le phénomène du «beaucoup d’appelés, mais peu d’élus» est bien connu et est loin d’être nouveau, que dans ceux de l’informatique, du journalisme, du droit, de la médecine, de la finance, du design, de la mode et de bien d’autres (dont l’économie, bien sûr).

On peut consulter ce billet pour une présentation plus élaborée du concept des marchés où le gagnant rafle la mise. En effet, même si le livre que je présente ici a été écrit plus de 15 ans après celui-ci dont je parlais dans ce billet, il n’ajoute pas grand-chose à la présentation de ce concept par rapport à ce qu’il en disait dans son livre précédent. D’ailleurs, comme lors de la lecture du livre précédent, je trouve toujours que, même si ce facteur joue bel et bien un rôle dans l’augmentation des revenus des super riches, Frank lui accorde trop d’importance. Il mentionne d’ailleurs que bien des observateurs lui reprochent la même chose que moi, soit de négliger l’importance d’autres facteurs, comme la recherche de rentes, la baisse d’importance de l’influence des syndicats et la capture de la réglementation. Cette mésentente peut paraître futile, mais son évaluation voudrait dire que les marchés seraient plus concurrentiels qu’avant, le contraire de ce que la plupart des observateurs constatent. Oui, ce facteur est important, mais lui accorder trop d’importance, c’est conclure que la chance est le principal facteur causant les inégalités et c’est renoncer à modifier la réglementation pour corriger les défaillances du marché (qui seraient, selon Frank, moins importantes qu’avant) dont profitent les plus riches et les plus influents.

4. Pourquoi les plus grands gagnants ont presque toujours de la chance : L’auteur donne tout d’abord des exemples, dont certains personnels, d’événements qui ont une très faible probabilité de se réaliser pour une personne donnée, mais qui ont une très forte probabilité de se réaliser chez au moins une personne d’un pays qui compte des centaines de millions d’habitants comme les États-Unis. De même, parmi les millions d’événements qui surviennent au cours d’une vie, il est presque certain qu’une personne vivra quelques événements qui ont une très faible probabilité d’arriver. Dans presque tous les cas, les super riches auront bénéficié de certains événements très rares, ou d’une succession d’événements qui n’ont qu’une très faible probabilité d’arriver à une seule personne. Il montre ensuite que même une faible contribution de la chance peut être déterminante pour départager l’ensemble des personnes qui sont presque aussi talentueuses et travaillantes.

5. Pourquoi les fausses croyances sur la chance et le talent persistent : L’auteur montre que l’être humain a tendance à surestimer ses capacités et, dans le même esprit, à sous-estimer le rôle de la chance dans ses succès. «Les gens veulent avoir une bonne opinion d’eux-mêmes, et ils sont susceptibles d’apprécier la perception positive qui se dégage lorsqu’ils se considèrent comme hautement compétents et qu’ils attribuent leurs échecs à des événements indépendants de leur volonté». En plus, ce comportement favorise la cohésion sociale par la croyance que le mérite explique davantage la richesse et les inégalités de richesse que la chance (j’ajouterais que cela restreint par contre la contestation de ces injustices), et incite à multiplier ses efforts pour réussir.

6. Le fardeau des fausses croyances : La plus grande des chances des Occidentaux est d’être nés dans des pays riches. Cela dit, cette chance est de moins en moins bien partagée aux États-Unis, notamment en raison de la répulsion de ses citoyens face aux impôts ou aux taxes, et de leur conviction qu’il est préférable que les citoyens décident eux-mêmes comment dépenser leur argent, conviction qui se traduit par une forte méfiance envers les dépenses gouvernementales et la capacité des gouvernements de bien gérer n’importe quelle activité économique. Cela fait en sorte que les services publics et les programmes de redistribution des richesses sont bien moins développés aux États-Unis que dans les autres pays riches et que leurs infrastructures sont mal entretenues et inadéquates (on l’a vu d’une façon particulièrement dramatique lors du passage des ouragans Katrina à La Nouvelle-Orléans, Harvey à Houston et Irma en Floride, mais le quotidien d’écoles en mauvais état, de systèmes d’aqueducs dangereux pour la santé ou de ponts risquant de s’effondrer est tout aussi déplorable). L’auteur croit que la fausse croyance que la richesse est uniquement due au mérite (ou très très peu à la chance) contribue à la conviction qu’il ne faut pas augmenter les impôts et que les gouvernements sont inefficaces.

7. Nous avons de la chance : une opportunité en or : L’auteur vise à expliquer dans ce chapitre que les citoyens et les gouvernements dépensent beaucoup plus que ce que leurs objectifs l’exigeraient. Ils agissent ainsi essentiellement pour mieux se positionner socialement (dans le cas des citoyens) et entre les pays (dans le cas des gouvernements). Dans le cas des citoyens, il parle de maisons trop grandes, de mariages trop coûteux et de consommation ostentatoire, et pour les gouvernements de dépenses militaires inutiles (entre autres). Pour résoudre ce problème, il revient à la recommandation qu’il a faite dans son livre La course au luxe de créer une taxe à la consommation progressive (voir une description et une critique de cette taxe dans une section de ce billet qui lui est consacrée) qui ferait réduire la consommation de positionnement social et augmenter l’épargne et donc les investissements, favorisant ainsi la croissance future.

En fait, ce raisonnement ressemble à celui à la base de l’économie de l’offre et, comme elle, ne fonctionne pas, notamment parce que les entreprises n’ont aucun intérêt à investir quand la demande est en baisse, ce qui se produirait en raison de l’implantation de sa taxe à la consommation (c’est même l’objectif de cette taxe selon l’auteur!). D’ailleurs, l’auteur mentionne que Milton Friedman lui a écrit vers la fin des années 1990 (quelques années avant sa mort en 2006) pour lui transmettre un document dans lequel il affirmait que, même s’il était contre les dépenses gouvernementales, la taxe progressive lui semblait le meilleur moyen de taxer la population. Au moins, l’auteur reconnaît que la période actuelle de faible reprise n’est pas idéale pour mettre en œuvre son idée et qu’il faudrait l’implanter de façon graduelle pour ne pas causer une autre récession. Finalement, je ne vois pas trop ce que vient faire ce chapitre avec le thème du livre, soit le rôle de la chance dans la réussite économique.

8. Être reconnaissant : L’auteur présente dans ce chapitre des expériences vécues et en laboratoire montrant que la collaboration engendre plus de conséquences positives que la compétition, et que les personnes qui reconnaissent le rôle de la chance dans leurs succès sont davantage appréciées que celles qui affirment que seuls leur talent et leurs efforts ont joué un rôle dans leur réussite économique. Ce chapitre servant de conclusion, il revient ensuite sur sa proposition de taxe progressive et insiste à nouveau sur les effets de la chance de naître dans une famille favorisée.

Annexe 1 – Résultats de simulation détaillés pour le chapitre 4 : L’auteur donne une explication plus complète de l’effet de la taille d’un échantillon (ou d’une population) sur la possibilité d’observer des résultats extrêmes et sur la forte probabilité que ce ne soit pas la personne la plus talentueuse et qui travaille le plus fort qui arrive au premier rang même si on accorde une faible importance à la chance (avec un poids de seulement 1 sur 100, par rapport à 99 sur 100 au talent et aux efforts, par exemple).

Annexe 2 – Questions fréquemment posées sur la taxe de consommation progressive : L’auteur présente ici plus en détail sa proposition de taxe à la consommation progressive. Il répond entre autres à une objection que j’avais émise dans ce billet sur son livre La course au luxe. Oui, l’achat d’une maison ferait augmenter le montant taxable de l’acheteur, mais on pourrait répartir ce montant sur plusieurs années, par exemple sur 20 ans. Ainsi, l’achat d’une maison de 200 000 $ ferait augmenter son montant taxable de 10 000 $ pendant 20 ans. Le taux applicable dépendrait du niveau des autres dépenses des acheteurs, car, je le répète, il s’agit d’une taxe progressive, avec un taux de taxation qui augmente selon le total de nos dépenses (comme les paliers d’imposition de l’impôt sur le revenu).

Et alors…

Lire ou ne pas lire? Ça dépend… Si je ne regrette pas vraiment de l’avoir lu (il a moins de 200 pages), je ne me le serais pas procuré si j’avais su qu’il répète essentiellement les messages de son livre La course au luxe, pour lequel j’avais émis des réserves importantes, surtout au sujet de sa taxe progressive sur la consommation sur laquelle il insiste ici encore plus. Par contre, quelqu’un qui n’a pas lu son autre livre risque de bénéficier davantage de ce dernier bouquin que les gens comme moi qui l’ont lu. En plus, j’ai trouvé que trop de chapitres de ce livre déjà pas très long n’ont qu’un lien éloigné avec le thème du livre, sur lequel je n’ai carrément rien appris. L’étude d’Oxfam que j’ai présentée dans ce billet (intitulé La richesse extrême et le mérite) explique par exemple beaucoup plus à fond le rôle limité du mérite dans la création des grandes fortunes. Il aborde aussi le concept du gagnant qui rafle la mise, mais bien d’autres facteurs! En plus, les notes sont à la fin du livre! Bref, on peut passer son tour…