Skip to content

Peut-on éviter une autre crise financière?

28 août 2017

Steve Keen est un drôle d’oiseau. Économiste et professeur d’économie à l’Université Kingston de Londres, il est notamment l’auteur d’un des livres d’économie que je conseille le plus souvent (auquel j’ai consacré deux billets), soit L’imposture économique. J’ai aussi suivi son blogue un certain temps, mais ai cessé en raison de la complexité des sujets traités (notamment sur ses modèles économiques en plusieurs dimensions…) et du ton pédant et hargneux qu’il adopte trop souvent. Cela dit, je n’ai pas hésité à réserver son dernier livre intitulé Can we avoid another financial crisis? (Peut-on éviter une autre crise financière?). Il faut dire que son petit format (140 pages) a contribué à ma décision, de même que les commentaires positifs de Yanis Varoufakis (ex-ministre des Finances de la Grèce et critique des compromis acceptés par Alexis Tsípras) et de James K. Galbraith en quatrième de couverture!

1. Du triomphe à la crise de la discipline économique : Le triomphe du titre fait référence au discours des économistes orthodoxes qui ont annoncé à de nombreuses reprises que la «science» économique avait solutionné le problème des dépressions, et plus spécifiquement à celui de 2003 de Robert Lucas qui a affirmé moins de cinq ans avant la pire crise depuis 1929 que «Le problème crucial de la prévention des crises a été, pour ainsi dire, résolu et cela pour plusieurs décennies». L’auteur explique ensuite comment ces économistes ont pu en arriver à une telle conclusion, en décrivant notamment l’évolution de la théorie économique néoclassique et néokeynésienne, et l’utilisation de modèles ayant peu à voir avec la réalité (comme les modèles d’équilibre général dynamique stochastique ou modèles DSGE, selon l’acronyme anglais, dont j’ai parlé à de nombreuses reprises, entre autres dans ce billet). Même quand les premiers signes de la crise sont apparus, vers la fin 2007 et le début 2008, l’OCDE prévoyait une croissance vigoureuse en Europe et aux États-Unis! Cela n’est pas étonnant quand on sait que les modèles que les économistes utilisaient ne contenaient aucune donnée sur le secteur financier ni sur la dette des ménages, des entreprises et des gouvernements.

Comment des modèles qui reposent sur le retour automatique à l’équilibre et qui nient ainsi la possibilité de crises peuvent-ils prévoir des crises? Ils ne le peuvent bien sûr pas. Si on tient compte des éléments rejetés par ces modèles, comme l’a fait Hyman Minsky (et aussi Keen, en ajoutant certains éléments), on ne peut que conclure que les crises font partie inhérente du fonctionnement du capitalisme (je simplifie ici outrageusement les raisonnements tout à fait rigoureux de Minsky et de Keen). L’auteur conclut ce chapitre avec des remarques plus techniques, contredisant la supposée importance que la macroéconomie soit fondée sur la microéconomie, une fixation commune aux économistes néoclassiques et néokeynésiens, même chez ceux qui rejettent les modèles DSGE.

2. Microéconomie, macroéconomie et complexité : L’auteur développe dans ce chapitre son argumentation sur le fait que la macroéconomie ne peut pas découler de la microéconomie. Notons que cette argumentation reprend, avec moins de détails, celle qu’il avait présentée dans son livre L’imposture économique et que j’ai décrite plus à fond dans ce billet. En gros, il montre que la demande totale ne peut pas être calculée à partir de la somme des demandes individuelles et des demandes pour chacun des marchés de tous les biens et services, chaque changement dans un de ces nombreux marchés influençant la demande dans tous les autres (encore une fois, je simplifie). Il poursuit en montrant notamment que, dans aucune science, les propriétés des agrégats ne peuvent être déterminées par les propriétés de ses composants. Ensuite, il donne un exemple «simple» d’un modèle basé uniquement sur la réalité complexe de la macroéconomie, modèle qui fonctionne beaucoup mieux que ceux beaucoup plus complexes fondés sur la microéconomie.

3. L’accalmie et l’orage : Une des caractéristiques des modèles construits par Keen est qu’ils prévoient que des périodes de modération précèdent des crises (ou une accalmie avant l’orage, comme le mentionne le titre de ce chapitre), conformément aux analyses de Minsky. Ces périodes de modération incitent en effet les consommateurs comme les investisseurs et les prêteurs à prendre toujours plus de risques étant convaincus que la période de modération durera encore très longtemps. C’est d’ailleurs ce qui s’est passé avant la crise débutée en 2007, la période allant du milieu des années 1980 à 2007 ayant été baptisée «La grande modération». Son raisonnement plus spécifique était que la dette privée (celle des ménages et des entreprises) étant très élevée, elle ne pouvait pas augmenter éternellement. Alors, le jour où elle cesserait de seulement augmenter, cela ferait baisser la demande (déjà en faible croissance au cours de la grande modération). Si en plus la dette privée se mettait à diminuer, ce qui arriverait inévitablement un jour, cela ferait encore plus diminuer la demande et ce serait la récession assurée. Il donne des exemples de ce phénomène qui s’est produit avec des effets toutefois différents aux États-Unis, en Australie (son pays d’origine) et au Japon.

4. Le pistolet fumant du crédit : Le lien entre l’évolution du crédit (ou du niveau d’augmentation de la dette privée) et la croissance de l’économie montré à la fin du chapitre précédent aux États-Unis, en Australie et au Japon représente selon l’auteur une preuve irréfutable (le pistolet fumant, ou «smoking gun» du titre de ce chapitre) de l’impact important de la monnaie et du crédit sur la croissance. Il explique ensuite le raisonnement des économistes orthodoxes qui continuent à considérer que le crédit, les banques et la monnaie n’ont aucun impact sur l’économie réelle, et montre (avec force détails) que ce raisonnement ne tient pas la route. Il montre ensuite quels sont les pays les plus vulnérables actuellement en raison du niveau élevé de leur dette privée (soit la dette des ménages et des entreprises, je le rappelle) et de sa croissance récente. La Chine est de loin le pays qui l’inquiète le plus, mais bien d’autres sont vulnérables dont le Canada

5. La politique économique de la dette privée : L’évolution de la dette privée a souvent été le principal facteur expliquant la «bonne» performance économique d’un politicien (et sa bonne réputation dans ce domaine) quand cette dette augmente, entraînant l’injection de sommes énormes dans l’économie (par exemple, quand Clinton était président des États-Unis lors du gonflement de la bulle technologique), ou la «mauvaise» performance d’un autre quand la dette privée cesse d’augmenter, ou pire, se met à diminuer (comme au début de la présidence de Bush fils quand la bulle technologique a éclaté; il a par contre «profité» par la suite du gonflement de la bulle immobilière avant de subir, avec Obama, l’éclatement de cette bulle!).

Non seulement la population se fait alors berner par ces performances dont les dirigeants politiques ne sont pas responsables, mais les économistes orthodoxes qui les conseillent et qui tentent d’expliquer ces revirements à la population contribuent à tromper la population en cherchant ailleurs les causes de revirements qu’ils ne peuvent pas comprendre avec leurs modèles qui rejettent la possibilité que l’évolution de la dette privée puisse avoir le moindre impact sur l’économie. Cela dit, les dirigeants qui ont par exemple fait augmenter les dépenses gouvernementales lors des récessions dues à la stagnation ou à la baisse de la dette privée ont le mérite d’avoir amoindri les effets de ces récessions par rapport aux dirigeants qui se sont empressés d’adopter des mesures d’austérité qui ont empiré la situation. Mais, on retient en général davantage le fait qu’ils étaient au pouvoir lors de la récession… En conséquence, l’ignorance des économistes orthodoxes encourage la réélection de dirigeants incompétents et la défaite des plus compétents (ou moins incompétents…) en la matière.

6. Une conclusion cynique : Pour éviter une autre récession importante dans les pays les plus vulnérables, il faudrait donc faire diminuer la dette privée de façon contrôlée avant qu’un éclatement de bulle le fasse de façon violente. L’auteur considère qu’il y a deux moyens pour atteindre cet objectif assez rapidement, soit le pardon de la dette ou la création de monnaie (l’hélicoptère monétaire). Il favorise finalement le dépôt d’une somme identique créée par la banque centrale directement dans les comptes bancaires des citoyens, avec obligation d’utiliser cette somme en premier lieu pour rembourser des dettes. Il propose en plus une réforme majeure du système financier pour éviter la création de nouvelles bulles de dettes privées (sa proposition est trop complexe pour être résumée ici) et l’établissement d’objectifs de niveau de la dette privée par les banques centrales, objectifs qui s’ajouteraient à ceux qu’elles poursuivent déjà en matière d’inflation et de taux de chômage. Il ne se fait toutefois pas d’idées sur la probabilité que de telles propositions soient adoptées.

L’auteur conclut en répondant «Non» à la question posée par le titre de son livre («Peut-on éviter une autre crise financière?»), justement parce qu’il croit que ses propositions ne seront pas adoptées et que les économistes et les dirigeants vont continuer à ignorer l’impact majeur de la dette privée sur l’économie réelle. Il se permet même de prévoir des récessions (sinon des crises) dans les pays qui ont les dettes privées les plus élevées et les plus en croissance, dont le Canada… En tout cas, on ne pourra pas reprocher à Steve Keen d’être incohérent ni de manquer de confiance en ses analyses!

Et alors…

Lire ou ne pas lire? Lire! Malgré les quelques répétitions dans les deux premiers chapitres des concepts présentés bien plus en détail dans son livre L’imposture économique, le reste du livre, pas bien long, fournit de nombreuses données récentes illustrées dans des graphiques éloquents et relativement faciles à comprendre qui permettent de bien visualiser l’importance de la dette privée dans l’instabilité économique du capitalisme. Je n’ai aucune difficulté à considérer favorablement la thèse de l’auteur, ayant moi-même avant de l’avoir lu (et même avant de connaître son existence) abordé l’impact important du mécanisme de la dette privée aux États-Unis, où une trop grande partie de la population maintenait son niveau de consommation en réhypothéquant sa maison en espérant que la valeur de sa maison continuerait toujours à augmenter. Je me disais bien que le jour où ce mécanisme prendrait fin, la demande globale diminuerait non seulement en raison de la disparition de l’apport de l’augmentation des dettes hypothécaires, mais aussi en raison des sommes utilisées pour rembourser ces dettes (quoique, finalement, une partie de ces dettes a été radiée par des saisies immobilières, causant par contre une crise financière!).

Si je considère favorablement sa thèse sur l’importance de la dette privée dans l’instabilité économique, je suis bien moins certain de l’automatisme des conséquences d’une dette privée dépassant un certain seuil et augmentant plus rapidement qu’un certain niveau. On verra bien si les pays qu’il a ainsi identifiés connaîtront vraiment une récession, voire une crise, d’ici 2020. C’est bien possible, mais je contesterai toujours les thèses mécaniques en économie. Oui, ces pays sont vulnérables, et l’analyse de Keen à ce sujet est précieuse, mais vivront-ils tous les mêmes conséquences de cette vulnérabilité? J’en doute… D’ailleurs, Keen a bien montré que les conséquences de telles situations furent bien différentes par le passé au Japon, en Australie et aux États-Unis. J’ai donc de la difficulté à comprendre qu’il ne nuance pas davantage ses prévisions. Ah oui, j’oubliais, les notes sont à la fin, mais comme il n’y en a que sept pages et que le livre est bien léger, cela ne m’a pas trop dérangé. Bref, ce livre est vraiment à lire par toute personne intéressée à prendre connaissance d’une vision bien plus réaliste de l’économie que celle qui est colportée par les économistes orthodoxes.

Publicités

L’analyse économique des données massives

25 août 2017

L’utilisation croissante d’Internet et d’autres services numériques (transactions Interac, cartes de fidélité, etc.) a permis la création de bases de données gigantesques. Cela est bien connu, mais les problèmes qui se présentent quand on cherche à les utiliser le sont moins. Même dans les utilisations déjà courantes, à l’aide par exemple des algorithmes de Facebook ou de Google, les résultats sont souvent décevants, comme l’a bien expliqué récemment Mélanie Millette (professeure au département de communication sociale et publique de l’UQAM) à RDI économie. Alors, à quoi peut-on s’attendre de l’utilisation des données massives (ou big data) en économie? C’est la question à laquelle a tenté de répondre Serena Ng, professeure d’économie à la Columbia University, dans son étude intitulée Opportunities and Challenges: Lessons from Analyzing Terabytes of Scanner Data (Opportunités et défis: leçons tirées de l’analyse de téraoctets de données). L’auteure s’est intéressée aux données massives en premier lieu pour savoir ce qui rend leur utilisation si différente de celle de données traditionnelles utilisées habituellement par les économistes et si les outils économétriques existants peuvent permettre de les analyser efficacement.

Les données

Le principal problème lorsqu’on veut analyser des données massives est que la collecte d’information n’y est pas structurée de façon uniforme, comme dans les bases de données traditionnelles. Il faut donc «nettoyer» les données avant de les utiliser, mais les logiciels conçus à cette fin sont inutiles, car conçus en fonction de format connus et uniformes, ce qui n’est pas le cas ici, on l’a dit. On utilise souvent le concept des cinq V pour présenter l’origine des problèmes d’analyse des données massives, soit le volume (évidemment), la variété (de sources et de formats), la vitesse (d’ajouts de nouvelles données à la base existante), la variabilité (de dimensions) et la véracité (sources pas toujours fiables).

Jusqu’à maintenant, les économistes ont peu d’expérience avec l’utilisation des données massives, probablement parce que les cinq V représentent un obstacle plus important dans le type d’analyse qu’ils font que dans d’autres domaines, comme de décider de la prochaine pub qui sera affichée dans Facebook ou de prévoir la date de l’arrivée de la grippe dans une région en examinant la variation des achats de produits pour la combattre ou d’autres indicateurs pertinents. Pourtant, ces données peuvent contenir beaucoup d’éléments intéressants pour l’analyse économique et bénéficient d’un avantage énorme sur les autres sources, soit leur faible coût (en raison de la participation volontaire, mais pas toujours consciente, des consommateurs).

Les données utilisées par l’auteure de cette étude sont contenues dans une base de quatre teraoctets (soit quatre millions de millions d’octets ou 10 à la 12, ou encore 4000 gigaoctets) de données sur les ventes au détail hebdomadaires (prix et quantités vendues) collectées entre 2006 et 2010 par le groupe Nielsen (ce groupe ne rend pas disponibles ses données récentes, bien sûr…). Elles proviennent de 35 000 magasins d’alimentation, pharmacies et magasins de fournitures générales réparties dans tous les États des États-Unis et portent sur 1073 produits différents. L’intérêt de ces données est qu’elles contiennent de l’information collectée à une fréquence plus élevée et provenant de beaucoup plus de commerces que les données des sources traditionnelles (compilées par échantillonnage de commerces visités par des enquêteurs). Par contre, ces données ne touchent qu’une partie des biens achetés par les consommateurs (alors que les sources traditionnelles les contiennent tous) et ne contiennent aucune information sur leurs achats en service (idem). L’auteure s’est en plus penchée sur seulement six de ces biens : bière, vin étranger, viande, œufs, aliments pour animaux de compagnie et aliments pour bébés.

D’autres problèmes…

La taille de cette base de données ne permettant pas l’utilisation des outils informatiques disponibles à l’auteure, la première étape fut de la réduire en sélectionnant un échantillon basé sur certaines caractéristiques (comme les plus gros commerces, ceux qui ont eu des ventes au cours des 260 semaines des données, etc.), au risque de biaiser la source de données (les caractéristiques des ventes éliminées n’étant pas du tout les mêmes que celles conservées). Je me suis demandé quel était l’intérêt de disposer de données massives si on ne les exploite pas entièrement et surtout si on en finit par travailler avec un échantillon non représentatif! Passons…

Et l’auteure continue d’utiliser des trucs statistiques (elle parle de «data squashing», de compressions, d’estimations paramétriques, de décompositions, de randomisations et d’autres trucs très savants) pour avoir moins de données à analyser et pouvoir utiliser ses logiciels économétriques. Ses explications s’étendent sur une douzaine de pages, soit près de la moitié du texte de cette étude. Elle semble satisfaite, concluant que ses méthodes «préservent raisonnablement les caractéristiques des composants les plus importants», même si elle considère qu’il reste du travail à faire pour pouvoir effectuer des analyses que ses méthodes ne permettent pas.

Les huit pages suivantes portent sur les difficultés liées à la désaisonnalisation, les facteurs saisonniers n’étant pas toujours les mêmes chaque année (dépendant des dates de certains événements et même des équipes qui participent au Super Bowl dans le cas de la consommation de bière!), pour chaque bien (forte saisonnalité pour la bière et quasi inexistante pour les aliments pour bébés, par exemple) et dans chaque État (les ventes de bières ne diminuent pas autant l’hiver en Floride qu’au Wisconsin). Cette section examine aussi d’autres mouvements cycliques, notamment ceux causés par la crise débutée en décembre 2007 aux États-Unis. Malgré ses efforts, l’auteure est déçue des résultats, n’ayant pas réussi vraiment à éliminer les effets des variations saisonnières et des mouvements cycliques temporaires pour chacun des six biens analysés.

Conclusion

Les outils actuellement disponibles pour pouvoir analyser les données massives sont malheureusement mal adaptés à l’analyse économique. Beaucoup d’effort devra encore être investi pour pouvoir faire le lien entre les méthodes économétriques et les approches des algorithmes utilisés dans les modèles qui exploitent actuellement les données massives.

Selon l’auteure, il est inévitable de devoir laisser tomber une partie de l’information contenue dans des bases de données massives. Dans son étude, elle n’a au bout du compte exploité qu’une très faible proportion des données disponibles. Les choix des données utilisées et abandonnées peuvent bien sûr avoir un impact important sur l’utilisation des données massives et sur les résultats qu’il obtiendra. Dans ce sens, il deviendra de plus en plus difficile de pouvoir reproduire les résultats d’une étude (souvent une exigence des revues pour publier une étude), car des choix différents donneront des résultats possiblement très différents. Elle conclut que, comme les données massives sont là pour rester et même pour devenir encore plus répandues, les économistes n’ont pas le choix de développer des moyens de pouvoir les analyser.

Et alors…

Ce billet est le troisième que je consacre aux données massives. Le premier portait sur un document promotionnel produit par Montréal international contenant des données pas massives, mais farfelues (ce qui n’est pas vraiment étonnant dans un document promotionnel), et sur deux études plus prétentieuses, mais finalement aussi peu rigoureuses que le premier document qui assumait au moins son caractère promotionnel. Le deuxième présentait une étude beaucoup plus sérieuse qui expliquait très bien les avantages et désavantages de l’utilisation des données massives, ainsi que bien d’autres questions que ces données soulèvent (notamment de nature juridique et politique).

Je pensais que, un an plus tard, l’enthousiasme un peu naïf des auteurs des premières études que j’ai présentées aurait fait place à plus de réalisme, comme l’étude décrite dans mon deuxième billet. De fait, l’étude que j’ai présentée ici n’a pas les défauts des premières, mais en contient d’autres. Comme je l’ai mentionné dans le billet, je ne comprends pas l’intérêt d’utiliser l’information contenue dans une base de données massives si on ne l’exploite pas entièrement. Pire, on se voit obligé d’analyser qu’une très faible proportion de l’information disponible pour obtenir des résultats dont on ne connaît pas la fiabilité. Il est certain que je n’ai pas pu suivre à la trace les nombreuses manipulations statistiques de ces données pour pouvoir poser un verdict précis sur le niveau de fiabilité des résultats, mais quand l’auteure elle-même ne parvient pas à le faire et avoue candidement que les études faites avec des choix comme ceux qu’elle a faits ne peuvent pas être reproduites, il est clair que ces résultats ne peuvent pas être par la suite utilisés avec confiance. Ensuite, si on ne parvient pas à tirer des conclusions en analysant des données d’un domaine aussi simple que la vente de bières et d’aliments pour enfants, je me demande bien ce qu’on pourrait tirer de telles données dans des domaines plus sensibles (comme sur les effets d’une hausse du salaire minimum, par exemple!).

Finalement, l’auteure a beau parler en bien des algorithmes utilisés en marketing, j’aimerais bien qu’on m’explique ce que j’ai bien pu faire pour me faire proposer sur Facebook des listes d’automobiles à acheter (moi qui ne veut rien savoir des chars) ou des liens «suggérés» vers Abdos en Accéléré! Personnellement, ce genre de propositions déplacées me réjouit, car elles montrent que les intrusions massives de ces géants dans nos vies privées ne parviennent pas à nous percer à jour! Elles montrent aussi à quel point ces algorithmes et leurs composants d’intelligence artificielle sont encore déficients et à quel point Mélanie Millette avait raison, dans l’entrevue qu’elle a donnée à RDI économie dont j’ai parlée en amorce de ce billet, de trouver décevants les résultats de ces algorithmes!

Introduction à la philosophie – Tome I

21 août 2017

Le premier tome de l’Introduction à la philosophie de Normand Baillargeon est une version revue et corrigée d’un livre paru initialement en 2010 sous le titre de Stéroïdes pour comprendre la philosophie. Ce livre «retrace la naissance, l’évolution et la transmission des plus importants concepts philosophiques». Comme il est très dense, je ne pourrai que mentionner les sujets abordés dans chacun des chapitres.

Introduction : Dans cette courte introduction, l’auteur souligne la riche histoire de la philosophie occidentale (la seule que ce livre aborde) et la grande variété du champ d’études des philosophes.

1. L’épistémologie et le rationalisme : L’auteur aborde dans ce chapitre la pensée de Platon et le rationalisme de René Descartes et d’autres penseurs. Ce chapitre, comme tous les autres, se termine avec un résumé de son contenu en dix points.

2. L’épistémologie – l’empirisme : On en apprend ici sur les idées de John Locke, qui contredisent celles de René Descartes, sur l’immatérialisme de George Berkeley (qui contredit les idées de Locke) et sur le scepticisme de David Hume (qui, même si l’auteur ne le précise pas, contredit les idées des deux premiers).

3. L’épistémologie – la synthèse kantienne et au-delà : Beaucoup plus difficile à comprendre, ce chapitre aborde l’œuvre d’Emmanuel Kant et vise à faire saisir la nature de l’idéalisme transcendantal dont Kant est le créateur. L’auteur poursuit en présentant des penseurs plus récents qui proposent des épistémologies différentes, comme le pragmatisme et très succinctement, le relativisme et le postmodernisme.

4. La philosophie morale – éthique et métaéthique : L’auteur examine d’abord deux positions en métaéthique, soit le relativisme éthique et le commandement divin, puis trois théories éthiques, l’utilitarisme, l’éthique déontologique kantienne et l’éthique de la vertu d’Aristote.

5. La philosophie de l’esprit – du dualisme au béhaviorisme : Dans le domaine de la philosophie de l’esprit, l’auteur nous entretient du dualisme, abordant ses fondements avec René Descartes, la loi de Leibniz et le principe de l’identité des indiscernables, du monisme (brièvement) et du béhaviorisme, aussi bien scientifique et méthodique que philosophique et conceptuel.

6. La philosophie de l’esprit – des théories de l’identité aux mystériens : L’auteur poursuit sa présentation de la philosophie de l’esprit en abordant les théories de l’identité (cerveau-esprit et fonctionnalisme) et les positions mystériennes (dont les promoteurs considèrent que certains problèmes ne peuvent pas être résolus, que ce soit en raison des limitations de nos capacités cognitives ou pour d’autres raisons).

7. La philosophie de la religion : La philosophie de la religion porte sur la signification de la place importante qu’occupe la religion dans la vie de bien des gens et au sein de nombreuses sociétés. L’auteur y décrit les caractéristiques du Dieu des religions monothéistes et y présente les «preuves» de son existence avancées par de nombreux philosophes (et réfutées par d’autres), ainsi que les raisons ou justifications de croire en Dieu ou pas.

8. La philosophie politique – les grandes idéologies politiques et la tradition du contrat social : La philosophie politique s’intéresse «aux questions conceptuelles et normatives» de ce domaine (comme l’égalité et la liberté), et «à la nature et à la valeur de nos institutions économiques, sociales et politiques, de l’État et du gouvernement». Dans ce chapitre, l’auteur dresse «le portrait des principales grandes idéologies» et «pose le problème de la justification de l’autorité politique» (notamment à l’aide du concept de contrat social).

9. La philosophie politique – la nature du politique et quelques théories politiques contemporaines influentes : L’auteur poursuit son analyse de la philosophie politique en présentant le matérialisme historique de Karl Marx (et ses autres positions politiques), le machiavélisme de Nicolas Machiavel, la critique des mécanismes de pouvoir et de contrôle de Michel Foucault, la tentative de réconciliation des idéaux de justice et d’égalité de John Rawls, le libertarianisme de Robert Nozick, le communautarisme de Charles Taylor (et autres) et le féminisme (plus difficile à associer à une ou quelques auteures). Il mentionne aussi les questions touchant l’écologie (ou l’environnement) et la mondialisation (ou globalisation), mais sans les développer, précisant qu’elles devraient fournir bien des réflexions philosophiques au cours des prochaines années.

10. L’esthétique et la philosophie de l’art : L’esthétique regroupe à la fois l’étude de la sensibilité artistique et la définition de ce qui est beau. Elle ratisse donc plus large que la philosophie de l’art et la comprend. Après avoir établi la distinction entre ces deux concepts, l’auteur aborde les questions entourant la définition de l’art, la nature de la beauté et de l’expérience esthétique, et la valeur de l’art et de l’expérience esthétique.

Questionnaire : S’ajoutant aux courts résumés composés de «10 points à retenir» à la fin de chaque chapitre, ce questionnaire de 12 pages contient 10 questions par section correspondant aux 10 chapitres du livre (décidément, le chiffre 10 domine ce livre!) et laisse penser que ce livre avait ou a encore des ambitions pédagogiques.

Et alors…

Lire ou ne pas lire? Lire! Je dois avouer que j’ai commencé ce livre un peu à reculons en raison de mes réserves sur les livres de philosophie et surtout sur ceux portant sur les «vieux» philosophes qui tentent tous (pas de femmes parmi eux) de nous convaincre de l’existence de Dieu avec des raisonnements plus tarabiscotés les uns que les autres. Je dis ça, mais je me suis quand même déjà tapé les 912 pages de l’Histoire de la philosophie occidentale de Bertrand Russell… ce qui explique peut-être mes réserves.

De par sa structure, le livre de Normand Baillargeon se distingue déjà de celui de Russell. Plutôt que de recenser les grands penseurs de façon chronologique, il présente l’évolution de la pensée philosophique par sujet, insistant parfois sur les classiques grecs, mais en arrivant souvent aux penseurs plus récents (j’aurais aimé qu’il parle de quelques penseures…) et souvent plus intéressants selon moi. En plus, je n’ai dû relire des paragraphes qu’une dizaine de fois, ce qui est très peu pour moi quand je lis des textes qui portent sur la philosophie et est un excellent indicateur de la clarté des propos. Il est certain que certains chapitres m’ont davantage plu (comme celui sur la politique) et d’autres moins (comme celui sur l’esthétique et les arts), mais cela relève plus de mes goûts et de mes intérêts que de la qualité des présentations. Bref, si jamais le tome II paraît (ce que l’auteur a récemment promis…), je vais me le procurer sans réserve! Ah oui, j’oubliais, les notes sont à la fin. Elles ne s’étendent que sur quatre pages et seulement deux de ces notes ne sont pas des références. Si cela amoindrit le désagrément, il est plus difficile de comprendre en quoi le fait de les mettre en bas de page aurait posé le moindre problème…

200 000 emplois! (2)

18 août 2017

Dans le premier de cette courte série de deux billets portant sur l’augmentation de l’emploi désaisonnalisé de 197 000 selon les estimations de l’Enquête sur la population active (EPA) entre le mois de l’élection du parti libéral en avril 2014 et le mois de juillet 2017, nous avons vu que :

  • environ la moitié de cette hausse semble bien réelle, l’autre moitié provenant probablement du remaniement de l’échantillon de l’EPA au début 2015, d’une sous-estimation de l’emploi en début de période et d’une surestimation en fin de période;
  • la croissance de l’estimation de l’emploi fut nettement plus élevée chez les hommes que chez les femmes entre avril 2014 et juillet 2017, allant à l’encontre d’une tendance datant d’au moins le début des années 2000;
  • allant toujours à l’encontre des tendances récentes, cette augmentation aurait été plus forte chez les personnes âgées de 15 à 54 que chez celles de 55 ans et plus;
  • alors que la croissance de l’estimation de l’emploi avait été près de deux fois inférieure dans la région de Montréal que dans l’ensemble du Québec de 2001 à 2014, elle lui fut près de trois fois supérieure entre juillet 2014 et juillet 2017;
  • le taux d’emploi de la population immigrante aurait augmenté près de trois fois plus que celui des natifs entre juillet 2014 et juillet 2017, et celui de la population immigrante reçue depuis 5 ans et moins près de quatre fois plus.

Dans ce deuxième billet, je tenterai de montrer l’ampleur de l’impact du vieillissement de la population au cours des dernières décennies et de présenter les niveaux exceptionnels que durent atteindre les taux d’emploi par tranche d’âge pour que le taux d’emploi global du mois de juillet 2017 (62,4 %) se classe au cinquième rang des 499 mois pour lesquels l’EPA publie des données depuis janvier 1976 (le record datant de juillet 2007, avec 62,9 %, soit seulement 0,5 point de plus qu’en juillet 2017). Je vais tout d’abord reprendre une méthode que j’ai utilisée il y a près d’un mois avec le taux d’activité pour calculer quel aurait été le taux d’emploi au Québec en juillet 2017 s’il avait les taux d’emploi par tranche d’âge de ce mois, mais la structure d’âge de juillet 1976, puis vais situer ces taux d’emploi par tranche d’âge par rapport à leurs niveaux historiques au Québec et à ces taux de juillet 2017 en l’Ontario.

Incidence du vieillissement de la population sur le taux d’emploi au Québec

La ligne bleue de la partie du haut du graphique ci-contre montre l’évolution de l’estimation du taux d’emploi réel du Québec au cours des mois de juillet 1976 à 2017, selon le tableau cansim 282-0001 de Statistique Canada. La ligne rouge, elle, indique le taux d’emploi ajusté, soit celui qu’aurait eu le Québec s’il avait conservé la même structure démographique qu’en juillet 1976. Pour calculer les données de ce taux d’emploi ajusté, j’ai multiplié les taux d’emploi par tranche d’âge de 5 ans (de 15 à 19 ans, 20 à 24 ans… 65 à 69 ans et 70 ans et plus) de chacun des mois de juillet de 1976 à 2017 par la population de ces tranches d’âge en juillet 1976, ai additionné ces 12 résultats par année et les ai divisés par la population adulte (âgée de 15 ans et plus) de juillet 1976.

L’incidence du vieillissement, soit l’écart entre les courbes bleue et rouge, écart qu’on peut mieux visualiser dans la partie du bas du graphique, fut inférieure à 1,0 point de pourcentage de juillet 1976 à juillet 1986, fut légèrement supérieure à 1,0 point (entre 1,1 et 1,8 point) entre juillet 1987 et 1998, puis a gagné en importance presque chaque année par la suite (la seule baisse notable étant survenue en juillet 2009, année de récession qui touche davantage les tranches d’âge des jeunes, proportionnellement beaucoup plus nombreux en juillet 1976 que par la suite et surtout que depuis le début des années 2000) pour atteindre 8,1 points en juillet 2017; cela signifie que le taux d’emploi au Québec aurait été de 70,5 % en juillet 2017 au lieu de 62,4 % si sa structure démographique était restée la même qu’en juillet 1976. Or, sur les 4990 estimations mensuelles des provinces publiées par Statistique Canada depuis janvier 1976, il n’est arrivé que 62 fois (ou 1,2 % des fois) qu’un taux d’emploi mensuel soit supérieur à 70,5 %, et ce fut toujours en Alberta. En fait, le taux le plus élevé atteint par un taux d’emploi mensuel dans une province autre que l’Alberta fut de 69,0 % en juin 2009 (année de récession!) en Saskatchewan. Cela montre à quel point les taux d’emploi par tranche d’âge actuels sont élevés au Québec, d’autant plus que le Québec a le deuxième taux d’emploi le plus bas (ou le neuvième plus élevé…) des provinces canadiennes dans les trois tranches d’âge les plus élevées (60-64 ans, 65-59 ans et 70 ans et plus), après Terre-Neuve dans les trois cas. Je reviendrai là-dessus dans la prochaine section de ce billet.

Par ailleurs, on remarquera que la ligne bleue du graphique du haut, indiquant, je le rappelle, le taux d’emploi réel, adoptait une tendance baissière régulière entre juillet 2007 et juillet 2016, alors que le taux d’emploi a diminué de 62,9 % ce mois-là, le sommet de tous les temps au Québec, à 60,9 % en juillet 2016. Or, plutôt que de diminuer de 2,0 points de pourcentage entre juillet 2007 et juillet 2016, le taux d’emploi ajusté a de son côté augmenté de 0,5 point entre ces deux mois, ce qui montre que la baisse du taux d’emploi réel est entièrement due au vieillissement de la population. En fait, l’incidence du vieillissement fut même de 2,5 points, car le taux ajusté a augmenté de 0,5 point montrant une hausse du taux d’emploi moyen pondéré par tranche d’âge.

Cette tendance à la baisse ne s’est toutefois pas poursuivie entre juillet 2016 et juillet 2017, le taux d’emploi réel ayant bondi soudainement de 1,5 point de pourcentage de 60,9 % à 62,4 %, hausse pour le moins étonnante. En plus, si la structure de la population était demeurée la même qu’en juillet 1976, ce taux n’aurait pas bondi de 1,5 point, mais de 2,2 points comme le saut encore plus vif de la ligne rouge la dernière année de la partie du haut du graphique le montre bien. Cela montre bien sûr encore une fois l’aspect exceptionnel de la hausse de l’estimation du taux d’emploi entre juillet 2016 et juillet 2017, mais cela veut aussi dire que l’incidence du vieillissement fut de 0,7 point entre juillet 2016 et juillet 2017, soit l’incidence la plus forte de toute la série de données entre deux mois de juillet. Non, le vieillissement de la population et ses effets ne sont pas terminés!

Taux d’emploi par tranche d’âge

– les sommets historiques

Le tableau ci-contre montre :

  • dans la première colonne, le taux d’emploi global (des personnes âgées de 15 ans et plus) et celui des membres des 12 tranches d’âge indiquées dans la première colonne (15 à 19 ans, 20 à 24 ans… jusqu’à 70 ans et plus), en indiquant en vert les taux d’emploi de juillet 2017 qui représentent des sommets historiques des 41 mois de juillet allant de juillet 1976 à juillet 2017;
  • dans la deuxième colonne, le rang où se classe le taux d’emploi de la première colonne (donc de juillet 2017) parmi les 41 taux historiques;
  • dans la troisième colonne, le taux d’emploi le plus élevé des mois de juillet des 40 premières années, soit ceux allant de juillet 1976 à juillet 2016;
  • dans la quatrième colonne, le mois au cours duquel le sommet indiqué à la colonne précédente a été atteint;
  • dans la cinquième colonne, l’écart entre le taux d’emploi du mois de juillet 2017 et le sommet antérieur, en indiquant en vert les écarts positifs, soit lorsque le sommet a été atteint en juillet 2017, et en rouge les écarts négatifs, soit lorsque le sommet a été atteint avant juillet 2017.

Le plus remarquable de ce tableau est que, dans le seul mois de juillet 2017, on retrouve sept des 12 taux d’emploi les plus élevés (dont un partagé) des 41 mois de juillet de la série couverte par cet exercice, dont trois ont surpassé le précédent sommet par plus de deux points de pourcentage (y compris un par plus de trois points). En plus, parmi les cinq autres taux d’emploi, deux se classent au deuxième rang (dont un à seulement 0,2 point de pourcentage du sommet), les trois autres se classant aux troisième, quatrième et neuvième rangs. En fait, 11 des 12 taux se classent dans le premier décile (ou premier dixième) des 41 taux et tous dans le premier quartile. Autre constat intéressant, tous les sommets ont été atteints dans les années 2000, ce qui est compréhensible quand on est conscient de la forte croissance de la scolarisation et de la présence des femmes sur le marché du travail au cours des dernières décennies.

La forte concentration des sommets historiques dans ce dernier mois de juillet (et dans le précédent) accentue mes doutes sur la crédibilité de la hausse de près de 200 000 emplois de l’estimation de l’EPA entre avril 2014 et juillet 2017, et encore plus sur celle de plus de 124 000 entre juillet 2016 et juillet 2017. Elle me fait aussi douter de la possibilité que cette estimation puisse encore augmenter de façon notable au cours de la dernière année du mandat des libéraux. Mais bon, je devrais savoir qu’on ne doit jamais faire de prévisions sur les estimations de l’EPA!

– comparaison avec l’Ontario

Le tableau ci-contre compare les taux d’emploi globaux et par tranche d’âge (y compris cette fois la tranche des personnes âgées de 25 à 54 ans, celle dite du principal groupe d’âge actif) du Québec et de l’Ontario, ainsi que le taux d’emploi ajusté de ces provinces en calculant le taux d’emploi global qu’elles auraient si elles avaient la structure d’âge de l’autre province.

La dernière colonne nous montre que le Québec a eu en juillet 2017 un taux d’emploi plus élevé de 0,8 point de pourcentage que celui de l’Ontario pour l’ensemble du marché du travail (à la ligne 15 ans et plus), et ce pour la première fois des 41 mois de juillet de 1976 à 2017. La suite de cette dernière colonne nous indique que le taux d’emploi du Québec fut plus élevé que celui de l’Ontario dans les neuf tranches d’âge les moins élevées (pour la première fois en 41 mois de juillet dans le cas des personnes âgées de 55 à 59 ans), notamment par plus de 10 points chez les 20 à 24 ans et par plus de cinq points dans cinq autres tranches d’âge. Le retard du Québec dans les trois tranches d’âge les plus élevées, et par de fortes marges, peut très bien être considéré comme une bonne nouvelle, montrant possiblement que les Québécois.es peuvent se permettre de prendre leur retraite à un âge moins avancé que les Ontarien.nes.

L’avant-dernière ligne résume bien la situation : les membres du principal groupe d’âge actif (25 à 54 ans) du Québec avaient en juillet dernier un taux d’emploi plus élevé de 4,4 points de pourcentage que ceux de l’Ontario (84,9 % par rapport à 80,5 %). Il s’agissait du onzième mois de juillet consécutif au cours duquel le taux d’emploi de ce groupe d’âge du Québec dépassait celui de ce groupe d’âge de l’Ontario, mais avec l’écart de loin le plus élevé (3,6 points en 2016 et 2,1 en 2015). La dernière ligne montre que la structure d’âge du Québec le désavantage par rapport à celle de l’Ontario. En effet, si le Québec avait la structure d’âge de l’Ontario, mais conservait ses taux d’emploi par tranche d’âge, son taux d’emploi global de juillet 2017 serait passé de 62,4 % à 63,9 %, taux plus élevé de 1,5 point. À l’inverse, si l’Ontario avait la structure d’âge du Québec, son taux d’emploi global de juillet 2017 aurait été de 60,5 % plutôt que de 61,6 %, taux moins élevé de 1,1 point. Cela montre que le fait que le taux d’emploi global du Québec ait dépassé celui de l’Ontario pour la première fois est encore plus étonnant que si sa démographie ne le désavantageait pas ainsi.

Et alors…

Alors que le premier billet de cette série nous a présenté de nombreux faits nous faisant douter de l’ampleur renversante de la hausse de l’estimation de l’emploi selon l’EPA entre avril 2014 et juillet 2017, ce deuxième billet s’est plutôt penché sur les conséquences plus qu’étonnantes qu’aurait le niveau du taux d’emploi atteint en juillet 2017 si ces estimations étaient justes. Même si aucun des éléments présentés dans ces deux billets ne démontre hors de tout doute raisonnable que les estimations de l’emploi de l’EPA de juillet 2017 étaient trop élevées, l’accumulation de révélations qui sortent de l’ordinaire nous le suggère fortement et nous porte à penser que ces estimations devraient diminuer d’ici la prochaine élection, en novembre 2018. Mais qui sait si les merveilleuses estimations de l’EPA ne réussiront pas à nous confondre encore!

Mélancolie de gauche

14 août 2017

Avec Mélancolie de gauche – La force d’une tradition cachée (XIXe-XXIe siècle), Enzo Traverso nous «offre la possibilité de redécouvrir une « tradition cachée », celle de la mélancolie de gauche qui, comme un fil rouge, traverse l’histoire révolutionnaire» et nous «révèle avec vigueur et de manière contre-intuitive toute la charge subversive et libératrice du deuil révolutionnaire».

Introduction : En ce début de XXIe siècle, plus de 20 ans après la chute du communisme, il est plus difficile pour la gauche de se nourrir des expériences passées pour préparer l’avenir. Elle ne rejette toutefois pas ce passé, mais développe une mélancolie qui, «tout en s’engageant dans les luttes du présent, ne se soustrait pas au bilan des défaites accumulées».

1. La mélancolie des vaincus : Les défaites du socialisme depuis deux siècles n’ont pas détruit «ses idées et ses aspirations», mais les ont plutôt «consolidées et légitimées». «Tomber après s’être battu donne au vaincu un sentiment de dignité et peut même renforcer ses convictions». La défaite de 1989 (soit celle de la révolution russe lors de la chute du mur de Berlin, événement que je ne considère pas et n’ai jamais considéré comme une défaite, mais passons) est toutefois d’un autre ordre. Comme elle n’est pas survenue après une bataille, elle ne peut pas engendrer de fierté. Ne reste que la mélancolie (je simplifie). L’auteur présente ensuite la réaction de nombreux socialistes, qu’ils soient auteurs, politiciens ou artistes, face aux défaites. La plupart voyaient en elles des signes précurseurs de la victoire finale. Il poursuit en présentant le même exercice, soit la réaction de nombreux socialistes, cette fois face à la mélancolie et au deuil. Là, le résultat est plus variable.

2. Marxisme et mémoire : L’auteur montre ici l’importance de la mémoire (ou des souvenirs) dans la mélancolie et explique ce qui la distingue de l’histoire. Il applique ensuite le concept de la mémoire au marxisme, exercice difficile d’autant plus que la mémoire du marxisme est en général orientée vers l’avenir (je simplifie encore) et que les citations présentées dans ce chapitre sont nombreuses et très différentes les unes des autres.

3. Images mélancoliques. Le cinéma des révolutions vaincues : Dans ce chapitre, l’auteur présente surtout des films, mais aussi des peintures, inspirées par la gauche. Il y parle aussi bien d’œuvres portant sur les conséquences de la chute du communisme dans l’ex-URSS (ou, peu importe comment on a pu qualifier ce régime politique) et dans les autres pays de l’Europe de l’Est que basées sur des faits historiques, qui se terminent souvent par des défaites de la gauche, défaites aussi annonciatrices de la victoire finale.

4. Spectres du colonialisme : Après avoir présenté brièvement deux «mélancolies postcoloniales» qui opposent les perceptions des anciennes colonies et des anciens colonisateurs, soit la «nostalgie des sociétés coloniales» et la «déception d’une libération ratée», l’auteur aborde dans ce chapitre la difficile relation entre le colonialisme et le marxisme. L’auteur rappelle que les écrits de Marx, même s’il les a nuancés par la suite, étaient au départ marqués par une forme d’eurocentrisme et même de darwinisme social, déconsidérant les peuples de l’extérieur de l’Europe. «Il faudra attendre le XXe siècle pour que le marxisme apprenne à reconnaître les peuples colonisés comme des acteurs politiques (…)», et, encore là, tout dépendant des courants marxistes.

5. La concordance des temps : L’auteur présente dans ce chapitre différents concepts de l’histoire liés à la gauche et surtout au marxisme (concepts que je renonce à résumer; il parle notamment de mémoire, d’historicisme, d’histoire structurale, de remembrance, de remémoration et de termes allemands, espagnols et portugais). Ces concepts reposent en grande partie sur l’œuvre de Walter Benjamin (qui s’est, comme le rappelle l’auteur, suicidé en 1940 pour éviter de se faire rattraper par la Gestapo) et sur les interprétations et développements qu’en a faits Daniel Bensaïd.

Conclusion : «Au fond, la mélancolie est un des affects de l’action révolutionnaire». Par contre, l’auteur rappelle qu’il faut distinguer la mélancolie de la révolte, plus présente avant la chute du mur de Berlin, de la mélancolie de la défaite. Si les deux ne doivent pas être confondues avec la résignation, la deuxième tend plus à étouffer la révolte qu’à la susciter. Mais, elle n’y parvient jamais totalement…

Et alors…

Lire ou ne pas lire? Personnellement, je ne le relierais pas! Cela dit, les personnes davantage attirées que moi par ce type de débats philosophiques (entourant notamment le sens de certains écrits de Marx) ou par certains pans du discours historique peuvent certainement y trouver leur compte. De mon côté, j’avais déjà entendu parler de l’auteur (en fait, de son nom), mais ne le situait pas : maintenant, c’est fait! Par ailleurs, les notes sont en bas de page et le livre est accompagné de nombreuses photos intéressantes. Mon expérience de lecture ne fut donc pas totalement négative!

200 000 emplois! (1)

11 août 2017

Les données sur l’emploi continuent de surprendre! En tenant compte des estimations de l’emploi selon l’Enquête sur la population active (EPA) pour le mois de juillet 2017 diffusées il y a une semaine, l’emploi désaisonnalisé aurait augmenté de 197 000 entre le mois de l’élection du parti libéral en avril 2014 et le mois de juillet 2017, ce qui surpasse en rythme d’augmentation de l’emploi la promesse que j’ai jugée totalement irréaliste de créer 250 000 emplois en cinq ans. Compte tenu de cette estimation d’augmentation du nombre d’emplois plus qu’étonnante, je vais tenter de faire le point sur cette situation renversante (je commence à manquer de synonymes!). Comme j’ai l’intention d’analyser cette situation sur plusieurs angles, je vais lui consacrer deux billets.

Les données récentes

Comme je le fais toujours quand je présente des données sur l’emploi provenant de l’EPA, je vais les comparer avec celles de l’Enquête sur la rémunération et les heures de travail (EERH) à l’aide des tableaux cansim 282-0089 et 281-0063 de Statistique Canada. En effet, les estimations de l’EPA comportent une marge d’erreur importante (la marge d’erreur à 95 % des estimations de la variation de l’emploi salarié entre les mois de juillet 2016 et 2017 est d’environ 76 000 et de 37 000 entre ce mois et le mois précédent), tandis que celles de l’EERH sont beaucoup plus fiables, sans marge d’erreur, car issues d’un recensement des salariés de toutes les entreprises à partir de leur liste de paye, mais disponibles avec un ou deux mois de retard sur les premières. Par contre, l’EERH ne comptabilise pas les travailleurs autonomes, les salariés du secteur de l’agriculture, les grévistes, les personnes en lock-out et les personnes en congé sans solde, alors que les estimations de l’EPA le font. Pour minimiser ces différences (il y en a d’autres), j’utilise les données de l’EPA sur les employés, ce qui enlève les travailleurs autonomes des estimations de l’EPA, groupe qui représente la plus grande différence entre les populations considérées par ces deux enquêtes. Malgré cela, il faut toujours être prudent quand on compare les données de ces deux sources. Pour les rendre comparables, je dois donc faire partir les données à 100 (en divisant chaque donnée de chaque série par l’emploi de juillet 2011) dans les deux cas pour qu’on puisse mieux voir l’évolution relative des deux courbes.

La conception de ce graphique a bien fonctionné dans ses premières années, mais ne semble plus adéquate depuis le début de 2015. En effet, j’avais choisi de faire partir les données de l’EPA (ligne bleue) et de l’EERH (ligne rouge) à 100 en juillet 2011 parce que les deux courbes se suivaient assez bien après la période sous-estimation manifeste des données de l’EPA en début de période. Mais, il est clair que ce choix n’est plus pertinent depuis le début de 2015, car la ligne de l’EPA a surpassé celle de l’EERH au cours de 29 des 31 mois suivants et parfois de beaucoup. Cela peut s’expliquer quand ce type d’écart dure moins d’un an, mais peut moins l’être quand cela est systématique. En plus, ce découplage des deux courbes est survenu au moment du remaniement de l’échantillon de l’EPA (voir le bas de l’encadré jaune vers la fin de cette page), remaniement qui, comme je l’ai expliqué dans ce billet, expliquerait justement la hausse soudaine des estimations de l’emploi selon l’EPA dans la première moitié de 2015, alors que les données de l’EERH montraient plutôt une stabilité de l’emploi. J’ai donc décidé de changer de mois où j’établis à 100 les données de l’EPA et de l’EERH pour le mois d’avril 2015. Et, comme ce billet porte sur l’évolution de l’emploi depuis l’élection du PLQ, j’ai bien sûr choisi de faire partir ce graphique en avril 2014, mois de cette élection.

On peut voir sur ce nouveau graphique que les deux lignes se suivent assez bien d’avril 2015 à mai 2016 et que les deux lignes sont presque aussi souvent en dessous qu’au-dessus de l’autre, ce qui est ce qu’on recherche dans ce genre de graphique. Les données les plus récentes de l’EERH sont toutefois demeurées sous les estimations de l’EPA au cours des neuf derniers mois et semblent bien parties pour rester au-dessous au cours des prochains mois. Cela laisse penser que les estimations de l’EPA sont actuellement trop élevées de quelques dizaines de milliers d’emplois.

Entre l’élection d’avril 2014 et mai 2017, l’emploi salarié désaisonnalisé a augmenté d’environ 89 000 selon l’EERH, mais de 177 000 selon les estimations de l’EPA, soit le double! Notons que, comme l’estimation de l’emploi autonome de l’EPA a diminué de 13 000 entre ces deux mois (avec une marge d’erreur à 95 % de 47 000, ce qui signifie que la probabilité est de 95 % que l’emploi autonome ait varié en fait d’entre -60 000 et +34 000…), les estimations de l’emploi total de l’EPA ont augmenté de 164 000. Ces données nous laissent penser que la hausse de quasiment 200 000 emplois entre avril 2014 et juillet 2017 doit en fait être plus près de 100 000, ce qui demeure tout de même une hausse étonnante dans le contexte actuel de vieillissement de la population, comme nous le verrons dans le prochain billet. Bref, la hausse de 200 000 des estimations de l’EPA résulterait :

  • d’une hausse réelle d’environ 100 000 emplois;
  • du remaniement de l’EPA qui a fait augmenter le niveau des estimations d’environ 40 000 emplois;
  • d’une sous-estimation de l’emploi selon l’EPA en début de période d’environ 20 000 emplois;
  • d’une surestimation de l’emploi selon l’EPA en fin de période (juillet 2017) d’environ 40 000 emplois.

Je tiens à souligner que les calculs ci-haut sont très approximatifs (il ne peut pas en être autrement avec des données aussi variables que celles de l’EPA) et ne visent qu’à fournir des ordres de grandeur de l’importance des facteurs qui peuvent expliquer la hausse des estimations de l’emploi de l’EPA de près de 200 000 emplois entre avril 2014 et juillet 2017.

D’autres aspects de la hausse de 200 000 emplois

Je vais maintenant présenter quatre autres aspects de la hausse des estimations de l’emploi entre avril 2014 et juillet 2017 : l’évolution de l’emploi selon le sexe, celle du taux d’emploi selon les grandes tranches d’âge, la répartition de la hausse par région économique et l’évolution du taux d’emploi (et, tant qu’à y être, du taux de chômage) selon le statut d’immigration. Dans le prochain billet, je présenterai diverses comparaisons pour bien montrer l’impact du vieillissement de la population et surtout les hausses phénoménales des taux d’emploi par tranche d’âge qui furent nécessaires pour que le taux d’emploi global du mois de juillet 2017 se classe au cinquième rang des 499 mois pour lesquelles l’EPA publie des données depuis janvier 1976 (cela m’étonnerait que quelqu’un souligne le 500e mois lors de la parution des données pour le mois d’août!).

– selon le sexe et les grandes tranches d’âge

Le graphique qui suit met à jour celui que j’avais conçu en mars 2016 pour savoir s’il était possible que les données de l’EPA, malgré leur grande variabilité, puissent montrer si les effets des mesures d’austérité du gouvernement avaient touché davantage les femmes que les hommes. Ce graphique illustre l’évolution des estimations désaisonnalisées de l’emploi selon le sexe entre avril 2014 et juillet 2017, selon le tableau cansim 282-0087. Comme le niveau de l’emploi des hommes et des femmes est passablement différent, j’ai fait partir les données à 100 (en divisant chaque donnée de chacune des deux séries par leur niveau d’emploi d’avril 2014) pour qu’on puisse mieux voir l’évolution relative des deux courbes.

Ce graphique indique que les estimations d’emploi de l’EPA ont augmenté beaucoup plus fortement chez les hommes (ligne bleue, hausse de 6,0 %) que chez les femmes (ligne rouge, hausse de 3,7 %) entre avril 2014 et juillet 2017. Cela semble appuyer les observations voulant que la période d’austérité des libéraux ait davantage nui aux femmes, d’autant plus qu’on n’observe aucune hausse de l’estimation de l’emploi chez elles entre juin 2014 et mars 2016, dans la vingtaine de mois suivant l’élection, et ce, malgré la hausse importante de décembre 2014 à avril 2015 due au remaniement de l’échantillon de l’EPA, comme je l’ai expliqué plus tôt. Par contre, la forte hausse de ces estimations de mars à octobre 2016, mois où la courbe des femmes a presque rejoint celle des hommes, vient jeter un doute sur le lien entre la stagnation antérieure et l’austérité libérale. Par contre, le découplage des deux courbes et l’écart important entre la croissance de ces estimations par la suite viennent redonner de la vigueur à cette hypothèse.

En plus, comme je l’ai mentionné dans mon billet de mars 2016, cette différence de croissance de l’emploi à l’avantage des hommes constitue un changement majeur de tendance. En effet, le taux d’emploi des femmes a augmenté de 5,5 points de pourcentage entre 2000 et avril 2014, tandis que celui des hommes diminuait de 2,3 points. Or, ce taux a augmenté de 2,3 points chez les hommes entre avril 2014 et juillet 2017, alors qu’il n’a augmenté que de 0,9 point chez les femmes, comme on peut le voir sur le graphique ci-contre, lui aussi réalisé avec les données du tableau cansim 282-0087. Ce graphique nous montre aussi que la croissance du taux d’emploi fut la même chez les hommes et les femmes de la tranche d’âge des 25 à 54 ans, mais qu’elle fut beaucoup plus faible chez les femmes que chez les hommes âgés de 15 à 24 ans (hausse de 4,6 points chez les hommes par rapport à une hausse de seulement 1,6 point chez les femmes). Pire, cette croissance fut carrément nulle chez les femmes âgées 55 ans et plus (et tout de même de 1,9 point chez les hommes), alors que c’est dans cette tranche d’âge que ce taux avait le plus augmenté entre avril 2000 et avril 2014, soit de 12,6 points de pourcentage (de 14,1 % à 26,7 %), une hausse de près de 90 %. Ces observations cadreraient avec l’hypothèse que bien plus de femmes que d’hommes auraient pris leur retraite en raison des mesures d’austérité gouvernementales et que les jeunes hommes auraient été plus avantagés que les jeunes femmes par les politiques économiques de ce gouvernement, mais ne la prouvent pas, d’autant plus que les données du tableau cansim 282-0089 (non illustrées) montrent que, au bout du compte, l’emploi dans le secteur public (incluant les réseaux publics de la santé et de l’éducation) a augmenté à un rythme légèrement supérieur à la moyenne (7,5 % par rapport à 4,9 %) au cours de cette période. Une autre donnée étrange!

– par région

Le tableau qui suit, réalisé avec les données du tableau cansim 282-0122, indique le niveau des estimations de l’emploi pour chaque région économique du Québec en juillet 2014 et en juillet 2017, l’écart entre ces deux estimations ainsi que la répartition en pourcentage par région du niveau des estimations de l’emploi et de l’écart. Comme les estimations par région économique ne sont pas désaisonnalisées et sont plutôt des moyennes mobiles de trois mois (par exemple, les estimations publiées pour juillet 2017 sont en fait une moyenne des estimations de mai, juin et juillet 2017), j’ai préféré présenter l’écart entre les estimations des deux mois de juillet 2014 et 2017 que de comparer celles de juillet 2017 à celle d’avril 2014 (qui sont en fait celles de février à avril).

Le principal enseignement de ce tableau est que près de 60 % de la croissance de l’estimation de l’emploi entre juillet 2014 et juillet 2017 pour l’ensemble du Québec se serait réalisée dans la région économique de Montréal, soit dans l’île de Montréal, alors que seulement 23,1 % des emplois étaient occupés par des personnes y habitant en juillet 2014. En fait, selon le tableau cansim 282-0128, 83,4 % (donnée non illustrée) de cette croissance s’est concrétisée dans la région métropolitaine de Montréal qui, elle, regroupait 49,4 % des personnes en emploi en juillet 2014 et 50,8 % en juillet 2017. Cela n’en laisse pas beaucoup pour les autres régions! D’ailleurs, la région économique de Montréal est la seule pour laquelle l’écart de l’estimation de l’emploi (à la hausse ou à la baisse) est supérieur à la marge d’erreur à 95 %.

– selon le statut d’immigration

Les données selon le statut d’immigration sont encore plus étranges. J’ai pensé à regarder ces données en me disant que la forte hausse de l’emploi dans la région de Montréal devait sûrement être accompagnée d’une amélioration de la situation sur le marché du travail de la population immigrante. Malheureusement, l’EPA ne fournit qu’un seul tableau mensuel (en fait, avec des moyennes mobiles de trois mois) avec des estimations par province sur la situation du marché du travail selon le statut d’immigration, soit le tableau cansim 282-0101, qui ne contient même pas de données selon le sexe. On y apprend tout de même que, entre juillet (en fait la moyenne des estimations de mai, juin et juillet) 2014 et 2017 :

  • la population immigrante adulte (âgée de 15 ans et plus) aurait augmenté au Québec de 4,1 % et celle des natifs de 1,4 %, mais que la population immigrante reçue depuis 5 ans et moins aurait diminué de 22 % (!) et même de 44 % hors de la région métropolitaine de Montréal (!!!), alors qu’on parle de mieux répartir cette population dans les différentes régions du Québec; je tiens à souligner que les estimations de la population immigrante ne viennent pas de l’EPA ni directement des recensements, mais d’estimations qu’on appelle intercensitaires (entre les recensements) provenant de la division démographique de Statistique Canada et que, comme elles ne sont pas révisées par la suite, elles présentent parfois des sauts pour justement corriger des estimations antérieures;
  • le taux d’emploi des natifs âgés de 25 à 54 ans aurait augmenté de 2,9 points de pourcentage, mais celui des immigrants de 7,9 points et celui de la population immigrante reçue depuis 5 ans et moins de 11,4 points (!!);
  • le taux de chômage des natifs âgés de 25 à 54 ans aurait diminué de 1,4 point de pourcentage, mais celui des immigrants de 4,2 points et celui de la population immigrante reçue depuis 5 ans et moins de 4,5 points (de 20,5 % à 16,0 %).

Il est clair que ces estimations, dont certaines sont pour le moins étranges, ont sûrement contribué à la hausse de près de 200 000 emplois au Québec entre avril 2014 et juillet 2017. La plus étonnante est celle sur la baisse de la population immigrante reçue depuis cinq ans et moins, baisse qui ne peut que faire augmenter le taux d’emploi moyen de la population totale et faire diminuer leur taux de chômage. Il sera intéressant de suivre plus attentivement ces données au cours des prochains mois.

Et alors…

Ce billet aura permis d’y voir un peu plus clair sur la hausse de près de 200 000 emplois depuis l’élection des libéraux. Je rappelle qu’il n’y a aucune certitude dans les explications de ce billet, mais de très fortes présomptions qui reposent entre autres sur les données de l’EERH, bien plus fiables que celles de l’EPA. Les revirements de tendances du côté de l’emploi des hommes et des femmes, des personnes âgées de 25 à 54 ans, des personnes immigrantes et des personnes habitant l’Île et la région métropolitaine de Montréal ne peuvent que nous faire poser encore plus de questions sur l’origine d’une si forte croissance des estimations de l’emploi. Et, on le verra dans le prochain billet, les questions ne s’arrêtent pas là!

Le goût d’apprendre

7 août 2017

Dans le livre Le goût d’apprendre – Une valeur à partager qui contient des entretiens entre Denis Simard et Antoine Baby, ce dernier «s’amuse à distiller un certain nombre d’utopies en éducation, dans l’espoir de faire avancer le monde scolaire dans le sens de l’émancipation des plus démunis». Il y transmet en plus bien d’autres idées sur le monde de l’éducation et y critique les nombreuses manifestations de la dérive néolibérale actuelle dans ce secteur.

1. Qui êtes-vous Antoine Baby ? : Après deux courts textes (avant-propos) dans lesquels les deux protagonistes expliquent le contexte entourant la publication ce livre, Antoine Baby raconte le cheminement qui l’a amené à devenir un défenseur des démunis. Ses expériences scolaires, où il était souvent entouré de fils de riches alors qu’il venait d’une famille aux revenus modestes, ont eu, selon lui, une importance majeure dans le développement de ses valeurs.

2. L’éducation sous la loupe des sciences sociales : Antoine Baby explique le rôle des sciences sociales, et plus spécifiquement de la sociologie, dans les sciences de l’éducation et dans l’acte d’enseigner. Il dénonce ce qu’il appelle le pédagogisme, idéologie qui se manifeste notamment par la trop grande importance accordée aux aspects techniques de l’enseignement dans la formation des enseignants au détriment de la formation dans les matières enseignées. «L’éducation s’est autoproclamée science oubliant qu’elle était, autant dans l’enseignement que dans ses autres manifestations, d’abord et avant tout un art». Baby montre ensuite d’autres applications des sciences sociales dans le domaine de l’éducation et dénonce entre autres la concurrence entre les écoles et la trop grande adaptation de l’école aux besoins du marché du travail.

3. Deux réformes, deux regards : du rapport Parent à la réforme des années 2000 : Notre sociologue interviewé fait ici l’éloge du rapport Parent, son seul bémol étant que certaines de ses recommandations n’aient pas été mises en œuvre, notamment sur l’accueil des jeunes venant de milieux défavorisés et sur l’importance d’offrir une formation polyvalente et non pas conçue pour les besoins spécifiques (et temporaires) des entreprises, comme on tend de plus en plus à le faire. Il est à l’opposé cinglant sur la formation des enseignants (trop d’importance accordée aux techniques d’enseignement et pas assez aux matières à enseigner, à la culture générale et à l’accompagnement en début de carrière) et sur la réforme des années 2000.

4. Passé, présent et avenir de l’école publique : Baby favorise au primaire et au secondaire une formation commune pendant au moins neuf ans, sans évaluation chiffrée au cours des six ou sept premières années (comme en Finlande). L’implantation de cet idéal entraînerait notamment la fin du financement public des écoles privées et de la sélection d’élèves dans le secteur public. Ces mesures peuvent sembler radicales, mais elles correspondent assez bien avec les constats et les recommandations d’un rapport récent du Conseil supérieur de l’éducation (que j’ai présenté dans trois billets). Il poursuit en mettant l’accent sur l’importance de la formation générale à l’opposé de la formation trop spécialisée et conçue en fonction des besoins immédiats du marché du travail qui sont pourtant appelés à changer considérablement au cours des prochaines décennies (quand les employeurs qui exigent des travailleurs prêts à accomplir les tâches qu’ils veulent dès le jour de leur embauche ne décident pas de délocaliser leur travail dans un pays à bas salaire laissant tomber ces personnes formées pour eux sur mesure…).

5. Éduquer, instruire dans les milieux touchés par la pauvreté : Pour des enfants de cinq ou six ans, le changement de milieu social est tellement important entre la famille et l’école que, pour eux, entrer à l’école, c’est comme immigrer. Avant de pouvoir réussir à l’école, ils doivent pouvoir réussir l’école, c’est-à-dire, «réussir à s’intégrer, à s’adapter, à fonctionner comme les autres pour pouvoir d’adonner aussi facilement que les autres aux tâches scolaires». Ce chapitre aborde ensuite d’autres aspects de l’importance de l’environnement social dans la réussite des jeunes.

6. Une formation générale pour tous : Une école humaniste et démocratique, celle que prône Baby, vise à ce qu’«au terme d’une scolarité obligatoire, ils et elles (les jeunes) soient de véritables personnes émancipées, affranchies et non des êtres assujettis, qu’ils soient autre chose que des objets dociles, utiles et «compétents».» Il aborde aussi dans ce chapitre les avantages et désavantages de l’utilisation d’Internet dans la formation.

7. De la condition enseignante et de l’autonomie professionnelle des enseignants : Antoine Baby s’insurge contre les «nouvelles» méthodes de gestion qui traitent «l’école comme une manufacture de bines» dont l’objectif serait de maximiser ses profits. Peu importe le nom-slogan de ces méthodes (qualité totale, méthode Toyota, «New Public Management», assurance qualité, etc.), elles mènent toutes à mettre de la pression sur les enseignants pour atteindre des objectifs fixés à l’avance sans tenir compte de la réalité des écoles et des élèves. Il donne ensuite des exemples malheureux des conséquences de l’application de ces méthodes et aborde les changements qu’il souhaiterait à la formation des enseignants.

Un dernier mot… L’idée folle à laquelle je tiens le plus : Parmi toutes les idées mise de l’avant par Antoine Baby, il y en a une à laquelle il tient plus qu’à toutes les autres. Il est en effet «convaincu que la meilleure façon de lutter contre les inégalités sociales et toutes les formes d’exploitation est de faire partager par tous et par toutes, dans toutes les couches de la société, le goût d’apprendre tout au long de la vie».

Et alors…

Lire ou ne pas lire? Lire! Ce livre a en effet de nombreuses qualités. Tout d’abord, le format d’entrevue favorise, je crois, la clarté du propos et l’utilisation d’un registre du langage moins spécialisé et donc plus facile à comprendre pour des néophytes en sociologie de l’éducation. Ensuite, l’interviewé sait bien ramasser ses idées et les transmettre de façon ordonnée, sans éviter quelques répétitions heureusement peu nombreuses. Il présente ses principaux arguments contre la dérive néolibérale de notre système d’éducation de façon claire et accessible. J’allais ajouter comme qualité la brièveté du livre, mais, en fait, en le terminant, j’en redemandais! Si vous désirez avoir un avant-goût de ce livre, je suggère la lecture de cette lettre d’Antoine Baby que Le Devoir a publiée il y a trois ans. Vous y retrouverez l’esprit de sa vision de l’éducation et cela devrait vous donner le goût de lire ce livre… ou de ne pas le lire! Ah oui, en plus, les rares notes sont en bas de page!

Il s’agit sans contredit de mon coup de cœur des derniers mois!