Aller au contenu principal

Une certaine gauche

28 décembre 2018

Une des conséquences de ma décision de ne produire «que» deux billets par semaine (au lieu de trois comme je l’ai fait pendant quelques années) est que je n’ai pas publié de billet sur les expressions qui me tapent sur les nerfs depuis juin 2017! Pourtant, ma liste de ce type d’expressions est encore bien garnie. La période des Fêtes me semble tout à fait appropriée pour ce genre de billet plus léger que ceux que j’écris habituellement.

L’expression que j’ai choisie, celle en haut de ma liste (ce qui signifie seulement que c’est celle que j’ai ajoutée en dernier), me tape particulièrement sur les nerfs. L’auteur du texte qui m’a fait ajouter cette expression à ma liste en fait tout autant. Dans cette chronique datant de mars 2018, Christian Rioux utilisait cette expression («Une certaine gauche universitaire et médiatique cherche à se rassurer en brandissant les vieilles catégories politiques du fascisme et de l’extrême droite pour éviter surtout d’entendre ce que disent ces électeurs qui ont le grand défaut de lui échapper») au lieu de nommer les personnes ou les groupes qu’il accuse ainsi, en transformant une attaque précise en une attaque générique sans cible véritable autre que celle qu’il imagine et dont il connaît non seulement les caractéristiques («universitaire et médiatique»), mais aussi les intentions («cherche à se rassurer» et «pour éviter surtout d’entendre»). C’est assez paradoxal, car, plus tôt dans ce texte, il reprochait aux «élites médiatiques» (autres que lui-même) d’utiliser le terme «populiste» pour désigner «tous ceux qui ne jouent pas le jeu de la mondialisation heureuse. Une façon aussi pour certains de nommer ce qu’ils ne comprennent pas». Bien sûr qu’il y a des gauchistes qui utilisent de façon abusive certains termes comme «fascistes» ou «extrême droite», mais il demeure qu’il fait exactement ce qu’il reproche à d’autres en utilisant cette expression imprécise (certain.e : «Exprime l’indétermination, qui porte sur l’identité, la quantité ou la qualité» ou plutôt dans ce cas : «sans abolir l’indétermination de l’identité, individualise, souligne la spécificité (connue ou censée être connue)» ou encore : «désigne un nombre indéterminé de personnes dont l’identité – ou le nombre – ne peut être précisée ou n’a pas intérêt à l’être»).

Malheureusement, il n’est pas le seul à utiliser cette rhétorique simplificatrice qui vise beaucoup de monde sans viser personne. Si vous tapez «une certaine gauche» entre guillemets dans Google, vous obtiendrez 42 900 résultats! Christian Rioux est donc loin d’être le seul à prendre des raccourcis pour faire valoir ses arguments!

Dans Le Devoir

Pour m’amuser, j’ai cherché d’autres utilisations de cette expression sur le site du Devoir. J’en ai trouvé 194 (dont la précédente). Je vais en présenter quelques-unes.

Déjà en avril 2004, Jean-François Bertrand, ex-ministre du Parti québécois, s’inquiétait qu’une certaine gauche, probablement le SPQ-libre (il ne le nomme pas, mais parle de Monique Richard qui en faisait partie), car justement fondé en février 2004, ait décidé de prendre sa place au PQ avec l’objectif de «devenir la conscience du Parti québécois et de le ramener à l’ordre». Il félicitait même Françoise David de vouloir «fonder un nouveau parti qui réunira la gauche et se battra dans l’authenticité et la transparence», soit Option citoyenne, mouvement, puis parti, créé en mai 2004. C’est toujours rigolo de regarder le discours d’un certain PQ changer au gré des événements! De nos jours, on lit rarement des péquistes féliciter QS pour sa fondation et encore moins pour son authenticité et sa transparence!

Je saute en 2007, pour souligner un texte de Jean-Serge Baribeau, sociologue des médias, qui ne lésinait pas avec l’utilisation de l’adjectif «certain», l’associant aussi bien à un sourire, à la noirceur (pour relativiser la grande sous Duplessis) ou à un retard, qu’au clergé (qui entourait Duplessis), à des minorités (qui «voudraient faire la loi»), à une «correctitude politique» («qui contamine les intelligences et les cerveaux, parfois trop bien formatés») et enfin, il le faut bien, à une gauche (qui voit «partout de l’homophobie, de la misogynie, de l’islamophobie, du sexisme et toute une gamme de péchés contemporains qui ont remplacé les vieux péchés»). Ça rejoint en partie la certaine gauche de M. Rioux. Ajoutons que M. Baribeau dénonçait aussi les «correctitudes de droite et profondément réactionnaires et régressives», mais ne les attribuait pas à «une certaine droite» (qui compte quand même 18 900 mentions sur Google, 44 % des mentions d’«une certaine gauche»)! M. Baribeau est revenu en 2016 avec un discours semblable en parlant d’une «certaine gauche» qui «méprise profondément le peuple qui, à ses yeux, est rétrograde et arriéré», mais ajoutait au moins qu’il ne s’agit que d’une gauche parmi de nombreuses autres, formée de «certains progressistes qui n’ont de progressiste que l’appellation» et animée par un «relativisme benêt et irresponsable». Ce qu’il y a de bien (ou de mal, c’est selon), c’est que rares sont les gauchistes qui se reconnaîtront dans ces quolibets!

La droite n’a pas le monopole de l’utilisation de l’expression vedette de ce billet. En 2017, Louis Cornellier mentionnait que, dans son livre Un pays en commun, Éric Martin «critique sèchement, de plus, la tendance d’une certaine gauche à qualifier de raciste tout sentiment national». Je ne sais pas si M. Martin utilise vraiment cette expression dans son livre, mais, en tout cas, cet extrait me permet de répéter qu’il n’est pas faux de dire que des gauchistes utilisent de façon abusive certains termes comme «raciste», mais je n’en croise pas beaucoup qui le font sans se le faire reprocher (ce que j’ai déjà fait).

Richard Martineau et autres

En cherchant cette fois avec «Richard Martineau» et «une certaine gauche» entre guillemets, j’ai trouvé 5410 résultats, 28 fois plus que dans Le Devoir. Bon, il y a beaucoup de doublons, d’exemples similaires tirés des nombreuses plateformes qui relatent ses opinions, de textes dans lesquels il est cité ou de cas où cette expression est dans les commentaires, mais ça fait quand même beaucoup!

Dans le plus ancien résultat que j’ai trouvé (je n’ai pas regardé les 5410!), qui date de 2005 (quand il écrivait dans le Voir), il dénonçait dans un court billet intitulé «L’intolérance d’une certaine gauche» des «groupes dit de gauche» qui tentent «d’empêcher le débat» en faisant taire leurs opposants. J’ai été quand même positivement surpris qu’il ait ajouté qu’il «ne faut pas généraliser. C’est seulement quelques individus qui pensent ainsi» et que de fait, «il y a une certaine limite dans la liberté d’expression». Je ne me rappelais plus de ce Richard Martineau nuancé!

On reconnaît plus facilement notre auteur dans ce texte rempli de suppositions et d’affirmations gratuites où il parlait de «l’aveuglement complaisant d’une certaine gauche face à l’islamisme», ou dans cette autre chronique dans laquelle il soulignait (en appui à Djemila Benhabib) «la naïveté d’une certaine gauche progressiste qui, sous prétexte de célébrer la « diversité culturelle » et le « respect des différences », soutient en fait l’intégrisme islamique». On passera rapidement sur ce texte dans lequel il s’élevait contre «l’hypocrisie d’une certaine gauche, qui dénonce toute critique des religions… sauf celles qui visent l’Église catholique», ou cette dernière où il affirmait qu’une position de la Fédération des Femmes du Québec (FFQ) était un exemple d’une «rectitude politique poussée à son degré le plus absurde et une preuve supplémentaire de la dérive d’une certaine gauche…».

J’ai aussi trouvé de nombreux textes (859) signés par Mathieu Bock-Côté. Il y parlait notamment du «coming out fédéraliste d’une certaine gauche» (à la suite de l’élection de PKP à la tête du PQ, en donnant beaucoup d’exemples, mais en ne les attribuant à personne), de «la psychologie d’une certaine gauche progressiste» (se considérant moralement supérieure), d’une «certaine gauche radicale» (qui l’accuserait «automatiquement de sympathie avec les agresseurs» parce qu’il «s’est inquiété des excès» qui ont eu lieu à la suite des dénonciations du mouvement #MoiAussi) et de la «confiscation idéologique par une certaine gauche» du «discours sur les valeurs québécoises qui se réclame d’une vision «inclusive» de l’identité québécoise», rien de moins.

J’ai aussi trouvé 322 résultats avec Éric Duhaime, mais seulement 139 avec Sophie Durocher et 113 avec Joseph Facal. De toute façon, comme les mêmes thèmes reviennent chez ces auteur.es et les précédents, la présentation de leurs citations serait répétitive.

Et alors…

Soyons clairs, je n’ai rien contre le fait qu’on reproche certains abus de langages à certains gauchistes (bon, j’espère que je n’ai pas pris le tic qui me tape sur les nerfs!). J’en ai plus contre la rhétorique qui est utilisée, les généralisations qui l’accompagne et l’exagération des accusations qui sont portées. Il n’y a pas, selon moi, de gauche organisée qui «soutient en fait l’intégrisme islamique» ou qui charrie sur les accusations de racisme. Dans ce dernier cas, quelques (j’ai failli écrire «certains»…) gauchistes le font, notamment lors de manifestations, mais aucun mouvement organisé n’appuie à ma connaissance ces accusations. Et, n’oublions pas qu’il arrive que ce type d’accusation soit justifié. Par contre, M. Bock-Côté, entre autres, n’hésite pas à associer la demande d’une consultation sur la discrimination systémique au Québec à une accusation de racisme contre les Québécois.es pour les diaboliser, alors que la discrimination systémique ou même le racisme systémique n’ont pourtant rien à voir avec une accusation du genre, l’aspect systémique étant involontaire, nous ne le répéterons jamais assez.

C’est dans le fond ce type de rhétorique qui me tape sur les nerfs, bien plus que l’expression «une certaine gauche», quoiqu’elle en représente une manifestation patente, rhétorique trop souvent accentuée par des sophismes de l’épouvantail. C’est donc avec un certain soulagement que je vais passer à autre chose!

Publicités

La monarchie de la peur

24 décembre 2018

Avec The monarchy of fear : a philosopher looks at our political crisis (La monarchie de la peur: un regard philosophique sur notre crise politique), Martha Nussbaum «voit une simple vérité au cœur du problème [entourant la crise actuelle] : la politique est toujours émotive».

Préface : Lors de l’élection aux États-Unis en 2016, l’auteure était au Japon pour recevoir un prix. Elle avait confiance que ses concitoyen.nes rejetteraient la peur et la colère. En prenant connaissance des résultats, c’est elle qui a ressenti la peur pour son pays, sa population et ses institutions. Elle a alors conclu que ses précédents écrits sur les émotions en politique n’allaient pas assez loin. Elle raconte ensuite comment, issue d’une famille républicaine, raciste et traditionnelle, elle est devenue progressiste et aussi comment elle a commencé à s’intéresser aux émotions en politique.

1. Introduction : «La peur règne actuellement aux États-Unis et cette peur se mêle souvent à la colère, au blâme et à l’envie. Trop souvent, la peur bloque la délibération rationnelle, empoisonne l’espoir et entrave la coopération constructive en vue d’un avenir meilleur». Et, pire, quand on a des problèmes, on cherche des coupables, qui n’ont trop souvent rien à voir avec eux, comme les immigrant.es, les minorités raciales et les femmes, qu’on accuse notamment d’avoir volé «nos» emplois. Ou, pour d’autres, ce sont «les élites riches qui ont volé notre pays». Puis, elle montre (de façon convaincante) que les plus grands dangers pour la démocratie sont la peur et ses conséquences.

2. La peur, précoce et puissante : La grande vulnérabilité et la dépendance complète de nos bébés par rapport à ceux des autres animaux seraient parmi les plus importants facteurs qui expliquent nos peurs. Cette peur porte les bébés à régner sur leur famille qui doit répondre immédiatement à leurs besoins (d’où la «monarchie» du titre, j’imagine). L’auteure tente ensuite de définir la peur, soulignant qu’elle est la première émotion que nous ressentons (elle est d’ailleurs partagée par beaucoup d’autres animaux). Il s’agit d’une émotion ressentie individuellement et même de façon narcissique. Elle s’atténue en vieillissant pour faire place à la générosité et à l’altruisme, ce passage étant aidé par les soins des proches, la lecture d’histoires et la présence de toutous, mais possiblement exacerbée par la naissance d’un frère ou d’une sœur, car l’enfant peut avoir peur que ses parents cessent de l’aimer (je simplifie beaucoup). Ces nouvelles peurs sont souvent caractérisées par les cauchemars des jeunes enfants. Elle aborde ensuite la peur de la mort (inévitable, mais apprivoisable), l’utilisation de la peur en politique, les biais cognitifs causés par la peur, la peur des musulmans et l’importance de l’environnement politique, social et économique pour maîtriser la peur.

3. La colère, enfant de la peur : «Les États-Unis sont un pays en colère» et sa population est prompte à identifier des boucs émissaires pour ses problèmes. L’auteure montre que la colère est un poison pour la démocratie et pour la justice, approfondissant l’analyse contenue dans son livre Anger and Forgiveness (que j’ai présenté dans ce billet). Par la suite, elle définit la colère, en présente différents types et aborde les conséquences du désir de vengeance ou de remboursement («pay-back»), les principales erreurs qu’on fait quand on se met en colère, notre tendance à chercher des coupables à nos malheurs, le rôle de notre vulnérabilité et du désir de protéger notre statut social dans nos colères, et la transition de la colère vers l’espoir et la justice.

4. Le dégoût provoqué par la peur – La politique de l’exclusion : «Toutes les sociétés marginalisent ou subordonnent certains groupes de personnes». Ce fut bien sûr le cas au Moyen-Âge et au cours des années d’esclavage aux États-Unis, mais cela s’observe aussi de nos jours, même dans les pays qui garantissent l’égalité de leurs citoyen.nes. La société des États-Unis (comme la plupart des autres) «a une histoire peu enviable d’exclusion basée sur le sexe, l’orientation sexuelle, le handicap, l’âge et la religion». L’auteure se désole de la fréquence et de l’augmentation des crimes haineux dans son pays (dont une hausse de 20 % entre 2015 et 2016), surtout raciaux, mais aussi basés sur la religion et l’orientation sexuelle. L’émotion derrière ces crimes est le dégoût de l’autre. «Les irrationalités de cette émotion sont à la base de nombreux maux sociaux». Elle précise ensuite que le dégoût est souvent associé au danger pour notre santé, par exemple sur les excréments, mais qu’il est aussi fortement axé sur tout ce qui rappelle notre animalité et notre statut de mortel. L’auteure parle ensuite du «dégoût projectif» qui associe les minorités à des animaux (voir cet article récent où on parle des «insultes animalisantes envers les musulmans» au Québec) – c’est aussi le cas envers les Dalits, ou Intouchables, en Inde – le comportement des minorités sexuelles à celui des animaux et l’allure des personnes handicapées et des personnes âgées à la déchéance qui nous rappelle notre mortalité (ce résumé ne rend pas justice à la démonstration bien plus nuancée de l’auteure).

5. L’empire de l’envie : «L’envie a menacé les démocraties depuis qu’elles existent». À droite, elle mène à reprocher aux membres des minorités qui s’en sortent de le faire au détriment des membres de la majorité. À gauche, elle remplace la critique légitime face aux inégalités par des vœux de malheurs contre les personnes qui sont riches (je simplifie encore…). L’auteure définit ensuite l’envie et la distingue de trois émotions différentes, mais apparentées, soit l’émulation, la jalousie et l’atteinte au statut. Et elle insiste, la critique est toujours légitime, mais l’envie est une hostilité destructive. Puis, elle fait le lien entre l’envie et la peur, et analyse quelques contextes d’envie dans les écoles secondaires, dans la Rome antique et en politique aux États-Unis. Elle conclut ce chapitre en proposant des moyens d’éviter l’envie en politique, notamment grâce à la présence d’un filet social étendu et une protection sans faille des droits et libertés.

6. Un breuvage toxique – Sexisme et misogynie : «Toutes les nations ont subordonné les femmes depuis des siècles et il est probable qu’aucune d’entre elles ne soit exempte aujourd’hui de tout préjugé contre les femmes en politique». L’auteure donne de nombreux exemples de déclarations sexistes par Donald Trump, puis montre que le sexisme et la misogynie reposent sur trois émotions, l’hostilité, le dégoût et l’envie. Elle analyse ensuite à fond les concepts de sexisme et surtout de misogynie (les femmes doivent rester à leur place), et donne de nombreux exemples notamment dans le milieu universitaire, sur le marché du travail et sur Internet.

7. L’espoir, l’amour, la vision : Malgré ses constats et analyses pas très réjouissantes, l’auteure garde espoir. Elle définit ensuite ce qu’elle entend par «espoir» à l’aide de trois caractéristiques : l’espoir n’est pas associé à une bonne probabilité de réussite, il est différent du désir, car est lié à un résultat important, et est accompagné d’un sentiment d’impuissance. Cela dit, l’espoir porte à accomplir des actions concrètes (quoiqu’il soit parfois inerte). On peut aussi considérer l’espoir comme le pendant opposé de la peur, deux émotions reposant sur l’incertitude. Puis, elle explore les liens entre l’espoir et deux autres sentiments, la confiance (ou la foi, «faith» dans le texte) et l’amour, et propose cinq institutions qui favorisent la pratique de l’espoir : les arts, la pensée critique, la religion, les organismes sociaux et les recherches sur les théories de la justice, comme les siennes dans le domaine des capabilités. Elle présente d’ailleurs la liste des 10 capabilités qu’elle juge essentielles pour qu’une personne puisse se réaliser (voir ce billet pour consulter cette liste et en savoir plus sur ce concept).

Elle poursuit en abordant deux gros problèmes aux États-Unis dont elle n’a pas encore parlé : «Nous vivons séparés les uns des autres» et «les citoyen.nes des États-Unis n’ont pas le sens du bien commun». Pour solutionner ces deux problèmes, elle propose la mise sur pied d’un service national qui enverrait tous les jeunes pendant idéalement trois ans travailler dans des domaines où les besoins sont urgents (soins aux aîné.es, soins à la petite enfance, travail d’infrastructure, et toujours dans des milieux géographiquement et socialement différents des leurs). Elle sait bien que ce programme risque d’être impopulaire, mais prétend que si on n’en parle pas, c’est certain qu’il ne verra jamais le jour. Je ne peux que lui souhaiter bonne chance, tout en demeurant pour le moins étonné d’une proposition si irréaliste de sa part. Puis, elle conclut avec des observations tirées des philosophes antiques.

Et alors…

Lire ou ne pas lire? Lire, mais… C’est au moins le troisième livre de Martha Nussbaum portant sur les émotions que je lis. Inévitablement, il comporte un bon nombre d’analyses semblables à celles que j’ai lues dans ses livres précédents, surtout dans Anger and Forgiveness (La colère et le pardon) dont j’ai parlé dans ce billet. Cela dit, elle approfondit ici ces analyses dans un contexte différent, ce qui est loin d’être sans intérêt. Par exemple, la partie sur le dégoût est nettement plus poussée que ce qu’elle en disait avant. Elle semble à première vue exagérée, mais ses exemples ainsi que ceux que j’ai trouvés par hasard ailleurs montrent qu’elle est au contraire tout à fait pertinente. Sa façon d’aborder ce sujet, comme bien d’autres, suscite toujours la réflexion, confronte nos apriori. Comme je l’ai écrit dans un précédent billet sur un autre de ses livres, je ne peux que répéter que j’ai préféré son livre Capabilités (dont j’ai parlé dans ce billet), plus proche de mes intérêts. Mais, celui-ci demeure de bonne tenue et peut très bien correspondre davantage aux intérêts d’autres personnes. En plus, les notes sont en bas de page!

La péréquation et ses pièges

21 décembre 2018

À ma grande surprise, j’ai constaté que le dernier billet que j’ai consacré à la péréquation date de plus de quatre ans. Pourtant, on entend chaque année les mêmes inexactitudes à propos de ce programme. Par contre, de plus en plus de journalistes prennent la peine de les corriger. Même si on doit les féliciter pour leur travail de vulgarisation, il leur arrive de confondre certains éléments complexes de ce programme. Je compte ici revoir certains des articles publiés la semaine dernière et souligner les bouts moins bien expliqués ou erronés. Puis, j’aborderai un aspect de la péréquation rarement considéré (l’évolution de la capacité fiscale des provinces) et ferai finalement le point sur son évolution au cours des 10 dernières années.

Quelques chroniques

– Encore la péréquation! : Ce billet en 10 points de Gérald Fillion est de très bonne tenue. Il explique bien les objectifs et le fonctionnement de la péréquation, mais, peut-être par souci de simplification, il a écrit que «Le montant de péréquation représente l’écart de revenus fiscaux par habitant d’une province avec la moyenne canadienne». En fait, ce ne sont pas les écarts de revenus fiscaux qui sont utilisés pour répartir la péréquation, mais ceux de la capacité fiscaleLes revenus qu’une province obtiendrait [par habitant] si elle appliquait à ses assiettes fiscales un taux de taxation moyen préétabli»), comme l’auteur le dit ailleurs dans son billet. En plus, le montant de la péréquation ne représente plus entièrement l’écart de capacité fiscale depuis des années, car le montant total consacré à la péréquation n’est pas établi en fonction des besoins précis des provinces qui ont une capacité fiscale inférieure à la moyenne, mais selon un montant préétabli qui augmente en fonction de la croissance économique. Il semble toutefois que cette somme s’approchera l’an prochain de ces besoins, compte tenu du fait que l’Ontario n’en touchera plus et d’autres facteurs que je présenterai plus loin.

– Péréquation: à chacun son profiteur : Dans cet éditorial, Paul Journet nuance bien la question et répond adéquatement aux critiques des provinces qui ne reçoivent pas de péréquation. Mais, peut-être par excès d’enthousiasme, il a écrit que «la péréquation ne représente que le quart des transferts fédéraux. La majorité vient des versements pour la santé et les programmes sociaux. Le meilleur portrait des programmes fédéraux, c’est donc le total des versements par habitant. À nouveau, le même constat se dégage : le Québec se situe dans la moyenne. Il est plus avantagé que les autres grosses provinces, mais moins que ses voisins de l’Est». Ce texte est dans l’ensemble exact, mais j’ai tiqué face à son affirmation que le Québec se situe dans la moyenne.

Le tableau ci-contre, qui vient d’une vidéo d’une émission de RDI économie, montre dans sa colonne de gauche que, de fait, le Québec se situe au cinquième rang des 10 provinces pour le montant par habitant qu’il reçoit des transferts fédéraux totaux, donc près de la moyenne. Sauf que les sommes que reçoivent les cinq provinces du haut du tableau sont plus de deux fois plus élevées que celles encaissées par les cinq provinces du bas, et les trois provinces les plus populeuses à part le Québec sont aussi dans le bas du tableau. J’ai donc calculé la moyenne canadienne des transferts fédéraux par habitant et suis arrivé à 1998 $. Les 3013 $ par habitant reçus par le Québec ne se situent donc pas dans la moyenne, mais y sont supérieures de 51 % (ou 77 % plus élevés que les 1696 $ reçus en moyenne par les neuf autres provinces). C’est bien de relativiser l’importance de la péréquation par rapport à l’ensemble des transferts fédéraux, mais il faut reconnaître que le Québec en reçoit plus  que la moyenne, ce qui est normal compte tenu de sa capacité fiscale.

– François Legault, la péréquation et « l’énergie sale » : Ce billet de Michel C. Auger complète bien les deux précédents. Il est par exemple le seul des trois à mentionner de façon explicite que le Québec ne fait pas que recevoir de la péréquation, mais qu’il contribue à son financement (cela n’était que sous-entendu dans les deux articles précédents). Mais, peut-être lui aussi par souci de simplification, il ajoute que «Les provinces qui ont un revenu moyen plus faible reçoivent de la péréquation, les autres n’en recevront pas». Bizarre, car il venait justement d’expliquer que la péréquation est calculée en fonction de la capacité fiscale, et là, il parle du revenu moyen plus faible. Mais, bon, ce n’est pas si grave, car les provinces qui ont un revenu par habitant plus faible ont en général une capacité fiscale plus faible. Mais ça demeure confondant quand on change de critère au milieu d’un texte, surtout quand ce critère est inexact.

Plus loin, on lit «Mais elle [la péréquation] n’existerait pas – ou, au moins, elle ne serait pas aussi généreuse – si les autres provinces choisissaient de taxer leurs citoyens à la même hauteur que le Québec». Là, je ne comprends carrément pas. Il dit plus haut que la capacité fiscale, «ce n’est pas ce que les provinces collectent en impôts et en taxes, mais ce qu’elles pourraient collecter» (ce qui est exact) et là, il dit que si les autres provinces taxaient davantage leurs citoyens, la péréquation n’existerait pas ou serait moins généreuse. Pourtant, cela ne changerait rien aux écarts de capacité fiscale entre les provinces, base de la répartition des sommes prévues à la péréquation! Il dit ensuite que «sans la péréquation, le Québec ne pourrait pas se payer ses généreux programmes sociaux sans surtaxer ses citoyens». Si ce n’est l’utilisation du verbe «surtaxer», qui est plus une opinion qu’un fait (il aurait pu écrire «sans taxer davantage ses citoyens»), cette phrase est exacte, et il n’y a aucune honte à le reconnaître. Enfin, elle est vraie dans le contexte canadien, mais un Québec indépendant pourrait peut-être s’offrir quand même ces services sans péréquation en raison de l’élimination des dédoublements et en réduisant ou en supprimant certaines dépenses du fédéral (comme les dépenses militaires et les subventions aux énergies fossiles), mais ça, c’est une autre question…

Évolution récente de la capacité fiscale

J’ai pris connaissance du graphique qui suit, tiré de ce texte, grâce à un statut de Pier-André Bouchard St-Amant. Je n’ai pas commenté ce statut (qui présente 10 faits sur la péréquation) dans la partie précédente de ce billet parce qu’il ne contient pas d’inexactitude! Je vous invite à le lire, y compris les commentaires.

Ce graphique présente la capacité fiscale de chaque province de 2014-2015 à 2016-2017, soit les capacités qui ont été utilisées pour répartir la péréquation en 2018-2019. Il est intéressant sur plus d’un point. Tout d’abord, on y voit clairement la répartition pour chaque province des variables utilisées pour calculer leur capacité fiscale :

  • la consommation qui permet de récolter des taxes à la consommation (partie rouge des barres);
  • le revenu personnel, base de l’impôt des particuliers (partie bleue);
  • la valeur des propriétés sur laquelle reposent les impôts fonciers (partie verte);
  • les profits des entreprises qui sont imposés (partie violette);
  • les revenus provenant des ressources naturelles (partie orangée); notons que la péréquation est calculée en retenant le montant qui est le plus avantageux pour chacune des provinces entre «le montant qu’elles recevraient en excluant la totalité des revenus des ressources naturelles ou le montant qu’elles recevraient en excluant 50 % des revenus des ressources naturelles».

Ensuite, même si la période est courte, on peut constater que la capacité fiscale de trois des quatre provinces qui n’ont pas touché de péréquation en 2018-2019 a diminué (surtout en Alberta et en Saskatchewan, mais aussi à Terre-Neuve), alors qu’elle a augmenté dans les six provinces qui en ont reçu. Cela fait en sorte que l’écart entre les capacités fiscales les plus basses et les plus hautes se réduit. La hausse de la capacité fiscale en Ontario explique que le montant de péréquation qu’elle a reçu en 2018-2019 ait été le plus faible depuis 2009-2010 et qu’elle n’en recevra pas en 2019-2020 (voir le tableau qui suit), d’autant plus que le calcul pour cette année s’est fait avec les capacités fiscales de 2015-2016 à 2017-2018, donc sans l’année la plus basse du graphique ci-haut et avec celle de 2017-2018. Cette capacité n’est pas précisée dans ce graphique, mais fut sûrement encore en hausse, car le PIB par habitant de l’Ontario a augmenté de 2,6 % en 2018, selon les tableaux 36-10-0222-01 (PIB) et 17-10-0005-01 (population) de Statistique Canada (le PIB par habitant est un concept différent de la capacité fiscale, mais évolue en général dans le même sens et avec la même ampleur). Notons que ces tableaux montrent aussi une hausse du PIB par habitant en Alberta (8,7 %), en Saskatchewan (3,5 %) et à Terre-Neuve (4,3 %), rompant avec la tendance illustrée dans le graphique, mais qu’il demeure dans les trois cas inférieur à son niveau de 2014, ce qui devrait entraîner une baisse de la moyenne de trois ans des capacités fiscales de ces provinces utilisée pour calculer la répartition de la péréquation pour 2019-2020.

Notons que le texte d’où vient ce graphique explique aussi très bien un autre aspect méconnu de la péréquation, soit les paiements d’ajustement qui sont versés quand le calcul initial de la péréquation ferait en sorte qu’une ou des provinces qui reçoivent de la péréquation se retrouveraient avec une capacité fiscale supérieure à celle d’une province qui n’en reçoit pas.

La péréquation de 2010-2011 à 2019-2020

La partie du bas du tableau ci-haut (tiré des données du ministère des Finances du Canada) montre que la part de la péréquation du Québec a grandement évolué depuis 2010-2011, passant de 59,5 % à 47,9 % en 2012-2013 avant de remonter graduellement pour atteindre son sommet historique de 66,2 % en 2019-2020 (l’an prochain). Il est certain que la conjoncture, soit les niveaux de croissance respectifs des provinces, joue un rôle important dans ces mouvements, quoique les parts des quatre autres provinces qui en recevront l’an prochain sont demeurés assez stables au cours des 10 années illustrées dans ce tableau.

En fait, les mouvements que j’ai décrits pour le Québec s’expliquent presque tous par l’évolution de la part reçue par l’Ontario, le total des parts reçues par ces deux provinces variant de seulement trois points de pourcentage au cours de ces 10 années, entre un minimum de 66,2 % en 2019-2020 et un maximum de 69,1 % en 2012-2013. D’ailleurs, la part minimale reçue par le Québec (47,9 % en 2012-2013) correspond à l’année de la part maximale reçue par l’Ontario (21,1 %), et la part maximale reçue par le Québec (66,2 % en 2019-2020) correspond à l’année de la part minimale reçue par l’Ontario (0 %). Il n’y a rien d’étonnant là. J’écrivais d’ailleurs en 2013 qu’on pouvait penser que, «advenant une baisse prolongée du prix du pétrole et de la valeur du dollar canadien, sa capacité fiscale [de l’Ontario] soit la plus susceptible de rejoindre celle de la moyenne canadienne» et que, si cela arrivait, «l’Ontario ne recevrait plus de péréquation (ou beaucoup moins) et les autres, dont le Québec… en recevraient plus». Cela montre qu’il arrive qu’un scénario élaboré par un économiste se concrétise!

Ce scénario montre aussi que la part de la péréquation reçue par le Québec a probablement atteint un sommet qui ne pourra guère augmenter à l’avenir et qui a même une forte probabilité de diminuer. En effet, comme on peut le voir sur le graphique qui accompagne cette image (ce graphique illustre le PIB par habitant de chaque province et sa position par rapport à la moyenne canadienne), le PIB par habitant d’aucune des cinq provinces qui recevront de la péréquation en 2019-2020 n’est près de dépasser la moyenne, mais celui de deux provinces, soient la plus populeuse du Canada (l’Ontario) et celle qui arrive au troisième rang derrière le Québec (la Colombie-Britannique), l’atteint à peine. Il suffirait que la capacité fiscale d’une de ces deux provinces passe en bas de la moyenne pour que la cagnotte de la péréquation doive être partagée avec une sixième province (et une relativement populeuse) et que la part du Québec diminue considérablement. Et cela pourrait survenir aussi bien à la suite d’une baisse de leur capacité fiscale (par exemple si le dollar canadien s’appréciait) qu’à la suite d’une hausse importante de celle des provinces qui en ont une au-dessus de la moyenne, faisant justement augmenter la moyenne et faisant passer la capacité fiscale de l’Ontario ou de la Colombie-Britannique sous cette moyenne.

Bref, le gouvernement du Québec doit être prudent et doit profiter des années où il reçoit beaucoup de péréquation pour engranger des surplus (disons de deux à trois milliards $, y compris le dépôt au Fonds des générations) au cas où cette possibilité se réalise. C’est rare que je recommande au gouvernement québécois de faire des surplus, mais il faut savoir adapter ses analyses à la situation! Le pire serait que ce gouvernement se vante de ces surplus conjoncturellement plus élevés et se mette à diminuer les taxes et impôts, ce qui, jumelé aux effets du vieillissement de la population, pourrait hypothéquer gravement la situation financière du Québec à moyen et long termes. Cela dit, ce genre d’analyse doit être réexaminé année après année et s’ajuster aux événements. Pour 2019-2020, il est certain qu’il faut être prudent.

Et alors…

La première partie de ce billet a permis de voir que des chroniqueurs, même parmi les plus chevronnés, peuvent confondre certains éléments complexes de la péréquation en tentant de simplifier leurs explications, pourtant pertinentes. La deuxième et la troisième visaient à expliquer des aspects de la péréquation rarement abordés et ont permis de développer des scénarios sur les paiements que le Québec recevra à l’avenir et de constater que le niveau actuel est un sommet qui ne pourra guère augmenter, mais qui pourrait bien diminuer de façon importante. Et ça, on n’en entend pas du tout parler!

Pourquoi la société ne se laisse pas mettre en équations

17 décembre 2018

Dans son livre Pourquoi la société ne se laisse pas mettre en équations, Pablo Jensen, directeur de recherche au Centre national de la recherche scientifique (CNRS), se demande si on peut «s’inspirer des techniques de modélisation mathématique et de simulation informatique élaborées dans les sciences naturelles pour comprendre enfin la société et l’améliorer». Disons que le titre ne laisse pas trop de doutes sur sa réponse…

Introduction – Construire un monde commun grâce aux sciences ? : «La grande majorité des comportements humains ne sont pas déductibles de notre biologie, mais sont déterminés par le milieu social». En conséquence, la nature humaine ne peut pas être considérée comme universelle et il devient difficile, voire impossible, de la réduire à des comportements prévisibles et mathématisables. Mais, les tentatives de le faire furent nombreuses dans l’histoire et se poursuivent avec des résultats variables. L’auteur explique ensuite sa démarche.

1. Comment les sciences naturelles construisent un savoir fiable : L’auteur présente :

  • les méthodes et les concepts sur lesquels repose la fiabilité des sciences naturelles;
  • les expériences de Galilée sur la chute des corps et ses implications scientifiques;
  • l’évolution du concept d’atome et les connaissances actuelles à son sujet;
  • les débuts et les améliorations des prévisions météorologiques et climatiques.

2. Simuler la société? : «Il est bien sûr tentant d’étendre cette approche [scientifique] aux systèmes sociaux». Mais, les résultats risquent d’être moins fiables. L’auteur présente dans cette partie des modèles mathématiques portant sur :

  • le lien possible entre les quartiers ségrégués et le racisme;
  • le fait (?) que les élections sont plus serrées qu’avant;
  • un principe de concurrence étonnant, où tous les producteurs auraient intérêt à offrir le même produit, alors qu’ils tentent en fait de se différencier (au moins artificiellement) sur la qualité ou sur le prix, et où tous les partis politiques auraient intérêt à être au centre;
  • certains comportements humains (comme des piétons) basés sur celui des termites et des fourmis;
  • la reproduction entre générations des inégalités scolaires;
  • l’imitation des comportements économiques (concept intéressant, mais qui n’est qu’un des facteurs qui influencent les comportements);
  • la vitesse de propagation d’une épidémie (avec des résultats souvent imprécis); je me demande toutefois quel est le rapport entre ce sujet et la simulation des systèmes sociaux, mais passons;
  • les prévisions de croissance économique, systématiquement trop optimistes, et du comportement du marché du travail, qui ne peuvent pas tenir compte de tous les facteurs qui les influencent;
  • l’utilisation de données massives (étant français, l’auteur parle de «big data») pour prévoir la popularité d’un tweet, pour inciter les internautes à cliquer sur une pub ou pour savoir si une personne est en chômage (les résultats sont décevants).

Dans le dernier chapitre de cette partie du livre, l’auteur propose quatre facteurs qui «rendent les simulations de la société qualitativement plus difficiles que celles de la matière :

  • l’hétérogénéité des humains;
  • le manque de stabilité de quoi que ce soit;
  • les nombreuses relations à prendre en compte;
  • la réflexibilité des humains, qui réagissent aux modèles qu’on fait de leur activité.

(…) Ces quatre facteurs font que les modèles sociaux ont du mal à être robustes. Il vaut mieux les envisager comme des éléments de décision parmi d’autres, des outils contribuant à la discussion collective».

Tout cela est intéressant et je suis d’accord avec l’auteur, mais sa démonstration aurait été plus convaincante s’il n’avait pas choisi autant d’exemples manifestement voués à l’échec.

3. Analyser la société : «Puisque les sociétés virtuelles ne sont pas fiables, tentons de construire un savoir commun en analysant la société réelle». Dans cette optique, l’auteur aborde :

  • l’amélioration de la qualité et de la variété des données, et des méthodes statistiques;
  • le défi et la pertinence d’isoler des facteurs explicatifs simples parmi tous les facteurs qui peuvent influencer un phénomène social à l’aide d’outils mathématiques;
  • les limites de l’utilisation de données massives.

4. Quantifier la société : Malgré les embûches décrites dans les chapitres précédents, peut-on au moins s’entendre sur la présence de certains phénomènes sociaux? Cette fois, l’auteur nous parle :

  • des facteurs qui influencent la localisation d’un commerce (facteurs qui varient en fonction du type de commerce);
  • du thermomètre (pour illustrer la complexité d’établir une échelle stable et significative) qui, malgré certains problèmes de mesure, indique bien la température, et du PIB, qui mesure bien mal le bien-être, car, sans «ancrage empirique solide, une mesure objective de bien-être semble un leurre»;
  • des limites de l’utilité des indicateurs;
  • d’exemples d’indicateurs imparfaits, comme les retombées économiques, le classement des universités, l’évaluation des chercheur.es et la mesure de la pauvreté;
  • de l’utilité des indicateurs, surtout quand on en analyse plusieurs qui sont complémentaires, comme ceux sur les inégalités pour compléter les signaux du PIB;
  • du danger d’utiliser des indicateurs comme objectifs : «C’est une règle bien connue : quand une mesure devient un objectif, elle cesse d’être une bonne mesure» (cette citation va dans le même sens de ce que j’écrivais il y a plus de huit ans dans ce billet : «En général, un indicateur fait bien son travail lorsqu’il est utilisé a posteriori. Par contre, lorsqu’on l’utilise comme cible, bien des gestionnaires viseront l’amélioration de l’indicateur plutôt que celle de la situation qu’il est supposé décrire»).

5. Quelle vision du social? : «Dans cette dernière partie, nous tirons les leçons des difficultés de la modélisation et proposons une vision du social qui permet de mieux comprendre cette résistance». Pour ce, l’auteur se penche sur :

  • l’instabilité (dans l’espace et dans le temps) des comportements et des caractéristiques internes des êtres humains;
  • l’importance du contexte dans les comportements humains (et autres);
  • les différences entre le tout et les parties, notamment entre la société et les individus.

Conclusion – Quel monde commun : L’auteur conclut que :

  • les mathématiques «jouent un rôle logistique», ne sont qu’un outil, important, certes, mais le point crucial, c’est «la fiabilité des hypothèses qui fondent le modèle»;
  • lorsque les hypothèses sont fiables, elles peuvent contribuer grandement à la prise de décision éclairée;
  • «Le monde commun n’est pas à découvrir, dans les laboratoires de sciences et d’économie, par une élite. Il doit être composé péniblement, par tous».

Et alors…

Lire ou ne pas lire? Je ne sais pas. Autant j’appuie la thèse de l’auteur et certaines de ses démonstrations, autant d’autres m’ont parues ardues et laborieuses. Il est étrange de lire un livre où certains chapitres sont bien écrits et suscitent l’adhésion de façon enthousiaste, tandis que d’autres exigent relecture après relecture. De même, certains exemples fournis par l’auteur sont pertinents et éclairants, tandis que d’autres font plus gratter la tête que la satisfaire. Au bout du compte, je suis content d’avoir lu ce livre, mais demeure sur ma faim. Finalement, ce livre n’a pas de notes, ni en bas de pages ni à la fin, mais des références, parfois commentées, à la fin de chaque chapitre. Je ne raffole pas de ce type de présentation, mais il ne m’a pas vraiment incommodé non plus.

Les cohortes malchanceuses

14 décembre 2018

Le rôle de la chance (et de son pendant, la malchance) dans la réussite économique m’a toujours intéressé, notamment parce que ce facteur est souvent ignoré dans la littérature économique, même s’il est important. J’en ai parlé à quelques reprises (par exemple ici, ici et ici). Sans surprise, j’ai été attiré par ce billet du blogue Stumbling and Mumbling de Chris Dillow, intitulé Blind to luck (Aveugles à la chance) dans lequel il présente brièvement quelques textes sur le rôle de la chance en économie. Un de ces textes porte sur une étude de Hannes Schwandt et Till von Wachter intitulée Unlucky Cohorts: Estimating the Long-term Effects of Entering the Labor Market in a Recession in Large Cross-sectional Data Sets (Cohortes malchanceuses: estimation des effets à long terme de l’entrée sur le marché du travail en période de récession dans de grands ensembles de données transversales). J’ai choisi de présenter celle-là parce qu’elle m’a fait penser à une partie de l’excellent La juste part de David Robichaud et Patrick Turmel (dont j’ai parlé dans ce billet), quoique ce livre aborde plus la chance liée à l’année de la naissance que la malchance qu’elle peut aussi entraîner (mais moi, j’en ai parlé un peu dans ce billet…).

Introduction

Les premières années sur le marché du travail sont particulièrement importantes pour les jeunes travailleur.euses. Elles sont souvent marquées par des hausses importantes de leur salaire, mais il demeure que la situation sur le marché du travail de ces jeunes est fortement dépendante des conditions économiques. Ce sont en effet toujours les jeunes qui subissent le plus fortement les récessions, notamment par un taux de chômage élevé qui risque de nuire pendant plusieurs années à leur situation sur le marché du travail, donc à leurs revenus, à leur couverture par une assurance maladie (on parle ici des États-Unis), à leur santé et même à leurs possibilités de former une famille. Justement, cette étude analyse «les effets persistants de l’entrée sur le marché du travail en période de récession sur un large éventail de résultats socio-économiques pour tous les jeunes travailleurs entrés sur le marché du travail aux États-Unis de 1976 à 2015».

Après avoir expliqué les caractéristiques des données utilisées (de trois sources différentes, ce qui permet des analyses fiables de sous-groupes, comme les femmes et les minorités ethniques, ainsi que selon la scolarité) et la méthodologie qu’ils ont jugée la plus pertinente (cette section est particulièrement complexe), les auteurs présentent leurs résultats.

Effets de l’entrée sur le marché du travail en période de récession sur les résultats socioéconomiques

A) Résultats pour l’ensemble des personnes qui entrent sur le marché du travail

– revenus de travail : En moyenne, une hausse de 3 % du taux de chômage au moment de l’entrée sur le marché du travail fait diminuer de 11 % le revenu de travail moyen des jeunes lors de leur première année en emploi (excluant les emplois pour étudiant.es). Comme on peut le voir en regardant la ligne rouge du graphique qui accompagne ce billet, l’ampleur de la baisse du revenu d’emploi diminue avec le temps, mais est encore de près de 3 % après 10 ans, alors qu’elle s’efface par la suite. Au total, cette baisse représente en moyenne l’équivalent de plus de sept mois de revenus d’emploi au cours des 10 premières années sur le marché du travail.

– salaires, et heures et semaines travaillées : En moyenne, environ les deux tiers de la baisse des revenus d’emploi des trois premières années proviennent de la diminution des heures travaillées par semaine (ligne bleue du graphique ci-contre) et du nombre de semaines travaillées par année (ligne verte), le reste étant dû à la baisse des salaires horaires (ligne rouge). Cette proportion passe à 50 % au cours des quatrième et cinquième années, au tiers de la sixième à la dixième année et est nulle par la suite. Cette modification des proportions est due au fait que la baisse des salaires perdure 15 ans après l’entrée sur le marché du travail, alors que les deux autres baisses ne sont plus que minimes après sept ans et s’effacent complètement après neuf ans pour les semaines travaillées et après 12 ans pour les heures hebdomadaires de travail.

– programmes sociaux et autres impacts : Même si les programmes sociaux sont moins développés aux États-Unis que dans les autres pays riches, ceux-ci permettent d’atténuer les effets de la baisse des revenus d’emploi mentionnée plus tôt. Le graphique ci-contre montre la variation du nombre de personnes recevant des sommes de Medicaid et du Supplemental Nutrition Assistance Program (SNAP, communément appelé «foodstamps» ou bons alimentaires) dans les années suivant une récession entraînant une hausse de 3 % du taux de chômage par rapport à des années sans récession. Par contre, les auteurs n’ont observé aucune croissance des prestations d’assurance-chômage ou des primes à l’emploi («Earned Income Tax Credits»), car il faut avoir travaillé pour bénéficier des prestations et crédits de ces programmes. Ils calculent que les prestations du SNAP augmentent en moyenne de 15 % l’année suivant une récession et qu’elles sont encore de 2 à 3 % plus élevées cinq ans plus tard. Le graphique montre aussi une hausse des sommes reçues par Medicaid (de 12 % la première année). En fait, cette hausse ne fait que compenser partiellement la baisse de la couverture des assurances maladie privées, fortement liée à l’emploi aux États-Unis.

Les auteurs n’ont toutefois trouvé aucune conséquence sur l’âge du mariage ou de l’arrivée d’un premier enfant, mais ils ont observé une hausse du taux de jeunes qui restent chez leur parent pendant les cinq premières années suivant la récession.

B) Résultats selon la scolarité, l’ethnie et le sexe

– selon le sexe :

  • l’effet négatif sur les revenus d’emploi est plus élevé chez les hommes que chez les femmes les cinq premières années, mais est semblable par la suite;
  • les femmes bénéficient un peu plus que les hommes de Medicaid et du SNAP;
  • la hausse de la pauvreté est semblable pour les hommes et les femmes (d’environ 10 %).

– selon l’ethnie :

  • l’effet négatif sur les revenus d’emploi est nettement plus élevé chez les non Blanc.hes que chez les Blanc.hes les cinq premières années (surtout en raison de la plus forte baisse du nombre de semaines travaillées), mais est semblable par la suite;
  • les non Blanc.hes bénéficient nettement plus que les Blanc.hes du SNAP et encore plus de Medicaid, surtout les cinq premières années après leur entrée sur le marché du travail, mais connaissent aussi une forte baisse de couverture des assurances maladie privées;
  • la hausse de la pauvreté est deux fois plus importante pour les non Blanc.hes que pour les Blanc.hes (d’environ 16 % par rapport à 8 %).

– selon la scolarité :

  • l’effet négatif sur les revenus d’emploi diminue considérablement en fonction du nombre d’années de scolarité;
  • il est non seulement plus de deux fois plus élevé chez les personnes ayant moins de 12 ans de scolarité que chez celles en ayant plus de 15 (essentiellement en raison de la plus forte baisse du nombre de semaines travaillées), mais il persiste plus longtemps (neuf ans plutôt que sept ans);
  • les personnes ayant plus de 12 ans de scolarité ne reçoivent pas plus de prestations du SNAP et de Medicaid après une récession, celles qui ont exactement 12 ans de scolarité en reçoivent un peu plus et celles en ayant moins de 12 ans en reçoivent beaucoup plus et pendant plus de 10 ans (et même 15 dans le cas de Medicaid);
  • la hausse de la pauvreté agit de la même façon, étant presque inexistante pour les personnes ayant plus de 12 ans de scolarité et étant importante (hausse d’environ 15 %) pour les personnes en ayant 12 ans et encore plus (et pendant plus longtemps) pour celles en ayant moins de 12 ans.

Conclusion des auteurs

«Cette étude confirme que les nouveaux arrivants sur le marché du travail après une période de récession subissent une réduction persistante de leurs revenus, de leur emploi et de leurs salaires pendant au moins 10 ans. Elle montre aussi que ces effets sont substantiellement plus élevés pour les personnes les moins scolarisées et pour les non-Blanc.hes». Si les programmes sociaux atténuent ces effets, ils n’empêchent pas la pauvreté de croître de façon marquée, surtout, encore une fois, chez les personnes les moins scolarisées et chez les non-Blanc.hes.

Et alors…

Dans la plupart des billets que j’ai écrits sur le rôle de la chance dans la réussite économique, j’ai surtout analysé des études portant sur les personnes les plus riches, montrant que le mérite est loin d’être le seul facteur expliquant leurs succès, et même qu’il est loin d’être le plus important (voir notamment ce billet). Je n’ai abordé qu’une fois le rôle de la malchance dans les insuccès économiques, et encore, sans données montrant la persistance de cette malchance. Cette étude vient donc pallier en partie cette lacune.

Elle montre en effet que la malchance peut jouer sous bien des aspects. Non seulement des jeunes peuvent être désavantagées longuement uniquement en raison de l’année où ils et elles arrivent sur le marché du travail, mais cette malchance touche davantage (parfois seulement) ceux et celles qui ont déjà vécu d’autres «malchances», comme de naître dans un ménage pauvre, de faire partie d’une minorité victime de discrimination ou de ne pas pouvoir se scolariser longuement.

Cette étude ne répond toutefois pas à toutes les questions sur ce sujet. Comme elle ne porte que sur les États-Unis, on ne peut pas savoir par exemple si l’impact d’arriver sur le marché du travail en période de récession (ou pire, en période de quasi-dépression comme dans certains pays d’Europe entre 2009 et une année pas encore survenue) a la même ampleur et si elle perdure autant dans des pays qui ont des programmes sociaux moins chiches. Cette lacune fait en sorte que les auteurs ne peuvent pas vraiment conclure leur étude avec des recommandations de nature politique. J’espère seulement que cette étude donnera le goût à d’autres chercheur.es d’aller plus loin dans ce champ pour l’instant peu exploré à ma connaissance (et à celle des auteurs de cette étude). À suivre!

La stratégie de l’émotion

10 décembre 2018

Avec son livre La stratégie de l’émotion, Anne-Cécile Robert, journaliste au Monde diplomatique et professeure associée à l’Institut d’études européennes de l’Université Paris 8, dénonce «le contrôle social par l’émotion» et offre ainsi une «réflexion salutaire sur l’abrutissante extension du domaine de la larme et un plaidoyer civique pour un retour à la raison».

Avant-propos : Éric Dupond-Moretti vante ce livre tant en raison de la pertinence du sujet qu’il aborde qu’en raison de la qualité des démonstrations de l’auteure.

Introduction : «Les sentiments, sollicités ou encouragés, s’installent au cœur des relations sociales au détriment des autres modes de relations sociales, comme la réflexion ou la raison». Ce phénomène «ne conduit pas à l’action, mais à la passivité». L’auteure n’a surtout pas comme objectif de condamner l’émotion, mais «plutôt d’étudier le rôle qu’elle joue dans nos sociétés ou plutôt le rôle qu’on lui fait jouer et, ce faisant, d’exposer l’invasion de l’espace social par l’émotion dans ses diverses manifestations». Il est souvent préférable de joindre les émotions à la raison (par exemple, pour mieux s’indigner des conséquences de la pauvreté), mais trop souvent l’émotion sert d’écran à la raison.

1. Extension du domaine de la larme : L’auteure donne des exemples de manifestations organisées pour montrer de l’empathie et de la compassion lors d’événements malheureux (parlant notamment de marches blanches lors de meurtres sordides) sans pourtant y joindre la moindre revendication. L’auteure aborde bien d’autres domaines où l’importance démesurée accordée à la sensibilité en vient à mettre fin à des débats de société quand elle ne débouche pas carrément sur de la censure.

Elle critique aussi les «devoirs de mémoire» qui n’ont jamais empêché les guerres et les exterminations de se reproduire, masquant même leurs causes profondes et les complicités du complexe militaro-industriel. Dans cette optique, elle souligne les larmes de Justin Trudeau face aux injustices subies par les Autochtones, alors que ces peuples vivent encore et toujours une forme d’apartheid au Canada (voir ce billet).

2. Des médias ultra-sensibles : L’émotion prend de plus en plus de place dans les médias, qui préfèrent souvent un gros plan sur les larmes d’une personne proche d’une victime que de couvrir des événements ayant une incidence sur des millions de personnes. L’auteure fait remarquer que les faits divers prennent de plus en plus de place dans les médias. Elle mentionne entre autres les reportages interminables sur les manifestations de peine lors de la mort de Johnny Halliday en France et on pourrait ici les remplacer par ceux sur les réactions de proches lors de la mort de Bernard Landry ou même lors de la disparition d’un enfant. Or, le temps accordé aux faits divers se fait au détriment des autres événements et son mode de traitement axé sur les émotions sert d’écran à l’analyse plus approfondie de la nouvelle.

L’auteure donne comme exemple la couverture des meurtres et disparitions de femmes autochtones au Canada qui insistait sur le mode de vie des victimes (certaines prostituées, d’autres faisant de l’auto-stop) sans expliquer ce qui avait amené ces femmes à se prostituer (la misère) ou à voyager ainsi (l’abandon du transport en commun vers les réserves indiennes, pas assez rentable). Elle aurait pu ajouter que cette couverture reproduit l’habitude de blâmer les victimes, surtout quand il s’agit de femmes, mais elle ne l’a pas fait. D’autres reportages insistent par exemple sur la colère des usager.ères lors de grèves, alors qu’une journaliste s’est vue refuser les extraits de solidarité des personnes interrogées, ce comportement ne correspondant pas à l’idéologie du média en question. Et, les exemples allant dans ce sens se multiplient, montrant qu’il ne s’agit pas d’anecdotes isolées, mais d’un comportement systémique.

3. Quand la victime supplante le héros : De nombreux exemples présentés dans ce chapitre sont propres à la France, mais l’auteure mentionne entre autres Pierre-Hughes Boisvenu qui est devenu sénateur canadien principalement parce que sa fille a été victime d’un meurtre. Elle se questionne sur la commotion causée par la photo du jeune Aylan, alors que des milliers de personnes sont mortes en tentant de quitter les zones de combat de la Syrie (et d’ailleurs) sans créer autant de réactions. On pourrait aussi parler de la place démesurée occupée par le meurtre du journaliste Jamal Khashoggi par rapport aux dizaines de milliers de morts au Yémen.

4. Les responsables politiques et la mise en scène de l’impuissance : Les politicien.nes montrent de plus en plus leurs émotions publiquement, allant parfois jusqu’à pleurer en public. Ces politicien.nes disent par exemple déplorer le sort des personnes âgées dans les résidences ainsi que celui du personnel qui ne parvient pas à accomplir toutes ses tâches, alors que cette compassion n’est accompagnée d’aucune mesure pour corriger cette situation (on croirait qu’elle parle du débat sur les patates en poudre ou sur le bain par semaine au Québec, mais cet exemple est tiré d’événements vécus en France!). À gauche, on insiste maintenant davantage sur le sentiment d’exclusion que sur les injustices et sur la lutte des classes. À droite, on peut penser à Donald Trump qui mise sur la crainte de l’invasion de migrant.es pour camoufler ses baisses d’impôts pour les riches et ses intentions de couper l’Obamacare ainsi que d’autres programmes sociaux (Medicare, Medicaid, Social Security, etc.). Finalement, elle souligne la tendance d’utiliser la communication narrative («storytelling») en politique, alors qu’il s’agissait au départ d’une technique de vente en publicité (voir ce billet pour son application en économie).

5. Chimère de l’authenticité : Non, les émotions ne sont pas toujours authentiques. Elles nous font faire bien des choses que nous regretterons par la suite. En outre, elles servent souvent à manipuler, comme en publicité, et même en politique. Pire, être authentique n’est pas nécessairement positif (Hitler l’était fort probablement…). Un des secteurs qui utilise le plus les émotions est celui de l’action humanitaire. «Certaines ONG [organisations non gouvernementales] n’hésitent pas à recourir aux méthodes du marketing, storytelling et tout le reste, pour dépeindre de façon souvent misérabiliste, larmoyante et simplificatrice, leurs objectifs et leurs activités. De ce fait, le succès de certaines d’entre elles a peut-être plus à voir avec leur talent de communication qu’avec la pertinence de leur action». Et cette utilisation de l’émotion est encore plus insidieuse chez les organisations philanthrocapitalistes.

6. Émotion contre raison : L’auteure dénonce le «déclassement de la raison dans les sociétés modernes». Selon elle, «l’émotion abolit la distance entre le sujet et l’objet; elle écrase les échelles temporelles; elle empêche le recul nécessaire à la pensée; elle prive le citoyen du temps de la réflexion et du débat». Elle précise toutefois qu’il «ne s’agit pas d’éliminer les affects, mais de les mettre au service d’une intelligence du monde, d’en faire des leviers qui nourrissent la raison sans la remplacer». Elle donne d’autres exemples de ce déclassement, notamment sur les réseaux sociaux.

Conclusion : L’auteure donne quelques exemples où la raison l’a emporté sur l’émotion, dans certains cas en la rejetant carrément. Elle poursuit avec quelques recommandations visant à redonner leur place légitime à l’émotion et à la raison, puis conclut avec une réflexion sur le concept de liberté.

Et alors…

Lire ou ne pas lire? Lire! Même si ce livre repose beaucoup sur des anecdotes, il permet de réaliser l’ampleur de la place prise par l’émotion dans nos sociétés. L’auteure aborde cette question sous différents angles et analyse ses manifestations dans de nombreux domaines, citant en plus des sources intéressantes et pertinentes. Le livre se lit bien, même lorsque nous avons des réserves avec certaines de ses parties. Par contre, l’auteure a tendance, comme dans la plupart des livres qui défendent une thèse, à se concentrer sur les anecdotes qui appuient sa thèse, laissant de côté celles qui la contredisent, sauf brièvement dans la conclusion. Cela dit, ce livre nous ouvre les yeux et suscite la réflexion, voire la remise en question de certaines de nos réactions. C’est beaucoup! Et, autre qualité, les notes sont en bas de page.

Le transport de pétrole en train en 2018

8 décembre 2018

Je ne comptais pas mettre à jour mes billets sur le transport de pétrole en train avant quelque temps (voir le dernier, qui date quand même de plus d’un an). Mais, les nouvelles se sont mises à se succéder sur le sujet.

La première que j’ai notée date du 28 novembre alors qu‘un article de Radio-Canada nous apprenait que «L’Alberta fera l’acquisition de deux trains pour permettre d’exporter plus facilement son pétrole vers de nouveaux marchés en raison de la saturation du réseau d’oléoducs dans la province». Cette décision semblait dans un premier temps étonnante, surtout en tenant compte du prix du pétrole canadien qui se retrouvait à son niveau plancher depuis un bon bout de temps. La première ministre de l’Alberta, Rachel Notley, précisait que «Ces trains devraient entrer en service à l’automne 2019 et pourront transporter 120 000 barils par jour, soit le tiers de ce qui est déjà transporté sur les rails. Une solution toutefois qui n’ouvre pas l’accès à de nouveaux marchés, mais qui permet d’alimenter la demande américaine». On pourrait se réjouir du fait que ces trains ne viendront pas chez nous, mais on doit surtout se désoler que cela se fera «au prix de l’environnement» tant en raison de ce mode de transport (ce que dit Mme Notley) que de la hausse de l’exploitation du pétrole sale de l’Alberta que l’ajout de ces trains entraînera (ce qu’elle ne dit pas). Et Ottawa se dit prêt à examiner sa participation au financement de cet achat qui pourrait atteindre 3 milliards $… Après le financement d’un pipeline par le gouvernement fédéral, on aura peut-être droit au financement de trains pour transporter le pétrole albertain.

Deux jours plus tard, Phillippe Gauthier précisait sur son blogue que, en raison de la hausse de production de pétrole en Alberta avec des possibilités de transport par pipeline plafonnées, «les quantités transportées par rail ont bondi de 144 000 barils par jour en janvier à 270 000 en septembre». Bon, les 120 000 barils de Mme Norley représentent plus du tiers des 270 000 barils de M. Gauthier, mais l’ordre de grandeur n’est pas si mal et Mme Notley dispose peut-être de données plus récentes.

Le lendemain (le premier décembre), Mme Notley a remis ça en annonçant que l’Alberta «pourrait forcer les pétrolières à réduire temporairement leur production afin de faire remonter les prix du baril» et permettre ainsi la réduction des réserves de pétrole albertaines actuellement estimées à 35 millions de barils. Cette intention a été confirmée le lendemain, alors qu’elle a précisé que «la production pétrolière sera réduite de 8,7 %», soit «de 325 000 barils par jour» de janvier à décembre 2019. Les réactions n’ont pas tardé :

  • une banque a réduit ses prévisions de croissance pour le Canada (de 0,2 point de pourcentage) et l’Alberta (de 1,2 point) dès le lendemain (3 décembre);
  • l’écart entre le prix du pétrole albertain et celui des autres sources de pétrole s’est réduit grandement;
  • certains producteurs ont manifesté leur approbation, alors que d’autres ont fait part de leur déception.

Je laisse à d’autres le plaisir de décortiquer tout ça (et les volontaires ne manquent pas). Il semble toutefois que les livraisons devraient se maintenir pendant la période de réduction de la production (de janvier à décembre 2019), puisqu’on compte faire réduire les réserves. L’achat des deux trains, prévu pour l’automne 2019, pourrait alors permettre des livraisons plus élevées lors de la fin du moratoire, mais cela n’est pas encore clair.

Tout ce que je peux (et veux) faire à ce sujet est de présenter les données les plus récentes sur le transport de pétrole en train et voir si les données correspondent aux nombreuses affirmations récentes, d’autant plus que je mentionnais l’an dernier un article paru en octobre 2017 nous annonçant une augmentation prévue du transport de pétrole «par train au cours des prochains mois [et aussi dans les années à venir] en raison d’une hausse de la production dans les sables bitumineux de l’Alberta». Comme je n’avais bien sûr pas pu voir cette augmentation dans les données de l’an dernier, ce sera l’occasion de voir si elle s’est manifestée en 2018.

Transport de pétrole en train depuis 2008

Le graphique qui suit montre justement l’évolution du nombre de wagons transportant du pétrole et du mazout au Canada. Pour mieux apprécier les mouvements récents, j’ai fait partir ce graphique en janvier 2008 plutôt qu’au début de la série du tableau que j’ai utilisé (le 23-10-0216-01), en janvier 1999. Cela nous permet de constater qu’il y a eu peu de changement de 2008 à 2011 (et il n’y en avait eu guère plus entre 1999 et 2008).

Tout cela a commencé à changer vers la fin de 2011. Si on évite de tenir compte des variations saisonnières (sans surprise, les chargements diminuent le printemps et l’été, et augmentent l’hiver, ceux de janvier ayant été en moyenne 19 % plus élevés que celles de mai entre 1999 et 2018), le nombre de wagons transportant du pétrole et du mazout a augmenté de près de 250 % entre septembre 2010 et le sommet de janvier 2014, donc après la tragédie de Lac-Mégantic, ce nombre étant passé d’environ 5000 à 17 400. Puis, ce nombre a commencé à baisser. Au bout du compte, il a diminué de plus de 60 % entre son sommet de janvier 2014 (17 400) et son plancher récent de mai 2016 (6550). Il est ensuite reparti en hausse jusqu’en octobre 2016, augmentant de 90 % (de 6550 à 12 450) en cinq mois, pour n’augmenter que légèrement jusqu’en avril 2018 (13 500). Par la suite, il a connu une forte hausse pour clôturer la période présentée à plus de 20 000 pour la première fois en septembre 2018 (20 400, en fait), une hausse de 50 % en cinq mois. Les données appuient donc la prévision de hausse de l’article d’octobre 2017, ainsi que les affirmations plus récentes dans les articles présentés en amorce. Et, il est loin d’être certain que ce nouveau sommet n’a pas été surpassé depuis.

Comme ces données portent uniquement sur le Canada, elles ne nous permettent pas de connaître la situation spécifique au Québec. On pense souvent qu’on peut le savoir en consultant les données sur le transport du pétrole dans les divisions Est et Ouest publiées dans le même tableau (le 23-10-0216-01, je le rappelle). En fait, ces données portent sur le lieu de chargement des trains, pas sur le lieu où ils circulent. Les données sur la division Ouest compilent les chargements effectués entre Thunder Bay, en Ontario, et la côte du Pacifique et celles sur la division Est le nombre de ceux effectués entre Armstrong, en Ontario, et la côte de l’Atlantique. Cela est expliqué dans l’encadré au bas du communiqué le plus récent de Statistique Canada sur les chargements ferroviaires. Cela signifie qu’on peut savoir dans quelle moitié du Canada le chargement de pétrole ou de mazout a été fait, mais pas où ces trains se dirigeaient ni si des trains chargés aux États-Unis peuvent circuler au Québec. Tant qu’à parler de ces données, aussi bien les montrer!

Le graphique qui suit nous permet de constater que le nombre de wagons transportant du pétrole et du mazout chargés dans chacune des deux divisions était semblable de 2008 à 2011. Tout d’un coup, tout a changé vers la fin de 2011. On voit que, non seulement le nombre de ces wagons chargés dans la division Ouest (ligne rouge) a grimpé en flèche entre novembre 2011 et décembre 2014 (hausse de près de 400 %, de 2900 wagons à plus de 14 100), mais que, à partir de 2013, le nombre de ces wagons chargés dans la division Est (ligne bleue) a chuté, passant de son sommet de près de 5900 en mars 2013 à guère plus de 2000 en juillet 2014, une baisse de 65 %, pour demeurer assez stable par la suite, soit entre 1000 et 2100, terminant cette période à moins de 1200 en septembre 2018. En fait, le gros de la baisse s’est réalisé en un seul mois, soit entre juin et juillet 2014 (baisse de plus de 50 %, de 4250 wagons à 2100). J’aimerais bien expliquer cette baisse, mais ne sachant pas d’où vient ce pétrole (d’importations? de Terre-Neuve?) et où il se rendait, ce n’est pas facile de le savoir! Si la période de cette baisse correspondait à un événement particulier, on pourrait comprendre, mais là, je ne vois pas.

L’évolution des chargements de la division Ouest est plus facile à comprendre. Tout d’abord, la hausse de ces chargements, peu importe leur destination, correspond à l’augmentation de la production de pétrole dans l’Ouest, surtout provenant des sables bitumineux (voir aussi les tableaux 25-10-0014-01 et 25-10-0041-01), que ce soit sous la forme de pétrole bitumineux ou synthétique. Ensuite, on peut voir sur le graphique que la dernière chute du nombre de ces chargements a commencé après son sommet atteint en octobre 2015 (plus de 14 100 wagons), soit le dernier mois précédant l’entrée en fonction de la canalisation 9B d’Enbridge à la suite de son inversion à la fin novembre 2015. Il est possible que d’autres facteurs aient joué, les chargements de la division Ouest ne se dirigeant pas tous vers le Québec et les Maritimes (j’espère!), mais la coïncidence serait étonnante si ce facteur n’avait pas influencé cette baisse. En outre, la baisse du nombre de chargements provenant de l’Ouest en mai 2016 fut particulièrement forte (baisse de 48 %) et correspond au mois où les feux de forêt ont fait diminuer le plus la production dans la région de Fort McMurray. Par la suite, le nombre de chargements provenant de l’ouest du Canada a repris un niveau à peine 10 à 20 % moins élevé qu’en 2014. Puis, la hausse plus récente (de 90 % entre février et septembre 2018, de 10 100 à 19 200) semble découler de l’augmentation de la production mentionnée dans les articles présentés au début de ce billet.

Ajoutons finalement que la proportion de wagons chargés dans la division Ouest est passée d’un minimum de 31 % du total en octobre 2008 à un sommet de 94 % en septembre 2018, le dernier mois de la série. On peut donc conclure que la hausse du transport de pétrole en train chargé au Canada dépend depuis quelques années uniquement de l’évolution de la production de pétrole dans l’ouest du Canada.

Et alors…

Les données de Statistique Canada ne permettent pas de répondre à toutes les questions sur le transport de pétrole en train au Canada. Comme mentionné dans le billet, on ne peut pas savoir avec ces données où ces trains circulent, mais seulement où ils sont chargés (et encore, avec peu de précision). Un bon nombre d’entre eux circulent sûrement aux États-Unis (comme le feraient ceux que la première ministre de l’Alberta, Rachel Notley veut acheter), tandis que des trains chargés aux États-Unis circulent sûrement au Canada. Malheureusement, aucune donnée à ma connaissance ne permet de quantifier ces deux phénomènes.

Malgré ce manque de précision, ces données permettent quand même d’avoir une bonne vue d’ensemble du transport de pétrole chargé au Canada et d’ainsi confronter les affirmations qui circulent sur le sujet. Rappelons-nous par exemple que Transports Canada prévoyait en 2013 que le nombre de trains transportant du pétrole et du mazout triplerait (en fait, que le nombre de barils transportés par jour passerait de 200 000 à 700 000) entre la fin de cette année-là et la fin de 2016, alors que ce nombre a en fait diminué de 25 % entre décembre 2013 et décembre 2016. À l’inverse, les données récentes montrent que les analystes qui prévoyaient une hausse de la quantité de pétrole vers la fin de 2017 avaient raison (GMP FirstEnergy et l’Association canadienne des producteurs pétroliers ont été plus prudents que Transports Canada en ne tentant pas de quantifier cette hausse). De même, la hausse de près de 90 % mentionnée dans le billet de Phillippe Gauthier entre janvier et septembre 2018 se traduit dans les données de Statistique Canada par une hausse de même ampleur entre février et septembre 2018 pour la division Ouest. Bref, malgré leurs lacunes, ces données nous permettent de mieux apprécier les différentes affirmations qu’on lit sur le sujet. Je vais donc continuer à suivre leur évolution et n’hésiterai pas à les commenter à nouveau, si la situation le justifie, comme cette fois.