Aller au contenu principal

Que faire des cons ?

15 juillet 2019

Avec son livre Que faire des cons ? – Pour ne pas en rester un soi-même, Maxime Rovere, professeur de philosophie à l’Université pontificale catholique de Rio de Janeiro, «propose une nouvelle éthique pour penser et soigner ce fléau de notre temps, maladie du collectif et poison de nos vies individuelles».

Introduction : «Le problème n’est pas la connerie, ce sont les cons». En effet, si on doit sans hésiter combattre et anéantir la connerie, il n’est pas question d’anéantir les con.nes, et le vouloir montrerait qu’on en est un.e! Mais, comment faire pour vivre avec ces personnes exaspérantes? L’auteur se demande «si la philosophie peut trouver des solutions claires à ce problème urgent».

1. Trois conclusions jetées en préliminaire : Ces trois conclusions sont :

  • «on est toujours le con de quelqu’un», notamment parce qu’il «est très difficile de cerner avec précision ce qu’est un con» et qu’il s’agit d’une notion relative;
  • «les formes de la connerie sont en nombre infini», par exemple, il y a des con.nes qui ne doutent jamais de leurs certitudes et d’autres qui doutent de tout, même de ce qui est démontré;
  • «le principal con se trouve en nous-mêmes».

2. Comment on tombe dans les filets des cons : Même s’il a dit qu’il est difficile de définir ce qu’est un.e con.ne, l’auteur avance que «le con est celui qui manque de respect aux autres (…), qui en définitive détruit les conditions pour vivre ensemble». Et c’est notre répulsion pour les con.nes qui nous font tomber dans leurs filets et devenir nous-mêmes un peu con.nes…

3. Comment se remettre de sa stupeur : Pour éviter les effets de notre répulsion pour les con.nes, notamment la stupeur (ou sidération) qu’elle entraîne, il faut chercher des ressources qui nous sont souvent extérieures et passer par-dessus notre réaction instinctive.

4. Comment on passe de la faute à la chance : Un autre moyen de vaincre nos réactions impulsives est de voir cet objectif comme un défi. Réagir aux con.nes, c’est devenir leur complice. Mais ne pas le faire est difficile, d’où l’ampleur du défi.

5. Rechutes dans l’émotion : Et si, malgré tout cela, on recommence à réagir? Même après avoir relevé le défi, il n’est en effet pas exclu qu’une connerie particulièrement conne (j’essaie de rendre le ton de l’auteur) nous fasse rechuter. Il ne faut pas dans cette situation rejeter nos émotions, mais bien relever un autre défi, soit «d’épuiser la force des émotions en l’exprimant tout entière, jusqu’à plus soif» (pas sûr d’avoir compris).

6. Comment l’impuissance engendre le devoir : Quand une personne dit ou fait une connerie, on ressent le devoir de lui souligner pour qu’elle s’amende. Mais si la personne est conne, cela ne servira qu’à souligner que nous ne sommes pas con.nes comme elle, ce qui est par le fait même une réaction un peu conne (si j’ai bien compris).

7. Comment les autorités morales entrent en conflit : L’auteur montre l’inefficacité du recours à la morale ou aux autorités morales pour faire comprendre à des con.nes qu’ils et elles viennent de dire une connerie, d’autant plus que, selon les valeurs des personnes, ce qui est une connerie pour les un.es ne l’est pas nécessairement pour les autres. Les con.nes peuvent aussi n’avoir aucune cohérence, ce qui n’arrange rien.

8. Comment écouter un con : Quand un.e con.ne nous fait la morale, il faut surtout éviter de se justifier, car on embarque ainsi dans son système de valeur (ou dans son incohérence) et on ne peut que s’y enliser.

9. Pourquoi l’État se fout de nous : Dans les domaines de la religion et de la politique (et dans d’autres), les con.nes n’ont que faire des nuances, n’ayant que des certitudes. De même, ils et elles se considèrent toujours dans leur droit, dans toute situation. Mais, nous sommes vraiment dans notre droit de contester les institutions, car elles sont toujours en retard sur la société. L’auteur précise toutefois que, en raison de ce décalage permanent, ce sont les institutions qui sont connes, pas les fonctionnaires qui sont les premier.ères à subir les effets de cette connerie.

10. Pourquoi la menace est une forme de soumission : L’État, même si décalé, tend à intervenir dans de plus en plus de domaines. Pour éviter le totalitarisme, l’extension de ses domaines d’intervention doit être contrebalancée par un renforcement de notre autonomie de façon à pouvoir résoudre la plupart de nos problèmes sans faire intervenir l’État, tout en ayant la possibilité d’y recourir au besoin. Ce recours doit être utilisé uniquement en cas d’urgence, surtout contre des con.nes, car la menace d’y recourir nous place en position de faiblesse (et même de soumission).

11. Comment la morale achève l’interaction : Le recours à la morale comporte les mêmes désavantages que le recours à l’État, mais sans ses avantages. En plus, l’intervention de la morale est une forme de condition au dialogue qui doit justement se faire sans condition.

12. Pourquoi les cons préfèrent détruire : C’est une obsession bien répandue de vouloir détruire ce qui nous déplaît. Et, bien sûr, les con.nes parviennent rarement à résister à cette obsession. Il ne faut donc pas s’en étonner et on doit en tenir compte dans nos interactions avec ces personnes.

13. Pourquoi les cons gouvernent : S’il est désagréable d’échanger avec un.e con.ne, c’est bien pire quand il s’agit de son ou de sa patron.ne! L’auteur explique pourquoi il y a tant de con.ne dans des postes de direction (y compris en politique), pourquoi c’est inévitable et pourquoi c’est aussi bien…

14. Pourquoi les cons se multiplient : En fait, ce sont leur visibilité et le nombre de nos interactions avec les con.nes qui ont augmenté, notamment avec le gain de popularité des réseaux sociaux, pas nécessairement leur nombre. L’auteur avance aussi quelques autres raisons de cette impression de hausse.

15. Pourquoi les cons gagnent toujours : Même si l’humain a une grande capacité d’adaptation, il favorise souvent l’inertie, surtout lorsqu’il est con. Et, c’est cette inertie qui le fait gagner!

Conclusion : De cette conclusion, je ne retiendrai ici qu’une phrase :

«Pour ne pas sombrer dans la guerre contre les cons, qui serait celle de tous contre tous, nous ne pouvons qu’osciller entre trois stratégies : négocier avec ceux qui le peuvent, faire évoluer ceux qui se laissent faire, laisser être ceux qui s’y refusent.»

Et alors…

Lire ou ne pas lire? Bof… Je ne me souviens plus ce qui m’a amené à me procurer ce livre, car je sais que j’avais beaucoup de réticences envers lui la première fois que j’en ai entendu parler. Ce livre oscille constamment entre l’analyse sérieuse, l’ironie et la dérision, sans qu’on puisse de façon certaine attribuer ce qu’on est en train de lire à une de ces possibilités. Le discours est souvent décousu et, surtout, l’auteur ne donne pas suffisamment d’exemples de ce dont il parle. J’ai ressenti l’incompréhension qui m’habite parfois en lisant des philosophes… Puis, je ne me sens pas mieux armé pour dialoguer avec des con.nes! Je préfère sa troisième proposition, les laisser tranquilles, quand c’est possible, un genre d’application de l’éloge de la fuite… Je soulignerai finalement qu’il n’y a pas de note, seulement une courte bibliographie de neuf livres que l’auteur dit ne pas avoir ouverts lors de la rédaction du sien. Bref, à moins d’aimer ce genre, on peut passer son tour.

Publicités

La part socialement optimale du revenu du travail

11 juillet 2019

La Banque centrale européenne (BCE) a publié en avril 2018 un document de travail intitulé On the optimal labor income share (La part optimale du revenu du travail) qui a attiré mon attention (document mis à jour en 2019, mais sans changement notable). Notons que, encore une fois, j’ai pris connaissance de cette étude récemment grâce au blogue Economist’s View de Mark Thoma, qui a suggéré un résumé paru sur le site Vox du Centre for Economic Policy Research (CEPR).

Introduction

Les auteurs (Jakub Growiec, Peter McAdam et Jakub Mućk) remarquent que l’intérêt des économistes au sujet de la part du revenu de travail dans la production totale (ou «la fraction de la production économique qui revient aux travailleurs à titre de rémunération en échange de leur travail», selon le Bureau of Labor Statistics) s’est accentué depuis quelques décennies en raison de sa baisse dans de nombreux pays. Par contre, on parle moins du point de comparaison qui devrait se démarquer, soit sa part socialement optimale.

Or, cette part n’est pas évidente à établir. Les graphiques ci-contre montrent à cet effet que la part du revenu de travail aux États-Unis et en France a grandement varié dans ces deux pays au cours des 120 dernières années (les lignes pointillées en bleu indiquent les données annuelles et les lignes rouges la tendance). Devant de telles fluctuations, il est difficile de savoir s’il existe une part socialement optimale et, s’il y en a une, quel est son niveau.

Étrangement, il n’existe aucune recherche portant spécifiquement sur cette question, absence d’autant plus étrange que la littérature sur la part du travail dans la production (ou dans le revenu national) et sur d’autres aspects l’entourant est relativement abondante. Il est aussi intéressant de noter que les économistes du milieu du XXe siècle prétendaient que cette part était théoriquement supposée demeurer stable… Même Keynes s’est trompé sur le sujet («Keynes (1939) a qualifié la stabilité de la part du travail dans le revenu national comme «l’un des faits les plus surprenants, et pourtant les mieux établis, de l’ensemble des statistiques économiques»)!

Le modèle et ses résultats

Je ne décrirai pas en détail le modèle utilisé par les auteurs. Disons seulement qu’il est théorique, avec beaucoup d’hypothèses et de simplifications, qu’il utilise des agents représentatifs, qu’il recherche un équilibre général et que sa présentation s’étend sur 12 pages, soit la moitié du texte du document de travail avant les références et les annexes (dont les deux premières pages apportent d’autres précisions sur le modèle)…

Pour savoir quelle serait la part socialement optimale du revenu du travail sur la production, les auteurs comparent la part qui serait obtenue par un planificateur social (un «décideur qui tente d’obtenir le meilleur résultat pour toutes les parties impliquées») par rapport à un système décentralisé (la situation réelle). Selon leur calibrage préféré du modèle, ils constatent que la part optimale du revenu du travail sur la production aux États-Unis serait plus élevée de 17 %, soit de 11 points de pourcentage. Selon leurs calculs, cela signifie que cette part passerait de 67,4 % à 78,5 %.

Notons qu’il y a différentes façons de calculer cette part selon ce qu’on considère faire partie de la rémunération du travail, selon les secteurs considérés (par exemple, seulement le secteur privé) et selon l’estimation de la production totale (ou du revenu national). Le plus difficile est de calculer la part due au travail dans les revenus totaux des travailleur.euses autonomes, revenus qui comprennent à la fois des revenus de travail et des revenus de capital. Le graphique ci-contre, tirée de cette page du Bureau of Labor Statistics (BLS), présente en bleu foncé la part du revenu de travail des salarié.es, en rouge la part des revenus totaux des travailleur.euses autonomes («Proprietors» dans le graphique) et avec la ligne en bleu pâle la part des salarié.es plus la part des travailleur.euses autonomes considérée provenir de leur travail (sans la part considérée provenir du capital), ce qui représente la part totale des revenus de travail sur la production («All worker labor share» dans le graphique). On voit que la répartition des revenus des travailleur.euses autonomes provenant du travail et du capital varie énormément d’une année à l’autre, selon les calculs du BLS. La part du capital dans leurs revenus était en effet estimée à peu près nulle de 1980 à 1992 environ, mais elle représenterait environ la moitié de leurs revenus totaux depuis 2010. Cela est dû à la méthode utilisée par le BLS pour départager leurs revenus de travail de leurs revenus de capital (méthode que je ne décrirai pas dans cette digression déjà un peu longue…).

Les deux premiers graphiques de ce billet sont calculés autrement (et présentent donc des niveaux de la part du travail différents), les auteurs ne mentionnant que leur provenance, soit d’un document produit par Thomas Piketty et Gabriel Zucman en 2014, sans préciser leur méthode de calcul (que je n’ai pas non plus trouvée dans le document cité, quoique cette part semble calculée sur le revenu national plutôt que sur la production). Bref, retenons que ce sont les tendances qui importent le plus, pas les niveaux.

Les auteurs se demandent ensuite quels facteurs peuvent expliquer que la part réelle du revenu de travail soit aussi éloignée de sa part socialement optimale. Leur modèle leur permet d’en trouver quelques-uns :

  • les marchés ne tiennent pas compte des effets négatifs du capital physique sur l’activité en recherche et développement (les auteurs ne sont pas très clairs sur la nature de ces effets);
  • le prix du capital établi par le planificateur social est moins élevé que le prix du marché, qui est gonflé en raison du manque de concurrence sur le marché réel;
  • les marchés ne parviennent pas à internaliser les effets du dédoublement de la main-d’œuvre en recherche et développement (plusieurs entreprises cherchant la même chose);
  • les marchés ne peuvent pas capter les effets positifs de l’accumulation de connaissances sur les activités futures en recherche et développement (la valeur réelle du patrimoine des connaissances est un bien public ne générant pas de ventes, mais générant du bien-être).

Les auteurs analysent par la suite d’autres aspects de la question, mais encore plus techniques que les précédentes, notamment le niveau de l’élasticité de substitution entre le capital et la main-d’œuvre qui serait moins élevée dans le modèle du planificateur social que dans la réalité, ce qui contribue à faire augmenter la part du revenu de travail dans leur modèle.

Et alors…

Je ne suis pas très friand des études basées sur des modèles aussi théoriques que celui construit par les auteurs de celle-ci. Ce n’est pas parce que j’aime leur conclusion, soit que la part socialement optimale du revenu de travail est beaucoup plus élevée que celle observée dans la réalité, que je vais changer d’idée (je tente de calmer mon biais de confirmation…). Notons aussi que le terme «socialement» utilisé dans ce document n’a pas le sens qu’on lui donne habituellement, mais repose sur la maximisation de l’utilité de l’ensemble de la population. De toute façon, c’est surtout en raison des analyses de l’évolution de cette part que j’ai été attiré par cette étude et que j’ai choisi de la présenter ici. Cette étude m’a aussi permis de relire le texte intéressant du BLS sur la façon d’estimer la part du revenu de travail sur la production et d’en présenter une partie ici. J’y reviendrai sûrement un jour…

Les inégalités contre la démocratie

8 juillet 2019

Avec son livre Les inégalités contre la démocratie, Jean-Pierre Derriennic, professeur au Département de science politique de l’Université Laval, montre que «certaines institutions auxquelles nous sommes habitués, notamment la façon dont nous élisons les gouvernants, créent souvent des inégalités très graves entre concitoyens».

1. Introduction : «Pour limiter les inégalités économiques, il faudrait avoir des institutions démocratiques efficaces; et pour avoir des institutions démocratiques efficaces, il faudrait que les inégalités économiques soient moins grandes». C’est pour trouver le moyen de sortir de ce cercle vicieux que l’auteur a décidé d’écrire ce livre.

2. Dynamique et conséquences des inégalités économiques : L’auteur explique (très bien) les données utilisées pour mesurer les inégalités, avec leurs forces et leurs faiblesses (par exemple, on ne comptabilise pas toutes les activités économiques), puis montre que ces inégalités ont augmenté grandement depuis 1980. Il distingue ensuite les inégalités de revenus des inégalités de richesse, et ces inégalités avec celles de pouvoir. Il analyse ensuite les facteurs qui influencent l’évolution des inégalités. Il aborde aussi :

  • le rôle (exagéré) du mérite;
  • l’impact réel, mais limité, de la recherche de l’utilité maximale dans ses décisions;
  • l’utilité marginale décroissante des revenus;
  • l’impact néfaste de la spéculation;
  • les effets négatifs des inégalités (voir ce billet).

3. L’importance de l’égalité : Selon l’auteur, l’idée d’égalité n’est pas naturelle pour l’être humain (opinion que Kate Pickett et Richard Wilkinson contesteraient sûrement, rappelant que les sociétés de chasseurs-cueilleurs étaient très égalitaires et que ce n’est que depuis 10 000 ans que les inégalités sont courantes), ce sont les lois morales (y compris les religions) et humaines qui l’imposent. Si presque tout le monde considère de nos jours comme fondamentale l’égalité devant la loi, l’auteur ajoute que «les inégalités économiques importent aussi, parce qu’elles sont des obstacles à l’égalité devant la loi». Il aborde ensuite :

  • les justifications des inégalités (qui n’éliminent jamais leurs effets négatifs);
  • quelques obstacles à la réduction des inégalités;
  • les inégalités identitaires (qui peuvent être enrichissantes pour une société, mais qui sont particulièrement dangereuses lorsqu’elles sont accompagnées d’inégalités économiques);
  • quelques mesures pour réduire les inégalités économiques (dont l’établissement de droits de succession, la hausse du taux marginal d’imposition maximal, le salaire maximal et l’éradication des paradis fiscaux).

4. L’égalité dans la démocratie : La démocratie repose sur quatre caractéristiques fondamentales: l’État de droit, la liberté, l’égalité et le pouvoir du peuple. L’importance et la façon de concrétiser ces quatre caractéristiques peuvent toutefois varier considérablement selon les pays. L’auteur analyse donc les différentes interprétations données à ces concepts, leurs applications et les conflits qu’ils peuvent générer entre eux et même à l’intérieur de chacun d’eux. S’il se penche sur chacun de ces quatre concepts, il approfondit encore plus celui du pouvoir du peuple (de façon très pertinente).

5. Des institutions démocratiques moins inégalitaires : L’auteur présente dans ce chapitre des propositions qui portent «sur la façon de limiter l’influence des grands intérêts économiques sur les politiciens et les partis» et «sur la façon d’inciter les élus à tenir compte également des opinions et des intérêts de tous les citoyens». Ces propositions touchent :

  • aux possibilités de conflits d’intérêts;
  • au financement des partis politiques;
  • au mode de scrutin (partie de ce chapitre la plus substantielle, dans laquelle l’auteur accorde plus d’importance à l’égalité entre les citoyen.nes qu’à l’égalité entre les partis);
  • à la représentation intégrale, où le poids du vote des député.es est pondéré en fonction de la population de la circonscription qu’ils et elles représentent.

6. Par où commencer ? : L’auteur revient sur ses propositions et tente de déterminer celles qui ont les meilleures possibilités d’être adoptées, espérant que l’adoption de ces dernières fasse augmenter les appuis aux autres. Il explique aussi certaines des raisons invoquées par les personnes qui résistent à ces changements, souvent parce qu’elles bénéficient du système injuste actuel.

Et alors…

Lire ou ne pas lire? Lire! Ce livre aborde en effet des aspects des inégalités qui sont rarement abordées, en tout cas dans les livres sur le sujet que j’ai lu. Il est bien structuré, ses présentations sont claires et ses analyses originales et bien fondées. Je n’appuie pas toutes ses propositions, mais elles suscitent toutes la réflexion. Je suis moins optimiste que l’auteur sur les possibilités réelles de les voir adoptées, mais on ne lui reprochera pas d’y croire! Ce petit livre (152 pages, selon l’éditeur) n’est pas bien long à lire tout en approfondissant des sujets essentiels à la vie démocratique de nos sociétés. En plus, les notes sont en bas de page!

La part conjoncturelle et structurelle des soldes budgétaires du Québec

5 juillet 2019

La Chaire de recherche en fiscalité et en finances publiques de l’Université de Sherbrooke (CFFP) a publié la semaine dernière un cahier de recherche réalisé par Luc Godbout et Julie S. Gosselin intitulé Équilibre budgétaire dans les provinces canadiennes : perspectives sur le rôle des cycles économiques. J’ai pris connaissance de ce document grâce à cet article du Devoir. Puis, après avoir regardé cette entrevue de Luc Godbout sur le contenu de ce cahier de recherche à RDI économie, j’ai décidé de le lire sans tarder.

Introduction

Ce cahier de recherche vise à estimer «les composantes conjoncturelles et structurelles des soldes budgétaires» des provinces du Canada.

Les auteur.es comparent tout d’abord les surplus budgétaires des provinces pour l’année 2018-2019, comme on peut le voir sur le graphique ci-contre. Assez étrangement, le surplus du Québec est illustré après versement au Fonds des générations, alors que M. Godbout dit clairement dans l’entrevue (vers 4 min 30) qu’il a accordée à RDI qu’on doit utiliser le surplus avant ce versement pour que le solde budgétaire du Québec soit comparable à ceux des autres provinces. D’ailleurs, c’est le surplus avant versement qui est utilisé dans le cahier pour un graphique que je présenterai plus loin. La différence n’est pas anodine, car ce surplus passe alors de 4,4 à 7,9 milliards $, ou de 1,0 % à 1,8 % du PIB, comme je l’ai indiqué en ajoutant un trait pas très esthétique dans ce graphique.

Mais, que ce soit avant ou après versement, il est clair que le solde budgétaire du Québec se démarque nettement de celui des autres provinces. Cela dit, les auteurs se demandent si ces soldes représentent bien la situation budgétaire de ces provinces. Pour le savoir, il faut estimer la portion de ces soldes qui est «liée aux fluctuations conjoncturelles», le reste représentant le solde structurel. Cette question est importante, car elle permet de déterminer s’il est approprié d’utiliser le solde fortement positif du Québec pour réduire les recettes ou augmenter les dépenses récurrentes, ou s’il est préférable de rester prudent à ce chapitre. Sauf en cas de récession ou d’autres situations spéciales, seul le surplus structurel devrait être considéré pour réduire les recettes ou augmenter les dépenses récurrentes, et encore, seulement si ce surplus structurel est durable, car un surplus conjoncturel est appelé à disparaître dès que les conditions économiques se détérioreront pour revenir à la «normale».

Le PIB potentiel

La première étape pour répartir le solde total en soldes conjoncturel et structurel est d’estimer le PIB potentiel. Selon le directeur parlementaire du budget (DPB), le PIB potentiel «correspond à la capacité de production soutenable d’une économie. Il est normalement défini comme étant le niveau de production que permettent d’obtenir les ressources existantes (p. ex. main-d’œuvre, capital et technologie) sans créer de pressions inflationnistes». La différence entre le PIB réel et le PIB potentiel est alors l’écart de production. Le calcul du PIB potentiel n’est pas une mince affaire. J’ai même déjà publié un billet dans lequel je me demandais si le PIB potentiel n’est pas en fait une idée zombie, c’est-à-dire une idée qui a été tuée, mais qui revit toujours. Cette comparaison est exagérée, mais il n’en demeure pas moins que son estimation repose sur de nombreuses hypothèses portant notamment sur l’évolution de la démographie et des tendances de productivité, d’heures travaillées et de taux d’emploi par tranche d’âge. Je n’entrerai pas dans les détails, mais, dans un précédent cahier de recherche de la CFFP sur le sujet, les auteurs ont jugé important de mentionner que «le PIB potentiel n’étant pas observable, son estimation est incertaine».

Les deux graphiques ci-contre (tirés de ce texte) présentent les estimations du PIB potentiel des États-Unis effectués au cours de six années différentes, aux deux ans de 2007 à 2017. Les estimations du graphique du haut ont été faites par le Congressional Budget Office (CBO) et celles du graphique du bas en utilisant la méthode développée par Olivier Blanchard et Danny Quah (BQ).

La première chose qui nous frappe dans ces deux graphiques est que les estimations du PIB potentiel ont grandement varié avec le temps. Chaque nouvelle estimation ne baissait pas seulement pour l’année courante, mais aussi pour chacune des années postérieures à 2008 et parfois de façon importante. Dans le premier graphique, c’est le PIB potentiel qui s’approche constamment du PIB réel (ligne noire) et non l’inverse comme la théorie le prétend. Il l’avait d’ailleurs quasiment rejoint avec l’estimation de 2017.

La deuxième chose qui nous frappe est que, à partir de l’estimation de 2013 (ligne en pointillés noirs), la méthode de Blanchard et Quah incorpore à ses estimations du PIB potentiel une partie de la baisse du PIB de 2009, qu’on pensait auparavant essentiellement conjoncturelle. Selon cette méthode, environ 60 % de la baisse du PIB de 2009 était en 2017 estimée structurelle, alors que, avec la méthode du CBO, la baisse du PIB de 2009 était encore en 2017 estimée en grande majorité conjoncturelle. Finalement, avec la méthode de Blanchard et Quah, le niveau du PIB réel serait encore plus bas que le PIB potentiel en 2017, et l’écart entre le PIB potentiel et le PIB réel aurait été assez stable de 2009 à 2017, ce qui n’est pas du tout le cas avec la méthode du CBO.

Ces deux graphiques montrent que, de fait, l’estimation du PIB potentiel est très incertaine! Cela dit, il est probable que le niveau d’incertitude de cette estimation augmente après une récession, car il est difficile de savoir à quel point la baisse du PIB aura des effets durables ou uniquement temporaires. Pourtant, dans un exercice utilisant le PIB potentiel par le DPB et une méthode différente par la CFFP (et uniquement pour le budget de la province, alors que le DPB incluait les administrations locales comme les municipalités dans ses estimations), les deux organismes sont arrivés à des résultats très différents en tentant d’estimer si la structure budgétaire du Québec était viable à long terme. Le DPB a conclu dans son rapport de 2017 qu’elle le serait jusqu’en 2091, accumulant cette année-là des surplus correspondant à près de quatre fois son PIB (voir ce graphique)! Il estimait en conséquence que le Québec avait une marge de manœuvre correspondant à 3,0 % de son PIB (entre 2.2 et 3,6 % selon ses hypothèses) pour diminuer ses recettes ou augmenter ses dépenses, ce qui est énorme! L’année suivante, son rapport concluait que le surplus accumulé du Québec serait en 2092 d’un peu moins de deux fois son PIB et sa marge de manœuvre de 1,6 % de son PIB (au lieu de 3,0 % l’année précédente). De son côté, les auteur.es du cahier de recherche du CFFP arrivaient à la conclusion que le Québec entrerait en déficit en 2028 et que ce déficit irait par la suite en s’aggravant.

Je ne cherche pas ici à savoir qui a raison, mais simplement à montrer à quel point ces estimations peuvent varier en seulement un an pour les rapports du DPB et peuvent mener à des conclusions opposées selon la méthodologie retenue. Cela ne veut pas dire qu’il est inutile de tenter d’estimer un PIB potentiel et les parts structurelle et conjoncturelle d’un solde budgétaire, mais qu’il faut le faire avec beaucoup de prudence et d’humilité, et qu’il est important d’avertir ses lecteur.trices de la fragilité des résultats d’un tel exercice.

La situation structurelle et conjoncturelle

– PIB

Le graphique ci-contre, tiré de l’entrevue de M. Godbout à RDI économie (vers 2 minutes), montre l’évolution du PIB réel (ligne bleue) par rapport au PIB potentiel (la ligne verticale à 0 %). J’ai choisi ce graphique parce que je le trouve plus clair que le graphique correspondant qui est présenté dans le cahier de recherche.

Il est étonnant de constater que le PIB réel serait demeuré inférieur au PIB potentiel de 2009 (année de récession) à 2016 (il s’agit en fait des années 2009-2010 à 2016-2017, d’avril à mars) et avec à peine une légère réduction de l’écart de production avec le PIB potentiel. Pourtant, selon le tableau 14-10-0327-01 de Statistique Canada, les taux d’emploi des 12 tranches d’âge (15 à 19 ans, 20 à 24 ans, jusqu’à 70 ans et plus) ont augmenté en moyenne de trois points de pourcentage entre 2009 et 2016, et le taux de chômage a diminué de 1,5 point. J’imagine que le calcul du PIB potentiel a considéré que ces hausses étaient structurelles, et non pas seulement conjoncturelles. De même, le PIB réel a tout de même augmenté en moyenne de 1,4 % par année au cours de cette période selon les données de Statistique Canada publiées par l’Institut de la statistique du Québec (ISQ), et cela malgré le vieillissement de la population.

Ensuite, le PIB réel est devenu plus élevé que le PIB potentiel, passant d’un écart de production négatif représentant près de 1 % du PIB à un écart positif estimé à 2,5 % du PIB en 2019, une hausse de près de 3,5 points en seulement trois ans. Il est vrai que la croissance du PIB réel fut plus forte en 2017 (2,8 %) et en 2018 (2,5 %), et que les taux d’emploi par tranche d’âge ont continué à augmenter en 2017 (de 1,5 point de pourcentage en moyenne) et en 2018 (de 0,6 point) malgré leur niveau déjà élevé en 2016 en termes historiques. Notons que les estimations de 2018-2019 et de 2019-2020 (en pointillé) sont basées sur les prévisions de croissance réelle du gouvernement du Québec.

Il est fort possible que cette estimation soit juste, mais, comme on l’a vu auparavant, cela peut prendre jusqu’à une dizaine d’années pour savoir si une hausse ou une baisse du PIB réel est structurelle ou conjoncturelle (et, même là, les conclusions peuvent varier selon les méthodes utilisées). Par contre, il demeure étrange qu’une telle hausse conjoncturelle ne puisse être associée à des événements précis (on parle plutôt d’une hausse des incertitudes au niveau mondial qui devrait rendre la conjoncture plus négative que positive) et n’ait entraîné aucune hausse de l’inflation, étant donné que la définition du PIB potentiel repose sur le fait qu’un niveau du PIB réel plus élevé que celui du PIB potentiel est inflationniste. Or, selon les données du tableau 18-10-0004-01 de Statistique Canada, l’inflation au Québec entre les cinq premiers mois de 2018 et les cinq premiers mois de 2019 fut de 1,6 %, soit dans le bas de la fourchette cible de la Banque du Canada (qui va de 1,0 % et 3,0 %), niveau même inférieur à l’inflation pour l’ensemble du Canada (1,9 %). J’ajouterai que dans un contexte de manque de main-d’œuvre, il est aussi possible que plus de personnes aient été attirées sur le marché du travail qu’auparavant et que cet attrait puisse bien se maintenir à l’avenir, devenant ainsi structurel. Alors, la hausse du PIB réel et des taux d’emplois depuis 2016 est-elle vraiment conjoncturelle? Tant que cela? Comme le dirait notre premier ministre, on verra!

– soldes budgétaires

Pour passer des estimations des écarts de production entre le PIB réel et le PIB potentiel aux composantes conjoncturelles et structurelles des soldes budgétaires, les auteur.es estiment l’élasticité de chacune des sources de revenus des provinces, c’est-à-dire en gros le lien entre les recettes de l’État et le niveau du PIB réel et du PIB potentiel. Je n’insisterai pas sur les calculs à la base de ces estimations, me contentant de souligner qu’ils contiennent eux aussi leur part d’hypothèses et d’incertitude. Par exemple, l’élasticité de l’impôt sur le revenu des particuliers par rapport au revenu total pour le Québec est estimée à 1,91, mais avec un intervalle se situant entre 1,33 et 2,11.

J’emprunte encore un graphique de l’entrevue de M. Godbout à RDI économie (vers 6 minutes) pour montrer certains des résultats de ces calculs. Je ne commenterai que la partie gauche du graphique, car l’analyse de la partie droite n’ajouterait rien. Les deux premières barres montrent que le surplus budgétaire avant versement au Fonds des générations a représenté environ 1,8 % du PIB en 2018-2019 (comme mentionné au début de ce billet), dont 1,4 % serait un surplus structurel, mais que ce surplus tomberait à environ 0,5 % du PIB en 2019-2020, en grande majorité composé d’un surplus conjoncturel. En fait, le surplus structurel très important de 2018-2019 disparaîtrait presque complètement en 2019-2020, ce qui signifierait que le gouvernement aurait complètement éliminé ce surplus par des baisses d’impôts et des hausses de dépenses. Dans son entrevue, M. Godbout explique que ce résultat provient des prévisions du dernier budget du Québec et que le gouvernement pourrait très bien réviser de façon importante ses prévisions, comme il l’a fait les années précédentes. J’ajouterai que, lorsque le budget de 2019-2020 a été déposé, le ministre des Finances niait encore que le surplus de 2018-2019 serait aussi important. Après dépôt au Fonds des générations, il l’estimait en mars 2019 à 2,5 milliards $ (en forte hausse depuis le déficit prévu de 1,6 milliard $ lors du dépôt de ce budget en mars 2018), l’a corrigé à 3,6 milliards $ en mai 2019, alors que nous apprenions en juin 2019 qu’il fut finalement de 4,4 milliards $ (et qu’il pourrait encore être révisé). Il est donc probable que, comme le gouvernement le fait depuis des années, celui-ci ait sous-estimé son surplus et que le surplus structurel n’est en fait pas complètement disparu, d’autant plus que les transferts de péréquation ont augmenté de 1,4 milliard $ en 2019-2020. Cela dit, je le répète, on verra!

Et alors…

Même si je suis sévère envers les concepts de PIB potentiels et de soldes budgétaires structurels et conjoncturels (en fait surtout envers l’incertitude que comportent leurs estimations), le genre d’exercice fait dans le cahier de recherche que j’ai présenté demeure essentiel. Je suis aussi en accord avec la conclusion de ce cahier qui affirme que «La prudence est donc de mise avant de prendre de nouveaux engagements aux effets récurrents, qu’il s’agisse de réductions fiscales ou d’augmentation de dépenses», moi qui ai déjà conclu quelque chose de semblable il y a quelques mois en écrivant que «Le pire serait que ce gouvernement se vante de ces surplus conjoncturellement plus élevés et se mette à diminuer les taxes et impôts, ce qui, jumelé aux effets du vieillissement de la population, pourrait hypothéquer gravement la situation financière du Québec à moyen et long termes». Bref, la conclusion est la même que l’on considère une partie plus ou moins importante du surplus actuel comme structurel ou conjoncturel. Il faut dire que je ne connaissais pas l’ampleur du surplus quand j’ai écrit cela!

Pour vivre heureux, vivons égaux!

1 juillet 2019

Avec leur livre Pour vivre heureux, vivons égaux! – Comment l’égalité réduit le stress, préserve la santé mentale et améliore le bien-être de tous, Kate Pickett et Richard Wilkinson, deux épidémiologistes connu.es surtout pour leur livre The Spirit Level: Why Equality is Better for Everyone (L’égalité, c’est mieux – Pourquoi les écarts de richesse ruinent nos sociétés en version québécoise), «présentent des preuves accablantes indiquant que les inégalités matérielles ont des effets psychologiques puissants» et analysent dans cette optique «l’épidémie d’anxiété actuelle, les comportements de classe, les stéréotypes sociaux, les rapports de domination ou encore les logiques consuméristes».

Prologue – Résumé des épisodes précédents : Les auteur.es présentent leurs objectifs et résument le livre précédent.

1. Ceci n’est pas un livre de développement personnel : Les auteur.es précisent que leur livre ne porte pas sur des problèmes individuels, mais sur la prévalence de problèmes de santé publique (dont les phobies sociales et les troubles mentaux) et son augmentation dans des sociétés différentes. Il semble que la hausse du niveau de vie ne soit pas étrangère à la plus grande importance que nous accordons à notre statut social et, en conséquence, qu’elle ait contribué à la hausse de l’anxiété sociale. Cette anxiété porte ses victimes à s’isoler, ce qui est doublement nocif, car de nombreuses études démontrent les bienfaits de bénéficier d’un solide réseau d’ami.es. Or, les réseaux d’ami.es sont beaucoup plus présents dans les sociétés égalitaires et l’anxiété dans celles qui sont plus inégalitaires. Les auteur.es soulignent finalement que les inégalités et l’importance accordée au statut social sont relativement récentes dans l’histoire humaine.

Première partie – L’inégalité dans nos têtes

2. Le doute de soi : Les auteur.es montrent, études à l’appui, que le niveau d’anxiété de statut diminue avec le niveau de revenus dans toutes les sociétés, mais que ce niveau est beaucoup plus élevé dans toutes les tranches de revenus dans les pays les plus inégalitaires. Le même modèle s’applique aux maladies mentales. Il et elle explorent ensuite ce qui peut expliquer ces relations (riches-pauvres, sociétés plus et moins égalitaires) et abordent d’autres questions également liées au niveau d’inégalités, dont le système comportemental de domination et de soumission. Au bout du compte, «une plus grande inégalité a pour effet d’intensifier la menace sociale et l’angoisse du statut, suscitant en nous une honte qui alimente nos instincts de repli, de soumission et de subordination».

3. La folie des grandeurs : Les comportements d’autovalorisation (par exemple, quand 90 % des personnes prétendent mieux conduire une automobile que la moyenne) sont beaucoup plus répandus et plus intenses dans les pays inégalitaires, car la population a plus tendance à vouloir se démarquer dans ces sociétés plus portées sur la compétition. Les auteur.es analysent ensuite quelques autres comportements des populations modernes : l’estime de soi, le narcissisme, les changements d’apparence (notamment par la chirurgie esthétique), la présence de psychopathes à la tête de nombreuses entreprises, les actes antisociaux plus fréquents chez les riches et l’empathie (et le manque d’empathie). Sans surprise, on apprend que les aspects négatifs de ces comportements s’accroissent avec le niveau d’inégalités.

4. Les fausses solutions : Les fausses solutions sont les addictions (terme que les auteur.es définissent comme «un engagement excessif dans toute activité qui se révèle nuisible pour le sujet dépendant, la société ou les deux»), que ce soit à l’alcool et à des drogues ou encore aux achats, à l’alimentation, aux jeux vidéo, aux jeux d’argent, au travail et au sexe. L’addiction est donc un problème à la fois individuel et de société. Il existe peu d’études sur les liens entre les inégalités et les addictions, mais celles qui existent trouvent des corrélations nettes. En plus, les auteur.es montrent de nombreux indices allant dans ce sens. S’il n’y a pas de preuves directes que les gens dépensent plus en consommation de statut (pour imiter celle des plus riches) dans les pays plus inégalitaires, on observe que les dépenses de publicité sur le PIB augmentent avec le niveau d’inégalités, ce qui suggère que c’est bien le cas. Par ailleurs, le Fonds des Nations unies pour l’enfance (UNICEF) a trouvé dans une de ses études une corrélation négative entre les inégalités et le bien-être des enfants (résultat confirmé par d’autres études plus qualitatives).

Deuxième partie – Nos mythes sur la nature humaine, la méritocratie et les classes sociales

5. La condition humaine : Les auteur.es expliquent dans ce chapitre les raisons pour lesquelles le regard des autres est aussi important pour les êtres humains. Il et elle abordent :

  • le cerveau social, en faisant observer que la taille du néocortex par rapport au cerveau augmente en fonction de la taille des sociétés des espèces et ce ratio est le plus élevé chez l’être humain en raison de l’importance de ses relations sociales (je simplifie);
  • l’importance de l’amitié, des dons et du partage;
  • l’historique très majoritairement égalitaire de l’être humain, notamment par le rejet des individus qui ont des comportements égoïstes par les groupes de chasseurs-cueilleurs, permettant aux individus plus sociaux à davantage se reproduire et à ainsi transmettre leurs gènes associés aux comportements sociaux;
  • la valorisation que nous ressentons quand nous nous sentons utiles et apprécié.es;
  • l’altruisme;
  • la contribution de l’épigénétique à nos caractéristiques;
  • l’exclusion sociale (concept qui explique que la plupart des pays utilisent des taux de pauvreté relatifs plutôt qu’absolus, contrairement au Canada);
  • l’aversion pour les inégalités;
  • le conflit entre notre désir de lier de bonnes relations et celui de se démarquer.

6. L’illusion de la méritocratie : La méritocratie est entre autres la justification que des riches utilisent pour se convaincre que les inégalités sont équitables et qu’ils méritent leur statut. Pourtant, ce statut a souvent été acquis par chance. Les auteur.es abordent :

  • l’impact du mois de la naissance;
  • l’importance de la plasticité cérébrale;
  • le rôle du statut social de ses parents et de la mobilité intergénérationnelle;
  • l’influence des stéréotypes à l’école et dans la vie courante;
  • l’ampleur de ces effets en fonction des inégalités;
  • les concepts de préventions primaire et secondaire;
  • la meilleure performance des systèmes scolaires non sélectifs.

7. Les comportements de classe : Les comportements de classe ont grandement varié selon les époques. Ce ne serait qu’à compter du XVIe siècle que les personnes de statut élevé ont commencé à sentir le besoin de distinguer leurs comportements de ceux de la bourgeoisie et des membres des classes inférieures. Les auteur.es abordent :

  • les manuels de savoir-vivre qui visent à éviter «l’angoisse d’évaluation sociale»;
  • le fait que l’homogamie est plus importante dans les sociétés inégalitaires;
  • le fait que les enfants pauvres subissent davantage de harcèlement en milieu scolaire que les enfants riches;
  • les relations bien différentes des classes sociales avec la culture;
  • l’impact des écarts de classes sociales sur l’amitié, l’empathie, les préjugés et la sévérité des peines d’emprisonnement;
  • le fait que seulement 10 à 15 % des différences génétiques entre deux personnes appartenant à des ethnies différentes s’expliquent par leur ethnie, le reste (85 à 90 %) s’observant par des différences à l’intérieur des membres de mêmes ethnies.

Troisième partie – Ce qu’il nous reste à faire

8. La voie vers un futur viable : Les deux derniers chapitres portent sur les solutions. Celui-ci se penche sur la compatibilité de l’objectif de réduire les inégalités «avec la soutenabilité environnementale». Les auteur.es y abordent :

  • les limites de la croissance, tant pour l’amélioration des conditions de vie que pour les ressources de notre planète;
  • la résistance au changement de mode de vie pourtant essentiel pour lutter contre le réchauffement climatique;
  • le lien entre les inégalités et la surconsommation, lien établi avec de nombreux éléments de preuve.

9. Faire advenir un monde meilleur : Avant d’en arriver aux solutions comme telles, les auteur.es résument «brièvement les preuves montrant que l’inégalité de revenus intensifie les divisions de classe et de statut» et précisent qu’il est impossible de déterminer un niveau idéal d’inégalités, quoique celui-ci devrait être au plus celui des pays scandinaves et qu’il pourrait être un peu différent d’un pays à l’autre. Il et elle présentent ensuite les principaux facteurs qui expliquent la hausse des inégalités depuis 1980, section qui est à la base des propositions de solutions qui suivront. Ces solutions comprennent :

  • des mesures pour diminuer aussi bien les inégalités des revenus du marché que celles des revenus après impôts;
  • une hausse du salaire minimum et l’appui à la syndication et à la démocratisation de l’économie (coopératives, entreprises autogérées, présence de salarié.es dans les conseils d’administration, etc.);
  • un changement majeur de comportement de la compétition vers la collaboration, tant entre les individus qu’entre les pays, ce qui permettrait de viser le bien commun;
  • l’utilisation des gains de productivité pour augmenter notre temps de loisir et de vie familiale.

Les auteur.es concluent en soulignant l’urgence d’une mobilisation sans précédent pour réduire les inégalités et pour combattre le réchauffement climatique.

Et alors…

Lire ou ne pas lire? Lire! En fait, le principal intérêt de ce livre est de regrouper un grand nombre d’informations et de données sur le lien entre les inégalités et des phénomènes sanitaires et sociaux. D’ailleurs, une des annexes de ce livre présente dans un tableau l’ensemble des liens en question ainsi que les sources qui les documentent. Les auteur.es savent bien présenter leurs sujets qui sont toujours pertinents. Par contre, j’ai trouvé leurs solutions un peu minces, d’autant plus qu’elles prétendent pouvoir combattre à la fois les inégalités et le réchauffement climatique. Pour prendre connaissance de recommandations plus étoffées pour lutter contre les inégalités, je suggère plutôt le livre Inégalités du regretté Anthony Atkinson auquel j’ai consacré trois billets. Finalement, les notes bibliographiques s’étendent sur 46 pages à la fin du livre, mais, au moins, les notes explicatives des auteur.es et de la traductrice sont en bas de page.

Les mesures tarifaires et non tarifaires pour lutter contre le réchauffement climatique

28 juin 2019

Je n’étais qu’à moitié satisfait du billet que j’ai publié en avril dernier sur la tarification du carbone. D’une part, le rapport que j’y ai présenté se limitait aux mesures canadiennes et, d’autre part, l’organisme à l’origine de ce rapport a comme objet de faire la promotion des politiques écofiscales et ne peut donc pas être considéré neutre. Quand j’ai appris (grâce au blogue Economist’s View de Mark Thoma) que Joseph Stiglitz, qui a reçu récemment le premier prix littéraire Anthony-Atkinson pour l’égalité remis par l’Observatoire québécois des inégalités (on peut aussi voir ici l’entrevue qu’il a accordée à Gérald Fillion lors de son passage à Montréal), avait publié récemment une étude intitulée Addressing climate change through price and non-price interventions (Lutter contre le changement climatique par des mesures tarifaires et non tarifaires), je me suis arrangé pour me la procurer (on ne trouve que son résumé sur Internet).

Introduction

Les économistes ont toujours privilégié les mesures tarifaires pour compenser ou réduire les externalités négatives qui, par définition, ne peuvent pas l’être par le fonctionnement des marchés. Dans le cas du réchauffement climatique, cette mesure se concrétise par une tarification du carbone établie au même niveau pour toutes les émissions de gaz à effet de serre (GES). Dans un rapport qu’il a produit en 2017 avec Nicholas Stern, l’auteur recommandait de compléter cette tarification avec des mesures non tarifaires et de prévoir des taux de tarification différents selon les circonstances (notamment pour tenir compte d’autres externalités négatives, comme la présence de rentes). Cette étude vise à préciser les situations où le fait de ne pas se reposer uniquement sur la tarification du carbone et de prévoir des taux de tarifications différents pourrait apporter de meilleurs résultats, tant pour la réduction des émissions de GES que pour la performance économique et pour ses effets sur le bien-être de la population (entre autres sur les inégalités). Elle explore aussi les raisons qui portent une partie de la population à s’opposer à la tarification du carbone.

Hypothèses (ou cadre conceptuel)

«Ce document est une exploration de la politique optimale dans des contextes dans lesquels il existe de multiples défaillances du marché et des contraintes à la politique publique», et non pas une seule défaillance par les émissions de GES qui pourrait être corrigée par une tarification du carbone. Dans ce contexte (et pour d’autres raisons qu’il serait long à présenter), les modèles économiques habituels qui concluent qu’une tarification unique peut réduire les émissions de GES ne peuvent solutionner l’ensemble de ces défaillances.

Dans cette étude, l’auteur tient aussi compte de la distribution des coûts en fonction des revenus, notamment du fait qu’une taxe à taux unique sur le carbone est régressive (mais pas sa portion dédiée aux transports, précise l’auteur; voir ce billet), mais peut devenir progressive avec des mesures basées sur la structure de consommation des moins riches (subventions au transport en commun, taxe qui s’applique à partir d’un certain niveau de consommation de l’électricité, remise d’un crédit égal sans lien avec le niveau de consommation, etc.). Il tient aussi compte des inégalités horizontales, qui peuvent survenir quand des personnes de mêmes niveaux de revenus ont des structures de consommation différentes (les moins riches ruraux ne peuvent pas utiliser seulement le transport en commun pour leurs déplacements, par exemple). En plus, l’ampleur des mesures à prendre pour tenir compte de ces inégalités peut varier considérablement selon les niveaux d’inégalité d’une société. Il aborde ensuite les concepts d’équité intergénérationnelle, d’aversion à la perte (qui peut faire en sorte que les personnes qui bénéficient d’une telle tarification, dont les moins riches, ressentent moins d’amélioration à leur bien-être que celles qui seraient pénalisées, dont les plus riches, ressentiraient de détérioration à leur bien-être), d’aversion au risque (qui fait en sorte que les personnes qui bénéficient d’une telle tarification ne croient pas que 80 % des gens recevraient plus d’argent qu’ils n’en paieraient avec la taxe du carbone canadienne, biais cognitif utilisé par les opposants à cette tarification, comme Andrew Sheer), ainsi que d’autres types de comportements non rationnels.

Il analyse ensuite le rôle du gouvernement pour financer l’innovation et l’encourager par des mesures réglementaires et d’autres types de tarification. Il explique finalement la nature de ce qu’il a appelé les «contraintes à la politique publique», dont les problèmes de la cohérence temporelle (mettre en application ses décisions au bon moment) et des conséquences de décisions gouvernementales sur les appuis politiques (par exemple, un appui à une politique peut changer quand vient le temps de la mettre en application, surtout si on estime que cette politique risque d’être renversée par un futur gouvernement).

Distribution

«La question sur laquelle nous nous concentrons dans cette section est de savoir s’il peut y avoir des réglementations ou des politiques de tarification plus complexes qui peuvent permettre d’atteindre des objectifs environnementaux similaires à ceux d’une taxe sur le carbone unique avec moins de conséquences négatives sur la distribution» des revenus provenant de cette taxe. L’auteur montre que dans certaines circonstances, la réglementation (comme l’interdiction de l’utilisation du charbon pour produire de l’électricité) ou d’autres types de tarifications peuvent entraîner une réduction plus élevée des émissions de GES qu’une taxe unique (ou une réduction similaire à un niveau moins élevé de tarification), éliminer les effets régressifs de cette taxe et, en conséquence, accroître le bien-être de la société. Comme sa démonstration est théorique (ce qu’il dit lui-même) et utilise des outils mathématiques (qui ne font qu’illustrer ce que je viens de résumer), je vais la sauter, mais je précise qu’elle rend bien son raisonnement, en tenant compte en plus d’autres effets indirects (entre autres sur l’emploi dans le secteur du charbon et dans les secteurs qui remplaceraient le charbon, comme l’énergie solaire).

L’auteur aborde aussi dans cette section l’effet potentiellement redistributeur de certaines mesures :

  • l’utilisation de subventions de biens peu émetteurs, un peu comme dans les systèmes de bonus-malus appliqués à l’achat d’automobiles, mais de façon plus large, permettant ainsi une forme de redistribution à l’avantage des moins riches;
  • les investissements gouvernementaux dans des énergies moins émettrices ou dans le transport en commun;
  • l’utilisation du zonage pour réduire les émissions de GES;
  • un niveau de taxation plus élevé pour les produits émetteurs de GES qui sont davantage utilisés par les riches, par exemple plus élevé pour le kérosène utilisé dans les avions que pour l’essence, car les plus riches voyagent bien plus souvent en avion que les moins riches.

Cela dit, des environnementalistes critiquent parfois ce genre de mesures malgré leur effet redistributeur, les associant à un droit de polluer réservé aux riches, alors que la pollution devrait être carrément interdite, car ses conséquences n’ont pas de prix. Ces taxes peuvent aussi rendre acceptable socialement le fait de polluer (ou d’utiliser des produits fortement émetteurs de GES), car on paie pour ce faire, alors qu’une réglementation ou même l’adoption de nouvelles normes sociales plus respectueuses de l’environnement empêchent ce genre de comportement (comme les mesures de bannissement des sacs et d’autres objets en plastique à usage unique qui obtiennent beaucoup d’appuis dans la population, ou encore la réprobation sociale des voyages en avion, notamment en Suède). En plus, alors que les effets d’une taxe sur le carbone sont diffus et difficiles à quantifier précisément, ceux d’une réglementation sont ciblés et plus aisément quantifiables.

L’auteur examine ensuite l’impact des lobbys sur les taxes sur le carbone (qui peuvent réunir des représentant.es de nombreuses industries) et la réglementation (où les lobbyistes représentent généralement une seule industrie).

Innovations et évolution idéale d’une taxe sur le carbone

L’auteur examine ici l’évolution idéale du niveau d’une taxe sur le carbone. En effet, certain.es prétendent qu’elle doit avoir une trajectoire ascendante (comme au Canada et au Québec) pour permettre à la population et aux entreprises de s’ajuster (au risque de transférer aux prochaines générations la plus grande part des coûts et des dommages), d’autres qu’elle doit être élevée dès le départ pour favoriser l’innovation et les changements le plus rapidement possible (au risque de voir la politique fortement contestée et faiblement appuyée). Dans ses travaux réalisés avec Nicholas Stern, l’auteur n’avait pas de position ferme sur la question, considérant que son niveau doit être ajusté selon ses impacts et selon les innovations apportées pour réduire les émissions de GES. L’établissement du niveau de la taxe sur le carbone «doit être conçu de manière à permettre un ajustement en fonction des nouvelles connaissances et des enseignements tirés de l’expérience. Toutefois, les processus d’ajustement des prix doivent nécessairement être transparents pour réduire le degré d’incertitude politique».

Comme précédemment, sa démonstration utilise des outils mathématiques en tenant compte de quelques autres facteurs, que je ne discuterais pas ici, le paragraphe précédent rendant bien les principales conclusions de l’auteur. Il ajoute qu’un niveau initial élevé de la taxe sur le carbone pourrait aussi favoriser les comportements (de la population et des entreprises) nécessaires à une baisse suffisante des émissions de GES pour limiter le réchauffement climatique. En effet, une telle baisse doit reposer sur un changement de mode de vie majeur, par exemple en passant d’une économie basée sur l’utilisation massive d’énergies fossiles à une économie véritablement verte. De même, les entreprises du secteur de l’énergie verraient moins d’avantages à explorer de nouvelles sources d’énergies fossiles. Une hausse graduelle de la taxe ne pourrait pas entraîner de tels changements de façon aussi nette et rapide. L’utilisation de la réglementation pour freiner ou interdire l’utilisation de produits fortement émetteurs serait aussi efficace pour compléter les effets de la taxe élevée, entraînant des changements majeurs de comportements, bien plus importants que ceux générés par des incitatifs monétaires graduels.

L’incertitude

La question du réchauffement climatique est marquée par l’incertitude, tant du côté de l’évolution des températures à un niveau d’émission donné que du côté de l’effet des mesures adoptées pour réduire les émissions (taxes, réglementation, innovations, etc.) ou encore de celui des conséquences précises sur les conditions de vie des personnes qui seront touchées (on sait seulement que ce sera laid…). C’est pourquoi l’auteur favorise la flexibilité dans l’établissement du niveau de la taxe sur le carbone, pour pouvoir l’augmenter ou la réduire selon l’évolution de la situation, et l’établir à des niveaux différents selon le domaine ou selon les pays (ou même selon les régions). Tout ce qu’on peut faire est d’établir un niveau de départ et d’annoncer les éléments qui seront examinés pour choisir le niveau de cette taxe par la suite. L’auteur ne manifeste pas non plus de préférence entre une taxe sur le carbone ou un système de plafonnement et d’échange (comme au Québec).

Conclusion de l’auteur

Avec son analyse, l’auteur a appliqué des concepts de plus en plus acceptés en économie, discipline qui, de nos jours, «reconnaît les limites posées par l’incertitude, l’asymétrie d’information, l’appropriabilité imparfaite des investissements en innovation et les restrictions sur les outils à la disposition du gouvernement». Il a aussi intégré la question de la distribution des coûts de la lutte au réchauffement climatique en fonction des revenus, aspect pas toujours considéré dans les études portant sur ce sujet.

Et alors…

J’ai été agréablement surpris par cette étude. Je craignais qu’elle ressemble aux études d’économistes-mathématicien.nes qui réduisent l’analyse de la lutte au réchauffement climatique à une question de coût-bénéfice et de débats sur le taux d’actualisation le plus approprié, comme le faisait William Nordhaus dans ses travaux qui lui ont valu le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel en 2018. J’ai tendance à sous-estimer Joseph Stiglitz, même si j’ai beaucoup de respect pour lui. Dans cette étude, il en arrive pratiquement à ce que je recommande depuis quelques années, soit de combiner des taxes sur le carbone à des lois et règlements, puis d’ajuster ces mesures à leurs effets et de corriger l’aspect régressif de ces mesures (j’ai donc un fort biais de confirmation face à cette étude!). Cela dit, il formalise bien mieux que je l’ai fait ces questions, y intégrant des concepts comme ceux de l’asymétrie d’information (concept qu’il a mis de l’avant dans des travaux antérieurs et qui lui ont valu en 2001 le prix de la Banque de Suède avec George Akerlof et Michael Spence) et de l’incertitude (que trop de keynésien.nes oublient de nos jours, même si ce concept est essentiel à la compréhension des travaux de Keynes). Bref, cette étude se démarque par la reconnaissance de la complexité de la lutte au réchauffement climatique et de l’estimation des effets des mesures adoptées pour faire réduire les émissions de GES. Souhaitons qu’elle influence les décideur.euses!

La fabrique du viol

24 juin 2019

Avec son livre La fabrique du viol, Suzanne Zaccour, juriste, autrice et activiste, définit le concept de la culture du viol, parle «de nos réflexes misogynes face aux victimes, et de ce qu’il faut faire pour les désamorcer» et dénombre «les manières dont nous protégeons les violeurs sans même nous en rendre compte».

Le fantôme au bout du tunnel : L’autrice présente le contexte qui l’a amenée à écrire ce livre, explique le sens qu’elle donne aux termes viol (toute agression sexuelle) et victimes («pour rejeter sa connotation négative») et «appelle chaque lectrice, chaque lecteur à redoubler d’ardeur dans la lutte contre le viol».

1. Les victimes : «En théorie, tout le monde est contre le viol. En théorie, tout le monde est du côté des victimes. (…) En pratique cependant, les victimes qui dénoncent publiquement leur agression dérangent». L’autrice explique entre autres :

  • les raisons (notamment statistiques) pour lesquelles il faut croire les victimes;
  • que le concept de la crédibilité d’une victime est une fausse question;
  • que le délai entre un viol et sa dénonciation peut être dû à une foule de facteurs et qu’il ne change rien à la véracité des faits;
  • qu’il est faux de prétendre que le système de justice avantage les mères pour la garde des enfants;
  • l’importance d’«éduquer nos enfants au consentement»;
  • qu’un acquittement ou un refus de poursuivre ne signifient pas qu’il n’y a pas eu viol ou que la victime n’a pas dit la vérité, mais que la preuve ne permet pas d’obtenir une conviction hors de tout doute raisonnable;
  • le sens véritable de la présomption d’innocence et ses applications et limites;
  • que dénoncer un harceleur ou un agresseur, ce n’est pas faire preuve d’extrémisme ou de terrorisme, comme des chroniqueurs l’ont déjà affirmé, c’est au contraire légitime et courageux;
  • qu’on n’a pas besoin de connaître les détails d’un viol pour croire la victime;
  • qu’on devrait poser moins de questions aux victimes et plus aux agresseurs.

2. Les violeurs : Il n’y a pas de profil type d’un violeur. Tout ce qu’on sait, c’est qu’ils sont très nombreux, car les viols le sont. L’autrice explique entre autres :

  • que «les violeurs ne sont pas des porcs, pas des monstres, pas des sauvages, mais des hommes bien ordinaires»;
  • les raisons pour lesquelles la proportion de femmes qui ont été violées et d’hommes qui ont violé varie considérablement selon les sources (sous-estimation dans les statistiques officielles, définitions et perceptions variables, négation, etc.);
  • le concept de la culture du viol et en donne des manifestations dans nos lois, dans nos systèmes de justice, dans la vie courante, dans le monde du spectacle et ailleurs; elle ajoute une liste de 50 autres exemples, surtout tirés de la vie courante;
  • que la culture du viol bénéficie à tous les hommes, aux «bons gars» comme aux violeurs;
  • que, dans ce sens, «les hommes ont intérêt à perpétuer la culture du viol»;
  • qu’elle ne suggère pas de partir une guerre des sexes, car elle est malheureusement déjà en cours;
  • ce que les alliés peuvent faire pour contribuer à la lutte contre la culture du viol;
  • que les médias utilisent de nombreux termes atténuateurs pour minimiser l’importance des agressions sexuelles, déresponsabilisant ainsi l’agresseur;
  • qu’en matière d’agression sexuelle, «l’alcool excuse les actions de l’agresseur, mais condamne celles de la victime».

3. Le consentement : Contrairement à ce que certains prétendent, il n’y a pas de zones grises entre le consentement et le non-consentement : «la position par défaut n’est pas le consentement, mais le non-consentement». L’autrice explique entre autres :

  • qu’il «n’y a pas de consentement sans la possibilité de le révoquer»;
  • que céder n’est pas consentir;
  • que, dans trop d’œuvres de fiction, notamment dans de nombreux films, «l’insistance et le harcèlement sont récompensés».

Le paradoxe du viol : Ce paradoxe est le fait que le viol soit perçu comme un crime d’exception alors qu’il est relativement courant. Cela ne le rend pas moins tragique, au contraire. Si on veut y mettre fin, et tout le monde ou presque dit le vouloir, il faut prendre les moyens pour y parvenir. L’autrice conclut en proposant 15 actions à entreprendre contre la culture du viol.

Et alors…

Lire ou ne pas lire? Lire! Ce livre aborde un sujet difficile, mais essentiel. Même si je ne peux pas dire que j’ai trouvé ce livre agréable à lire (en raison des émotions qu’il fait surgir), l’autrice est très claire et a su bien structurer ses propos. Elle ne met pas de gants blancs et sait nous faire réfléchir. Malheureusement, les 132 notes sont placées à la fin du livre, toujours des références, mais parfois (je dirais même assez souvent) accompagnées de compléments d’information. C’est étrange, car il y a aussi des compléments d’information en bas de page!

On peut en plus lire ici une entrevue que l’autrice a accordée à Améli Pineda du Devoir et le compte-rendu de Rima Elkouri de La Presse.