Aller au contenu principal

Les NEET de 25 à 29 ans et les services de garde

19 octobre 2018

Statistique Canada a publié la semaine dernière (le 10 octobre) un feuillet d’information qui a été à ma connaissance totalement ignoré par les médias, francophones et anglophones. Intitulé La transition des études au travail : indicateur NEET (ni en emploi, ni aux études, ni en formation) pour les jeunes femmes et les jeunes hommes âgés de 25 à 29 ans au Canada, ce feuillet contient pourtant quelques éléments intéressants.

Introduction

L’auteure (Sylvie Brunet) précise tout d’abord que l’indicateur NEET (Not in Education, Employment, or Training ou en français pas aux études, ni en emploi, ni en formation) «a été régulièrement publié par l’OCDE depuis la fin des années 1990, car les jeunes NEET sont considérés comme étant potentiellement à risque de connaître des difficultés sociales et économiques». Elle se concentrera dans ce feuillet sur l’évolution de cet indicateur chez les jeunes âgés de 25 à 29 ans, un premier feuillet portant sur les NEET âgé.es de 15 à 19 ans ayant été publié en février dernier, et un troisième portant sur les NEET âgé.es de 20 à 24 ans devant paraître d’ici quelques mois.

Les NEET sont formés de personnes sans emploi de deux types : les personnes en chômage, qui cherchent un emploi, et les inactives qui ne sont pas aux études et ne cherchent pas d’emploi. De septembre 2017 à avril 2018, pour correspondre aux mois d’études, «73 % des jeunes Canadiens âgés de 25 à 29 ans n’étaient plus à l’école et occupaient un emploi, tandis que seulement 12 % étaient toujours aux études. Les 15 % restants, représentant 376 000 Canadiens, étaient des jeunes NEET». L’image qui accompagne ce billet montre que ce taux varie de 12 % au Québec, de loin le plus bas, à 25 % à Terre-Neuve-Labrador, et à 43 % au Nunavut (ce taux étant présenté avec nuance, en raison de la faiblesse des échantillons de l’Enquête sur la population active dans les territoires). Notons que le taux de NEET au Québec chez les jeunes âgé.es de 15 à 19 ans était en 2016 au contraire plus élevé que la moyenne canadienne (7,3 % par rapport à 6,3 %). On comprendra plus loin pourquoi il est au contraire plus faible que la moyenne canadienne chez les 25-29 ans.

L’auteure souligne que peu de jeunes au Canada demeurent NEET pour une longue période (une étude antérieure a montré que seulement 2 % des 13 % de NEET âgé.es de 15 à 29 ans en 2009 l’ont été de 2007 à 2009). Elle précise que le taux de NEET des jeunes âgé.es de 25 à 29 ans est en général entre deux et trois fois plus élevé que celui des jeunes âgé.es de 15 à 19 ans, car ces dernier.ères sont proportionnellement beaucoup plus nombreux.euses aux études, mais seulement un peu plus élevé que celui des jeunes âgé.es de 20 à 24 ans. Elle fait finalement remarquer qu’il était en 2018 à son plus bas niveau (15 %) depuis 1998 (alors à 19 %, son sommet), à égalité avec son niveau de 2007 et 2008, avant la dernière récession.

Selon le type et le sexe

Le graphique qui suit présente les taux de NEET de septembre 2017 à avril 2018 par province, chez les hommes et les femmes, et selon le type, soit le chômage et l’inactivité chez les non-étudiant.es.

Au Québec et au Canada, le taux de NEET dû au chômage est légèrement plus faible chez les femmes (barres roses) que chez les hommes (barres bleu pâle), soit 4 % par rapport à 6 % pour le Canada et 4 % par rapport à 5 % pour le Québec, et celui dû à l’inactivité est beaucoup plus élevé chez les femmes (barres rouges) que chez les hommes (barres bleu foncé), soit 12 % par rapport à 7 % pour le Canada et 9 % par rapport à 6 % pour le Québec. Si le niveau des taux de NEET entre le Canada et le Québec est semblable pour ceux dus au chômage (tant chez les hommes que chez les femmes) et pour ceux dus à l’inactivité des hommes (au plus 1 point de pourcentage de différence), il est beaucoup plus faible au Québec que dans l’ensemble du Canada pour ceux dus à l’inactivité des femmes, soit de trois points de pourcentage avec 9 % par rapport à 12 %. L’auteure mentionne par ailleurs que les femmes NEET inactives sont proportionnellement plus nombreuses à ne pas vouloir d’emploi (81 %) que les hommes (56 %). Notons que les crochets au haut des barres de ce graphique et des suivants représente la marge d’erreur à 95 %.

Pour mieux connaître les raisons qui pourraient expliquer que le taux de NEET dû à l’inactivité est plus élevé chez les femmes, l’auteure présente un graphique qui illustre les différences entre ce taux chez les femmes avec et sans enfants de chaque province.

Si le taux de NEET inactives est relativement faible et semblable au Québec (6 %) et au Canada (7 %), et de même niveau que pour les hommes (mêmes taux, soit 6 et 7 %) chez les femmes sans enfants (barres roses), il est beaucoup plus faible au Québec (17 %) qu’au Canada (28 %) et que dans toutes les autres provinces (variant de 24 à 33 %) chez les femmes avec enfants (barres rouges). En fait, comme le taux du Québec fait baisser le taux canadien, l’écart de 11 points minimise cette différence qui atteindrait 14 points si on comparait le taux québécois à celui du reste du Canada (17 % par rapport à 31 %, en supposant que les mères québécoises représentent 23 % des mères canadiennes de cette tranche d’âge). En fait, cet écart explique presque à lui seul le fait que le taux NEET global des jeunes âgé.es de 25 à 29 ans soit plus faible au Québec que dans le reste du Canada.

Comme le dit l’auteure, «Il y aurait un lien entre la forte proportion des femmes NEET inactives entre 25 à 29 ans et la maternité (…). Les politiques familiales avantageuses du Québec [frais de garde d’enfants de loin les plus faibles au Québec et Régime québécois d’assurance parentale] ont possiblement un lien avec le fait que l’on observe le plus petit écart entre ces deux groupes de femmes dans cette province. En effet, des frais de garde abordables et une implication accrue des pères envers leurs enfants sont susceptibles d’encourager les jeunes mères à intégrer le marché du travail» ou à y demeurer (l’auteure précise que les femmes en congé de maternité sont considérées en emploi). J’ai consacré de nombreux billets sur les effets positifs des services de garde à contribution réduite sur la présence des femmes sur le marché du travail (voir celui-ci, par exemple), mais je n’ai jamais pensé à utiliser cette statistique sur les NEET pour ajouter un argument à ceux déjà très convaincants qui appuient cette observation.

Selon la scolarité

Le graphique qui suit compare les taux NEET selon le plus haut niveau de scolarité atteint, chez les hommes et les femmes, et selon le type, soit le chômage et l’inactivité.

Si le taux NEET dû au chômage diminue légèrement avec le niveau de scolarité atteint aussi bien pour les femmes (barres roses) et que pour les hommes (barres bleu pâle), le taux NEET dû à l’inactivité chute littéralement passant de 26 % pour les hommes (barres bleu foncé) ayant moins qu’un diplôme d’études secondaires (DES) à 3 % pour ceux ayant une maîtrise ou un doctorat, et de 49 % à 6 % pour les femmes (barres rouges) des mêmes niveaux de scolarité atteints. Sans surprise, ce phénomène s’observe dans toutes les provinces avec des ampleurs un peu différentes. Au Québec, les taux NEET globaux sont plus faibles que la moyenne canadienne chez les diplômé.es universitaires (5 % par rapport à 9 %).

Qui se ressemble s’assemble

Le graphique suivant présente l’activité des répondant.es selon celle de leur conjoint.e.

Ce graphique nous montre que :

  • les répondant.es qui sont aux études ont plus souvent un.e conjoint.e qui est aux études (20 %, barres rouges) que les répondant.es qui ont un conjoint.e qui est en emploi (8 %) ou qui est NEET (8 %);
  • les répondant.es qui sont en emploi (ou «pas aux études, actifs occupés» dans le graphique) ont plus souvent un.e conjoint.e qui est en emploi (82 %, barres bleues) que les répondant.es qui ont un conjoint.e qui est aux études (73 %) ou qui est NEET (74 %);
  • les répondant.es qui sont NEET ont plus souvent un.e conjoint.e qui est NEET (18 %, barres vertes) que les répondant.es qui ont un conjoint.e qui est aux études (7 %) ou qui est en emploi (9 %).

L’auteure conclut que «même si la majorité de leurs conjoints sont des actifs occupés, les jeunes NEET sont plus susceptibles que les jeunes en emploi qui ont terminé leurs études ou encore que les étudiants d’avoir un conjoint également dans la catégorie NEET». Cette forme d’homogamie a pour effet de fragiliser encore plus les conditions de vie de ces ménages. Finalement, elle souligne que, pour compléter cette étude, il serait bon de consacrer de futures recherches à l’analyse des raisons derrière l’inactivité des NEET. Il serait par exemple intéressant de savoir quelle est la proportion des NEET qui sont inactif.ives volontairement et involontairement, de mieux comprendre et évaluer le rôle des politiques familiales sur le taux de NEET dû à l’inactivité des femmes avec enfants, et d’estimer l’impact sur le taux de NEET des «mesures incitatives encourageant les jeunes à décrocher leur diplôme d’études secondaires et à poursuivre des études postsecondaires».

Et alors…

En commençant à lire ce feuillet, je ne pensais pas lui consacrer un billet, vu que j’avais déjà présenté l’indicateur NEET dans de précédents textes (dont un sur le blogue de l’IRIS en 2012 et un autre ici en 2013). Par contre, quand j’ai constaté qu’aucun média n’en avait parlé et surtout que ce feuillet contenait une autre donnée convergente sur le rôle des services de garde à contribution réduite sur la situation des femmes sur le marché du travail, je n’ai pas pu résister! En plus, en se concentrant sur les jeunes âgé.es de 25 à 29 ans, l’analyse de ce feuillet permet d’examiner la dynamique des NEET d’un angle plus axé sur l’emploi que sur les études, alors que ce n’est pas le cas quand on analyse cette question chez les jeunes âgé.es de 20 à 24 ans et surtout de 15 à 19 ans, ou même chez l’ensemble des jeunes âgé.es de 15 à 29 ans. Bref, j’ai eu une bonne surprise en le lisant et j’ai trouvé pertinent de la partager!

Publicités

Détournement d’État

15 octobre 2018

Avec Détournement d’État – Bilan de quinze ans de gouvernement libéral, Guillaume Hébert et Julia Posca «rappellent à notre mémoire les grandes figures du règne libéral (Jean Charest, Monique Jérôme-Forget, Raymond Bachand, Nathalie Normandeau, Tony Tomassi, Philippe Couillard, etc.) et peignent un tableau réaliste de la révolution (néo)libérale qu’a connue le Québec».

Introduction. De Charest… : Si, au cours du XXe siècle, «les politiques du PLQ ont contribué à changer en profondeur le visage du Québec moderne», depuis 15 ans, «il a pris une tout autre direction que celle choisie par la fameuse «équipe du tonnerre» de Jean Lesage dans les années 1960. Au terme de ce cycle, un bilan s’impose». Les auteur.es présentent ensuite quelques options pour situer le virage néolibéral au Québec, puis expliquent leur choix de se concentrer sur les 15 dernières années et le sens donné dans ce livre au terme «néolibéral».

1. Jérôme-Forget : Le retour les libéraux au pouvoir en 2003 est marqué par la «réingénierie de l’État», par la réduction de sa taille. Cette réingénierie s’est manifestée par :

  • le remplacement d’un fonctionnaire sur deux (à la suite d’une retraite, d’un décès ou d’un départ);
  • la signature de nombreux projets en partenariat public-privé (PPP);
  • la promotion et la croissance de la sous-traitance.

Et, bien sûr, toutes ces décisions ont été inefficace et ont coûté très cher à l’État, donc à nous.

2. Bachand : Le passage de Raymond Bachand au poste de ministre des Finances s’est distingué par sa révolution culturelle (ou tarifaire) qui s’est traduite par l’augmentation de nombreux tarifs et de la taxe de ventes (de 7,5 à 9,5 %) et surtout par la création d’une taxe santé de 200 $ par contribuable, peu importe son revenu (à partir d’un seuil très faible), trois mesures fortement régressives (surtout la dernière).

3. Leitão : Ce chapitre débute en montrant des effets concrets sur des personnes des compressions libérales en santé mentale depuis l’arrivée au pouvoir de Philippe Couillard. Les auteur.es présentent ensuite une courte bio de Carlos Leitão et les tentatives de ce gouvernement pour noircir la situation financière du Québec pour ainsi justifier leur programme de réduction de la taille de l’État, puis analysent les principales compressions effectuées par ce gouvernement, compressions qui ont touché en premier lieu les plus vulnérables de la société, selon un rapport de la Protectrice du citoyen.

4. Couillard : Après une courte bio de Philippe Couillard dans laquelle on constate ses liens étroits avec le secteur privé et avec deux fraudeurs notoires, les auteur.es montrent en décrivant plusieurs de ses décisions qu’il est un grand promoteur du libéralisme économique et politique, et concluent : «À partir de 2014, le gouvernement dirigé par Philippe Couillard non seulement ne tient plus compte de l’opposition des mouvements sociaux aux politiques d’austérité et aux reculs sociaux considérables, mais il accélère la reconfiguration de l’État en faveur d’une gouvernance entrepreneuriale qui élimine une à une les instances de participation démocratique».

5. Chagnon : Après un exemple des conséquences déplorables de la mise en concurrence d’organismes communautaires due à la fin de subventions provenant de la Fondation Lucie et André Chagnon, les auteur.es montrent que les «fondations forment quasiment un nouvel État dans l’État» et avancent qu’à ce chapitre, «la place occupée par la Fondation Lucie et André Chagnon est exemplaire». C’est donc cette place ainsi que l’évolution du mouvement communautaire et du philanthrocapitalisme qui seront l’objet de ce chapitre.

6. Beaudoin : Pas de bio, cette fois! Ce chapitre décrit les nombreuses interventions gouvernementales (prêts sans intérêts, investissements, subventions, etc.) pour aider les entreprises de la famille Beaudoin-Bombardier depuis 2003, surtout dans Bombardier, mais aussi dans la cimenterie McInnis. J’aurais aimé que les auteur.es parlent aussi des débuts de Bombardier aéronautique par l’achat de la société de la couronne Canadair en 1986, mais, comme ce livre porte sur les 15 ans au pouvoir du parti libéral, il est normal que cet épisode n’ait pas été abordé. Les auteur.es se penchent ensuite sur l’influence sur les gouvernements libéraux des familles Péladeau et Desmarais, ainsi que de celle des fédérations de médecins.

7. Normandeau : Les ambitions de la première version du Plan Nord de Jean Charest étaient énormes. Elle ne se sont jamais réalisées. Les auteur.es décrivent le secteur minier au Québec et montrent à quel point son niveau d’activité dépend de l’évolution des prix des métaux (qui varient énormément, parfois d’une année à l’autre). Suivent ensuite une série de mauvaises décisions, aussi bien sur le plan économique qu’environnemental, dans les secteurs hydroélectrique (la construction du complexe de la Romaine) et des hydrocarbures (gaz de schiste), la plupart prises lors du passage de Nathalie Normandeau à la tête du ministère des Ressources naturelles (de juin 2009 à septembre 2011), époque particulièrement marquée par les nombreuses portes tournantes dans ces secteurs pour des ami.es du parti libéral.

8. Tomassi : Après une courte bio de Tony Tomassi, les auteur.es racontent ses aventures peu glorieuses lorsqu’il fut ministre de la Famille de 2008 à 2010, aventures tellement bien pourvues de magouilles de toutes sortes que son chef le congédia et qu’il termina son mandat comme député indépendant. Les auteur.es décrivent ensuite de nombreux autres cas de corruption impliquant des ministres libéraux.ales, et montre que la diminution du personnel compétent dans les ministères (notamment dans celui des Transports) ainsi que les passages fréquents du service public au secteur privé sont susceptibles «de générer des conflits d’intérêt» et de créer «un terreau fertile à la corruption». Les auteur.es concluent ce chapitre en soulignant que le «sens de la chose publique, [le] soucis des intérêts collectifs, la capacité d’en débattre, d’en distinguer les différents aspects, rien ne semble avoir été plus mis à mal que ces aptitudes en quinze années de règne libéral. Telle est sans doute la plus terrible des corruptions, dont les enveloppes brunes, les campagnes de financement obscures, le commerce illicite des garderies, des hôpitaux, des routes et des infrastructures en tout genre ne sont que les symptômes les plus douloureux. Les causes d’une telle dégradation sont sans doute complexes, mais le tout-au-privé des politiques néolibérales n’est assurément pas la moindre d’entre elles».

Conclusion. … à Legault : Les auteur.es résument l’impact de la présence des libéraux au pouvoir depuis 2003 et s’inquiètent que leurs remplaçants, si jamais c’était des caquistes, ne fassent pas que poursuivre cette tendance, mais l’empire. Malheureusement, cette inquiétude était justifiée…

Et alors…

Lire ou ne pas lire? Lire! Ce qui m’a le plus impressionné dans ce livre, c’est la qualité de la recherche, l’exhaustivité des faits rapportés. Il se lit comme se boit du petit lait. Même si on connaît la plupart des faits mentionnés, le fait de les regrouper dans des chapitres thématiques permet de mieux visualiser l’impact complet des décisions des gouvernements du PLQ qui ne seraient pas aussi dommageables si elles n’étaient pas si nombreuses et si elles ne touchaient pas autant de secteurs de la politique, de la société et de l’économie. Et, les notes sont en bas de page. Bravo!

Où le vote de Québec solidaire s’est-il le plus amélioré?

12 octobre 2018

Le nombre de personnes qui ont voté pour Québec solidaire a plus que doublé (hausse de 101 %) entre les élections de 2014 et 2018, passant de 323 124 à 649 488. Mais comme le taux de participation a diminué, le pourcentage de votes pour QS a connu une hausse un peu plus élevée, soit de 111 % (de 7,6 à 16,1 %). Cette hausse ne s’est bien sûr pas répartie également entre les circonscriptions et les régions. Je vais ici tenter de déterminer dans quelles circonscriptions, dans quelles régions et dans quels types de régions le vote a le plus et le moins augmenté. Je reprends ici le modèle que j’avais utilisé en 2012 et en 2014.

Dans l’ensemble

Comme les taux de participation peuvent avoir changé de façon significative entre 2014 et 2018 dans chaque circonscription, je trouve préférable de comparer les taux de vote pour QS plutôt que les changements en nombre de votes. Comme la carte de certaines circonscriptions a été modifiée et que deux d’entre elles n’existaient pas en 2014, je ne vais pouvoir comparer que 123 des 125 circonscriptions. En fait, le pourcentage de vote pour QS a augmenté dans les 123 circonscriptions dont les résultats sont comparables. On peut même affirmer qu’il a augmenté dans les 125 circonscriptions, car les taux obtenus dans les deux nouvelles circonscriptions (14,0 % dans Prévost et 13,9 % dans Les Plaines) sont supérieurs à ceux obtenus dans les circonscriptions de leur région en 2014.

Les 10 circonscriptions où le vote pour QS a le plus augmenté en points de pourcentage sont :

  • Taschereau, avec une hausse de 27,2 points de pourcentage;
  • Jean-Lesage, 23,1 points;
  • Sherbrooke, 21,3 points;
  • Rouyn-Noranda-Témiscamingue, 20,5 points;
  • Laurier-Dorion, 19,6 points;
  • Hochelaga-Maisonneuve, 19,5 points;
  • Sainte-Marie-Saint-Jacques. 18,7 points
  • Rosemont, 16,6 points
  • Saint-François, 14,6 points;
  • Verdun, 14,3 points.

En fait, la hausse fut supérieure à 10 points de pourcentage dans 29 circonscriptions. Il est remarquable de constater que les quatre circonscriptions où la hausse fut la plus forte sont à l’extérieur de Montréal et que, dans les six premières, cette hausse a permis l’élection de nouveaux et nouvelles député.es (ce qui est aussi le cas de celle qui a eu la huitième hausse la plus importante). Par région administrative, ces gains se sont concrétisés à Montréal dans cinq cas, à Québec (2), en Estrie (2) et en Abitibi-Témiscamingue (1). Le meilleur résultat fut observé dans Gouin (59,1 %) et le moins bon dans Robert-Baldwin (4,3 %, ce qui est quand même plus du double du 1,9 % de 2014).

Par grandes régions

Comme les sondages donnent toujours des résultats par grandes régions, j’ai cru bon de regarder aussi la progression du vote de cette façon. Notons qu’un certain nombre de circonscriptions chevauchent ces régions, mais j’ai fait de mon mieux pour les attribuer à la région où le plus grand nombre de personnes habitent.

Compte tenu de la provenance des deux circonscriptions où le vote a le plus augmenté, on ne sera pas étonné de constater que ce soit dans la région métropolitaine de recensement de Québec (RMR-Québec) que la hausse la plus importante du vote à QS s’est observée entre les élections de 2014 et de 2018, soit une hausse de 10,3 points. Cela dit, reflet de l’amélioration du vote dans les 125 circonscriptions, cette hausse fut à peine moins élevée dans la région métropolitaine de recensement de Montréal (RMR-Montréal) avec 8,5 points et dans le reste du Québec avec 8,2 points de pourcentage. En fait, ces deux hausses sont très près de la moyenne de 8,5 points, et la plus élevée moins de deux points au-dessus de cette moyenne. En pourcentage, la hausse fut d’assez loin la plus élevée dans la RMR de Québec (163 %), fut aussi plus élevée que la moyenne (111 %) dans le reste du Québec (128 %) et fut la plus basse dans la RMR de Montréal, avec tout de même une hausse de 94 %. Notons que même si la hausse en pourcentage fut la moins élevée dans la région de Montréal, cette région demeure celle qui obtient l’appui le plus fort (17,6 %), mais est maintenant talonnée par la région de Québec (16,6 %) et le reste du Québec n’est pas vraiment en reste avec ses 14,5 %, taux qui est près du double (plus élevé de 86 %) de la moyenne nationale de 2014 (7,6 %).

Par type de circonscription

J’ai voulu aussi examiner la progression par type de circonscription, urbaines, de banlieues (de Montréal et Québec) et autres. Pour favoriser des résultats vraiment représentatifs pour les circonscriptions urbaines et de banlieues, j’ai compilé les circonscriptions mixtes (à la fois urbaines, de banlieue et autres) avec les circonscriptions du reste du Québec et celles des extrémités de l’île de Montréal avec les banlieues. En fait, hors de Montréal et de Québec, je n’ai pu retenir dans les «villes» que neuf circonscriptions, soit Chapleau, Chicoutimi, Granby, Hull, Joliette, Jonquière, Saint-Jean, Sherbrooke et Trois-Rivières.

Alors qu’entre 2012 et 2014, les hausses les plus importantes se sont produites dans les circonscriptions hors des villes et dans celles des banlieues, entre 2014 et 2018 c’est dans les villes que la hausse en points de pourcentage fut la plus élevée (10,7 points) et dans les banlieues qu’elle fut la plus basse (7,2 points), alors qu’elle fut près de la moyenne (8,5 points) dans les autres circonscriptions (8,0 points). C’est toutefois ces deux types de circonscriptions qui ont connu les hausses les plus élevées en pourcentage, soit 128 % chacune, alors que cette hausse fut toute de même de 92 % dans les villes, elles qui partaient avec un niveau plus de deux fois plus élevé que dans les banlieues et environ 85 % plus élevé que dans les autres circonscriptions. La plus grande popularité de QS dans les villes, avec 22,2 % du vote, par rapport à 12,9 % dans les banlieues (ce qui est quand même plus élevé que le pourcentage du vote dans les villes en 2014, soit 11,5 %) et à 14,2 % dans les autres circonscriptions, résultat pas étonnant quand on sait que les 10 député.es de QS l’ont emporté dans de telles circonscriptions, est certainement le constat le plus flagrant de cette analyse des résultats. Cela dit, l’écart en pourcentage entre ces circonscriptions et celles des banlieues et les autres circonscriptions s’est réduit de façon notable, passant de 104 à 72 % entre les villes et les banlieues et de 85 à 56 % entre les villes et le reste du Québec.

Dans les villes

Finalement, comme c’est clairement dans les milieux urbains que QS est le plus populaire en termes de pourcentage du vote, je me suis dit qu’il serait intéressant de regarder de plus près la situation dans ces milieux. J’ai donc regroupé les villes en fonction des trois grandes régions.

On voit ici aussi que la hausse des appuis de QS s’est davantage concentrée à Québec, tant en points de pourcentage (13,3) qu’en pourcentage (164 %), ce qui explique l’élection de deux député.es dans les circonscriptions de cette ville (Taschereau et Jean-Lesage). Montréal arrive au deuxième rang en points de pourcentage (10,9), mais au dernier rang en pourcentage (79 %), en raison de son niveau de départ environ 70 % plus élevé qu’à Québec et 80 % plus élevé que dans le reste du Québec. Cette hausse tout de même importante a permis de doubler la députation de QS dans cette ville (de 3 à 6) et de s’approcher du pouvoir dans quelques-unes (par exemple, à un peu plus de 500 voix dans Maurice-Richard et à un tout petit peu plus de 1000 voix dans Bourget, malgré son troisième rang). Dans le reste du Québec, la hausse en points de pourcentage fut la plus basse (mais de tout de même 8,7 points) mais fut supérieure à la moyenne (92 %) en pourcentage (112 %), ce qui a permis l’élection d’une députée dans Sherbrooke. Notons que j’ai compilé les résultats de Rouyn-Noranda-Témiscamingue, où QS a fait élire sa candidate, dans le reste du Québec (et non dans les villes), cette circonscription immense étant mixte (j’ai même remarqué qu’une partie de la ville Rouyn-Noranda fait partie de la circonscription d’Abitibi-Est, à la suite de la fusion de 13 municipalités en 2002 – en plus de celle entre Rouyn et Noranda en 1986 – pour former cette ville très étendue).

On se rappellera peut-être que le pourcentage du vote pour QS dans Montréal a quasiment stagné entre 2012 et 2014 (hausse de seulement 3 %) et que, comme cet appui avait même diminué dans les circonscriptions qui comptaient des fortes proportions d’anglophones et d’allophones, j’avais émis l’hypothèse que cette stagnation était en grande partie due à l’intention du PQ d’adopter la charte des supposées valeurs québécoises, ce qui avait favorisé le vote stratégique pour le PLQ (QS avait probablement perdu dans Laurier-Dorion pour cette raison). Comme cet enjeu était absent cette année, le vote pour QS dans Montréal a repris de la vigueur et celui pour le PLQ a diminué de façon importante.

Et alors…

Lorsque j’ai fait cet exercice en 2012, les gains de QS étaient fortement concentrés dans la RMR de Montréal et encore plus dans l’Île de Montréal. En 2014, c’est le reste du Québec, surtout ses villes (dont Rimouski, qui avait connu la plus forte hausse des 125 circonscriptions), qui s’était démarqué. En 2018, comme le vote a augmenté dans les 125 circonscriptions et que les hausses ont été substantielles dans les neuf regroupements que j’ai analysés ici, on peut dire que c’est l’ensemble du Québec qui fut le grand gagnant!

La plus grande répartition du vote de QS que par le passé a peut-être ralenti un peu la progression du nombre de député.es, quoiqu’avec l’élection de sept nouveaux et nouvelles député.es, il est difficile de se plaindre, mais, comme je le mentionnais dans les deux précédents billets, les gains dans l’ensemble des régions du Québec sont plus prometteurs à moyen et long termes qu’un ajout à court terme d’un.e ou deux député.es grâce à une plus grande concentration du vote. Souhaitons que l’adoption du scrutin proportionnel mette fin à ce (faux?) dilemme lors des prochaines élections! Chose certaine, les idées de QS font maintenant partie du débat public dans toutes les régions du Québec, même si c’est encore dans l’île de Montréal qu’elles trouvent encore le plus fort appui.

Bien des facteurs peuvent expliquer cette croissance généralisée dans toutes les régions du Québec. Il y en a selon moi bien trop pour les analyser rapidement ici. Je laisse donc ce débat ouvert. Réjouissons-nous et retroussons-nous les manches pour que cette tendance se poursuive et gagne même en ampleur en 2022!

Peut-on faire confiance aux économistes?

8 octobre 2018

Dans son livre Peut-on faire confiance aux économistes? : réussites et échecs de la science économique, Dani Rodrik «examine, en éminent critique du dedans, la science économique dans ses moments de performance comme d’impuissance, pour donner de la discipline un portrait étonnamment optimiste». Optimisme justifié?

Préface : L’auteur raconte les événements qui l’ont amené à écrire ce livre, qui vise à montrer aux détracteur.trices de la science économique qu’elle n’est pas aussi unidimensionnelle qu’ils et elles le pensent, et aux économistes qu’ils auraient intérêt à mieux tenir compte des autres sciences sociales dans leurs travaux et à ne pas prendre leur modèle préféré pour la réalité.

Introduction – Du bon et du mauvais usage des concepts économiques : L’auteur présente quelques bons et mauvais coups des économistes au cours du dernier siècle et annonce qu’il expliquera dans le reste du livre les raisons de ces succès et de ces échecs, en insistant sur l’importance de varier l’utilisation des modèles en fonction de la situation. Dans son esprit l’expression «science économique» est fortement associée aux méthodes utilisées par les économistes, notamment aux outils (dont les modèles) qui peuvent aussi servir dans d’autres domaines, «des décisions familiales aux questions portant sur les institutions politiques».

1. À quoi servent les modèles? : L’auteur répond ainsi à la question du titre de ce chapitre : «Lorsque les modèles sont choisis judicieusement, ils sont source d’éclairage. Utilisés dogmatiquement, ils mènent à la démesure et à l’erreur en matière de politiques». Il compare les modèles à une simplification de la réalité et même à des fables. La morale de ces fables est-elle bonne? Dans le cas des modèles, ça dépend en grande partie de la pertinence de leurs hypothèses, qui peuvent appliquer une bonne morale dans certains contextes, mais pas dans d’autres. Il précise qu’une expérience qui a fonctionné dans un pays ne fonctionnera pas nécessairement dans un autre pays (j’ajouterai qu’elle pourrait ne pas fonctionner dans le même pays quelques années plus tard).

Il aborde ensuite l’importance du réalisme des hypothèses. Il avance que ce réalisme n’est important que pour ce qu’il appelle les hypothèses critiques, soit celles qui influencent directement les résultats. Par exemple, le niveau moindre de rationalité des consommateurs que ne le prétendent les hypothèses économiques n’empêche pas une hausse de prix de faire diminuer la consommation d’un produit. Je dirais plutôt que le réalisme d’une hypothèse est toujours important, mais encore plus quand une hypothèse est critique, car on ne sait pas quand le manque de rationalité influencera un résultat; les publicitaires savent ça depuis longtemps! Par exemple, si on ne tient pas compte de l’aversion à la perte ou de la priorité que les humains accordent au présent, deux comportements non rationnels, on se trompera dans l’analyse d’un grand nombre de phénomènes sociaux et économiques. Le manque de rationalité explique aussi que les hausses récentes du prix de l’essence n’ont pas fait diminuer sa consommation (surtout dans un contexte de réchauffement climatique comme maintenant, pour lequel le manque d’actions pour le contrer s’explique aussi en partie par la préférence au présent).

Il aborde ensuite l’utilisation des mathématiques en soulignant à la fois leur contribution essentielle et les dangers qu’ils apportent de perdre de vue l’objectif de leur utilisation (faire des maths pour faire des maths). Il conclut ce chapitre en faisant l’éloge de la simplicité des modèles.

2. La modélisation économique est une science : ! Je ne sais que dire… Confondre un outil avec l’objet d’une science, ça me dépasse. L’économie est bien sûr une science, mais elle le serait aussi sans modèle. Cela l’appauvrirait sûrement, mais elle demeurerait une science sociale. L’auteur donne de nombreux exemples de modèles qui ont permis de contredire des intuitions initiales, notamment au sujet des effets du commerce international, de l’immigration et de la consommation, tout en précisant encore une fois (on ne le dira jamais assez) que ces effets peuvent varier selon les lieux et les circonstances. Même si j’ai certaines réserves et que je n’aime pas son titre, ce chapitre est instructif et de très bonne tenue.

3. Se frayer un chemin parmi les modèles : Après avoir donné d’autres exemples de l’importance de bien choisir un modèle, l’auteur présente quatre stratégies de vérification pour sélectionner des modèles, puis donne des exemples de leur application :

  • vérifier les hypothèses critiques des modèles;
  • vérifier si les mécanismes postulés dans ces modèles sont bien à l’œuvre en réalité;
  • vérifier si les implications directes des modèles sont confirmées;
  • vérifier si les implications secondaires, les retombées indirectes des modèles, sont cohérentes avec les résultats observés.

4. Modèles et théories : Comme le titre du chapitre l’indique, l’auteur y présente les différences entre des modèles et des théories. En gros, les modèles tentent d’expliquer des phénomènes spécifiques (quoique certains ont des ambitions plus grandes), tandis que les théories visent à expliquer l’ensemble des phénomènes économiques. À ce sujet, l’auteur avance que «les théories universelles sont impossibles à formuler en sciences sociales, (…) le mieux qu’on puisse faire est de trouver un ensemble d’explications circonstancielles». Je suis tout à fait d’accord. Il poursuit en montrant qu’aucune théorie générale n’est jamais parvenue à refléter vraiment la réalité économique dans son ensemble.

5. Quand les économistes se plantent : L’auteur présente une série d’affirmations qui reçoivent un appui de plus de 80 % des économistes et montre que la réponse à la plupart d’entre elles aurait dû être «ça dépend». Il s’attarde ensuite sur deux des thèses les plus partagées par les économistes, thèses qui se révèlent en fait carrément fausses, soit l’hypothèse de l’efficience des marchés financiers contredite de front par la crise financière (et ensuite économique) commencée en 2008 et le consensus de Washington, à la source des désastreux programmes d’ajustement structurel (y compris, même si implantée par après, la libre circulation des capitaux). L’auteur avance ensuite une explication sur les raisons qui amènent les économistes à faire de telles erreurs, explication qu’il a reprise plus tard dans un texte que j’ai présenté dans ce billet.

6. La science économique et ses critiques : L’auteur présente un grand nombre de critiques faites aux économistes, certaines justifiées, d’autres moins ou pas du tout. Il analyse plus à fond deux de ces critiques, soit celles qui reprochent à la science économique de «foisonner de jugements de valeur» en faveur «d’une société basée sur les marchés» et de décourager le pluralisme et d’être «hostile aux approches et idées nouvelles». Même si j’ai des réserves sur certaines parties de ses analyses, il demeure que ses arguments sont intéressants et qu’ils font réfléchir. Par contre, sur le deuxième sujet, il insiste beaucoup sur les avancées pluralistes récentes de la discipline, ce qui est vrai, mais passe vite sur les reproches des étudiant.es en économie sur le manque de pluralisme dans l’enseignement de cette discipline, reproches selon moi tout à fait justifiés.

Épilogue – Les vingt commandements : L’auteur résume son livre avec dix recommandations aux économistes et dix autres aux non-économistes. Elles sont dans l’ensemble pertinentes, mais j’ai le goût d’en commenter une : «Les économistes ne vénèrent pas (tous) les marchés, mais ils en connaissent mieux que vous le fonctionnement».

Pour moi, cette phrase résume parfaitement mes réserves avec le contenu de ce livre. Tout d’abord, je déteste lire une affirmation sur «les économistes». Pourtant, l’auteur a mentionné à plusieurs reprises que les économistes n’ont pas tous et toutes la même perception de l’économie et des marchés. Ensuite, bien des économistes voient les marchés comme la panacée à tous les problèmes et sont incapables d’imaginer que des interventions qui ne concernent pas les marchés puissent être efficaces. Par exemple, quand il a parlé des questions environnementales, l’auteur a mis en opposition les taxes sur le carbone (y compris les marchés du carbone) avec les sentiments moraux de la population et des sociétés. Il lui était facile de conclure que les taxes sur le carbone sont plus efficaces de façon empirique. Mais jamais il n’a pensé de comparer sa solution avec des mesures réglementaires. Pourtant, c’est avec des mesures réglementaires qu’on s’est débarrassé du DDT et des CFC, ce qu’aucune taxe ou aucun marché du carbone n’auraient pu faire (à moins de l’adopter à un niveau tel qu’elle équivaudrait à une interdiction)! Bref, il aurait dû conserver son message habituel, soit que les solutions doivent être adaptées à la nature des problèmes.

Et alors…

Lire ou ne pas lire? Lire! J’ai vraiment apprécié lire un auteur qui ne pense pas comme moi! Loin des horreurs des auteurs néolibéraux qui ne peuvent que nous faire rager, ce livre nous fait réfléchir. Il est aussi loin des livres qui ne font que confirmer nos convictions. Bref, la lecture de ce livre est saine. En plus, l’auteur écrit bien et sait rendre ses idées de façon claire. Je reproche toutefois à ce livre ses trop nombreuses coquilles et quelques erreurs de traductions (par exemple, attentes rationnelles au lieu d’anticipations rationnelles). Les notes explicatives sont en bas de pages et celles sur les références en fin de livre, ce qui me convient très bien. Moi qui n’avais aucune attente envers ce livre et même qui craignais de regretter de me l’être procuré ai été agréablement surpris par sa pertinence. Personnellement, je réponds souvent comme l’auteur quand on me pose une question sur l’économie et, en plus, répondrai de la même façon à celle que j’ai posée en amorce de ce billet (optimisme justifié?), ça dépend!

Hausser l’impôt des mieux nantis rapporte-t-il?

6 octobre 2018

Dans une chronique publiée dans le Devoir samedi dernier, on pouvait lire en titre que «Hausser l’impôt des mieux nantis ne rapporte pas». Cette chronique portait sur une étude de l’Institut CD Howe signée par Alexandre Laurin, parue deux jours plus tôt et intitulée Unhappy Returns: A Preliminary Estimate of Taxpayer Responsiveness to the 2016 Top Tax Rate Hike (Des déclarations malheureuses : une estimation préliminaire des changements de comportements des contribuables dus à la hausse du taux d’imposition maximal en 2016). Cette hausse a porté de 29 à 33 % le taux d’imposition maximal des contribuables déclarant 200 000 $ et plus de revenus imposables, ou de 24,2 à 27,6 % pour les contribuables du Québec, en tenant compte de l’«abattement du Québec remboursable» de 16,5 %.

Notons tout d’abord que le titre de cette chronique est inexact, car on peut y lire que «la hausse du taux d’imposition n’a rapporté que le tiers des revenus fiscaux qu’aurait perçus Ottawa si ces contribuables avaient absorbé le choc sans modifier leur comportement». On aurait dû alors dire qu’une telle hausse rapporte beaucoup moins que prévu, mais il est faux de prétendre que cette étude conclut qu’elle ne rapporte rien. Mais, cela n’est pas le plus important. Je vais ici présenter cette étude. expliquer comment l’auteur est arrivé à ses résultats et pourquoi ceux-ci sont erronés, et conclure que son étude est prématurée.

L’étude

L’auteur mentionne l’annonce faite par l’Agence du revenu du Canada (ARC) quelques jours avant la parution de cette étude sur une baisse de 4,6 milliards $ des impôts payés en 2016 par les contribuables ayant gagné 140 000 $ et plus (voir cet article du Globe and Mail). L’auteur explique qu’il utilisera les statistiques fiscales préliminaires des particuliers de 2016 publiées par l’ARC pour analyser les changements de comportements des contribuables gagnant au moins 250 000 $ par année en raison de la hausse de quatre points de pourcentage du taux d’imposition maximal mentionnée en amorce. Les changements de comportements attendus sont une baisse des heures de travail et d’autres façons de payer moins d’impôts. La mesure de l’effet de ces changements de comportements est appelée en économie l’«élasticité du revenu imposable» (ÉRI). Par exemple, une élasticité de 0,2 signifie qu’une baisse de 10 % du revenu laissé aux contribuables entraînerait une baisse de 2 % des revenus déclarés.

Estimation de l’élasticité du revenu imposable

Selon les statistiques fiscales préliminaires, les contribuables ayant gagné 250 000 $ et plus en 2016 ont payé 26,3 milliards $ en impôts, soit 6,8 milliards $ de moins qu’en 2015 (33,1 milliards $). Pour calculer l’ÉRI, il faut estimer la proportion de cette baisse qui est attribuable aux changements de comportements dus à la hausse du taux d’imposition maximal, ce qui n’est pas une mince tâche. En effet, cette baisse peut être due à différents facteurs, dont la situation économique, la baisse du taux d’imposition du deuxième palier (de 22,0 à 20,5 %) la même année et le devancement de la déclaration de certains revenus avant que la hausse du taux d’imposition entre en vigueur.

Pour distinguer l’effet comportemental des autres facteurs, l’auteur compare dans les graphiques qui suivent l’évolution de quelques catégories de revenus chez les contribuables gagnant entre 100 000 $ et 250 000 $, dont la grande majorité ne sont pas touchés par la hausse du taux d’imposition maximal, à cette évolution chez les contribuables gagnant 250 000 $ et plus.

On peut voir dans le graphique de gauche que le niveau de déclaration moyen de gains en capital, de dividendes et de revenus de travail est demeuré bien stable de 2012 à 2016 chez les contribuables gagnant entre 100 000 $ et 250 000 $, mais, dans le graphique de droite, que les dividendes moyens déclarés (ligne en pointillés gris) et le revenu moyen total (ligne continue bleue) ont augmenté fortement en 2015 avant de diminuer encore plus en 2016, d’autant plus que les revenus moyens de travail (ligne continue verdâtre) ont aussi diminué en 2016. Ces mouvements s’expliquent surtout par le fait que les riches peuvent souvent décider quand toucher un revenu, notamment des dividendes, mais aussi, dans une moindre mesure, les revenus de travail. Je suis d’ailleurs surpris qu’on n’observe pas le même phénomène avec les gains en capital, car les riches actionnaires auraient bien pu réaliser quelques profits supplémentaires en 2015 pour éviter la hausse d’impôt de 2016 et des années suivantes. Ce genre de phénomène s’observe toutes les fois qu’il y a des changements dans le taux d’imposition maximal, que ce soit au Royaume-Uni (dont parle l’auteur) ou aux États-Unis (dont j’ai parlé l’an dernier).

Pour distinguer l’impact de ce devancement de revenus de celui des changements de comportements, l’auteur, comme d’autres chercheur.es, tente d’estimer un niveau de revenus contrefactuel, qui correspond aux revenus que ces contribuables auraient déclarés sans devancement et avec une conjoncture économique stable (en se basant sur l’évolution des revenus des contribuables gagnant entre 100 000 $ et 250 000 $). Le graphique ci-contre illustre les résultats de cette estimation.

Le niveau de revenu contrefactuel est représenté par la ligne verdâtre avec une légère hausse en 2015 et une baisse presque équivalente en 2016. Il faut ici tenir compte du fait que ce graphique représente les revenus totaux des contribuables gagnant 250 000 $ et plus, et non pas leur revenu moyen, comme dans les graphiques précédents. La ligne bleue, de son côté, montre l’évolution des revenus totaux selon les statistiques fiscales. L’auteur attribue la différence entre le niveau de revenu réel et le contrefactuel au devancement de revenus illustré par la flèche bidirectionnelle noire (qui correspond à un devancement de revenus de 20,6 milliards $). Ensuite, se fiant aux hypothèses retenues dans l’étude du Royaume-Uni, il attribue les deux tiers de ce devancement à l’année 2016 (le reste devant se réaliser les années suivantes), ce qui est représenté par la flèche bidirectionnelle du haut pour 2016 (13,7 milliards $, soit bien les deux tiers des 20,6 milliards devancés en 2015). La différence entre le bas de cette flèche et le revenu réel total de 2016 (soit 5,6 milliards $) représente l’effet de l’ÉRI qu’il établit ainsi à 0,56, ce qui signifie qu’une baisse de 10 % du revenu laissé aux contribuables entraînerait une baisse de 5,6 % des revenus déclarés par ces contribuables. C’est énorme.

L’auteur reconnaît que ce calcul repose sur de nombreuses hypothèses. Il utilise alors huit autres scénarios (pour un total de neuf) pour estimer le revenu contrefactuel (10 % de moins, tendance égale et 10 % de plus que la tendance observée chez les contribuables gagnant entre 100 000 $ et 250 000 $) et la part des revenus devancés en 2015 attribués en 2016 (50 %, 66,7 % et 75 %) et conclut que l’ÉRI se situe en fait entre 0,26 et 0,98, ce qui signifierait dans ce dernier cas qu’une baisse de 10 % du revenu laissé aux contribuables entraînerait une baisse de 9,8 % des revenus déclarés, soit quasiment le même montant. L’auteur souligne que son résultat préféré (0,56) se situe à peu près au même niveau que celui obtenu par d’autres études canadiennes (entre 0,62 et 0,70), mais supérieur à celui utilisé par le ministère des Finances (0,40) et celui proposé par le directeur parlementaire du budget dans une étude datant de janvier 2016 (0,38). Il conclut que, avec une ÉRI de 0,56, la hausse du palier maximal d’imposition rapporte en fait seulement 1,2 milliard $ par année, environ 40 % du montant (et non pas le tiers, comme mentionné dans la chronique du Devoir) qu’elle aurait rapporté sans changements de comportements (3 milliards $) et 60 % du montant prévu par le budget du gouvernement (2 milliards $).

Mauvaises données

Dès que j’ai lu au début de cette étude que l’auteur avait utilisé les statistiques fiscales préliminaires de 2016, j’ai craint qu’il ait comparé ces données aux statistiques finales de 2012 à 2015. Or, les statistiques fiscales préliminaires «sont fondées sur près de 95 % des déclarations de revenus et des prestations des particuliers, sauf pour les nouvelles cotisations d’une année d’imposition donnée» alors que les statistiques finales «sont fondées sur près de 100 % des déclarations de revenus et des prestations des particuliers, y compris les nouvelles cotisations d’une année d’imposition donnée» (définitions prises sur cette page). Si cette comparaison de données non compatibles aurait relativement peu d’impact quand on utilise les moyennes (comme dans le premier graphique), cela pourrait en avoir beaucoup quand on regarde l’évolution du revenu total, comme dans le deuxième graphique. Toutefois, on ne sait pas si la proportion des contribuables gagnant 250 000 $ et plus comprise dans les statistiques préliminaires est la même que pour l’ensemble des contribuables. Pour vérifier si l’auteur avait vraiment utilisé des données non compatibles et mesurer le cas échéant l’impact de cette erreur, j’ai comparé les statistiques préliminaires et finales pour ces contribuables.

Le tableau ci-contre expose certaines des données sur les contribuables gagnant 250 000 $ et plus que j’ai comparées. La partie du haut contient les données préliminaires de 2012 à 2016, celle du centre les données finales de 2012 à 2015 (celles de 2016 ne sont pas encore disponibles) et une estimation des données de 2016, et la partie du bas l’écart en pourcentage entre ces deux sources de 2012 à 2015 et la moyenne de ces écarts dans la colonne 2016. J’ai ensuite ajouté l’écart moyen de 2012 à 2015 aux données préliminaires de 2016 et les ai mis dans la partie du centre pour 2016 sous «ajusté».

La première ligne de la partie du bas montre que le nombre de contribuables gagnant 250 000$ et plus est en moyenne 5,8 % plus élevé dans les statistiques finales que dans les statistiques préliminaires, cet écart variant de 4,7 à 6,8 % selon les années entre 2012 et 2015. La proportion des retardataires chez ces contribuables est donc semblable à celle observée pour l’ensemble des contribuables. On remarquera que l’écart du revenu total (deuxième ligne de la partie du bas) est toujours plus élevé que celui du nombre de contribuables (de 5,4 à 7,9 %, pour une moyenne de 6,7 %), ce qui montre que les retardataires ont un revenu moyen plus élevé que les contribuables qui déposent leur déclaration plus tôt (en moyenne de 15,1 % entre 2012 et 2015). Ce facteur fait encore augmenter l’écart entre les statistiques préliminaires et les statistiques finales.

Pour l’exercice de l’auteur de l’étude, les données les plus importantes sont celles des deuxièmes lignes des parties du haut et du milieu du tableau. On peut voir que les données réelles (ligne bleue du deuxième graphique) de 2014 et de 2015 sont celles tirées des statistiques finales, soit 144,5 et 170,9 milliards $ (l’auteur mentionne d’ailleurs ce total dans son étude), et non pas celles des statistiques préliminaires (134,2 milliards $ et 161,3 milliards $). Par contre, la donnée utilisée pour 2016 provient des statistiques préliminaires (c’est ce qu’il mentionne dans son étude), soit 126,2 milliards $. S’il n’avait utilisé que les données préliminaires, son travail pourrait être acceptable, mais il est clair qu’en utilisant les statistiques préliminaires uniquement en 2016, il a faussé les résultats. Par exemple, s’il avait ajusté les données préliminaires de 2016 comme je l’ai fait dans le tableau, il aurait utilisé un revenu total de 134,7 milliards $ pour 2016 (au lieu de 126,2, une différence de 8,4 milliards $), et l’écart entre la flèche bidirectionnelle du haut et ce revenu réel aurait été de -2,7 milliards $ au lieu de 5,7 milliards $! Finalement, comme on peut le voir en comparant les quatrièmes lignes des parties du haut et du milieu du tableau, les impôts payés par ces contribuables auraient diminué de 5,0 milliards $ entre 2015 et 2016, soit 1,8 milliard $ de moins que ce qu’a calculé l’auteur (baisse de 6,8 milliards $). Ce n’est pas anodin.

Par ailleurs, l’auteur a aussi utilisé les statistiques préliminaires de 2016 pour établir son scénario contrefactuel. Le tableau ci-contre, bâti comme le précédent, mais sans ligne pour les impôts payés, montre que son scénario contrefactuel serait bien différent s’il avait utilisé les données ajustées au lieu de celles tirées des statistiques préliminaires. En fait, la ligne pour 2016 augmenterait de 2,0 % au lieu de baisser de 4,0 %. Pour faire une histoire courte, le revenu contrefactuel pour 2015 serait de 153,3 milliards au lieu de 145,7, un écart de 7,6 milliards $. Avec ces données, l’écart entre la flèche bidirectionnelle du haut et ce revenu réel aurait été de 4,9 milliards $ au lieu de 5,7 milliards $, l’ÉRI privilégié de l’auteur de 0,48 au lieu de 0,56 et sa fourchette des neuf scénarios aurait varié de 0,24 à 0,88 plutôt que de 0,26 à 0,98. On dira que ce n’est pas une différence énorme, mais je n’ai pas fini!

Il reste à voir si son scénario contrefactuel est sensé. Je rappelle qu’il est bâti en appliquant les variations du revenu total des contribuables gagnant entre 100 000 et 249 999 $ aux contribuables gagnant 250 000 $ et plus. Or, il est loin d’être évident que les revenus de ces deux groupes évoluent de la même façon. Ils évoluent surtout en fonction du nombre de personnes qui joignent ou qui quittent ces deux groupes, puisque la moyenne des revenus est assez stable (et même très stable pour les contribuables gagnant entre 100 000 et 249 999 $) comme on peut le voir à la troisième ligne de la partie du centre des tableaux, sauf pour 2015 et 2016 chez les plus riches en raison du devancement des revenus. Or, il est sensé de penser qu’il y a une proportion plus grande de personnes qui atteignent 100 000 $ de revenus bruts que de personnes qui atteignent 250 000 $ (voir par exemple cet article qui mentionne que le nombre de salarié.es de la ville de Québec gagnant au moins 100 000 $ par année a triplé entre 2010 et 2017), d’autant plus que l’auteur utilise des données en dollars courants, sans tenir compte de l’inflation (100 000 $ n’a pas la même valeur en 2012 qu’en 2016, ce qui contribue à ce que le nombre de personnes gagnant 100 000 $ augmente autant).

J’ai fait ce que l’auteur aurait dû faire et ai regardé la croissance des revenus totaux de ces deux groupes de contribuables au cours des années précédant celles de son scénario contrefactuel (2015 et 2016) :

  • entre 2010 et 2011, le revenu total des 100 à 250 000 a augmenté de 11,6 % et celui des 250 000 et plus de 8,9 %, un écart de 2,7 points de pourcentage;
  • entre 2011 et 2012, le revenu total des premiers a augmenté de 11,0 % et celui des deuxièmes de 3,4 %, un écart de 7,7 points de pourcentage;
  • entre 2012 et 2013, les revenus totaux ont respectivement augmenté de 11,8 % et de 9,8 %, un écart de 2,0 points;
  • entre 2013 et 2014, les revenus totaux ont respectivement augmenté de 8,5 % et de 7,2 %, un écart de 1,3 points.

Comme on le voit, la base du scénario contrefactuel de l’auteur ne respecte pas les tendances historiques, le revenu total des contribuables gagnant entre 100 000 et 249 999 $ augmentant toujours plus fortement que celui des contribuables gagnant 250 000 $ et plus. L’utilisation de cette méthode pour établir le scénario contrefactuel a des conséquences énormes. Par exemple, en appliquant des taux de croissance de 2,0 et 1,0 % pour 2015 et 2016 (plutôt que de 4,0 et 2,0 %), ce qui fait diminuer la croissance de 2 points la première année et d’un point la deuxième, niveau de baisse qui est loin de l’écart moyen observé de 2010 à 2014 (qui a varié de 1,3 à 7,7 points), l’écart entre la flèche bidirectionnelle du haut du deuxième graphique et le revenu réel aurait été de -0,8 milliards $ au lieu de 4,9 milliards $, l’ÉRI privilégié par l’auteur aurait été de -0,07 au lieu de 0,56 et sa fourchette de l’ÉRI selon ses neuf scénarios aurait varié selon mes calculs (je rappelle que l’auteur ne précise pas les siens) de -0,30 à 0,37 plutôt que de 0,26 à 0,98.

Et alors…

Je ne prétends nullement que le résultat de mes calculs signifie que l’élasticité du revenu imposable est vraiment négative, mais je veux seulement souligner que cette étude repose sur des données erronées et sur des hypothèses plus que douteuses. En modifiant les données utilisées par une estimation plus réaliste (mais loin d’être certaine) et par des hypothèses différentes qui correspondent davantage aux variations historiques, on obtient des résultats complètement différents. En fait, dépendant des données utilisées et des hypothèses retenues, l’élasticité du revenu imposable peut passer de -0,30 à 0,98!

On peut par ailleurs constater avec les données de la revue financière du gouvernement fédéral que les revenus fiscaux du gouvernement fédéral provenant de l’impôt sur le revenu des particuliers n’a augmenté que de 0,2 % entre les mois d’avril 2015 à mars 2016 et les mêmes mois de 2016 et 2017 (ce qui s’explique entre autres par la baisse du taux d’imposition du deuxième palier de 22,0 % à 20,5 % en 2016 et par la situation en Alberta, comme le mentionne Julia Posca dans ce billet de l’Institut de recherche et d’informations socio-économiques, mais aussi par le devancement d’une partie des revenus des plus riches en 2015), mais que ces mêmes revenus ont augmenté de 5,9 % entre les mois d’avril 2016 à mars 2017 et les mêmes mois de 2017 et 2018, montrant que la baisse de revenus des plus riches de 2016 fut fort probablement momentanée. Mais, comme les statistiques finales de 2016 et de 2017 ne seront disponibles que dans un an et demi environ (celles de 2015 ont été diffusées en janvier 2018), il est impossible de savoir comment ont vraiment évolué les revenus des contribuables gagnant 250 000 $ et plus en 2016 et en 2017.

Dans l’étude que j’ai présentée l’an passé dans ce billet (la troisième étude qui y est présentée), Emmanuel Saez a attendu d’avoir accès aux données de 2015 avant d’analyser les effets de la hausse du taux d’imposition maximal par le président Obama en 2013 (de 6,5 à 10 points de pourcentage selon les types de revenus). Pour faire de même, il faudrait attendre d’avoir les statistiques fiscales finales de 2018, qui seront probablement diffusées vers janvier 2021. Ayant des données avant et après cette hausse, Saez a pu constater une hausse de ces revenus l’année précédente (2012), une baisse l’année de la hausse des impôts (2013) et un rétablissement en 2014 et 2015 selon une tendance assez semblable à celle précédant 2012. Au bout du compte, le gouvernement aurait récolté 80 % de la hausse prévue, soit le double du taux mentionné dans l’étude de l’Institut CD Howe. Il est loin d’être certain que ce taux sera le même ici, les comportements dans un pays et au cours d’une période ne se reproduisant pas nécessairement dans un autre pays et lors d’années différentes, mais il est clair que les données utilisées et les hypothèses retenues dans l’étude que j’ai présentée ici ne permettent surtout pas de l’estimer correctement.

La subsistance de l’homme

1 octobre 2018

Cela fait longtemps que je n’ai pas abordé un classique des sciences sociales, ce que j’ai décidé de faire en me procurant le livre La subsistance de l’homme – la place de l’économie dans l’histoire et la société. Dans ce livre, Karl Polanyi offre «une interprétation originale de la nature et des racines de l’économisme contemporain». Selon Bernard Chavance, ce livre «peut être considéré (…) comme un complément et un approfondissement de l’approche développée dans La Grande Transformation», autre livre de Polanyi, en fait son plus célèbre et célébré, dont j’ai parlé dans ce billet. Notons que Polanyi n’a jamais terminé la rédaction de ce livre, mais qu’il a été reconstitué à partir du plan du livre, de textes terminés et de notes de l’auteur.

Préface et introduction : L’auteur mentionne qu’il tente avec ce livre de «développer des concepts de commerce, de monnaie et d’institutions de marché qui soient applicables à tous les types de sociétés». Son objectif est la nécessité «de reconsidérer entièrement le problème de la subsistance matérielle de l’homme afin d’accroître notre liberté d’adaptation et d’augmenter ainsi nos chances de survie». Au-delà de la menace nucléaire ou d’une Troisième guerre mondiale, qui étaient les deux sujets qui attisaient le plus les craintes de l’époque où ce livre a été écrit, soit le milieu des années 1950, Polanyi met en garde contre la place démesurée prise par l’économie par rapport aux autres institutions et valeurs humaines.

Première partie – La place de l’économie dans la société

Concepts et théorie : L’auteur se penche tout d’abord sur ce qu’il appelle le sophisme de l’économie. Ce sophisme consiste à «assimiler l’économie humaine en général à sa forme de marché» soit au mécanisme d’offre-demande-prix. «Le sophisme est flagrant : la dimension physique des besoins de l’homme appartient à la condition humaine; aucune société ne peut exister sans une forme quelconque d’économie substantielle». Or, le mécanisme d’offre-demande-prix n’existe que depuis peu à l’échelle humaine et l’économie existait bien avant! «Restreindre exclusivement le domaine du genre économique aux phénomènes de marché revient à gommer du paysage la plus grande part de l’histoire humaine». Comme ce livre a plus de 400 pages, je ne peux malheureusement pas résumer la démonstration de Polanyi. Il en sera de même pour la suite de ce livre.

L’auteur aborde ensuite les deux significations du terme «économique», une qui se rapporte au processus de satisfaction des besoins et l’autre au fait de tirer le maximum des moyens dont on dispose. La théorie économique classique (et ses descendantes) n’a pourtant conservé que la première signification. L’auteur explique dans cette section les conséquences de cette décision et conclut sa démonstration en avançant que l’économie humaine est «un processus institutionnalisé d’interactions, qui a pour finalité de fournir les moyens matériels de la société». L’auteur analyse finalement les formes d’intégration économique, notamment les concepts de réciprocité, de redistribution et d’échange.

Les institutions et l’émergence des transactions économiques – de la société tribale à la société archaïque : Les systèmes économiques des peuples tribaux, malgré certaines particularités, n’étaient pas séparés des autres institutions non économiques (parenté, État, magie, religion, statut, etc.). Ils en faisaient partie, y étaient encastrés. Cela a commencé à changer avec les premières civilisations (au début agricoles), alors que les premières transactions sont apparues (l’auteur présente en détail cette transformation, que certains ont décrit comme le passage du statut au contrat). Mais, encore là, ces transactions étaient bien loin de celles qu’on connaît aujourd’hui avec l’établissement de prix, car elles fonctionnaient avec un système d’équivalence (tant d’un bien vaut tant d’un autre ou d’un temps de travail comme dans le Code de Hammurabi) permettant de conserver les notions de réciprocité et de dons et contre-dons.

Les institutions et la triade catallactique du commerce, de la monnaie et des marchés : L’auteur présente dans ce chapitre «trois thèses concernant le commerce, la monnaie et les marchés», soit leurs origines distinctes, la différence entre leurs évolutions internes et externes, et l’intégration des économies non fondées sur le marché. Dans ce contexte, il aborde notamment les caractéristiques des premiers commerçants, l’évolution des formes et des usages de la monnaie, les origines des marchés et leur évolution ainsi que celle des institutions qui ont permis leur émergence telle qu’on les connaît aujourd’hui. Notons que ce paragraphe résume une centaine de pages du livre et ne leur rend pas justice.

Deuxième partie – Commerce, marché et monnaie dans la Grèce antique : Même si les marchés, le commerce et l’économie planifiée ne furent pas des réalités bien importantes de la Grèce antique, l’auteur juge important de les analyser à fond, car ils ont influencé grandement les institutions économiques qui sont apparues bien plus tard en Europe et en Amérique du Nord.

L’âge hésiodique et le déclin tribal et la subsistance paysanne : L’auteur se base sur un poème du Hésiode, Des travaux et des jours, pour décrire l’économie de subsistance à l’époque tribale et un peu après.

Les marchés locaux – politique de la polis et de l’agora : C’est cette fois principalement sur les écrits d’Hérodote et d’Aristote que l’auteur se base pour analyser les petits marchés de la Grèce antique, ainsi que le rôle de l’État (en fait de la cité ou de la polis) et de l’administration publique dans la vie économique.

Les marchés locaux et le commerce avec l’outre-mer : Contrairement à maintenant, le «marché et le commerce n’avaient rien en commun» à l’époque. L’auteur aborde cette question en décrivant notamment les caractéristiques des marchands et commerçants (notons que pour l’auteur, le commerce est extérieur).

Comment garantir les importations de céréales : L’auteur explique les raisons pour lesquelles les importations essentielles de céréales par la Grèce se faisaient par des moyens militaires et diplomatiques, et non pas par des voies commerciales.

L’extension du commerce de marché : Jusqu’au IVe siècle avant notre ère, ce n’est pas que le commerce de céréales qui était administré (dont les prix et les quantités étaient établis par l’État, et non par des mécanismes de marché), mais bien l’ensemble du commerce international (bois, métaux, esclaves, aliments, etc.). C’est seulement après la famine de 330-326 en Grèce (dont la principale cause selon l’auteur fut le détournement d’une grande partie ou de la totalité des importations de céréales vers l’armée d’Alexandre le Grand) que certains éléments de marché furent introduits, surtout dans le commerce international en Méditerranée, mais toujours avec un contrôle administratif important.

Monnaie, banque et finances : Il y avait deux types de monnaie en Grèce antique. La première, apparue seulement vers 400 avant notre ère, avait une valeur symbolique établie par l’autorité qui la frappait et n’était utilisée qu’au marché de l’agora. La deuxième, ayant la valeur du métal utilisé (or, argent, alliages, etc.), servait au commerce international. Il est arrivé que l’État frappe plus de monnaie pour rembourser des dettes (parfois en diluant la quantité de métaux «nobles»), mais, à la surprise de beaucoup de personnes, cela n’a causé aucune inflation, car les prix étaient administrés et non pas assujettis à des marchés. Le rôle des banquiers était surtout de tester et changer les pièces de monnaie en métal, et parfois de les recevoir en dépôts (ainsi que d’autres objets de valeur), mais les banquiers ne pouvaient prêter que leur argent. Finalement, l’auteur présente des méthodes originales de financement, tant pour l’alimentation que pour des activités guerrières.

Le «capitalisme» dans l’Antiquité : L’auteur montre que le pays le plus riche de l’époque, l’Égypte, a «produit, sous la domination grecque de Macédoine, le système le plus complet, d’économie planifiée, sans marché, que le monde ait jamais connu». La Grèce, elle, on l’a vu, avait une économie où on combinait la planification à des méthodes de marché. C’est plutôt ce modèle que l’Empire romain a adopté (avec en plus la spoliation et l’exploitation des pays conquis et de leur population). Lors de son déclin, la partie orientale de cet empire, qui avait une économie davantage planifiée, a survécu mille ans de plus que la partie occidentale, avant de décliner à son tour. Sans prétendre que cette caractéristique fut la seule à expliquer que Byzance ait survécu beaucoup plus longtemps que Rome, l’auteur considère que ce système économique plus planifié fut tout de même un des facteurs qui a joué un rôle. Chose certaine, les personnes qui tentent de comparer l’économie de l’Antiquité au capitalisme ou même à une économie de marché ont beaucoup d’imagination…

Et alors…

Lire ou ne pas lire? Je n’ai aucun problème à recommander la lecture de la première partie de ce livre qui, il est vrai, complète très bien celle de La Grande Transformation. Certaines démonstrations qu’on y trouve sont tout simplement magistrales. J’ai toutefois eu plus de difficulté avec la deuxième partie qui contient beaucoup (trop?) de détails et d’anecdotes pas toujours pertinentes. Peut-être que des historien.nes hyper intéressé.es par cette époque et cette région y trouveraient leur compte, mais je me suis souvent perdu dans ces détails. Il est même fort possible que mes résumés de cette partie ne soient pas tout à fait exacts (dont mon résumé de 100 pages en un paragraphe), ayant eu parfois de la difficulté à comprendre le texte. Heureusement que les nombreuses notes sont en bas de pages!

Les climatiseurs et les émissions de gaz à effet de serre

29 septembre 2018

La période des canicules semble enfin derrière nous. Pour la première fois de mon existence, j’ai pensé m’acheter un climatiseur. J’ai résisté, mais comme ma conjointe et moi avons maintenant plus de 65 ans, je ne garantis pas que nous allons résister si on connaît un nouvel été de ce genre. Pourquoi se retenir? Pour bien des raisons.

Tout d’abord, j’ai lu un article en mai dernier (probablement celui-ci), avant nos canicules, sur le paradoxe des climatiseurs qui, pour refroidir nos maisons et nos immeubles, contribuent directement au réchauffement de nos villes en faisant sortir la chaleur des immeubles pour réchauffer l’extérieur (d’un degré Celsius dans les centres-villes selon cet article, mais de de 0,5 à 2 degrés selon cet autre article) et indirectement en raison des gaz fortement émetteurs de gaz à effet de serre (GES) qu’ils utilisent et à plus long terme, des GES émis par la production d’électricité qui fait fonctionner ces climatiseurs. Heureusement, ce dernier effet est moins important au Québec, où la production d’électricité en émet très peu.

Ailleurs, les impacts sont pires. Cet article de Québec Science, citant une autre étude, nous apprend que, dans l’est des États-Unis, il y aura «1 000 décès supplémentaires chaque année en raison des niveaux élevés de la pollution de l’air causée par l’utilisation accrue de combustibles fossiles pour refroidir les édifices». Cela, au moins on l’évite. Mais, l’article nous rappelle qu’au Canada, «10% de l’électricité est produite à partir du charbon».

Et au niveau mondial? Comme on le sait, les GES et surtout les conséquences du chaos climatique qu’ils entraînent ne respectent pas les frontières, et on n’a pas besoin de leur donner un certificat de sélection pour qu’ils s’installent chez nous (sans que nous ne puissions les expulser…). J’ai donc décidé de lire l’étude intitulée The Future of Cooling – Opportunities for energy efficient air conditioning (L’avenir du refroidissement – Les possibilités de climatisation écoénergétique) qui est parue en mai dernier et a été réalisée et publiée par l’Agence internationale de l’énergie (AIE). Comme cette étude compte 92 pages, je me concentrerai surtout sur son sommaire, tout en présentant quelques graphiques tirés de l’étude complète.

La situation actuelle

  • Les ventes de climatiseurs ont presque quadruplé entre 1990 et 2016 pour atteindre 135 millions d’appareils, dont 41 millions en Chine (plus de 30 % du total);
  • en 2016, il y avait 1,6 milliard de climatiseurs en fonction au monde, dont 569 millions en Chine et 374 millions aux États-Unis, soit 58 % du total;
  • alors que la population des régions les plus chaudes de la Terre s’élève à 2,8 milliards, seulement 8 % des ménages de ces régions possédaient des climatiseurs en 2016, par rapport à 90 % aux États-Unis et au Japon, comme l’illustre le graphique ci-contre;
  • le graphique montre aussi des taux supérieurs à 50 % en Chine et en Arabie saoudite, mais des taux inférieurs à 10 % en Indonésie, en Afrique du Sud et en Inde;
  • au Moyen-Orient et dans certains États des États-Unis, l’électricité nécessaire pour faire fonctionner les climatiseurs représentait en période de pointe jusqu’à 70 % de la demande résidentielle totale en 2016, soit cinq fois plus que la moyenne mondiale (14 %);
  • le graphique ci-contre montre le niveau de la consommation d’électricité due aux climatiseurs et son évolution de 1990 à 2016;
  • alors que cette consommation a moins que doublé aux États-Unis, elle a été multipliée par 68 en Chine;
  • même si cette consommation est encore relativement faible en Inde, elle était quand même 15 fois plus élevée en 2016 qu’en 1990;
  • les émissions de CO2 dues à la climatisation ont triplé de 1990 à 2016 (de même que la pollution dans les régions qui utilisent des centrales au charbon pour produire leur électricité), atteignant 1130 millions de tonnes, soit l’équivalent de toutes les émissions du Japon;
  • comme nous le montre le graphique ci-contre, même si la Chine consomme moins de 75 % de l’électricité utilisée aux États-Unis pour ses climatiseurs, elle émet plus de CO2 qu’eux, parce qu’une part plus grande de l’électricité produite en Chine provient de centrales au charbon.

La situation en 2050

  • L’AIE prévoit que la consommation d’électricité pour la climatisation triplera d’ici 2050 et que cette croissance proviendra en premier lieu des pays où les températures sont les plus élevées, soit des pays émergents, et que la moitié de cette croissance, comme on peut le voir dans le graphique ci-contre, proviendra de la Chine et de l’Inde;
  • cette croissance correspond à toute l’électricité actuellement consommée aux États-Unis et en Allemagne;
  • si rien n’est fait, les émissions de CO2 dues à la climatisation tripleraient aussi, la croissance des émissions provenant des mêmes pays que la hausse de la consommation d’électricité;
  • même si le scénario de base de l’AIE prévoit qu’une forte proportion de la production supplémentaire proviendra de sources renouvelables (par exemple, le tiers de cette électricité serait produite par des installations alimentées par l’énergie solaire), les pays devront se doter d’infrastructures permettant de produire la quantité d’électricité consommée lors des périodes de pointe de la demande, même si la demande lors du reste de l’année sera bien inférieure;
  • avec ce scénario, la climatisation représenterait plus du tiers (37 %) de la hausse de la demande d’électricité, comme l’illustre le graphique ci-contre, loin devant les appareils ménagers (26 %), le chauffage (12 %) et l’éclairage (8 %).

Que faire?

L’AIE a développé un scénario plus optimiste que celui présenté plus haut. Il repose essentiellement sur l’amélioration de l’efficacité des appareils de climatisation, aussi bien commerciaux que résidentiels. Selon ce scénario, les appareils fonctionneraient en utilisant en moyenne deux fois moins d’électricité que les appareils actuels. Pour ce, il faudrait imposer des normes de performance énergétique beaucoup plus strictes pour les équipements de climatisation. Selon l’AIE, il existe déjà des appareils qui respectent ces normes. Cela pourrait donc se faire assez rapidement, d’autant plus que la durée de vie des appareils actuels est relativement courte. Cela exigerait toutefois une volonté gouvernementale ferme et surtout la négociation d’ententes internationales, ce qui est moins évident. Cette solution pourrait même faire baisser encore plus les émissions de GES, car les infrastructures de production d’électricité qui ne seraient plus nécessaires pourraient et devraient être les plus émettrices et polluantes (essentiellement les centrales au charbon). L’AIE avance que la croissance des émissions de GES et de particules polluantes dues à la climatisation d’ici 2050 pourrait ainsi diminuer de 85 % par rapport aux estimations du scénario de base.

L’étude mentionne aussi d’autres moyens pour faire diminuer la consommation d’énergie et les émissions de GES et de polluants dues à la climatisation. On y mentionne entre autres la conception d’immeubles, les matériaux utilisés, les normes des bâtiments, l’utilisation de sources d’énergie renouvelables et la recherche pour améliorer les méthodes de refroidissement. Avec ces mesures, l’AIE considère que la croissance de la climatisation pourrait se faire sans augmentation d’émissions de GES et de polluants.

L’étude se termine par une liste de recommandations destinées aux gouvernements. Il demeure que même si le scénario optimiste de l’AIE se réalisait, cette source d’émissions de GES ne pourrait pas contribuer à faire diminuer le niveau actuel des émissions totales de GES permettant d’éviter une hausse des températures supérieure à 1,5 ou 2 degrés Celcius (baisse mondiale nécessaire d’ici 2050 de 40 à 70 % par rapport au niveau de 2010 et de 80 à 95 % par rapport au niveau de 1990 dans les pays industrialisés).

Et alors…

Chaque fois que je lis et présente ce genre d’étude, je déprime. Que ce soit sur les automobiles électriques, sur les petits gestes pour diminuer notre empreinte carbone, ou sur la fabrication de vêtements et ici sur la climatisation, j’ai l’impression de contribuer à montrer qu’on ne s’en sortira pas. Au moins, cette étude se conclut avec un scénario «optimiste» (même si insuffisant), mais l’accord international qu’il nécessite, négocié avec un dinosaure comme Trump (entre autres), semble pour le moins incertain.

Je voulais avec ce billet sortir un peu du contexte de la campagne électorale actuelle. Ce fut raté. Il est en effet difficile avec ce sujet de ne pas penser à l’absence de l’enjeu du réchauffement climatique de la plateforme de la CAQ, de sa faible importance dans celle du PLQ (mais avec l’abolition des pailles de plastique, réjouissons-nous), de sa présence plus importante dans celle du PQ et de son importance fondamentale dans celles de QS et du parti Vert. Et même là, serait-ce suffisant? Au moins, ce serait des pas dans la bonne direction.

Cela dit, achèterons-nous un climatiseur l’an prochain? P’tèt ben qu’oui, p’tèt ben qu’non…