Aller au contenu principal

Dix mythes sur la tarification du carbone au Canada

27 avril 2019

C’est grâce à un article du Devoir paru vers la fin mars que j’ai pris connaissance du rapport intitulé 10 Myths about Carbon Pricing in Canada (Dix mythes sur la tarification du carbone au Canada) publié par la Commission de l’écofiscalité du Canada. On peut aussi consulter un résumé en français sur cette page.

Introduction

La réalité du réchauffement climatique, l’ampleur de ses conséquences et l’urgence d’agir pour y faire face sont de moins en moins remises en question, mais les moyens de le combattre, notamment la tarification du carbone, font encore l’objet de fortes oppositions. Les cinq auteur.es de ce rapport considèrent que «les mythes et la désinformation minent le débat sur la tarification du carbone», même s’il s’agit d’une des meilleures politiques pour réduire les émissions de gaz à effet de serre (GES). Dans ce contexte, ils et elle espèrent que ce rapport «permettra de rehausser le débat, en utilisant les meilleures données probantes disponibles pour réfuter dix mythes répandus».

Premier mythe, la tarification du carbone est une nouvelle idée non testée : Même si les débats sur ce sujet sont relativement récents au Canada, l’idée de mettre un prix sur la pollution ou d’autres externalités négatives a été proposée pour la première fois par Arthur Cecil Pigou vers 1920 (on parle d’ailleurs de taxes pigouviennes). Ce type de taxe a été utilisé dans les années 1990 aux États-Unis pour s’attaquer aux pluies acides et en Europe pour réduire les émissions de GES. Les taxes sur le carbone sont aussi utilisées en Asie, en Afrique, en Amérique du Sud et dans quelques provinces canadiennes et États des États-Unis.

Deuxième mythe, pour être efficaces, les taxes sur le carbone doivent être élevées : En fait, ces taxes commencent à produire des effets même à un niveau peu élevé. Cela dit, pour atteindre les objectifs de réduction du Canada, son niveau devra être grandement haussé. L’expérience la plus concluante à cet effet est celle de la Colombie-Britannique qui a adopté une taxe sur le carbone en 2008 et qui a vu réduire l’utilisation des énergies fossiles (essence, gaz naturel, diésel, etc.) de façon notable (mais pas suffisante pour atteindre ses objectifs de réduction). Il en fut de même dans tous les pays, provinces et États qui ont adopté des taxes semblables. En Colombie-Britannique, les émissions de GES ont augmenté de 7 % entre 2009 et 2016, malgré une hausse de près de 25 % du PIB réel. Il peut être décevant de constater que les émissions n’y ont pas baissé, mais la première étape pour atteindre cet objectif est d’en faire diminuer l’intensité. Avec la hausse du prix du carbone prévue, on peut s’attendre à une baisse au cours des prochaines années.

On observe qu’une hausse de cette taxe entraîne plus de changements de comportement qu’une hausse du prix des énergies fossiles dues à d’autres facteurs, probablement parce qu’on sait que cette taxe continuera à augmenter, alors qu’on peut espérer que les prix finissent par baisser lorsque leur hausse est due à d’autres facteurs. De même, ces attentes à de nouvelles hausses stimulent les innovations et leur adoption (d’autant plus que les revenus de la taxe peuvent servir à les financer au moins en partie).

Troisième mythe, la tarification du carbone coûtera cher aux familles canadiennes : Oui, les taxes sur le carbone peuvent faire augmenter les dépenses des ménages pour les produits les plus émetteurs de GES, mais cette hausse peut être réduite en raison de la diminution de la consommation de ces produits, du transfert de consommation vers d’autres produits moins émetteurs et de l’utilisation d’une partie des revenus tirés de cette taxe pour rembourser les consommateurs, notamment les moins riches, transformant cette taxe en outil de redistribution des richesses. Par exemple, la taxe fédérale sur le carbone, en force dans les provinces qui n’ont pas adopté leur propre taxe sur le carbone, soit la Saskatchewan, le Manitoba, l’Ontario et le Nouveau-Brunswick (avec en plus le Yukon et le Nunavut), retournera aux ménages 90 % de ses recettes (le 10 % restant servant à compenser les dépenses supplémentaires des petites entreprises, des municipalités et des organismes publics), faisant en sorte qu’au moins 70 % des ménages (80 %, selon le directeur parlementaire du budget) recevront plus de sous qu’ils n’en verseront. Le principe est que tous les ménages recevront le même montant, mais que les ménages les plus riches dépenseront beaucoup plus en taxes sur le carbone que les autres ménages. Notons que le Québec a plutôt choisi d’utiliser les recettes de sa taxe (le système québécois de plafonnement et d’échange de droits d’émission, ou SPEDE) pour financer des investissements visant à réduire les émissions de GES dans le cadre du Fonds vert (sans grand succès jusqu’à maintenant…).

Quatrième mythe, la tarification du carbone détruit des emplois : La tarification du carbone a des effets à la fois positifs et négatifs sur l’emploi, l’impact global étant neutre et relativement modeste (comme on l’a observé en Colombie-Britannique et dans d’autres pays). Cela dit, il est important de prévoir des politiques pour favoriser une transition harmonieuse pour les personnes qui perdent leur emploi en raison de cette taxe et pour les industries les plus touchées (en les aidant à réduire leurs émissions).

Cinquième mythe, les gros pollueurs sont exemptés : Si l’État prévoit de l’aide aux industries les plus touchées par la tarification du carbone, cela ne veut pas dire qu’elles sont exemptées du paiement de ces taxes. Le système est de fait différent pour les entreprises, visant la baisse de leurs émissions dans un contexte de concurrence internationale et ressemblant au concept du marché du carbone du Québec, mais leur contribution est au bout du compte similaire (les entreprises d’une industrie qui émettent plus d’émissions payant plus que celles qui en émettent moins).

Sixième mythe, la tarification du carbone est une façon d’aller chercher plus d’argent : Que les recettes de la taxe soient retournées aux ménages ou utilisées comme au Québec pour financer des investissements pour réduire les émissions de GES, elles ne servent pas à financer d’autres activités gouvernementales.

Septième mythe, la tarification du carbone ne fera pas modifier les comportements de la population : C’est en fait justement l’objectif de ces taxes et la raison pour laquelle elles permettent de réduire les émissions de GES. Il est vrai que certaines personnes ne modifient pas leurs comportements à court terme, mais avec la hausse de la taxe, elles le feront sûrement à moyen ou long terme. Le document présente un grand nombre de façons qu’a la population pour modifier ses comportements et épargner des sous, surtout dans ses dépenses de transports, d’électricité et de chauffage (et de climatisation). En plus, comme mentionné auparavant, cette taxe encourage les innovations qui fourniront de nouvelles options pour réduire la consommation de produits émetteurs de GES.

Huitième mythe, la tarification du carbone ne sert à rien si les gouvernements remboursent ces taxes : En fait, que les ménages paient peu ou beaucoup de taxes sur le carbone, ils recevront le même montant (dépendant de leur province et de leur taille). Ainsi, l’incitatif à payer moins de taxes et à consommer moins de produits émetteurs sera le même que s’il n’y avait pas de remboursement.

Neuvième mythe, d’autres politiques seraient plus efficaces pour réduire nos émissions : Il existe de fait d’autres mesures que la tarification du carbone pour lutter contre les émissions de GES, dont la réglementation et les subventions de produits moins émetteurs (comme les automobiles électriques). Ces subventions sont toutefois très onéreuses et sont souvent versées à des personnes qui auraient acheté ces produits moins émetteurs même sans subvention. Elles sont en plus peu efficaces. Par exemple, le programme québécois de subvention à l’achat d’automobiles électriques revient à environ 400 $ par tonne de GES réduits. La tarification du carbone, de son côté, coûte environ 30 $ par tonne. L’efficacité de la réglementation varie considérablement selon le cas. Le premier exemple donné par les auteur.es (la réglementation obligeant l’ajout de biocarburants dans l’essence et les subventions pour leur production, ce qui est selon moi un mauvais exemple, car c’est une mauvaise mesure) coûte entre 128 $ et 185 $ la tonne. Les auteur.es reconnaissent toutefois que d’autres types de réglementations peuvent être plus efficaces. En effet, l’utilisation de la tarification du carbone n’empêche pas l’adoption de règlements pertinents, comme la réduction des fuites de méthane dans le secteur gazier et pétrolier (13 $ la tonne). Cela dit, l’ampleur des baisses d’émissions dans ces exemples est nettement moindre que celle découlant de la tarification du carbone, car celle-ci s’applique aux produits les plus émetteurs (essence, gaz naturel et autres combustibles).

Dixième mythe, il n’est pas nécessaire de réduire les émissions de GES du Canada : Les auteur.es précisent que :

  • la séquestration du carbone par les forêts du Canada ne représente qu’environ 20 % de ses émissions;
  • si le Canada bénéficiera un peu du réchauffement climatique (construction, agriculture, etc.), il en subira les conséquences, de façon indirecte par les chocs subis par ses partenaires commerciaux et directement par les inondations (quoique des études prévoient au contraire la diminution de leur fréquence), les canicules, la sécheresse, les feux de forêt, l’érosion des berges, la hausse du niveau des océans, l’invasion d’insectes et d’espèces étrangères, etc.
  • le Canada doit être solidaire des actions des autres nations qui risquent de subir des dommages plus importants, d’autant plus qu’il est un des plus importants émetteurs de GES par habitant (au premier rang selon les sources les plus récentes, troisième selon d’autres sources antérieures) et qu’il arrive même au neuvième rang pour ses émissions totales;
  • les pays les plus riches doivent faire plus d’efforts et montrer l’exemple.

Conclusion

On peut toujours débattre des meilleures mesures pour réduire les émissions de GES, mais il demeure que la tarification du carbone doit en faire partie. Ayant contredit 10 mythes parmi les plus répandus sur cette tarification, les auteur.es espèrent réduire les résistances à leur utilisation. Disons que les dernières élections provinciales de partis conservateurs me font leur souhaiter bonne chance…

Et alors…

Ce rapport est davantage un document de promotion qu’une étude neutre. J’aurais entre autres aimé que les auteur.es explorent davantage d’autres mesures qui pourraient compléter la tarification du carbone, comme une limitation de l’exploitation du gaz et du pétrole, l’interdiction des voitures à combustion à moyen terme ou des investissements massifs en transport en commun associés à une diminution des investissements en infrastructures routières. Cela dit, il est indéniable selon moi que la tarification du carbone est un outil important dans l’arsenal des mesures à utiliser pour diminuer les émissions de GES.

Le SPEDE en force au Québec n’est pas idéal, mais il a le mérite d’exister et de financer le Fonds vert qui permet de réaliser des investissements complémentaires même si, je le répète, l’utilisation du Fonds vert est actuellement déplorable. Il serait plus efficace s’il était utilisé pour financer l’amélioration du transport en commun ou un plan de transition économique. Cela dit, je préfère nettement une taxe sur le carbone comme en Colombie-Britannique ou comme celle adoptée par le gouvernement fédéral pour les provinces qui ont refusé d’implanter des tarifications sur le carbone. Dans ce dernier cas, cette taxe permet même une certaine répartition des richesses, transformant une mesure qui pourrait être régressive (quoique les données du tableau 11-10-0223-01 de Statistique Canada, tirées de l’Enquête sur les dépenses des ménages, montrent que la part des dépenses des ménages du quintile le plus pauvre en achats liés aux automobiles, fourgonnettes et camions à usage privé, y compris l’essence, est moins élevée que celle des ménages des quatre quintiles suivants) en mesure progressive, comme l’illustre bien le graphique ci-contre tiré de l’analyse du système fédéral de tarification du carbone effectuée par le directeur parlementaire du budget et publiée cette semaine.

On voit bien que ce sont les ménages des quintiles les plus pauvres qui bénéficient le plus de ce système (surtout en Ontario) et que seuls les ménages du quintile le plus riche paient plus qu’ils ne reçoivent (sauf au Manitoba, où tous les ménages sont gagnants). Il serait même possible de concevoir un remboursement des ménages encore plus progressif, en redistribuant des montants plus élevés aux ménages les plus pauvres, graduellement moins élevés aux ménages des trois quintiles centraux et en n’accordant aucun remboursement aux ménages du quintile le plus élevé, ce qui permettrait en plus de conserver une partie de la taxe pour financer un plan de transition économique. La tarification du carbone n’est pas une panacée (ce que le rapport présenté dans ce billet laisse un peu penser), loin de là. Il est essentiel de la compléter avec des investissements et des mesures réglementaires, de sensibilisation, d’éducation et autres. Bref, la tarification du carbone est un outil, incomplet, certes, mais qu’on ne peut pas se permettre d’ignorer, surtout qu’on a vu qu’elle peut servir à la fois à réduire les émissions de GES et les inégalités. Pourquoi alors des personnes, de droite, mais aussi de gauche, s’opposent-elles à ce qu’on mette la tarification du carbone dans notre boîte à outils de lutte au réchauffement climatique?

Publicités

Cabinet de curiosités sociales

22 avril 2019

Avec son livre Cabinet de curiosités sociales, un recueil de chroniques parues dans des revues françaises, Gérald Bronner, professeur de sociologie à l’université Paris-Diderot, présente des phénomènes qui «relèvent de notre vie quotidienne». Justement parce que nous les connaissons bien, «nous ne remarquons pas [toujours] leur étrangeté».

Avant-propos : L’auteur explique ce qu’étaient les cabinets de curiosités à la Renaissance et pourquoi il a utilisé cette analogie pour les sujets qu’il abordera dans ce livre. Dans les deux cas, «l’objet d’un tel cabinet est d’édifier l’esprit par l’exemple et d’ouvrir le regard aux marges de la réalité».

Curiosités de la vie quotidienne : L’auteur aborde ici :

  • les raisons de l’effet des réseaux sociaux sur notre humeur;
  • la nostalgie pour les jeux et jouets de notre enfance;
  • la crainte de l’automatisation des emplois et d’autres activités par l’intelligence artificielle;
  • différentes manifestations de l’effet papillon;
  • l’importance de la forme sphérique dans les jeux et les sports;
  • l’attrait de la fiction chez les êtres humains;
  • les accommodements raisonnables;
  • la violence des discussions sur Internet;
  • la quasi-obligation de réciprocité après avoir reçu un cadeau, un service ou même un sourire.

Curiosités de notre cerveau : L’auteur nous entretient cette fois :

  • de la baisse du temps de sommeil malgré la hausse du temps libre;
  • du système de justice parfois arbitraire en raison de biais cognitifs chez les juges;
  • de l’impact de la question posée sur le pourcentage de dons d’organes;
  • du biais de représentativité dans le taux de succès des petites écoles par rapport aux grandes;
  • de quelques exemples de biais de disponibilité, de biais rétrospectifs et de surestimation des probabilités composées;
  • d’énigmes basées sur la polysémie.

Curiosités de la vie politique : Dans ce chapitre, l’auteur nous parle :

  • des raisons pour lesquelles les politicien.nes (et bien d’autres personnages publics) utilisent autant la «langue de bois» dans un contexte de concurrence des commentaires entre les partis au pouvoir et ceux de l’opposition;
  • des limites du rire, de la liberté d’expression et du langage haineux;
  • de la vie personnelle des politicien.nes, de plus en plus exposée;
  • du populisme et du mensonge en politique;
  • de la politique post-factuelle, de la démagogie cognitive et de ses praticien.nes, dont Donald Trump et Beppe Grillo;
  • d’un insoumis qui n’aimait pas la France insoumise;
  • du biais du survivant en politique;
  • de la «peopolisation» de la politique.

Curiosités de la radicalité : C’est maintenant au tour :

  • de la frustration et du désir de célébrité de quelques terroristes;
  • des possibilités d’attaques terroristes profitant des changements technologiques;
  • du biais de négligence des taux de base dans les tests de détection de la radicalisation;
  • d’autres aspects du terrorisme.

Curiosités de la vie intellectuelle : L’auteur nous fait réfléchir sur :

  • des manifestations de l’économie de l’attention;
  • une polémique sur les motivations des personnes appuyant le mouvement Je suis Charlie;
  • des débats pas toujours édifiants entre la droite et la gauche;
  • un discours de Frédéric Lordon dans lequel celui-ci juge essentiel un certain conspirationnisme;
  • la volonté de certaines personnes de déboulonner les statues des personnages historiques racistes ou sexistes.

Curiosités de notre crédulité : Les textes de ce chapitre portent sur :

  • la forte diminution du nombre et de la proportion de miracles à Lourdes depuis qu’un comité vérifie les cas rapportés;
  • les raisons qui expliquent que certain.es chef.fes d’État consultent des astrologues ou des voyant.es;
  • les raisons qui peuvent expliquer que le nombre de photos d’ovnis a diminué depuis une cinquantaine d’années, alors que le nombre de photos prises est 100 fois plus élevé;
  • des exemples de paréidolie interprétés comme des manifestations religieuses ou autres;
  • la mauvaise évaluation des probabilités et la plus grande confiance en l’inaction qu’en l’action pour expliquer pourquoi tant de personnes refusent de faire vacciner leurs enfants;
  • les raisons qui expliquent le fait que les thèses conspirationnistes sont plus populaires chez les partisan.es des partis politiques perdants que chez ceux et celles des partis qui ont gagné;
  • deux autres exemples du manque de maîtrise des probabilités dans la population;
  • le paradoxe des évangélistes des États-Unis qui appuient la décision de Donald Trump de reconnaître Jérusalem comme la capitale d’Israël.

Curiosités de l’information : L’auteur :

  • démolit l’existence d’une supposée loi des séries, un biais cognitif «qui postule qu’un événement désastreux doit en entraîner d’autres, similaires, à sa suite»;
  • se désole que les médias français s’intéressent depuis quelques années à la vie privée des personnages politiques (comme à leurs infidélités), alors qu’ils ridiculisaient auparavant les médias des États-Unis qui le faisaient;
  • réfléchit sur les conséquences de la concurrence des informations sur Internet;
  • raconte l’origine des Illuminati, société dissoute il y a plus de 200 ans, et leur regain de popularité chez les conspirationnistes au gré des événements;
  • montre que le conspirationnisme se répand plus facilement grâce à Internet;
  • explique les raisons pour lesquelles les journaux accordent plus d’importance aux mauvaises nouvelles qu’aux bonnes;
  • souligne le grand nombre de décès dus à des maladies nosocomiales;
  • dénonce des techniques de prédiction farfelues;
  • aborde l’intérêt des internautes pour la vie privée des personnages publics;
  • présente d’autres exemples de fausses informations, et pas toutes conspirationnistes, puis de l’effet Streisand, «un phénomène médiatique au cours duquel la volonté d’empêcher la divulgation d’informations que l’on aimerait garder cachées (…) déclenche le résultat inverse», et finalement de la viscosité de certains milieux sociaux, dans lesquels l’information circule mal.

Curiosités de la planète Terre : L’auteur :

  • montre que les distinctions entre l’être humain et les autres animaux sont de plus en plus contestées;
  • critique quelques arguments des partisan.es de la décroissance;
  • explique que, contrairement à ce que bien des gens pensent, les villes ont en général un meilleur bilan écologique que les régions rurales;
  • décrit le passage des croyances surnaturelles (animisme, polythéisme, etc.) à la recherche scientifique sur les explications du fonctionnement de l’univers et ses conséquences (pas toutes positives);
  • nous parle du gaspillage alimentaire (il confond un peu le sens des données qu’il cite);
  • revient sur ses critiques de l’antispécisme (avec deux textes);
  • observe que l’utilisation du mot progrès est en baisse au rythme de l’augmentation de celle du mot innovation, alors que ces deux mots n’ont pas le même sens.

Curiosités de la vie scientifique : L’auteur :

  • avance une hypothèse pour expliquer que la plupart des extraterrestres des œuvres de fiction sont chauves;
  • cherche les critères qui caractérisent les grands classiques de la littérature et de la philosophie;
  • raconte quelques canulars académiques publiés par des revues spécialisées;
  • se désole des contestations de plus en plus nombreuses de la théorie de l’évolution (deux textes);
  • présente quelques manifestations de l’effet «blouse blanche», puis des études portant sur les caractéristiques des personnes selon leur signe astrologique.

Et alors…

Lire ou ne pas lire? Bof… Ce livre vient accentuer mes réticences envers les recueils de textes. Ceux de ce livre ne sont pas mauvais, mais les sujets s’éparpillent dans tous les sens et, bien sûr, aucun n’y est approfondi. Ce sont ceux portant sur les biais cognitifs que j’ai trouvés les plus intéressants, mais je connaissais pas mal tous ces biais et même les exemples utilisés pour les présenter. Je conseille bien plus les deux livres précédents que j’ai lus de cet auteur, soit L’empire de l’erreur et La démocratie des crédules (dont j’ai parlé dans ce billet). En plus, j’ai grimacé à quelques reprises devant les démonstrations pas toujours convaincantes de l’auteur, ce que je ne me souviens pas avoir fait en lisant ses livres précédents. Au moins, les notes sont en bas de pages!

Les revenus du 1 % le plus riche au Québec

20 avril 2019

Après avoir analysé les données les plus récentes sur le faible revenu et les inégalités selon le coefficient de Gini dans deux billets récents, je vais me pencher sur celles sur le 1 % le plus riche dans celui-ci. Les données que je vais utiliser sont celles du tableau 11-10-0056-01 de Statistique Canada, qui reposent sur un échantillon de 20 % des personnes qui ont déposé des déclarations de revenus fédérales et qui résident à un emplacement géographique connu au Canada, comme précisé à la note 3 de ce tableau.

Introduction

Contrairement aux données de l’Enquête canadienne sur le revenu qui servent à calculer les taux de faible revenu et les coefficients de Gini, les données sur les déclarations de revenus doivent être ajustées pour les rendre comparables dans le temps. En effet, en raison de changements dans la fiscalité, surtout de l’adoption du crédit pour la taxe sur les produits et services (TPS) en 1991 et d’autres crédits remboursables par la suite, des personnes qui ne déposaient pas de déclarations de revenus, car elles avaient trop peu de revenus pour payer de l’impôt, doivent en déposer pour avoir droit à ces crédits. D’ailleurs, le ratio de déclarant.es sur la population âgée de 18 ans et plus est passé de 76,2 % en 1983 à 89,7 % en 1992, puis à 95,3 % en 2000 et s’est situé entre 95 et 97 % de 2000 à 2016.

Or, les personnes qui ne déposaient pas de déclarations de revenus dans les années 1980 et 1990 étaient essentiellement des personnes à faibles revenus. Dans une étude publiée par l’Institut de recherche en économie contemporaine (IRÉC) en novembre 2012, Nicolas Zorn expliquait qu’une des sommités mondiales dans le domaine des inégalités, Emmanuel Saez, conseillait, pour rendre les données historiques comparables, d’attribuer aux personnes qui n’ont pas déposé de déclarations un revenu correspondant à 20 % du revenu moyen de l’ensemble des contribuables. C’est ce que j’ai fait, en postulant qu’il n’y avait pas de déclarant.es manquant.es l’année où le ratio de déclarant.es sur la population âgée de 18 ans et plus a été à son sommet, soit 97,11 % en 2007. J’ai ajouté aux autres années le nombre de personnes ayant un revenu correspondant à 20 % du revenu moyen nécessaire pour atteindre ce ratio.

En effet, comme il «manquait» une forte proportion de contribuables (entre 19 et 21 % au début des années 1980) et que ces contribuables avaient de faibles revenus, les données sur le 1 % le plus riche étaient en fait celles sur le 0,8 % le plus riche et surestimaient en conséquence leur revenu moyen (par exemple de 8 % en 1982, selon mon estimation). Il surestimait encore plus le revenu moyen du 99 % le moins riche (de 20 % en 1982), car dans ce cas, les contribuables manquant.es avaient des revenus très faibles (estimés à 20 % de la moyenne, je le rappelle) et que l’on comptabilisait dans le 99 % des contribuables allant en fait dans le 1 % le plus riche. Notons que j’ai estimé les revenus de ces contribuables (ceux et celles se situant entre 0,8 % et 1 %) au niveau du seuil de revenu d’entrée dans le 1 % le plus riche (en fait du 0,8 %), surestimant ainsi un peu leur revenu (car ces personnes gagnaient en fait un peu moins que ce seuil) et sous-estimant en conséquence un peu (très très peu) celui des 99 % les moins riches. J’ai dû utiliser cette approximation, car le fichier de Statistique Canada ne fournit aucune donnée sur le revenu de ces contribuables. Il est toutefois clair que ces surestimations et sous-estimations sont minimes par rapport à celles que la méthode que j’ai adoptée corrige.

L’omission des contribuables à faibles revenus a fait en sorte que la croissance des revenus au cours des années suivantes était sous-estimée, car se calculant à partir d’un niveau trop élevé en 1982. On pourra mieux visualiser l’ampleur des conséquences de ces sous-estimations dans les prochaines parties de ce billet.

Revenu du marché

Le graphique qui suit montre l’évolution des revenus moyens du marché («revenus provenant des gains, investissements, pensions, paiements de pension alimentaire versée à un époux, et autres revenus imposables») en dollars constants chez le 1 % le plus riche et le 99 % le moins riche en données brutes et en données ajustées (en tenant compte des contribuables manquant.es) entre 1982 et 2016. Pour qu’on puisse mieux voir l’évolution relative des deux courbes, j’ai fait partir les quatre séries de données à 100 (en divisant chaque donnée de chaque série par son revenu de 1982). En effet, comme le revenu moyen du 1 % le plus riche est selon les années entre sept et 13 fois plus élevé que le revenu moyen des 99 % les moins riches, les mouvements des revenus de ce dernier groupe n’auraient pas été perceptibles dans un graphique montrant l’évolution des revenus de ces deux catégories de contribuables.

Ce graphique permet de constater que la croissance du revenu réel (en dollars constants) du marché ajusté a augmenté davantage que le revenu réel en données brutes à la fois pour le 1 % le plus riche (ligne jaune par rapport à la ligne bleue) et pour le 99 % le moins riche (ligne verte par rapport à la ligne rouge). Il nous permet aussi de constater que le revenu du 1 % le plus riche a augmenté beaucoup plus fortement que celui des 99 % les moins riches, mais surtout au cours des années 1980 et 1990. Notons toutefois le saut étrange des revenus en 1994. Nicolas Zorn expliquait dans un document paru en 2015 dans L’Actualité économique (Un Québec égalitaire? Évolution du 1 % le plus riche, 1973-2008) que cette hausse temporaire est due à un changement fiscal touchant le traitement des gains en capital qui a porté les plus riches (mais aussi d’autres contribuables, comme le saut plus léger cette même année chez les 99 % les moins riches le montre bien) à déclarer beaucoup plus de ces gains cette année-là (pour plus de précision, voir les pages numérotées 291 et 293 de ce document) pour éviter le taux d’imposition plus élevé qu’ils auraient dû payer en réalisant ces gains en capital une année ultérieure.

Le tableau ci-contre permet de mieux évaluer l’écart entre les données brutes et ajustées. La première colonne montre que le revenu du 1 % le plus riche a augmenté entre 1982 et 2000 de 74 % selon les données brutes, mais de 86 % selon les données ajustées, soit un niveau plus élevé de près de 12 points de pourcentage. Pour les 99 % les moins riches, cet écart est plus marqué : au lieu de diminuer de 3 %, il a en fait augmenté de 14 %, un écart de près de 18 points. Pour l’ensemble de la période (1982 à 2016), la hausse du revenu moyen du 1 % le plus riche fut de 91 % selon les données brutes (de 176 000 $ à 336 000 $), mais de 104 % après ajustement (de 163 500 $ à 333 000 $), un écart de 13 points de pourcentage. La hausse du revenu moyen des 99 % les moins riches fut de 10 % selon les données brutes (de 23 750 $ à 26 100 $), mais de 30 % après ajustement (de 19 750 $ à 25 750 $), un écart de 20 points de pourcentage ou un niveau de croissance trois fois plus élevé. On voit donc que l’omission des contribuables manquant.es a un effet important sur la hausse des revenus.

Les deux dernières colonnes révèlent deux constats importants. Tout d’abord, les taux de croissance avant et après ajustements sont très semblables, ce qui est normal, car, comme mentionné auparavant, le ratio de déclarant.es sur la population âgée de 18 ans et plus est demeuré assez stable à partir de 2000, ce qui a rendu les ajustements minimes. Ensuite, on remarquera que de 2000 à 2016 et de 2012 à 2016, le taux de croissance du revenu moyen des 99 % les moins riches fut plus élevé que celui du 1 % le plus riche, que ce soit dans les données brutes ou après ajustements. Cela dit, si j’avais choisi 2001 au lieu de 2000 comme année de départ pour la troisième colonne, le taux de croissance du 1 % le plus riche aurait été légèrement plus élevé que celui des 99 % les moins riches. De toute façon, le graphique montre bien que, malgré des différences annuelles, le revenu moyen du 1 % le plus riche a bien moins augmenté depuis le tournant du siècle et a même diminué un peu depuis 2007, l’année précédant la récession. Il ne faut toutefois pas accorder trop d’importance aux variations annuelles, d’autant plus que, en raison de l’ajout d’un palier d’imposition en 2016, certains revenus qui auraient normalement dû être reçus en 2016 l’ont été en 2015 (voir ce billet pour plus de précisions sur ce déplacement de revenus). L’important est de retenir que les inégalités se sont accrues surtout au cours des années 1980 et 1990, et qu’elles ont peu varié depuis le tournant du siècle, ce qui concorde avec ce que nous avions observé avec les données sur le coefficient de Gini (voir ce billet).

Revenu après impôt

Le graphique qui suit montre l’évolution des revenus moyens après impôt (revenus du marché plus les transferts gouvernementaux et les crédits d’impôt remboursables, moins les impôts fédéral et provincial) en dollars constants chez le 1 % le plus riche et le 99 % le moins riche en données brutes et en données ajustées entre 1982 et 2016. Comme pour le graphique précédent, j’ai fait partir les quatre séries de données à 100. Les constats généraux sont les mêmes, si ce n’est que le saut étrange des revenus du 1 % le plus riche en 1994 a une ampleur plus grande que celui observé dans les revenus du marché. Mais, on connaît la raison, d’autant plus que le niveau d’imposition des gains en capital est moins élevé que celui des autres revenus.

Le tableau ci-contre est aussi calqué sur le précédent. À ma surprise, les pourcentages qu’il montre sont semblables à ceux du tableau précédent, si ce n’est que les revenus ont augmenté un peu plus cette fois, probablement en raison de la croissance des transferts en début de période (comme on a pu le voir dans ce billet). Mais, là aussi, le constat principal est que la hausse des inégalités s’observe essentiellement dans les années 1980 et 1990, le revenu des 99 % les moins riches ayant aussi augmenté davantage que celui du 1 % le plus riche entre 2000 et 2016.

Part du revenu total du 1 % le plus riche

Le graphique qui suit montre l’évolution de la part du revenu du marché et du revenu après impôt chez le 1 % le plus riche, selon les données brutes et ajustées. On peut voir dans ce graphique que la tendance est la même que dans les graphiques précédents, soit que les inégalités, que ce soit du revenu du marché (lignes jaune et bleue) ou du revenu après impôt (lignes verte et rouge), ont augmenté essentiellement au cours des années 1980 et 1990. En effet, la part du 1 % selon les deux types de revenus est demeurée assez stable entre 2000 et 2016, la plupart du temps entre 11 et 12 % du revenu total selon le revenu du marché, et entre 8 et 9 % du revenu total selon le revenu après impôt. On notera que la différence de la part du revenu total du 1 % le plus riche avant et après ajustement n’est significative et observable qu’entre 1982 et la fin des années 1990, cet ajustement étant peu ou pas perceptible par la suite.

Oui, mais…

On voit que les principales sources sur les inégalités convergent pour montrer que celles-ci auraient cessé d’augmenter depuis 15 ou 20 ans environ, même si elles sont demeurées à un niveau élevé. Par contre, les données fiscales, comme toutes données, peuvent parfois cacher certains phénomènes qu’elles ne prennent pas en compte. Dans un billet datant de 2014, j’ai présenté une étude de Michael Wolfson, Mike Veall et Neil Brooks intitulée Piercing the Veil – Private Corporations and the Income of the Affluent (Lever le voile – Les sociétés privées et le revenu des riches). Les auteurs y expliquaient que les «sociétés privées sous contrôle canadien» (SPCC), soit les sociétés qui appartiennent à des actionnaires privés canadiens, ont la possibilité de retenir une partie de leurs profits plutôt que de les verser sur-le-champ aux actionnaires, pour déplacer le moment du paiement des impôts liés à ces profits lors d’une année où leur taux marginal d’imposition est plus bas ou pour partager ces profits (versés en général en dividendes) avec un membre de leur famille qui a un revenu plus bas.

Ce n’est pas l’impact de cette technique sur les revenus de l’État qui intéressait les auteurs, mais bien celui sur la part des revenus gagnés par le 1 % le plus riche. Le graphique ci-contre montre le résultat de leurs calculs. On voit que, en considérant ces revenus supplémentaires déplacés, la part des revenus totaux du 1 % le plus riche aurait été entre deux et trois points de pourcentage plus élevés (écart entre les lignes bleu pâle et bleu foncé) si ces revenus avaient été déclarés l’année où ils ont été gagnés. Cela dit, l’impact sur l’accroissement des inégalités est de moindre ampleur, car cette technique est utilisée depuis longtemps. On voit d’ailleurs que l’écart le plus grand entre les deux lignes s’est observé en 2006 et en 2007 (environ trois points), qu’il a baissé lors de la récession (2008 et 2009) et qu’il est reparti en hausse en 2010 et en 2011 pour revenir à au moins trois points. Sur cette période, de 2001 à 2011, la part officielle des revenus n’a pas du tout augmenté, tandis que celle qui tient compte des revenus supplémentaires a augmenté d’un peu plus d’un point.

Cette étude est intéressante, mais elle porte sur le Canada (alors que les données que j’ai utilisées portent sur le Québec) et les données se terminent en 2011, soit cinq ans avant celles que j’ai présentées ici. Il est donc difficile de deviner l’ampleur de cet impact au Québec. Par contre, on sait que les membres des ordres professionnels peuvent maintenant exercer leur profession en société et que cette autorisation a été accordée entre 2003 et 2016, selon les ordres (voir la deuxième colonne de cette page), soit au cours de la période où la croissance des revenus du 1 % le plus riche a ralenti et où les inégalités selon les données fiscales présentées plus tôt ont stagné. Il est donc plus que probable que ce facteur ait eu un impact au Québec aussi.

Et alors…

Si ce billet nous a permis de confirmer que les inégalités ont le plus augmenté dans les années 1980 et 1990, la relative stabilité de ce niveau d’inégalités depuis le tournant du siècle demeure intrigant. Nous avons vu qu’il est fort probable que l’utilisation plus grande des techniques fiscales liées aux SPCC ait camouflé une certaine hausse des inégalités, mais sans que nous puissions en estimer l’ampleur. De même, la hausse de 5,7 points de pourcentage du taux d’emploi des femmes (de 51,3 % à 57,0 %) entre 2000 et 2016 a sûrement contribué à la plus forte hausse du revenu des 99 % les moins riches et ainsi à la stagnation de la part des revenus totaux du 1 % le plus riche. Certains facteurs démographiques ont pu aussi jouer, mais probablement en sens opposé (moins de jeunes en début de carrière, mais plus de personnes âgées). Cela dit, on ne peut nier que la tendance à la hausse des inégalités semble vraiment avoir ralenti, quoiqu’il demeure inquiétant que, compte tenu du niveau qu’elles ont atteint et des facteurs mentionnés (utilisation des SPCC et hausse du taux d’emploi des femmes), les inégalités n’aient pas diminué. Cela montre qu’il faudra adopter des politiques beaucoup plus agressives si on veut atteindre un niveau d’inégalités plus acceptable.

Algorithmes : la bombe à retardement

15 avril 2019

Avec Algorithmes : la bombe à retardement, Cathy O’Neil, mathématicienne, «lutte contre les dérives des algorithmes (…) [et] dévoile ces «armes de destruction mathématiques» qui se développent grâce à l’ultra-connexion et leur puissance de calcul» dans «des domaines aussi variés que l’emploi, l’éducation, la politique, nos habitudes de consommation».

Préface : Cédric Villani, mathématicien et homme politique français, raconte que la sortie de ce livre en anglais (avec un titre beaucoup plus pertinent, soit Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy ou Armes de destruction mathématiques – Comment les données massives accroissent les inégalités et menacent la démocratie) en 2016 lui a fait l’effet d’un coup de tonnerre.

Introduction : L’auteure raconte ses premiers contacts avec des données massives (big data) et explique pourquoi elle a tout de suite craint les ennuis qui découleraient de leur utilisation. Elle donne d’ailleurs de nombreux exemples de mauvaises utilisations de ces données ainsi que d’algorithmes opaques que personne ne comprend et qui donnent de mauvais résultats. Elle explique ensuite son cheminement professionnel et les raisons pour lesquelles elle a lancé un blogue, puis présente les objectifs de son livre (voir l’amorce de ce billet).

Les mécanismes d’une bombe : Tous les modèles sont des simplifications de la réalité. Toutefois, les conséquences de cette simplification varient considérablement d’un modèle à l’autre. L’auteure donne des exemples où la simplification a peu d’impact (comme l’utilisation des données sur les frappeurs au baseball pour placer ses joueurs défensifs) et d’autres où elle rend le modèle inefficace et même dangereux ou injuste (comme l’utilisation des notes d’élèves pour évaluer le travail des enseignant.es). Un bon modèle doit :

  • reposer sur des données fiables et les plus complètes possible;
  • évoluer avec ce qu’il simule;
  • comprendre des mécanismes de rétroaction (pour vérifier s’il fonctionne);
  • éviter l’application de moyennes à des cas individuels (notamment en matière de justice);
  • être transparent;
  • rejeter les boucles de rétroaction (qui font en sorte que le modèle génère lui-même ses résultats).

Sous le choc : L’auteure raconte son passage à l’emploi d’un gestionnaire de fonds spéculatifs, de 2007 à 2009. Contente au début de travailler sur du concret, elle a rapidement déchanté en constatant les conséquences de la crise financière commencée en 2008. Elle présente certaines des fraudes mises en œuvre à l’époque, le rôle des armes de destruction mathématiques (ADM) dans ces magouilles et les conséquences de leur utilisation. Face à ce désastre, elle a quitté cet emploi pour un autre dans une firme d’analyse de risques qui travaillait pour les banques et les gestionnaires de fonds. Constatant que ce travail ne visait pas vraiment à réduire les risques, mais plutôt à servir de paravent pour ses clients, elle l’a quitté en 2011 pour travailler comme experte en données responsable de la conception de modèles prédictifs d’achats et de clics des consommateurs. C’est aussi à cette époque qu’elle a commencé à tenir un blogue et à s’impliquer dans le mouvement Occupy Wall Street. Encore une fois déçue de l’utilisation que cette entreprise faisait des données et des mathématiques, elle a quitté cet emploi en 2013.

La course à l’armement : L’auteure aborde l’utilisation des données et des algorithmes dans les classements des universités. Ce système est un exemple d’un des pires défauts des ADM, car ce type de classements «génère une spirale presque infinie de multiples boucles de rétroaction destructrices». Par exemple, les universités mal classées sont boudées par les meilleur.es étudiant.es, ce qui fait encore baisser leur classement, peu importe la qualité réelle de ces universités et les mesures de redressement qu’elles mettent en œuvre. Et comme on pouvait s’y attendre (j’en parlais en 2010…), les universités se sont mises à améliorer les indicateurs retenus plutôt que ce que ces indicateurs sont censés mesurer, soit la qualité de l’enseignement et de la recherche, parfois en trichant. Elle présente ensuite les effets néfastes de la course aux indicateurs par les universités des États-Unis, dont l’augmentation des droits de scolarité et de la dette étudiante qui ne font pas partie des indicateurs considérés dans le classement des universités. Et cela a même permis à la création de firmes de consultant.es qui conseillent les universités pour améliorer leur classement.

Machine de propagande : Ce chapitre porte sur l’utilisation des ADM dans la publicité, surtout par les universités à but lucratif (qui visent souvent des personnes démunies en leur faisant de fausses promesses). Elle explique ensuite comment fonctionnent les ADM de ces universités (et d’autres secteurs) et décrit les dégâts qu’elles causent.

Victimes civiles : C’est maintenant au tour des ADM utilisées par les services policiers et par le système de justice de passer au crible de l’analyse de l’auteure. Si certains de ces systèmes sont utiles, par exemple en localisation des lieux de crimes importants, d’autres sont nuisibles, par exemple en localisation des lieux de crimes mineurs qui se concentrent dans les quartiers pauvres et auprès des personnes racisées, créant une autre boucle de rétroaction. L’auteure préférerait qu’on se concentre dans le milieu financier, où les crimes sont d’une importance autrement plus dévastatrice! Avec des hackeur.euses et des mathématicien.nes, elle a pu avoir accès aux fichiers d’interventions dans le cadre de la politique Stop-and-Frisk (interpeller et fouiller) de la ville de New York et a constaté que 85 % des personnes interpellées et fouillées étaient des «jeunes hommes d’origine hispanique ou afro-américaine», en grande majorité innocents et rarement liés à des crimes violents (environ 0,1 %). On peut parler dans ce cas de profilage racial institutionnalisé.

L’auteure passe ensuite à l’ADM utilisée par le système judiciaire pour déterminer les peines, se basant sur des risques de récidive. Voilà un autre algorithme qui entraîne des boucles de rétroaction dont les principales victimes sont aussi des personnes racisées et pauvres. On les arrête plus souvent donc elles auraient plus de possibilités de récidiver. Et, avec les progrès dans la collecte des données et les techniques pour les utiliser (dont la reconnaissance faciale), le pire reste à venir…

Inapte au service : Des ADM, souvent discriminatoires, sévissent aussi dans le domaine du recrutement, même pour des emplois au salaire minimum. Et, elles ne sont même pas toujours pertinentes, pénalisant encore une fois les personnes racisées et les plus pauvres.

L’angoisse au quotidien : Il en est de même des ADM utilisées pour confectionner des horaires variables ajustés aux temps morts, surtout dans le commerce de détail et dans la restauration, là où les salaires sont parmi les moins élevés et où une forte proportion de la main-d’œuvre est racisée et pauvre (on n’en sort pas…). Les salarié.es apprennent souvent leurs horaires à un ou deux jours d’avance, ce qui pénalise en premier lieu les familles, surtout monoparentales. Ce chapitre porte aussi sur l’utilisation d’ADM pour effectuer l’évaluation des employé.es, donnant à cet exercice une illusion d’objectivité, alors que ces ADM sont bien approximatives. L’auteure revient sur les évaluations des enseignant.es par des ADM. S’il y a un domaine où elles sont nocives, c’est bien lui, les facteurs expliquant le succès des élèves étant bien trop nombreux et variables pour pouvoir les modéliser de façon pertinente. Elle donne l’exemple d’un enseignant dont l’évaluation est passée de 6 % à 96 % en un an, sans qu’il change quoi que ce soit à sa façon d’enseigner…

Dommages collatéraux : Les cotes de crédit fournies aux banques par les agences d’évaluation de crédit (comme Equifax et Transunion) sont relativement fiables, car elles reposent sur des données objectives individuelles (et non sur des moyennes de caractéristiques ethniques, géographiques et autres comme celles qu’utilisent les ADM) qui sont connues et qu’on peut consulter et corriger, et car elles peuvent être modifiées en fonction des transactions qu’on fait sur une base régulière. Malheureusement, des sociétés financières (comme des sociétés émettrices de cartes de crédit) complètent de plus en plus ces cotes par celles générées par des ADM, entraînant les mêmes types de boucles de rétroaction injustes mentionnées dans les chapitres précédents. En plus, on ne connaît pas les données utilisées et on peut rarement et difficilement les faire corriger, même si les erreurs y sont nombreuses.

L’auteure précise par la suite que si les cotes de crédit sont pertinentes pour décider de l’octroi d’un prêt, elles ne le sont pas du tout pour choisir un.e locataire ou pour décider d’une embauche ou d’une promotion (ce qui se fait pourtant), car elles n’ont rien à voir avec la fiabilité d’une personne en emploi ou dans un logement. En effet, une mauvaise cote de crédit résulte souvent de circonstances dont cette personne n’est pas responsable (perte d’un emploi, frais médicaux exorbitants, etc.).

Zone à risque : Les sociétés d’assurances se sont, elles aussi, fait séduire par les ADM. Établie à la base sur la mutualisation des risques, l’industrie de l’assurance cherche toujours à estimer les risques individuels, augmentant par exemple ses tarifs d’assurance automobile pour les conducteur.trices qui ont de mauvais dossiers de conduite. Elle se sert aussi de données sur des caractéristiques (âge, lieu du domicile, etc.). Avec les ADM, elles vont bien plus loin dans ce sens (utilisant des caractéristiques déterminées par des algorithmes qu’elle ne connaît elle-même pas toujours), pénalisant encore une fois les plus pauvres et les personnes racisées. Et, elle offre en plus des rabais aux personnes qui acceptent d’implanter des espions (genres de boîtes noires) dans leur véhicule pour collecter encore plus de données sur leur façon de conduire, leurs trajets, leurs destinations, etc. Il en est de même des assurances santé offertes par les employeurs qui comprennent aussi des intrusions dans la vie privée. L’auteure en profite pour dénoncer l’utilisation de l’indice de masse corporelle (IMC) par les assureurs et par les employeurs, un indice qui imagine que le corps humain est en deux dimensions et qui est basé sur des moyennes appliquées à des individus qui ont des corps bien différents.

Le citoyen pour cible : L’auteure se penche cette fois sur les ADM qui visent l’ensemble des citoyen.nes, comme celles utilisées par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) et les partis politiques. Ce chapitre est intéressant, mais l’année de publication originale de ce livre (2016) transparaît, car les développements révélés par après sur les algorithmes utilisés par ces sociétés et par les partis politiques, notamment par Facebook et le parti républicain, ne lui étaient bien sûr pas connus.

Conclusion : L’auteure présente les effets cumulatifs des ADM présentées dans les chapitres précédents : consternants pour les personnes racisées ou pauvres, et en général positifs pour les autres (sauf pour leurs données personnelles et leur vie privée), surtout pour les plus riches qui bénéficient en quelque sorte des malheurs des premiers. Elle recommande ensuite de nombreuses mesures pour éviter les pires effets des ADM et donne des exemples d’utilisations positives de données massives.

Postface : L’auteure décrit les erreurs de plus en plus fréquentes et importantes dans les sondages politiques et donne de nouveaux exemples d’ADM néfastes et d’algorithmes plus utiles. Elle conclut que devant la menace des ADM, il faut agir et vite.

Et alors…

Lire ou ne pas lire? Lire, même si mes attentes envers ce livre n’ont pas toutes été atteintes. Il faut le lire, car l’auteure nous fournit un portrait exhaustif de l’utilisation des algorithmes et des données massives. Elle les décrit avec précision et analyse avec rigueur les conséquences de leur utilisation. Elle se soucie beaucoup de la qualité et de la pertinence des données utilisées, ce qui est aussi un de mes dadas. J’ai été un peu déçu, car elle ne mentionne pas toujours clairement l’ampleur de l’utilisation et des conséquences des algorithmes et des données massives qu’elle présente. Les exemples sont clairs, mais il est parfois difficile de savoir s’il ne s’agit que d’anecdotes ou si ceux-ci sont représentatifs d’une situation généralisée. Malgré ce bémol, j’en ai appris passablement, même s’il s’agit d’un domaine que je connaissais assez bien avant de lire ce livre. Il y a très peu de notes, provenant en forte majorité du traducteur (certaines m’ont fait sourire, notamment celles portant sur le baseball que le traducteur connaît manifestement mal), et elles sont en bas de page.

11 brefs essais contre le racisme

8 avril 2019

Le livre 11 brefs essais contre le racisme – Pour une lutte systémique, dirigé par Amel Zaazaa et Christian Nadeau, dénonce le racisme systémique, soit «les oppressions diverses, mais toujours connexes vécues par les personnes racisées dans des domaines comme le travail, la justice pénale, la santé, l’éducation, le logement, etc.», et montre qu’il faut «passer de l’aveuglement à la prise de conscience collective pour agir et établir des normes politiques et sociales valables pour toutes et tous».

Préface : «Dans la réalité quotidienne, il existe plusieurs barrières sociales qui empêchent les citoyen.nes de jouir pleinement» des droits pourtant garantis par les chartes internationales et nationales. Frantz Voltaire présente certaines de ces barrières et des pistes de solution pour lutter activement contre le racisme, surtout systémique, puis nous invite à lire ce livre qui approfondit ces questions.

Introduction : Amel Zaazaa et Christian Nadeau définissent ce qu’est le racisme systémique et ce qu’il n’est pas, puis présentent les objectifs de ce livre et les textes qui suivent.

Québec, 29 janvier 2017 : je me souviens… : Cheikh Tidiane Ndiaye et Webster, père et fils, échangent «sur leurs parcours, leurs craintes et leurs espoirs» tout en se penchant sur les spécificités de l’identité québécoise et de son immigration pour mieux comprendre la montée de l’intolérance dans cette société. Le premier nous offre un rapide survol de la situation de 1976 à aujourd’hui, alors que le deuxième s’intéresse aussi bien à des événements plus récents qu’à «la réhabilitation de la présence noire au Québec afin de mieux cimenter l’identité québécoise dans toute sa pluralité».

Le système de justice et la lutte contre le racisme : Fabrice Vil analyse notre système de justice pour savoir s’il appuie la lutte contre le racisme ou s’il y contribue. Il conclut que seule la participation citoyenne peut améliorer ce système en favorisant l’adoption de lois justes, en contestant les lois discriminatoires et en faisant progresser les mentalités.

Islamophobie et racisme : Idil Issa montre que le concept d’accommodements raisonnables a toujours été présent dans l’histoire du Canada et du Québec, mais qu’il a commencé à devenir suspicieux au lendemain des événements du 11 septembre 2001. Puis il y a eu le code de conduite d’Hérouxville, l’ADQ élue opposition officielle, la charte des valeurs du PQ et bien d’autres événements qui ont polarisé la population. Elle a continué à militer, mais souligne qu’il est plus difficile de le faire pour les musulmanes voilées racisées.

Luttes sociales et syndicalisme : Dans le contexte actuel de corporatisme et de judiciarisation des relations de travail, Marc-Édouard Joubert se demande s’il est «encore pertinent pour des syndicats de s’impliquer dans les luttes sociales». Rappelant que, depuis que les organisations syndicales existent, les luttes ouvrières et sociales furent toujours entremêlées, il retrace une partie de l’histoire de ces luttes au Québec, notamment en matière de racisme, et conclut en soulignant l’urgence pour les syndicats de s’impliquer davantage dans les luttes contre le racisme, et en proposant quelques façons de le faire, notamment en créant des alliances avec des groupes communautaires engagés dans ce type d’actions.

Hoodstock ou la réappropriation d’une citoyenneté confisquée : Amel Zaazaa présente la réalité socio-économique de Montréal-Nord, puis raconte les événements, dont la mort de Fredy Villanueva et d’autres habitants du quartier abattus par des policiers, qui ont amené la population à créer le collectif Hoodstock, «un mouvement politique non partisan qui permet à la population de Montréal-Nord d’avoir voix au chapitre».

Une longue histoire à suivre - la commission d’enquête sur le racisme systémique : Will Prosper part aussi de la mort de Fredy Villanueva et du profilage racial, mais aussi du racisme sur le marché du travail, dans le logement, le transport, le milieu culturel, les services sociaux et ailleurs, pour expliquer sa proposition de mettre sur pied une commission d’enquête sur le racisme systémique. Il présente ensuite les démarches qu’il a entreprises avec d’autres pour concrétiser cette proposition et les réactions qu’elles ont suscitées, négatives du côté du PQ et de la CAQ, en moyenne négatives dans les médias, plus positives que prévu du côté du PLQ et décevantes du côté de QS, où il avait plus d’espoir. Devant cette impasse politique, l’auteur et son groupe entendent organiser quand même une commission itinérante sur le racisme systémique avec les moyens qu’ils auront su réunir.

Lutte antiraciste et mouvement communautaire : Alexandra Pierre déplore le manque de diversité dans le personnel des organismes communautaires et leur manque d’enthousiasme dans la lutte au racisme. Elle dénonce ensuite les expressions inadéquates pour parler des personnes racisées, fournit des données (désolantes) sur la présence de ces personnes dans les groupes communautaires, aborde d’autres aspects de la question, puis propose des pistes de solution.

Racisme et peuples autochtones – décoloniser les esprits par l’éducation : Widia Larivière apporte «un témoignage d’expériences et de visions personnelles» sur la discrimination et le racisme vécus par les Autochtones à travers les initiatives dans lesquelles elle s’est impliquée, notamment au sein du mouvement Idle no More, puis présente les défis qu’elle a rencontrés et propose des moyens pour en arriver à une véritable réconciliation entre les Autochtones et le reste de la société québécoise.

Antiracisme et interdépendance des droits : Lucie Lamarche et Christian Nadeau considèrent qu’il est relativement facile de combattre le racisme ordinaire, mais qu’il est plus difficile de lutter contre le racisme systémique, beaucoup plus pernicieux. Après avoir défini le racisme systémique, les auteur.es proposent des moyens pour le combattre.

Résister pour rester debout : Rodney Saint-Éloi raconte son exil d’Haïti et son arrivée à Montréal où on le regardait comme une minorité plutôt que comme une personne. Le choc de la découverte de ce racisme fut brutal. C’est la culture et la littérature qui lui ont permis de surmonter cette situation. Si ces domaines ne sont pas exempts de racisme, ils peuvent certainement permettre de se libérer.

Antiracisme et santé mentale : Stella Adjokê donne d’autres exemples d’expériences discriminatoires personnelles et collectives, soulignant qu’on reproche même aux personnes racisées de dénoncer ces formes de racisme systémique. Quand des problèmes de santé mentale s’ajoutent, surtout lorsque causés par cette forme de rejet, l’oppression ne peut qu’en être renforcée. L’indifférence face à ces injustices ajoute une nouvelle couche à ces sentiments d’exclusion. Elle conclut en insistant sur l’importance et l’urgence de «tout faire pour assurer le bien-être de nos collectivités», de «reconstruire ce qui a été détruit par la haine de nos peuples».

Conclusion : Amel Zaazaa et Christian Nadeau rappellent les conséquences de l’attaque de la grande mosquée de Québec en janvier 2017, dont le souvenir a été récemment ravivé par celle survenue en Nouvelle-Zélande. Il et elle insistent pour souligner qu’aucun.e auteur.e de ce livre ne prétend que le Québec est profondément raciste. C’est plutôt la présence du racisme systémique que ces auteur.es entendent combattre, soit le «mode de fonctionnement sociétal, qui va des habitudes culturelles et institutionnelles, des relations médiatisées par l’organisation du travail et du loisir, jusqu’au discours public et au partage de l’espace urbain, comme la séparation des quartiers», sans oublier la distribution des ressources.

Et alors…

Lire ou ne pas lire? Lire, bien sûr! J’ai trouvé que ce livre complète bien celui de Reni Eddo-Lodge que j’ai présenté au début mars. Il fournit en effet de nombreux exemples concrets des manifestations du racisme systémique au Québec, alors que l’autre livre le faisait pour la Grande-Bretagne. Même si on y trouve quelques répétitions, ce qui est inévitable avec un livre écrit par autant d’auteur.es (13), chaque texte présente une réalité qui complète celles abordées dans les autres chapitres. S’il est déprimant de prendre connaissance de toutes ces manifestations de racisme, il est aussi encourageant de constater que tous ces textes contiennent des recommandations pour corriger la situation. Et les notes sont en bas de page.

Les postes vacants en 2018

5 avril 2019

Le dernier billet que j’ai écrit sur les postes vacants date d’octobre 2017 et le sujet, souvent associé à des pénuries de main-d’œuvre, est encore plus présent sur la place publique qu’à l’époque. Je ne parlerai pas ici des estimations (trop) fortement médiatisées de la Fédération canadienne de l’entreprise indépendante (FCEI), car son échantillon est petit (un peu plus de 2000 entreprises à travers le Canada) et incomplet (seulement ses membres, donc ne comprenant aucune entreprise publique). Je préfère de loin celles de l’Enquête sur les postes vacants et les salaires (EPVS) de Statistique Canada, reposant sur un échantillon de 100 000 emplacements. En outre, Statistique Canada a publié la semaine dernière ses estimations pour le quatrième trimestre de 2018, permettant d’analyser ces données pour toute l’année 2018. Les données utilisées dans ce billet proviennent des quatre tableaux publiés par Statistique Canada sur cette page.

Par province

Le tableau ci-contre expose certains constats intéressants sur les taux de postes vacants (tpv), qu’on calcule en divisant le nombre de postes vacants par l’emploi salarié plus le nombre de postes vacants (soit la demande de travail) :

  • le tpv a été nettement plus élevé au Canada qu’au Québec en 2017 (2,8 % par rapport à 2,4 %), mais seulement un peu plus élevé en 2018 (3,2 % par rapport à 3,1 %);
  • c’est en Colombie-Britannique que le tpv fut de loin le plus élevé, tant en 2017 (3,8 %) qu’en 2018 (4,5 %) et à Terre-Neuve-et-Labrador qu’il fut le plus bas (1,7 % et 1,9 %);
  • le tpv a augmenté de 15 % au Canada en 2018; cette hausse fut la plus forte au Québec (30 %), mais, à 3,1 %, ce taux se classait quatrième au Canada, derrière la Colombie-Britannique (4,5 %), l’Île-du-Prince-Édouard (3,4 %) et l’Ontario (3,2 %).

Bref, oui le nombre de postes vacants est en forte croissance au Québec (il y en avait en moyenne 111 500 en 2018 par rapport à 83 000 en 2017), mais le tpv y est encore inférieur de près de 5 % à la moyenne canadienne.

Par région économique

Ce deuxième tableau montre les tpv des régions économiques du Québec en 2017 et en 2018 :

  • les tpv les plus élevés du Québec en 2018 ont été observés dans Chaudière-Appalaches (3,7 %), en Abitibi-Témiscamingue (3,6 %) et dans la Capitale-Nationale (3,5 %);
  • les plus bas étaient ceux de la Mauricie et du Saguenay-Lac-Saint-Jean (2,3 %);
  • la croissance la plus élevée du tpv entre 2017 et 2018 s’est manifestée en Estrie (43 %) et la plus basse à Laval, avec une augmentation de quand même 22 %; on voit donc que le tpv a augmenté dans toutes les régions du Québec d’un pourcentage nettement plus élevé que pour la moyenne canadienne (15 %);
  • les écarts de tpv entre les régions étaient en 2018 étonnamment faibles, alors que le tpv le plus élevé (3,7 %) n’était même pas le double du plus bas (2,3 %).

Par industrie

Le tableau ci-contre nous montre le tpv par industrie en 2017 et en 2018 au Québec. Les secteurs où on observait en 2018 les taux les plus élevés étaient ceux des cultures agricoles (3,6 % en 2017 et 4,6 % en 2018), des services administratifs, de soutien, de gestion des déchets et d’assainissement (3,6 % et 4,4 %), des services de restauration et débits de boissons (3,0 % et 4,3 %) et de l’information et de la culture (2,6 % et 4,1 %). La présence de ce dernier secteur peut étonner, mais il faut savoir qu’on y trouve les industries de l’édition (aussi bien celle de journaux, de périodiques, de livres et de répertoires que de logiciels) avec un tpv de 4,2 % en 2018, du film et de l’enregistrement sonore (4,8 %), des télécommunications (4,3 %) et de la radiotélévision (1,5 %).

Du côté des plus faibles tpv, j’ai été surpris de constater que l’enseignement arrivait au premier rang (0,5 % en 2017 et 0,7 % en 2018) et que les services publics (formés au Québec à environ 90 % d’Hydro-Québec) se classaient deuxième (1,3 % et 0,8 %). On notera que les tpv dans la santé et l’assistance sociale furent inférieurs à la moyenne en 2017 et 2018, même si quelques professions de la santé se retrouvent parmi celles qui ont les tpv les plus élevés, comme on le verra plus loin.

Selon les exigences scolaires

Le graphique ci-contre montre, pour 2018, la répartition des postes vacants (barres bleues), de la population âgée de 15 à 64 ans (barres rouges) et de l’emploi des personnes âgées de 15 à 64 ans (barres jaunes) selon le niveau de scolarité exigé par les employeurs pour les postes vacants qu’ils ont déclarés et selon le plus haut niveau de scolarité atteint dans la population et chez les personnes en emploi. Précisions que, pour les postes vacants, l’indication «moins d’un DES» s’applique en fait à ceux pour lesquels les employeurs n’ont aucune exigence scolaire, tandis que pour la population et les travailleurs, cette indication porte sur les personnes ayant moins d’un diplôme d’études secondaires (DES).

Ce graphique est vraiment étonnant. On peut voir que le pourcentage des postes vacants déclarés par les employeurs exigeant :

  • moins d’un DES (32 %), était plus de deux fois plus élevé que celui des personnes sans DES dans la population (15 %) et trois fois plus élevé que du coté des personnes en emploi (10 %);
  • un DES (24 %), était plus élevé de 75 % que celui des personnes ayant un DES dans la population (14 %) et de près de 90 % que du coté des personnes en emploi (13 %);
  • un diplôme d’études postsecondaires (30 %), était moins élevé de 33 % que celui des personnes ayant un tel diplôme dans la population (46 %) et de 35 % que du coté des personnes en emploi (48 %);
  • un baccalauréat (11 %), était moins élevé de 33 % que celui des bachelier.ères dans la population (17 %) et de plus de 40 % que du coté des personnes en emploi (18 %);
  • plus d’un baccalauréat (1,5 %), était moins élevé de 80 % que celui des personnes ayant plus d’un baccalauréat dans la population (8,0 %) et de près de 85 % que du coté des personnes en emploi (9,1 %).

Alors que les exigences scolaires des employeurs étaient d’au plus un DES pour 57 % des postes vacants qu’ils ont déclarés en 2018, ce n’était le niveau de scolarité le plus élevé que de 29 % de la population et de 23 % des personnes en emploi. À l’inverse, les employeurs n’exigeaient au moins un baccalauréat que pour 13 % de leurs postes vacants, alors que 25 % de la population et 28 % des personnes en emploi avaient ce niveau de scolarité.

Pour vérifier si la mention d’aucune exigence scolaire s’agissait d’une omission par les employeurs répondant à l’enquête ou vraiment d’une absence de telles exigences, j’ai tout d’abord comparé les salaires offerts en 2018. Or, ceux-ci étaient nettement moins élevés dans cette catégorie, soit de 14,63 $, par rapport à 16,25 $ lorsque l’exigence était un DES, à 22,40 $ pour un diplôme d’études postsecondaires, à 33,00 $ pour un baccalauréat et à plus de 35,00 $ pour un diplôme supérieur au baccalauréat.

J’ai ensuite regardé dans quelles professions on observait le plus d’absence d’exigences scolaires. La très grande majorité de l’absence d’exigences scolaires se trouve dans des professions peu ou pas spécialisées, ou dont les compétences s’acquièrent plus par l’expérience que par la scolarité. Les dix professions (sur les 500) qui regroupaient le plus de postes vacants sans exigences scolaires (en fait 52 % du total) étaient dans l’ordre les :

  • serveurs/serveuses au comptoir, aides de cuisine et personnel de soutien assimilé (15,4 %);
  • vendeurs/vendeuses – commerce de détail (7,7 %);
  • conducteurs/conductrices de camions de transport (5,4 %);
  • cuisiniers/cuisinières (4,5 %);
  • garnisseurs/garnisseuses de tablettes, commis et préposés/préposées aux commandes dans les magasins (4,3 %);
  • manutentionnaires (3,7 %);
  • serveurs/serveuses d’aliments et de boissons (3,0 %);
  • caissiers/caissières (2,8 %);
  • préposés/préposées à l’entretien ménager et au nettoyage – travaux légers (2,7 %);
  • manœuvres dans la transformation des aliments et des boissons (2,7 %).

On peut donc conclure sans trop de risque de se tromper que les postes vacants sans exigences scolaires sont bien des postes qui peuvent être occupés par des gens n’ayant pas nécessairement un DES.

Par profession

S’il est intéressant de savoir dans quelles professions il y a le plus de postes vacants, cela ne nous dit pas dans lesquelles le tpv est le plus élevé. Le problème avec les données de l’EPVS par profession est qu’elles fournissent (lorsqu’il y en a suffisamment pour que ce nombre soit fiable et non confidentiel) le nombre de postes vacants totaux, pour les 10 genres de compétences, les 40 grands groupes, les 140 groupes intermédiaires et les 500 groupes de base (qu’on appelle fréquemment «les professions») de la Classification nationale des professions de 2016 ou CNP 2016, mais pas le tpv ni le nombre de salarié.es. Cela est selon moi étrange, parce que le tpv et le nombre de salarié.es sont fournis dans le tableau des postes vacants par industrie et que la fiabilité du nombre de salarié.es est forcément plus élevée que celle du nombre de postes vacants pour lequel l’EPVS fournit des données. Cela dit, j’ai trouvé des sources et une méthode pour estimer le nombre de salarié.es et les tpv par profession.

– la méthode

Depuis le dernier billet dans lequel j’ai abordé ce sujet, j’ai trouvé un tableau de Statistique Canada, le 14-10-0103-01, qui fournit le nombre de salarié.es selon l’EPVS pour les 140 groupes intermédiaires. Pour estimer le nombre de salarié.es pour les 500 professions, j’ai utilisé la répartition des 500 professions pour chacun des 140 groupes intermédiaires selon les données du tableau 98-400-X2016294 du recensement de 2016. Finalement, comme le tableau 14-10-0103-01 a été interrompu en 2017 (grrrr…), j’ai fait une règle de trois avec les totaux de salarié.es de 2017 et de 2018 de l’EPVS pour obtenir le nombre de salarié.es selon les 500 professions pour 2018. Cette méthode, sans être parfaite, est nettement plus satisfaisante que celle que j’avais utilisée auparavant, qui était basée sur trois sources différentes.

– selon les genres de compétences

Le tableau ci-contre montre que non seulement les tpv ont augmenté dans les 10 genres de compétences, mais que l’ordre d’importance des tpv s’est modifié en 2018. Les genres de compétences aux tpv les plus élevés en 2018 s’observaient dans les professions :

  • des ressources naturelles, de l’agriculture et de la production connexe (5,0 %, au quatrième rang en 2017 avec 3,1 %);
  • des sciences naturelles et appliquées et des domaines apparentés (4,7 %, au deuxième rang aussi en 2017 avec 3,5 %);
  • de la fabrication et des services d’utilité publique (4,5 %, au premier rang en 2017 avec 3,7 %);
  • des arts, de la culture, des sports et des loisirs (4,0 %, au troisième rang en 2017 avec 3,4 %).

Les genres de compétences aux tpv les moins élevés étaient dans les professions des mêmes genres de compétences en 2017 et en 2018, soit celles de l’enseignement, du droit et des services sociaux, communautaires et gouvernementaux (1,4 % en 2018 et 1,0 % en 2017), des affaires, de la finance et de l’administration (1,6 % et 1,3 %) et de la gestion (2,1 % et 2,0 %). Ce dernier genre de compétences fut aussi celui où le tpv a le moins augmenté en 2018, soit de seulement 5 %, alors que celui des ressources naturelles, de l’agriculture et de la production connexe a le plus augmenté, soit de 60 % (de 3,1 % à 5,0 %).

– selon les niveaux de compétences

Que ce soit en 2017 ou en 2018, le tableau ci-contre montre que les tpv :

  • dans le personnel de gestion sont les plus bas;
  • sont proches de la moyenne dans les personnels professionnel (dont les professions exigent généralement un diplôme universitaire), technique (dont les professions exigent généralement un diplôme postsecondaire) et intermédiaire (dont les professions exigent généralement un diplôme d’études secondaires);
  • sont de loin les plus élevés (et encore plus en 2018) dans les professions du personnel élémentaire (dont les professions n’exigent qu’une formation en cours d’emploi).

– quelques professions

Le tableau qui suit montre les six professions avec le plus de postes vacants en 2018 ainsi que les six professions comptant au moins 10 000 salarié.es qui avaient les tpv les plus élevés.

On peut voir que quatre des six professions comptant le plus de postes vacants sont dans la vente et les services (dont le premier chiffre du code est un six) et qu’une d’entre elles fait partie des professions de niveau élémentaire soit les serveurs/serveuses au comptoir, aides de cuisine et personnel de soutien assimilé. La présence de cette profession au sommet des postes vacants (dont le nombre de postes vacants a en plus augmenté de plus de 75 % en un an) avec les cuisiniers/cuisinières au cinquième rang est cohérent avec le tpv élevé dans la restauration et les difficultés de recrutement dont se plaignent les restaurateurs. On y trouve en plus les :

  • vendeurs/vendeuses – commerce de détail, dont le nombre de postes vacants a augmenté de 25 % en 2018 malgré la concurrence de plus en plus importante du commerce en ligne;
  • conducteurs/conductrices de camions de transport, dont le nombre a augmenté des deux tiers (66 %) entre 2017 et 2018, même si on parle fréquemment de la disparition de cette profession en raison de l’arrivée de camions autonomes (il semble que ce ne sera pas pour demain…);
  • autres préposés/autres préposées aux services d’information et aux services à la clientèle, dont la demande reflète les difficultés de recrutement de ces préposé.es dans les centres d’appel (et ailleurs);
  • aides-infirmiers/aides-infirmières, aides-soignants/aides-soignantes et préposés/préposées aux bénéficiaires, profession où le recrutement est de plus en plus difficile.

On remarquera qu’on ne trouve dans cette liste aucune profession du personnel professionnel ni de la gestion et qu’il n’y en a qu’une de niveau technique (les cuisiniers/cuisinières).

Les six professions montrant les tpv les plus élevés sont plus variées. Deux font partie du personnel professionnel, soit les infirmiers autorisés/infirmières autorisées et infirmiers psychiatriques autorisés/infirmières psychiatriques autorisées (dont les effectifs étudiants diminuent en raison des mauvaises conditions de travail) et les programmeurs/programmeuses et développeurs/développeuses en médias interactifs (pour lesquels on offre pourtant des crédits d’impôt à la création d’emplois aux employeurs alors qu’il manque de personnes pour les occuper, ce qui nuit selon bien des employeurs aux entreprises locales en accentuant les pénuries dans ce domaine). On en trouve aussi deux parmi les professions du personnel technique, toutes deux associées au secteur de la fabrication, soit les machinistes et vérificateurs/vérificatrices d’usinage et d’outillages et les soudeurs/soudeuses et opérateurs/opératrices de machines à souder et à braser. Les deux autres professions montrant les tpv les plus élevés (dont les codes sont 6711 et 7511) font partie des personnels intermédiaire et élémentaire, et étaient aussi dans la liste des professions comptant le plus de postes vacants. Et, toujours pas l’ombre d’une profession de la gestion!

Et alors…

Que conclure de tout cela? Il semble clair que les employeurs ont plus de difficulté à pourvoir les postes qui exigent peu de compétences que ceux qui en exigent beaucoup. L’augmentation du nombre de postes vacants ne serait donc pas, comme on l’entend et le lit souvent, dû en premier lieu à un manque de compétences dans la population, ce qui correspondrait avec l’utilisation du terme «pénurie», mais surtout à une insuffisance de l’offre de main-d’œuvre peu qualifiée et surtout à des conditions de travail peu attrayantes. Lorsqu’on offre en moyenne 12,25 $ au Québec (ce qui n’est guère plus que le salaire minimum) pour des postes de serveurs/serveuses au comptoir et aides de cuisine (et qu’on traite souvent mal les personnes qui acceptent de telles offres), doit-on se demander longtemps pourquoi on ne trouve pas rapidement des personnes prêtes à occuper ces postes quand ils se libèrent et pourquoi ils se libèrent si souvent? Chose certaine, si le salaire minimum augmentait à 15,00 $ de l’heure, les employeurs auraient moins de difficulté à trouver preneurs pour ces postes et se plaindraient probablement moins souvent aux journalistes de subir des pénuries de main-d’œuvre!

En plus, les constats de ce billet remettent drôlement en question la décision du gouvernement de la CAQ de faire diminuer l’immigration et de la lier directement aux besoins des entreprises. En effet, on choisit les immigrant.es pour qu’ils et elles deviennent des citoyen.nes du Québec, pas seulement de la main-d’œuvre pour les employeurs. Quand on sait en plus que les besoins des employeurs se concentrent dans des emplois mal payés et aux conditions de travail précaires, il devient complètement ridicule et inefficace de choisir les immigrant.es pour qu’ils et elles deviennent du cheap labor pour des employeurs qui sont incapables d’offrir des conditions de travail décentes! Et augmenter le nombre de travailleur.euses étranger.ères temporaires encore plus précaires, comme semble vouloir le faire ce gouvernement, n’est pas nécessairement mieux…

La dernière étreinte

1 avril 2019

Avec La dernière étreinte – Le monde fabuleux des émotions animales… et ce qu’il révèle de nous, Frans de Waal, primatologue et éthologue, nous offre une «véritable plongée au cœur de l’émotion animale, qui nous invite à reconsidérer toutes nos certitudes».

Préface : L’auteur explique à quel point le sens de l’observation est important si on veut comprendre le comportement des chimpanzés (et des autres animaux, y compris des humains). Cela dit, il est nécessaire, mais insuffisant, pour étudier des phénomènes comme les émotions. C’est à ce moment que l’approche scientifique devient essentielle.

1. La dernière étreinte de Mama. Les adieux d’une matriarche : L’auteur raconte la dernière rencontre entre un humain de 80 ans et la chimpanzé Mama près de la mort (elle avait 59 ans) au cours de laquelle ils se sont étreints (la «dernière étreinte» du titre du livre). Il décrit ensuite la parenté évolutionnaire entre ces deux hominidés et l’inconfort fréquent des humains qui constatent à quel point ces deux espèces se ressemblent. Il aborde ensuite la question des émotions et raconte quelques anecdotes sur le comportement des chimpanzés (et des humains) face à des situations diverses, comportements fortement influencés aussi par le sens de l’observation des humains et des chimpanzés. Il analyse notamment les relations de pouvoir, le deuil, le chagrin et les relations entre les mâles et les femelles (et entre les mâles et entre les femelles).

2. Fenêtre sur l’âme. Quand les primates rient et sourient : Certain.es scientifiques détestent quand on accorde des émotions dites humaines à des animaux (même si Charles Darwin a écrit un livre à ce sujet). Les accusations d’anthropomorphisme ne sont pas loin. L’auteur considère plutôt que ces personnes sont atteintes d’«anthropodéni», ce refus de reconnaître les émotions animales, même chez les grands singes génétiquement si près de nous. Il donne ensuite des exemples de manifestations d’émotions chez les grands singes et les humains, notamment par leurs expressions faciales (froncements de sourcils, rire, sourire, etc.) et par les sons émis en même temps.

3. Corps à corps. Empathie et sympathie : Ce chapitre porte sur les «perceptions affûtées des grands singes». L’auteur analyse ces perceptions à l’aide d’observations dans la nature ou en laboratoire (avec des ordinateurs avec lesquels les grands singes aiment beaucoup jouer), notamment par la reconnaissance des expressions faciales. Il montre que l’empathie ne vient pas que de notre cerveau, mais aussi de notre corps, ce qui fait en sorte qu’un fou rire est contagieux (même si on ne perçoit rien de drôle en soi), tout comme un bâillement. Il présente ensuite de nombreux exemples d’empathie et d’altruisme chez les grands singes, les humains (qui en font partie) et même d’autres animaux. Il fait ensuite la distinction entre l’empathie et la sympathie, la première n’étant pas toujours positive (elle peut servir à se mettre dans la peau de l’autre pour le tromper) contrairement à la deuxième. Les exemples qu’il donne des manifestations de ces deux aptitudes sont éloquents et pertinents.

4. Les émotions qui nous rendent humains. Dégoût, honte, culpabilité et autres malaises : Tous les animaux éprouvent les émotions mentionnées dans le titre de ce chapitre, mais pas nécessairement pour les mêmes raisons ou dans les mêmes situations. L’auteur affirme à ce sujet: «Plus j’avance, plus je pense que les émotions qui nous sont familières se retrouvent d’une manière ou d’une autre chez les mammifères, et que les variations sont à chercher dans les détails, le degré d’élaboration, l’application et l’intensité». Il donne ensuite des exemples allant dans ce sens et démolit les arguments (souvent superficiels et basés sur des impressions) des personnes (parfois même des scientifiques) qui prétendent que les animaux non humains n’ont pas d’émotions (par exemple, parce qu’ils n’ont pas de mots pour les nommer!). Il conclut ce chapitre en citant Charles Darwin qui avançait «que l’évolution crée rarement quelque chose d’entièrement nouveau. Elle se contente de restaurer d’anciens traits adaptés aux besoins du moment. Aucune de nos émotions n’est entièrement neuve, et toutes jouent un rôle essentiel dans notre vie».

5. La soif de pouvoir. Politique, meurtre, art de la guerre : Les comparaisons entre Donald Trump et un chimpanzé au début de ce chapitre lors des débats de la campagne électorale de 2016 aux États-Unis sont simplement suaves! L’auteur aborde ici la soif du pouvoir présente chez tous les primates, mais rarement reconnue par les humains même si leur comportement est marqué par cette émotion. Encore une fois, les exemples sont éloquents et pertinents. Selon lui, la soif du pouvoir «contribue à la réalisation d’exploits extraordinaires quand il s’agit de dirigeants éclairés, mais elle contribue aussi à une histoire de violences inquiétantes, y compris des assassinats politiques, nullement étrangers à notre espèce». Et, il conclut que les «émotions peuvent être bonnes, mauvaises, détestables, chez les animaux comme chez nous».

6. L’intelligence émotionnelle. De la justice et du libre arbitre : «Les réactions fondées sur les émotions ont un immense avantage par rapport aux comportements proches du réflexe : elles passent par le filtre de l’apprentissage nommé «l’évaluation». (…) Nous ne sommes pas entièrement maîtres, mais nous ne sommes pas non plus esclaves de nos émotions». On commence à s’en douter, les exemples qui suivent sont éloquents et pertinents. Il aborde entre autres :

  • le lien entre l’intelligence, les émotions et le corps;
  • le sens de la justice (avec notamment sa célèbre expérience avec des capucins, des concombres et des raisins);
  • l’égoïsme et la coopération;
  • le libre arbitre (concept mal défini, donc impossible à mesurer; selon lui, le libre arbitre n’existe pas ou bien il est partagé par de nombreuses espèces; en aucun cas il ne peut être spécifique aux êtres humains comme certaines personnes le prétendent);
  • l’importance des liens affectifs sur les émotions.

7. La notion de « sentience ». Ce que sentent les animaux : Ce chapitre porte sur la sentiencecapacité à expérimenter, sentir ou percevoir», dont celle de souffrir) et la conscience animale. Comme toujours, les exemples de l’auteur sont (complétez vous-même!)… Il aborde entre autres :

  • la façon dont nous maltraitons les animaux d’élevage et notre alimentation carnée;
  • les différentes facettes de la sentience chez les plantes et les animaux;
  • la métacognition (la connaissance de la connaissance) chez les animaux;
  • les effets des émotions sur le corps;
  • l’impact des divergences entre les écoles de psychologie sur l’analyse des émotions des humains et des animaux;
  • la différence entre une machine et un organisme vivant;
  • la confusion entre les concepts d’émotions et de sentiments;
  • la sentience chez les poissons;
  • l’impact de la déforestation sur les grands singes et bien d’autres espèces;
  • l’importance de respecter la vie sociale des animaux.

L’auteur conclut que le «bien-être animal est mesurable, et il est en train de devenir un objet d’étude très sérieux, ce qui n’aurait jamais eu lieu si nous en étions encore à croire que les animaux ne sentent ou ne ressentent rien».

8. Conclusion : Dans cette courte conclusion, l’auteur revient notamment sur la confusion entre les concepts d’émotions et de sentiments, puis conclut en se demandant ce que serait la cognition sans émotions :

«Celles-ci donnent du sens à tout et sont la principale source d’inspiration de la cognition, y compris dans notre vie. Plutôt que de tâtonner autour des émotions, il est temps de reconnaître franchement à quel point tous les animaux sont mus par elles.»

Et alors…

Lire ou ne pas lire? Lire absolument! C’est le troisième livre que je lis de cet auteur et je craignais les répétitions. Il y en a bien sûr un peu, mais juste un peu! Il est aussi possible que je les aie trouvé tellement appropriées que je les aie appréciées autant que les parties totalement inédites. Ce livre nous fait tellement réfléchir sur les caractéristiques des animaux non humains et sur nos relations avec eux (dont tout le mal que nous leur faisons) que je ne peux pas vraiment lui trouver de défaut. Le livre contient aussi des dessins et se termine par un album photo de 12 pages, ce qui permet de bien visualiser les propos de l’auteur et d’agrémenter la lecture. Et, il n’y a pas de notes.