Skip to content

Les effets de la hausse du salaire minimum à Seattle (2)

1 juillet 2017

Avec tous les débats qui portent sur le salaire minimum au Québec, je me suis toujours dit qu’il serait intéressant de suivre la situation dans les États et les villes des États-Unis qui ont adopté des lois pour que le salaire minimum soit porté à 15,00 $ d’ici quelques années, car les expériences dans ces villes et États nous fourniraient des résultats sur des situations réelles au lieu d’estimations basées sur des hypothèses parfois hasardeuses. Dans ce contexte, j’étais tout content d’apprendre la parution la semaine dernière d’une étude sur l’expérience de Seattle, d’autant plus que j’ai consacré un billet à cette expérience l’an dernier. Cette étude de Michael Reich, Sylvia Allegretto et Anna Godoey du Center on Wage and Employment Dynamics (CWED) de l’Université Berkeley (UB) est intitulée simplement Seattle’s Minimum Wage Experience 2015-16 (L’expérience du salaire minimum à Seattle en 2015-16). Mais à peine avais-je commencé à la lire que j’ai appris la parution d’une autre étude sur le même sujet de Ekaterina Jardim, Mark C. Long, Robert Plotnick, Emma van Inwegen, Jacob Vigdor et Hilary Wething de l’Université de l’État de Washington (UW). Cette étude, intitulée Minimum wage increases, wages, and low-wage employment: evidence from Seattle (Effets de l’augmentation du salaire minimum à Seattle sur les salaires et l’emploi des travailleurs à bas salaire), arrive à des conclusions bien différentes de celles de la première, pour ne pas dire carrément opposées… Puis, RDI économie s’en est mêlé en présentant les commentaires d’un économiste qui réussit à ne mentionner aucune des lacunes de la deuxième étude, lacunes que même les auteurs de l’étude avouent (et que je vais bien sûr souligner dans ce billet!) et en publiant une chronique bien mieux dosée. Malgré cet afflux d’études et de commentaires (j’ai aussi lu sept ou huit documents portant sur l’évaluation de ces deux études), je vais quand même les présenter et tenter de déterminer leurs points forts et leurs points faibles malgré mon biais évident…

L’étude de Berkeley

Après avoir fait le tour des méthodes les plus souvent adoptées depuis quelques années pour analyser les effets d’une hausse du salaire minimum, notamment en appliquant celle des différences de différences, ainsi que des précautions à prendre en appliquant cette méthode (les auteures, deux femmes et un homme, mentionnent trois tests pour vérifier si les groupes de comparaison sont vraiment compatibles avec le groupe étudié), les auteures présentent les particularités de la hausse du salaire minimum à Seattle. Le tableau que j’ai utilisé comme image pour accompagner ce billet montre que, en fait, le salaire minimum n’a pas augmenté et n’augmentera pas au même rythme selon quatre types d’employeurs :

  • ceux qui n’offrent pas d’assurance-santé et qui comptent au moins 500 employés ont connu et connaîtront la hausse la plus rapide du salaire minimum qu’ils doivent verser; ce taux a atteint 13,00 $ en janvier 2016 et 15,00 $ en janvier 2017;
  • ceux qui offrent une assurance-santé et qui comptent au moins 500 employés ont dû payer au moins 12,50 $ en 2016 et devront payer 15,00 $ en janvier 2018;
  • ceux qui comptent moins de 500 employés et qui n’offrent pas d’assurance-santé ou qui n’ont pas d’employés à pourboire ont dû payer au moins 12,00 $ en 2016 et devront payer 15,00 $ en janvier 2019;
  • ceux qui comptent moins de 500 employés et qui offrent une assurance-santé ou qui ont des employés à pourboire ont dû payer au moins 10,50 $ en 2016 et devront payer 15,00 $ en janvier 2021 seulement.

Les auteures ajoutent que les employeurs qui ont plusieurs établissements (y compris franchisés) et qui embauchent en tout au moins 500 employés sont assujettis au salaire minimum le plus élevé même s’ils embauchent peu d’employés dans chacun des établissements. Cela s’applique par exemple aux MacDonald’s et autres chaînes du genre qui sont d’importants employeurs de travailleurs au salaire minimum. Cette façon d’implanter le salaire minimum de différentes façons selon le type d’employeur complique bien sûr le travail des analystes qui tentent d’évaluer l’impact de ces hausses. Pour s’adapter à cette situation, les auteures ont analysé séparément les restaurants à service complet (qui ont des employés à pourboire) et les restaurants à service restreint (qui n’en ont pas).

– données

Les données utilisées dans cette étude proviennent des renseignements fournis par les employeurs au gouvernement aux fins de l’administration du programme d’assurance-chômage sur leurs employés, les salaires versés, les retenues effectuées, leurs coordonnées, etc. Ces données couvrent environ 97 % des salariés. Pour les fins de cette étude, les auteures se sont concentrés sur l’industrie de la restauration, le principal employeur de travailleurs payés au salaire minimum. Ils y examinent l’évolution de l’emploi et des salaires en la comparant avec leur évolution dans un «Seattle synthétique» formé de comtés extérieurs à l’État de Washington qui n’ont pas connu de hausse du salaire minimum au cours de 2015 et 2016, mais dont la population est semblable et dont l’emploi, les salaires dans la restauration et le salaire minimum ont évolué comme à Seattle au cours des cinq dernières années, soit du quatrième trimestre de 2009 au troisième trimestre de 2014 (en fait, ils changent la composition de leur «Seattle synthétique» pour chacune des variables comparées, salaires, emploi, ensemble de la restauration, restaurants à service complet et restaurants à service restreint). Ils ont évité de sélectionner des régions de l’État de Washington pour éviter des effets de débordement de la hausse du salaire minimum (des employeurs extérieurs à Seattle, mais de comtés avoisinants, risqueraient d’augmenter leurs salaires pour conserver leurs employés qui pourraient les quitter pour des emplois mieux payés à Seattle) et d’intensité de navettage de personnes habitant autour de Seattle, mais y travaillant et vice versa. On notera que l’autre étude, celle de l’UW, n’a pas pris cette précaution (ce que j’avais reproché à l’étude que l’UW avait produite l’an passé et que j’ai présentée dans ce billet). De cette façon, les auteures peuvent attribuer avec un bon niveau de crédibilité les changements entre les variables de Seattle et celles de leurs «Seattles synthétiques» à la hausse du salaire minimum.

– principaux résultats

Les graphiques ci-contre montrent l’évolution des salaires entre le quatrième trimestre de 2009 et le premier trimestre de 2016 entre Seattle (ligne bleue) et le «Seattle synthétique» approprié (tirets rouges) dans l’ensemble de la restauration et des débits de boissons (Food service), dans la restauration (Restaurants), dans les restaurants à service restreint (Limited service restaurants) et dans les restaurants à service complet (Full service restaurants). On remarque tout d’abord que l’évolution des salaires fut la même jusqu’à la hausse du salaire minimum (illustrée avec la ligne en tirets verticale), ce qui était le but recherché dans la construction des «Seattles synthétiques». Par la suite, les salaires de Seattle ont augmenté plus fortement que dans les «Seattles synthétiques» dans les quatre graphiques, mais le plus dans les restaurants à service restreint, où il n’y a pas (ou peu) de travailleurs à pourboire et où on trouve beaucoup de chaînes embauchant au total plus de 500 employés (donc où le salaire minimum a le plus augmenté), et le moins dans les restaurants à service complet, où il y a le plus de travailleurs à pourboire et où on trouve le moins de chaînes embauchant au total plus de 500 employés (donc où le salaire minimum a le moins augmenté).

Les graphiques ci-contre montrent l’évolution de l’emploi pour la même période, les mêmes industries et les mêmes territoires que les graphiques précédents. Là, les différences entre la situation à Seattle et dans les «Seattles synthétiques» sont minces, l’emploi ayant un peu plus augmenté à Seattle, essentiellement dans les restaurants à service complet.

Au bout du compte, cette étude montre que la hausse du salaire minimum a eu un effet positif sur les salaires dans la restauration, surtout dans celle à service restreint, mais n’a eu aucun impact significatif sur l’emploi. Les auteures mentionnent qu’il est possible que d’autres facteurs qui se seraient manifestés seulement en 2015 et en 2016, mais pas de 2009 à 2014, expliquent ces résultats, par exemple le boom de l’emploi ces deux dernières années à Seattle. Il sera possible de tester cette possibilité quand plus de données seront disponibles. Finalement, les auteures procèdent à des tests de robustesse qui confirment (ou, tout le moins, n’infirment pas) les résultats de l’étude.

La seule véritable faiblesse de cette étude est l’absence de données spécifiques sur les heures de travail. Par contre, une baisse significative de ces heures se refléterait sur les salaires versés, ce qui ne semble pas le cas ici, puisque les salaires hebdomadaires ont augmenté de l’ampleur prévue en fonction de l’importance de la hausse du salaire minimum applicable aux différentes catégories de restaurants.

L’étude de l’Université de Washington

Cette étude a été produite avec la même équipe que l’étude que j’ai commentée il y a bientôt un an. On verra qu’elle a les mêmes lacunes que celles que j’avais mentionnées plus certaines qui m’avaient échappées ou qui se sont ajoutées en raison du changement de la méthode utilisée.

Contrairement à l’étude de l’UB, celle-ci ne vise pas une industrie ou une tranche d’âge en particulier (comme les adolescents), mais entend mesurer «l’impact d’une augmentation du salaire minimum pour l’emploi dans toutes les catégories d’employés à bas salaire, couvrant toutes les industries et les tranches d’âge des travailleurs». Cela dit, elle examinera la situation spécifique de l’industrie de la restauration pour voir où se situe cette étude par rapport aux nombreuses autres études, comme celle de l’UB, qui analysent les effets d’une hausse du salaire minimum à partir des données de cette industrie.

– données

Cette étude repose sur les mêmes données que celle de l’UB, mais de 2005 à 2016 (plutôt que de 2009 à 2016). Les auteurs ont en plus eu accès à des données sur les heures de travail. Par contre, comme ces données sur les heures de travail ne sont disponibles que pour quatre États des États-Unis (dont l’État de Washington) car l’admissibilité à l’assurance-chômage tient compte dans ces États du nombre d’heures travaillées, ils ont été forcés de bâtir leur «Seattle synthétique» à l’intérieur de cet État, ce qui peut, comme je l’ai mentionné dans mon billet de l’an dernier et plus tôt dans ce billet, entraîner des effets de débordement de la hausse du salaire minimum et d’intensité de navettage de personnes habitant autour de Seattle mais y travaillant et vice versa (ce que les auteurs savent, car ils en parlent). En fait, cette construction ne permet pas à cette étude de satisfaire aux trois tests que l’étude de l’UB a conçus pour vérifier si les groupes de comparaison sont vraiment compatibles avec le groupe étudié.

Si les auteurs de cette étude ont préféré analyser la situation de l’ensemble des emplois à bas salaires, ils ont exclu de leur champ d’étude les entreprises qui ont plusieurs lieux de travail (comme les chaînes de restaurants, McDo et autres), car ces entreprises fournissent les renseignements sur l’ensemble des salariés de tous leurs établissements sans distinguer les renseignements relatifs à chaque établissement. Les auteurs ne peuvent donc pas savoir où travaillent vraiment ces salariés, à Seattle, dans l’État de Washington ou même ailleurs (par contre, les auteures de l’étude de l’UB ont réussi à le faire en utilisant des codes postaux). Ainsi, cette étude ne tient pas compte de l’emploi salarié de 11 % des employeurs qui embauchent 38 % des salariés de l’État de Washington (donc à la fois à Seattle et dans leur «Seattle synthétique»), soit plus de 1 million des 2,6 millions de salariés de l’État. En plus, comme les entreprises qui ont plusieurs lieux de travail (comme les chaînes de restauration rapide) paient plus souvent leurs employés au salaire minimum, cette exclusion retirerait du champ de l’étude 48 % des salariés de Seattle gagnant moins de 13 $ de l’heure (selon une critique de cette étude rédigée par Michael Reich de l’UB). En plus, comme ces employeurs sont tenus de payer le plus haut niveau du salaire minimum (13,00 $ en 2016), ce qui n’est pas le cas des employeurs embauchant moins de 500 employés, cette exclusion retire une partie bien particulière du champ de l’étude et fait en sorte que l’échantillon retenu n’est pas représentatif de l’ensemble de la population étudiée. D’autres économistes qui ont analysé l’écart entre les résultats des études de l’UW et de l’UB sont arrivés à la même conclusion, dont Ben Zipperer et John Schmitt de l’Economic Policy Institute (voir cette excellente critique de 13 pages), et Jared Bernstein, encore plus incisif (il critique aussi bien d’autres aspects de cette étude). Les auteurs reconnaissent que ces employeurs peuvent réagir différemment des employeurs de sites uniques à la hausse du salaire minimum, mais se basent sur une enquête faite auprès de 500 de ces 15 000 employeurs sur leurs intentions face à la hausse du salaire minimum pour conclure qu’ils risquent de réduire davantage les heures de travail que les autres employeurs. Comparer des données d’enquête sur des intentions (de personnes opposées à cette hausse) à des données réelles, ce n’est pas fort, comme le soulignent aussi les économistes que j’ai cités plus tôt.

– principaux résultats

Les auteurs ont utilisé une méthode tout à fait différente à celle utilisée l’année précédente. Je dois avouer que, même après plusieurs lectures, je ne comprends pas vraiment leur raisonnement. Ils avouent que leur «Seattle synthétique» a connu une croissance très différente de celle de Seattle et que ces régions «échouent à un test de falsification» (peu importe ce que cela veut dire, ça ne semble pas une bonne chose…). Ils ont donc ajouté des équations encore plus complexes à leur modèle (en se basant sur d’autres études qu’il faudrait lire pour comprendre la méthodologie) et m’ont perdu…

Compte tenu des nombreuses lacunes de cette étude et de la difficulté de comprendre comment les auteurs sont arrivés à leurs conclusions, je vais me contenter de mentionner leurs principaux résultats :

  • l’emploi et les heures de travail des personnes travaillant à Seattle et gagnant moins de 13 $ et moins de 19 $ ont grandement diminué entre 2014 et 2016 (mais pas dans la restauration pour celles gagnant moins de 19 $!), mais ils ont augmenté encore plus chez les personnes gagnant plus de 19 $ (le nombre d’heures travaillées dans la restauration par les personnes gagnant plus de 19 $ aurait augmenté de 38 % en deux ans seulement!);
  • ces données sont tellement étranges qu’elles sont remises en question dans ce billet cinglant;
  • les auteurs concluent, et c’est cela qui a fait la manchette de leur étude, que la hausse du salaire minimum a fait perdre en moyenne 125 $ par travailleur à bas salaire en raison de la baisse du nombre d’heures travaillées, mais n’a eu aucun effet dans la restauration (!); dans ce sens, cette étude ne contredit pas vraiment celle de l’UB;
  • une hausse de 1 % des salaires des personnes gagnant moins de 19 $ ferait baisser le nombre d’heures qu’elles travaillent de 3 %, un effet au moins 15 fois plus élevé que ceux trouvés en moyenne par les autres études portant sur cette question (entre 0 et 0,2 %, selon les auteurs); en plus, si on exclut la restauration où la hausse des salaires des personnes gagnant moins de 19 $ n’a eu aucun effet sur l’emploi et sur le nombre d’heures de travail, cet effet approcherait 4 % dans les autres secteurs (!).

Voici finalement les lacunes mentionnées par les économistes dont j’ai parlé plus tôt :

  • l’exclusion de 38 % des salariés travaillant pour des entreprises qui ont plusieurs lieux de travail fait en sorte que l’échantillon retenu n’est pas représentatif de l’ensemble de la population étudiée (et ce n’est pas une enquête sur les intentions des employeurs qui peut pallier cette lacune, quoiqu’en disent les auteurs, ce type d’enquêtes ayant montré à de nombreuses reprises son manque de fiabilité);
  • en plus, comme le salaire minimum est devenu plus élevé dans les entreprises qui ont plusieurs lieux de travail que dans celle n’en ayant qu’un, il est possible que davantage de travailleurs aient quitté leur emploi moins bien payé dans un établissement unique pour un emploi mieux payé dans une entreprise qui a plusieurs lieux de travail, mouvement à somme nulle pour l’emploi, mais qui se traduirait par des pertes d’emploi avec la méthode adoptée par les auteurs de cette étude;
  • la façon de construire le «Seattle synthétique» qui néglige les possibilités de débordement et de navettage et qui comprend des régions qui ont des caractéristiques très différentes de celles de Seattle;
  • le lien établi par les auteurs de l’étude entre la hausse du salaire minimum et la hausse des heures travaillées des salariés gagnant plus de 19 $ ne correspond à aucune logique du marché du travail; elle est probablement (si elle a vraiment cette ampleur, ce qui est incertain en raison de l’exclusion des entreprises qui ont plusieurs lieux de travail) due à la vigueur du marché du travail de Seattle (ou d’autres facteurs qui n’ont rien à voir avec la hausse du salaire minimum), comme le montrent sa forte croissance de l’emploi et des salaires, et son taux de chômage de 2,6 % seulement;
  • si le salaire minimum augmente dans Seattle à 13,00 $ et demeure à 11,00 $ dans la zone de contrôle, mais qu’on utilise dans les deux cas le nombre de personnes gagnant moins de 19,00 $, il est normal qu’il y ait proportionnellement moins de monde gagnant entre 13 et 19,00 $ qu’entre 11 et 19,00 $ (voir ce billet pour l’explication détaillée);
  • la grande différence entre les conclusions de cette étude et toutes les autres portant sur ce sujet (un des économistes que je cite en a répertorié 942…) accentue la possibilité que ces lacunes aient eu un impact majeur sur ses résultats.

Et alors…

Ces deux études montrent que les attentes que j’avais qu’on puisse se baser au moins minimalement sur les expériences de hausses du salaire minimum aux États-Unis pour en savoir plus sur les conséquences de telles hausses étaient trop élevées. Je m’attendais bien sûr à devoir interpréter avec circonspections les études portant sur ces expériences, dont les résultats peuvent différer grandement d’une ville à l’autre selon une foule de facteurs, facteurs incluant entre autres la démographie, le dynamisme du marché du travail, le salaire médian et moyen de ces territoires, l’acceptation sociale d’une telle hausse et même la façon dont ces hausses ont été présentées aux employeurs, mais je suis estomaqué qu’on soit empêché de discuter intelligemment des effets de ces hausses en raison de problèmes méthodologiques.

J’aurais bien sûr préféré écrire un billet qui nous aurait vraiment éclairés sur les conséquences d’une hausse du salaire minimum, mais il était difficile de le faire face aux débats que les conclusions opposées de ces deux études ont suscités. On pourrait peut-être croire que c’est en raison de mon biais en faveur de la hausse du salaire minimum que j’ai été aussi sévère avec l’étude de l’UW et si peu avec celle de l’UB, mais j’ai trouvé de nombreuses réactions négatives sur la méthode utilisée par les auteurs de celle de l’UW et aucune sur celle utilisée par les auteures de celle de l’UB. Certains ont bien tenté de dire que ces deux études ne sont pas vraiment contradictoires parce que l’étude de l’UW n’a pas trouvé d’effet négatif dans la restauration, mais cela ne justifie nullement les lacunes vraiment importantes de cette étude et les résultats absolument renversants dans les autres industries. Et, sérieusement, comment se désoler d’une baisse d’emploi ou d’heures de travail dans des postes à bas salaires quand cette baisse est pour le moins douteuse et aurait tout de même permis un taux de chômage de 2,6 %, une hausse de l’emploi de plus de 10 % en seulement deux ans, une hausse de près de 20 % du salaire moyen et une hausse de 15 % du nombre d’heures travaillées (tout cela, sauf le taux de chômage, vient du tableau 3 de la page 45 de l’étude de l’UW, entre les deuxièmes trimestres de 2014 et 2016)?

Sauver la planète une bouchée à la fois

28 juin 2017

Dans Sauver la planète une bouchée à la fois, Bernard Lavallée (connu aussi sous le nom du nutritionniste urbain) vise à «montrer qu’une saine alimentation allie la santé humaine à la santé de la planète».

Avant-propos : L’auteur explique comment il en est venu à s’intéresser à l’impact de nos choix alimentaires «sur le monde que nous habitons» et donc à écrire sur ce sujet.

Introduction : L’auteur se demande pourquoi la formation en nutrition aborde si peu la question pourtant fondamentale de l’alimentation durable. Pourtant, si on n’applique pas de principes de ce genre, il sera impossible de viser la sécurité alimentaire à long terme. Sans prétendre bouleverser le monde, ce livre vise à fournir des trucs et des conseils à ses lecteurs pour les aider à faire des choix alimentaires plus respectueux de l’environnement.

Manger local : La disponibilité sur une base annuelle des fruits et des légumes a des conséquences. En effet, ceux-ci voyagent en moyenne entre 3500 et 5000 kilomètres avant de se retrouver dans nos mains (ou nos assiettes). Même si le transport ne génère en moyenne que 11 % des émissions de gaz à effet de serre (GES) de la production alimentaire et que le mode de production des aliments et la nature de ces aliments ont un impact plus important, celui-ci n’est pas à négliger, d’autant plus que le temps de transport a en général des conséquences sur la qualité des aliments et sur leur mode de production et de conservation. Le chapitre contient un calendrier de production des fruits et légumes québécois qui peut aider à mieux planifier nos achats ainsi que des conseils pour faciliter l’achat local.

Manger bio : L’auteur décrit les désavantages de l’agriculture industrielle (monoculture, engrais polluants, pesticides, OGM, etc.) et les avantages de l’agriculture biologique. Ce chapitre est intéressant, mais je déplore l’absence totale de références sur les très nombreuses affirmations qu’il contient, surtout sur celles qui sont controversées scientifiquement. Les sources sont probablement contenues dans les ressources décrites à la fin du livre, mais elles ne sont pas spécifiées.

Manger moins de viande : À l’échelle de la planète, l’élevage génère autant d’émissions de GES que tous les modes de transport, le premier responsable étant l’élevage de ruminants, surtout de bœuf (pour plus de précision, on peut lire ce billet qui analyse cette question en détail). Un bon moyen de faire diminuer ces émissions serait donc de manger moins de viande, surtout de ruminants. Ce chapitre contient même quelques recettes pour nous encourager à manger moins de viande!

Choisir la pêche durable : Tout bon nutritionniste recommande au moins deux repas par semaine de poisson. Mais, si on les écoutait, les océans seraient vides et les entreprises d’aquaculture pollueraient encore plus qu’elles ne le font! Il faut donc bien choisir les poissons qu’on mange et tenir compte du mode de pêche utilisé et des pratiques d’aquaculture.

Manger moins transformé : L’auteur maintient avec raison qu’il «faut reprendre le contrôle de nos cuisines et arrêter de nous fier seulement à l’industrie pour nous nourrir». Ai-je besoin d’ajouter que l’auteur donne ensuite des trucs, des conseils et des recettes pour nous aider à atteindre cet objectif?

Produire moins de déchets : Le meilleur moyen de produire moins de déchets est de moins consommer, puis de réutiliser et recycler davantage. À cet effet, l’auteur donne beaucoup de conseils et de recettes dans les chapitres suivants qui sont intitulés Mieux planifier les repas, Mieux conserver les aliments, Cuisiner les aliments fatigués, Cuisiner les parties d’aliments négligées, Produire sa nourriture et Manger «sauvage».

Conclusion : Dans cette conclusion, l’auteur exprime son souhait que le prochain guide alimentaire canadien (et ses équivalents dans les autres pays) tienne compte de l’impact environnemental des aliments dans ses recommandations. Il est certain que le lobby des producteurs et transformateurs de viandes s’oppose fortement à un tel changement! Il termine son livre en récapitulant les 10 conseils qu’il juge les plus importants.

Et alors…

Lire ou ne pas lire? Je ne sais pas trop… Si on cherche un livre de conseils pour changer ses comportements alimentaires, moins gaspiller et mieux utiliser les aliments, ce livre est excellent, ses conseils pertinents et ses recettes utiles. Si, par contre, on fut comme moi principalement attiré par le titre du livre qui laisse penser à un livre contenant surtout de l’information macro sur le rôle de l’alimentation dans le réchauffement climatique, dans l’épuisement des ressources et dans la pollution, on risque d’être déçu. Les premiers chapitres abordent ces questions, mais pas de façon aussi approfondie que je l’aurais souhaité (et sans citer ses sources, comme je l’ai mentionné plus tôt). En outre, parler de «sauver la planète» (ou de la «santé de la planète») dans ce sens me fatigue toujours, car notre planète n’a pas besoin d’être sauvée, ni par nous ni par d’autres, pour continuer à faire le tour du soleil pendant encore quelques milliards d’années. Ce sont plutôt la faune, dont l’être humain, et la flore actuelles qui ne peuvent survivre et prospérer que dans des conditions climatiques bien spécifiques qui ont besoin d’être sauvées! En plus, je me regimbe toujours contre les livres qui laissent penser que des changements, même importants, à notre façon individuelle de vivre peuvent avoir un impact significatif sur le réchauffement climatique, sur la pollution et sur l’épuisement des ressources, alors que seuls des changements collectifs peuvent entraîner des impacts d’une ampleur suffisante. Cela dit, ces changements ne peuvent pas nuire!

Par ailleurs, ce livre se lit bien, sa facture agrémentée de nombreux dessins est amusante et son ton est enjoué, permettant une expérience de lecture agréable. Alors, selon ce que vous recherchez, ce livre peut aussi bien être à lire que de ne pas l’être!

La langue affranchie

26 juin 2017

Après le succès de La langue rapaillée (dont j’ai parlé dans ce billet), Anne-Marie Beaudoin-Bégin (connue aussi comme l’Insolente linguiste) nous revient avec un nouveau livre intitulé La langue affranchie. Dans celui-là, elle plaide «pour que les Québécoises et les Québécois se réapproprient avec fierté leur langue et cessent, notamment, de craindre des emprunts à l’anglais».

Préface : Matthieu Dugal remercie l’auteure qui nous montre qu’une langue «ça respire, ça transpire, ça rote, ça pète, c’est parfois déglingué, ça capote sa vie, ça radote c’est lyrique, ça rase les pâquerettes (…)», bref que «ça vit».

Prologue – Charlotte est partie… : L’auteure nous présente une agréable allégorie sur l’imposition de règles pour décorer et entretenir une maison, règles qui portent l’héroïne à la quitter…

Introduction : «Une langue n’est pas protégée par sa qualité, mais bien par le fait que les locuteurs continuent à la parler». Les exigences de pureté de la langue entraînent plutôt l’insécurité linguistique. Quand on a trop peur de se tromper, on risque de cesser d’utiliser une langue. «L’insécurité linguistique au Québec met la langue française en danger»…

1. Chaos glorieux et dissonance cognitive : On ne parle pas de la même façon d’une génération à l’autre, d’un territoire à l’autre, selon la situation. «La langue est un chaos glorieux». L’auteure ajoute que les critères qui déterminent si une forme correspond à du «bon» et du «mauvais» français sont en fait des critères sociaux. Elle donne ensuite quelques exemples d’évolution de la langue qui dérangent les puristes.

2. Parlant d’évolution linguistique : L’auteure énonce brièvement les caractéristiques de quatre facteurs qui peuvent influencer l’évolution d’une langue. Elle les présente plus en détail dans les chapitres suivants.

3. Un facteur d’évolution : l’économie linguistique : L’économie linguistique est le facteur qui fait en sorte qu’on cherche à exprimer une idée le plus efficacement possible. C’est par économie qu’on «saute» souvent le «ne» des énoncés négatifs. C’est aussi ce facteur qui est à l’origine de l’élimination des terminaisons latines (c’est en fait un peu plus compliqué, mais l’auteure l’explique clairement). Si les manifestations anciennes de ce facteur ont toutes été intégrées au «bon» français, les plus récentes sont inévitablement considérées comme du «mauvais» français.

4. Un facteur d’évolution : les changements dans le milieu : «Quand on analyse l’histoire de la langue française (et l’histoire d’autres langues également), on s’aperçoit que le développement des moyens de communication est lié de très près à l’évolution linguistique». Plus les moyens de communication s’améliorent, plus les particularités des langues s’estompent. Par exemple, les particularités régionales du français existent encore, que ce soit au Québec ou en France, mais sont bien moins marquées qu’il y a quelques décennies. Il arrive même que des langues différentes en viennent à se ressembler de plus en plus.

5. Un facteur d’évolution : les contacts sociaux : Que ce soit dans un contexte de guerres, de rencontres artistiques ou de mariages princiers, les contacts sociaux contribuent à l’évolution linguistique. L’auteure donne de nombreux exemples à cet effet.

6. Un facteur d’évolution : les interventions humaines : Ces interventions se manifestent entre autres par l’adoption de lois et de règlements encadrant l’usage d’une langue officielle dans un pays. L’influence réelle de ces interventions repose en grande partie sur le niveau d’adhésion de la population à ce genre de réglementation. Il en est de même des décisions d’organismes comme l’Académie française et l’Office québécois de la langue française, qui seront suivies en fonction de leur acceptation. L’intégration de ces décisions à l’enseignement peut aussi contribuer à leur acceptation et à leur adoption rapide.

7. Les nouvelles technologies : évolution, révolution : «On n’a jamais tant écrit». Ceux qui écrivaient beaucoup il y a quelques décennies écrivent encore plus de nos jours et ceux qui n’écrivaient pas le font maintenant sur les médias sociaux. Cette prolétarisation de l’écriture, activité auparavant réservée à une élite, ne fait pas l’affaire de tout le monde. Comme ces nouveaux écrivains utilisent presque toujours le registre familier, ils sont souvent la cible des puristes, ce qui inquiète l’auteure : «En plus d’être vouée à l’échec, la tentative de gérer systématiquement la langue des gens qui utilisent les nouvelles technologies a une conséquence pernicieuse : elle diminue la confiance que ces gens ont en ces autorités langagières». Ces dernières deviennent au mieux des empêcheuses d’écrire et au pire un vecteur d’insécurité linguistique.

8. Déconstruire le franglais : On parle beaucoup du franglais, mais il est plus facile de décrire ce qu’il n’est pas que de décrire ce qu’il est. L’auteure profite de ce chapitre pour définir d’autres concepts dont on abuse souvent, comme celui de la créolisation, et pour présenter certaines réalités, comme celle de l’Acadie, et quelques phénomènes, comme celui de la disparition d’une langue (phénomène qui n’est jamais arrivé à la suite d’emprunts de termes à une autre langue). Et elle conclut : «Le déclin du français, si déclin il y a, n’est pas causé par le franglais ou peu importe comment on appelle cette variante du français. Mais il pourrait bien être causé par la saturation des cris, par la fatigue généralisée causée par la constante condamnation des changements en cours».

9. Alternance de codes et expression artistique : L’auteure montre l’importance de la motivation dans l’apprentissage d’une langue. Elle présente ensuite les nombreux avantages de connaître plus d’une langue.

10. Aménagement linguistique : Face aux menaces que le français subit en Amérique du Nord, il est normal et sain qu’on prenne des mesures pour assurer sa survie. L’auteure recommande les mesures qui font en sorte que les locuteurs se retrouvent «dans les meilleures dispositions» pour parler une langue. Dans ce contexte, l’auteure explique pourquoi la grande majorité des mesures d’aménagement mises en place par la Loi 101 furent excellentes, et pourquoi des mesures qui consistent à jouer à la police de la «qualité» de la langue française sont mauvaises (parce qu’elles ne rendent pas les locuteurs davantage disposés à parler français, bien au contraire).

11. Libérée, délivrée : L’auteure précise qu’elle ne prétend nullement que l’anglais gagne du terrain au Québec (et ailleurs) uniquement en raison des puristes qui font détester le français par ceux qu’ils accusent de «mal» le parler. En effet, tout au long de l’histoire, certaines langues se sont démarquées devenant pendant un temps la «lingua franca», soit une langue utilisée internationalement comme langue commune par des gens de langues maternelles différentes. Ce fut pendant un temps le cas du latin, du français et de l’italien, et c’est celui de l’anglais actuellement.

On attribue souvent la plus grande popularité de l’anglais à sa simplicité. Or, une partie de cette simplicité vient du fait que cette langue est moins normée et moins policée que le français. En plus, on y accepte sans problème le registre familier, alors que celui-ci est constamment critiqué en français, particulièrement au Québec. En effet, l’anglais soigné est aussi sinon plus complexe que le français soigné. Par contre, son usage est réservé à des situations bien précises, n’est pas imposé partout! Dans ce sens, l’auteure conclut que, si nous voulions vraiment rendre l’utilisation du français plus simple, il faudrait accepter davantage l’usage du registre familier et surtout cesser de le critiquer dans toutes les situations.

12. La langue à affranchir : Le français est tellement complexe que jamais un éditeur n’imaginerait publier un livre sans le faire réviser, car même les vedettes du français font des fautes (en fait, même les réviseurs en font). Par contre, il semble selon bien des chroniqueurs (dont les textes sont révisés) qu’il soit inadmissible que des personnes qui publient des statuts sur Facebook en fassent… Si l’auteure aimerait voir le nombre de règles réduites, elle apprécierait surtout qu’on arrête de «culpabiliser les gens qui ne les maîtrisent pas». C’est dans ce sens qu’elle considère que «la langue a besoin d’être affranchie» (ce qui semble expliquer le titre du livre).

13. Se racc’mmoder avec l’évolution linguistique : Les gens sont souvent fascinés par l’origine des expressions populaires qui étaient utilisées par nos aïeuls, que ce soit dans une seule région ou un peu partout sur notre territoire. Pourtant, ce n’est que grâce à la souplesse d’application des règles d’une langue que de telles expressions peuvent voir le jour. Elles sont d’ailleurs souvent disparues en raison de l’application tatillonne des règles du «bon» français, règles qui veilleront à ce que plus jamais de telles expressions n’apparaissent dans notre langue si parfaite… Bref, dans un tel contexte, mieux on connaît notre langue, moins on est en mesure de créer de nouveaux mots ou de nouvelles expressions! Étrange? Non! L’auteure montre bien qu’il s’agit là d’une conséquence et non d’un paradoxe. D’ailleurs, il est beaucoup plus facile de créer des mots et des expressions en anglais, langue plus permissive. En conséquence, les locuteurs francophones empruntent souvent les nouveaux termes anglais face à l’impossibilité pour eux d’en créer dans leur langue. Y a-t-il vraiment des personnes qui pensent qu’il s’agit d’une façon efficace de protéger notre langue?

Conclusion : L’auteure ne vise pas avec son livre à solutionner les problèmes quelle y présente, mais plutôt de proposer des pistes de réflexion et de susciter des changements d’attitude. Elle aimerait par exemple qu’on cesse de rabaisser les autres et la langue qu’ils parlent (notamment parce que «ça n’a jamais donné de bons résultats») et qu’on travaille plutôt à rendre le français plus attirant pour ses locuteurs.

Épilogue – Clémentine ne partira pas : L’auteure revient sur son allégorie du début du livre et raconte des événements qui feront en sorte que Clémentine, elle, ne partira pas et que, qui sait, Charlotte aura peut-être le goût de revenir.

Et alors…

Lire ou ne pas lire? Lire! Ce livre étonne peut-être moins que le précédent de l’auteure, mais frappe aussi juste. Le message le plus important de ce livre, soit qu’une langue est protégée en premier lieu par le fait que ses locuteurs continuent de la parler (et qu’ils ont encore le goût de le faire), est tellement logique qu’on se demande comment ceux et celles qui prétendent que c’est sa «qualité» (quoique ce verdict puisse signifier) qui la protège réussissent à convaincre qui que ce soit avec leur proposition si illogique. En fait, c’est tout le génie de l’auteure de rendre évidente une thèse qui semblerait à première vue difficile à défendre dans la rectitude linguistique ambiante…

Encore (et toujours) les robots!

24 juin 2017

Quand j’ai pris connaissance de l’étude de l’OCDE parue au début de 2016 qui contredisait toutes les études précédentes sur la supposée menace de l’automatisation sur la moitié des emplois existants avec un argumentaire impeccable (qui estime cette menace à un niveau cinq fois moins élevé en moyenne selon les pays, soit que seulement entre 6 et 12 % des tâches seraient en fait menacées d’automatisation), je me suis hâté de la présenter sur ce blogue en me disant que je n’aurais qu’à citer cette étude (et ce billet) quand je lirais des gens tomber dans le panneau des prévisions apocalyptiques sur les effets de l’automatisation. Mais, rien n’y fait, le biais de confirmation persistant depuis les luddistes sur le danger des changements technologiques sur l’emploi est trop fort pour que des faits démontrés puissent même égratigner le moindrement les certitudes des catastrophistes de la robotisation. Et d’autres études, toujours basées de près ou de loin sur les hypothèses pourtant démolies par l’étude de l’OCDE, continuent de paraître avec le même message catastrophiste et le même accueil bienveillant des médias. Désolant…

Une autre étude

Encore la semaine dernière, Gérald Fillion, l’animateur de RDI économie (qui fait en général un excellent boulot de vulgarisation), nous mettait en garde contre les dangers de l’automatisation, surtout dans certaines villes et régions du Québec où la population active est la plus concentrée dans les industries qu’une étude du Brookfield Institute for Innovation and Entrepreneurship, un organisme associé à l’Université Ryerson de Toronto, juge les plus vulnérables à l’automatisation. Mieux, M. Fillion termine son texte en concluant que «cette transformation sociale est déjà en cours». S’il ne parlait que du secteur manufacturier, ça irait (car il est de fait très vulnérable à l’automatisation, et cela depuis des décennies), mais quand on sait que l’industrie qui aurait le pourcentage d’emplois ayant le plus fort potentiel d’automatisation est les services alimentaires (avec 69 % des emplois potentiellement automatisables), on peut se demander quelles données appuient la conclusion de sa chronique.

J’ai alors vérifié l’évolution de l’emploi des deux industries (autres que le secteur manufacturier) dont l’étude du Brookfield Institute considère l’emploi le plus vulnérable. Que ce soit en utilisant les données de l’Enquête sur la population active (EPA) ou de l’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) à l’aide des tableaux cansim 282-0008 et 281-0023, j’ai constaté que l’emploi dans les services d’hébergement et de restauration, dont 69 % des emplois dans les services alimentaires seraient potentiellement automatisables selon l’étude du Brookfield Institute, et dans le transport et l’entreposage, dont 61 % des emplois seraient potentiellement automatisables, a augmenté plus fortement entre 2008 et 2016, et même entre 2012 et 2016, que l’emploi dans l’ensemble du marché du travail (l’écart le plus important s’observant dans les services d’hébergement et de restauration, l’industrie dont les emplois sont supposément les plus vulnérables). Comment alors conclure que «cette transformation sociale est déjà en cours»? Mystère…

J’ai alors décidé de lire cette étude, pour voir au moins quelles hypothèses elle utilise pour arriver à ces résultats. Je dois tout d’abord avouer considérer les études associées à l’Université Ryerson avec beaucoup de scepticisme depuis que j’ai lu une de ses études sur les données massives (ou les Big data) qui utilisait des données carrément risibles (des prévisions des États-Unis datant de quatre ans pour appuyer des prévisions au Canada dans trois ans; voir ce billet pour le reste de la critique de cette étude) pour faire la promotion des besoins dans ce domaine. Il s’agissait plus d’un document de marketing que d’une véritable étude, ce qui est pour le moins décevant quand on lit une étude universitaire. Est-ce le cas ici aussi, cette université étant aussi très active dans le domaine de l’intelligence artificielle?

Mon scepticisme s’est exacerbé dès les premières lignes de l’étude. En effet, la première référence donnée pour appuyer une phrase affirmant que les inquiétudes sur les pertes d’emplois dues à l’automatisation sont en croissance est l’étude que l’OCDE a justement démolie, soit celle trop célèbre et pleine de raccourcis de Carl Benedikt Frey et Michael A. Osborne (étude qui date déjà de près de quatre ans)… Cela dit, les auteurs poursuivent en citant d’autres études arrivant à la conclusion que «La technologie a souvent contribué à produire plus d’emplois qu’elle en a détruits». Bon, c’est déjà mieux.

En fait, cette étude se base sur une autre étude (de 148 pages, qu’on peut consulter à partir de cette page), celle-ci du McKinsey Global Institute (MGI). Si celle-ci utilise une méthode un peu différente de celle de Frey et Osborne, elle tente aussi de trouver les tâches potentiellement automatisables à l’aide de définitions théoriques (méthode rejetée par l’OCDE qui se base plutôt sur des tâches réellement réalisées par des personnes en emploi) en «examinant en détail plus de 2 000 activités de travail pour plus de 800 professions dans l’ensemble de l’économie» des États-Unis et en transposant ces résultats dans 45 autres pays sous l’hypothèse que ces tâches sont identiques dans tous les pays (!). Bref, on ne s’étonnera pas que les résultats de cette étude ressemblent à ceux de l’étude de Frey et Osborne. En effet, au lieu de prévoir la possible automatisation de 47 % des emplois, cette étude arrive à la conclusion que 50 % des heures travaillées sont automatisables, avec des taux variant de 41 à 56 % dans les autres pays pour lesquels cette méthode a été appliquée. Le rapport ajoute que cinq conditions doivent en plus être respectées pour que des tâches automatisables le soient vraiment (c’est justement la description claire de ces cinq facteurs qui avait retenu positivement mon attention quand j’ai lu une autre étude de McKinsey sur ce sujet l’an passé) :

  • la faisabilité technique;
  • le coût du changement technologique;
  • la dynamique du marché du travail, basée notamment sur l’offre, la demande et le coût du travail humain;
  • les avantages économiques réels, tels que les gains de productivité, la qualité de la production et les bénéfices;
  • l’acceptabilité sociale et le respect de la réglementation.

Je ne comprends pas vraiment comment il se fait que ces cinq conditions n’aient pas fait réduire considérablement l’impact potentiel de l’automatisation, mais, si j’ai bien compris, ces critères n’ont pas été utilisés à cette fin, mais seulement pour indiquer que l’étude ne porte que sur le potentiel d’automatisation, pas sur une estimation de l’ampleur réelle de l’impact de l’automatisation sur l’emploi. On m’excusera de ne pas avoir lu la suite des 148 pages de cette étude, mais je considérais en savoir assez sur la méthode utilisée. Cela dit, j’insiste, les cinq conditions mentionnées dans cette étude sont fort précieuses, même s’il est difficile, pour ne pas dire impossible, d’estimer leur impact sur l’ampleur réelle qu’aura l’automatisation sur l’emploi (ce qui est selon moi une information plus précieuse que les estimations qui ne tiennent pas du tout compte de ces facteurs).

L’étude du Brookfield Institute utilise ensuite les données de l’Enquête nationale auprès des ménages de mai 2011 (il y a plus de six ans…) pour appliquer les résultats de l’étude de McKinsey au Canada, aux industries canadiennes (en fonction des industries dans lesquelles travaillent les membres des professions les plus touchées) et même à des villes spécifiques du Canada (en fonction de la présence relative des industries dont les emplois seraient les plus touchés dans chaque ville du Canada). C’est ainsi que cette étude parvient à fournir les données dont parle l’article de M. Fillion. Fiou! Mais, ces industries sont-elles vraiment comparables à celles des États-Unis (objet de l’étude de départ dont on a étendu les résultats au Canada) dans chacune des villes du Canada? Quel est l’impact des cinq facteurs mentionnés plus tôt sur l’automatisation qui se produira réellement? Cet impact sera-t-il le même aux États-Unis, au Canada, dans chaque industrie et dans chaque ville? Oubliez cela, ces études n’en parlent pas, elles ne font que fournir ce que le peuple (ou le département de marketing?) désire : des chiffres. Et ces chiffres sont tellement normalisés que les pourcentages d’emplois potentiellement automatisables ne varient que de 43 à 50 % parmi les 40 villes pour lesquelles l’étude fournit des données entre celle qui a le pourcentage le plus bas (Petawawa en Ontario) et celle qui a le pourcentage le plus élevé (Ingersoll, Ontario). Beaucoup de bruit pour pas grand-chose…

Une autre étude

Les études sur le sujet sont tellement nombreuses que je pourrais en présenter sur des pages (si j’avais le temps de toutes les lire et de toutes les présenter!). Mais, cette fois, je vais plutôt me faire plaisir en résumant une étude (dont j’ai entendu parler grâce à ce billet de Noah Smith) qui en critique une autre! Cette étude (ou ce rapport, comme l’appellent les auteurs) de Lawrence Mishel, président de l’Economic Policy Institute (EPI) et de Josh Bivens, directeur de la recherche au même institut, (deux économistes que je respecte beaucoup, notamment parce qu’ils sont les premiers à m’avoir fait connaître il y a quatre ans le concept de rente dans le sens d’un revenu excédentaire accaparé par les plus riches; voir ce billet) est intitulée The zombie robot argument lurches on. There is no evidence that automation leads to joblessness or inequality (L’argument zombie du robot titube – Il n’y a aucune preuve que l’automatisation crée du chômage ou fait augmenter les inégalités).

Les auteurs déplorent d’entrée de jeu que les médias accordent autant d’importance aux histoires et études qui annoncent l’apocalypse due à l’arrivée de la robotisation (déjà un point en commun avec moi!) ou qui attribuent à l’automatisation la faible hausse des salaires et la hausse des inégalités des dernières décennies. Ils dénoncent surtout les interprétations fautives des médias et d’autres commentateurs de la dernière étude de Daron Acemoglu et Pascual Restrepo intitulée Robots and Jobs: Evidence from US Labor Markets (Robots et emplois: preuves provenant des marchés du travail des États-Unis), étude citée aussi dans celle du Brookfield Institute. Les auteurs sont surtout estomaqués par le biais évident des médias en faveur des scénarios extrêmes malgré le peu de preuves avancées dans les études qui appuient ces scénarios dystopiques. Oui, il y a des problèmes du côté de l’emploi et de la stagnation des salaires, mais ceux-ci sont bien davantage dus «à des décisions politiques intentionnelles concernant la mondialisation, la négociation collective, les normes du travail et le taux de chômage qu’à la technologie». Ce rapport montre que l’attention portée par les médias à ces mises en récit apocalyptiques ne sert qu’à distraire la population des causes réelles de la stagnation des salaires des plus pauvres et de la hausse des inégalités. Comme il serait un peu long de décrire le contenu de ce rapport en détail, je vais plutôt présenter ses principales conclusions.

– En fait, l’étude d’Acemoglu et de Restrepo ne montre pas d’effets de l’automatisation sur l’emploi aussi importants et aussi négatifs que les médias l’ont rapporté :

  • les résultats négatifs de cette étude ne portent que sur de petites régions; il est impossible de généraliser ces résultats au niveau national (à l’ensemble des États-Unis) sans se baser sur des hypothèses irréalistes, ce que font malheureusement les auteurs (l’explication de Mishel et Bivens est limpide, mais un peu complexe à présenter en quelques mots, d’autant plus que ces hypothèses sont nombreuses);
  • même en acceptant la généralisation de ces résultats, leur ampleur aurait été dans les années 2000 quatre fois moins élevée que celle des pertes d’emplois dus à la délocalisation des emplois en Chine;
  • l’étude montre que les effets négatifs ne concernent qu’une forme d’automatisation (les robots qui remplacent complètement les travailleurs), les autres formes d’automatisation (celles qui facilitent le travail de personnes qui gardent en général leur emploi, formes d’automatisation beaucoup plus fréquentes) créant plus d’emplois que les investissements en robots en détruisent; les auteurs se demandent pourquoi les médias et les autres personnes qui ont cité cette étude ont ignoré cette conclusion pourtant fondamentale pour la compréhension de la dynamique entourant l’automatisation;
  • rien dans cette étude ne peut mener à la conclusion que l’automatisation a entraîné ou entraînera une hausse du chômage (les auteurs citent entre autres l’étude de l’OCDE dont j’ai parlé au début de ce billet et observent, comme moi, que la plupart des études estiment le nombre d’emplois potentiellement automatisables, sans tenter d’évaluer combien le seront vraiment, ni le nombre d’emplois qui seraient créés par cette automatisation et par le déplacement de la demande).

– Les changements technologiques et l’automatisation n’ont jamais été parmi les principales causes de la stagnation des salaires et de la hausse des inégalités :

  • il n’y a en effet pas de corrélation dans les données historiques entre les périodes d’automatisation et celles de stagnation des salaires et de hausse des inégalités;
  • en fait on observe au contraire que les périodes de hausses de salaire correspondent souvent à celle de fortes implantations d’équipements favorisant l’automatisation;
  • comme le montre le graphique ci-contre, les effets des changements technologiques (et autres) sur la structure des professions furent les plus importants entre 1940 et 1980, ont ralenti quelque peu dans les années 1980 et 1990 et furent deux fois moins élevés qu’entre 1940 et 1980 depuis le début du siècle;
  • aucune preuve n’appuie la prétention que l’automatisation aurait entraîné une hausse du chômage depuis le tournant du siècle (taux de chômage qui est d’ailleurs aux États-Unis à son plus bas niveau depuis des décennies);
  • au contraire, «les tendances de la productivité et de l’investissement en capital, dans les équipements informatiques et dans les logiciels (voir le graphique ci-contre) suggèrent que l’automatisation a ralenti au cours des 10 dernières années. En outre, le taux de changement dans la structure professionnelle (voir encore le graphique précédent) a été plus lent dans les années 2000 que dans n’importe quelle période depuis 1940. Par conséquent, il n’y a pas de preuve empirique appuyant l’idée actuellement dominante selon laquelle l’automatisation s’accélère de manière exponentielle et entraîne un remplacement apocalyptique des emplois par des robots».

– Même s’il est vrai que les robots ont remplacé des travailleurs dans certaines industries et professions, cela ne veut pas dire qu’ils causeront une hausse du chômage :

  • non seulement les données montrent un ralentissement de l’automatisation, mais les changements technologiques créent toujours une dynamique qui entraîne des créations d’emploi dans d’autres secteurs (par exemple en raison de la baisse des prix qu’ils entraînent qui stimule la demande pour d’autres biens et services);
  • la baisse récente du taux de chômage de plus de 10 % en 2009 à moins de 5 % en 2017 contredit toutes les affirmations sur une récente percée de l’automatisation qui créerait du chômage.

– Le marché du travail des États-Unis a suffisamment de problèmes réels sur lesquels il faut se pencher qu’on n’a pas besoin d’en inventer. Pour solutionner ces problèmes réels, on doit notamment :

  • viser le plein emploi;
  • augmenter le salaire minimum;
  • combattre le vol des salaires par les employeurs;
  • améliorer les normes du travail, entre autres le rapport de force des travailleurs à bas et moyens salaires;
  • adopter des moyens pour lutter contre les inégalités, en augmentant par exemple la progressivité de l’impôt (l’EPI a produit un document détaillant les mesures qu’il recommande).

Et alors…

Quel que soit l’angle qu’on adopte pour analyser la question de l’impact de l’automatisation sur l’emploi, on arrive à la conclusion que cet impact est gonflé à la fois par des gens qui ont intérêt à l’exagérer et par ceux qui aiment bien penser que, peu importe les faits, les changements technologiques ne peuvent que nuire à l’emploi. On a beau apporter des preuves directes, comme la faiblesse des études qui présentent des prévisions apocalyptiques, ou indirectes, comme la baisse de la croissance de la productivité, des investissements, des changements de professions et du taux de chômage, trop de gens préfèrent croire les gens qui sont carrément en conflit d’intérêts sur cette question (ou trop enthousiastes), comme les entreprises et les universités qui travaillent sur l’intelligence artificielle. Cela me rappelle un vendeur de systèmes de commerce électronique qui affirmait vers la fin des années 1990 (il y a donc environ 20 ans) qu’il n’y aurait plus personne dans les magasins la veille de Noël cinq ans plus tard… Oui, le commerce électronique a fini par influencer le commerce du détail, mais bien moins et beaucoup plus graduellement que ne le prétendait le vendeur qui avait intérêt à faire croire à un impact plus grand et plus rapide de cette tendance. On ne peut pas être certain que ce sera la même chose avec ce qu’on appelle la quatrième révolution industrielle (cette appellation accordée avant même le début des changements annoncés devrait à tout le moins nous inciter à la méfiance), mais on devrait au moins attendre qu’une seule des prévisions de disparition de professions se manifeste avant de croire que la moitié des emplois ou des heures de travail disparaîtront en moins de 20 ans ou même qu’elles sont susceptibles de disparaître. Et n’oublions pas qu’il y en a déjà quatre qui sont passées, soit 20 % du total, depuis les premières prévisions de ce genre de Frey et Osborne en 2013!

Le Québec change

19 juin 2017

Simon Langlois est probablement le sociologue québécois que j’ai le plus de plaisir à lire. On ne s’étonnera pas que je me sois précipité devant mon ordi (en fait, j’y étais déjà) pour réserver son dernier livre, Le Québec change – Chroniques sociologiques, dès que j’ai pris connaissance de sa parution. Comme ce livre contient plus de 50 chroniques, je me contenterai de mentionner les sujets qu’elles abordent, et n’en commenterai que quelques-unes.

Présentation : L’auteur nous apprend que ce livre est un recueil de chroniques remaniées parues de 2011 à 2016 dans le magazine Contact de l’Université Laval. Il mentionne ensuite les auteurs qui l’ont le plus influencé, insistant surtout sur l’apport d’Alexis de Tocqueville.

Les chroniques

Dans ces chroniques, l’auteur aborde :

  • l’évolution des classes sociales au Québec entre 1971 et 2011 (paru en février 2016);
  • l’évolution de la présence des femmes sur le marché du travail et dans les classes sociales au Québec entre 1971 et 2011 (février 2016);
  • la faiblesse persistante de la présence des femmes dans les postes de direction et dans les conseils d’administration des grandes entreprises (février 2016);
  • l’avancement des femmes dans la hiérarchie sociale (mai 2014);
  • l’évolution de différents types de professions et de la présence des femmes dans celles-ci : professions libérales, intermédiaires, techniques, de bureau, de la vente et des services, de la classe ouvrière, etc. (de février à avril 2016);
  • la baisse du niveau de ségrégation dans les professions, malheureusement toujours présente dans certaines d’entre elles, par exemple en génie, en informatique, dans les métiers, les emplois de bureau, etc. (mai 2014);
  • dans une série d’articles, l’évolution de la classe moyenne et de sa diversité (il parle d’ailleurs des classes moyennes), la perception démesurée de la population d’appartenir à cette classe (tendance confirmée dans une étude récente dont j’ai parlé dans ce billet), le rôle positif des «gros» gouvernements et des mesures sociales sur la taille de cette classe, et les inquiétudes, parfois justifiées, des membres de cette classe face à l’avenir (il donne de bons motifs, comme le vieillissement de la population, mais au moins une moins bonne en citant la mise en récit d’Arthur Laffer, «trop d’impôt tue l’impôt», alors que le niveau d’imposition est loin d’un sommet entraînant cet effet, comme l’ont montré les hausses adoptées par le PQ et le PLC au cours des dernières années, après la rédaction de sa chronique) (de décembre 2011 à septembre 2014);
  • le choc que subissent trop de ménages en arrivant à la retraite (septembre 2014);
  • les indicateurs et l’évolution des inégalités de revenus (novembre 2014);
  • les inégalités entre les hommes et les femmes (janvier 2012);
  • la «logique» derrière la fixation de la rémunération des hauts dirigeants des grosses entreprises (mai 2013); cette chronique est particulièrement pertinente ces temps-ci;
  • les inquiétudes qui augmentent avec l’âge sur la détérioration du niveau de vie de la population (mai 2014);
  • dans une série de chroniques, les résultats d’une enquête sur la perception de la population du Québec sur les inégalités et la justice portant entre autres sur le niveau de justice de la société québécoise, sur le niveau auquel les répondants considèrent être traités de façon équitable, sur l’acceptation des concepts du mérite et de la récompense de l’effort, sur la perception de l’application de ces concepts, sur le niveau de bonheur et de satisfaction perçu par les répondants, sur l’importance de la satisfaction des besoins fondamentaux (logement, nourriture, habillement, santé, éducation, etc.), sur le niveau auquel les institutions québécoises permettent la satisfaction de ces besoins et sur la perception des inégalités au Québec par rapport à celles observées dans les autres pays développés (juin à novembre 2013);
  • dans deux textes, une nouvelle mesure du bien-être, l’indice canadien du mieux-être (ICMÊ) auquel l’auteur a participé à l’élaboration, qui a progressé à un rythme nettement moins rapide que le PIB (l’auteur aurait dû, selon moi, comparer l’évolution l’ICMÊ avec le PIB par habitant, pas avec le PIB) au cours des 17 dernières années (novembre 2011 et 2012);
  • encore une fois la classe moyenne (ou les…), mais cette fois sous l’angle du fractionnement du revenu adopté en 2015 par le gouvernement conservateur (et abolie l’année suivante par les libéraux) pour les couples avec enfants de la classe moyenne, supposément, mais qui profitait en fait davantage aux familles aisées (février 2015);
  • le concept de «date de l’affranchissement fiscal» de l’Institut Fraser et montre l’inanité de ce concept (juin 2014);
  • l’effet sur les inégalités de revenus des mesures budgétaires gouvernementales (avril 2016);
  • les conséquences de la fermeture de centres d’archives muséales (juin 2016);
  • le financement des retraites et l’établissement de l’âge de la retraite (mars 2012);
  • le contexte entourant la grève étudiante de 2012 (qu’il appelle étrangement le «boycott» sans expliquer pourquoi, bien qu’on s’en doute…) (mai 2012);
  • les dérives qui menacent l’université québécoise (deux chroniques, juin 2012 et avril 2015);
  • la baisse de l’appui à l’indépendance (novembre 2015);
  • la crise de confiance envers la démocratie représentative (ou parlementaire) (février 2013);
  • la polarisation gauche-droite (décembre 2013);
  • le lien entre le travail professionnel et l’individualisation de la vie en société (février 2012);
  • la complexification de la vie quotidienne (janvier 2013);
  • l’augmentation de la proportion de couples mariés qui divorcent (il n’y a pas de données pour la séparation des couples en union libre) et, avance l’auteur, de l’âge du divorce, quoique cela ne soit pas clair dans les données (le pourcentage des couples qui divorcent entre 20 et 25 ans de mariage n’a pas du tout augmenté) (août 2016);
  • la baisse du poids démographique du Québec dans le Canada (février 2012);
  • «le choix de la langue d’enseignement au cégep et à l’université par les jeunes Québécois de langue maternelle «tierce» (non française ni anglaise ni autochtone)» (février 2012) (j’ai écrit un billet récemment avec des données plus récentes; j’ajouterai que l’auteur a mentionné à un aspect auquel je n’avais pas pensé, aspect qui peut influencer l’interprétation des données, soit la présence croissante d’étudiants étrangers dans nos cégeps; bravo!);
  • la situation de la langue française au Québec (juin 2015); ce texte est celui que j’ai préféré, notamment en raison de l’explication claire des processus de transferts linguistiques de nouveaux arrivants dans un pays de langue commune différente et de la qualité de l’analyse de l’auteur (il conclut en plus comme moi que la langue de travail est primordiale dans ce processus…);
  • le solde migratoire interprovincial (janvier 2015); cette analyse est très intéressante, mais je reproche un peu à l’auteur d’avoir additionné les personnes qui quittent le Québec et qui y entrent année après année, alors qu’il est plus que probable (j’en connais!) que certaines personnes quittent le Québec pendant quelques années et y reviennent par la suite (à la fin d’un contrat, par exemple) et vice-versa; ces personnes peuvent donc être comptées plusieurs fois par l’auteur, à la fois comme entrants et comme sortants;
  • «la disparition de la paroisse comme institution qui a encadré la vie religieuse et la vie québécoise pendant plusieurs siècles». (mai 2015);
  • les changements qui ont touché la ville de Québec (février 2012).

Et alors…

Lire ou ne pas lire? Même si je ne rejoins pas toujours l’auteur dans ses opinions et ses analyses, comme on a pu le constater en lisant les quelques remarques que j’ai faites, ce livre vaut certainement le détour aussi bien en raison de la grande variété des sujets abordés que de la profondeur des analyses de l’auteur. Comme Simon Langlois est un des grands penseurs québécois des dernières décennies, il est important de lire au moins un de ses livres pour pouvoir avoir une idée de son importance. Son écriture est claire et facile à comprendre, ce qui n’est pas fréquent chez les membres de sa profession. Et, en plus, les notes sont en bas de page!

L’efficacité des subventions aux véhicules électriques

17 juin 2017

Grâce à un article du Devoir, j’ai appris que la Commission de l’écofiscalité du Canada (CÉC) a publié la semaine dernière un rapport intitulé Soutenir la tarification du carbone – Comment identifier les politiques qui complémentent véritablement un prix carbone à l’échelle de l’ensemble de l’économie. Cette Commission «fondée par un groupe d’économistes chevronnés» se dit «entièrement indépendante et vise à se mettre au service des décideurs sans égard à leurs tendances politiques, à tous les ordres de gouvernement». Si certaines des personnes qui font partie de cette commission semblent possiblement correspondre à cette vision, la présence de personnalités comme Preston Manning, Paul Martin et Jean Charest au sein de son comité consultatif font douter de l’entièreté de cette indépendance. Mais, peu importe, regardons plutôt ce rapport pour sa valeur intrinsèque. Dans ce billet, je compte seulement survoler ce rapport pour m’attarder davantage sur la partie qui analyse l’efficacité des subventions aux véhicules électriques au Québec.

Survol

Le rapport du CÉC félicite tout d’abord les gouvernements du Canada d’avoir adopté une politique de lutte au réchauffement climatique et aux émissions de gaz à effet de serre (GES) basée sur le prix du carbone. Il serait en effet étrange qu’une commission sur l’écofiscalité ne considère pas l’écofiscalité comme «la pierre angulaire de la stratégie de réduction des émissions de gaz à effet de serre (GES) de chaque province et territoire». La CÉC reconnaît toutefois l’importance de jumeler aux mesures de tarification du carbone d’autres politiques non tarifaires (notamment réglementaires), même si «l’élaboration de bonnes politiques non tarifaires à faible coût» représente une tâche complexe. Ce rapport a d’ailleurs pour objectif «d’aider les gouvernements à identifier, concevoir et mettre en œuvre un ensemble de politiques complémentaires qui peuvent soutenir leurs prix carbone».

Le rapport présente trois situations où de telles politiques complémentaires peuvent être justifiées et améliorer l’efficacité de l’écofiscalité :

  • lorsqu’elles s’appliquent à des émissions non couvertes par un marché du carbone : les exemples sont nombreux, incluant les émissions de méthane la plupart du temps non comprises dans un marché du carbone;
  • lorsqu’elles renforcent un signal pour augmenter l’efficacité de la tarification du carbone : la tarification du carbone peut mal fonctionner en raison de problèmes de marché; par contre, les mesures pour résoudre ces problèmes «risquent d’être strictement motivées par des intérêts politiques ou par ceux de lobbys particuliers» (cette remarque m’a agréablement surpris…); les subventions aux véhicules électriques dont je parlerai plus loin font partie de ces mesures;
  • lorsqu’elles s’attaquent simultanément à plus d’un problème, comme à la pollution et aux émissions de GES : les auteurs donnent comme exemple le remplacement de la production d’électricité à partir du charbon.

Le rapport examine ensuite ces types de politiques en fonction des réalités différentes des provinces, présente cinq critères d’évaluation (rigueur, couverture, flexibilité, prévisibilité et gouvernance), examine trois cas particuliers (dont les subventions aux véhicules électriques au Québec) et y va de six recommandations.

Subventions aux véhicules électriques au Québec

J’ai déjà indiqué mon grand scepticisme face à l’efficacité de cette mesure. Il y a déjà quatre ans, je montrais que les objectifs du programme d’achat d’un véhicule électrique (qui fournit notamment un rabais de 8000 $), soit au début l’achat de 12 500 véhicules en trois ans à partir de 2013 (ou guère plus de 4000 par année) ne représentaient que 5 % de l’augmentation moyenne du parc automobile entre 2004 et 2012 (et 3 % de cette moyenne entre 2012 et 2015, voir la première colonne du tableau de la page 6 de ce document), et ne pouvaient donc pas avoir un impact notable sur les émissions de GES de ce secteur, en fait ne pouvaient même pas arrêter leur croissance, donc ne pouvaient surtout pas contribuer à les réduire. En fait, les données les plus récentes de ce programme (rebaptisé «Rouler électrique») montrent qu’il n’y avait à la fin 2016 que 13 000 «voitures électriques et hybrides» au Québec, même si ce programme vise à ce qu’il y en ait 100 000 en 2020 (et qu’on affirme que 32 000 Québécois ont profité de ce programme depuis 2012!). Cela supposerait l’ajout de 87 000 de ces véhicules en quatre ans (au coût minimal de 700 millions $ en subventions de 8000 $ par véhicule – coût minimal qui suppose que 100 % des véhicules achetés en quatre ans seraient encore dans le parc automobile québécois en 2020 – sans compter «les investissements publics dans les infrastructures de recharge») alors que leur nombre n’a même pas atteint la hausse de 12 500 prévue en trois ans. Et, même si cet objectif était atteint, cela ne représenterait que 25 % de la hausse du parc automobile entre 2016 et 2020 et que 2,0 % de l’ensemble de ce parc en 2020. Encore là, cela ne permettrait pas de faire réduire les émissions de GES de ce secteur, mais seulement de les faire augmenter un peu moins.

Je ne suis pas le seul à déplorer que tant de moyens soient investis dans un programme si peu efficace pour atteindre ses objectifs (et beaucoup moins qu’un investissement massif dans le transport en commun, par exemple). Dans son livre Gagner la guerre du climat (dont j’ai parlé dans ce billet), Normand Mousseau, qui fut notamment coprésident de la Commission sur les enjeux énergétiques du Québec (CEEQ), fait les mêmes calculs que moi et conclut lui aussi que ce programme ne pourra pas contribuer à l’atteinte des objectifs de réduction des émissions de GES du Québec.

Le rapport du CÉC analyse ce programme autrement, avec les critères dont j’ai parlé plus tôt et avec un outil de simulation. Les auteurs rappellent tout d’abord les objectifs de ce programme (100 000 «voitures électriques et hybrides» au Québec en 2020), soulignent sa complémentarité avec la tarification du carbone (dans ce cas spécifique, le système de plafonnement et d’échange de droits d’émission de gaz à effet de serre du Québec ou SPEDE), reconnaissent son respect de quatre des cinq des critères du CÉC (rigueur, flexibilité, prévisibilité et gouvernance), mais pas du cinquième, soit celui de la couverture, en raison du volontariat de la mesure et du faible pourcentage des automobilistes qui en bénéficient.

La donnée la plus étonnante de ce rapport est le coût très élevé de cette politique pour faire diminuer finalement très peu les émissions de GES. Le modèle de la CÉC arrive en effet à un coût de 395 $ la tonne d’équivalents de CO2, coût 21 fois plus élevé que le prix du carbone établi dans le SPEDE au Québec en 2017 (18,50 $). En plus, cette mesure, si jamais elle atteignait ses objectifs (ce qui est plus que douteux), ne ferait diminuer que de 1 % environ les émissions de GES du secteur du transport de personnes au Québec d’ici 2030. En fait, si on tient compte qu’une partie de cette baisse de 1 % serait en fait due au SPEDE, cette proportion uniquement attribuable aux subventions pour l’achat de véhicules automobiles serait encore plus faible.

Les auteurs concluent que, s’il y a des arguments en faveur de cette mesure, il y en a beaucoup plus allant à son encontre. En plus de son coût prohibitif, les auteurs mentionnent notamment des questions d’équité (car ces subventions profitent «de manière disproportionnée aux ménages plus aisés») et l’absence de fabricants de telles voitures au Québec (ce qui permettrait l’atteinte d’autres objectifs). Ils recommandent donc au gouvernement du Québec d’examiner ces arguments (et d’autres, si possible) à fond en 2020 lorsque viendra le temps de décider s’il est judicieux de renouveler cette politique.

Et alors…

En lisant ce rapport, je me suis demandé si, compte tenu des réserves que j’avais avec certains membres du comité consultatif du CÉC, je ne faisais pas preuve de biais de confirmation en acceptant ses constats sur les subventions pour l’achat de véhicules automobiles. Mais, la démonstration du CÉC, malgré les imprécisions du modèle retenu (imprécisions avouées par le CÉC), demeure solide et correspond tout à fait avec les autres analyses de ce programme. En plus, je ne voyais pas l’intérêt de cet organisme de décrier un programme qui ne remet nullement en question le fonctionnement du système capitaliste ni le mode de vie de la population.

Au bout du compte, ce rapport apporte des faits supplémentaires allant à l’encontre de la prétention de nos gouvernements que la politique «Rouler électrique» doit demeurer une mesure phare pour réduire les émissions de GES dans le domaine du transport de personnes et pour atteindre ses objectifs de réduction globale de ces émissions. D’autres mesures, notamment axés sur le transport en commun (aussi bien urbain qu’interurbain), seraient pourtant bien plus efficaces…

Anatomie d’un désastre

12 juin 2017

Anatomie d’un désastre de Serge Truffaut, ex-éditorialiste au Devoir, «se veut le récit de la calamité économique introduite par le trio Reagan-Thatcher-Mulroney et imposée par Alan Greenspan et consorts».

Prologue : L’auteur nous présente dans ce prologue un bon nombre des membres de la garde rapprochée de Donald Trump et leurs liens avec le milieu de la finance, le mouvement libertarien, les négationnistes du climat, etc. Il montre aussi le rôle important, voire déterminant en politique, des super riches comme les frères Koch et d’autres, notamment par le financement de toutes sortes de causes, d’universités et d’instituts mettant de l’avant leurs idées de droite.

La mise en terre de Lehman Brothers : Le titre de ce chapitre indique bien le sujet qu’il aborde. Il se distingue par l’analyse fine des relations entre les différents acteurs de la faillite de Lehman Brothers en novembre 2008, notamment, mais pas seulement, entre son président, Richard S. Fuld Jr, et le secrétaire au Trésor de l’époque, Hank Paulson. Il présente ensuite l’idéologie (entre autres libertarienne) de ces acteurs et explique l’effet domino (et même «pop corn», car ça explose de partout) causé par cette faillite et par la fragilisation des «colosses» du secteur financier un peu partout sur la planète. Puis, il décrit le sauvetage de ce secteur. J’ai lu de nombreux textes (livres, études, articles, etc.) sur ce sujet, mais j’en ai quand même appris dans ce chapitre.

La troïka et le libertarien : La troïka dont parle l’auteur est formée de Margaret Thatcher, Ronald Reagan et … Brian Mulroney! Ces trois icônes du conservatisme ont en effet «régné» au début des années 1980 au Royaume-Uni, aux États-Unis et au Canada. Disons que j’ai rarement lu un texte aussi cinglant sur ces trois sbires! Ce chapitre est vraiment instructif et, si j’ose dire, jouissif… Même si elles sont fascinantes, je vais sauter les parties sur Thatcher («celle qu’on appelait la «Dame de fer», alors qu’elle était davantage une dame d’argent») et Reagan (qui a déjà déclaré que les hauts niveaux d’imposition des riches étaient à ranger «au rayon de la quincaillerie idéologique fréquentée par les naïfs et les humanistes») pour dire quelques mots sur celle portant sur Mulroney. Si ce dernier donne une image bien modérée par rapport à Reagan et Thatcher (et Harper), il n’en demeure pas moins qu’il a privatisé un grand nombre de sociétés de la couronne, dont Havilland, Canadair (à la grande joie de la famille Bombardier-Beaudoin), Téléglobe (à celle de Charles Sirois), Air Canada, Canadien national et Pétro-Canada. Il a en plus déréglementé partiellement le secteur financier, avec des conséquences plus importantes qu’elles ne le semblaient à l’époque. Le chapitre se termine par une brève présentation de l’idéologie d’Alan Greenspan, le libertarien du titre (grand admirateur d’Ayn Rand), qui, à titre de président de la Réserve fédérale des États-Unis, fut un des grands responsables de la crise de 2008.

Les raisins de la colère : L’auteur profite de l’admiration que Reagan vouait à Calvin Coolidge (président des États-Unis dans les années précédant la Grande Dépression débutée en 1929) pour souligner les points communs entre les politiques qui ont mené à cette dépression et celles mises en place par les acteurs présentés dans le précédent chapitre. Il souligne aussi que toutes les personnes qui ont pris ces décisions partageaient une idéologie semblable (place de la religion, croyance en la main invisible et en la loi de Say, etc.). Il poursuit en présentant les deux présidents qui furent en poste juste après la dépression, soit Herbert Hoover et Franklin Delano Roosevelt. Ces deux personnages (et leurs proches) sont bien différents des précédents. Même s’il était républicain, Hoover fut le premier à adopter des mesures de relance, notamment dans le secteur agricole. Le deuxième est allé bien plus loin, notamment avec son New Deal et l’adoption de la loi Glass-Steagall, qui a réglementé le secteur financier et a contribué à éviter des crises financières majeures au cours des décennies qui ont suivi son adoption (pendant 60 ans, selon l’auteur). Mais, encore là, Roosevelt était loin d’être parfait, l’auteur le montre bien.

Michael Douglas, les escrocs et les hussards : Le Michael Douglas du titre est Gordon Gekko (un personnage du film Wall Street qui prétend que la cupidité est bonne) et les escrocs sont des stars de la finance. L’auteur nous présente les «exploits» de Michael Robert Milken (qui a amassé un milliard $ entre 1983 à 1987 en transigeant des obligations de pacotilles ou junk bonds), d’Ivan Boeski, un acolyte de Milken, et de bien d’autres escrocs, ainsi que les conséquences de ces exploits. Les hussards sont les établissements qui ont profité des vagues de déréglementations qui ont coûté si cher aux gouvernements, donc à nous tous…

Les mauvais génies des alpages financiers : L’auteur s’étonne ici que le législateur et même le lobby des banques n’aient rien retenu des erreurs du passé. On aurait dû voir que la déréglementation des années 1980 et 1990 (j’ai sauté cette partie…) a eu des effets désastreux. Mais, la foi inébranlable des acteurs du secteur financier dans les vertus du laisser-faire a pris le dessus. L’auteur raconte dans ce chapitre l’effondrement de quelques mastodontes du secteur financier, soit ceux de la banque Barings et du fonds d’investissement Long-Term Capital Management (LTCM). Cette dernière histoire est fascinante, relatant la montée ultra rapide de cette société dès sa création en 1994 jusqu’à sa chute encore plus spectaculaire en 1998. Des milliards $ furent perdus. Elle illustre parfaitement l’avidité de nombreux joueurs de ce secteur et surtout leur vanité sans limite.

Mère Courage, le croisé, la brute et le vaniteux : La mère courage est Brooksley Born, «qui fut du 26 août 1996 au 1er juin 1999 à la tête de la Commodity Futures Trading Commission (CFTC)» et affronta Alan Greenspan, Larry Summers (conseiller économique du président Bill Clinton) et Rick Rubin (secrétaire au Trésor), qui sont dans l’ordre le croisé, la brute et le vaniteux du titre du chapitre. Ce triumvirat mis constamment les bâtons dans les roues de Brooksey Born qui tentait de réglementer, ou, à tout le moins, de surveiller les transactions de produits dérivés. Le chapitre présente un grand nombre de malversations (pour ne pas dire de fraudes!) dans ce domaine, les tentatives de Born de les contrer et l’acharnement de nos trois compères de les laisser faire. Et ils ont gagné… et nous avons donc perdu!

Too big to fail, too big to jail : En plus de l’interconnexion des banques qui fait en sorte que même la faillite de banques pas trop grosses peut mettre en danger une véritable banque «trop grosse pour faire faillite», l’auteur aborde l’importance de la finance de l’ombre (ou du «shadow banking»), la place prépondérante prise par les agences de notation (qui sont en plus en conflit d’intérêts) et les avertissements qui ont été ignorés. En effet, contrairement à la théorie du cygne noir, ce qui est arrivé n’était pas seulement prévisible, mais avait été prévu, les avertissements aux autorités ayant été fort nombreux, aussi bien d’organismes de contrôle, mais aussi du FBI! Mais, les responsables, dont Hank Paulson, ont préféré faire confiance à la main invisible pour ensuite donner l’impression de tomber des nues quand les conséquences dont on les avait avertis se sont concrétisées. Et ce n’est pas tout, vraiment pas tout (attention aux haut-le-cœur…)!

Introduction au capitalisme stalinien : «Au lendemain de la Deuxième Guerre mondiale, (…) le détenteur d’une action la conservait pendant une période de quatre ans en moyenne. (…) En 2008, année de la crise, on la gardait pendant deux mois. En 2011 ce n’était plus que 22 secondes! Aujourd’hui? Aux alentours de 10 secondes». Même si les moyennes peuvent être trompeuses, avouons que cette statistique est révélatrice et donne le tournis! L’auteur poursuit en parlant des génies mathématiciens (les «quants» et ceux qu’il appelle les «plombiers»), de leurs succès (impressionnants) et de leurs échecs (monumentaux). Et, ce n’est pas tout… L’auteur conclut que notre démocratie est une chose bien relative et encore plus fragile, et qu’elle tend de plus en plus vers un capitalisme stalinien, soit un système financier déshumanisant où les fraudeurs du système financier, plutôt que d’être emprisonnés, reçoivent toujours plus d’avantages fiscaux et autres.

Et alors…

Lire ou ne pas lire? Lire! Comme j’ai lu de nombreux livres et textes sur le sujet abordé par ce livre, je n’avais pas beaucoup d’attentes en le commençant. J’ai été agréablement surpris par son contenu qui apporte sans contredit une valeur ajoutée importante aux textes que j’ai lus auparavant. Autres qualités, le style de l’auteur est clair et son écriture précise et agréable. En plus, les notes ne sont pas à la fin ni en bas de pages, mais l’équivalent est incorporé au texte sans que celui-ci s’alourdisse. Un autre bon point pour lui!