Skip to content

La langue affranchie

26 juin 2017

Après le succès de La langue rapaillée (dont j’ai parlé dans ce billet), Anne-Marie Beaudoin-Bégin (connue aussi comme l’Insolente linguiste) nous revient avec un nouveau livre intitulé La langue affranchie. Dans celui-là, elle plaide «pour que les Québécoises et les Québécois se réapproprient avec fierté leur langue et cessent, notamment, de craindre des emprunts à l’anglais».

Préface : Matthieu Dugal remercie l’auteure qui nous montre qu’une langue «ça respire, ça transpire, ça rote, ça pète, c’est parfois déglingué, ça capote sa vie, ça radote c’est lyrique, ça rase les pâquerettes (…)», bref que «ça vit».

Prologue – Charlotte est partie… : L’auteure nous présente une agréable allégorie sur l’imposition de règles pour décorer et entretenir une maison, règles qui portent l’héroïne à la quitter…

Introduction : «Une langue n’est pas protégée par sa qualité, mais bien par le fait que les locuteurs continuent à la parler». Les exigences de pureté de la langue entraînent plutôt l’insécurité linguistique. Quand on a trop peur de se tromper, on risque de cesser d’utiliser une langue. «L’insécurité linguistique au Québec met la langue française en danger»…

1. Chaos glorieux et dissonance cognitive : On ne parle pas de la même façon d’une génération à l’autre, d’un territoire à l’autre, selon la situation. «La langue est un chaos glorieux». L’auteure ajoute que les critères qui déterminent si une forme correspond à du «bon» et du «mauvais» français sont en fait des critères sociaux. Elle donne ensuite quelques exemples d’évolution de la langue qui dérangent les puristes.

2. Parlant d’évolution linguistique : L’auteure énonce brièvement les caractéristiques de quatre facteurs qui peuvent influencer l’évolution d’une langue. Elle les présente plus en détail dans les chapitres suivants.

3. Un facteur d’évolution : l’économie linguistique : L’économie linguistique est le facteur qui fait en sorte qu’on cherche à exprimer une idée le plus efficacement possible. C’est par économie qu’on «saute» souvent le «ne» des énoncés négatifs. C’est aussi ce facteur qui est à l’origine de l’élimination des terminaisons latines (c’est en fait un peu plus compliqué, mais l’auteure l’explique clairement). Si les manifestations anciennes de ce facteur ont toutes été intégrées au «bon» français, les plus récentes sont inévitablement considérées comme du «mauvais» français.

4. Un facteur d’évolution : les changements dans le milieu : «Quand on analyse l’histoire de la langue française (et l’histoire d’autres langues également), on s’aperçoit que le développement des moyens de communication est lié de très près à l’évolution linguistique». Plus les moyens de communication s’améliorent, plus les particularités des langues s’estompent. Par exemple, les particularités régionales du français existent encore, que ce soit au Québec ou en France, mais sont bien moins marquées qu’il y a quelques décennies. Il arrive même que des langues différentes en viennent à se ressembler de plus en plus.

5. Un facteur d’évolution : les contacts sociaux : Que ce soit dans un contexte de guerres, de rencontres artistiques ou de mariages princiers, les contacts sociaux contribuent à l’évolution linguistique. L’auteure donne de nombreux exemples à cet effet.

6. Un facteur d’évolution : les interventions humaines : Ces interventions se manifestent entre autres par l’adoption de lois et de règlements encadrant l’usage d’une langue officielle dans un pays. L’influence réelle de ces interventions repose en grande partie sur le niveau d’adhésion de la population à ce genre de réglementation. Il en est de même des décisions d’organismes comme l’Académie française et l’Office québécois de la langue française, qui seront suivies en fonction de leur acceptation. L’intégration de ces décisions à l’enseignement peut aussi contribuer à leur acceptation et à leur adoption rapide.

7. Les nouvelles technologies : évolution, révolution : «On n’a jamais tant écrit». Ceux qui écrivaient beaucoup il y a quelques décennies écrivent encore plus de nos jours et ceux qui n’écrivaient pas le font maintenant sur les médias sociaux. Cette prolétarisation de l’écriture, activité auparavant réservée à une élite, ne fait pas l’affaire de tout le monde. Comme ces nouveaux écrivains utilisent presque toujours le registre familier, ils sont souvent la cible des puristes, ce qui inquiète l’auteure : «En plus d’être vouée à l’échec, la tentative de gérer systématiquement la langue des gens qui utilisent les nouvelles technologies a une conséquence pernicieuse : elle diminue la confiance que ces gens ont en ces autorités langagières». Ces dernières deviennent au mieux des empêcheuses d’écrire et au pire un vecteur d’insécurité linguistique.

8. Déconstruire le franglais : On parle beaucoup du franglais, mais il est plus facile de décrire ce qu’il n’est pas que de décrire ce qu’il est. L’auteure profite de ce chapitre pour définir d’autres concepts dont on abuse souvent, comme celui de la créolisation, et pour présenter certaines réalités, comme celle de l’Acadie, et quelques phénomènes, comme celui de la disparition d’une langue (phénomène qui n’est jamais arrivé à la suite d’emprunts de termes à une autre langue). Et elle conclut : «Le déclin du français, si déclin il y a, n’est pas causé par le franglais ou peu importe comment on appelle cette variante du français. Mais il pourrait bien être causé par la saturation des cris, par la fatigue généralisée causée par la constante condamnation des changements en cours».

9. Alternance de codes et expression artistique : L’auteure montre l’importance de la motivation dans l’apprentissage d’une langue. Elle présente ensuite les nombreux avantages de connaître plus d’une langue.

10. Aménagement linguistique : Face aux menaces que le français subit en Amérique du Nord, il est normal et sain qu’on prenne des mesures pour assurer sa survie. L’auteure recommande les mesures qui font en sorte que les locuteurs se retrouvent «dans les meilleures dispositions» pour parler une langue. Dans ce contexte, l’auteure explique pourquoi la grande majorité des mesures d’aménagement mises en place par la Loi 101 furent excellentes, et pourquoi des mesures qui consistent à jouer à la police de la «qualité» de la langue française sont mauvaises (parce qu’elles ne rendent pas les locuteurs davantage disposés à parler français, bien au contraire).

11. Libérée, délivrée : L’auteure précise qu’elle ne prétend nullement que l’anglais gagne du terrain au Québec (et ailleurs) uniquement en raison des puristes qui font détester le français par ceux qu’ils accusent de «mal» le parler. En effet, tout au long de l’histoire, certaines langues se sont démarquées devenant pendant un temps la «lingua franca», soit une langue utilisée internationalement comme langue commune par des gens de langues maternelles différentes. Ce fut pendant un temps le cas du latin, du français et de l’italien, et c’est celui de l’anglais actuellement.

On attribue souvent la plus grande popularité de l’anglais à sa simplicité. Or, une partie de cette simplicité vient du fait que cette langue est moins normée et moins policée que le français. En plus, on y accepte sans problème le registre familier, alors que celui-ci est constamment critiqué en français, particulièrement au Québec. En effet, l’anglais soigné est aussi sinon plus complexe que le français soigné. Par contre, son usage est réservé à des situations bien précises, n’est pas imposé partout! Dans ce sens, l’auteure conclut que, si nous voulions vraiment rendre l’utilisation du français plus simple, il faudrait accepter davantage l’usage du registre familier et surtout cesser de le critiquer dans toutes les situations.

12. La langue à affranchir : Le français est tellement complexe que jamais un éditeur n’imaginerait publier un livre sans le faire réviser, car même les vedettes du français font des fautes (en fait, même les réviseurs en font). Par contre, il semble selon bien des chroniqueurs (dont les textes sont révisés) qu’il soit inadmissible que des personnes qui publient des statuts sur Facebook en fassent… Si l’auteure aimerait voir le nombre de règles réduites, elle apprécierait surtout qu’on arrête de «culpabiliser les gens qui ne les maîtrisent pas». C’est dans ce sens qu’elle considère que «la langue a besoin d’être affranchie» (ce qui semble expliquer le titre du livre).

13. Se racc’mmoder avec l’évolution linguistique : Les gens sont souvent fascinés par l’origine des expressions populaires qui étaient utilisées par nos aïeuls, que ce soit dans une seule région ou un peu partout sur notre territoire. Pourtant, ce n’est que grâce à la souplesse d’application des règles d’une langue que de telles expressions peuvent voir le jour. Elles sont d’ailleurs souvent disparues en raison de l’application tatillonne des règles du «bon» français, règles qui veilleront à ce que plus jamais de telles expressions n’apparaissent dans notre langue si parfaite… Bref, dans un tel contexte, mieux on connaît notre langue, moins on est en mesure de créer de nouveaux mots ou de nouvelles expressions! Étrange? Non! L’auteure montre bien qu’il s’agit là d’une conséquence et non d’un paradoxe. D’ailleurs, il est beaucoup plus facile de créer des mots et des expressions en anglais, langue plus permissive. En conséquence, les locuteurs francophones empruntent souvent les nouveaux termes anglais face à l’impossibilité pour eux d’en créer dans leur langue. Y a-t-il vraiment des personnes qui pensent qu’il s’agit d’une façon efficace de protéger notre langue?

Conclusion : L’auteure ne vise pas avec son livre à solutionner les problèmes quelle y présente, mais plutôt de proposer des pistes de réflexion et de susciter des changements d’attitude. Elle aimerait par exemple qu’on cesse de rabaisser les autres et la langue qu’ils parlent (notamment parce que «ça n’a jamais donné de bons résultats») et qu’on travaille plutôt à rendre le français plus attirant pour ses locuteurs.

Épilogue – Clémentine ne partira pas : L’auteure revient sur son allégorie du début du livre et raconte des événements qui feront en sorte que Clémentine, elle, ne partira pas et que, qui sait, Charlotte aura peut-être le goût de revenir.

Et alors…

Lire ou ne pas lire? Lire! Ce livre étonne peut-être moins que le précédent de l’auteure, mais frappe aussi juste. Le message le plus important de ce livre, soit qu’une langue est protégée en premier lieu par le fait que ses locuteurs continuent de la parler (et qu’ils ont encore le goût de le faire), est tellement logique qu’on se demande comment ceux et celles qui prétendent que c’est sa «qualité» (quoique ce verdict puisse signifier) qui la protège réussissent à convaincre qui que ce soit avec leur proposition si illogique. En fait, c’est tout le génie de l’auteure de rendre évidente une thèse qui semblerait à première vue difficile à défendre dans la rectitude linguistique ambiante…

Encore (et toujours) les robots!

24 juin 2017

Quand j’ai pris connaissance de l’étude de l’OCDE parue au début de 2016 qui contredisait toutes les études précédentes sur la supposée menace de l’automatisation sur la moitié des emplois existants avec un argumentaire impeccable (qui estime cette menace à un niveau cinq fois moins élevé en moyenne selon les pays, soit que seulement entre 6 et 12 % des tâches seraient en fait menacées d’automatisation), je me suis hâté de la présenter sur ce blogue en me disant que je n’aurais qu’à citer cette étude (et ce billet) quand je lirais des gens tomber dans le panneau des prévisions apocalyptiques sur les effets de l’automatisation. Mais, rien n’y fait, le biais de confirmation persistant depuis les luddistes sur le danger des changements technologiques sur l’emploi est trop fort pour que des faits démontrés puissent même égratigner le moindrement les certitudes des catastrophistes de la robotisation. Et d’autres études, toujours basées de près ou de loin sur les hypothèses pourtant démolies par l’étude de l’OCDE, continuent de paraître avec le même message catastrophiste et le même accueil bienveillant des médias. Désolant…

Une autre étude

Encore la semaine dernière, Gérald Fillion, l’animateur de RDI économie (qui fait en général un excellent boulot de vulgarisation), nous mettait en garde contre les dangers de l’automatisation, surtout dans certaines villes et régions du Québec où la population active est la plus concentrée dans les industries qu’une étude du Brookfield Institute for Innovation and Entrepreneurship, un organisme associé à l’Université Ryerson de Toronto, juge les plus vulnérables à l’automatisation. Mieux, M. Fillion termine son texte en concluant que «cette transformation sociale est déjà en cours». S’il ne parlait que du secteur manufacturier, ça irait (car il est de fait très vulnérable à l’automatisation, et cela depuis des décennies), mais quand on sait que l’industrie qui aurait le pourcentage d’emplois ayant le plus fort potentiel d’automatisation est les services alimentaires (avec 69 % des emplois potentiellement automatisables), on peut se demander quelles données appuient la conclusion de sa chronique.

J’ai alors vérifié l’évolution de l’emploi des deux industries (autres que le secteur manufacturier) dont l’étude du Brookfield Institute considère l’emploi le plus vulnérable. Que ce soit en utilisant les données de l’Enquête sur la population active (EPA) ou de l’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) à l’aide des tableaux cansim 282-0008 et 281-0023, j’ai constaté que l’emploi dans les services d’hébergement et de restauration, dont 69 % des emplois dans les services alimentaires seraient potentiellement automatisables selon l’étude du Brookfield Institute, et dans le transport et l’entreposage, dont 61 % des emplois seraient potentiellement automatisables, a augmenté plus fortement entre 2008 et 2016, et même entre 2012 et 2016, que l’emploi dans l’ensemble du marché du travail (l’écart le plus important s’observant dans les services d’hébergement et de restauration, l’industrie dont les emplois sont supposément les plus vulnérables). Comment alors conclure que «cette transformation sociale est déjà en cours»? Mystère…

J’ai alors décidé de lire cette étude, pour voir au moins quelles hypothèses elle utilise pour arriver à ces résultats. Je dois tout d’abord avouer considérer les études associées à l’Université Ryerson avec beaucoup de scepticisme depuis que j’ai lu une de ses études sur les données massives (ou les Big data) qui utilisait des données carrément risibles (des prévisions des États-Unis datant de quatre ans pour appuyer des prévisions au Canada dans trois ans; voir ce billet pour le reste de la critique de cette étude) pour faire la promotion des besoins dans ce domaine. Il s’agissait plus d’un document de marketing que d’une véritable étude, ce qui est pour le moins décevant quand on lit une étude universitaire. Est-ce le cas ici aussi, cette université étant aussi très active dans le domaine de l’intelligence artificielle?

Mon scepticisme s’est exacerbé dès les premières lignes de l’étude. En effet, la première référence donnée pour appuyer une phrase affirmant que les inquiétudes sur les pertes d’emplois dues à l’automatisation sont en croissance est l’étude que l’OCDE a justement démolie, soit celle trop célèbre et pleine de raccourcis de Carl Benedikt Frey et Michael A. Osborne (étude qui date déjà de près de quatre ans)… Cela dit, les auteurs poursuivent en citant d’autres études arrivant à la conclusion que «La technologie a souvent contribué à produire plus d’emplois qu’elle en a détruits». Bon, c’est déjà mieux.

En fait, cette étude se base sur une autre étude (de 148 pages, qu’on peut consulter à partir de cette page), celle-ci du McKinsey Global Institute (MGI). Si celle-ci utilise une méthode un peu différente de celle de Frey et Osborne, elle tente aussi de trouver les tâches potentiellement automatisables à l’aide de définitions théoriques (méthode rejetée par l’OCDE qui se base plutôt sur des tâches réellement réalisées par des personnes en emploi) en «examinant en détail plus de 2 000 activités de travail pour plus de 800 professions dans l’ensemble de l’économie» des États-Unis et en transposant ces résultats dans 45 autres pays sous l’hypothèse que ces tâches sont identiques dans tous les pays (!). Bref, on ne s’étonnera pas que les résultats de cette étude ressemblent à ceux de l’étude de Frey et Osborne. En effet, au lieu de prévoir la possible automatisation de 47 % des emplois, cette étude arrive à la conclusion que 50 % des heures travaillées sont automatisables, avec des taux variant de 41 à 56 % dans les autres pays pour lesquels cette méthode a été appliquée. Le rapport ajoute que cinq conditions doivent en plus être respectées pour que des tâches automatisables le soient vraiment (c’est justement la description claire de ces cinq facteurs qui avait retenu positivement mon attention quand j’ai lu une autre étude de McKinsey sur ce sujet l’an passé) :

  • la faisabilité technique;
  • le coût du changement technologique;
  • la dynamique du marché du travail, basée notamment sur l’offre, la demande et le coût du travail humain;
  • les avantages économiques réels, tels que les gains de productivité, la qualité de la production et les bénéfices;
  • l’acceptabilité sociale et le respect de la réglementation.

Je ne comprends pas vraiment comment il se fait que ces cinq conditions n’aient pas fait réduire considérablement l’impact potentiel de l’automatisation, mais, si j’ai bien compris, ces critères n’ont pas été utilisés à cette fin, mais seulement pour indiquer que l’étude ne porte que sur le potentiel d’automatisation, pas sur une estimation de l’ampleur réelle de l’impact de l’automatisation sur l’emploi. On m’excusera de ne pas avoir lu la suite des 148 pages de cette étude, mais je considérais en savoir assez sur la méthode utilisée. Cela dit, j’insiste, les cinq conditions mentionnées dans cette étude sont fort précieuses, même s’il est difficile, pour ne pas dire impossible, d’estimer leur impact sur l’ampleur réelle qu’aura l’automatisation sur l’emploi (ce qui est selon moi une information plus précieuse que les estimations qui ne tiennent pas du tout compte de ces facteurs).

L’étude du Brookfield Institute utilise ensuite les données de l’Enquête nationale auprès des ménages de mai 2011 (il y a plus de six ans…) pour appliquer les résultats de l’étude de McKinsey au Canada, aux industries canadiennes (en fonction des industries dans lesquelles travaillent les membres des professions les plus touchées) et même à des villes spécifiques du Canada (en fonction de la présence relative des industries dont les emplois seraient les plus touchés dans chaque ville du Canada). C’est ainsi que cette étude parvient à fournir les données dont parle l’article de M. Fillion. Fiou! Mais, ces industries sont-elles vraiment comparables à celles des États-Unis (objet de l’étude de départ dont on a étendu les résultats au Canada) dans chacune des villes du Canada? Quel est l’impact des cinq facteurs mentionnés plus tôt sur l’automatisation qui se produira réellement? Cet impact sera-t-il le même aux États-Unis, au Canada, dans chaque industrie et dans chaque ville? Oubliez cela, ces études n’en parlent pas, elles ne font que fournir ce que le peuple (ou le département de marketing?) désire : des chiffres. Et ces chiffres sont tellement normalisés que les pourcentages d’emplois potentiellement automatisables ne varient que de 43 à 50 % parmi les 40 villes pour lesquelles l’étude fournit des données entre celle qui a le pourcentage le plus bas (Petawawa en Ontario) et celle qui a le pourcentage le plus élevé (Ingersoll, Ontario). Beaucoup de bruit pour pas grand-chose…

Une autre étude

Les études sur le sujet sont tellement nombreuses que je pourrais en présenter sur des pages (si j’avais le temps de toutes les lire et de toutes les présenter!). Mais, cette fois, je vais plutôt me faire plaisir en résumant une étude (dont j’ai entendu parler grâce à ce billet de Noah Smith) qui en critique une autre! Cette étude (ou ce rapport, comme l’appellent les auteurs) de Lawrence Mishel, président de l’Economic Policy Institute (EPI) et de Josh Bivens, directeur de la recherche au même institut, (deux économistes que je respecte beaucoup, notamment parce qu’ils sont les premiers à m’avoir fait connaître il y a quatre ans le concept de rente dans le sens d’un revenu excédentaire accaparé par les plus riches; voir ce billet) est intitulée The zombie robot argument lurches on. There is no evidence that automation leads to joblessness or inequality (L’argument zombie du robot titube – Il n’y a aucune preuve que l’automatisation crée du chômage ou fait augmenter les inégalités).

Les auteurs déplorent d’entrée de jeu que les médias accordent autant d’importance aux histoires et études qui annoncent l’apocalypse due à l’arrivée de la robotisation (déjà un point en commun avec moi!) ou qui attribuent à l’automatisation la faible hausse des salaires et la hausse des inégalités des dernières décennies. Ils dénoncent surtout les interprétations fautives des médias et d’autres commentateurs de la dernière étude de Daron Acemoglu et Pascual Restrepo intitulée Robots and Jobs: Evidence from US Labor Markets (Robots et emplois: preuves provenant des marchés du travail des États-Unis), étude citée aussi dans celle du Brookfield Institute. Les auteurs sont surtout estomaqués par le biais évident des médias en faveur des scénarios extrêmes malgré le peu de preuves avancées dans les études qui appuient ces scénarios dystopiques. Oui, il y a des problèmes du côté de l’emploi et de la stagnation des salaires, mais ceux-ci sont bien davantage dus «à des décisions politiques intentionnelles concernant la mondialisation, la négociation collective, les normes du travail et le taux de chômage qu’à la technologie». Ce rapport montre que l’attention portée par les médias à ces mises en récit apocalyptiques ne sert qu’à distraire la population des causes réelles de la stagnation des salaires des plus pauvres et de la hausse des inégalités. Comme il serait un peu long de décrire le contenu de ce rapport en détail, je vais plutôt présenter ses principales conclusions.

– En fait, l’étude d’Acemoglu et de Restrepo ne montre pas d’effets de l’automatisation sur l’emploi aussi importants et aussi négatifs que les médias l’ont rapporté :

  • les résultats négatifs de cette étude ne portent que sur de petites régions; il est impossible de généraliser ces résultats au niveau national (à l’ensemble des États-Unis) sans se baser sur des hypothèses irréalistes, ce que font malheureusement les auteurs (l’explication de Mishel et Bivens est limpide, mais un peu complexe à présenter en quelques mots, d’autant plus que ces hypothèses sont nombreuses);
  • même en acceptant la généralisation de ces résultats, leur ampleur aurait été dans les années 2000 quatre fois moins élevée que celle des pertes d’emplois dus à la délocalisation des emplois en Chine;
  • l’étude montre que les effets négatifs ne concernent qu’une forme d’automatisation (les robots qui remplacent complètement les travailleurs), les autres formes d’automatisation (celles qui facilitent le travail de personnes qui gardent en général leur emploi, formes d’automatisation beaucoup plus fréquentes) créant plus d’emplois que les investissements en robots en détruisent; les auteurs se demandent pourquoi les médias et les autres personnes qui ont cité cette étude ont ignoré cette conclusion pourtant fondamentale pour la compréhension de la dynamique entourant l’automatisation;
  • rien dans cette étude ne peut mener à la conclusion que l’automatisation a entraîné ou entraînera une hausse du chômage (les auteurs citent entre autres l’étude de l’OCDE dont j’ai parlé au début de ce billet et observent, comme moi, que la plupart des études estiment le nombre d’emplois potentiellement automatisables, sans tenter d’évaluer combien le seront vraiment, ni le nombre d’emplois qui seraient créés par cette automatisation et par le déplacement de la demande).

– Les changements technologiques et l’automatisation n’ont jamais été parmi les principales causes de la stagnation des salaires et de la hausse des inégalités :

  • il n’y a en effet pas de corrélation dans les données historiques entre les périodes d’automatisation et celles de stagnation des salaires et de hausse des inégalités;
  • en fait on observe au contraire que les périodes de hausses de salaire correspondent souvent à celle de fortes implantations d’équipements favorisant l’automatisation;
  • comme le montre le graphique ci-contre, les effets des changements technologiques (et autres) sur la structure des professions furent les plus importants entre 1940 et 1980, ont ralenti quelque peu dans les années 1980 et 1990 et furent deux fois moins élevés qu’entre 1940 et 1980 depuis le début du siècle;
  • aucune preuve n’appuie la prétention que l’automatisation aurait entraîné une hausse du chômage depuis le tournant du siècle (taux de chômage qui est d’ailleurs aux États-Unis à son plus bas niveau depuis des décennies);
  • au contraire, «les tendances de la productivité et de l’investissement en capital, dans les équipements informatiques et dans les logiciels (voir le graphique ci-contre) suggèrent que l’automatisation a ralenti au cours des 10 dernières années. En outre, le taux de changement dans la structure professionnelle (voir encore le graphique précédent) a été plus lent dans les années 2000 que dans n’importe quelle période depuis 1940. Par conséquent, il n’y a pas de preuve empirique appuyant l’idée actuellement dominante selon laquelle l’automatisation s’accélère de manière exponentielle et entraîne un remplacement apocalyptique des emplois par des robots».

– Même s’il est vrai que les robots ont remplacé des travailleurs dans certaines industries et professions, cela ne veut pas dire qu’ils causeront une hausse du chômage :

  • non seulement les données montrent un ralentissement de l’automatisation, mais les changements technologiques créent toujours une dynamique qui entraîne des créations d’emploi dans d’autres secteurs (par exemple en raison de la baisse des prix qu’ils entraînent qui stimule la demande pour d’autres biens et services);
  • la baisse récente du taux de chômage de plus de 10 % en 2009 à moins de 5 % en 2017 contredit toutes les affirmations sur une récente percée de l’automatisation qui créerait du chômage.

– Le marché du travail des États-Unis a suffisamment de problèmes réels sur lesquels il faut se pencher qu’on n’a pas besoin d’en inventer. Pour solutionner ces problèmes réels, on doit notamment :

  • viser le plein emploi;
  • augmenter le salaire minimum;
  • combattre le vol des salaires par les employeurs;
  • améliorer les normes du travail, entre autres le rapport de force des travailleurs à bas et moyens salaires;
  • adopter des moyens pour lutter contre les inégalités, en augmentant par exemple la progressivité de l’impôt (l’EPI a produit un document détaillant les mesures qu’il recommande).

Et alors…

Quel que soit l’angle qu’on adopte pour analyser la question de l’impact de l’automatisation sur l’emploi, on arrive à la conclusion que cet impact est gonflé à la fois par des gens qui ont intérêt à l’exagérer et par ceux qui aiment bien penser que, peu importe les faits, les changements technologiques ne peuvent que nuire à l’emploi. On a beau apporter des preuves directes, comme la faiblesse des études qui présentent des prévisions apocalyptiques, ou indirectes, comme la baisse de la croissance de la productivité, des investissements, des changements de professions et du taux de chômage, trop de gens préfèrent croire les gens qui sont carrément en conflit d’intérêts sur cette question (ou trop enthousiastes), comme les entreprises et les universités qui travaillent sur l’intelligence artificielle. Cela me rappelle un vendeur de systèmes de commerce électronique qui affirmait vers la fin des années 1990 (il y a donc environ 20 ans) qu’il n’y aurait plus personne dans les magasins la veille de Noël cinq ans plus tard… Oui, le commerce électronique a fini par influencer le commerce du détail, mais bien moins et beaucoup plus graduellement que ne le prétendait le vendeur qui avait intérêt à faire croire à un impact plus grand et plus rapide de cette tendance. On ne peut pas être certain que ce sera la même chose avec ce qu’on appelle la quatrième révolution industrielle (cette appellation accordée avant même le début des changements annoncés devrait à tout le moins nous inciter à la méfiance), mais on devrait au moins attendre qu’une seule des prévisions de disparition de professions se manifeste avant de croire que la moitié des emplois ou des heures de travail disparaîtront en moins de 20 ans ou même qu’elles sont susceptibles de disparaître. Et n’oublions pas qu’il y en a déjà quatre qui sont passées, soit 20 % du total, depuis les premières prévisions de ce genre de Frey et Osborne en 2013!

Le Québec change

19 juin 2017

Simon Langlois est probablement le sociologue québécois que j’ai le plus de plaisir à lire. On ne s’étonnera pas que je me sois précipité devant mon ordi (en fait, j’y étais déjà) pour réserver son dernier livre, Le Québec change – Chroniques sociologiques, dès que j’ai pris connaissance de sa parution. Comme ce livre contient plus de 50 chroniques, je me contenterai de mentionner les sujets qu’elles abordent, et n’en commenterai que quelques-unes.

Présentation : L’auteur nous apprend que ce livre est un recueil de chroniques remaniées parues de 2011 à 2016 dans le magazine Contact de l’Université Laval. Il mentionne ensuite les auteurs qui l’ont le plus influencé, insistant surtout sur l’apport d’Alexis de Tocqueville.

Les chroniques

Dans ces chroniques, l’auteur aborde :

  • l’évolution des classes sociales au Québec entre 1971 et 2011 (paru en février 2016);
  • l’évolution de la présence des femmes sur le marché du travail et dans les classes sociales au Québec entre 1971 et 2011 (février 2016);
  • la faiblesse persistante de la présence des femmes dans les postes de direction et dans les conseils d’administration des grandes entreprises (février 2016);
  • l’avancement des femmes dans la hiérarchie sociale (mai 2014);
  • l’évolution de différents types de professions et de la présence des femmes dans celles-ci : professions libérales, intermédiaires, techniques, de bureau, de la vente et des services, de la classe ouvrière, etc. (de février à avril 2016);
  • la baisse du niveau de ségrégation dans les professions, malheureusement toujours présente dans certaines d’entre elles, par exemple en génie, en informatique, dans les métiers, les emplois de bureau, etc. (mai 2014);
  • dans une série d’articles, l’évolution de la classe moyenne et de sa diversité (il parle d’ailleurs des classes moyennes), la perception démesurée de la population d’appartenir à cette classe (tendance confirmée dans une étude récente dont j’ai parlé dans ce billet), le rôle positif des «gros» gouvernements et des mesures sociales sur la taille de cette classe, et les inquiétudes, parfois justifiées, des membres de cette classe face à l’avenir (il donne de bons motifs, comme le vieillissement de la population, mais au moins une moins bonne en citant la mise en récit d’Arthur Laffer, «trop d’impôt tue l’impôt», alors que le niveau d’imposition est loin d’un sommet entraînant cet effet, comme l’ont montré les hausses adoptées par le PQ et le PLC au cours des dernières années, après la rédaction de sa chronique) (de décembre 2011 à septembre 2014);
  • le choc que subissent trop de ménages en arrivant à la retraite (septembre 2014);
  • les indicateurs et l’évolution des inégalités de revenus (novembre 2014);
  • les inégalités entre les hommes et les femmes (janvier 2012);
  • la «logique» derrière la fixation de la rémunération des hauts dirigeants des grosses entreprises (mai 2013); cette chronique est particulièrement pertinente ces temps-ci;
  • les inquiétudes qui augmentent avec l’âge sur la détérioration du niveau de vie de la population (mai 2014);
  • dans une série de chroniques, les résultats d’une enquête sur la perception de la population du Québec sur les inégalités et la justice portant entre autres sur le niveau de justice de la société québécoise, sur le niveau auquel les répondants considèrent être traités de façon équitable, sur l’acceptation des concepts du mérite et de la récompense de l’effort, sur la perception de l’application de ces concepts, sur le niveau de bonheur et de satisfaction perçu par les répondants, sur l’importance de la satisfaction des besoins fondamentaux (logement, nourriture, habillement, santé, éducation, etc.), sur le niveau auquel les institutions québécoises permettent la satisfaction de ces besoins et sur la perception des inégalités au Québec par rapport à celles observées dans les autres pays développés (juin à novembre 2013);
  • dans deux textes, une nouvelle mesure du bien-être, l’indice canadien du mieux-être (ICMÊ) auquel l’auteur a participé à l’élaboration, qui a progressé à un rythme nettement moins rapide que le PIB (l’auteur aurait dû, selon moi, comparer l’évolution l’ICMÊ avec le PIB par habitant, pas avec le PIB) au cours des 17 dernières années (novembre 2011 et 2012);
  • encore une fois la classe moyenne (ou les…), mais cette fois sous l’angle du fractionnement du revenu adopté en 2015 par le gouvernement conservateur (et abolie l’année suivante par les libéraux) pour les couples avec enfants de la classe moyenne, supposément, mais qui profitait en fait davantage aux familles aisées (février 2015);
  • le concept de «date de l’affranchissement fiscal» de l’Institut Fraser et montre l’inanité de ce concept (juin 2014);
  • l’effet sur les inégalités de revenus des mesures budgétaires gouvernementales (avril 2016);
  • les conséquences de la fermeture de centres d’archives muséales (juin 2016);
  • le financement des retraites et l’établissement de l’âge de la retraite (mars 2012);
  • le contexte entourant la grève étudiante de 2012 (qu’il appelle étrangement le «boycott» sans expliquer pourquoi, bien qu’on s’en doute…) (mai 2012);
  • les dérives qui menacent l’université québécoise (deux chroniques, juin 2012 et avril 2015);
  • la baisse de l’appui à l’indépendance (novembre 2015);
  • la crise de confiance envers la démocratie représentative (ou parlementaire) (février 2013);
  • la polarisation gauche-droite (décembre 2013);
  • le lien entre le travail professionnel et l’individualisation de la vie en société (février 2012);
  • la complexification de la vie quotidienne (janvier 2013);
  • l’augmentation de la proportion de couples mariés qui divorcent (il n’y a pas de données pour la séparation des couples en union libre) et, avance l’auteur, de l’âge du divorce, quoique cela ne soit pas clair dans les données (le pourcentage des couples qui divorcent entre 20 et 25 ans de mariage n’a pas du tout augmenté) (août 2016);
  • la baisse du poids démographique du Québec dans le Canada (février 2012);
  • «le choix de la langue d’enseignement au cégep et à l’université par les jeunes Québécois de langue maternelle «tierce» (non française ni anglaise ni autochtone)» (février 2012) (j’ai écrit un billet récemment avec des données plus récentes; j’ajouterai que l’auteur a mentionné à un aspect auquel je n’avais pas pensé, aspect qui peut influencer l’interprétation des données, soit la présence croissante d’étudiants étrangers dans nos cégeps; bravo!);
  • la situation de la langue française au Québec (juin 2015); ce texte est celui que j’ai préféré, notamment en raison de l’explication claire des processus de transferts linguistiques de nouveaux arrivants dans un pays de langue commune différente et de la qualité de l’analyse de l’auteur (il conclut en plus comme moi que la langue de travail est primordiale dans ce processus…);
  • le solde migratoire interprovincial (janvier 2015); cette analyse est très intéressante, mais je reproche un peu à l’auteur d’avoir additionné les personnes qui quittent le Québec et qui y entrent année après année, alors qu’il est plus que probable (j’en connais!) que certaines personnes quittent le Québec pendant quelques années et y reviennent par la suite (à la fin d’un contrat, par exemple) et vice-versa; ces personnes peuvent donc être comptées plusieurs fois par l’auteur, à la fois comme entrants et comme sortants;
  • «la disparition de la paroisse comme institution qui a encadré la vie religieuse et la vie québécoise pendant plusieurs siècles». (mai 2015);
  • les changements qui ont touché la ville de Québec (février 2012).

Et alors…

Lire ou ne pas lire? Même si je ne rejoins pas toujours l’auteur dans ses opinions et ses analyses, comme on a pu le constater en lisant les quelques remarques que j’ai faites, ce livre vaut certainement le détour aussi bien en raison de la grande variété des sujets abordés que de la profondeur des analyses de l’auteur. Comme Simon Langlois est un des grands penseurs québécois des dernières décennies, il est important de lire au moins un de ses livres pour pouvoir avoir une idée de son importance. Son écriture est claire et facile à comprendre, ce qui n’est pas fréquent chez les membres de sa profession. Et, en plus, les notes sont en bas de page!

L’efficacité des subventions aux véhicules électriques

17 juin 2017

Grâce à un article du Devoir, j’ai appris que la Commission de l’écofiscalité du Canada (CÉC) a publié la semaine dernière un rapport intitulé Soutenir la tarification du carbone – Comment identifier les politiques qui complémentent véritablement un prix carbone à l’échelle de l’ensemble de l’économie. Cette Commission «fondée par un groupe d’économistes chevronnés» se dit «entièrement indépendante et vise à se mettre au service des décideurs sans égard à leurs tendances politiques, à tous les ordres de gouvernement». Si certaines des personnes qui font partie de cette commission semblent possiblement correspondre à cette vision, la présence de personnalités comme Preston Manning, Paul Martin et Jean Charest au sein de son comité consultatif font douter de l’entièreté de cette indépendance. Mais, peu importe, regardons plutôt ce rapport pour sa valeur intrinsèque. Dans ce billet, je compte seulement survoler ce rapport pour m’attarder davantage sur la partie qui analyse l’efficacité des subventions aux véhicules électriques au Québec.

Survol

Le rapport du CÉC félicite tout d’abord les gouvernements du Canada d’avoir adopté une politique de lutte au réchauffement climatique et aux émissions de gaz à effet de serre (GES) basée sur le prix du carbone. Il serait en effet étrange qu’une commission sur l’écofiscalité ne considère pas l’écofiscalité comme «la pierre angulaire de la stratégie de réduction des émissions de gaz à effet de serre (GES) de chaque province et territoire». La CÉC reconnaît toutefois l’importance de jumeler aux mesures de tarification du carbone d’autres politiques non tarifaires (notamment réglementaires), même si «l’élaboration de bonnes politiques non tarifaires à faible coût» représente une tâche complexe. Ce rapport a d’ailleurs pour objectif «d’aider les gouvernements à identifier, concevoir et mettre en œuvre un ensemble de politiques complémentaires qui peuvent soutenir leurs prix carbone».

Le rapport présente trois situations où de telles politiques complémentaires peuvent être justifiées et améliorer l’efficacité de l’écofiscalité :

  • lorsqu’elles s’appliquent à des émissions non couvertes par un marché du carbone : les exemples sont nombreux, incluant les émissions de méthane la plupart du temps non comprises dans un marché du carbone;
  • lorsqu’elles renforcent un signal pour augmenter l’efficacité de la tarification du carbone : la tarification du carbone peut mal fonctionner en raison de problèmes de marché; par contre, les mesures pour résoudre ces problèmes «risquent d’être strictement motivées par des intérêts politiques ou par ceux de lobbys particuliers» (cette remarque m’a agréablement surpris…); les subventions aux véhicules électriques dont je parlerai plus loin font partie de ces mesures;
  • lorsqu’elles s’attaquent simultanément à plus d’un problème, comme à la pollution et aux émissions de GES : les auteurs donnent comme exemple le remplacement de la production d’électricité à partir du charbon.

Le rapport examine ensuite ces types de politiques en fonction des réalités différentes des provinces, présente cinq critères d’évaluation (rigueur, couverture, flexibilité, prévisibilité et gouvernance), examine trois cas particuliers (dont les subventions aux véhicules électriques au Québec) et y va de six recommandations.

Subventions aux véhicules électriques au Québec

J’ai déjà indiqué mon grand scepticisme face à l’efficacité de cette mesure. Il y a déjà quatre ans, je montrais que les objectifs du programme d’achat d’un véhicule électrique (qui fournit notamment un rabais de 8000 $), soit au début l’achat de 12 500 véhicules en trois ans à partir de 2013 (ou guère plus de 4000 par année) ne représentaient que 5 % de l’augmentation moyenne du parc automobile entre 2004 et 2012 (et 3 % de cette moyenne entre 2012 et 2015, voir la première colonne du tableau de la page 6 de ce document), et ne pouvaient donc pas avoir un impact notable sur les émissions de GES de ce secteur, en fait ne pouvaient même pas arrêter leur croissance, donc ne pouvaient surtout pas contribuer à les réduire. En fait, les données les plus récentes de ce programme (rebaptisé «Rouler électrique») montrent qu’il n’y avait à la fin 2016 que 13 000 «voitures électriques et hybrides» au Québec, même si ce programme vise à ce qu’il y en ait 100 000 en 2020 (et qu’on affirme que 32 000 Québécois ont profité de ce programme depuis 2012!). Cela supposerait l’ajout de 87 000 de ces véhicules en quatre ans (au coût minimal de 700 millions $ en subventions de 8000 $ par véhicule – coût minimal qui suppose que 100 % des véhicules achetés en quatre ans seraient encore dans le parc automobile québécois en 2020 – sans compter «les investissements publics dans les infrastructures de recharge») alors que leur nombre n’a même pas atteint la hausse de 12 500 prévue en trois ans. Et, même si cet objectif était atteint, cela ne représenterait que 25 % de la hausse du parc automobile entre 2016 et 2020 et que 2,0 % de l’ensemble de ce parc en 2020. Encore là, cela ne permettrait pas de faire réduire les émissions de GES de ce secteur, mais seulement de les faire augmenter un peu moins.

Je ne suis pas le seul à déplorer que tant de moyens soient investis dans un programme si peu efficace pour atteindre ses objectifs (et beaucoup moins qu’un investissement massif dans le transport en commun, par exemple). Dans son livre Gagner la guerre du climat (dont j’ai parlé dans ce billet), Normand Mousseau, qui fut notamment coprésident de la Commission sur les enjeux énergétiques du Québec (CEEQ), fait les mêmes calculs que moi et conclut lui aussi que ce programme ne pourra pas contribuer à l’atteinte des objectifs de réduction des émissions de GES du Québec.

Le rapport du CÉC analyse ce programme autrement, avec les critères dont j’ai parlé plus tôt et avec un outil de simulation. Les auteurs rappellent tout d’abord les objectifs de ce programme (100 000 «voitures électriques et hybrides» au Québec en 2020), soulignent sa complémentarité avec la tarification du carbone (dans ce cas spécifique, le système de plafonnement et d’échange de droits d’émission de gaz à effet de serre du Québec ou SPEDE), reconnaissent son respect de quatre des cinq des critères du CÉC (rigueur, flexibilité, prévisibilité et gouvernance), mais pas du cinquième, soit celui de la couverture, en raison du volontariat de la mesure et du faible pourcentage des automobilistes qui en bénéficient.

La donnée la plus étonnante de ce rapport est le coût très élevé de cette politique pour faire diminuer finalement très peu les émissions de GES. Le modèle de la CÉC arrive en effet à un coût de 395 $ la tonne d’équivalents de CO2, coût 21 fois plus élevé que le prix du carbone établi dans le SPEDE au Québec en 2017 (18,50 $). En plus, cette mesure, si jamais elle atteignait ses objectifs (ce qui est plus que douteux), ne ferait diminuer que de 1 % environ les émissions de GES du secteur du transport de personnes au Québec d’ici 2030. En fait, si on tient compte qu’une partie de cette baisse de 1 % serait en fait due au SPEDE, cette proportion uniquement attribuable aux subventions pour l’achat de véhicules automobiles serait encore plus faible.

Les auteurs concluent que, s’il y a des arguments en faveur de cette mesure, il y en a beaucoup plus allant à son encontre. En plus de son coût prohibitif, les auteurs mentionnent notamment des questions d’équité (car ces subventions profitent «de manière disproportionnée aux ménages plus aisés») et l’absence de fabricants de telles voitures au Québec (ce qui permettrait l’atteinte d’autres objectifs). Ils recommandent donc au gouvernement du Québec d’examiner ces arguments (et d’autres, si possible) à fond en 2020 lorsque viendra le temps de décider s’il est judicieux de renouveler cette politique.

Et alors…

En lisant ce rapport, je me suis demandé si, compte tenu des réserves que j’avais avec certains membres du comité consultatif du CÉC, je ne faisais pas preuve de biais de confirmation en acceptant ses constats sur les subventions pour l’achat de véhicules automobiles. Mais, la démonstration du CÉC, malgré les imprécisions du modèle retenu (imprécisions avouées par le CÉC), demeure solide et correspond tout à fait avec les autres analyses de ce programme. En plus, je ne voyais pas l’intérêt de cet organisme de décrier un programme qui ne remet nullement en question le fonctionnement du système capitaliste ni le mode de vie de la population.

Au bout du compte, ce rapport apporte des faits supplémentaires allant à l’encontre de la prétention de nos gouvernements que la politique «Rouler électrique» doit demeurer une mesure phare pour réduire les émissions de GES dans le domaine du transport de personnes et pour atteindre ses objectifs de réduction globale de ces émissions. D’autres mesures, notamment axés sur le transport en commun (aussi bien urbain qu’interurbain), seraient pourtant bien plus efficaces…

Anatomie d’un désastre

12 juin 2017

Anatomie d’un désastre de Serge Truffaut, ex-éditorialiste au Devoir, «se veut le récit de la calamité économique introduite par le trio Reagan-Thatcher-Mulroney et imposée par Alan Greenspan et consorts».

Prologue : L’auteur nous présente dans ce prologue un bon nombre des membres de la garde rapprochée de Donald Trump et leurs liens avec le milieu de la finance, le mouvement libertarien, les négationnistes du climat, etc. Il montre aussi le rôle important, voire déterminant en politique, des super riches comme les frères Koch et d’autres, notamment par le financement de toutes sortes de causes, d’universités et d’instituts mettant de l’avant leurs idées de droite.

La mise en terre de Lehman Brothers : Le titre de ce chapitre indique bien le sujet qu’il aborde. Il se distingue par l’analyse fine des relations entre les différents acteurs de la faillite de Lehman Brothers en novembre 2008, notamment, mais pas seulement, entre son président, Richard S. Fuld Jr, et le secrétaire au Trésor de l’époque, Hank Paulson. Il présente ensuite l’idéologie (entre autres libertarienne) de ces acteurs et explique l’effet domino (et même «pop corn», car ça explose de partout) causé par cette faillite et par la fragilisation des «colosses» du secteur financier un peu partout sur la planète. Puis, il décrit le sauvetage de ce secteur. J’ai lu de nombreux textes (livres, études, articles, etc.) sur ce sujet, mais j’en ai quand même appris dans ce chapitre.

La troïka et le libertarien : La troïka dont parle l’auteur est formée de Margaret Thatcher, Ronald Reagan et … Brian Mulroney! Ces trois icônes du conservatisme ont en effet «régné» au début des années 1980 au Royaume-Uni, aux États-Unis et au Canada. Disons que j’ai rarement lu un texte aussi cinglant sur ces trois sbires! Ce chapitre est vraiment instructif et, si j’ose dire, jouissif… Même si elles sont fascinantes, je vais sauter les parties sur Thatcher («celle qu’on appelait la «Dame de fer», alors qu’elle était davantage une dame d’argent») et Reagan (qui a déjà déclaré que les hauts niveaux d’imposition des riches étaient à ranger «au rayon de la quincaillerie idéologique fréquentée par les naïfs et les humanistes») pour dire quelques mots sur celle portant sur Mulroney. Si ce dernier donne une image bien modérée par rapport à Reagan et Thatcher (et Harper), il n’en demeure pas moins qu’il a privatisé un grand nombre de sociétés de la couronne, dont Havilland, Canadair (à la grande joie de la famille Bombardier-Beaudoin), Téléglobe (à celle de Charles Sirois), Air Canada, Canadien national et Pétro-Canada. Il a en plus déréglementé partiellement le secteur financier, avec des conséquences plus importantes qu’elles ne le semblaient à l’époque. Le chapitre se termine par une brève présentation de l’idéologie d’Alan Greenspan, le libertarien du titre (grand admirateur d’Ayn Rand), qui, à titre de président de la Réserve fédérale des États-Unis, fut un des grands responsables de la crise de 2008.

Les raisins de la colère : L’auteur profite de l’admiration que Reagan vouait à Calvin Coolidge (président des États-Unis dans les années précédant la Grande Dépression débutée en 1929) pour souligner les points communs entre les politiques qui ont mené à cette dépression et celles mises en place par les acteurs présentés dans le précédent chapitre. Il souligne aussi que toutes les personnes qui ont pris ces décisions partageaient une idéologie semblable (place de la religion, croyance en la main invisible et en la loi de Say, etc.). Il poursuit en présentant les deux présidents qui furent en poste juste après la dépression, soit Herbert Hoover et Franklin Delano Roosevelt. Ces deux personnages (et leurs proches) sont bien différents des précédents. Même s’il était républicain, Hoover fut le premier à adopter des mesures de relance, notamment dans le secteur agricole. Le deuxième est allé bien plus loin, notamment avec son New Deal et l’adoption de la loi Glass-Steagall, qui a réglementé le secteur financier et a contribué à éviter des crises financières majeures au cours des décennies qui ont suivi son adoption (pendant 60 ans, selon l’auteur). Mais, encore là, Roosevelt était loin d’être parfait, l’auteur le montre bien.

Michael Douglas, les escrocs et les hussards : Le Michael Douglas du titre est Gordon Gekko (un personnage du film Wall Street qui prétend que la cupidité est bonne) et les escrocs sont des stars de la finance. L’auteur nous présente les «exploits» de Michael Robert Milken (qui a amassé un milliard $ entre 1983 à 1987 en transigeant des obligations de pacotilles ou junk bonds), d’Ivan Boeski, un acolyte de Milken, et de bien d’autres escrocs, ainsi que les conséquences de ces exploits. Les hussards sont les établissements qui ont profité des vagues de déréglementations qui ont coûté si cher aux gouvernements, donc à nous tous…

Les mauvais génies des alpages financiers : L’auteur s’étonne ici que le législateur et même le lobby des banques n’aient rien retenu des erreurs du passé. On aurait dû voir que la déréglementation des années 1980 et 1990 (j’ai sauté cette partie…) a eu des effets désastreux. Mais, la foi inébranlable des acteurs du secteur financier dans les vertus du laisser-faire a pris le dessus. L’auteur raconte dans ce chapitre l’effondrement de quelques mastodontes du secteur financier, soit ceux de la banque Barings et du fonds d’investissement Long-Term Capital Management (LTCM). Cette dernière histoire est fascinante, relatant la montée ultra rapide de cette société dès sa création en 1994 jusqu’à sa chute encore plus spectaculaire en 1998. Des milliards $ furent perdus. Elle illustre parfaitement l’avidité de nombreux joueurs de ce secteur et surtout leur vanité sans limite.

Mère Courage, le croisé, la brute et le vaniteux : La mère courage est Brooksley Born, «qui fut du 26 août 1996 au 1er juin 1999 à la tête de la Commodity Futures Trading Commission (CFTC)» et affronta Alan Greenspan, Larry Summers (conseiller économique du président Bill Clinton) et Rick Rubin (secrétaire au Trésor), qui sont dans l’ordre le croisé, la brute et le vaniteux du titre du chapitre. Ce triumvirat mis constamment les bâtons dans les roues de Brooksey Born qui tentait de réglementer, ou, à tout le moins, de surveiller les transactions de produits dérivés. Le chapitre présente un grand nombre de malversations (pour ne pas dire de fraudes!) dans ce domaine, les tentatives de Born de les contrer et l’acharnement de nos trois compères de les laisser faire. Et ils ont gagné… et nous avons donc perdu!

Too big to fail, too big to jail : En plus de l’interconnexion des banques qui fait en sorte que même la faillite de banques pas trop grosses peut mettre en danger une véritable banque «trop grosse pour faire faillite», l’auteur aborde l’importance de la finance de l’ombre (ou du «shadow banking»), la place prépondérante prise par les agences de notation (qui sont en plus en conflit d’intérêts) et les avertissements qui ont été ignorés. En effet, contrairement à la théorie du cygne noir, ce qui est arrivé n’était pas seulement prévisible, mais avait été prévu, les avertissements aux autorités ayant été fort nombreux, aussi bien d’organismes de contrôle, mais aussi du FBI! Mais, les responsables, dont Hank Paulson, ont préféré faire confiance à la main invisible pour ensuite donner l’impression de tomber des nues quand les conséquences dont on les avait avertis se sont concrétisées. Et ce n’est pas tout, vraiment pas tout (attention aux haut-le-cœur…)!

Introduction au capitalisme stalinien : «Au lendemain de la Deuxième Guerre mondiale, (…) le détenteur d’une action la conservait pendant une période de quatre ans en moyenne. (…) En 2008, année de la crise, on la gardait pendant deux mois. En 2011 ce n’était plus que 22 secondes! Aujourd’hui? Aux alentours de 10 secondes». Même si les moyennes peuvent être trompeuses, avouons que cette statistique est révélatrice et donne le tournis! L’auteur poursuit en parlant des génies mathématiciens (les «quants» et ceux qu’il appelle les «plombiers»), de leurs succès (impressionnants) et de leurs échecs (monumentaux). Et, ce n’est pas tout… L’auteur conclut que notre démocratie est une chose bien relative et encore plus fragile, et qu’elle tend de plus en plus vers un capitalisme stalinien, soit un système financier déshumanisant où les fraudeurs du système financier, plutôt que d’être emprisonnés, reçoivent toujours plus d’avantages fiscaux et autres.

Et alors…

Lire ou ne pas lire? Lire! Comme j’ai lu de nombreux livres et textes sur le sujet abordé par ce livre, je n’avais pas beaucoup d’attentes en le commençant. J’ai été agréablement surpris par son contenu qui apporte sans contredit une valeur ajoutée importante aux textes que j’ai lus auparavant. Autres qualités, le style de l’auteur est clair et son écriture précise et agréable. En plus, les notes ne sont pas à la fin ni en bas de pages, mais l’équivalent est incorporé au texte sans que celui-ci s’alourdisse. Un autre bon point pour lui!

La classe moyenne et l’impôt

10 juin 2017

C’est grâce à deux articles parus dans la Presse le 6 mai dernier que j’ai entendu parler de l’étude intitulée Classes sociales et fiscalité : comment perçoit-on la classe moyenne? Des résultats confrontant la réalité et la fiction de Antoine Genest-Grégoire, Jean-Herman Guay et Luc Godbout de la Chaire de recherche en fiscalité et en finances publiques (CFFP) de l’Université de Sherbrooke.

Le premier de ces articles résume certains faits saillants de l’étude, tandis que le deuxième, intitulé Les quatre chefs se prêtent au jeu (article qui semble avoir été modifié, car son contenu n’est plus sur Internet, aucune suite ne se trouvant après la phrase «Font-ils mieux que vous ?»), ridiculisait un peu les chefs (et la porte-parole…) des partis politiques en montrant qu’ils et elle n’évaluaient pas correctement la part des impôts payés par la classe moyenne (part toujours surestimée), de la classe qui y est au-dessus (toujours sous-estimée, et grandement) et de celle qui y est au-dessous (toujours surestimée). Pour bien comprendre ces mauvaises estimations, il faut prendre connaissance de l’étude de la CFFP.

Introduction

Les auteurs expliquent ainsi l’objectif de leur étude : «L’analyse ici proposée vise à comprendre si les Québécois ont la bonne perception de la classe moyenne? (sic) Ont-ils raison de dire qu’ils en font partie ou non? Ont-ils tendance à croire qu’ils en font partie alors qu’ils seraient dans les faits trop pauvres ou trop riches pour en être membres?». Pour pouvoir répondre à ces questions, les auteurs utiliseront à la fois des données statistiques globales et d’autres provenant d’un sondage.

Définitions de la classe moyenne

Il n’existe pas de définition claire de ce qu’est une classe moyenne. Des chercheurs ont tout aussi bien tenté de la définir avec des critères objectifs (des données précises) qu’avec des critères subjectifs (le sentiment d’appartenance de répondants à cette classe). Les auteurs proposent donc quelques-unes de ces définitions.

– classes objectives : Les auteurs présentent trois définitions de ce type. La première est intuitive et se base sur la répartition du revenu total des répondants à leur sondage. Elle serait formée des ménages dont le revenu total se situe entre 40 000 et 100 000 $. Le graphique ci-contre illustre la répartition de ces ménages entre la classe moyenne (51 %), celle qui y est au-dessus (15 %) et celle qui y est en dessous (34 %).

La deuxième définition est semblable, mais tient compte de la taille des ménages. Pour une personne seule, les gens considèrent que le revenu doit être entre 40 000 $ et 60 000 $, pour un ménage de deux personnes entre 60 000 $ et 90 000 $, et pour un ménage de quatre personnes entre 70 000 $ et 100 000 $. Cette fois, comme le graphique ci-contre nous le montre, la classe moyenne se réduit de moitié (de 51 à 26 %), celle qui y est au-dessus augmente légèrement (de 15 à 21 %) et celle qui y est en dessous représente maintenant plus de la moitié des ménages (de 34 % à 53 %)!

La troisième définition repose plutôt sur des concepts utilisés plus largement dans les pays de l’Organisation de coopération et de développement économiques (OCDE), même si les critères précis peuvent varier d’une étude et d’un organisme à l’autre. Ainsi, pour adapter le revenu d’un ménage à sa taille, on divise le revenu total de tous les membres d’un ménage par la racine carrée du nombre de personnes dans ce ménage et on attribue le résultat à tous ses membres. Par exemple, si le revenu total d’un ménage de quatre membres s’élève à 100 000 $, on attribuera le revenu ajusté de 50 000 $ à chacun de ses membres (100 000 $ / racine carrée de 4 = 100 000 $ / 2 = 50 000 $). Ensuite, pour définir la classe moyenne, les auteurs utilisent une méthode elle aussi utilisée dans d’autres études, en considérant dans la classe moyenne les personnes dont le revenu total ajusté (comme expliqué au début de ce paragraphe) se situe entre 75 et 150 % du revenu total médian ajusté. Les auteurs disent que «cet intervalle est fréquemment utilisé dans les comparaisons internationales», mais omettent de préciser deux éléments de cette définition. En effet, le Centre de recherche pour l’étude et l’observation des conditions de vie (CRÉDOC), organisme français produisant ce genre d’études depuis plus de 50 ans et une autorité en la matière, utilise une définition qui diffère de celle utilisée par les auteurs sous deux aspects : il utilise plutôt un intervalle allant entre 70 et 150 % du revenu (au lieu d’entre 75 et 150 %) et considère le revenu disponible plutôt que le revenu total (voir entre autres la page quatre de cette étude). Ces différences ont toutes deux pour effet de réduire la taille de la classe moyenne dans l’étude ici présentée, la première différence la réduisant directement (il y a moins de personnes qui gagnent moins de 70 % du revenu médian que de personnes qui gagnent moins de 75 % de ce revenu), la deuxième indirectement, en raison du fait que les gens qui gagnent des revenus moins élevés paient proportionnellement moins d’impôt que les personnes qui gagnent des revenus plus élevés. Ainsi, en considérant les impôts (le revenu disponible est égal au revenu total moins les impôts payés), plus de personnes gagneraient entre 75 et 100 % du revenu médian (car les personnes qui gagnent 75 % du revenu médian paient proportionnellement moins d’impôt que celles qui gagnent le revenu médian) et plus de personnes gagneraient entre 100 et 150 % du revenu médian (car les personnes qui gagnent le revenu médian paient proportionnellement moins d’impôt que celles qui gagnent 150 % de ce revenu). Cette différence n’est pas anodine. Par exemple, Simon Langlois observait dans cet article que la proportion de personnes appartenant à la classe moyenne passait en 1982 de 33 à 45 % et en 2008 de 25 à 36 % selon qu’on utilisait le revenu de marché (un autre concept…) ou le revenu disponible. Cet écart est sûrement plus grand (probablement le double) que la différence entre l’utilisation du revenu total (qui comprend aussi les transferts gouvernementaux) et celle du revenu disponible, mais montre quand même les différences importantes de résultats selon le type de revenu utilisé. En outre, cet écart serait encore plus grand si on utilisait la fourchette allant de 70 à 150 % plutôt que celle allant de 75 à 150 %. Un des auteurs que j’ai rencontré par hasard m’a dit qu’ils ont utilisé le revenu total pour pouvoir utiliser les données du sondage mené dans le cadre de leur étude. Je veux bien, mais ils auraient dû à tout le moins expliquer les effets importants de ce choix dans les résultats.

Je semble peut-être accorder trop d’importance aux critères utilisés, mais cela montre à quel point la définition de la classe moyenne est arbitraire, à quel point un changement de définition peut modifier les résultats, et à quel point cela peut influencer les conclusions d’une étude. Le graphique ci-contre montre des données se situant entre celles obtenues avec les deux définitions précédentes : 42 % pour la classe moyenne, 23 % pour celle qui y est au-dessus et 35 % pour celle qui y est en dessous.

Les auteurs analysent ensuite les trois catégories (classe moyenne, au-dessus et en dessous) en fonction de diverses caractéristiques obtenues avec leur sondage (scolarité, âge, sexe, profession, etc.). Même si ces constats sont intéressants, je vais passer directement à la section suivante.

– classes subjectives : Les auteurs demandent ensuite aux répondants du sondage de se classer eux-mêmes dans les trois catégories (classe moyenne, au-dessus et en dessous) établies. On notera dans le graphique ci-contre que les personnes affirmant ne pas savoir à quelle classe elles appartiennent sont proportionnellement très peu nombreuses (3 %), ce qui est selon moi remarquable pour une question portant sur un concept si mal défini. Cela montre que les gens ont l’impression de bien connaître le concept de classe moyenne, même si en fait personne n’a réussi à le définir. Inquiétant!

Si la proportion de personnes en dessous de la classe moyenne est semblable à celle calculée avec la troisième définition objective (34 % par rapport à 35 %), la proportion de personnes au-dessus a littéralement fondu (6 % par rapport à 23 %, soit environ le quart) et celle de personnes appartenant à la classe moyenne a fortement gonflé (56 % par rapport à 42 %). Les auteurs tentent d’expliquer cet écart, insistant surtout sur la répulsion (ou le déni) qu’ont bien des gens de se voir comme plus riches que la moyenne, même s’ils le sont sans contredit. Ce phénomène peut aussi être dû à la propension des humains de se comparer avec les gens qui leur sont proches (donc des «riches» avec d’autres «riches», état qui devient la norme) plutôt qu’avec l’ensemble de la population.

Finalement, les auteurs ont demandé aux répondants de classer l’ensemble de la population selon nos trois catégories. Comme on peut le voir sur le graphique ci-contre, le résultat ressemble assez étrangement à celui calculé par les auteurs. On voit donc que les répondant évaluent l’ensemble de la population bien différemment qu’ils s’évaluent eux-mêmes.

Contribution des classes à l’impôt sur le revenu

Le graphique ci-contre est celui qui m’a porté à écrire ce billet. On y compare la part des impôts payés par les membres des trois catégories (classe moyenne, au-dessus et en dessous) selon les répondants (partie gauche du graphique) et selon les données statistiques (partie droite du graphique). Les écarts entre les données illustrées dans ces deux graphiques sont gigantesques. En effet, la part des impôts payés par les membres de la classe en dessous de la classe moyenne serait selon les répondants de 21 % alors qu’elle est en «réalité» de seulement 2 %. De même, ces taux sont respectivement de 51 % (perception) et de 28 % (réalité) pour les membres de la classe moyenne et de 28 % (perception) et 70 % (réalité) pour les membres de la classe au-dessus de la classe moyenne. Notons que ces écarts auraient été un peu moins importants si les auteurs avaient calculé la répartition des ménages dans les trois catégories de classes sociales avec la méthode du CRÉDOC plutôt qu’avec celle de la troisième définition objective. Signalons finalement que les «erreurs» des politiciens dans l’article que j’ai mentionné au début de ce billet étaient du même ordre de grandeur que celles-ci.

Les auteurs soulignent que ces écarts correspondent à un constat d’une étude précédente de leur Chaire, soit que «les Québécois ont une compréhension limitée des enjeux fiscaux liés à la progressivité de l’impôt». Mais, étrangement (pour les auteurs), cette autre étude montrait que les Québécois surestimaient la progressivité de l’impôt au lieu de la sous-estimer comme ici. Troublant.

Il y a peut-être un autre facteur qui pourrait l’expliquer les résultats des répondants. En effet, on associe souvent l’impôt sur le revenu des particuliers à la principale source de revenus de nos gouvernements. Or ce n’est pas le cas. Par exemple, si on regarde le tableau A.4 de la page A.13 du budget 2017-2018 du gouvernement provincial, on s’aperçoit que l’impôt des particuliers ne représentait en 2016-2017 que 36,2 % des revenus autonomes du cadre financier consolidé de 2016-2017. Ces revenus autonomes contiennent des postes de revenus beaucoup moins progressifs que l’impôt des particuliers, comme les taxes à la consommation, les droits et permis, les revenus des entreprises du gouvernement (revenus qui sont liés aux dépenses des contribuables en loteries, en alcool, en électricité, etc.) et les revenus divers (intérêts, vente de biens et services, amendes, confiscations et recouvrements). En plus, ces revenus autonomes ne comprennent pas les cotisations salariales (Régime de rentes du Québec, Régime québécois d’assurance parentale et Régime d’assurance-emploi), cotisations qui sont très régressives, car sujettes à des maximums de cotisations. Bref, il est possible que les répondants aient tenu compte de la contribution plus forte des plus pauvres à ces autres postes budgétaires et de la contribution plus faible des plus riches à ces mêmes postes budgétaires dans leurs estimations. Mais il est aussi possible que cela n’ait rien à voir et que les gens sous-estiment tout simplement la contribution des plus riches à l’impôt et surestiment celles de la classe moyenne et de la classe en dessous de la classe moyenne!

Et alors…

Cette étude comporte bien des aspects positifs, mais d’autres qui le sont moins. Sa présentation de l’absence de définition claire de la classe moyenne est particulièrement éclairante. Les biais assez systématiques des répondants à leur sondage qui surestiment l’importance relative de la classe moyenne sont tout aussi intéressants (quoique la méthode utilisée par les auteurs la sous-estime, comme je l’ai montré dans le billet). La section sur les perceptions de l’impôt payé par classe sociale est elle aussi instructive, mais m’a davantage laissé sur ma faim. Je crois en effet que, si on veut vraiment évaluer la perception de la progressivité des taxes et impôts, soit du financement des services publics, il faut analyser la situation de l’ensemble des sources de revenus de nos gouvernements, pas seulement celle de sa source qui est la plus progressive.

La police a dû

8 juin 2017

L’été est quand même une période idéale pour écrire sur une expression qui me tape sur les nerfs, d’autant plus que les grands sujets ne m’attirent pas ces temps-ci, allez savoir pourquoi. L’expression honnie du jour me tape en fait sur les nerfs depuis bien longtemps. Si je ne lui ai pas encore donné la place qu’elle mérite, c’est que j’en ai quand même déjà parlé un peu en traitant de sujets plus sérieux.

Elle ne le voulait pas, mais elle a dû…

Avez-vous déjà remarqué que nos médias ne disent jamais que les policiers se sont dotés de moyens de violence perfectionnés de façon à réprimer la population lors de manifestations? Moi, en tout cas, j’ai rarement lu cela dans des médias nationaux, même si cela est peut-être arrivé dans un média contestataire. Non, nos médias préfèrent utiliser le langage de nos policiers, quitte même à reproduire intégralement leurs communiqués. C’est juste s’ils ne les plaignent pas quand les policiers se voient «forcés» d’utiliser ces moyens violents sur la foule…

Par exemple, j’ai trouvé quelque 87 000 résultats sur Google avec l’expression entre guillemets (ce qui limite les résultats aux pages qui contiennent précisément cette expression, chaque mot étant dans le même ordre) «La police a dû» accompagnée des mots «utiliser des gaz lacrymogènes» sans guillemets. J’aurais pu aussi chercher des exemples avec d’autres armes dites sublétales comme les balles de plastique ou les canons à eau, mais, bon, je n’ai pas l’intention d’écrire une thèse sur le sujet! Parmi les 87 000 cas trouvés, nos policiers ont dû (pauvres eux, ils ne voulaient pourtant pas!) utiliser ces gaz dans les situations suivantes :

  • contre des migrants en Hongrie, car ceux-ci «auraient refusé de rester dans la rue sous la pluie»;
  • contre des réfugiés qui bloquaient une autoroute à Calais;
  • contre des militaires belges manifestant contre la hausse de l’âge de leur retraite;
  • en Turquie, contre un rassemblement «organisé par la communauté LGBT de la capitale turque»;
  • à Paris, contre des manifestants dénonçant la mort d’un des leurs;
  • (je saute les manifestations, car il y en a trop… Bon, à la demande générale, une dernière avec une vidéo);
  • pour protéger un ex-président d’Haïti pour le moins contesté;
  • contre des grévistes (et manifestants, je sais…) contestant les mesures d’austérité en Grèce;
  • en Inde, pour empêcher des hindous d’incendier des maisons de musulmans;
  • en France, contre des jeunes, même si «Mis à part quelques personnes incommodées par le gaz, aucun blessé n’est à déplorer» (mais, que voulez-vous, «Les agents ont dû se servir de gaz lacrymogène et de moyens de contrainte pour interpeller les meneurs et assurer également leur propre sécurité»);
  • pour séparer des lycéens lors d’une bagarre;
  • pour calmer un homme de 64 ans qui aurait essayé «de frapper une fonctionnaire de police avec une branche d’arbre qu’il tenait en main»;
  • pour faire sortir de la morgue les parents de détenus venus chercher les cadavres calcinés de leurs proches (ouache….).

Et alors…

Je pourrais continuer longtemps à citer des cas du genre, mais j’imagine qu’on a compris l’idée. Je ne dis pas que jamais l’utilisation de gaz lacrymogènes ne peut être justifiée, mais ce qui me fatigue est la tendance des médias de présenter son utilisation comme une fatalité, pas comme un choix qui doit correspondre à des critères de dangerosité précis. On présente plutôt cette utilisation comme routinière, pas grave du tout, alors que la décision d’utiliser cette arme dangereuse devrait faire l’objet d’une explication et d’une justification de façon systématique.

Oui, il arrive que les médias parlent de l’utilisation de telles armes sans mentionner que les forces policières ont dû ou ont été forcées de les utiliser, mais, même dans ces cas, on n’interroge pas la pertinence de l’utilisation de ces moyens de contrôle, même si ceux-ci devraient officiellement n’être utilisés qu’en dernier recours et qui le sont de façon de plus en plus routinière (et pas seulement par des agents délinquants…). Et, l’avenir ne semble pas plus joyeux de ce côté, certains corps policiers du Dakota testant des drones «équipés de gaz lacrymogène, tasers ou balles en caoutchouc pour disperser des manifestations ou des émeutes»… Bon, je n’ai rien trouvé de plus récent sur cette nouvelle qui date de deux ans, mais, quand on sait comment les policiers du Dakota répriment les manifestants (ils ont par exemple utilisé des «gaz lacrymogènes, balles en caoutchouc et canons à eau par une température glaciale contre les manifestants», blessant 167 personnes il y a quelques mois), il n’y a rien de rassurant à l’horizon…