Skip to content

Deux études sur le salaire minimum

2 février 2018

Lors de l’annonce de la hausse du salaire minimum à 12 $ par le gouvernement du Québec, je venais de terminer la lecture de deux études portant justement sur le salaire minimum. J’ai bien sûr tassé ces deux études pour me concentrer sur l’annonce du gouvernement et écrire un billet sur cette hausse. Je peux maintenant revenir à ces deux études.

La Banque du Canada et le salaire minimum

La première des deux études que je vais présenter est intitulée The Impacts of Minimum Wage Increases on the Canadian Economy (L’impact des hausses du salaire minimum sur l’économie canadienne), provient de quatre auteur.es et a été produite pour la Banque du Canada qui n’a pas, semble-t-il, trouvé opportun d’en fournir une version française. Soulignons que cette étude ne représente pas nécessairement l’opinion de la Banque. Cette étude a été assez bien couverte par les médias, notamment avec cet article de Radio-Canada, mais ils se sont contentés d’en transmettre les faits saillants.

– contexte : Les auteur.es expliquent que cette étude est justifiée par le fait que deux provinces importantes du Canada ont décidé de porter à moyen terme leur salaire minimum à 15,00 $, soit l’Alberta en octobre 2018 et l’Ontario en janvier 2019, après l’avoir établi à 14,00 $ en janvier 2018, et qu’une autre, le Québec, a adopté deux hausses de 0,50 $ consécutives (cette étude a été produite avant que le Québec n’ait annoncé que la deuxième de ces hausses serait plutôt de 0,75 $). Le salaire minimum s’applique à 8 % des salarié.es du Canada et 11 % d’entre eux et elles gagnent moins que 5 % de plus que le salaire minimum. Le but de l’étude est d’estimer l’impact des hausses annoncées sur l’inflation, l’emploi, la consommation et le PIB.

– méthodologie : S’il y a une chose que les médias ne regardent jamais avant de faire part des résultats d’une étude, c’est la méthode utilisée pour en arriver à ces résultats. Bon, c’est un peu normal, car ils ne connaissent pas les implications de l’utilisation d’une méthode par rapport à une autre et se fient à la réputation de l’organisme qui publie l’étude, ici la Banque du Canada, même si celle-ci ne l’endosse pas. En fait, pour obtenir leurs résultats, les auteur.es ont utilisé un modèle d’équilibre général structurel nommé ToTEM (Terms-of-Trade Economic Mode) III. L’étude ne décrit pas ce modèle, mais précise qu’il ne tient pas compte du salaire minimum (!). Les auteur.es ont donc traité les hausses du salaire minimum comme de simples augmentations des salaires globaux. Comme il s’agit d’un modèle théorique, les effets sur l’inflation, l’emploi, la consommation et le PIB sont estimés par des équations reposant par exemple sur l’hypothèse qu’un «salaire minimum plus élevé augmente le prix relatif des travailleurs peu qualifiés, de sorte que les employeurs les remplacent par des travailleurs hautement qualifiés et augmentent leurs salaires» (!!). Or, les études empiriques récentes (notamment la deuxième étude que je vais présenter dans ce billet) n’observent rien de tel (j’aimerais qu’on m’explique comment un restaurant ou un marché d’alimentation pourrait remplacer leurs employé.es au salaire minimum par des employé.es plus qualifié.es mieux payé.es…). L’étude mentionne d’autres effets plus probables, comme les effets d’émulation, soit que le salaire des employé.es gagnant juste un peu plus que le salaire minimum doit aussi augmenter pour garder un écart avec le salaire minimum, mais en utilisant une seule étude que je ne connais pas pour estimer ces effets.

– résultats : Je vais maintenant présenter et commenter les principales conclusions de cette étude :

  • l’effet des hausses du salaire minimum sur l’inflation serait très faible, soit entre 0,0 et 0,1 point de pourcentage en 2017 et 2019 et entre 0,0 et 0,2 point en 2018 : bref, peu d’effets;
  • les salaires réels (après inflation) augmenteraient de 0,7 % en moyenne;
  • comme un certain nombre d’employé.es seraient remplacé.es par des machines (y en a-t-il? On ne le sait pas et on ne se pose même pas la question, car c’est un effet prévu par la théorie et le modèle) et des employé.es mieux qualifiés (qui?), les heures travaillées diminueraient de 0,3 point de pourcentage, ce qui représente l’équivalent de 60 000 emplois (résultat plus que douteux mis en titre dans la plupart des articles ayant parlé de cette étude); comme 0,7 est plus grand que 0,3, les revenus des salarié.es augmenteraient;
  • une autre méthode (que j’ai critiquée dans ce billet), basée sur une étude mise à jour avec des données plus récentes, arrive à une fourchette de perte d’emplois se situant entre 36 000 et 136 000;
  • même si le revenu des salarié.es augmenterait plus que les heures travaillées diminueraient et que les personnes à bas salaires consomment une plus grande part de leur revenu que les hauts salariés, le modèle prévoit une baisse de la consommation parce que les taux d’intérêt et la valeur du dollar augmenteraient à la suite de la hausse de l’inflation (d’entre 0,0 et 0,2 point de pourcentage, je le rappelle!);
  • le PIB serait assez stable, mais pourrait diminuer à long terme (et faire aussi diminuer l’emploi et les investissements), parce que les entreprises investiraient davantage en capital (oui, l’investissement à court terme ferait diminuer l’investissement à long terme) et en automatisation (sans préciser, je le répète, les machines qui pourraient remplacer les salarié.es, car il s’agit d’un effet prévu par le modèle qui ne sait pas ce genre de choses), ce qui, par contre, ferait augmenter la productivité;
  • la hausse des salaires devrait faire augmenter l’offre de main-d’œuvre (les salaires plus élevés attirent plus de personnes sur le marché du travail), mais, disent les auteurs, cela pourrait faire allonger la recherche d’emplois (en raison d’une plus grande concurrence entre les chercheur.es d’emploi) et décourager ces personnes qui se retireraient du marché du travail; comme économiste du marché du travail, je suis resté estomaqué devant cette explication qui ne tient pas du tout compte du faible taux de chômage actuelle taux le plus bas depuis janvier 1976») et de la hausse du nombre de postes vacants, surtout dans les professions exigeant le moins de compétences, comme les emplois au salaire minimum; les auteur.es disent même que les jeunes risquent de demeurer plus longtemps aux études, alors que bien d’autres adversaires de hausses du salaire minimum à 15,00 $ prétendent qu’ils décrocheraient davantage.

– conclusion : C’est malheureusement sur cette étude qui repose sur un modèle théorique et qui ne tient pas compte de la réalité actuelle du marché du travail, de la démographie et de la baisse du ratio des entrants (jeunes âgé.es de 15 à 24 ans) sur les sortants (personnes âgées de 55 à 64 ans) qui est même rendu inférieur à 1 (0,875 au Canada et 0,76 au Québec en 2017, ce qui signifie que moins de jeunes arrivent sur le marché du travail qu’il n’y a de personnes qui le quittent, par rapport à 2,38 au Canada et 2,59 au Québec en 1976), qu’un journaliste de vérification des faits (que je respecte beaucoup habituellement) s’est basé pour prétendre qu’une hausse importante du salaire minimum ferait autant de gagnants que de perdants. De toute façon, des prévisions économiques, même bien faites, ne seront jamais des faits et ne pourront donc jamais servir à vérifier des faits. Déjà que les économistes ne s’entendent pas sur les conclusions à tirer des données passées, surtout sur un sujet comme les effets du salaire minimum, il serait étonnant qu’ils s’entendent davantage dans leurs prévisions.

L’effet du salaire minimum sur l’emploi

La deuxième étude que je veux présenter s’intitule The effect of minimum wages on the total number of jobs: Evidence from the United States using a bunching estimator (L’effet du salaire minimum sur le nombre total d’emplois: Constats établis aux États-Unis à l’aide d’un estimateur de regroupement) a été produite par Doruk Cengiz, Arindrajit Dube, Attila Lindner et Ben Zipperer (provenant de trois institutions différentes) et a été recommandée par Bradford DeLong. J’ai été surpris que cette étude, datant d’avril 2017, n’ait pas été diffusée davantage et surtout plus tôt. Peut-être vient-elle juste d’être rendue accessible sur Internet.

– contexte : Comme au Canada, la question du salaire minimum fait l’objet de nombreux débats aux États-Unis, tant entre les politicien.nes qu’entre les économistes et dans la population. Même si les études sur le sujet sont nombreuses, elles portent en général sur un secteur en particulier (comme la restauration), sur une partie de la population (comme les jeunes) ou sur des régions spécifiques. Cette étude analyse plutôt toutes les hausses du salaire minimum d’au moins 0,25 $ qui touchent plus de 2 % de la main-d’œuvre et qui ont été adoptées par les États entre 1979 et 2016. Ces critères ont permis d’étudier les effets de 137 hausses du salaire minimum.

– méthode : L’image que j’ai utilisée pour accompagner ce billet, que j’ai reproduite ci-contre en format un peu plus gros, permet de bien comprendre la méthode de regroupement («bunching») utilisée par les auteurs. Ce graphique montre le nombre de travailleur.euses dans l’axe vertical («Number of Workers») et le salaire horaire dans l’axe horizontal («Wage»). Avant la hausse du salaire minimum (ligne rouge), le nombre de travailleur.euses augmente au début en fonction du salaire, puis diminue à partir d’un certain niveau. Après la hausse du salaire minimum (ligne bleue), dont le niveau est indiqué par la ligne verticale MW («minimum wage» ou salaire minimum), le nombre de travailleur.euses commence à augmenter à un niveau de salaire plus élevé qu’avant (quoiqu’il en reste toujours un certain nombre qui gagnent moins que le salaire minimum, soit en raison d’exceptions à son application, de son non-respect ou d’erreurs dans les données), connaît une forte croissance au niveau du nouveau salaire minimum et un peu au-dessus, redescend au début rapidement, puis graduellement (pour tenir compte du fait que des travailleur.euses gagnant un peu plus que le salaire minimum verront leur salaire augmenter pour qu’ils et elles puissent conserver un écart avec le salaire minimum) pour ensuite suivre le nombre de travailleur.euses qu’il y avait avant (les lignes rouge et bleue se confondent).

La surface hachurée en rouge représente le nombre de travailleur.euses en moins dans les niveaux de salaires inférieurs au nouveau salaire minimum et celle hachurée en bleu le nombre de travailleur.euses en plus dans les niveaux de salaires supérieurs au nouveau salaire minimum, mais inférieurs à un certain niveau de salaire établi d’avance (MW + Ŵ). L’idée ici est de ne pas tenir compte des changements qui peuvent survenir dans les niveaux de salaires trop éloignés de celui du salaire minimum, car les mouvements à ces niveaux ne peuvent pas s’expliquer par la hausse du salaire minimum. Le montant Ŵ qu’il faut ajouter au salaire minimum est arbitraire et peut varier selon les cas. Dans cette étude, les auteurs ont utilisé plusieurs hypothèses et ont conservé celle qui donnait les résultats les plus satisfaisants, tout en publiant les résultats pour d’autres montants. Finalement, les auteurs comparent le nombre d’emplois «manquants» («Missing jobs below», dans le graphique) au nombre d’emplois «en surplus» («Excess jobs above») pour déterminer si l’emploi a augmenté ou a diminué à la suite de l’augmentation du salaire minimum.

Pour pouvoir déterminer le nombre d’emplois en surplus, les auteurs comparent la situation dans l’État ou la région où le salaire minimum a augmenté à celle d’une région formée de secteurs où le salaire minimum n’a pas augmenté (ce qui correspond à la méthode des différences de différence), région qui a connu une évolution semblable de l’emploi au cours des années précédentes, un peu comme l’équipe de l’Université de Berkeley l’a fait pour estimer l’impact des hausses du salaire minimum à Seattle (voir ce billet). L’objet de cette méthode est de retirer les effets d’autres facteurs que la hausse du salaire minimum (comme la conjoncture économique) des augmentations ou diminutions de l’emploi à ces niveaux de salaire. Pour pouvoir faire ces comparaisons, les auteurs ont aussi exclu les hausses du salaire minimum fédéral (car il n’y a pas dans ce cas de régions sans hausse du salaire minimum avec lesquelles comparer les résultats). Ils suivent l’évolution de l’emploi manquant et en surplus pendant cinq ans, comme on le verra.

Je saute les sections qui expliquent les caractéristiques des données (provenant de la Current Population Survey, l’équivalent des États-Unis de l’Enquête sur la population active de Statistique Canada) et les équations utilisées pour passer directement à la présentation des résultats…

– résultats : Le graphique ci-contre montre l’évolution de la proportion d’emplois manquants (ligne rouge, avec des traits verticaux indiquant la marge d’erreur à 95 % selon les 137 hausses considérées) et en surplus (ligne bleue) sur la population au cours des trois années précédant la hausse du salaire minimum et des quatre années suivantes, par rapport au niveau d’emploi un an avant la hausse (ce pourquoi les deux lignes sont à zéro cette année-là). Le calcul se fait avec le nombre d’emplois manquants jusqu’à 4,00 $ de moins que le nouveau salaire minimum et avec le nombre d’emplois en surplus jusqu’à 4,00 $ de plus.

Ce graphique permet de faire ressortir quatre constats :

  • il y a une baisse mesurable de l’emploi dont le salaire est inférieur au nouveau salaire minimum et une hausse tout aussi mesurable de l’emploi dont le salaire est égal ou supérieur au nouveau salaire minimum;
  • les changements suivant une hausse du salaire minimum sont durables (l’effet ne commence à diminuer que quatre ans après la hausse);
  • les effets sur les emplois manquants et en surplus ont la même ampleur;
  • le nombre d’emplois sous le salaire minimum avait une légère tendance à augmenter les années précédant la hausse du salaire minimum, ce qui serait un effet, selon les auteurs, du fait que la valeur réelle du salaire minimum diminue quand on ne l’augmente pas.

Même si l’exercice précédent a été réalisé avec des salaires variant de 4,00 $ de moins à 4,00 $ de plus que le salaire minimum, le gros des changements s’est observé dans les salaires se situant entre 1,00 $ de moins et 1,00 $ de plus, comme le montre le graphique ci-contre qui nous fait voir les variations d’emploi entre l’année précédant la hausse et cinq ans plus tard selon le niveau du salaire par rapport au salaire minimum (l’axe horizontal s’échelonne en effet de – 4 $ à +4 $). En fait, le graphique précédent aurait donné des résultats presque identiques si les auteurs avaient utilisé des variations de 1, 2 ou 3,00 $, seule l’ampleur des changements variant un peu, car plus de 75 % des changements se réalisent dans les salaires se situant à un seul dollar du salaire minimum. Selon la variation utilisée, le nombre d’emplois manquants correspond parfaitement au nombre d’emplois en surplus (avec une variation d’un ou de deux dollars) ou lui est légèrement inférieur (variation de trois ou quatre dollars). Cet ajout d’emplois est toutefois dans la marge d’erreur, donc non significativement différent de zéro.

Les auteurs procèdent ensuite à de nombreux autres tests (sur l’emploi total, avec des comparaisons avec d’autres régions, sur de plus longues durées que cinq ans et sur quelques autres facteurs souvent mathématiques que je n’ai pas vraiment compris), et les résultats sont similaires : les salaires augmentent et l’impact sur l’emploi est positif, mais pas significativement différent de zéro. Ils isolent ensuite les effets de la hausse du salaire minimum selon son niveau d’augmentation (y compris les plus petites hausses et celles couvrant l’ensemble des États-Unis) et selon la grosseur des États, puis sur des groupes distincts (employé.es à pourboire, décrocheur.euses, adolescent.es, femmes et Noir.es ou hispanophones) et même sur des types d’emplois différents (routiniers et non-routiniers, et manuels et cognitifs). Encore là, les résultats sont semblables, avec toutefois des impacts parfois plus élevés sur les emplois manquants, mais aussi sur les emplois en surplus et aucune hausse ou baisse globale de l’emploi significativement différente de zéro. Et je passe les tests de robustesse qui complètent l’étude.

Bref, avec la méthode utilisée, qui me semble la meilleure que j’ai vue, on ne peut observer aucun impact négatif sur l’emploi (ni sur les heures de travail), mais des impacts drôlement positifs sur les salaires des employé.es.

Et alors…

Ce billet montre bien la différence des résultats d’études basées sur des concepts et des comportements théoriques, avec ceux d’études empiriques bien faites. On ne peut bien sûr pas savoir si une étude utilisant la même méthode donnerait les mêmes résultats au Canada, mais rien ne laisse penser qu’ils seraient bien différents. Ce genre de billet est peut-être fastidieux à suivre, mais il demeure essentiel, selon moi, de bien comprendre les méthodes utilisées par des études avant même de discuter de leurs résultats. Et là, la gagnante est sans contredit la deuxième!

Publicités

C’était mieux avant!

29 janvier 2018

Faut-il croire les personnes qui nous cassent les oreilles en prétendant que c’était tellement mieux avant? C’est à cette question que tient à répondre le philosophe, historien des sciences et homme de lettres français Michel Serres dans son livre justement intitulé C’était mieux avant!. Comme ce petit livre compte plus de 30 sections, je me contenterai de mentionner brièvement les sujets qui y sont abordés.

Caudillo, Duce, Führer, Grand Timonier… : sans oublier celui qui a incendié Dresde et bombardé Hiroshima et Nagasaki.

Guerre et paix : L’auteur et ses aïeux ont connu une centaine d’années de guerres à peine entrecoupées de courtes périodes de paix.

Idéologies : Ah, le bon vieux temps où on pouvait afficher sans honte son racisme, son sentiment de supériorité sur l’autre! En fait, ça existe encore, mais sur d’autres autres…

Contrat naturel : La belle époque où les entreprises pouvaient décharger leurs déchets directement dans la mer et dans les cours d’eau sans avoir à respecter des règlements tatillons.

État excité de société : Quand le voisin et même l’ami pouvaient être des délateurs.

Maladies : Pas d’antibiotiques, peu de vaccins ou d’analgésiques, pas d’assurance maladie, il valait mieux être en santé!

Vie et mort : Espérance de vie beaucoup plus courte, mortalité infantile beaucoup plus importante, service militaire trop souvent mortel, etc.

Intensifs et palliatifs : Sans ces soins, l’agonie était beaucoup plus dure.

Propreté, hygiène : Un bain, un brossage de dents et un changement de vêtements par semaine, pas de toilettes, c’était du propre! L’auteur rappelle que l’amélioration des mesures hygiéniques fut la principale cause de la hausse de l’espérance de vie et de la baisse de la mortalité infantile.

Femmes : Pas de droit de vote, pas de compte bancaire et nécessité de l’autorisation maritale, le droit des femmes est parti de loin!

Mâles au travail : Peu d’école, mépris de l’intellect, mais beaucoup de travail manuel et d’accidents de travail…

La poubelle aux outils : L’auteur liste un grand nombre d’outils maintenant désuets, car remplacés par d’autres outils plus performants.

Lavandières et battoirs : L’auteur explique le travail des lavandières qui lavaient des draps au battoir dans des rivières trop souvent polluées.

Grue : L’auteur raconte le travail titanesque que représentait le transport d’une ville à l’autre d’immenses grues de construction.

Roi de l’émouchette : Un des grands-parents de l’auteur a fait fortune en inventant un genre de voile mis sur le devant des yeux des bœufs (une émouchette) pour les protéger des insectes. La généralisation de l’utilisation des tracteurs dans l’agriculture a mis fin à cette production.

Le dos paysan : Il souffrait!

Pensionnats : Ce n’était pas des prisons, mais pas loin!

Les voyages ordinaires : Changer de continent prenait un mois et aller d’un bout à l’autre de la France une semaine. Fallait vouloir!

Communications : Les échanges épistolaires étaient lents, très lents. Les nouvelles circulaient tout aussi lentement et l’accès aux connaissances n’était pas toujours facile et celles-ci étaient souvent très partielles (et partiales).

Concentrations et distribution : Avant, tout était concentré, il y avait une place pour chaque chose. Plus maintenant.

Provenance alimentaire : Avant, on savait d’où venait la bouffe, de pas loin. Mais, il n’y avait pas que des avantages à cet état de fait…

Langues et accents : Avant, les Français des différentes régions de la France ne se comprenaient pas. C’est moins souvent le cas maintenant, entre autres en raison de la télévision.

Habits et couchage : Avant, il fallait «casser» les souliers pendant quelques semaines pour qu’ils soient confortables et bassiner les lits pour ne pas y geler.

Sexualité : Dans le «bon vieux temps» on ne parlait pas de sexe. Les seins étaient la gorge (d’où les soutiens-gorge) et au Québec on prononçait la lettre Q «que» (ou «ke»?). Le viol n’existait pas (comme crime ou même comme délit) et l’inceste était une affaire de famille. Quant aux maladies vénériennes, on n’en parlait pas, mêmes si elles étaient souvent mortelles.

La fée électricité : On s’éclairait à la chandelle et, si on avait les moyens, avec une lampe à pétrole.

Laideur et beauté : Là, c’est vrai, l’architecture était plus belle avant, moins laide, moins uniforme, moins états-unienne.

Nous parlions ensemble en attendant : Mais, surtout, on attendait : les saisons, les vendanges, la pluie, Noël, etc.

Les médias : Plutôt que d’être contrôlée par quelques médias appartenant à l’État et à des puissants, l’information est maintenant diffusée par des médias bien plus variés qu’avant (pour le meilleur et pour le pire?).

Da capo : retour au politique : Cette plus grande démocratisation de l’information permettra-t-elle une plus grande démocratisation politique?

Grandeur des espèces : Aux nostalgiques qui regrettent l’ancienne «grandeur» de la France, l’auteur rappelle entre autres les centaines de milliers de morts causées par les guerres napoléoniennes. Il craint aussi que l’être humain l’emporte dans sa lutte contre la planète, car, s’il gagne cette bataille, il sera seul, sans faune et sans flore et disparaîtra à son tour.

Petitesse : C’est souvent parce qu’ils ont voulu être trop grands que les empires se sont effondrés. Les oiseaux, petits, sont d’ailleurs probablement les seuls survivants des dinosaures!

Le flot qui l’apporta recule épouvanté : Si les progrès ont permis l’augmentation de l’espérance de vie, celle-ci a permis l’augmentation du nombre de vieillards nostalgiques qui prennent le pouvoir pour freiner le progrès, comme Trump, Poutine et trop d’autres.

Envoi : Finalement, ceux qui prétendent que «c’était mieux avant» mettent en péril le «mieux après».

Et alors…

Lire ou ne pas lire? Je ne vois aucune raison de ne pas lire ce court livre de moins de 100 pages. C’est sûr que l’auteur tire parfois la couverte en soulignant les défauts du passé, mais c’est normal dans un livre qui défend une position comme la sienne. En plus, cela lui a permis d’en aborder auquel on n’aurait pas pensé! Son style un peu sarcastique déstabilise parfois (certaines expressions m’étaient inconnues), mais est toujours agréable à lire. Et, ça fait du bien de lire un aîné qui n’est pas du tout nostalgique! Et, il n’y a pas de notes, ni en bas de page ni en fin de livre!

Le salaire minimum à 12 $

26 janvier 2018

«Quand le salaire minimum augmente de 6.7 %, les revenus des entreprises n’augmentent pas automatiquement de 6,7 %» nous a affirmé Simon Gaudreault, économiste principal Fédération canadienne de l’entreprise indépendante (FCEI), à RDI après que le gouvernement ait annoncé que le salaire minimum passerait de 11,25 $ à 12,00 $ le premier mai prochain. Ce n’est pas la première fois que les adversaires de toute hausse du salaire minimum avancent cet argument. Cela ne le rend pas plus pertinent, parce que tous leurs employés ne sont pas au salaire minimum (j’espère!), que les autres dépenses d’une entreprise n’augmentent pas nécessairement du même taux que le salaire minimum et que leur taux d’augmentation n’a rien à voir avec celui du salaire minimum. Par contre, ce mauvais argument nous permet de nous poser la bonne question : de combien les revenus d’une entreprise doivent-ils augmenter pour compenser la hausse de 6,7 % du salaire minimum?

Analyse d’impact réglementaire

Chaque fois que le gouvernement annonce une hausse du salaire minimum, c’est-à-dire chaque année, le Secrétariat du travail du ministère du Travail, de l’Emploi et de la Solidarité sociale produit un document intitulé Analyse d’impact réglementaire – Révision du taux général du salaire minimum. Même si les médias n’en parlent presque jamais, c’est dans ce document qu’on trouve les motifs (ou les justifications) de la hausse adoptée. Il contient aussi de nombreuses données difficilement accessibles ailleurs. Comme j’ai présenté l’an dernier les rubriques de ce document et que celles-ci se répètent annuellement, je vais cette fois me concentrer sur les données qu’il contient, d’autant plus qu’elles m’aideront à répondre à la question que j’ai posée en amorce.

Caractéristiques comparées des salarié.es au salaire minimum

Le tableau qui suit a été construit à partir des données qu’on retrouve à la dernière page du document d’analyse d’impact. J’en ai omis quelques-unes, mais j’ai surtout cru bon de comparer les données des personnes gagnant le salaire minimum avec les personnes gagnant plus que le salaire minimum plutôt qu’avec l’ensemble des salarié.es. Ça change peu de choses, mais ça fait ressortir davantage les différences.

La première ligne nous apprend qu’il y avait entre mai 2016 et avril 2017 en moyenne 218 800 personnes touchant le salaire minimum, nombre qui représentait 6,1 % de l’emploi salarié total. En fait, cette estimation est un peu trop élevée, car on précise à la page 6 du document qu’il s’agit du nombre de personnes qui recevaient un salaire horaire de 11,25 $ ou moins, alors que le salaire minimum était en fait de 10,75 $ au cours des mois retenus. Mais, bon, la différence ne doit pas être énorme. Ce tableau nous apprend aussi que :

  • les femmes représentaient 58,9 % des personnes touchant le salaire minimum, mais 48,7 % de celles gagnant un salaire plus élevé;
  • on trouve parmi les salarié.es au salaire minimum proportionnellement 13 fois plus de jeunes âgé.es de 15 à 19 que chez les autres salarié.es (36,0 % par rapport à 2,8 %) et 2,3 fois moins de personnes âgées de 25 ans et plus (38,3 % par rapport à 88,2 %);
  • contrairement à une perception répandue, la majorité des personnes touchant le salaire minimum ne sont pas aux études (59,1 %);
  • autre «surprise», 52,7 % des personnes touchant le salaire minimum sont la seule personne à gagner un revenu dans leur famille, proportion plus élevée que chez les autres salarié.es (44,4 %);
  • la proportion de chef.fes de famille monoparentale y est 2,3 fois plus élevée (17,6 %) que chez les autres salarié.es (7,5  %);
  • 59,0 % des personnes touchant le salaire minimum travaillaient moins de 25 heures par semaine, proportion 4,4 fois plus élevée que chez les autres salarié.es (13,3 %), alors que, à l’inverse, seulement 28,9 % d’entre elles travaillaient au moins 35 heures par semaines, proportion 2,6 fois moins élevée que chez les autres salarié.es (74,3 %); ce constat rend peu pertinents les calculs de l’analyse d’impact qui compare le revenu annuel de personnes touchant le salaire minimum au seuil de faible revenu en se basant sur une semaine de travail de 40 heures (et un travail à l’année), ce qui n’est le cas que d’une faible minorité de ces personnes;
  • près de 65 % des personnes touchant le salaire minimum travaillaient dans le commerce de détail (38,4 %) ou dans l’hébergement et la restauration (26,3 %), proportions beaucoup plus élevées que chez les autres salarié.es (11,1 % et 6,0 %); cette observation est assez connue, mais ce qui l’est moins est que, malgré cette prépondérance, les personnes touchant le salaire minimum ne représentaient que 21,9 % de la main-d’œuvre de l’hébergement et la restauration et seulement 18,3 % de celle du commerce de détail; je reviendrai sur cet angle moins connu plus loin.

D’autres données à la page 6 du document nous montrent que, toujours entre mai 2016 et avril 2017, il y avait 352 900 personnes qui gagnaient moins de 12,00 $ de l’heure, soit 9,8 % des salarié.es. Cette donnée nous permet d’estimer que plus de 9 % des salarié.es bénéficieront directement de la hausse du salaire minimum en mai 2018, et cela, sans compter les personnes gagnant déjà 12,00 $ de l’heure ou un peu plus qui obtiendront des hausses de salaires pour conserver un certain écart salarial avec les personnes touchant le salaire minimum. Le document ne tente malheureusement pas d’estimer l’ampleur de ces effets indirects (ou d’émulation). Assez étrangement, la proportion de femmes qui gagnaient entre 11,25 $ et 12,00 $ était plus élevée (63,7 %) que la proportion de femmes qui touchaient 11,25 $ ou moins, soit 58,9 % comme on l’a vu dans le tableau. En tout, elles représenteraient 60,7 % des salarié.es qui bénéficieront directement de cette hausse.

Hausse des revenus nécessaire

Le tableau qui suit, tiré de celui de la page 12 du document, permet de mieux comprendre l’importance relative de la masse salariale versée aux personnes qui travaillent au salaire minimum par rapport à la masse salariale globale des employeurs.

Ce tableau nous montre dans la partie du haut le nombre de personnes salariées au Québec, le nombre d’heures qu’elles travaillent et la masse salariale qu’elles reçoivent (y compris «les frais et les déductions payés par les employeurs», ce qui augmente la masse salariale de 15,12 % en moyenne). La partie du centre présente les mêmes données, mais pour les personnes touchant le salaire minimum. Enfin, la troisième partie, que j’ai ajoutée au tableau du document, indique le pourcentage des salarié.es, des heures travaillées et de la masse salariale des personnes touchant le salaire minimum par rapport aux mêmes données pour l’ensemble des salarié.es. Les colonnes présentent ces données pour l’ensemble des industries, pour les trois grands secteurs de l’économie (primaire, secondaire et tertiaire ou des services) et pour les deux industries où on trouve proportionnellement le plus de salarié.es touchant le salaire minimum, soit le commerce de détail et l’hébergement et la restauration.

Ce tableau permet de constater que si, entre mai 2016 et avril 2017, les personnes touchant le salaire minimum occupaient 6,1 % des emplois, leurs heures travaillées ne représentaient que 4,5 % du total et les salaires qu’elles recevaient seulement 1,8 % de la masse salariale totale, soit 3,4 fois moins que leur part des emplois salariés. Cette donnée est importante, car elle montre à quel point il est absurde de penser qu’une hausse de 6,7 % de sommes qui ne représentent que 1,8 % de la masse salariale puisse avoir un effet majeur sur le marché du travail et sur les finances des entreprises. Cette hausse représente en effet directement seulement 6,7 % de 1,8 % de la masse salariale globale, soit 6,7 % x 1,8 % = 0,12 % de la masse salariale globale. Même en doublant ou même en triplant ce coût pour tenir compte de la hausse salariale des personnes gagnant entre 11,25 $ et 12,00 $ et de la hausse indirecte qui serait accordée aux personnes gagnant 12,00 $ et même un peu plus pour qu’elles conservent un certain écart salarial avec les personnes touchant le salaire minimum, il est difficile d’imaginer que ce coût serait supérieur à 0,36 % de la masse salariale globale.

D’ailleurs, les auteur.es du document calculent que «L’augmentation directe (sans l’effet d’émulation) de la masse salariale au SM selon la hausse de 0,75 $ serait 350,2 M$, soit 0,21 % de l’ensemble de la masse salariale brute au Québec». Cette somme de 350,2 M$ étant bien plus élevée que le résultat d’une hausse de 6,67 % de la masse salariale des personnes touchant le salaire minimum dans le tableau (3025,8 M$ x 6,67 % = 201,7 M$), j’en conclus que les auteur.es du document ont effectué ce calcul pour les 352 900 personnes qui gagnaient moins de 12,00 $ de l’heure entre mai 2016 et avril 2017. Mon calcul à 0,36 %, qui incluraient les effets indirects (ou d’émulation) semble donc une estimation maximale du coût de la hausse du salaire minium, d’autant plus qu’il y aura sûrement moins de personnes gagnant moins de 12,00 $ en mai 2018, quand le salaire minimum sera porté à 12,00 $, qu’il n’y en avait en moyenne entre mai 2016 et avril 2017 (352 900), puisque la majorité d’entre elles auront eu des hausses salariales entre temps (entre un et deux ans plus tard).

Pour les deux secteurs où on trouve proportionnellement le plus de personnes touchant le salaire minimum, soit le commerce de détail et l’hébergement et la restauration, les auteur.es calculent que la hausse du salaire minimum augmentera leur masse salariale de respectivement 0,84 % et 1,30 %. En tenant compte des effets indirects, on peut estimer que cette hausse serait d’au plus 1,5 % et 2,2 %.

Je pourrais arrêter là, l’augmentation de 0,21 % ou même de 0,36 % de la masse salariale étant entre 18 et 32 fois inférieure à celle de 6,67 % mentionnée par l’économiste de la FCEI, et même celles des secteurs les plus touchés étant entre 3 et 5 fois moins élevés. Mais, la masse salariale n’est qu’un des postes de dépenses des entreprises! Pour répondre à ma question (de combien les revenus d’une entreprise doivent-ils augmenter pour compenser la hausse de 6,7 % du salaire minimum?), il faut en plus savoir quel pourcentage représente la masse salariale des entreprises sur leurs ventes totales.

Pour répondre à cette question, j’ai utilisé les données des tableaux cansim 180-0003 (ensemble du secteur des entreprises), 351-0012 (hébergement), 355-0008 (restauration) et 080-0030 (commerce de détail). Ces données m’ont permis de calculer que la masse salariale (y compris les avantages sociaux) représente environ 18 % des ventes dans l’ensemble des entreprises, 12 % dans le commerce de détail et 33 % dans l’hébergement (36 %) et la restauration (32 %).

Compte tenu des effets direct et indirect de la hausse du salaire minimum de 6,67 % sur la masse salariale totale et de la part de la masse salariale sur les ventes, on peut donc estimer que la croissance des ventes (ou des prix) nécessaire pour la compenser est de :

  • effet direct sur les ventes pour l’ensemble des entreprises : 0,21 % (effet sur la masse salariale) x 18 % (part de la masse salariale sur les ventes) = 0,038 %;
  • effets direct et indirect sur les ventes pour l’ensemble des entreprises : 0,36 % x 18 % = 0,065 %;
  • effet direct sur les ventes pour le commerce de détail : 0,84 % x 12 % = 0,10 %;
  • effets direct et indirect sur les ventes pour le commerce de détail : 1,5 % x 12 % = 0,18 %;
  • effet direct sur les ventes pour l’hébergement et la restauration : 1,3 % x 33 % = 0,43  %;
  • effets direct et indirect sur les ventes pour l’hébergement et la restauration : 2,2 % x 33 % = 0,73 %.

On peut donc conclure que, plutôt que de nécessiter une hausse des ventes de 6,67 %, la hausse des recettes de l’ensemble des entreprises devra plutôt se situer entre 0,038 % (effets directs) et 0,065 % (effets direct et indirect) pour compenser les effets de la hausse du salaire minimum de 6,67 %, soit entre 103 et 176 fois moins que l’économiste de la FCEI l’affirmait en entrevue! Ce calcul permet aussi d’estimer l’effet sur l’inflation, ce qui est pertinent, car bien des adversaires de la hausse du salaire minimum prétendent que la hausse du salaire minimum est inutile, car cette hausse serait absorbée par l’inflation qu’elle générerait. Or, l’inflation générée par la hausse du salaire minimum de 6,67 % sera, si les employeurs la compensent en haussant leurs prix, entre 0,038 % et 0,065 %, soit de moins de 0,1 point de pourcentage, aussi bien dire presque nulle! Pour les deux secteurs où on retrouve le plus de personnes touchant le salaire minimum, la hausse des ventes (ou des prix) nécessaire pour compenser la hausse du salaire minimum de 6,67 % varierait entre 0,10 % et 0,73 %, soit entre 8 et 66 fois moins que l’évaluation de l’économiste de la FCEI. Et, notons que si cet effet est plus élevé que la moyenne dans ces deux industries, c’est qu’il y a des industries où cet effet est encore moindre que la fourchette moyenne de 0,038 % à 0,065 %! On peut finalement ajouter que, même si le gouvernement n’avait pas adopté une hausse du salaire minimum, les employeurs auraient sûrement augmenté les salaires des personnes touchant le salaire minimum ou un peu plus de 1 ou 2 % ou même, qui sait de 3 % (la hausse moyenne des salaires horaires de l’an passé fut de 3,0 % selon le tableau cansim 281-0029). En tenant compte de ce facteur, on peut conclure que l’effet spécifique sur les prix de la hausse du salaire minimum est encore plus faible que mes calculs l’estiment.

Et alors…

Ce billet a permis de défaire quelques mythes constamment entretenus par les adversaires des hausses du salaire minimum. Année après année, ils reviennent avec les mêmes épouvantails : cette hausse nuirait à ceux qu’elle est censée aider en entraînant des baisses d’emplois (effet qui ne s’observe pas vraiment depuis longtemps), l’emploi diminuerait pour les jeunes et la hausse les ferait décrocher davantage (bizarre de logique qui prétend que la baisse de l’emploi chez les jeunes en fera décrocher davantage pour occuper des emplois qu’on prévoit moins nombreux…), cette hausse créerait une forte inflation qui annulerait les avantages de l’augmentation de leurs salaires, etc. Malgré certaines incertitudes dans mes calculs (surtout sur l’effet d’émulation), l’écart entre les affirmations des adversaires de la hausse du salaire minimum et les résultats de mes calculs ne laissent aucun doute sur la gratuité de ces affirmations.

Ce qu’il y a de bien avec le document d’analyse d’impact que le Secrétariat au travail publie pour expliquer les motifs de la hausse du salaire minimum est que, quand la hausse est significative comme l’an passé et cette année, on y trouve des données et des analyses allant dans le sens des arguments des personnes (comme moi) et des organismes qui revendiquent de fortes hausses du salaire minimum. Les auteur.es reviennent malgré tout avec la supposée nécessité que le salaire minimum ne dépasse pas un certain niveau du salaire moyen, soit 47 % avant l’an passé et maintenant 50 %. La bataille est donc de montrer qu’il ne se passerait rien de plus négatif à 55 %, puis à 60 %, et là, on l’aurait, le salaire minimum à 15,00 $!

L’éconocratie

22 janvier 2018

Le problème quand j’achète un livre ou que j’en reçois un en cadeau est que je prends presque toujours plus de temps à le lire que lorsque je l’emprunte à la bibliothèque, car, dans ce cas, je dois respecter une date limite pour le remettre. La lecture de The econocracy – The perils of leaving economics to the experts (L’éconocratie ou les dangers de laisser l’économie aux experts) de Joe Earle, Cahal Moran et Zach Ward-Perkins, trois ex-étudiants en économie à l’Université de Manchester, membres fondateurs de la Post-Crash Economics Society, organisme qui milite pour l’enseignement de la pluralité en économie, n’a pas fait exception à ce principe! Malgré son titre accrocheur et le fait que le sujet qu’il aborde (le contrôle de la pensée économique et de l’enseignement de cette discipline par des experts) m’intéresse au plus haut point, je l’avais depuis quatre mois quand j’en ai commencé la lecture. De façon plus spécifique, ce livre «ouvre la discipline économique et explique son fonctionnement interne au grand public afin que celui-ci puisse s’en approprier au plus grand bénéfice de la démocratie».

Avant-propos : Andrew Haldane, économiste en chef de la Banque d’Angleterre, se demande si l’échec des économistes à prévoir la crise commencée en 2007 n’est pas un des facteurs importants qui expliquent que la population du Royaume-Uni n’a pas tenu compte de leurs objections lors du vote sur le Brexit en juin 2016, vote qui a mis en branle la sortie de ce pays de l’Union européenne. Il se dit ensuite en accord avec les analyses de ce livre, sauf avec une d’entre elles qui porte sur l’indépendance des banques centrales…

Introduction : Les trois auteurs ont commencé à étudier en économie à l’Université de Manchester en 2011 pour mieux comprendre le fonctionnement de l’économie à la suite de la crise encore en force à ce moment. Ils ont rapidement réalisé que ce qu’ils apprenaient n’avait rien à voir avec les causes de cette crise, pas plus qu’avec la catastrophe environnementale qui nous menace ou avec l’accroissement des inégalités. Cette frustration les a menés à fonder en 2013 avec d’autres étudiant.es la Post-Crash Economics Society qui fut à la base d’un mouvement de contestation mondial (dont j’ai parlé dans ce billet publié en mai 2014) visant à promouvoir un enseignement pluraliste en économie et non pas axé sur une seule théorie (qui s’est révélée bien impuissante face à la réalité). Ils militent maintenant au sein de Rethinking Economics, un regroupement ayant les mêmes objectifs. Leur livre vise à faire en sorte que l’économie ne soit pas laissée aux soins d’experts utilisant un jargon incompréhensible et que la population puisse la comprendre de façon à ce qu’elle puisse choisir démocratiquement le genre de monde dans lequel elle veut vivre.

1. L’éconocratie : Une éconocratie est une société dans laquelle les objectifs politiques sont établis en fonction de ses effets sur l’économie et où on doit demander à des experts de s’assurer de l’atteinte de ces objectifs. Les auteurs donnent de nombreux exemples de cette fixation, de l’importance exagérée qu’on accorde aux données mensuelles sur le PIB à la manie de tout évaluer en fonction de ses conséquences sur le PIB (santé mentale, arts, services de garde, bibliothèques, etc.). Les experts, de leur côté, semblent uniquement proposer les meilleurs moyens d’atteindre les objectifs que la société se donne, mais les déterminent en fait trop souvent («on n’a pas le choix») sur des bases discutables, mais non discutées de façon démocratique. Les auteurs donnent ensuite de nombreux exemples pertinents et les analysent, puis expliquent comment nous en sommes arrivés là et les conséquences de laisser les décisions aux éconocrates (à lire!).

2. L’économie comme outil d’endoctrinement : La formation universitaire en économie est une des principales raisons qui expliquent la place prépondérante de l’éconocratie. Alors que les jeunes qui s’inscrivent à un programme en économie le font bien souvent pour mieux comprendre comment fonctionne l’économie dans le monde réel, on leur apprend plutôt comment elle fonctionnerait dans un univers parallèle différent du nôtre. Les auteurs associent cette formation à un endoctrinement, principalement parce qu’on y enseigne une seule théorie et parce qu’on y décourage toute pensée critique (par exemple, on ne pose presque uniquement que des questions d’application d’une théorie apprise en classe dans les examens). Ils présentent ensuite les caractéristiques de la formation et des examens passés dans 174 cours d’économie offerts dans sept universités du Royaume-Uni (caractéristiques semblables à celles de la majorité des cours enseignés dans la plupart des universités occidentales).

3. Au-delà de l’économie néoclassique : Dans ce chapitre, les auteurs visent à montrer que l’enseignement de la pluralité en économie est essentiel. Loin de n’être formée que de la seule théorie néoclassique enseignée dans les universités (certaines universités offrent un cours en histoire de la pensée économique qui présente les autres théories, mais ce cours est toujours optionnel et n’est suivi que par une faible minorité des étudiant.es), la discipline économique en compte bien d’autres (post-keynésienne, marxiste, autrichienne, institutionnelle, évolutionniste, féministe, environnementale, etc.), chacune apportant un angle différent, souvent complémentaire aux autres, et permettant l’analyse de réalités laissées de côté par la théorie néoclassique : environnement et changements climatiques, inégalités (y compris la discrimination), stabilité économique (et crises), etc. Ce pluralisme est selon eux (et moi!) essentiel pour bien comprendre les sociétés actuelles. Ils abordent ensuite les conséquences politiques de l’absence de pluralisme actuel dans l’enseignement de l’économie, notamment sur le manque de débats démocratiques dans les décisions à portée économique dans nos sociétés.

4. La lutte pour l’âme de l’économie : Alors que les économistes néoclassiques s’opposent de façon véhémente aux monopoles (ennemis de la concurrence parfaite), ils se battent pour conserver le monopole de l’enseignement de l’économie. Les auteurs expliquent dans ce chapitre comment la théorie néoclassique en est venue à former ce monopole de l’enseignement (non, ce n’est pas un complot…) et présentent les actions du mouvement étudiant au Royaume-Uni et ailleurs dans le monde pour favoriser le pluralisme de l’enseignement de l’économie et pour mettre fin à ce monopole. Face à la contestation étudiante, quelques universités ont décidé de modifier un peu leur programme, se basant sur ce qu’ils appellent le «CORE» (dont le contenu est sur Internet). On m’a déjà demandé ce que j’en pensais, mais je ne me souviens pas ce que j’ai répondu (j’avoue que je n’avais pas le goût de consacrer des heures à analyser ce programme…)! Les auteurs, de leur côté, considèrent que ce programme n’est qu’une mince concession qui se veut en fait garante du statu quo.

5. Redécouvrir l’éducation libérale : Dans ce chapitre, les auteurs font la promotion de l’éducation libérale et montrent par la suite que l’éducation supérieure au Royaume-Uni s’est graduellement éloignée de cet idéal depuis la fin de la Deuxième Guerre mondiale. S’inspirant du dialogue socratique, l’éducation libérale vise à stimuler la capacité de «[traduction libre] raisonner par soi-même tout en étant critique de ses propres traditions et croyances, capacité qui permettra de se développer comme un individu libre». Appliquée à l’enseignement de l’économie, l’éducation libérale permettrait de former une nouvelle génération d’économistes qui seraient conscients qu’il existe «différentes façons de penser l’économie et qui seraient en mesure de critiquer les théories qu’on leur demande actuellement d’accepter sans poser de question». Ils ajoutent que, selon eux, l’enseignement de l’économie se limite de plus en plus à une formation technique sur une seule théorie, en plus bien imparfaite, sans consacrer un seul instant au développement de l’esprit critique. La suite porte surtout sur la situation des universités au Royaume-Uni. Même si on peut appliquer certaines remarques faites par les auteurs à nos universités, les réformes qui y ont été faites et qui sont ici critiquées sont très spécifiques. Finalement, les auteurs présentent la forme idéale que pourrait prendre l’enseignement de l’économie, les modules se basant toujours sur des événements réels et les étudiant.es devant faire des recherches sur des sujets locaux, nationaux ou internationaux.

6. L’économie est pour tout le monde : En plus des changements à l’enseignement de l’économie qu’ils ont proposés dans le chapitre précédent, les auteurs jugent aussi que pour mettre fin à l’éconocratie, il faut démocratiser la prise de décision économique. Ils considèrent que tou.tes les citoyen.nes devraient posséder des bases en économie et ainsi pouvoir participer aux décisions qui les touchent en premier lieu. Dans cette optique, ils organisent avec Rethinking Economics des ateliers de formation à l’intention de la population (un peu comme l’Upop le fait à Montréal, mais pas seulement en économie) et ont créé un site Internet regroupant de l’information pratique sur l’économie. Ils considèrent que les économistes devraient être plus humbles et mieux connaître et surtout reconnaître les limites de leur discipline, alors que trop d’entre eux demeurent aussi confiants qu’avant, même s’ils ont montré leur incapacité à prévoir (ou à voir venir) la plus grande crise économique depuis près de 100 ans et à la combattre efficacement. Et, ils concluent : «Nous croyons que l’économie doit devenir un dialogue public et ne plus jamais être confiée aux seuls experts».

Annexe 1 : Annexe technique à l’examen du curriculum : Cette annexe approfondit certains aspects de la critique des auteurs sur le programme d’économie. Elle aborde plus précisément l’utilisation des mathématiques en économie, l’ajout de quelques développements récents aux programmes d’économie (surtout en économie comportementale) et les forces et faiblesses de l’utilisation de l’économétrie.

Annexe 2 : Méthodologie de révision du curriculum : Cette annexe présente la méthodologie utilisée par les auteurs pour analyser la formation et les examens dans 174 cours d’économie offerts dans sept universités du Royaume-Uni, dont les résultats sont commentés un peu partout dans le livre, principalement dans le deuxième chapitre.

Et alors…

Lire ou ne pas lire? Lire! J’ai adoré ce livre! Il présente en effet de façon très claire les lacunes de la théorie néoclassique et surtout de l’enseignement de l’économie dans les universités. Contrairement à l’orientation utilisée par d’autres auteurs, notamment par Steve Keen dans son livre L’imposture économique (que j’ai commenté dans deux billets), qui décortique chacun des concepts utilisés dans la théorie néoclassique avec précision, les auteurs de The econocraty se concentrent davantage sur les lacunes générales et sur les questions importantes que cette théorie laisse de côté, mais qui sont abordées par d’autres théories économiques. J’ai été vraiment impressionné par les connaissances que ces jeunes auteurs ont réussi à maîtriser en les acquérant en dehors de la formation universitaire qu’ils ont suivie. En plus, ce livre est bien construit et le texte est agréable à lire, les auteurs réussissant à bien traduire le jargon souvent rebutant de cette discipline. Mais, bon, aucun livre n’est parfait. En effet, non seulement les notes (nombreuses et parfois substantielles) ne sont pas en bas de page, mais elles ne sont pas non plus à la fin du livre, mais à la fin de chacun des chapitres! On doit donc utiliser deux signets, et en plus chercher à la fin de chaque chapitre l’endroit où on doit déplacer le deuxième. Heureusement, le livre n’est pas trop gros!

Les riches au Québec en 2014

19 janvier 2018

Le ministère des Finances du Québec prend de plus en plus de temps à publier ses Statistiques fiscales des particuliers. Alors que la version de 2011 de ce document a été publiée en mars 2014, soit moins de deux ans après la date limite pour faire parvenir nos déclarations de revenus de cette année-là, celles de 2012 et 2013 ont été publiées en juin 2015 et 2016, soit trois mois plus tard, et celle de 2014, que je vais présenter ici, seulement en décembre 2017. Cette parution fut tellement tardive que j’en ai pris connaissance qu’un mois plus tard. D’ailleurs, à ma connaissance, aucun média n’en a parlé. J’espérais que ce retard soit dû à des améliorations aux données (plus on attend pour compiler les données sur les déclarations de revenus, plus il y en a qui ont été déposées), mais non, comme par les années précédentes, cette compilation a été faite 18 mois après la date limite.

Trois sources de données différentes

Si j’attends cette version avant d’analyser les données sur les déclarations de revenus, c’est que ce document est le plus complet sur la question, tant par la quantité de variables présentées que par le nombre de déclarations traitées. En effet, les données les plus hâtives sur le sujet sont celles du tableau cansim 204-0001 de Statistique Canada (qui présente déjà des données pour 2015 depuis novembre 2017), qui dénombrait 6 404 185 contribuables pour le Québec en 2014 (mais dont les données reposent sur un échantillon de 20 % de ces contribuables, comme précisé à la note 3 de ce tableau). Quelques mois plus tard, l’Agence du revenu du Canada a publié ses statistiques finales de la T1, qui, elles, étaient basées sur 6 499 800 contribuables en 2014 (soit quand même 95 615 ou 1,5 % de plus que le tableau de Statistique Canada). Celles que je vais présenter dans ce billet se basent sur les déclarations de 6 529 525 contribuables (soit 29 725, ou 0,5 % de plus que les données des statistiques finales fédérales et 125 340 ou 2,0 % de plus que celles du tableau 204-0001). Et, comme les règles fiscales ne sont pas les mêmes au fédéral et au provincial, les données de ces documents ne sont pas totalement identiques, donc ne sont pas comparables.

À ce sujet, Statistique Canada a publié il y a environ une semaine une étude intitulée Mégadonnées fiscales et analyse économique : les effets des redressements et des retards de production des déclarations de revenus des particuliers qui analyse justement l’impact sur les données des retards à déposer des déclarations de revenus. Cette étude n’étant pas l’objet premier de ce billet, je vais me contenter de mentionner ses principaux résultats :

  • selon les années, entre 3,5 et 4,8 % des déclarations de revenus sont déposées en retard au Canada, mais, en moyenne, environ 2,6 % au Québec;
  • les personnes qui déposent leur déclaration en retard déclarent près de deux fois plus souvent des revenus provenant d’un travail autonome que les personnes qui les déposent à temps (13,4 % par rapport à 7,2 %);
  • elles déclarent quatre fois moins souvent des prestations de la sécurité de la vieillesse (4,7 % par rapport à 16,9 %);
  • elles sont plus jeunes (elles ont en moyenne 40,1 ans par rapport à 45,7), le taux de retard passant d’entre 5 et 6 % chez les personnes âgées de moins de 39 ans à 1,1 % chez celles âgées de 70 à 74 ans;
  • elles sont plus souvent des hommes (59,7 % par rapport à 49,2 %);
  • elles sont beaucoup plus souvent célibataires (45,0 % par rapport à 27,8 %);
  • elles ont des revenus moins élevés (32 250 $ en moyenne par rapport à 38 950 $), le taux de retard passant de 13,4% chez les personnes n’ayant aucun revenu à 6,6 % chez celles ayant déclaré entre 1 $ et 10 000 $, puis se situant entre 3,3 % et 3,6 % dans toutes les autres tranches de revenus.

L’auteur conclut que le fait que les caractéristiques des personnes qui déposent leur déclaration en retard soient si différentes de celles qui les déposent à temps peut amener des biais dans les analyses de ces données. Ces biais sont surtout importants pour les données sur le travail autonome, mais influencent aussi, quoique dans une moindre mesure, celles sur les inégalités. Cette étude montre que je fais bien d’attendre et d’utiliser la source qui fournit le plus de données provenant des personnes ayant déposé leur déclaration en retard.

Après cette digression, je vais maintenant passer à l’analyse que je fais chaque année dans mes billets sur les riches, mais en examinant en plus les données selon le sexe.

Évolution du nombre de riches au Québec

Le tableau qui suit montre certaines des caractéristiques des contribuables les plus riches du Québec et la part des femmes dans ces caractéristiques.

Nombre, pourcentage et croissance : Les trois premières colonnes de ce tableau nous apprennent que 5,9 % des contribuables du Québec ont déclaré des revenus de 100 000 $ ou plus en 2014. Cette proportion est en hausse par rapport à 2013, alors qu’elle atteignait 5,6 % (donnée non présentée dans ce tableau, mais comprise dans le tableau du billet portant sur 2013) en raison d’une hausse de 5,6 % de leur nombre, hausse bien plus importante que la hausse de 0,6 % du nombre de contribuables ayant déclaré moins de 100 000 $. La troisième colonne nous montre aussi que c’est parmi les contribuables ayant déclaré 250 000 $ et plus par année que la hausse fut la plus forte (6,5 % par rapport à la moyenne de 0,9 %), alors que cette hausse fut semblable à la moyenne en 2013 (1,0 % par rapport à 0,9 %).

La proportion de femmes parmi les contribuables fut de 51,0 %, proportion identique à celle de 2013 (leur nombre a augmenté de 0,9 %, tout comme le nombre d’hommes) et fut même un peu plus élevée que la proportion de femmes dans la population âgée de 18 ans et plus en 2014 (50,6 %, selon le tableau cansim 051-0001). Cette proportion plus élevée peut sembler étrange, mais s’explique peut-être par le fait que certains crédits, comme celui pour enfants, sont en général versés aux femmes (91,6 % des fois en 2014) et qu’elles doivent déposer une déclaration de revenus pour y avoir droit. De même, on a vu dans l’étude de Statistique Canada présentée plus tôt que les hommes sont proportionnellement plus nombreux à déposer leur déclaration de revenus en retard.

Il est certain que le fait que ces données soient présentées en dollars courants explique en partie le fait que le nombre de contribuables déclarant avoir gagné 100 000 $ a augmenté davantage (5,6 %) que le nombre de contribuables ayant déclaré moins que ce montant (0,6 %). En effet, comme le taux d’inflation en 2014 était de 1,4 %, 100 000 $ en 2013 valait 101 400 $ en 2013. En conséquence, comme on peut estimer qu’environ 10 000 personnes gagnaient entre 100 000 $ et 101 400 $ (en me basant sur le fait que 192 559 contribuables avaient déclaré des revenus se situant entre 100 000 $ et 129 999 $ et que leur revenu moyen était un peu inférieur à la moyenne de 115 000 $ de cette tranche, soit de 112 444 $), la hausse globale du nombre de personnes gagnant 100 000 $ et plus passerait en dollars constants de 5,6 % à environ 2,5 %. Il n’empêche que cette croissance de 2,5 % est trois fois plus élevée que la hausse du nombre de contribuables gagnant moins de 100 000 $ en dollars de 2013 (0,8 %).

Cela dit, il est clair que nos riches sont proportionnellement moins nombreux que ceux du reste du Canada. En effet, en comparant les données fiscales fédérales pour le Canada avec celles pour le Québec, on observe que la proportion de contribuables qui gagnent au moins 250 000 $ est de 0,65 % au Québec, mais de 1,08 % dans le reste du Canada, soit une proportion qui est plus élevée de 64,3 %. Par contre, le revenu moyen de ces super-riches se ressemblait davantage (512 600 $ au Québec par rapport à 542 700 $ dans le reste du Canada, soit seulement 5,9 % de plus). De même, leur nombre a augmenté au même rythme au Québec et dans le reste du Canada entre 2013 et 2014, soit de 7,3 %. Bref, s’il est indéniable que la proportion de super-riches est plus élevée dans le reste du Canada qu’au Québec, cet écart est demeuré le même entre 2013 et 2014.

Revenus et impôts

Les quatrième et cinquième colonnes (intitulées «Revenus» et «Impôts»), montrent que si les 5,9 % des contribuables les plus riches, soit ceux gagnant au moins 100 000 $, payaient 36,7 % des impôts en 2014, ils avaient déclaré 25,7 % des revenus, soit plus de quatre fois plus que la moyenne. Et ceux et celles qui avaient déclaré au moins 250 000 $ ont payé 13,8 % des impôts, mais ont accaparé 9,0 % des revenus, soit entre 12 et 13 fois plus que leur proportion parmi les contribuables (0,72 %). Ils ont en moyenne amassé 526 200 $ chacun.e, soit plus de 17 fois la somme déclarée par le contribuable médian (celui dont la moitié gagne plus que lui et la moitié moins), soit environ 30 500 $.

Il est aussi intéressant de noter que les contribuables qui ont déclaré au moins 250 000 $ ont payé 16,6 % de leurs revenus totaux en impôt provincial, soit 53 % de plus que la moyenne (10,9 %, en tenant en compte les 36,7 % des contribuables qui n’en ont pas payé du tout même s’ils ont gagné 11,1 % de tous les revenus, dont 453 avaient déclaré au moins 250 000 $). En fait, si on considère que les contribuables ne déclarent que la moitié de leurs gains en capital, le véritable taux d’imposition des plus riches passe de 16,6 % à 15,3 %, taux moindre que celui des contribuables gagnant entre 200 000 $ à 249 999 $ (15,8 %). Ce nouveau taux (15,3 %) n’est plus que 43 % plus élevé que le taux moyen de 10,7 % (au lieu de 53 % plus élevé si on ne tient pas compte que seule la moitié des gains en capital sont déclarés). Notons aussi que les gains en capital sur la vente d’une résidence principale ne sont pas imposables, ce qui a coûté à l’État québécois environ 1,415 milliard $ en 2014 (voir la page vii, la onzième, de ce document). Mais, comme ce gain en capital n’est pas déclaré, le document ne donne aucune information sur le revenu des contribuables qui bénéficie de cette dépense fiscale importante.

Le tableau montre ensuite que les femmes ne déclarent que 41,7 % des revenus, même si elles sont 51,0 % des contribuables, et qu’elles paient 37,4 % des impôts. En fait, le revenu moyen déclaré en 2014 par les hommes (49 908 $) était 45,5 % plus élevé que le revenu moyen déclaré par les femmes (34 294 $). L’ampleur de cet écart pourrait étonner, mais il faut comprendre que les comparaisons de revenus portent souvent sur le marché du travail, alors que ces données portent sur toutes les sources de revenus. Non seulement les femmes sont désavantagées sur le marché du travail par leur salaire horaire plus faible et leur nombre moins élevé d’heures travaillées (les revenus d’emploi expliquent près des trois quarts de l’écart de 45,5 %), mais elles ont aussi moins de revenus d’autres sources, comme on le verra plus loin.

Il faut noter que notre système fiscal provincial est beaucoup moins progressif que le système fédéral, avec un taux maximal d’imposition de 25,75 %, à peine 61 % de plus que le taux le plus bas (16 %), alors que la différence est bien plus grande au fédéral, les taux passant de 15 % à 33 %, une différence de 120 %, soit le double de la différence au Québec. D’ailleurs, les contribuables québécois qui ont gagné 250 000 $ et plus par année ont payé 19,0 % de leurs revenus totaux en impôt fédéral (pourcentage 14,0 % plus élevé que celui de 16,6 % de l’impôt provincial, malgré l’abattement de 16,5 % auquel les contribuables québécois ont droit), soit 106 % de plus que la moyenne de 9,2 %, écart deux fois plus élevé que celui observé dans l’impôt provincial (53 %, je le rappelle).

Autres caractéristiques

La sixième colonne du tableau montre comment se répartit en fonction du revenu la Déduction pour frais d’exploration et de mise en valeur, qui est une déduction «relative aux ressources (notamment à l’égard d’actions accréditives ou d’autres participations) pour les frais d’exploration ou de mise en valeur engagés au Canada ou à l’étranger ou pour les frais engagés à l’égard de biens canadiens relatifs au pétrole ou au gaz» (voir la définition de la ligne 39 à la page 265). Déjà qu’il est douteux que l’État offre une déduction pour ce genre d’«investissement» (il dépense pour se faire vider son sous-sol), d’autant plus quand ces dépenses sont engagées à l’étranger (!), mais le tableau nous permet de constater que 90,3 % de cette déduction a été accordée en 2014 aux 5,9 % des contribuables qui ont eu un revenu d’au moins 100 000 $, et 66,7 % aux 0,7 % des contribuables ayant eu un revenu d’au moins 250 000 $ (soit 93 fois plus que leur proportion). Comme les femmes sont sûrement bien moins nombreuses dans les clubs des 100 000 $ et 250 000 $ et plus (le fichier ne fournit pas de données à ce sujet), on ne s’étonnera pas de constater qu’elles ne réclament que 18,6 % de ces déductions.

Les deux dernières colonnes de ce tableau montrent que les plus riches bénéficient de façon hors-norme des deux types de revenus qui sont imposés à un taux inférieur à celui appliqué aux autres types de revenus. Les contribuables ayant gagné 250 000 $ et plus par année ont en effet accaparé 48,2 % des gains en capital (67 fois plus que leur proportion parmi les contribuables), imposés à 50 % de leur valeur, et 37,5 % des dividendes, eux aussi imposés à un taux moindre (réduction dépendant du type de dividendes…). J’ai aussi remarqué que les revenus provenant des gains en capital déclarés ont augmenté beaucoup plus que les autres revenus entre 2013 et 2014, soit de 24,5 % par rapport à 2,9 %. Je n’ai aucun facteur en tête pour expliquer cette situation et ne peux que me promettre de surveiller cette évolution l’an prochain. Et les femmes n’ont déclaré que 34,8 % des gains en capital et 31,8 % des dividendes.

Les contribuables les plus riches bénéficient aussi de façon disproportionnée, quoique à un niveau moindre, des déductions associées aux Régimes enregistrés d’épargne retraite (REÉR). Les 0,72 % les plus riches ont bénéficié de 8,4 % de ces déductions (12 fois plus que la moyenne). Et j’imagine que si l’État ne contribuait pas autant à leur retraite, ils vivraient sûrement celle-ci dans la misère la plus abjecte… Voilà une bonne raison pour limiter le plafond des sommes qu’on peut déposer dans un RÉER comme le recommandent QS et la Coalition opposée à la tarification et à la privatisation des services publics. Et, j’oubliais, les femmes ne déclarent que 38,1 % de ces déductions.

Et alors…

Même si le portrait de cette année diffère un peu de celui des années précédentes, la conclusion demeure la même : «Et, je n’ai parlé que des sommes déclarées par les riches, pas de l’évasion fiscale ni des paradis fiscaux…», tout en sachant que les proportions de revenus détournés dans ces paradis ont plus tendance à augmenter qu’à diminuer… Malgré ce phénomène et les plaintes qu’on entend année après année sur le fait qu’on n’a pas assez de riches au Québec, leur nombre ne cesse d’augmenter! Mais, le gâteau ne sera jamais assez gros pour qu’ils acceptent de le partager davantage, à moins qu’on les y contraigne!

Utopies réalistes

15 janvier 2018

Avec son livre Utopies réalistes, Rutger Bregman, historien et journaliste néerlandais (de qui j’ai déjà présenté un texte dans ce billet), aborde des idées qu’on juge souvent naïves ou dépassées, comme «la réduction du temps de travail, le revenu universel, (…) la lutte contre la pauvreté et la réduction des inégalités, la taxation des flux financiers, et (…) l’ouverture des frontières». En lisant la quatrième de couverture (dans laquelle on lit aussi qu’il faut dépasser les «divisions traditionnelles gauche-droite»…), je ne savais pas trop à quoi m’attendre : aurais-je droit à un grand livre ou à un grand n’importe quoi?

1. Le retour de l’Utopie : L’auteur présente tout d’abord de nombreuses données montrant les progrès de l’humanité, notamment en termes de revenus, d’espérance de vie, de santé et de lutte à la pauvreté extrême. Notre existence serait tellement «riche, sûre et saine» que nous n’aurions plus «de nouveau rêve pour la remplacer, parce que nous ne pouvons imaginer de monde meilleur que le nôtre» et que «nous n’avons rien de mieux à proposer». Avec une entrée en matière basée sur des hypothèses aussi caricaturales et exagérées, tant sur l’évaluation de la situation actuelle que sur l’absence de propositions d’améliorations, je craignais encore plus que ce livre soit un grand n’importe quoi! Je me disais que cet auteur veut tellement démontrer sa thèse qu’il semble prêt à toutes les exagérations pour ce faire. Il conclut cette introduction en affirmant que notre existence est peut-être excellente, mais qu’elle est morne, manquant de rêves et d’utopies. Sans cette conclusion, ce livre aurait été bien court!

2. Pourquoi il faut donner de l’argent à chacun : L’auteur raconte quelques expériences réussies de remise de sommes d’argent directement à des groupes de personnes pauvres (à des sans abris dans des pays riches ou à des populations démunies dans des pays pauvres). Ces expériences lui font dire qu’il est plus efficace de donner de l’argent directement à des personnes pauvres que de leur offrir des services, car «les pauvres sont eux-mêmes les meilleurs experts de ce dont ils ont besoin», reprenant ainsi un mantra cher aux libertariens.

Il consacre le reste du chapitre à promouvoir le revenu de base, mais de façon confuse. Il le décrit comme une solution pour éradiquer la pauvreté dans sa version universelle (une même somme donnée à tout le monde, peu importe son revenu). Il fournit deux exemples. Il estime le coût de son implantation aux États-Unis à 175 milliards $, ce qui représenterait une somme annuelle de 540 $ environ par habitant (ou d’environ 700 $ par adulte), somme nettement insuffisante pour amoindrir et encore moins éradiquer la pauvreté. Il semble donc clair que ces 175 milliards $ correspondent plutôt au coût d’un impôt négatif ou d’un revenu minimum garanti qui comblerait la différence entre le revenu d’une personne (ou d’un ménage) et un seuil de faible revenu (mais comme il dit que le revenu d’emploi s’ajouterait à ce revenu de base, cela ne marche pas non plus). L’autre exemple est la somme variant entre 800 et 2000 $ remise annuellement aux adultes en Alaska, somme encore là insuffisante pour éliminer la pauvreté. En plus, ce chapitre contient quelques inexactitudes, parlant par exemple d’un «programme canadien de sécurité sociale (medicare)» implanté en 1970, alors que ces programmes relèvent des provinces et n’ont pas tous été implantés en même temps. On en vient à douter quand il cite des «faits» que nous ne connaissons pas.

3. La fin de la pauvreté : L’auteur explique quelques conséquences de la pauvreté et des inégalités, aussi bien sur l’alimentation et les aptitudes que sur le stress, l’espérance de vie et d’autres domaines (criminalité, éducation, population carcérale, obésité, alcoolisme, etc.) puis propose des solutions, dont la plus efficace serait de donner de l’argent aux pauvres (on s’en serait douté).

4. L’étrange conte du président Nixon et de son projet de loi sur le revenu de base : L’auteur raconte à quel point les États-Unis sont passés proches d’adopter un revenu de base sous Richard Nixon, et le rôle qu’a joué l’histoire de la Loi de Speenhamland dans cet échec (notamment la version de cette histoire présentée par Karl Polanyi dans son livre La grande transformation dont j’ai parlé dans ce billet). Il dénonce ensuite les programmes dits de lutte à la pauvreté qui séparent les «bons pauvres» et les «mauvais pauvres» (comme le fait le récent plan de lutte à la pauvreté du Québec). Là, nous sommes d’accord!

5. De nouveaux chiffres pour une nouvelle ère : L’auteur explique les limites et les lacunes du PIB, puis présente quelques autres mesures de bien-être. Ce chapitre est de bonne tenue, même si j’ai lu de meilleurs textes sur le sujet (et en ai écrits de nombreux, dont cette série de trois billets).

6. La semaine de quinze heures : Le nombre d’heures de travail a constamment diminué de la révolution industrielle au milieu du XXe siècle. De nombreux analystes, dont John Maynard Keynes et Isaac Asimov, prévoyaient l’avènement de la société des loisirs et de la semaine de travail de 15 heures dès le début du XXIe siècle. Or, ce n’est pas vraiment ce qui est arrivé… Si le nombre d’heures moyennes travaillées par personne a continué à diminuer un peu dans les pays industrialisés, cette moyenne par ménage a augmenté, notamment en raison de la plus grande participation des femmes au marché du travail. L’auteur décrit ensuite les avantages qu’il y aurait de diminuer fortement la moyenne d’heures travaillées : hausse de la productivité, moins de stress, diminution des émissions de gaz à effet de serre, moins d’accidents de travail, baisse du chômage, etc.

7. Pourquoi il n’est pas payant d’être banquier : Ce chapitre est la version française de ce texte dont j’ai parlé dans le billet que j’ai cité en amorce. L’ayant reconnu rapidement, je ne l’ai pas relu.

8. La course contre la machine : L’auteur aborde maintenant la possibilité que les machines remplacent les humains dans le travail. Comme bien d’autres, il cite pour appuyer ses dires l’étude la plus critiquée sur le sujet, celle de Carl Benedikt Frey et Michael A. Osborne, étude qui prévoit la disparition de la moitié des emplois en seulement 10 ou 20 ans et qui a été brillamment démolie par une autre étude de l’OCDE dont j’ai parlé dans ce billet, et par la suite par bien d’autres études mieux fondées (ainsi que dans un texte que j’ai présenté plus tôt cette semaine). Bref, il s’agit d’un chapitre dans lequel l’auteur semble davantage chercher à confirmer ses thèses qu’à se poser des questions et à chercher des réponses.

9. Par-delà les portes du pays d’abondance : Que ce soit dans l’aide internationale ou dans la lutte à la pauvreté, il est important d’évaluer l’effet concret des mesures à adopter plutôt que de se contenter d’appliquer des modèles économiques théoriques. Les résultats de telles évaluations réservent souvent des surprises, les mesures les plus efficaces n’étant pas toujours celles qui nous semblent les plus pertinentes. Pour aider les pays pauvres, l’auteur recommande l’ouverture des frontières, ce qui aurait selon lui un impact majeur pour lutter contre la pauvreté.

10. Comment les idées changent le monde : À l’aide de quelques exemples, l’auteur avance que ce sont davantage les chocs qui peuvent amener des gens à changer d’idée que les analyses rationnelles. Il raconte ensuite la montée des idées néolibérales appuyées, à l’encontre des idées ambiantes, par Friedrich Hayek et Milton Friedman. S’il est vrai que le retour de ces idées doit beaucoup à ces deux économistes (ainsi qu’aux autres membres de la Société du Mont Pèlerin), il passe sous silence l’appui financier qu’ils ont reçu des puissants de ce monde (le texte de Wikipédia sur cette organisation mentionne d’ailleurs cet appui ainsi que le fait que «plus de 100 instituts libéraux ont été créés par des membres» de cette société). Cette omission illustre éloquemment l’habitude de l’auteur de tourner les coins ronds et de tasser les faits qui atténuent la portée de ses thèses.

Épilogue : Pour pouvoir réaliser des idées qui semblent radicales ou même utopiques, il faut les rendre acceptables, comme le font Trump et certains partis d’extrême droite. Selon lui, les partis de gauche devraient s’en inspirer.

Et alors…

Lire ou ne pas lire? Bof. Finalement, sans être du grand n’importe quoi, ce livre est loin d’être un grand livre et ne m’a pas du tout impressionné. C’est ça le problème quand on lit un livre sur des sujets qu’on connaît mieux que l’auteur! Si certaines de ses idées valent le détour, comme sur la réduction du temps de travail, la fixation de trop de personnes sur l’indicateur qu’est le PIB plutôt que sur ce qu’il est censé mesurer (le bien-être, voire le bonheur) et les emplois inutiles (voire nuisibles), j’ai lu bien des textes qui les rendent mieux. Dans plusieurs chapitres, l’auteur applique ce qu’il dénonce chez d’autres, soit la recherche de faits et de données qui appuient ses idées (biais de confirmation) en ignorant ceux et celles qui les contredisent ou les nuancent, ou même en trafiquant ces données et faits. Finalement, bravo aux notes en bas de pages, mais chou pour l’édition qui comporte beaucoup d’erreurs (par exemple, en mélangeant à la page 191 un jour avec un mois et des unités avec des milliards…).

Quelques études sur l’automatisation des emplois (3)

12 janvier 2018

Ce billet est le dernier d’une série de trois sur les récentes études sur l’automatisation de l’emploi. Après avoir présenté deux études sur l’impact qu’aura l’intelligence artificielle sur l’emploi au cours des prochaines décennies et deux autres sur les effets passés des changements technologiques sur l’emploi, je vais ici en commenter deux autres qui portent sur des sujets bien différents.

Une technologie à usage général

La première étude que je vais présenter est intitulée The Impact of Artificial Intelligence on Innovation (L’impact de l’intelligence artificielle sur l’innovation), date de septembre 2017 et a été rédigée par Iain M. Cockburn, Rebecca Henderson et Scott Stern. Les auteur.es précisent qu’il s’agit d’une version préliminaire, qu’elle n’a pas été révisée par des pairs et qu’on doit donc ne pas la citer ou la commenter. Comme je ne compte mentionner que quelques aspects de cette étude, je respecterai donc l’esprit de cette demande. Notons que cette étude n’était plus sur Internet quand j’ai publié ce billet. Je vais tout de même laisser le lien au cas où elle revienne.

Cette étude ne s’intéresse pas directement aux effets de l’intelligence artificielle (IA) sur l’emploi, mais sur l’innovation, qui a, dans un deuxième temps, des effets sur l’emploi. Les auteur,es soulignent tout d’abord que, si l’IA a le potentiel de changer le processus d’innovation en lui-même, aucune tentative à cet effet n’en est arrivée là jusqu’à maintenant. En fait, mis à part certaines applications en robotique et dans quelques autres domaines, les auteur.es se demandent jusqu’à quel point l’IA ne sert pas seulement à implanter de nouvelles technologies, mais n’est pas aussi et surtout une technologie à usage général (TUG) qui influencera les progrès technologiques à long terme dans une foule de domaines difficiles à identifier pour l’instant. Elle inventerait alors une nouvelle méthode d’invention (les auteur.es parlent d’«invention of a method of invention») qui lui permettrait de s’adapter à des contextes particuliers et d’ainsi créer des types d’innovations plus variées, notamment grâce à ses capacités en apprentissage automatique («machine learning»). Les auteur.es donnent comme exemple de TUG l’invention des moteurs électriques qui a permis dans un premier temps seulement quelques applications, mais a entraîné à long terme des changements technologiques et organisationnels dans un grand nombre de secteurs économiques et même la création de nouveaux secteurs. Il en fut de même avec l’invention du microprocesseur.

L’étude se penche ensuite sur d’autres aspects de la question. Par exemple, les auteur.es s’inquiètent de la possibilité que des entreprises revendiquent la propriété de données massives d’usage général et que les règles de la propriété intellectuelle puissent ralentir certaines applications de l’IA : «Des droits de propriété trop restrictifs, sans possibilités d’utilisation par d’autres selon des conditions acceptables, peuvent entraîner un empêchement («hold-up», en anglais) pour la création d’innovations de stades ultérieurs et ainsi réduire l’impact final de l’IA en termes d’applications commerciales (ou autres)».

Les auteur.es abordent d’autres sujets dans les sections suivantes, mais compte tenu de leur demande, je vais m’arrêter là. Les deux éléments que j’ai présentés (le concept de technologie à usage général associé à l’IA ainsi que les conséquences possibles de la propriété intellectuelle) permettent de mieux comprendre qu’une bonne partie des innovations mentionnées dans les études futuristes risquent en fait de ne se réaliser qu’à long terme, et non pas d’ici cinq, dix ou même vingt ans comme trop d’études le prétendent. C’est déjà beaucoup.

Les sept péchés capitaux des prévisions sur l’intelligence artificielle

«Nous sommes inondés de prévisions hystériques à propos de l’intelligence artificielle et de la robotique, nous avertissant qu’elles vont devenir tellement puissantes, et cela tellement rapidement, et qu’elles seront impitoyables pour les emplois». Ainsi commence un texte de Rodney Brooks, un roboticien et entrepreneur en robotique australien, datant d’octobre 2017, et intitulé The seven deadly sins of AI predictions (Les sept péchés capitaux des prévisions sur l’intelligence artificielle). Tout de suite après cette amorce percutante, l’auteur fait comme je l’ai fait souvent, il dénonce les conclusions de l’étude de Carl Benedikt Frey et Michael A. Osborne qui prévoyait en 2013 la disparition de la moitié des emplois en seulement 10 ou 20 ans, la jugeant carrément ridicule. Il donne comme exemple la prévision de cette étude comme quoi le nombre de manœuvres en aménagement paysager et en entretien des terrains passerait d’un million à 50 000 d’ici 10 à 20 ans parce qu’ils seraient remplacés par des robots, alors qu’aucun robot n’existe actuellement dans ce domaine (j’ajouterai que ce travail étant extérieur, dans un environnement non contrôlé, il devrait être un des moins menacés par l’automatisation). Inspiré par cette étude bâclée, l’auteur présente les sept erreurs les plus classiques des futurologues catastrophistes.

1. Surestimation et sous-estimation : À ce sujet, l’auteur cite la Loi d’Amara : «on tend à surestimer l’effet d’une technologie à court terme et à sous-estimer ses effets à long terme». Il donne comme exemple de l’application de cette citation le Global Positioning System (ou GPS) qui bien que mis en place de 1973 à 1978 (pour faciliter la livraison de munitions pour l’armée), sera peu utilisé pour la fonction pour laquelle il a été créé, mais est maintenant répandu partout, représentant notamment une application de base dans les téléphones cellulaires. Ses concepteurs ont sûrement été déçus du peu d’utilisation du système à ses débuts par l’armée, mais seraient renversés de le voir maintenant comme un outil de base. Il en sera probablement de même avec l’intelligence artificielle (IA) : ses premiers développements datent des années 1950 et on a surestimé son impact initialement et on sous-estime sûrement encore maintenant ses impacts à long terme, la seule incertitude étant la durée de ce «long terme».

2. Imaginer la magie : Cette fois, l’auteur nous parle des Trois lois de Clarke, du nom d’un écrivain de science-fiction qui croyait que rien n’est impossible, qu’il y a aucune limite aux possibilités de la technologie. En réaction à ces «lois», l’auteur imagine comment Newton réagirait s’il se faisait montrer un téléphone cellulaire qui peut servir à photographier, filmer, s’éclairer, se retrouver, communiquer avec des personnes à l’autre bout du monde, etc. Newton, n’ayant jamais même rêvé qu’une telle chose pourrait exister un jour, ne pourrait simplement pas imaginer les limites des possibilités de cet objet, comme le fait qu’on doit le recharger (l’électricité n’était pas découverte à son époque), que le fabricant peut le ralentir volontairement (OK, celle-là n’est pas dans le texte de Brooks…) ou qu’il ne peut pas nous téléporter ou transformer du cuivre en or (blague probablement basée sur le fait que Newton a fait de nombreuses recherches en alchimie). Selon l’auteur, un des problèmes quand on tente de prévoir les possibilités d’une nouvelle technologie est qu’on ne peut pas imaginer ses limites et qu’on ne peut pas non plus réfuter les affirmations même les plus ridicules. Il conclut ainsi ce péché : «Méfiez-vous des arguments qui avancent que la technologie future sera magique. Un tel argument ne peut jamais être réfuté. C’est un argument basé sur la foi, pas un argument scientifique».

3. La performance par rapport à la compétence : Quand on va dans une ville étrangère, on peut sans trop craindre de se tromper penser qu’une personne y habitant saura comment se rendre à un endroit précis. le mode de paiement d’un passage en transport en commun et bien d’autres informations sur cette ville. Nous sommes habitués à ainsi associer des compétences différentes. Par exemple, si une personne montre une photo de joueurs de frisbee, on pense qu’elle sera capable d’en reconnaître un et saura minimalement comment y jouer. Mais, ce n’est pas parce qu’un ordinateur contient la même photo qu’il saura ces choses. Ainsi, lorsqu’on apprend qu’un ordinateur peut réaliser une tâche humaine mieux que les humains, on tend à penser qu’il sera capable d’accomplir mieux toutes les autres tâches que peut accomplir une personne qui réalise la tâche que l’ordinateur peut réaliser mieux qu’elle. On pense qu’il ne pourra pas seulement remplacer un humain pour une tâche qu’il accomplit mieux, mais pour toutes les tâches que cet humain réalise. En fait, «les tâches que les robots et systèmes d’IA d’aujourd’hui peuvent accomplir sont incroyablement limitées. Les généralisations qu’on peut faire avec des tâches accomplies par des humains ne s’appliquent pas aux robots».

4. Les mots-valises : En anglais, un mot-valise («suitcase words») est un mot qui peut avoir plusieurs sens (alors qu’en français, il résulte «de la fusion d’éléments empruntés à deux mots»). Apprendre («learn») est un exemple de ces mots. «Apprendre à utiliser des baguettes est une expérience très différente de l’apprentissage d’une nouvelle chanson. Et apprendre à écrire du code est une expérience très différente d’apprendre à se retrouver dans une ville». Malgré ces différences, trop de gens qui entendent parler de l’apprentissage automatique («machine learning») associent cet apprentissage à celui d’un humain qui apprend une nouvelle compétence. L’apprentissage automatique est en fait beaucoup plus lent et fragile que celui d’un humain, et est conçu pour des compétences bien précises, avec «une structure d’apprentissage spécifique à chaque nouveau domaine à apprendre». L’ordinateur qui a appris à jouer au go et à y battre les meilleurs joueurs humains devrait repartir à zéro si on voulait qu’il apprenne un nouveau jeu, ou même une variante du jeu de go. Ses compétences acquises pour cette tâche ne sont pas du tout transférables. Selon l’auteur, ce mot-valise et d’autres utilisés par les chercheur.es et surtout par les responsables à l’information induisent les gens en erreur sur les aptitudes des machines.

5. Exponentiel : J’ai déjà pensé utiliser ce mot dans ma série sur les expressions qui me tapent sur les nerfs… Comme moi, l’auteur déplore que trop de gens «souffrent d’un grave problème d’«exponentialisme». Il nous rappelle cette fois la Loi de Moore, qui, dans ses trois versions, avance que certaines choses doublent avec la régularité d’une horloge (chaque année, aux dix-huit mois ou aux deux ans). En fait, sa loi a fonctionné des années pour le nombre de transistors que peuvent contenir des semi-conducteurs, mais a fini par atteindre ses limites physiques. L’exponentialisme consiste à appliquer la Loi de Moore à différents sujets et à se servir de cette loi comme argument pour justifier son raisonnement, argument qui devient bien sûr à ce moment un sophisme. Mais le pire, on l’a vu, c’est que la progression des lois de Moore n’est pas vraiment exponentielle, car elle finit toujours par atteindre des limites physiques ou de rentabilité (ça coûterait trop cher de doubler encore et la demande ne le justifie pas). Il en est de même en IA. S’il est vrai que la performance de l’IA a connu une progression fulgurante au cours des dernières années, notamment grâce au succès de l’apprentissage profond (ou «deep learning»), rien ne dit que ce rythme de progression se poursuivra. Au contraire, il serait étonnant qu’une autre découverte aussi importante que l’apprentissage profond survienne annuellement… Cela dit, il y aura certainement d’autres périodes de forte croissance, mais il n’y a aucune loi pour régir ou prévoir la fréquence de ces périodes.

6. Les scénarios hollywoodiens : Dans les films de science-fiction, on présente généralement l’avenir comme s’il était comme maintenant, mais avec des progrès énormes dans seulement quelques domaines, le reste étant semblable à ce qu’on vivait au moment du tournage. L’auteur donne l’exemple d’un film où le héros parle avec un robot avant d’ouvrir un journal en papier (L’Homme bicentenaire). C’est souvent le cas des gens qui craignent que l’IA permette aux machines de prendre le contrôle du monde et de se débarrasser des êtres humains. Ils ne réalisent pas que si de tels progrès survenaient, cela se ferait de façon graduelle et que bien d’autres choses auraient changé. Ces «robots» superintelligents n’apparaîtront pas soudainement pour nous prendre par surprise. Nous aurons en masse le temps de réagir, notamment avec d’autres machines moins malignes et moins belliqueuses. «Nous allons changer notre monde graduellement, en ajustant à la fois l’environnement pour les nouvelles technologies et les nouvelles technologies elles-mêmes. Je ne dis pas qu’il n’y a pas de défis. Je dis qu’ils ne seront pas soudains et inattendus, comme beaucoup le pensent».

7. Vitesse de déploiement : Si mettre à jour un logiciel est rapide, c’est parce que c’est peu coûteux, avec un coût marginal presque nul (mettre un milliard de copies de Facebook à jour ne coûte pas beaucoup plus cher que de mettre une seule copie à jour). Par contre, le déploiement de l’équipement informatique est beaucoup plus coûteux, chaque appareil représentant une dépense non négligeable. De même, un bon nombre des autos et des camions actuellement sur nos routes le seront encore dans 10 ou même 20 ans. Ce facteur fait en sorte que, même si les véhicules autonomes étaient au point (ce qui n’est pas le cas), leur déploiement ne pourrait pas être instantané, ni même rapide, d’autant plus que rien ne dit que ce seront tout d’un coup les seuls véhicules vendus sur le marché (il se vendra encore des automobiles non autonomes bien moins chères quand les premières voitures autonomes seront sur le marché, et ces automobiles circuleront sur nos routes pendant des années). L’auteur donne ensuite de nombreux autres exemples du genre (maisons, avions, ordinateurs, vieux logiciels encore opérants, etc. Il conclut :

«De nombreux chercheurs et experts de l’IA s’imaginent que le monde est déjà numérique et que la simple introduction de nouveaux systèmes d’IA se traduira immédiatement par des changements opérationnels sur le terrain, dans la chaîne d’approvisionnement, dans l’usine, dans la conception des produits. Rien ne pourrait être plus éloigné de la vérité. Presque toutes les innovations en robotique et en intelligence artificielle prennent beaucoup, beaucoup plus de temps pour être réellement déployées que les gens sur le terrain et en dehors du champ imaginent.»

Et alors…

Les deux textes présentés dans ce troisième billet sur l’automatisation des emplois portent sur des aspects non traités dans les billets précédents. Le premier nous permet de mieux comprendre ce qu’est une technologie à usage général et les conséquences de cet aspect et des règles de propriété intellectuelle sur la vitesse d’implantation des applications de l’IA, tandis que le deuxième, probablement celui que j’ai préféré des six textes présentés dans cette série, souligne avec compétence et de façon claire et amusante les erreurs de faits et de raisonnement les plus courantes chez les personnes qui pensent que l’IA modifiera notre monde de façon fondamentale d’ici moins de 20 ans.

Depuis le début de cette série, on n’a pas arrêté d’écrire sur le sujet. J’ai d’ailleurs lu la semaine dernière une autre étude sur ce sujet, mais même si elle contient deux ou trois trucs intéressants sur les dangers de l’utilisation de l’IA pour aider les institutions financières à prendre des décisions sur leurs clients à l’aide de données personnelles massives, je ne vais pas la présenter ici. Je vais plutôt attendre de mettre la main sur des textes qui apportent des contributions importantes à la compréhension du phénomène de l’automatisation des emplois, comme les six que j’ai présentés dans cette série de billets, avant de revenir sur ce sujet. J’espère que vous avez apprécié!