Skip to content

L’idolâtrie du marché

8 août 2016

idolâtrieLe livre L’idolâtrie du marché – critique théologique de l’économie de marché de Hugo Assmann et Franz Josef Hinkelammert m’a été recommandé par Ianik Marcil. Il vise à montrer que le capitalisme, notamment ses croyances sur le rôle automatiquement bénéfique des marchés, comporte de nombreuses ressemblances avec les dogmes religieux. Comme il s’agit d’un livre relativement complexe, je vais me contenter d’en présenter seulement quelques parties. Cela permettra tout de même de comprendre son approche.

Les présupposés tacites

Assmann s’attarde dans le deuxième chapitre à un ensemble d’hypothèses qui sous-tendent les modèles économiques orthodoxes (surtout classiques et néoclassiques, mais pas seulement), mais qui ne sont pas présentées de façon explicite ou suffisamment explicite. Ce qu’il appelle les «présupposés tacites» seraient, selon lui, «étrangers et contraires à la vie». Je vais ici citer les plus importants :

  • la théorie orthodoxe ne tient pas compte des valeurs, considérant qu’elles n’ont pas leur place en économie; pourtant tout l’édifice de l’économie classique repose sur la supposée préséance des intérêts privés qui permettraient, grâce à l’intervention quasi divine de la main invisible, d’assurer le bien-être de tout le monde; la théorie ne précise pas que la préséance des intérêts privés n’est pas une création spontanée, comme elle veut nous le faire croire, mais est en fait une application de l’utilitarisme;
  • cette théorie n’accorde officiellement aucune importance aux inégalités, car elle présuppose que le marché redistribue toujours de la façon la plus efficace;
  • les marchés et la théorie classique ne peuvent pas tenir compte des externalités; comme elles embêtent les économistes classiques, ils préfèrent ne pas les intégrer à leur théorie;
  • cette théorie repose aussi sur le concept de l’équilibre vers lequel tout marché tend, sans jamais démontrer qu’un tel équilibre existe;
  • la théorie évacue ce qui l’embête d’autres façons, notamment en supposant que les actions ne sont pas liées entre elles, abusant de l’expression «ceteris paribus» (toute chose étant égale par ailleurs), alors qu’aucune activité économique ne peut être réalisée pendant que rien d’autre ne change;
  • on suppose que l’être humain est parfaitement rationnel (l’homo œconomicus), sans tenir compte de ses véritables comportements;
  • le travail et la souffrance du travailleur n’ont aucune valeur en soi, seul le prix sur le marché nous indique la valeur de ce qui a été créé par le travail;
  • on ne tient nul compte de l’efficience sociale du capitalisme (ou de son inefficience…);
  • le modèle classique repose sur des raisonnements circulaires (c’est comme cela parce c’est comme cela) et est donc non réfutable, par le fait même non scientifique (voir Karl Popper).

L’idolâtrie du marché

Le marché est pour beaucoup de monde la seule solution, la seule vérité. Comme le disait Margaret Thatcher, il n’y a pas d’autre choix (l’auteur cite Hayek qui a dit la même chose dans les années 1970; or Thatcher s’inspirait beaucoup de Hayek…). Hors des marchés, point de salut! Il est ironique de constater que ce livre a été écrit en 1989, l’année où fut conçu le consensus de Washington, recette qui fut par la suite imposée par le FMI et la Banque mondiale aux pays qu’ils «aidaient» en exigeant des ajustements structurels considérés comme la seule façon de prendre la voie de la croissance, notamment en Amérique du Sud, région d’où vient Assmann… Et cela n’est qu’un aspect de ce que l’auteur appelle l’idolâtrie du marché :

  • les péchés (égoïsme, cupidité, intérêt privé, etc.) ne sont pas que pardonnés, mais deviennent des vertus grâce à la magie de la main invisible, assurant le bien-être de tout le monde;
  • mais, pour que la main invisible agisse correctement, il faut la laisser faire pour que la destinée promise par le marché se réalise;
  • il faut aussi faire des sacrifices au dieu marché, en se serrant la ceinture, en payant sa juste part (ça, ce n’est pas dans le livre…), en endurant le travail mal payé, en acceptant un taux de chômage dit naturel et un taux de pauvreté dit «normal», et en souffrant pour pouvoir aller au ciel… euh, je veux dire avant que la magie du retour à l’équilibre ne daigne manifester ses effets grâce à sa capacité autorégulatrice (l’auteur revient plus loin plus en détail sur le concept du sacrifice);
  • on personnalise aussi le marché pour nous convaincre de son autonomie : non seulement peut-il être nerveux, mais il peut aussi connaître la panique ou subir l’épreuve de l’angoisse, tout en pouvant «vivre» des périodes d’euphorie;
  • à l’inverse, l’être humain, qui doit pourtant être l’objectif premier de toute activité économique, est assimilé à une marchandise, devient une ressource humaine, comme l’environnement qui devient une ressource naturelle et qui n’a aucune autre valeur.

L’auteur conclut :

«L’idolâtrie est un phénomène qui imprègne les relations commerciales en tant que telles, dans la mesure où elles se déroulent dans une atmosphère préservée de toute considération de caractère non mercantile, en relation avec la vie sociale des hommes. (…) L’idolâtrie du marché est, en premier lieu, la conviction, pratique et non critique, que les critères de marché sont l’élément déterminant et tendanciellement exclusif permettant de juger de la valeur d’une gestion de l’économie.»

Les sacrifices humains

Les religions ont bien souvent valorisé les sacrifices pour calmer son dieu ou lui plaire. Le sacrifice du fils de Dieu (pour faire pardonner les humains) dans le christianisme en est un exemple patent. L’auteur donne plein d’autres exemples, dont l’Inquisition, les Croisades et bien d’autres guerres religieuses.

L’économie néolibérale n’est pas en reste. Elle aussi aime bien les sacrifices. Pour compléter les exemples mentionnés plus tôt, l’auteur mentionne :

  • le terrorisme économique;
  • la destruction de la nature;
  • la pollution délétère;
  • les attaques à la santé et à la vie de travailleurs et de populations entières (l’auteur ne pouvait connaître le sacrifice des employées du Rana Plaza, mais connaissait notamment les piètres conditions de santé et sécurité au travail dans les mines);
  • que l’économie néolibérale prétend que seule une minorité est censée être sacrifiée, alors que, dans les pays pauvres, c’est la majorité qui l’est (et avec la hausse des inégalités, cette proportion tend aussi à augmenter dans les pays riches);
  • que les mesures d’austérité, imposées à l’époque surtout dans les pays en développement mais de nos jours imposées surtout en Europe et, dans une moindre mesure ici, font aussi augmenter l’importance de cette minorité sacrifiée.

La suite

Pour la suite du livre, je vais me limiter à mentionner les principaux sujets abordés :

  • les conditions dans lesquelles des sacrifices sont acceptables;
  • les principes à la base de la théologie de la libération;
  • (les sujets suivants sont écrits par Franz Josef Hinkelammert) les liens, les spécificités et les oppositions entre les sphères économiques et politiques;
  • les liens entre le fondamentalisme chrétien et le néolibéralisme aux États-Unis (et ailleurs);
  • l’économie néolibérale et les politiques du développement, de l’environnement et de la paix;
  • l’instrumentalisation du ciel (dans le sens de paradis) pour convaincre les pauvres de ne pas se révolter, car ils seront éternellement heureux au ciel, mais iront en enfer s’ils se révoltent;
  • la vision de Marx et des marxistes de la religion et de ses idoles;
  • la relation entre la théologie et l’économie, surtout en regard de la situation de la pauvreté et de l’exclusion.

Et alors…

Lire ou ne pas lire? Je ne sais pas trop… D’une part, les thèses présentées dans ce livre sont originales et pertinentes. D’autre part, j’ai eu souvent beaucoup de difficulté à suivre les raisonnements des auteurs, idolâtrie1surtout du premier. Ce n’est pas l’aspect religieux qui m’a dérangé, mais la propension de l’auteur de fonctionner en spirale (comme trop d’écrits philosophiques…), c’est-à-dire de faire le tour de la question en cercles qui se rapprochent de l’objet de son propos, mais trop souvent sans l’atteindre! Ou, s’il l’atteignait, j’étais trop perdu pour m’en apercevoir…

J’exagère bien sûr un peu, sinon je n’aurais jamais pu écrire ce billet! Mais il demeure que ce genre de livre me donne parfois un peu mal à la tête…

La capture de la réglementation

6 août 2016

captureDepuis quelques semaines, je ne cesse de voir des textes défiler sur la «regulatory capture». Cette expression, que je ne connaissais pas la première fois que je l’ai vue, se traduit difficilement. Wikipédia parle de la théorie de la capture qui vient des travaux de George Stigler, un lauréat du Prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel, appelé communément et faussement Prix Nobel d’économie. Cette théorie de la capture (datant de 1971) «décrit une situation lors de laquelle une institution publique de régulation, bien que destinée à agir en faveur de la collectivité, finit par servir des intérêts commerciaux et/ou privés». L’engouement récent pour ce concept vient entre autres de la campagne de Bernie Sanders au cours de laquelle il a notamment déclaré que le congrès ne réglemente pas Wall Street, mais que c’est Wall Street qui réglemente le congrès…

C’est en lisant un billet de Guy Rolnik (à la suggestion du blogue Economist’s View, encore une fois) que j’ai entendu parler de l’étude de James Bessen intitulée Accounting For Rising Corporate Profits: Intangibles Or Regulatory Rents? (Qu’est-ce qui explique la hausse des bénéfices des sociétés, les intangibles ou les rentes réglementaires?).

Objectif

capture1L’auteur a décidé de réaliser cette étude en observant une hausse importante de la valeur boursière des sociétés non financières par rapport à leurs actifs depuis les années 1970, comme le montre le graphique ci-contre. Ce graphique est basé sur deux sources de données donnant sensiblement le même résultat (pas en valeur, mais en tendance). Il examine l’évolution du logarithme de la valeur de ce qu’on appelle le Q de Tobin, indicateur qui représente justement la valeur boursière d’une entreprise sur la valeur de remplacement de son capital fixe. Mais, peu importe les détails techniques des calculs derrière ce graphique, il montre bien la tendance qui a amené l’auteur à se demander pourquoi la valeur boursière des sociétés par rapport à leurs actifs a augmenté de façon aussi nette.

Comme l’auteur a un passé fortement axé sur la technologie (comme ingénieur de logiciel, il a créé le premier programme WYSIWYG ou what-you-see-is-what-you-get, permettant de montrer à l’écran exactement ce que vous imprimerez), il pensait que la hausse observée de la valeur des sociétés par rapport à leurs actifs était due essentiellement aux profits (qui ont aussi augmenté, voir le graphique de la page numérotée 44 de l’étude) provenant de leurs investissements en technologie et donc de l’innovation.

Il s’est donc dit que ce serait intéressant de creuser la question. Si son hypothèse était exacte, il n’y aurait pas trop de problèmes, car la création de telles rentes (soit un accaparement de profits trop élevés) résulterait de l’apport de l’innovation à l’économie. Par contre, de telles rentes peuvent aussi provenir de la création de monopoles (ou d’oligopoles) ou encore pire, de la capture de la réglementation. Or, de nombreuses études ont montré que, lorsque des rentes proviennent de ces deux dernières sources, elles font croître les inégalités et nuisent à l’efficacité économique.

Données

L’auteur a utilisé quatre sources de données principales (je résume…) pour analyser la provenance de l’augmentation des rentes des sociétés non financières au cours des dernières décennies :

  • la valeur des investissements en nouvelles technologies, les dépenses de publicité et les investissements organisationnels;
  • le niveau de concentration des entreprises;
  • les dépenses des entreprises en lobbying et en financement de campagnes électorales;
  • l’intensité de la réglementation.

Si des études ont estimé que les dépenses des entreprises en lobbying et en financement de campagnes électorales peuvent apporter aux entreprises plus de 200 fois leurs «investissements», le rôle de la réglementation dans la création de rentes est plus difficile à déterminer. D’une part, la réglementation peut aussi bien faire diminuer les rentes (en réglementant le prix des produits vendus par un monopole ou par un secteur oligopolistique, par exemple) que les faire augmenter (par exemple en rendant plus difficile l’accès à une industrie, ce qui réduit la concurrence). Ce dernier point est justement celui soulevé au début des années 1970 par Stigler. L’auteur donne l’exemple de la réglementation de l’industrie oligopolistique de la télévision par câble au début des années 1990. Avec cette réglementation, l’accès à cette industrie est devenu plus difficile pour d’autres sociétés et les entreprises existantes ont simplement diminué leurs coûts en changeant leur programmation (émissions moins coûteuses et plus de reprises) pour conserver et même faire augmenter leurs profits et donc leurs rentes. En plus, des réglementations n’ayant pas nécessairement de liens avec le lobbying ou le financement de campagnes électorales peuvent aussi permettre aux entreprises d’une industrie d’augmenter ses rentes. Par exemple, une réglementation environnementale ou durcissant les règles comptables rend aussi l’accès aux industries touchées plus difficile, permettant aux sociétés déjà présentes d’éloigner la concurrence et de profiter des «trous» (loopholes) dans ces réglementations.

Le principal apport de cette étude est d’avoir pu utiliser des données sur l’intensité de la réglementation pour déterminer si la réglementation a davantage fait diminuer ou augmenter les rentes au cours des capture2dernières décennies. L’auteur s’est servi d’une base de données récente (Regdata) créée à l’aide de procédés semblables à ceux utilisés pour analyser les données massives. Cette base de données compile la fréquence de certains termes restrictifs dans la réglementation adoptée depuis 1970, comme «doit» «ne peut pas» «interdit» «requis» et associe ses résultats à des industries spécifiques. Le graphique ci-contre montre par exemple l’augmentation ahurissante du nombre de termes restrictifs associés à l’industrie de la production, du transport et de la distribution d’électricité.

Résultats

Je vais me contenter ici de présenter les principaux résultats sans parler de la méthodologie utilisée, d’autant plus que l’auteur a fait plein de tests avec différentes variables pour valider ses résultats. Je vais même me concentrer sur seulement deux résultats.

Le premier résultat est illustré dans le graphique qui suit (graphique provenant d’un article portant sur cette étude auquel ne n’ai plus accès, ayant atteint les quatre pages par mois que le site du Harvard Business Review offre gratuitement). Il montre l’impact des quatre principaux facteurs étudiés sur la hausse de la valeur boursière des sociétés non financières par rapport à leurs profits entre 1971 et 2013.

capture3

Ce graphique montre que le facteur qui explique le plus cette hausse est le stock d’investissement en capital, mais suivi de très près par les dépenses en lobbying et en financement de campagnes électorales, effet jumelé ici avec l’intensité de la réglementation (facteur que j’appellerai à l’avenir LFCÉIR). Suivent de très loin les dépenses en recherche et développement, alors que les dépenses administratives (notamment en publicité et marketing) n’ont eu qu’un rôle mineur dans cette hausse. Comme la concentration des entreprises n’a eu aucun impact sur cette hausse, l’auteur n’a pas présenté ce facteur dans son graphique. Il ajoute toutefois certaines précisions pour mieux comprendre ce graphique :

  • les dépenses en capital et en recherche et développement sont des centaines de fois plus élevées que celles en lobbying et en financement de campagnes électorales et créent donc beaucoup moins de rentes par dollar qu’on y consacre;
  • seulement 18 % des entreprises étudiées effectuent des dépenses en lobbying et en financement de campagnes électorales;
  • les entreprises qui bénéficient d’une rente due au LFCÉIR sont très concentrées (environ à 75 % en 2014) dans quelques industries, bien sûr fortement réglementées (et, je le rappelle, cette étude n’analyse cette situation que pour les sociétés non financières) : produits pharmaceutiques, pétrole, matériel de transport, services publics (électricité, gaz, et services publics sanitaires) et communications.

Le deuxième résultat que je tenais à présenter est le fait que seul le facteur LFCÉIR a joué un rôle «positif» sur la création de rentes à partir de l’an 2000. On peut en effet remarquer sur le premier graphique de ce billet que le Q de Tobin (soit la valeur boursière des sociétés non financières par rapport à leurs actifs) a même diminué à partir du début du siècle, au début très fortement en raison de l’éclatement de la bulle technologique, et plus lentement par la suite (il a même recommencé à augmenter capture4à partir de 2011 environ). Le graphique ci-contre montre d’ailleurs que les stocks en recherche et développement et en capital ont diminué fortement à partir de la fin des années 1990 et 2008 (environ) avant de se stabiliser (ce qui correspond bien à la période de la baisse du Q de Tobin), tandis que l’intensité de la réglementation continuait à augmenter.

Allant dans le même sens, les calculs de l’auteur qu’on peut voir à la colonne 5 de la partie du bas du tableau 3 (à la page numérotée 38 de l’étude) montrent que l’évolution des stocks de capital et de recherche et développement («R&D stock») et les dépenses de publicité («Advertising stock») et administratives («SGA stock») ont eu des effets négatifs sur le Q de Tobin, tandis que les stocks de règlements («Regulation stock»), de lobbying («Lobbying stock») et de dépenses électorales («Election spending stock») ont tous eu des effets positifs. Cela montre que, n’eut été l’effet «positif» du facteur LFCÉIR, la baisse des rentes et du Q de Tobin aurait été encore plus importante.

Je mentionnerai en terminant que les tests de l’auteur valident tous ses résultats, notamment sur la causalité, en montrant que les hausses d’intensité de réglementation arrivent avant les hausses du Q de Tobin et non l’inverse. On aurait en effet pu penser que ce serait les hausses de rentes qui auraient entraîné des règlements plus restrictifs, mais non, c’est l’inverse…

Conclusion de l’auteur

L’auteur estime que les rentes dues aux changements réglementaires ont représenté en moyenne un transfert annuel de 200 milliards $ par année des consommateurs des États-Unis vers les sociétés avantagées par ces changements réglementaires au cours de la période analysée. Il regrette toutefois que son étude n’ait pas permis de déterminer quels mécanismes font en sorte que la réglementation permette aux sociétés de quelques industries d’accaparer de telles rentes, car cela permettrait d’éviter à l’avenir que la réglementation ait trop souvent des effets opposés aux objectifs qu’elle poursuit. Il aurait aimé pouvoir démontrer que ces mécanismes étaient en premier lieu dus aux barrières que la réglementation impose à des entreprises qui voudraient concurrencer les sociétés existantes, mais il ne peut pas le prouver. Je pense personnellement que la réglementation sur la propriété intellectuelle  pu aussi jouer un rôle important dans ces créations de rentes (d’ailleurs, dans une entrevue que l’auteur a donnée, il donne des exemples allant dans ce sens, surtout pour les logiciels, son domaine de spécialité). Il précise également que son étude ne porte que sur les sociétés inscrites à la Bourse et qu’il ne peut donc pas savoir si ses conclusions s’appliquent aussi aux autres entreprises, en général plus petites.

Et alors…

Ce genre d’étude est pour moi important. On voit souvent la réglementation comme un outil pour éviter les excès du capitalisme, mais si au contraire elle les accentue, cela peut remettre en question les solutions qu’on peut adopter pour favoriser la lutte aux inégalités ou même aux changements climatiques. Chose certaine, la réglementation n’est certainement pas une panacée de ce côté, mais si, comme le dit l’auteur, on pouvait mieux connaître les mécanismes en jeu dans ces accaparements de rentes, on pourrait mieux concevoir notre réglementation. Finalement, cette étude confirme l’effet scandaleux du lobbying et du financement des campagnes électorales par les entreprises. Cet effet n’est peut-être pas étonnant, mais son ampleur (200 $ par dollar «investi») l’est!

Les personnes à bas salaires au Canada

3 août 2016

Salaire minimumDans la foulée des campagnes pour porter le salaire minimum à 15,00 $ de l’heure, de plus en plus d’études se penchent sur la question des bas salaires et sur les caractéristiques des bas salarié.e.s. Je me suis moi-même servi dans un billet datant d’environ trois mois de données publiées par l’Institut de la statistique du Québec (ISQ) pour présenter un portrait des personnes qui profiteraient d’une telle hausse au Québec.

Le Centre d’étude des niveaux de vie (CSLS) a publié il y a quelques semaines une étude originale sur le sujet (étude non couverte par les médias, à ma connaissance). Intitulée Trends in low-wage employment in Canada: incidence, gap and intensity, 1997-2014 (Tendances de l’emploi à bas salaire au Canada: sa fréquence, son écart et son intensité, 1997-2014), cette étude de Jasmin Thomas examine sous toutes ses coutures les tendances de l’emploi à bas salaire. Elle examine surtout l’évolution de la fréquence des emplois qui offrent moins que les deux tiers du salaire médian canadien des employé.e.s à temps plein (soit 16,01 $ en 2014), celle de l’écart moyen entre le salaire de ces personnes et les deux tiers du salaire médian, et celle de ce que l’auteur appelle l’intensité du bas salaire (incidence x écart = intensité). Comme cette étude est volumineuse (66 pages) et examine vraiment beaucoup d’aspects de la question, je me contenterai ici de présenter les principaux résultats.

Fréquence et écarts

Le graphique qui suit résume bien les constats généraux de l’étude. Notons que la population retenue est celle des salarié.e.s âgé.e.s de 20 à 64 ans et que les données proviennent des micro-données de l’Enquête sur la population active (EPA) de Statistique Canada.

salaires peu élevés1

Ce graphique compare l’évolution du niveau du salaire minimum réel (en fait la moyenne pondérée des niveaux de salaire minimum des provinces, ligne grise), c’est-à-dire en tenant compte de l’inflation, à l’évolution de la fréquence des emplois qui offrent moins que les deux tiers du salaire médian canadien (ligne pointillée) et à celle de l’écart moyen entre le salaire de ces personnes et les deux tiers du salaire médian (ligne bleue foncée). Pour pouvoir comparer l’évolution de ces variables qui ont des niveaux bien différents, l’auteur fait partir les données à 100 (en divisant chaque donnée de chaque série par la donnée de 1997).

Salaire minimum : Le salaire minimum réel a diminué d’un peu plus de 5 % entre 1997 et 2004 (de 8,91 $ à un peu moins de 8,50 $, en dollars de 2014), a augmenté légèrement entre cette année et 2007, puis plus fortement jusqu’en 2010 et enfin plus doucement jusqu’en 2014 (pour atteindre 10,40 $, en hausse de 17 % depuis 1997 ou de 22 % depuis 2004).

Fréquence : Malgré certaines variations annuelles, la fréquence du bas salaire a diminué d’environ 12 % de 1997 à 2008 (de 27,9 % à 24,5 %) avant de repartir en hausse pour se retrouver en 2014 très près du niveau de 1997 (soit à 27,6 %). Cette évolution dépend de nombreux facteurs. L’auteur avance que ce serait lié à la croissance économique. La fréquence des bas salaires aurait baissé lorsque la croissance fut élevée, soit avant la récession de 2008, et aurait augmenté par la suite en raison de la faible croissance. Il y a selon moi beaucoup d’autres facteurs qui peuvent avoir joué, dont l’évolution de l’importance relative de l’emploi dans les industries et les professions.

Écart : L’écart moyen entre le salaire des personnes à bas salaires et les deux tiers du salaire médian a évolué en grande partie à l’inverse du niveau du salaire minimum (en légère hausse de 22,7 % en 1997 à 23,4 % en 2008, puis en baisse plus importante par la suite pour se retrouver à 21,0 % en 2014). En effet, quand la valeur du salaire minimum stagne ou diminue, l’écart maximum entre le salaire des personnes à bas salaires et les deux tiers du salaire médian augmente (ce qui influence à la hausse l’écart moyen) et, à l’inverse, quand la valeur du salaire minimum augmente, les écarts maximums et moyens diminuent, ce qu’on peut constater à partir de 2008. L’auteur a d’ailleurs calculé que la corrélation entre le niveau du salaire minimum et l’écart moyen fut au cours de cette période de -0,69, ce qui est très élevé. Le reste de l’évolution de cet écart est lié à différents facteurs, notamment à la croissance du salaire médian, car quand celui-ci augmente, l’écart entre le salaire minimum et les deux tiers du salaire médian tend à augmenter, et à l’évolution de la fréquence, car, quand celle-ci augmente, c’est parce qu’il y a plus de monde qui gagne juste un peu moins que le deux tiers du salaire médian, faisant ainsi diminuer l’écart moyen. Le graphique montre d’ailleurs que les augmentations de la fréquence sont généralement associées à des baisses de l’écart, et vice-versa.

Fréquence des bas salaires selon certaines caractéristiques

L’étude examine ensuite le niveau de fréquence des bas salaires et de l’écart moyen selon un grand nombre de caractéristiques. Comme l’écart moyen varie peu selon les caractéristiques des personnes (quand on gagne moins que les deux tiers du salaire médian, notre salaire se situe toujours entre ce point et le salaire minimum), je ne résumerai que les principaux constats sur la fréquence :

  • elle était entre 1997 et 2014 environ 50 % plus importante chez les femmes que chez les hommes (32,8 % par rapport à 22,3 % en 2014), mais cette différence a diminué de façon importante au cours de la période étudiée (de 14,2 points de pourcentage en 1997 à 10,5 points en 2014);
  • elle était entre deux et trois fois plus élevée chez les jeunes de 20 à 29 ans que dans les tranches d’âge plus élevées, se situant entre 40 et 50 % selon les années par rapport à environ 20 % chez les salarié.e.s âgé.e.s de 30 à 49 ans et de 50 à 64 ans;
  • elle varie beaucoup selon le niveau de scolarité : alors qu’elle s’est maintenue entre 40 et 50 % chez les personnes ayant moins qu’un diplôme d’études secondaires (DES), elle s’est située entre 30 et 40 % chez les titulaires d’un DES, entre 20 et 25 % chez les titulaires d’un diplôme d’études postsecondaires, entre 14 et 18 % chez les titulaires d’un baccalauréat et entre 8 et 12 % chez les titulaires d’une maîtrise ou d’un doctorat;
  • elle était en 2014 la plus élevée dans les industries de l’hébergement et de la restauration (72 %), du commerce de détail (61 %) et de l’agriculture (57 %), et la moins élevée dans les services publics (4 %), l’administration publique (7 %) et la forêt, les mines et le pétrole (7 %), comme on peut le voir dans le graphique qui suit;

salaires peu élevés2

  • elle était beaucoup plus élevée (entre 45 % et 50 %) chez les personnes travaillant à temps partiel que chez celles travaillant à temps plein (assez stable à 20 %);
  • en tenant compte du coût de la vie, elle était en 1997 plus basse que la moyenne canadienne (26,7 %) en Colombie-Britannique (24,0 %), en Alberta (24,3 %) et au Québec (25,4 %) et beaucoup plus élevée que cette moyenne dans les provinces de l’Atlantique (entre 34,2 % et 41,1 %); elle était en 2014 plus basse que la moyenne canadienne (26,0 %) en Alberta (17,4 %), en Saskatchewan (20,2 %) et au Québec (22,1 %) et beaucoup plus élevée que cette moyenne dans les provinces de l’Atlantique (entre 29,3 % et 33,7 %) et en Ontario (30,4 %); ces proportions et leur évolution s’expliquent surtout par la croissance économique et le coût de la vie.

Effet d’une hausse du salaire minimum à 15,00 $ sur la fréquence du bas salaire et son écart

L’auteur examine ensuite l’effet d’une hausse du salaire minimum à 15,00 $ sur la fréquence du bas salaire et sur son écart. Comme il suppose que cette hausse n’aurait aucun effet sur les salaires qui sont plus élevés que les deux tiers du salaire médian (16,01 $ en 2014, je le rappelle), l’auteur ne prévoit aucun impact sur la fréquence. Selon moi, il y en aurait un, car le salaire minimum est souvent un repère pour les salaires qui lui sont légèrement plus élevés. Par contre, cet effet serait très difficile à estimer (car on doit supposer des réactions à un type d’événement qui n’est jamais arrivé) et, de fait sûrement de faible ampleur.

Par contre, l’effet sur l’écart moyen entre les salaires des personnes qui gagnent moins que les deux tiers du salaire médian et les deux tiers du salaire médian serait majeur. Par exemple, si toutes les personnes gagnant moins que les deux tiers du salaire médian (16,01 $) gagnaient le salaire minimum (15,00 $), l’écart moyen serait de 6,3 % (1,01 $ / 16,01 $ = 6,3 %). En supposant que personne touchant entre 15,00 $ et 16,01 $ ne verrait son salaire augmenter (ni que personne gagnant disons 14,00 $ actuellement ne toucherait plus de 15,00 $), hypothèse selon moi extrême, l’écart moyen en 2014 passerait de 21,0 % actuellement à 5,8 %. Enfin, peu importe la précision de ce calcul, il est clair que l’écart moyen diminuerait énormément!

Et alors…

C’est la première fois que je vois une étude aborder la question des bas salaires de cette façon. Si les caractéristiques des personnes à bas salaires décrites dans cette étude sont très semblables à celles révélées par d’autres études (dont celle de l’ISQ dont j’ai parlé en début de billet), elle fournit beaucoup plus de précision sur les industries dans lesquelles travaillent ces personnes et apporte un angle supplémentaire en comparant la situation dans les différentes provinces. En outre, l’examen de l’écart moyen entre les salaires des personnes qui gagnent moins que les deux tiers du salaire médian et les deux tiers du salaire médian montre l’importance du niveau du salaire minimum pour que les gens à bas salaires soient moins désavantagés et reçoivent un salaire décent.

Il est certain qu’aucune étude du genre ne peut révolutionner l’analyse de la situation des personnes à bas salaires, car on en sait déjà beaucoup, mais celle-ci rajoute une brique à l’édifice de cette analyse.

L’invention de l’«illettrisme»

1 août 2016

illettrismeC’est la lecture de Pour la sociologie de Bernard Lahire, dont j’ai parlé dans ce billet, ainsi que mon intérêt sur tout ce qui touche l’analphabétisme qui m’a incité à lire L’invention de l’ « illettrisme » du même auteur. Selon la quatrième de couverture, l’auteur tente dans ce livre de démonter la machine qui a été mise en branle dans les années 1970 en inventant ce terme…

Avant-propos : L’auteur explique le contexte qui l’a porté à écrire ce livre et l’approche qu’il adoptera dans ses analyses.

Introduction générale : Cette introduction présente d’abord l’historique de l’apprentissage de l’écriture, insistant entre autres sur les différences notables à ses débuts entre les hommes et les femmes, les milieux urbains et ruraux, les métiers et les religions (les protestants lisent davantage, phénomène qui a perduré et se manifeste aussi au début du XXème siècle par la présence de plus de livres chez les protestants que chez les catholiques). Si pendant des siècles on a mesuré le niveau d’alphabétisation en observant la proportion de mariés qui signaient leurs documents, puis par la capacité de pouvoir lire (ou décoder) un texte, on a par la suite ajouté le critère de la compréhension des textes. De là est venue la notion plus vague d’analphabétisme «fonctionnel», accompagnée d’interprétations variables selon le sens qu’on accole à ce terme et d’un discours moralisateur. C’est justement ce discours que l’auteur entend analyser dans ce livre, par exemple l’utilisation de «lieux communs» et d’autres figures de rhétorique.

1. La fabrique publique de l’«illettrisme» : Pour que la société reconnaisse qu’un problème peut être social, il ne suffit pas qu’une situation existe et qu’elle soit un problème, mais il faut aussi qu’elle la perçoive comme un problème social. La pauvreté ou l’inégalité entre les hommes et les femmes ont existé pendant des siècles avant que la société les perçoive comme des problèmes sociaux et réagisse en conséquence. Il en est de même pour l’illettrisme.

L’organisme ATD Quart monde (ATD = aide à toute détresse, quart monde = extension du concept de tiers monde, l’étendant aux pauvres des pays industrialisés) fut à la base des sensibilisations pour que l’illettrisme soit considéré comme un problème social. Ayant pour objectif de lutter contre la pauvreté et les exclusions qu’elle entraîne, cet organisme a su faire percevoir l’illettrisme (complet et fonctionnel) comme une cause majeure de pauvreté et encore plus d’exclusion, et même des difficultés d’intégration des immigrants, même si l’importance accordée à cette cause tend à réduire celle des autres facteurs qui sont à leur origine.

L’auteur donne de nombreux exemples des contradictions du discours de cet organisme. Vantant d’un côté les expériences de vie des pauvres et les connaissances qu’ils en ont tirées, il n’hésite pas dans ses envolées plus misérabilistes à déplorer leur ignorance pour montrer la nécessité de combattre l’illettrisme. Il explique aussi que le néologisme illettrisme a été créé dans les années 1970 par ATD Quart monde en raison de la perception négative des termes analphabète, analphabétisme et alphabétisation, utilisés auparavant pour décrire la situation des immigrants qui ne lisaient et n’écrivaient pas le français (ou de l’analphabétisme dans les pays pauvres). Il y a des années que je me demande pourquoi les Français utilisent ce terme et pas nous. Là, je le sais…

L’auteur s’en prend ensuite à la définition large de l’analphabétisme (ou de l’illettrisme), qui englobe tout «obstacle à la participation entière et effective à la vie de la société». Il se demande alors de façon pertinente s’il y a quelqu’un qui ne ressent pas au moins un obstacle à sa participation «entière et effective à la vie de la société»… Un sondage a révélé en janvier 2015 que «80% des Américains seraient en faveur d’un étiquetage obligatoire des aliments contenant… de l’ADN» (source originale). Doit-on en conclure qu’au moins 80 % de la population des États-Unis est analphabète («au moins», car on peut ignorer qu’il y a de l’ADN dans tous les aliments sans désirer qu’on les étiquette)? Mais, bon, je m’éloigne du livre que je suis censé présenter…

Si l’illettrisme difficile à définir et la pauvreté facile à reconnaître sont aussi liés qu’on le dit, pourquoi ne pas concentrer ses efforts à lutter contre la pauvreté plutôt que contre l’illettrisme? Si les difficultés des illettrés à participer à la société n’ont jamais été prouvées, mais seulement énoncées, la difficulté des pauvres à influencer la politique est, elle, clairement démontrée. Je résume grossièrement cette partie du livre qui mérite beaucoup mieux, dans laquelle l’auteur nous montre comment un enjeu, certes important, mais secondaire, a pris le dessus sur les enjeux primaires (pauvreté, logements insalubres, mauvaise alimentation, etc.).

L’auteur explique ensuite que ce n’est qu’après l’adoption de l’école obligatoire à 16 ans que le phénomène de l’échec scolaire (ici, on parle du décrochage), petit frère de l’illettrisme, est apparu et est devenu un problème. Avant cela, les jeunes des classes qui quittent de nos jours l’école au secondaire ne s’y rendaient même pas. Comme l’école n’était pas obligatoire, on ne pouvait pas parler d’échec scolaire. Selon l’idéologie des critiques, ceux-ci ont cherché les «coupables» de ce nouveau «problème social» du côté de la pédagogie (trop marxisante!), des immigrants, voire des syndicats d’enseignants ou des conséquences de la pauvreté et de la stigmatisation des pauvres.

2. Rhétorique publique et thématiques : L’auteur revient sur les très nombreuses définitions de l’illettrisme (ses exemples s’étendent sur une grande partie de ce chapitre…) et surtout sur l’imprécision de ces définitions. Par exemple, des «situations d’inconfort social générées par une acquisition partielle des savoirs de base» peuvent se manifester bien différemment selon la personne et ses activités. Au bout du compte, toute personne peut être considérée comme illettrée dans un domaine ou un autre. Alors, comment mesurer un phénomène indéfinissable? On ne s’étonnera pas alors que l’auteur ait recensé des évaluations passant de 10 % de la population à 64 % (quelle précision!) et même à 80 %. Pourquoi pas 100 % si on considère que certaines définitions parlent de pouvoir se débrouiller dans tous les domaines de la vie en société? Pour l’auteur, toutes ces données sont «davantage des preuves rhétoriques que des preuves logiques». Elles visent plus à mettre ce «problème social» en évidence qu’à véritablement en mesurer l’ampleur.

Il poursuit en critiquant la tendance qu’ont les observateurs à citer des cas particuliers dramatiques pour personnaliser ce problème social et fournit de nombreux exemples à cet effet. D’autres insistent sur la honte ressentie par les illettrés qui utilisent toutes sortes de trucs pour camoufler leur «handicap» (perte de lunettes pour ne pas montrer qu’on ne sait pas lire, achat de journaux sans les lire, etc.), quand ils ne commentent pas le lien entre l’illettrisme et la délinquance, voire le crime.

L’auteur aborde ensuite les différents styles de rhétorique utilisés dans les discours en général et sur l’illettrisme en particulier. Ils peuvent aussi bien être basés sur la raison que sur l’amplification, sur l’émotion ou sur la passion. Quand l’illettrisme est considéré comme un fléau qui menace la République, l’ordre social ou même la démocratie, on peut retracer facilement les ficelles de la rhétorique utilisée…

3. Entre experts et savants : On le devine, l’auteur tente ici de distinguer et d’établir les points communs entre les personnes qu’on présente comme des experts et celles qu’on considère comme des savants. L’expert connaît le problème de près et s’y identifie (tout en sachant garder une certaine distance), et a un savoir relativement pointu dans certains domaines précis, tandis que le savant a une connaissance plus générale et garde plus de distance (parfois trop) entre le problème et son analyse. L’expert expliquera par exemple la cause de l’illettrisme, tandis que le savant se demandera, encore une fois par exemple, pourquoi l’illettrisme, qui est présent depuis toujours et l’est encore moins de nos jours, est devenu un problème social. L’auteur se voit bien sûr comme un savant!

Une courte mention qu’il a faite dans cette section m’a particulièrement rejoint. Il soulève le fait que toutes les enquêtes sont tenues individuellement, sans tenir compte de l’appui que bien de ces personnes reçoivent de leurs proches. Cela ne signifie pas que la situation des analphabètes soit enviable, mais qu’il faut savoir distinguer entre ceux et celles qui ont de l’aide, et ceux et celles qui n’en ont pas. Il s’attarde ensuite sur plus de 35 pages à décortiquer le discours d’un expert (Alain Bentolila) qui, entre autres, accuse les illettrés de nombreux maux, de violence, de crédulité (ils seraient notamment les premières victimes de la démagogie de l’extrême droite) et les considère comme des autistes sociaux et pratiquement des sous-humains, la lecture étant pour lui une condition nécessaire pour pouvoir agir sur le monde. Disons que cela ne fut pas la partie du livre que j’ai la plus appréciée, tant en raison de sa longueur et de ses répétitions que par le dégoût des attaques de cet «expert»…

4. L’«illettré» en fiction : L’auteur analyse dans ce chapitre les caractéristiques de personnages analphabètes dans des œuvres de fiction. Il montre que les lieux communs présentés dans les chapitres précédents ont une place prépondérante dans ces œuvres. On ne peut bien sûr pas demander à des auteurs de fictions d’analyser une réalité comme l’analphabétisme avec profondeur. Par contre, l’auteur montre bien que les lieux communs colportés par les supposés experts sont devenus comme des faits sur lesquels les auteurs de fiction basent leurs histoires.

5. Éthique et culture : Un des facteurs qui explique que la plupart des gens acceptent des définitions aussi floues de l’illettrisme et des estimations aussi variées de son importance est que cela leur permet de se distinguer facilement de ces personnes et de se faire croire qu’ils font partie d’une élite. En effet, en utilisant d’une part un discours misérabiliste outrancier (autistes sociaux, incapables de se réaliser, irresponsables, etc.), on se rassure de ne manifestement pas faire partie de cette catégorie de personnes, et en exagérant d’autre part leur nombre, on peut se sentir membre d’une élite qui, elle, contrôle sa vie et influence la société.

J’ai souvent pensé que ce facteur pouvait jouer dans le fait que tant de gens prennent un malin plaisir à prétendre que la moitié des Québécois sont analphabètes, même si cette moitié est le résultat de la définition utilisée (qui ne parle absolument pas d’analphabètes, comme on peut le voir dans ce billet). Ils sont nombreux, mais, fiou, je n’en fais pas partie, et, refiou, j’appartiens en fait à la moitié qui possède tous les outils pour pouvoir se démarquer des autres! Cela dit, bien d’autres facteurs, dont le biais de confirmation, peuvent expliquer cette croyance.

L’auteur aborde ensuite la question de l’autonomie qu’on met de nos jours sur un piédestal. Qu’on veuille favoriser l’autonomie des personnes, c’est bien, mais ça l’est moins de prétendre que les personnes qui ont des niveaux de lecture ou d’écriture moins élevés que les autres sont nécessairement dépendantes et que celles qui ont des niveaux plus élevés sont nécessairement autonomes, alors que personne ne peut l’être complètement, chaque être humain dépendant sur bien des aspects des autres.

Conclusion : Sociologie critique et «illettrisme» : L’auteur précise ici que le fait de critiquer le discours et la mauvaise mesure d’un phénomène (et de publier un livre ayant un titre provocateur comme L’invention de l’illettrisme) n’est nullement une négation de l’existence et de l’importance de ce phénomène. On peut de même critiquer le discours et la mesure de la pauvreté sans nier son existence et son importance. En soulignant les contradictions dans un discours portant sur un phénomène, on peut alors mieux circonscrire sa portée et développer des politiques et des actions qui seront plus pertinentes et efficaces.

Et alors…

Lire ou ne pas lire? Si la question de l’analphabétisme vous intéresse, ce livre est pour vous. Voilà bien un autre livre écrit par ce sociologue que je n’ai eu aucune difficulté à lire et à comprendre! On pourrait trouver que sa critique de la définition floue de l’analphabétisme, et donc de sa mesure, ne permet pas de se faire une idée précise de ce qu’est vraiment l’analphabétisme et de son étendue, mais, justement, est-ce possible de le faire? Chose certaine, en osant s’attaquer au discours dominant sur l’analphabétisme, autant celui porté par la gauche que celui porté par la droite, l’auteur nous donne amplement matière à réflexion!

 

La sociologie et la culture de l’excuse

30 juillet 2016

sociologie

Pour la sociologie. Et pour en finir avec une prétendue «culture de l’excuse» de Bernard Lahire «livre un plaidoyer lumineux pour la sociologie et, plus généralement, pour les sciences qui se donnent pour mission d’étudier avec rigueur le monde social». Intrigué par cet objectif, je n’ai pas hésité à me procurer ce livre. Comme il est assez court, je vais présenter sommairement chacun de ses chapitres.

Introduction. Blessures narcissiques et résistances : La sociologie (et les autres sciences sociales) recevrait ces temps-ci de nombreux reproches l’accusant de déresponsabiliser les individus face à leurs actes. C’est en réaction à ces reproches injustifiés, notamment aux appuis reçus par le livre Malaise dans l’inculture de Philippe Val, ancien directeur de la rédaction de Charlie Hebdo, que l’auteur a décidé d’en écrire un. Il compte remettre les pendules à l’heure avec un texte exempt du jargon qu’on trouve trop souvent dans les livres portant sur la sociologie (bravo!).

1. Accusée d’excuser : la sociologie mise en examen : Dans ce chapitre, l’auteur présente au moins une quinzaine d’exemples pertinents de reproches provenant aussi bien de politiciens, de journalistes et même de philosophes et de sociologues. Ils accusent la sociologie de valoriser la «culture de l’excuse» par ce qu’ils appellent l’«excuse sociologique». L’argument principal est souvent le même : oui, c’est plus difficile de s’en sortir si on a vécu dans un milieu pauvre ou stigmatisé, si on subit le mépris ou le racisme d’une part importante de la société, mais comme la majorité des gens ayant vécu dans ces conditions s’en sortent, cela veut dire que la principale responsabilité d’un crime ou de l’insuccès à l’école revient aux individus, peu importe le milieu d’où ils viennent et les expériences qu’ils ont vécues.

2. Comprendre, juger, punir : L’auteur considère que le genre d’arguments présentés dans le chapitre précédent confond la tentative de comprendre une situation à celle de vouloir l’excuser ou la justifier. «Comprendre n’est pas juger. Mais juger (et punir) n’interdit pas de comprendre». La volonté de comprendre des scientifiques des sciences sociales est basée sur l’observation des faits, non sur le jugement qu’on peut porter sur ces faits. Elle n’a rien à voir avec une recherche d’excuses ou une entreprise de disculpation (ou de justification). Et, comprendre peut permettre de développer des politiques préventives : «Les logiques qui ont contribué à rendre possibles les crimes, les incivilités, la délinquance et les attentats poursuivent tranquillement leur déploiement. Comprendre sereinement ces logiques, c’est se donner la possibilité d’agir et, à terme, d’éviter de nouveaux drames».

3. La fiction de l’Homo clausus et du libre arbitre : «Les sciences du monde social montrent par leurs travaux, qui portent sur toutes les dimensions possibles de la vie sociale, que l’individu isolé, enfermé sur lui-même, libre et pleinement conscient de tout, qui agit, pense, décide ou choisit en toute connaissance de ce qui le détermine à agir, penser décider ou choisir, est une fiction philosophique ou juridique». La singularité d’une personne est en fait celle des expériences qui l’ont constituée. Sa liberté et ses choix sont en fait exercés dans un cadre limité par des forces qui la contraignent plus ou moins fortement. Ces forces peuvent varier selon la personne (enfance, expériences scolaires, professionnelles, amicales, amoureuses, familiales, etc.). Celle-ci est consciente de ses actions, mais ignore les causes qui les déterminent.

4. Déréaliser les dominés, nier la domination : Il est bien pratique pour les personnes riches et chanceuses d’adopter la philosophie de la responsabilisation ou de la méritocratie. Elles peuvent ainsi se convaincre qu’elles méritent leur bon sort et que les démunis pourraient en faire autant. Ce serait de leur faute si elles sont dans la misère. Mais si ces personnes chanceuses l’avaient moins été, avaient par exemple été violées dans leur jeunesse, avaient été mal nourries ou avaient vécu dans une famille dysfonctionnelle, auraient-elles eu autant de succès? L’auteur se demande ensuite si les personnes qui travaillent le dimanche «volontairement» ont vraiment le choix de le faire (à la fois pour conserver leur emploi ou pour survivre ou nourrir leur famille), si les personnes qui se prostituent «volontairement» n’ont pas peut-être vécu certains événements qui rendent leur consentement bien relatif. Comme comprendre n’est pas juger, l’auteur n’en arrive pas nécessairement à la conclusion que la prostitution doit être interdite, mais que la décision de l’interdire ou pas doit tenir compte des faits et de la grande relativité du consentement volontaire des personnes qui exercent cette activité : «L’argument juridique du «consentement» évite à bon compte de se poser la question des conditions sociales de sa fabrication».

5. Rompre avec les fausses évidences : la sociologie au travail : Dans ce chapitre, l’auteur présente les contributions de la sociologie dans une foule de domaines : éducation, criminalité, relations personnelles, activités professionnelles, culture, analphabétisme, immigration, etc. Il déplore que les enseignements de sa discipline soient si peu utilisés par les autorités. J’aimerais bien pouvoir défendre ma discipline avec autant de verve que lui!

Conclusion. Des sciences pour la démocratie : Face aux nombreuses déclarations de politiciens jugeant improductif l’enseignement des sciences humaines et sociales à l’université, car ces sciences ne sont pas assez liées aux besoins du marché du travail, l’auteur conclut son livre en recommandant au contraire qu’on enseigne les fondements (et non pas les différentes visions des principaux auteurs du domaine) de la sociologie et des autres sciences sociales dès le primaire. L’objectif est de développer l’esprit critique des enfants dès leur plus jeune âge, de les inviter à baser leur vision du monde sur des faits et de leur montrer l’importance des relations entre les personnes.

«La diffusion de ces sciences n’abolirait pas magiquement les inégalités, les injustices et les dominations, mais elle rendrait la vie plus dure à toutes les formes d’ethnocentrisme et de mensonge, et permettrait à tous les citoyens d’être plus conscients du monde dans lequel ils vivent, de son caractère historique, et, par conséquent, des possibilités qu’ils ont de transformer l’ordre des choses.»

Supplément. Le monde selon Val : une variante de la vision conservatrice : Le supplément aborde plus en détail l’analyse du livre qui a incité l’auteur à écrire le sien, soit Malaise dans l’inculture de Philippe Val. Tel que présenté par l’auteur, Philippe Val semble être le Richard Martineau français (à moins que Martineau soit le Val québécois…), énonçant avec autant de certitude ses contradictions, ses préjugés et ses sophismes. Comme lui (et comme d’autres chroniqueurs), il se présente comme un «briseur de tabous», dénonce l’omnipuissance de la gauche et du féminisme, et prône l’application de lois basées sur la responsabilité individuelle (en considérant les analyses sociologiques de pures pertes de temps et des façons de détourner l’attention de la population des vraies affaires). Ce supplément est intéressant, apporte des angles différents au contenu du livre et surtout des exemples concrets.

Et alors…

Lire ou ne pas lire? Lire! Je n’ai jamais lu un texte portant sur la sociologie aussi clair et facile à comprendre! En plus, et peut-être aussi parce que le texte est clair, j’ai grandement apprécié les distinctions apportées par l’auteur sur la compréhension et le jugement, ainsi que sur le rôle des relations sur notre singularité. Nous aimons bien nous penser autonomes et différents, et nous le sommes, mais bien plus en raison de nos rencontres et de nos expériences que de nos gênes! Et ce constat rejoint tout à fait, même si l’auteur n’en parle pas, les observations sur la plasticité cérébrale faites par Catherine Vidal pour montrer que les différences entre les cerveaux masculins et féminins sont bien minces pour ne pas dire inexistantes. Bref, un livre à lire!

Le PIB et l’économie numérique

27 juillet 2016

PIBnumériqueIl y a cinq ans, j’ai publié une série de trois billets portant sur les forces et surtout les faiblesses du produit intérieur brut (PIB). Récemment, une étude de l’Organisation de coopération et de développement économiques (OCDE) intitulée Are GDP and Productivity Measures Up to the Challenges of the Digital Economy? (Est-ce que le PIB et la productivité sont bien adaptés aux défis de l’économie numérique?) a justement abordé la pertinence de l’utilisation du PIB compte tenu de la place de plus en plus importante prise par l’économie numérique (y compris l’économie dite de partage). Je tiens à souligner que c’est grâce à l’excellent blogue de Timothy Taylor que j’ai pris connaissance de l’existence de cette étude.

Productivité et PIB

La baisse de la croissance de la productivité, qui s’observe dans la plupart des pays industrialisés, suscite depuis quelques années de profondes inquiétudes. En effet, il n’est pas habituel qu’une telle stagnation survienne alors que l’implantation de changements technologiques est aussi rapide et que la scolarité de la population augmente autant. Ce constat soulève deux questions : le ralentissement de la productivité (et de la croissance économique) est-il temporaire ou permanent? Ce ralentissement est-il réel ou n’est-il pas une conséquence de lacunes dans la mesure de l’économie numérique par le PIB? Cette étude aborde uniquement la deuxième question, quoique ses conclusions puissent aussi apporter une réponse à la première…

Mesure de l’économie du «partage» par le PIB

Les auteurs (Nadim Ahmad et Paul Schreyer, deux statisticiens de l’OCDE) se penchent sur différentes activités associées à l’économie numérique, ou plus spécifiquement celles de l’économie dite du partage :

  • services d’hébergement (Airbnb et autres);
  • services de transport (par exemple Uber);
  • services d’échange (eBay);
  • services d’intermédiation financière (financement participatif ou «crowdfunding»);
  • autres intermédiaires (pour le transport aérien, les services Internet, l’hébergement, etc.).

Même si les auteurs ont analysé ces services séparément, je vais regrouper leurs conclusions, car elles se ressemblent. D’une part, la plus grande partie des échanges monétaires dans ces secteurs est comptabilisée. Par contre, ils ne le sont pas nécessairement dans les pays où ces services sont rendus. Il y a donc un problème, mais il ne s’agit pas du fait que ces services ne sont pas comptabilisés. D’autre part, il est vrai que certains de ces services font augmenter le bien-être de la population sans être comptabilisée (car sans échanges monétaires), mais cela n’est pas le propre de ces services. En effet, le fait que des services qui améliorent le bien-être de la population ne soient pas comptabilisés par le PIB est loin d’être nouvelle. C’est entre autres le propre de tous les services domestiques, rendus à la maison. La valeur de la préparation d’un repas à la maison n’est pas comptabilisée, mais elle l’est si cette préparation est faite par un traiteur ou un restaurant. Il en est de même du lavage, du nettoyage, des soins aux enfants ou aux parents malades, de l’entretien et de la réparation de la maison, du changement d’huile d’une automobile, etc. Même si ces activités augmentent sans contredit le bien-être des ménages, elles n’ont aucun impact sur le PIB. Cette confusion est répandue : non, le PIB ne mesure pas le bien-être économique de la population, mais des activités qui comportent un échange monétaire, peu importe le bien-être que ces activités apportent (ou enlèvent). C’est la même chose pour le bien-être apporté par Wikipédia ou Linux, par le bénévolat ou par toute autre activité où il n’y a pas d’échange monétaire, il n’est pas considéré par le PIB et n’a pas à l’être.

L’illusion de la gratuité

Les personnes qui reprochent au PIB de ne pas bien mesurer l’impact de l’économie numérique donnent aussi en exemple certains produits numériques, comme des logiciels, des journaux et des services comme Google ou Facebook, qui sont offerts gratuitement. Les auteurs soulignent tout d’abord que ce genre de gratuité existe depuis fort longtemps, donnant en exemple la radio et la télévision qui sont financés directement par la publicité. Il en est de même des produits vendus à perte dans les commerces de détail, qui visent à attirer une clientèle qui achètera aussi des produits sur lesquels ils font des profits.

Dans le cas des produits numériques gratuits, le financement correspondant peut se faire en partie par la publicité, mais aussi par l’utilisation de données massives personnelles («Big data», voir ce billet) qui seront par la suite utilisées, louées ou vendues.

PIBnumérique1L’image ci-contre montre le fonctionnement du financement d’un produit (bien ou service) par la publicité ou par l’utilisation de données massives. Dans le cas du financement par la publicité, le PIB comptabilisera ces revenus comme approximation de la valeur monétaire des services rendus «gratuitement». Par contre, il est vrai que le consommateur ne verse pas de somme directement au producteur du service en question. Par contre, cette façon de voir ignore le fait que le consommateur paie indirectement aux sociétés qui achètent de la publicité le coût de celle-ci, car ces sociétés incorporent ce coût au prix des produits qu’elles vendent (j’ai expliqué cela dans un billet datant de cinq ans; j’ignorais à l’époque que cette explication était partagée par des experts du domaine du calcul du PIB…). Même si les personnes qui utilisent le produit gratuit (comme la télévision) n’achètent pas nécessairement les produits dont le prix est augmenté en raison des dépenses publicitaires, au bout du compte, le PIB captera ces coûts supplémentaires.

Les auteurs comparent cette façon de calculer le PIB à celle utilisée pour compiler la valeur monétaire pour le PIB des services gouvernementaux. En effet, ceux qui payent (les contribuables) n’utilisent pas nécessairement les services gouvernementaux en proportion de leur contribution au financement de ces services. La contribution au PIB des services gouvernementaux est donc calculée en supposant qu’elle correspond aux dépenses du gouvernement pour offrir ces services (surtout des salaires). Il faut noter que la portion de ces services qui est tarifée est calculée indépendamment (comme les dépenses des consommateurs pour les abonnements au câble, par exemple).

Certains prétendent en plus qu’il y a une forme de «contrat» tacite entre les sociétés qui achètent de la publicité et les consommateurs, car ceux-ci acceptent de perdre leur temps (les auteurs parlent plutôt de consacrer leur temps…) à regarder la publicité. Mais les auteurs rejettent cette interprétation (comme l’explication est un peu longue et pas nécessaire à la compréhension, je vais la sauter). Par contre, ils considèrent qu’il y a une forme de «contrat» implicite quand les consommateurs acceptent de livrer leurs renseignements personnels pour que la société qui leur offre des services gratuits puisse les utiliser ou les vendre (ou les louer). Ils ajoutent que si ces contrats sont implicites, ils sont loin d’être explicites! En effet, on peut douter que tous les utilisateurs de Google sachent que cette société compile leurs recherches sur ce moteur pour mieux connaître leurs caractéristiques et vendre des pubs adaptées qui s’affichent au début de la liste des résultats de la recherche ou vendre carrément ces données à d’autres sociétés. Il en est de même de Facebook et d’autres services du genre. Cela dit, uniquement implicite ou aussi explicite, cette relation permet de toute façon de comptabiliser la valeur monétaire de l’utilisation de ces services aux fins du PIB, la valeur de ces services correspondant aux revenus que ces sociétés retirent de nos données personnelles. Cela montre encore une fois que le PIB n’est pas une mesure du bien-être apporté par une activité, mais bien des échanges monétaires finaux qui résultent de transactions.

Autres aspects

Les auteurs analysent ensuite la question de la propriété intellectuelle, question de plus en plus importante, comme je l’ai montré dans ce billet. Un des plus gros problèmes de la comptabilisation de la propriété intellectuelle pour le PIB est son attribution à un pays donné. Les auteurs constatent que ce problème n’a pas du tout été solutionné et que les pays où la propriété intellectuelle des entreprises transnationales est comptabilisée ne sont pas nécessairement ceux où elle est utilisée. Cela peut faire en sorte que «[traduction libre] les données sur la productivité du travail dans les pays où les recettes nettes issues de la propriété intellectuelle sont positives seront surestimées, alors qu’elles seront sous-estimées dans les autres pays». Les auteurs recommandent finalement de faire preuve de prudence dans l’estimation du PIB et de la productivité dans les pays où la propriété intellectuelle représente une part importante du PIB.

Les auteurs recommandent la même prudence dans l’estimation de la contribution au PIB des achats faits par commerce électronique. Finalement, ils analysent le problème de l’estimation des dépenses en fonction des volumes de transactions et de la qualité des produits. Ces questions étant complexes, surtout dans l’estimation des volumes de produits numérisés, je vais passer rapidement. Disons seulement que ce type de problème n’est pas du tout spécifique aux produits numérisés, la qualité étant un aspect difficile à estimer.

Les comptes satellites

Chaque fois que les auteurs mentionnent que le PIB ne mesure pas le bien-être, ils conseillent aux pays de se doter de «comptes satellites» pour justement estimer le bien-être de la population. Même si cette étude n’aborde pas le contenu précis de ces comptes satellites, ce n’est pas son objet, il vaut, je crois, la peine de développer un peu sur cette question. Comme le PIB ne tient pas compte du bien-être, il peut arriver que deux pays qui ont des PIB par habitant semblables n’offrent pas le même bien-être à leur population. Les habitants d’un pays qui consacre une plus forte proportion qu’un autre pays de ses dépenses à l’armée, à la répression policière, aux services pénitenciers, au secteur financier ou à des activités polluantes, mais une proportion plus basse de dépenses pour la santé, l’éducation et les services sociaux, bénéficient moins du bien-être qu’on associe pourtant trop souvent au PIB par habitant. Il est donc important que les pays développent des indicateurs plus directement liés au bien-être, comme des indicateurs sur la santé (espérance de vie en santé, mortalité infantile, etc.), les inégalités (coefficient de Gini, part des revenus et de la richesse accaparée par le 1 % le plus riche, etc.), l’éducation, la criminalité, les grossesses précoces, le logement, l’itinérance, l’environnement, les liens sociaux, la démocratie, la conciliation travail-vie personnelle, etc.

Et alors…

Cette étude fut pour moi un délice. On y précise d’une part ce que mesure le PIB et que l’apparition de l’économie numérique n’y change rien. D’autre part, les auteurs, sans s’y étendre, montrent clairement qu’il faut se fier à bien d’autres indicateurs que le PIB pour se faire une meilleure idée du bien-être offert dans une société.

Tout cela est bien beau, mais que fait-on avec ces «comptes satellites»? Rappelons que les chercheurs Luc Godbout et Marcelin Joanis sont arrivés à la conclusion il y a quatre ans que le Québec, s’il était un pays, se classerait premier ou deuxième au monde (selon la pondération utilisée) en utilisant l’indice Vivre mieux qui tient en compte les indicateurs que j’ai mentionnés plus tôt. Et que s’est empressé de dire de ces résultats Alain Dubuc? Que «notre performance en termes de bien-être repose en partie du vieux gagné» et que pour conserver cette qualité de vie, il faut éviter de penser qu’il faut préserver le modèle qui nous a permis d’atteindre cette position de tête. Luc Godbout, un des auteurs de l’étude, n’a pas dit autrement en affirmant que les principaux défis devant nous ne sont pas ceux évalués par l’indice Vivre mieux, mais bien ceux qui relèvent «de la productivité du travail, du vieillissement de la population, des taux d’emploi des travailleurs expérimentés de 55 ans et plus, du niveau de scolarité». Je ne dis pas que ces sujets ne sont pas importants, mais ce ne sont pas ceux qui nous ont permis de bien nous classer dans cet indice, notamment les indicateurs touchant la criminalité, le logement et la satisfaction face à la vie.

Bref, oui, on doit utiliser des comptes satellites, c’est essentiel, mais encore faudrait-il en tenir compte quand on élabore des politiques et éviter de ne retenir que les moyens qui visent l’amélioration de l’indicateur qui évalue mal notre bien-être, soit le PIB.

L’effet 11 septembre

25 juillet 2016

11 septembreLa Chaire Raoul-Dandurand en études stratégiques et diplomatiques a publié récemment le livre L’effet 11 septembre qui tente de répondre aux questions suivantes :

  • Quinze ans après le 11 septembre 2001, de quelle manière le terrorisme a-t-il évolué dans le monde?
  • Est-il aussi menaçant qu’on le croit?
  • Justifie-t-il de vivre dans un état d’alerte, d’exception et de guerre permanent?

Préface : Charles-Philippe David présente dans cette préface les trois objectifs de ce livre :

  • mieux faire comprendre la nature du terrorisme auquel nous faisons face, aussi bien de la part de l’État islamique que des loups solitaires;
  • mieux expliquer le lien entre terrorisme et radicalisme;
  • mieux évaluer l’efficacité ou non des réponses occidentales, notamment militaires, dans la lutte contre le terrorisme, et mesurer l’impact de l’état d’exception quasi permanent sur les sociétés occidentales.

Introduction, 15 ans après, l’état d’exception permanent : En plus de présenter brièvement le contenu des trois chapitres de ce livre, cette introduction complète la préface en s’interrogeant sur les événements qui ont fait en sorte que des mesures d’exception qu’on pensait temporaires sont toujours en vigueur 15 ans après le 11 septembre 2001.

Chapitre 1. Un environnement international crispé autour d’une violence mal appréhendée

1.1 Le terrorisme : entre mythes et réalités : Après avoir proposé différentes définitions du terrorisme et avoir montré qu’il peut prendre différentes formes, ce texte met en perspective l’importance relative du terrorisme en se basant sur de nombreuses données. On constate par exemple que le nombre d’actes et de victimes du terrorisme est en hausse au niveau mondial, mais en baisse depuis les années 1970 en Amérique du Nord et en Europe de l’Ouest. Il est en effet fortement concentré en Afrique, au Moyen-Orient et dans d’autres pays asiatiques, avec 80 % des victimes dans cinq pays (Irak, Afghanistan, Pakistan, Nigeria et Syrie). Le texte se conclut en montrant que l’appellation terroriste d’un groupe rebelle revendicateur sert souvent des intérêts politiques.

1.2 Frontières : de l’exception à la normalisation : Le titre de ce texte décrit bien son contenu. Alors que certaines mesures prises pour contrôler les frontières se voulaient temporaires au lendemain du 11 septembre 2001, elles ne sont pas seulement devenues permanentes, mais se sont multipliées. Par exemple, le nombre de murs entre les pays a plus que quadruplé depuis 2001, et les budgets pour limiter les migrations ont explosé, avec un «succès» pour le moins douteux, se traduisant plus par l’augmentation des décès des migrants que par la diminution de leur nombre. Et les femmes en seraient les principales victimes.

Chapitre 2. Les États-Unis redéfinis par l’empreinte persistante de la lutte contre le terrorisme : Plus de 15 ans après le 11 septembre 2001, les habitants des États-Unis sont toujours marqués par ces événements et acceptent encore jusqu’à un certain point que des lois diminuent leurs libertés civiles dans le cadre de la lutte contre le terrorisme.

2.1 Une société toujours plus surveillée et toujours plus anxieuse : Le niveau d’appui à la diminution des libertés civiles varie en fait au gré des événements. Ainsi, il a grandement augmenté en 2015, année où les actes terroristes furent plus nombreux, notamment en France, mais aussi, dans une moindre mesure, aux États-Unis (dont la fusillade de San Bernardino). Ce texte présente aussi les principaux changements législatifs touchant les libertés civiles et l’immigration adoptés depuis 2001.

2.2 Un droit malmené, une conscience malléable : Ce texte examine les circonstances entourant le non-respect de trois promesses faites par Barack Obama lors de son arrivée au pouvoir :

  • la fermeture de la prison de Guantanamo;
  • l’abolition des pratiques de torture;
  • un encadrement serré de la surveillance électronique.

Par la suite, ce texte analyse les mesures sécuritaires adoptées depuis 2001 dans le transport aérien et la militarisation de la police (sur le sujet, voir ce livre et le billet que je lui ai consacré).

2.3 Une politique étrangère bridée par l’effet 11 septembre : Malgré certains changements, la gestion de la politique étrangère sous Obama ne fut pas aussi différente de celle de Bush qu’on ne l’avait laissé penser lors de son arrivée au pouvoir. Ce texte explique en quoi elle a changé et surtout pourquoi elle a si peu changé.

Chapitre 3. Le Canada, un état d’exception permanent à l’américaine ?

3.1 La prévalence de la lutte contre le terrorisme en politique intérieure : Le Canada aussi a modifié de nombreuses lois et institutions depuis le 11 septembre 2001. Pourtant, il n’a pas connu de recrudescence du nombre d’actes de terrorisme depuis cette date (en fait, on a plutôt observé le contraire). Au Canada aussi, l’exception est devenue la norme.

3.2 Une politique étrangère canadienne musclée articulée autour de la lutte contre le terrorisme : Ce texte nous montre que c’est tout le cadre de la politique extérieure canadienne qui a été modifiée, en partie à la suite des événements du 11 septembre 2001, mais aussi et surtout en raison de l’idéologie du gouvernement conservateur. Ces modifications se sont notamment manifestées par un affaiblissement des liens du Canada avec l’ONU, par exemple avec une diminution très importante de la participation du Canada aux missions de maintien de la paix de l’ONU. Le Canada s’est aussi retiré d’engagements internationaux, notamment du protocole de Kyoto en 2011 et de la Convention des Nations Unies pour lutter contre la désertification. Ses relations avec Israël sont devenues encore plus serrées, l’appuyant presque toujours de façon inconditionnelle.

3.3 La relation canado-américaine : le bon voisinage nord-américain : Malgré la multiplication des désaccords selon l’idéologie respective des gouvernants des deux pays (Bush et Chrétien, Bush et Harper, Obama et Harper, puis finalement Obama et Trudeau), les relations entre la Canada et les États-Unis sont demeurées relativement chaleureuses, celles de deux alliés proches. Ces bonnes relations se sont notamment manifestées par la conclusion de nombreuses ententes pour assurer la sécurité aux frontières ainsi que par l’échange de renseignements sur les voyageurs qui passent d’un pays à l’autre. Et, les deux pays maintiennent l’état d’exception permanent sur leur territoire, ce qui amène les auteurs à conclure que «la peur est donc le plus grand legs du 11 septembre».

Conclusion : Devant l’attitude de l’Occident envers le terrorisme, dont il est très loin d’être une des principales victimes, «la mise en place d’un état d’exception permanent occulte d’autres réalités». En effet, les ennemis changent vite, il y en a toujours un autre qui remplace le précédent et fait encore plus peur. Pourtant, le terrorisme est loin d’être la plus grande menace actuellement. Même le Forum économique mondial, qui réunit annuellement les puissants de la Terre, place le réchauffement climatique et les inégalités (et leurs conséquences sur la disponibilité de l’eau, les inondations, les migrations, etc.) bien avant le terrorisme dans sa présentation des principaux risques pour la stabilité mondiale. Pendant qu’on se concentre sur une menace secondaire, on risque d’agir trop tard pour affronter celles qui sont bien plus importantes.

Et alors…

Lire ou ne pas lire? Je dois dire que ce livre m’a agréablement surpris. Pensant à tort qu’il présenterait une vision consensuelle des suites des événements du 11 septembre 2001, il décortique en fait toute cette période et même les décisions qui lui sont antérieures. Les textes ne sont pas plus tendres envers les dirigeants de nos pays et envers les décisions trop souvent mal avisées qu’ils ont prises. Bref, je conseille fortement la lecture de ce livre.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 314 autres abonnés