Skip to content

Le nouveau verrou du salaire minimum

4 février 2017

verrou-du-salaire-minimumChaque année, le Secrétariat du travail du ministère du Travail, de l’Emploi et de la Solidarité sociale publie une «analyse d’impact réglementaire» sur la «révision du taux général du salaire minimum». Souvent redondant, car reprenant toujours les mêmes rubriques, ce document m’apparaissait plus attirant cette année, non seulement en raison de l’ampleur de la hausse du salaire minimum (0,50 $, de 10,75 $ à 11,25 $, soit une hausse de 4,7 %), mais surtout en raison de la décision du gouvernement de changer la méthode pour l’établir, en visant dorénavant 50 % du salaire moyen plutôt que 47 %, comme c’est le cas depuis au moins 2002. Dans ce billet, je vais présenter rapidement d’où vient la limite de 47 %, puis présenterai le document du Secrétariat du travail, en insistant surtout sur les motifs invoqués pour faire sauter le verrou du 47 %.

Le verrou du 47 %

Ce qu’on appelle couramment le verrou du 47 % est la décision prise en 2002 (voir ce document de 136 pages du Comité interministériel sur la révision des critères de détermination du salaire minimum, surtout les pages numérotées 54 à 57) de tenter d’établir le salaire minimum dans une fourchette se situant entre 45 et 47 % du salaire moyen des travailleurs rémunérés à l’heure au Québec. Ce «verrou» a été adopté à la suite de la parution d’une étude de Pierre Fortin (Le salaire minimum au Québec : trop élevé ou trop bas?, étude parue en 1997, mais non disponible sur Internet) arrivant à la conclusion qu’un salaire minimum inférieur à 45 % du salaire moyen n’entraîne aucun effet négatif sur l’emploi et que ces effets deviennent toujours négatifs lorsqu’il dépasse 50 %. Il concluait que «Entre ces bornes, la zone de 45 % à 50 % amènerait un danger croissant pour l’emploi». Cette étude reposait en grande partie sur une autre étude datant de 1991 ayant comparé l’effet du salaire minimum sur l’emploi entre deux périodes, soit de 1956 à 1975 et de 1976 à 1988. Bref, on parle d’une autre époque… Comme je l’ai montré dans ce billet, cette époque n’a rien à voir avec l’époque actuelle, notamment parce que le ratio des entrants (personnes âgées de 15 à 24 ans) sur les sortants (personnes âgées de 55 à 64 ans) est passé de 2,6 dans les années 1970 à 0,8 en 2015, proportion 3,1 fois moins élevée! Bref, il y a maintenant plus de personnes qui approchent l’âge de la retraite que de personnes qui ont l’âge où on entre habituellement sur le marché du travail. Disons que cela devrait inciter le gouvernement à attirer plus de gens sur ce marché, par exemple en augmentant le salaire minimum.

L’analyse d’impact

L’analyse d’impact réglementaire sur la «révision du taux général du salaire minimum», datée du 6 janvier 2017, vise à analyser 13 indicateurs socioéconomiques potentiellement touchés par une hausse du salaire minimum. Je vais ici résumer les constats sur quelques-uns de ces indicateurs.

Les bénéficiaires de la hausse du salaire minimum : Le document estime que la hausse de 0,50 $ du salaire minimum le premier mai prochain touchera directement les 216 100 personnes (dont 120 500 femmes, ou 55,8 % du total) travaillant au salaire minimum, ainsi que les 134 500 personnes (dont 82 200 femmes ou 61,1 %) recevant entre 10,75 $ et 11,25 $ de l’heure, pour un total de 350 600 personnes, soit presque 10 % des salarié.e.s du Québec. Il s’agit d’une augmentation notable (de 34,9 %) par rapport à l’impact de la hausse de 0,20 $ de l’a dernier, alors que 259 900 étaient touchées (voir la page 5 de l’analyse d’impact de l’an dernier).

verrou-du-salaire-minimum1Le pouvoir d’achat des salariés : Le graphique ci-contre compare la hausse du salaire minimum (4,65 %) avec la hausse de l’indice des prix à la consommation (0,74 %) et d’autres indicateurs. Celui qui m’a le plus surpris est la hausse de seulement 0,60 % du salaire horaire moyen (SHM). Bref, même si la hausse de 4,65 % est loin des 39 % que cela prendrait pour que le salaire minimum se rende à 15,00 $ et s’approche du salaire viable, il faut reconnaître que cette hausse contribue à réduire les inégalités (pas beaucoup, mais de façon non négligeable).

Impact sur la compétitivité des entreprises : Le document compare le niveau du salaire minimum québécois à celui des États-Unis (qui varie énormément d’un État à l’autre) et desautres provinces canadiennes. Dans ce cas, le salaire minimum du Québec se retrouvera en octobre 2017 au quatrième rang à égalité avec la Colombie-Britannique, derrière l’Alberta, l’Ontario et le Manitoba (!).

Le ratio du salaire minimum sur le salaire horaire moyen : Voilà l’indicateur dont j’attendais le plus l’analyse! Je vais donc y accorder plus d’importance. Avec la hausse de 0,50 $, ce ratio passera d’une moyenne de 46,8 % en 2015-2016 à environ 48,4 % en 2017-2018 et atteindra 50 % en 2020-2021 grâce à des hausses de 0,50 $ en mai 2018 et de 0,35 $ en mai 2019 et 2020. Bye-bye le verrou de 47 %! Le document prévoit toutefois que, même avec ce nouveau ratio (ou verrou…), le salaire minimum n’atteindrait 15,00 $ qu’en mai 2029… Il s’agit donc d’avancées intéressantes, mais bien loin des revendications sociales. Il faudra donc s’attaquer à l’avenir au verrou du 50 % comme nous nous sommes attaqués à celui du 47 %.

Le document présente ensuite les arguments qui justifient la hausse de ce ratio. Le tableau qui suit montre l’évolution du taux de chômage et du taux d’assistance sociale (nombre de prestataires de l’aide sociale sur la population âgée de moins de 65 ans) au cours de deux périodes (1997 à 2002 et 2010 à 2015) où le ratio du salaire minimum sur le salaire horaire moyen s’est situé entre 45 et 47 %.

verrou-du-salaire-minimum2

On peut y voir que le taux de chômage est passé de 11,4 % à 7,6 % entre 1997 et 2015 (une baisse 33 %) et le taux d’assistance sociale de 12,0 % à 6,5 % (une baisse de 45 %, même si on continue de harceler ces prestataires…). La situation de la fin des années 1990 qui justifiait, selon les auteur.e.s du document, la prudence et le maintien du ratio entre 45 et 47 % a tellement changé qu’elle ne le justifie peut-être plus (il est à peu près temps de s’en rendre compte!). Le texte se poursuit ainsi :

«Bien que la composition des emplois au SM (salaire minimum) soit demeurée relativement stable avec une prévalence des emplois dans le secteur des services, le contexte actuel du marché du travail a évolué avec l’essor du travail atypique et du travail à temps partiel, mais aussi avec une pénurie de main-d’œuvre qui s’accentue, faisant en sorte que la valorisation du travail demeure un enjeu crucial. L’évolution favorable du contexte et des conditions économiques, notamment avec un taux de chômage à 7,6 % et un taux d’assistance sociale à 6,5 % en 2015, suggère une revalorisation du travail qui contribuera à faire évoluer la politique du SM.»

Disons que cela ressemble aux arguments que j’ai mentionnés plus tôt! Le document se poursuit en montrant que le ratio du salaire minimum sur le salaire moyen est plus élevé que celui du Québec dans cinq provinces, soit «l’Île-du-Prince-Édouard (0,5223), le Nouveau-Brunswick (0,5022), la Nouvelle-Écosse (0,4956), le Manitoba (0,4939) et l’Ontario (0,4880)» et qu’il le sera bientôt dans une sixième (Alberta). On voit donc qu’on se choisit bien les verrous qu’on veut bien se choisir! «En décidant de relever progressivement son ratio de 47 % à 50 %, le Québec s’inscrirait non seulement dans la tendance canadienne, mais il demeurerait parmi les provinces ayant l’un des ratios les plus bas, notamment parmi les provinces limitrophes». Bizarre que jamais cet argument n’ait été examiné les années précédentes!

Les auteur.e.s poursuivent avec un argument que j’ai aussi utilisé fréquemment, soit que les industries où se retrouvent les personnes payées au salaire minimum sont peu sujettes à la concurrence internationale. Je disais par exemple qu’on n’irait pas prendre notre café en Chine parce qu’il y est moins cher! «L’influence du SM sur la compétitivité de ces entreprises n’est pas prononcée». C’est le moins qu’on puisse dire! On ajoute que, dans ce contexte, les arguments pour augmenter l’incitation au travail et améliorer le sort des personnes qui travaillent au salaire minimum gagnent en importance, car l’aspect habituellement plus négatif d’une hausse du salaire minimum (la réduction de la compétitivité des entreprises) ne joue presque pas. Ce que les auteur.e.s n’expliquent pas, c’est pourquoi il faut limiter cette hausse à 50 % du salaire moyen…

Les auteur.e.s ajoutent que «La hausse du SM envisagée aurait un impact direct limité sur les coûts de main-d’œuvre pour l’ensemble des entreprises». En effet, «L’augmentation directe (sans l’effet d’émulation) de la masse salariale au SM à la suite de la hausse de 0,50 $ l’heure serait d’environ 174 M$, soit 0,12 % de l’ensemble de la masse salariale au Québec. Dans le secteur du commerce de détail, les effets directs de l’augmentation du SM seraient d’environ 57,7 M$, soit une variation de la masse salariale sectorielle de 0,45 %. Dans le secteur des services d’hébergement et de restauration, l’augmentation directe de la masse salariale sectorielle serait de 41,8 M$, soit de 0,80 %, si on ne tient compte que des effets directs». Les auteur.e.s auraient pu ajouter que la masse salariale ne représente en moyenne que 11,5 % des revenus dans le commerce de détail (voir ce billet) et que la hausse de 0,50 $ du salaire minimum équivaut à seulement 0,05 % de ces revenus (0,45 % x 11,5 % = 0,052 %). Bref, cette hausse aurait peu ou pas d’impact sur les prix.

Le document conclut que «Les coûts directs se rattachant au scénario d’une hausse de 0,50 $ sont relativement faibles, si on les compare non seulement à l’ensemble de la masse salariale, mais aussi au coût d’opportunité lié à la hausse du SM. En effet, même si le pourcentage d’emplois rémunérés au taux actuel dans ces industries est relativement faible, les coûts inhérents au taux de roulement de la main-d’œuvre ainsi qu’à sa rétention et à sa mobilisation seraient plus importants». Encore d’autres arguments que j’ai avancés fréquemment. Et, si le salaire minimum passait à 15,00 $, cela n’aurait-il pas plus d’effet sur la baisse du taux de roulement, sur la rétention du personnel et sur sa mobilisation qu’une hausse de 0,50 $? Je suis en effet dubitatif sur l’effet d’une hausse de 0,50 $ sur ces facteurs, alors qu’une hausse de 4,25 $ (même si elle était étalée sur quelques années) aurait sûrement un effet bien plus déterminant sur ces facteurs qu’on néglige trop souvent. Les auteur.e.s soulignent d’ailleurs que le Comité sectoriel de main-d’œuvre du commerce de détail a déterminé que ces facteurs (le roulement, la rétention et la mobilisation, avec en plus les difficultés de recrutement) sont les enjeux de main-d’œuvre les plus importants pour les employeurs de ce secteur.

Impact sur l’emploi : Les auteur.e.s présentent deux méthodes de calcul, la première, dite néoclassique, qui arrive à la conclusion que la hausse de 0,50 $ du salaire minimum ferait perdre entre 2 500 et 7 600 emplois, et la deuxième, dite hétérodoxe, qui conclut que cette hausse ferait au contraire augmenter l’emploi de 10 400…

Je saute la section sur les effets sur le faible revenu (ou la pauvreté), en me contentant de mentionner que ces effets sont minimes.

Coût pour le gouvernement : Habituellement, ce document estime l’augmentation des dépenses et des revenus pour le gouvernement d’une hausse du salaire minimum. Par exemple, l’an passé (voir l’annexe B aux pages 19 et 20 de ce document), les mêmes auteur.e.s ont estimé que la hausse de 0,20 $ du salaire minimum entraînait une augmentation de 1,8 million $ au gouvernement (6,3 millions $ de recettes et 4,5 millions de dépenses). Ce calcul n’a malheureusement pas été fait cette année. Cela dit, étant donné que la hausse est deux fois et demie plus élevée et qu’elle touche 35 % plus de personnes, il est presque certain qu’elle apportera plus de gains nets au gouvernement (environ 6 millions $, probablement).

Annexe I : Cette annexe (voir la page 23) présente des statistiques sur les personnes touchant le salaire minimum. On y trouve des données assez connues (56 % de femmes, 62 % de jeunes âgés de 15 à 24 ans, 63 % qui travaillent dans le commerce de détail, l’hébergement et la restauration, 64,7% n’étudient pas à temps plein, etc.), mais aussi quelques données moins courantes. Ainsi, on y apprend que 58 % d’entre elles travaillent moins de 25 heures par semaine (par rapport à 16,5 % de l’ensemble des salarié.e.s) et surtout que 51,4 % sont les seuls à toucher un revenu dans leur famille, pourcentage plus élevé que pour l’ensemble des salarié.e.s (44,4 %). Ce constat contredit le mythe que ces personnes ne font qu’apporter un revenu d’appoint à leur famille.

Et alors…

Ce qui m’a le plus frappé dans ce document, c’est qu’il contient de nombreux arguments que les partisans d’une forte hausse du salaire minimum apportent depuis des années, mais qui ne se retrouvaient pas, en tout cas pas de façon aussi marquée, dans les analyses d’impact antérieures. Cela donne l’impression que ces documents ne sont pas seulement des analyses des effets d’une hausse du salaire minimum, mais aussi des documents de justification de décisions politiques. Au moins, cette année, ce document justifie une décision plus positive que celles des années précédentes! Et comme la mobilisation a permis de faire sauter le verrou du 47 %, pourquoi ne pourrait-elle pas faire sauter celui du 50 %?

Un système financier dangereux

1 février 2017

systeme-financier-maladeJ’ai lu de nombreux textes sur les défauts du système financier, mais aucun aussi complet et bien étayé que l’étude de Anat R.Admati que je vais présenter dans ce billet. Paraphrasant l’expression bien connue que «ça prend tout un village pour élever un enfant», elle a intitulé son texte It Takes a Village to Maintain a Dangerous Financial System (Ça prend tout un village pour maintenir un système financier dangereux). Quand je lis un document, je souligne les parties que je juge les plus intéressantes et pertinentes pour que la rédaction du billet que je vais écrire sur ce texte soit plus facile. Mon problème avec la présente étude est que j’ai souligné presque toutes ses 32 pages (sauf la bibliographie). Je vais quand même tenter de faire ressortir les éléments les plus marquants de ce texte tout en invitant les personnes intéressées par ce sujet à le lire en entier.

Introduction

«Le système financier est conçu pour faciliter l’allocation efficace des ressources et aider les gens et les entreprises à financer, investir, épargner et gérer les risques». Malheureusement, cet objectif représente de nos jours une partie bien moins importantes des activités du secteur financier et est bien moins rigoureux qu’auparavant. En effet, ce système est tellement sujet aux conflits d’intérêts qu’on ne peut pas le laisser fonctionner librement sans en subir des dommages importants. En plus, la réglementation ne permet pas de punir les responsables de ses dérapages de plus en plus fréquents et graves.

Dans bien des activités économiques, comme dans le transport aérien, on fuit les risques excessifs. Jamais on n’accepterait que des avions s’écrasent quotidiennement. Et, malgré les dizaines de départs quotidiens des avions, les accidents sont relativement rares, justement parce qu’on réduit le risque le plus possible. Le secteur financier est une des seules industries où, non seulement on ne fuit pas le risque excessif, mais où les règles incitent ses acteurs à en prendre toujours davantage.

Non seulement ce secteur demande-t-il constamment de réduire la réglementation déjà insuffisante qui l’encadre, mais il a développé une mise en récit efficace pour donner l’impression qu’il n’est jamais responsable des crises pourtant bien prévisibles compte tenu des risques qu’il prend et que ces crises sont des événements imprévisibles (parlant par exemple de cygnes noirs, soit d’événements imprévisibles très rares). Si d’autres secteurs favorisent aussi la culture du risque et du camouflage (défauts potentiellement mortels des automobiles, explosions de téléphones cellulaires, dangers du tabac ou du football, mauvaise qualité de l’eau potable, etc.), l’État intervient généralement (même si cela prend souvent des campagnes du public pour le faire réagir) pour adopter des règlements ou des contrôles pour forcer ces industries à réduire les risques qu’elles prennent ou font subir à leur personnel et à leurs clients.

Par contre, même après une crise mondiale, les États hésitent encore à réglementer suffisamment le secteur financier. L’auteure présente les facteurs qui expliquent ce manque d’action :

  • les experts qui connaissent assez bien ce secteur pour pouvoir proposer une réglementation adéquate sont souvent biaisés, soit idéologiquement, soit en raison de conflits d’intérêts;
  • «Dans le domaine financier, la recherche est souvent fondée sur des hypothèses inappropriées et est utilisée pour appuyer les mauvaises politiques sans examen approfondi.»;
  • ces défauts ne sont pas faciles à décoder pour une personne extérieure à ce secteur, car «le jargon est déroutant et les détails techniques sont intimidants»;
  • les asymétries d’information y sont prévalentes : les personnes qui tirent profit des failles de ce secteur contrôlent une grande partie de l’information qui est inaccessible à celles qui les subissent;
  • le fait que les profits de ce secteur soient privatisés et les pertes socialisées pervertit «les notions de responsabilité et d’imputabilité»;
  • même si les crises financières touchent l’emploi et le bien-être d’une grande partie de la population, ce sont leurs responsables qui en subissent le moins les effets.

L’argent des autres

Les courtiers en valeurs mobilières («traders») risquent l’argent des autres, de banques, de particuliers ou d’autres organismes (comme des fonds de pension). S’ils gagnent, ils récoltent le pactole, s’ils perdent, ce sont leurs clients qui perdent (pile je gagne, face tu perds). En plus, le secteur financier est de loin celui dont les actifs proviennent le plus d’emprunts (surtout de déposants, mais pas seulement). Dans tous les domaines, une forte présence d’emprunts dans les actifs augmente les risques de faillite et crée des conflits d’intérêts entre les gestionnaires d’une entreprise et ses préteurs qui augmentent les taux d’intérêt de leurs prêts lorsque la proportion des emprunts dans les actifs est trop élevée, fragilisant encore plus l’entreprise emprunteuse.

Dans le secteur financier, cette tension est moins présente, car les déposants sont généralement passifs. Ils comptent sur l’assurance-dépôt et même sur l’intervention gouvernementale si la situation d’une banque se détériore (ce qui se passe en général). Cela dit, comme les actifs des entreprises de ce secteur sont fortement liés, il s’agit qu’une seule banque (et pas nécessaire une dite «trop grosse pour faire faillite») éprouve des problèmes pour que bien d’autres, et bientôt toutes, se trouvent fragilisées. Mais, elles demeurent zen, car elles savent que l’État les sauvera si la situation dégénère… Et cela les porte à prendre des décisions «inefficaces ou dysfonctionnelles». Au bout du compte, sans une réglementation efficace, «le public subventionne et récompense les emprunts et les risques excessifs pris par les banques et subit les effets négatifs du système fragile et insalubre qui en résulte».

Et les problèmes s’accentuent. «Les innovations financières telles que la titrisation et les produits dérivés, qui permettent officiellement de mieux gérer les risques, ont permis aux entreprises financières de prendre encore plus de risques tout en cachant ce fait dans un système financier de plus en plus complexe et opaque. Étant donné que l’accès privilégié au financement et les possibilités de dissimuler le risque ont été élargis, les règlements et les règles de divulgation n’ont pas réussi à maintenir et à contrer ces incitations perverses».

Malgré ces lacunes bien documentées, les exigences de capital propre demeurent toujours insuffisante, tant pas leur faible pourcentage des actifs (parfois aussi peu que 3 %), que par le manque de précision sur la qualité de ces capitaux. De même, les fameux tests de résistance («banking stress test»), qui sont censés évaluer la solidité du système financier, sont tout aussi laxistes. Mais le pire est que les États continuent de tolérer «un système inefficace et dangereux parce que les décideurs ne parviennent pas à contrer les incitations déformées et, au contraire, contribuent à les maintenir». Cette situation ne profite pas qu’aux gestionnaires et courtiers du secteur financier, mais aussi aux comptables, aux agences de notation, aux cabinets d’avocats, aux consultants et aux lobbyistes qui s’enrichissent en raison de la complexité et de l’inefficacité de la réglementation. Il n’y a que les contribuables et l’ensemble de la population qui perdent…

De nombreux complices

Pour en arriver là, cela a pris tout un village de complices, chacun ayant ses objectifs et ses incitatifs. Les premiers auxquels on pense sont les lobbyistes, mais il ne faut pas oublier les comptables et avocats mentionnés précédemment, mais aussi les organismes de réglementation, les banques centrales et les médias. Par exemple, les agences de notation, les organismes de réglementation et les comptables se prétendent de neutres chiens de garde du système, mais ceux-ci sont en fait des entreprises à but lucratif qui ont peu ou pas de responsabilité envers le public et ont des intérêts bien différents de ceux de la population. Les sociétés financières sont souvent leurs clients et ils s’échangent leur personnel. Bref, ils collaborent bien plus qu’ils ne se surveillent. Ils n’ont jamais intérêt à révéler la fragilité du système ni même les fraudes qu’ils peuvent observer. Pire, les dénonciateurs («whistleblowers») sont ostracisés et voient en général leur carrière compromise. La concurrence internationale, fort présente dans ce secteur, porte en outre les États à défendre «leurs» sociétés» plutôt qu’à les surveiller pour défendre l’intérêt public.

L’auteure aborde ensuite la capture de la réglementation (et aussi la capture culturelle et même la capture cognitive qui intensifient les liens entre les surveillants et les surveillés) par les sociétés financières et les effets des portes tournantes, qui font en sorte qu’un employé d’un organisme de réglementation se fait souvent offrir un pont d’or pour travailler pour les sociétés financières qu’il avait le mandat de surveiller. Tout cela contribue en plus à la complexification de la réglementation que seules quelques personnes parviennent à comprendre dans son ensemble. Et ce sont ces personnes qui sont les plus recherchées des deux côtés de la clôture (en fait inexistante). Elle parle aussi dans cette section des lobbyistes et des contributions de ce secteur aux campagnes électorales.

Les économistes sont aussi complices de cette situation. Que ce soit par intérêt personnel (les sociétés financières embauchent de nombreux économistes et leur donnent d’importants contrats de recherche) ou par idéologie (malgré la crise récente, des économistes prétendent encore que les marchés financiers et la Bourse reflètent toujours la valeur «réelle» des actions), ils «fournissent un appui «scientifique» (par exemple à la déréglementation) qui contribue à obscurcir ou à justifier des solutions» qui empirent la situation. Et, presque toujours, ces économistes appuient les demandes de l’industrie.

Les banques centrales jouent un rôle crucial sur le secteur financier et même sur l’économie tout entière. Comme «prêteur en dernier ressort», ce sont elles qui fournissent la liquidité aux banques qui en manquent. Elles interviennent aussi pour conseiller le législateur et voir au respect de la réglementation. Comme pour les économistes, les responsables des banques centrales sont proches des intérêts du secteur financier (ils en viennent presque tous) et partagent son idéologie et sa répulsion pour la réglementation contraignante.

Il y a bien quelques organismes, politiciens et régulateurs qui tentent de contrer le discours du secteur financier, mais ils ne peuvent contrebalancer le pouvoir, les ressources et l’influence collective du secteur financier et de ses complices. Le seul pouvoir qui pourrait surpasser le leur est celui des citoyens, mais pour qu’ils l’exercent, il faudrait qu’ils soient correctement informés et alertés. Si les médias révèlent de temps en temps des fraudes ou l’influence de l’argent sur les politiciens, il est rare qu’ils s’en prennent au fond des problèmes qui minent l’efficacité et la probité du secteur financier. L’auteure attribue cette lacune aux intérêts des propriétaires des médias et à leur dépendance envers les revenus de publicité, ainsi qu’au coût des enquêtes journalistiques (et à quelques autres facteurs).

Et le reste…

Dans le reste de son document, l’auteure relève notamment la mise en récit, le raisonnement motivéIl est difficile d’amener un homme à comprendre quelque chose quand son salaire dépend du fait qu’il ne le comprenne pas!») et la propagande (le «spin») utilisés par le secteur financier. Elle termine son document en se demandant s’il est possible de faire changer ce système. Ses solutions sont bien sûr de corriger les défauts qu’elle a présentés plus tôt. Et elle conclut :

«Des systèmes aussi enracinés et puissants résistent au changement, mais une société juste ne doit pas tolérer une situation dans laquelle des systèmes d’une importance critique comme le système financier soient dirigés contre les intérêts de la grande majorité. Plus de gens doivent prendre conscience du problème et comprendre ce qui ne va pas. Ensuite, ils doivent exiger des décideurs de faire mieux. Le changement est possible, mais il faudra tout un village pour réparer le système financier.»

Et alors…

Même si j’ai dû résumer à outrance ce document et surtout ses dernières pages, j’espère avoir pu rendre son esprit. Rarement ai-je lu un texte aussi clair et pertinent sur le secteur financier, si ce n’est le livre de Joris Luyendijk Plongée en eau trouble que j’ai présenté dans ce billet, livre qui est justement cité par Mme Admati. Face au constat aussi accablant fourni par cette étude, j’ai trouvé rafraîchissant que l’auteure soit aussi optimiste (quoique réaliste) sur les possibilités de corriger le système financier. Et, oui, ça prendrait tout un village pour réussir…

À l’ombre de la langue légitime

30 janvier 2017

langue-legitimeDans la conclusion de mon billet sur La langue rapaillée d’Anne-Marie Beaudoin-Bégin, j’ai annoncé qu’un billet prochain présenterait un autre livre portant sur la langue française. Ce fut encore moins long que je ne le pensais! À l’ombre de la langue légitime – l’Acadie dans la francophonie d’Annette Boudreau, professeure en sociolinguistique à l’Université de Moncton, «questionne les processus à la base de la légitimation linguistique».

Préface : Michel Francard salue l’auteure, puis précise que ce livre interroge les francophones «périphériques» sur «leur rapport à la norme, à leur(s) norme(s); conteste une vision essentialiste de la langue française et le rapport mythique au «français des Français»; invite à remettre en cause nombre de stéréotypes stigmatisant les minorités linguistiques (et autres)».

Pour mieux comprendre : «Depuis aussi longtemps que je me souvienne, j’ai eu l’impression de ne pas parler français comme il le fallait». Après ce constat, l’auteure précise la portée de sa discipline, la sociolinguistique, soit celle qui étudie «les inégalités sociales reliées aux rapports de domination qui se révèlent dans les pratiques langagières». Ces inégalités se traduisent par «un nombre important de locuteurs qui vivent ou qui ont l’impression de vivre comme étant assujettis à des «normes» dominantes sur lesquelles ils n’ont pas de pouvoir, ce pouvoir étant masqué dans des procédés subtils de domination qui ne se laissent pas voir comme tels et qui souvent acceptés d’emblée comme allant de soi par les personnes qui les subissent». Toute une entrée en matière! Elle précise ensuite ses objectifs en écrivant ce livre et son approche pour les chapitres qui suivent. Puis, elle aborde :

  • l’histoire de la place du français et de ses institutions en Acadie, surtout au Nouveau-Brunswick;
  • l’évolution de l’enseignement de la linguistique à l’Université de Moncton, le conflit entre la qualité de la langue (le français étant considéré comme une langue unique, celle des Parisiens, position que l’auteure appuyait à l’époque, soit au début des années 1970) et le bilinguisme (souvent outil d’assimilation), et les mouvements de revendications des francophones;
  • ses études en lettres en France, au cours desquelles son insécurité linguistique s’est accentuée;
  • ses premières années d’enseignement en français (langue seconde et mise à niveau) à l’Université de Moncton et sa participation à des séminaires où elle a pour la première fois étudié la sociolinguistique.

Retour à Moncton : L’auteure revient sur le dilemme des francophones de Moncton (le tiers de la population) sur la langue à utiliser en public compte tenu de l’accueil qui peut leur être fait par les membres de la majorité anglophone (et même parfois par d’autres francophones). Elle aborde ensuite :

  • la perception qu’ont les Acadiens de mal parler le français, en raison de l’utilisation de nombreux archaïsmes et anglicismes, tendance encore plus présente dans le chiac (tendance pourtant normale chez des personnes obligatoirement bilingues, car entourées d’une forte majorité anglophone);
  • sa plus grande acceptation des particularités du français acadien après avoir suivi des ateliers de sociolinguistiques en France et les recherches qu’elle a accomplies sur le sujet par la suite;
  • ses expériences avec des sociolinguistes françaises qui s’intéressaient au français acadien et même au chiac, collègues qui l’ont encore plus libérée de son insécurité linguistique et qui l’ont convaincue d’écrire une thèse de doctorat à partir d’une recherche qu’elle avait commencée avec une autre enseignante sur le rapport à la langue des adolescents francophones du Nouveau-Brunswick.

Positionnement du chercheur et construction du savoir en milieu minoritaire : L’auteure montre qu’il est parfois bénéfique qu’une chercheure fasse elle-même partie de l’objet de ses recherches, comme cela fut son cas dans celles qui ont mené à la rédaction de sa thèse. Elle aborde ensuite :

  • les avantages et les désavantages de faire partie de l’objet de ses recherches ou de venir de l’extérieur (ou de faire sentir qu’on vient de l’extérieur);
  • les attentes créées par une chercheure qui vient de l’intérieur auprès de la population locale;
  • la «honte» ressentie par de nombreux Acadiens quand un des leurs utilise leur langue, ou pire, le chiac, à l’extérieur du Nouveau-Brunswick (l’auteure mentionne notamment la polémique sur les textes des chansons de Lisa Leblanc);
  • le danger qu’un chercheur issu de la communauté qu’il étudie soit perçu comme condescendant ou, à l’inverse, trop concerné pour demeurer objectif.

Le terrain est roi, mais pour qui? : L’auteure explique dans ce chapitre quelques aspects méthodologiques sur sa recherche sur le rapport à la langue des adolescents. Elle aborde :

  • l’utilité d’avoir deux chercheurs, un de l’intérieur et un de l’extérieur, lors des entretiens de façon à pouvoir à la fois déstresser la personne interviewée et éviter le rapport de domination qui peut se développer entre l’intervieweur et l’interviewé (elle souligne d’ailleurs que «la transcription est toujours un exercice du pouvoir»), tout en maintenant une saine distance;
  • l’importance de la transcription des entrevues, surtout pour tenir compte de la différence entre l’oral et l’écrit; elle précise que le but de la transcription est de souligner les particularités de la langue étudiée, et non les différences universelles entre l’oral et l’écrit (il est «normal» et universel de prononcer «p’tit» au lieu de «petit», il n’est donc pas nécessaire ni utile – et il est carrément nuisible – de souligner la différence entre l’oral et l’écrit dans ce type de cas).

De l’analyse de l’insécurité linguistique à l’analyse du discours : Dans ce chapitre (et dans les suivants), l’auteure présente différentes recherches. Elle aborde :

  • un travail effectué au Québec pour construire «une ou des normes pour le français au Canada»;
  • des travaux faits au Québec pour étudier «les représentations d’étudiants québécois de langue anglaise et française à l’égard des locuteurs anglophones et francophones» (ils émettent tous des commentaires plus positifs sur les locuteurs anglophones que sur les francophones, même si ceux-ci lisent le même texte, montrant ainsi que les étudiants francophones ont intégré les stéréotypes négatifs sur le français québécois);
  • le contenu de quelques-unes des entrevues tenues avec des adolescents acadiens dans le cadre de sa recherche sur leur rapport à la langue et montre que l’insécurité linguistique s’accroît dans les milieux minoritaires francophones, où on considère davantage mal parler le français et où on idéalise le «vrai» français parlé en France;
  • le fait que ces comportements correspondent aux conclusions d’autres études sociolinguistiques qui observent aussi le lien entre l’insécurité linguistique et le contexte social, les rapports hiérarchiques entre les locuteurs et la «dépréciation des variétés linguistiques au profit d’un modèle mythique et inaccessible (le français standard, le français normé)»;
  • l’accentuation de cette insécurité linguistique dans un milieu bilingue, surtout lorsque le français est la langue minoritaire;
  • les conséquences, positives comme négatives, de nommer une variété de langue ou une communauté (canayen, canadien français, québécois, acadien, chiac, etc.); à cet égard, l’auteure mentionne une autre étude qui montre que les jeunes qui travaillent en français 10 ans après les premières entrevues ont tendance à abandonner le chiac contrairement à ceux qui travaillent en anglais, ce qui montre encore une fois l’importance de l’environnement dans la forme du langage utilisé;
  • le fait que le chiac se transmet difficilement par écrit, même les personnes qui le parlent couramment préférant le laisser de côté quand ils écrivent.

Authenticité et mise en scène – des profits symboliques aux profits matériels : L’auteure relate dans ce chapitre sa participation à des travaux du Centre de recherche en linguistique appliquée (CRLA) avec des linguistes provenant aussi bien de Toronto et de Montréal que de l’Allemagne et de la France. Elle aborde :

  • les sujets de leurs recherches et les interrogations qu’ils suscitaient chez elle;
  • l’évolution de l’identité acadienne (texte très riche, je trouve);
  • les discussions autour de cette question lors du premier Congrès mondial acadien en 1994 (notamment pour savoir s’il faut parler français et habiter les Maritimes pour pouvoir revendiquer le nom «Acadien»);
  • les particularités de l’acadjonne, forme d’acadien parlé en Nouvelle-Écosse dans la région de la Baie Sainte-Marie, ainsi que la volonté de nombreux membres de cette communauté de conserver ces particularités;
  • le fait que ce n’est pas que le français «standard» qui est normé, mais aussi des langues vernaculaires comme l’acadjonne; elle explique que si on s’éloigne de ces normes on pourra être considéré comme extérieur à la communauté qui utilise cette langue (ou ce «lecte»);
  • les particularités de l’acadien de Chéticamp, toujours en Nouvelle-Écosse.

Fierté et profit : L’auteure explore différents concepts, comme ceux de la fierté d’être différent, l’authenticité (parfois mise en scène devant les touristes) et le profit (soit grâce au bilinguisme, à l’attrait auprès des touristes ou aux particularités de leurs artistes). Mais la honte et les rapports de domination ne sont jamais bien loin, dès que les locuteurs acadiens sortent de leur région ou sont en contact avec l’extérieur. Dans cette optique, elle présente :

  • les difficultés d’une ministre fédérale quand des francophones ont ridiculisé son accent et ses expressions dont elle était pourtant fière;
  • l’inconfort d’employés francophones (mais parlant familièrement le chiac) dans un centre d’appels supposément bilingue, mais où tous les patrons sont anglophones, les logiciels en anglais et la langue de travail anglaise;
  • les hauts et les bas de la diversité linguistique.

De quelques productions culturelles en Acadie : L’auteure explique l’impact négatif sur les francophones hors Québec de la décision des Canadiens français du Québec de dorénavant se présenter comme des Québécois. À la même époque (autour des années 1960), on assiste à une tentative de normaliser le français aussi bien au Québec que dans les Maritimes, dépréciant les expressions régionales en prétendant qu’il n’y a en fait qu’une seule bonne façon de le parler et de l’écrire. Puis, sont arrivés au Québec l’Osstidcho et Les belles-sœurs, puis La Sagouine en Acadie, productions qui ont su revaloriser la langue populaire. Il faut savoir que ces «langues» ont toujours été transmises oralement, que c’était les premières fois qu’elles l’étaient par l’écrit et qu’elles bénéficiaient d’une reconnaissance internationale. Comme le dit l’auteure, «La réception positive d’une œuvre à l’extérieur contribue à sa légitimation, surtout dans les petites cultures très dépendantes du jugement des autres». À la même époque, le documentaire L’Acadie, l’Acadie, produit par des Québécois, a aussi eu un impact important. Des Acadiens ont en effet revendiqué davantage par la suite, tandis que d’autres furent choqués.

Différence linguistique et profit de distinction : L’auteure se penche ici sur la différence linguistique dans les œuvres littéraires. Elle utilise pour ce les textes de deux écrivains du sud-est du Nouveau-Brunswick, Gérald Leblanc et France Daigle. L’insécurité linguistique (elle parle même d’obsession linguistique) est très présente chez ces deux auteurs qui utilisent dans leur œuvre les trois registres de français (standard, acadien et chiac). Elle relate par la suite une entrevue qu’elle a réalisée en 1998 avec Herménégilde Chiasson, artiste acadien qui a été lieutenant-gouverneur du Nouveau-Brunswick de 2003 à 2009. Elle retient entre autres de cette entrevue qu’une «Acadie réduite à elle-même ne peut être que folklorique et accessoire. L’essentiel de son projet d’écriture a été d’inciter les gens à prendre la parole au lieu de se laisser définir par d’autres». Elle termine ce chapitre en racontant la controverse suscitée (dans des articles de Christian Rioux et Antoine Robitaille du Devoir) par l’utilisation du chiac et l’acadjonne par Lisa Leblanc, Radio-Radio et les Hay Babies, et en soulignant l’aplomb des explications de ces artistes («c’est notre langue et c’est ça qui est ça») qui refusent de se justifier davantage.

Épilogue : L’auteure revient sur l’objectif poursuivi par ce livre : «C’est donc dans cet esprit d’une subjectivité assumée (elle est à la fois du dedans et du dehors de l’objet de ses études) que j’ai voulu faire écouter les paroles entendues, les sortir de l’ombre, donner une voix à ces personnes (soumises à la domination du français standard et à l’exclusion que cette domination entraîne), et peut-être aussi montrer que ces voix que l’on dit singulières sont aussi collectives, produites par l’histoire et les conditions sociales qui les ont modelées, qui font qu’elles se donnent à entendre ou non». Elle ajoute que c’est «le phénomène de l’insécurité linguistique qui découle directement de l’idéologie du standard qui m’a particulièrement intéressée parce qu’il brime la parole du locuteur, allant jusqu’à le bloquer, à des degrés divers, dans son expression». Et, elle conclut : «La question «Comment être français autrement?» m’a interpellée depuis le début de mes recherches puisque cette question se pose pour tous les francophones qui se sont sentis dépossédés de leur langue à un moment ou à un autre et pour qui «parler français» voulait dire quelque chose».

Et alors…

Lire ou ne pas lire? Lire! J’ai fréquemment mentionné que j’ai un attrait très prononcé sur les livres portant sur la langue française. Celui-ci est à la fois semblable à La langue rapaillée dont j’ai parlé en amorce et foncièrement différent. Il est semblable parce qu’il valorise le registre familier (sans l’idéaliser), déconstruit l’image d’un français standard, légitime et international, et analyse le phénomène de l’insécurité linguistique. Il est différent, parce qu’il est davantage axé sur les aspects sociaux de la question, notamment sur les concepts de domination et d’exclusion, phénomènes drôlement plus accentués en Acadie qu’au Québec.

Je n’ai finalement qu’un seul bémol sur ce livre, c’est que l’auteure ne traduit pas les citations en anglais. C’est peut-être un réflexe chez elle, étant donné que presque tous les Acadiens parlent l’anglais. Mais ce n’est pas nécessairement le cas de ses lecteurs. Finalement, les notes sont en bas de page, ce qui m’a soulagé après avoir lu quelques livres consécutifs qui les mettaient à la fin du livre.

Les jeunes et les permis de conduire

28 janvier 2017

jeunes-et-permis-de-conduireJe vais devoir me répéter un peu dans ce billet, mais c’est parce que les médias se répètent encore plus! En effet, j’ai montré dans la deuxième partie d’un billet datant d’environ un an qu’il était nettement abusif de parler du déclin d’intérêt des jeunes pour les voitures. Mais, les médias ne sont pas prêts de lâcher le morceau!

Statistiques et anecdotes

Dans un article paru au début de la semaine, Le Devoir remet cela. «Les statistiques ne mentent pas. Depuis une quinzaine d’années, les jeunes de 18 à 35 ans changent peu à peu leurs habitudes en matière de transport. Moins portée vers la voiture que ses prédécesseurs, cette génération retarde de plus en plus l’achat d’un véhicule, quand elle ne boude pas carrément le permis de conduire». C’est vrai, les statistiques ne mentent pas, mais il arrive fréquemment qu’on les interprète mal. Comme «preuve» que les statistiques ne mentent pas, la journaliste développe en interviewant deux jeunes femmes de 26 et 28 ans qui n’ont pas d’autos. Ça, c’est des stats! Si elle m’avait interviewé à cet âge, il y a environ 35 ans, j’aurais pu aussi lui expliquer pourquoi je n’avais pas d’auto, mais disons que cela n’aurait pas prouvé que les jeunes délaissaient les permis de conduire! N’ayant obtenu mon permis qu’à 38 ans (et encore, parce que je n’avais guère le choix), disons que je n’étais pas le «jeune type» de ce côté!

Statistiques

Enfin, la journaliste cite des données : «Selon les données de la Société de l’assurance automobile du Québec (SAAQ), la proportion de Québécois âgé (sic) de 16 à 24 ans ayant leur permis de conduire a chuté entre 1996 et 2015, passant de 59,8 % à 55,8 %». Cette statistique est déjà plus pertinente, quoiqu’elle concerne les jeunes âgés de 16 à 24 ans alors que son amorce parle des 18 à 35 ans, que les personnes interrogées sont plus âgées que cela, que la période couverte par ses données date de 20 ans, pas de 15 comme dans son amorce, et que la baisse mentionnée n’est pas vraiment énorme (4,0 points de pourcentage sur 20 ans, ou une baisse de seulement 7 %). Je me suis dit que cela serait intéressant d’examiner l’évolution de cette baisse.

Dans le billet que j’ai mentionné en amorce, j’avais fait débuter en 1990 la période couverte par le graphique que j’y ai montré. Je me suis dit que ce serait intéressant de le faire partir plus tôt. Le graphique qui suit commence donc en 1980. Il montre le pourcentage de jeunes âgés de 16 à 24 ans ayant un permis de conduire à l’aide des données de la Société de l’assurance automobile du Québec (SAAQ) illustrées à la page numérotée 3 de ce document et de celles du tableau cansim 051-0001 sur la population par âge.

jeunes-et-permis-de-conduire1

On voit que le pourcentage de jeunes âgés de 16 à 24 ans ayant un permis de conduire :

  • a augmenté dans les années 1980 pour atteindre son sommet en 1990 (64,6 %);
  • a ensuite diminué fortement jusqu’en 1994 (baisse de 5,2 points de pourcentage à 59,4 %, soit plus en quatre ans que la baisse de 4,0 points que la journaliste trouve très importante, même si cette baisse moins prononcée s’est étalée sur 20 ans);
  • est demeuré assez stable de 1993 à 1997 (59.5 %), période qui comprend l’année 1996 utilisée par la journaliste comme point de départ de la baisse du pourcentage de jeunes âgés de 16 à 24 ans ayant un permis de conduire;
  • a connu une autre période de forte baisse pour atteindre 54,7 % en 2003, son minimum historique, même plus bas de 1,2 point qu’en 2015;
  • est demeuré assez stable de 2002 à 2008;
  • a soudain augmenté de 2,5 points entre 2008 et 2010 (j’y reviendrai plus loin);
  • est revenu à un niveau légèrement plus élevé que de 2002 à 2008 entre 2012 et 2015;
  • était moins élevé il y a 15 ans, en 2002 (54,9 %), qu’en 2015 (55,9 %), même si on peut lire dans l’article que «Depuis une quinzaine d’années», les jeunes sont moins portés sur l’automobile.

On voit donc que la baisse de quatre points de pourcentage mentionnée par la journaliste n’est absolument pas récente, mais date en fait des années 1990! Elle continue… «Dans un même ordre d’idées, l’Institut de la statistique du Québec (ISQ) soulignait en 2014, dans son Regard statistique sur la jeunesse, que cette tendance est encore plus marquée chez les jeunes de 16 à 19 ans, où le nombre de détenteurs de permis est passé de 46 % à 40 % entre 2010 et 2012». Si je remercie la journaliste pour son lien vers le document de l’ISQ (qui contient des données spécifiques pour les jeunes âgés de 16 à 19 ans et pour ceux âgés de 20 à 24 ans, données non présentées dans les documents de la SAAQ), ce qu’elle en a retenu est pour le moins incomplet comme on le verra dans le graphique qui suit, que j’ai réalisé avec les données présentées à la page 135 de ce document.

jeunes-et-permis-de-conduire2

J’ai tenté d’appliquer la présentation du graphique précédent à celui-ci pour pouvoir mieux les comparer. Ainsi, si les échelles de ce graphique (allant de 59 à 73 % pour les jeunes âgés de 20 à 24 ans et de 34 à 48 % pour les jeunes âgés de 16 à 19 ans) sont bien différentes de celle du précédent (allant de 52 à 66 %), les trois s’étendent sur 14 points de pourcentage. On peut voir sur celui-ci que le pourcentage de jeunes âgés de 20 à 24 ans (ligne rouge, échelle de gauche) a diminué de 5,0 points de pourcentage entre son sommet de 1996 et son plancher de 2006 et a ensuite augmenté de 1,9 point entre 2006 et 2012 (dernière année de cette série). Drôle de façon de se désintéresser de l’automobile! De la forte hausse observée sur le précédent graphique en 2010, on ne voit qu’une légère augmentation de moins d’un point de pourcentage en 2011, augmentation complètement effacée l’année suivante.

Le portrait est bien différent chez les jeunes âgés de 16 à 19 ans (ligne bleue, échelle de droite). Tout d’abord, la baisse entre le sommet de 1996 (45,2 %) et le plancher de 2002 (35,8 %) est presque deux fois plus élevée que chez les jeunes âgés de 20 à 24 ans (9,4 points par rapport à 5,0). La hausse subséquente culminant en 2010 (46,1 %) est encore plus abrupte, avec une hausse de 10,3 points, mais fut bien temporaire, revenant à 39,5 % en 2012, en baisse de 6,6 points en deux ans. Ces mouvements sont-ils dus à des différences d’attachement à la voiture, comme l’article le laisse penser? Il semble bien que non! On lit en effet à la page 134 du document de l’ISQ que «Le taux de titularisation chez le sous-groupe des jeunes de 16 à 19 ans était de 40 % en 2012. Une diminution est observée pour ce groupe d’âge depuis 2010, où il était à 46 %.» Jusque là, ça va. Mais, on peut lire tout de suite après, dans le même paragraphe, l’explication de cette baisse : « Il est à noter que, depuis le 17 janvier 2010, de nouvelles mesures entourant l’acquisition d’un permis d’apprenti conducteur ont été mises en place, ce qui a une répercussion sur le nombre de titulaires d’un permis probatoire. Cela peut expliquer la diminution du taux de titularisation des jeunes de 16 à 19 ans». À partir de cette date, on devait notamment suivre des cours de conduite avant d’obtenir un permis.

En fait, il semble plus que probable que des jeunes se sont empressés de passer leur permis avant que ce changement n’entre en force, qu’ils ont devancé l’obtention de leur permis, ce qui expliquerait au moins en partie la forte hausse des années précédant l’année 2010 et surtout le sommet atteint cette année-là. La proportion de ces jeunes ayant un permis de conduire a d’ailleurs rapidement diminué les deux années suivantes, tout en demeurant nettement plus élevée qu’en 2002 (39,5 % en 2012 par rapport à 35,8 % en 2002). En plus, le premier graphique de ce billet montre qu’il n’y a pas eu de baisse par la suite entre 2012 et 2015 chez les jeunes âgés de 16 à 24 ans, mais bien une très légère hausse (de 55,5 % en 2012 à 55,9 % en 2015).

La journaliste n’a pas cru bon de mentionner les changements au mode d’obtention du permis de conduire en 2010, ni ses conséquences, même si cette information était pourtant clairement indiquée dans le document de l’ISQ. Elle a plutôt interviewé un «vice-président au service-conseil Toyota» d’une agence de publicité et de marketing qui affirme que «Il y a 25 ans, l’obtention du permis de conduire était un peu comme un rite de passage (…). Aujourd’hui, les adultes de moins de 35 ans veulent vivre des expériences. La voiture est un outil qui en permet l’atteinte, mais elle n’est plus la seule». A-t-il fait une étude sociologique avant d’en arriver à cette conclusion? On ne le sait pas…

Même si les données montrent une hausse du pourcentage des jeunes qui ont un permis de conduire depuis 2002, nos «fins observateurs des tendances à venir» tentent de s’adapter (à quoi?). Le président du Salon de l’auto (j’ai toujours trouvé étrange qu’on mette des autos dans le salon d’un palais…), Michel Gaudette, avance même que «Cette génération a grandi avec les outils numériques (…). Ils veulent retrouver ces avancées dans les véhicules qu’ils conduisent. La voiture ne peut plus être qu’un seul outil de locomotion, il faut aussi que ça en soit un de communication et de socialisation». Traduction demandée! Et l’article se termine par une autre entrevue de deux femmes de 26 et 30 ans qui se disent être des exceptions, car elles n’ont pas de permis de conduire… Cela appuie plutôt le fait que les changements récents n’en sont pas, mais je préfère me baser sur les données globales que sur deux entrevues pour conclure ainsi.

Et alors…

En fait, plein de facteurs peuvent expliquer la baisse du pourcentage des jeunes ayant des permis de conduire dans les années 1990 : hausse du taux de fréquentation scolaire (de 37,7 % en 1980 à 60,3 % en 1997 chez les jeunes âgés de 15 à 24 ans, selon le fichier cansim 282-0095), départ des jeunes des régions où l’automobile est nécessaire (entre autres pour étudier à l’université), fondation plus tardive des familles, situation économique, démographie (proportion des 16-19, qui ont un pourcentage moins élevé de permis, parmi les 16-24, proportion qui varie de 38,5 % à 45,9 % selon les années), etc. Mais, aucun des facteurs mentionnés dans cet article ne peut expliquer la baisse récente, car il n’y a pas eu de baisse récente!

J’ai peut-être été un peu trop sarcastique dans ce billet, mais il y a peu de choses qui m’indisposent plus que quelqu’un qui invente des tendances qui n’existent pas (sauf Trump et Maxime, l’absence de mesures pour lutter contre le réchauffement climatique et l’épuisement des ressources, les inégalités, l’assaut contre les services publics… beaucoup de choses, finalement!). Mais, je sais qu’il n’y rien à faire. Jamais des faits aussi clairs que ceux que j’ai montrés ne pourront contrer les faits alternatifs de belles tendances reposant sur les supposées caractéristiques des jeunes d’aujourd’hui, que certaines personnes aiment bien croire différentes de celles de leur prédécesseurs. Mais, j’essaie quand même et vais continuer à le faire!

Oxfam : Une économie centrée sur l’humain

25 janvier 2017

oxfamLes médias ont assez bien couvert le dernier rapport d’Oxfam intitulé Une économie au service des 99 % – Il est temps de construire une économie centrée sur l’humain qui profite à tous, et non à quelques privilégiés. Ils ont par contre souvent limité leur couverture au constat le plus spectaculaire de ce rapport, soit que «Huit milliardaires, dont Bill Gates, Warren Buffett et Mark Zuckerberg, se partagent la richesse que possède la moitié la plus pauvre de la population mondiale». Personnellement, cette comparaison me laisse un peu froid. Comme je l’ai expliqué l’an passé, alors que Oxfam disait que la richesse de la moitié la plus pauvre de la population mondiale correspondait à celle de 62 personnes, six fois moins qu’en 2010 (soit 388 personnes), mais huit fois plus que cette année (!!), les données utilisées par Oxfam, surtout celles du Crédit suisse, sont tellement imprécises (notamment parce que certaines données sur la richesse des habitants de pays pauvres, dont la Chine et l’Inde, sont approximatives et sont même parfois estimées à partir des données guère plus précises d’autres pays pauvres) que le nombre de personnes qui possèdent vraiment l’équivalent de la richesse de la moitié la plus pauvre de la population mondiale pourrait être très différent du chiffre avancé par Oxfam. Il semble que je ne sois pas la seule personne qui a reproché à Oxfam cette comparaison abusive, car l’organisme a cette année publié une annexe méthodologique pour expliquer sa démarche. Je ne m’y attarderai pas, car les explications fournies ne touchent qu’une faible part des problèmes que j’ai soulevés et très peu le plus important (l’imprécision des données sur la richesse des habitants des pays les plus pauvres).

Dans ce billet, je vais tout d’abord expliquer rapidement comment le nombre de super riches qui possèdent l’équivalent de la richesse de la moitié la plus pauvre de la population mondiale a pu passer de 62 à 8 en seulement un an (ce qui explique peut-être aussi le passage de ce nombre de 388 à 8 en six ans, mais sans certitude, car le rapport et l’annexe d’Oxfam n’en parlent pas), puis tenterai de résumer la partie que j’ai trouvé la plus intéressante, celle où les auteurs présentent les caractéristiques d’une «économie centrée sur l’humain».

De 62 à 8

On peut avoir l’impression que le passage de 62 à 8 du nombre de super riches qui possèdent l’équivalent de la richesse de la moitié la plus pauvre de la population mondiale est dû à l’enrichissement de ces nababs. Or, ce n’est pas le cas (ou pas du tout assez pour expliquer cette différence énorme). La dernière oxfam1colonne du tableau ci-contre, tiré de l’encadré 1 de la page 12 du rapport d’Oxfam, illustre le principal facteur explicatif de ce revirement. On peut y voir que la part des richesses des 50 % les plus pauvres est passée de 0,7 % des richesses mondiales à seulement 0,2 % (j’aurais aimé que ces données soient présentées avec deux chiffres significatifs, mais bon, ce n’est pas essentiel). Il ne s’agit pas d’une diminution réelle de la richesse, mais simplement une révision des données. On peut en effet lire dans l’annexe à la page 3 : «Le recul de la part des richesses du monde détenue par la moitié la plus pauvre de la population mondiale s’explique en grande partie par la disponibilité de nouvelles sources de données en provenance de l’Inde et de la Chine, qui font apparaître une plus faible quantité de richesses parmi les déciles inférieurs par rapport aux estimations passées». D’ailleurs, les deux premières lignes du tableau montrent que la «mise à jour» des données de 2015 explique à elle seule la baisse de 0,7 % à 0,2 % de la richesse mondiale. En fait, cette part n’aurait pas changé entre 2015 et 2016, demeurant à 0,2 % (quoique les deux «0,2 %» peuvent aussi bien être en fait 0,150 % que 0,249 %, soit 66 % de plus, d’où ma déception que cette donnée soit présentée avec un seul chiffre significatif). Cette correction montre à quel point j’avais raison l’an dernier de remettre en cause la précision des données utilisées par le Crédit suisse (l’estimation de 0,2 % est plus basse d’entre 60 et 80 % de l’ancienne de 0,7 %).

Ces nouvelles données montrent aussi que la richesse détenue par les 8 personnes les plus riches représente 0,2 % de la richesse mondiale. C’est énorme (un milliardième de la population possède deux millièmes des richesses, proportion 500 000 fois plus élevée que la moyenne), mais bien moins que la comparaison utilisée le laisse croire.

Une économie centrée sur l’humain

La quatrième partie du rapport d’Oxfam présente les caractéristiques d’une «économie centrée sur l’humain». Selon les auteurs du rapport «Une économie centrée sur l’humain a pour vocation de s’attaquer aux problèmes qui ont contribué à la crise actuelle des inégalités et s’articule en un certain nombre de composantes essentielles». Elle doit répondre «à la fois aux besoins des populations et à ceux de la planète».

– Les États doivent œuvrer pour les 99 % : Les États ont la responsabilité de répondre aux besoins collectifs des citoyens (notamment en matière de santé, d’éducation et d’accès à l’eau potable) et veiller à une juste répartition des ressources. Trop souvent, les États «se contentent d’être le prolongement d’une élite au pouvoir» et prêtent «bien plus l’oreille à l’argent qu’à la voix des électeurs». Le rapport propose ensuite une liste assez longue de moyens pour qu’un État œuvre vraiment pour les 99 %. On y parle entre autres :

  • des institutions démocratiques (y compris de démocratie directe);
  • de la nécessaire égalité entre les sexes;
  • de services publics non seulement financés par l’État, mais aussi livrés par l’État;
  • d’impôts fortement progressifs;
  • du plein emploi;
  • de médias libres de l’influence de l’État et des riches élites;
  • du contrôle des lobbys et de celui du financement des campagnes électorales.

– Les États doivent coopérer au lieu de rivaliser : Pour résoudre les principaux problèmes planétaires, notamment «sur les questions de la pauvreté, du changement climatique et des migrations internationales», les États doivent créer des tribunes internationales et «combattre le renforcement des principes néolibéraux» en collaborant plutôt qu’en se concurrençant. Ils doivent accepter le «principe que tout travail humain quel qu’il soit mérite un salaire décent, et que les droits des travailleurs doivent être protégés», lutter contre «les discriminations fondées sur le sexe ou l’origine» et adopter «des normes de travail décentes». Ils doivent aussi collaborer davantage en matière fiscale, entre autres «sur la lutte contre l’évasion fiscale et le recours aux paradis fiscaux», et «mettre un terme au nivellement par le bas de l’impôt sur les sociétés».

– La prospérité, mais sur des bases nouvelles : Pour qu’une économie soit centrée sur l’humain, la structure des sociétés doit «profiter à la société dans son ensemble, et pas seulement à de riches actionnaires». Il faut donc encourager l’actionnariat salarié, les coopératives, les entreprises sociales et les autres formes d’entreprises qui profitent à l’ensemble de la population.

– Éradiquer la concentration extrême de richesse pour éradiquer la pauvreté : «L’extrême richesse et les inégalités extrêmes n’existent pas dans une économie centrée sur l’humain». Pour éviter cet état de fait, il faut au moins limiter le salaire des dirigeants, «mettre fin à l’influence indue que les élites exercent sur la politique et l’économie» et «augmenter le taux de la tranche la plus haute de l’impôt sur le revenu» (les auteurs proposent un taux entre 50 et 70 % selon les pays). Les auteurs recommandent en plus l’adoption d’une taxe sur les transactions financières et d’une taxe mondiale sur la fortune (tel que proposée par Thomas Piketty), taxe s’appliquant aussi sur «les actifs détenus dans des sociétés fictives, des trusts et des fondations, dont les propriétaires bénéficiaires ne sont pas identifiés publiquement».

– Une économie centrée sur l’humain au service des femmes et des hommes sur un pied d’égalité : «L’égalité des sexes est un aspect fondamental de l’économie centrée sur l’humain, en veillant à ce que les deux moitiés de l’humanité bénéficient de l’égalité des chances dans la vie. Elle doit faire tomber les barrières au progrès de la condition féminine, notamment par l’accès à l’éducation et aux soins. Les normes sociales doivent cesser de dicter le rôle de la femme dans la société en veillant plus particulièrement à reconnaître, réduire et redistribuer les activités de soins non rémunérées, et à éliminer toute menace sous-jacente de violence».

– La technologie pour tous : Une économie centrée sur l’humain reconnaît les avantages que peuvent procurer les innovations, mais nous «devons nous assurer que les technologies rendent le monde plus égalitaire et non pas l’inverse». Par exemple, les nouveaux médicaments doivent être disponibles pour tous et toutes, et la recherche pharmaceutique doit accorder autant d’importance aux maladies plus présentes dans les pays pauvres (paludisme, tuberculose, maladies tropicales, etc.) que celles qui sont plus fréquentes dans les pays riches (cancer, diabète, hypertension, etc.). On doit aussi revoir les principes à la base des protections des droits de propriété intellectuelle qui permettent la création de monopoles, donc des profits exorbitants, et empêchent à tous et toutes de bénéficier des avantages des innovations. Cette mesure s’impose d’autant plus que les États ont souvent financé les recherches qui ont permis ces innovations.

– Place aux énergies renouvelables durables : «Les combustibles fossiles (…) sont incompatibles avec une économie centrée sur l’humain qui bénéficie à la majorité» et aux générations futures. Déjà aujourd’hui, la «pollution atmosphérique locale causée par la combustion du charbon provoque environ 670 000 décès prématurés par an en Chine», les plus pauvres subissant davantage ces décès et les autres destructions dues à la pollution et au réchauffement climatique. Il faut «maintenir la hausse des températures bien en deçà de 2 °C». Il est essentiel pour notre avenir commun «de veiller à l’élimination progressive des énergies fossiles d’ici 2045-2055».

– Évaluer et mesurer ce qui compte vraiment : Sans abandonner la mesure bien imparfaite qu’est le PIB, on doit la compléter avec d’autres mesures «pour évaluer la qualité de vie, le bien-être et les opportunités offertes aux populations pour satisfaire adéquatement leurs besoins humains fondamentaux». De nombreuses études ont été faites sur le sujet et d’autres indicateurs ont été créés, «comme l’indicateur de progrès véritable ou l’indice du «Vivre mieux» de l’OCDE et l’indice du progrès social», mais ils ne sont guère utilisés dans le développement de politiques par les décideurs.

Une économie centrée sur l’humain doit au moins tenir compte :

  • des inégalités de revenus et prendre des moyens concrets pour les réduire;
  • du travail domestique, effectué très majoritairement par les femmes, et développer des politiques pour mieux redistribuer ce travail et le soutenir davantage avec les services publics;
  • de «la valeur inhérente de la nature, bien au-delà de sa simple utilité économique, tout en mettant l’accent sur les droits des générations futures à pouvoir en jouir et en profiter» et, en conséquence, doit innover pour réduire les déchets et préserver les ressources.

Et, les auteurs concluent :

«Oxfam appelle à une alliance des «économies du bien-être» : des pays et régions, soutenus par des entreprises progressives et des groupes sociaux, prônant un modèle de développement axé sur le bien-être humain et écologique plutôt sur un rendement économique aux critères étriqués. Ce changement d’orientation donnerait lieu à une réforme des priorités décisionnelles mondiales, en donnant la prééminence aux nations qui orienteraient leurs efforts vers une vision plus large du progrès.»

Et alors…

On a vu dans ce billet que les comparaisons qui se retrouvent sur les titres des médias ne sont pas aussi solides qu’on les dit, mais surtout qu’elles ne constituent pas le principal apport de l’étude d’Oxfam. Le programme proposé par Oxfam me fait penser à celui de Québec solidaire, mais dans une forme plus accessible et qui lie mieux ses propositions. Elles pourraient donc servir à articuler celles de QS d’une manière plus accessible.

Cela dit, la forme ne doit pas l’emporter sur le fond. La véritable question est de savoir si la population est vraiment prête pour une économie centrée sur l’être humain ou si elle préfère toujours favoriser l’impossible croissance infinie.

Rééquilibrer la société

23 janvier 2017

reequilibrer-la-societeDans Rééquilibrer la société – Pour un renouvellement radical au-delà de la gauche, de la droite et du centre, livre traduit par Sarah Labarre, Henry Mintzberg propose un modèle politique basé sur trois piliers : le public, le privé et la collectivité (ou le pluriel). Il prône aussi une culture de la solidarité.

Avant-propos : Selon Jean-Martin Aussant, «On devrait en fait inclure ce livre et ses arguments solides dans tous les cursus universitaires en sciences économiques». Citant l’auteur, il ajoute que «c’est une culture de solidarité dont la société actuelle a besoin pour assurer son salut», et non pas de lutte entre la droite et la gauche, ni même avec le centre.

L’idée fondamentale : L’auteur décrit les trois piliers de son système, soit les secteurs public, privé et pluriel. Je trouve dommage qu’il n’ait pas aussi parlé du secteur de l’économie domestique (qui comprend nos activités personnelles ainsi que le bénévolat), car il est aussi essentiel que les trois autres au fonctionnement de nos sociétés.

Le triomphe du déséquilibre : Pour viser l’équilibre entre ses trois piliers, l’auteur rejette la révolution, car l’expérience montre qu’elle ne fait finalement que remplacer un déséquilibre par un autre. Il explique ensuite comment ces piliers se sont déséquilibrés aux États-Unis, notamment en raison de la reconnaissance du statut de «personne» (morale, en plus…) aux sociétés, de la victoire de la théorie économique orthodoxe (prétendant que l’avidité des individus bénéficie à l’ensemble de la société), puis de la chute de la menace du communisme en 1989 (que certains ont considéré comme la fin de l’histoire, célébrant la victoire du capitalisme), de la contribution croissante des sociétés au financement des campagnes électorales (conséquence de la reconnaissance de leur statut de personne…) et des ententes internationales qui accordent aux entreprises le pouvoir de poursuivre les États qui adoptent des lois qui peuvent réduire leurs possibilités de faire des profits. Et, ce déséquilibre s’étend maintenant à bien d’autres pays, même scandinaves.

Explorer notre débrouillardise plutôt qu’exploiter nos ressources : L’auteur dénonce le peu d’efforts consacrés à l’élimination des externalités négatives produites par les activités économiques des entreprises et des citoyens. Il s’insurge aussi contre les manigances de certaines entreprises pour profiter des législations de toutes sortes, surtout sur l’environnement.

Les trois piliers d’une société en équilibre : L’auteur tente de démontrer que les débats entre la droite et la gauche sont en général stériles. J’ai bien dit «tente», car il ne m’a pas convaincu. S’il a raison de dire que «l’opposition et la méfiance ont supplanté la discussion et la confiance», je trouve qu’il exagère quand il affirme que la «violence des débats polarisés a pris toute l’avant-scène» ou que «À gauche comme à droite, la plupart d’entre eux voient toutes les choses en noir et blanc».. Il utilise là comme ailleurs dans ce chapitre ce que je considère comme des sophismes de l’épouvantail (en tout cas, comme le dirait Daniel Dennett cité par Jocelyn Maclure, il ne fait pas preuve de générosité interprétative). Et j’ai beau me forcer, je ne vois pas comment interpréter ses propos de façon plus généreuse que je le fais. En effet, ce qu’il dit nierait que la prévalence de partis de gauche en Scandivanie et ailleurs en Occident a permis une réelle amélioration de l’équilibre entre ses trois piliers. Il est en plus étrange qu’il considère la chute de la menace du communisme en 1989 comme un facteur prépondérant dans le déséquilibre actuel qu’il nie du même souffle la pertinence du débat gauche-droite. Mais, bon, je m’égare…

Il montre par la suite que, peu importe l’étiquette de gauche ou de droite des partis élus, ils ont tendance à adopter les préceptes de la théorie dominante. Je suis bien d’accord, on vit ce phénomène aussi bien quand le PQ prend le pouvoir au Québec que quand les démocrates le prennent aux États-Unis ou les socialistes (!) en France (et les travaillistes au Royaume-Uni), mais la question n’est pas de savoir si ces partis se disent de gauche, mais s’ils le sont vraiment et s’ils appliquent des politiques de gauche.

Il poursuit en vantant le secteur pluriel, ce avec quoi je suis d’accord, mais prétend que la gauche n’appuie que le secteur public et la droite que le secteur privé. Je ne comprends vraiment pas cette fixation. En effet, le parti le plus à gauche du Québec, Québec solidaire, appuie une économie formée de quatre secteurs (voir la page six de cette partie de son programme) et ses propositions favorisent justement ce qu’il appelle le secteur pluriel. Et, je connais peu de mouvements de droite qui veulent que seul le secteur privé existe, ni, à l’inverse, qui donnent beaucoup de place au secteur pluriel, on l’a vu notamment lors de la chasse du gouvernement conservateur contre les organismes de ce secteur. Il vante ensuite la propriété commune, ou les communs, concept qui est aussi, dois-je le préciser, plus populaire à gauche qu’à droite…

Il s’en prend ensuite aux réseaux sociaux où, dit-il, on n’obtiendra jamais d’aide dans le monde réel si on le demande. Pourtant, même s’il n’a pas totalement tort sur le caractère souvent impersonnel des relations sur ces réseaux, j’ai vu bien de mes contacts obtenir de l’aide lorsqu’ils en ont demandé. Finalement, il met en garde avec raison de ne pas considérer le secteur pluriel comme une panacée. Il rappelle qu’il cherche à équilibrer les trois piliers, pas à changer l’hégémonie d’un de ces secteurs par l’hégémonie d’un autre.

Le renouveau radical : Même s’il salue certaines formes de responsabilité sociale des entreprises, l’auteur «trouve cependant fantaisiste de croire que les problèmes sociaux créés par les corporations puissent être réglés par d’autres corporations». De même, il rejette le concept du capitalisme vert (tout comme moi) qui «ne parviendra pas à compenser la pollution (…) d’autres entreprises». Il s’élève aussi contre le lobbyisme, affirmant qu’on devrait «interdire à tout citoyen, encore plus à toute «personne morale», d’utiliser sa fortune (privée) pour influencer les politiques sociales».

Le renouveau radical qu’il propose s’articule sous trois aspects :

  • les renversements immédiats consistent en des actions immédiates pour «stopper les pratiques destructrices», par exemple en transférant certaines responsabilités actuellement du ressort du secteur privé au secteur pluriel, comme la recherche pharmaceutique, ou en remettant à sa place la discipline économique;
  • la régénération généralisée est l’engagement de groupes «au sein d’initiatives sociales afin d’établir de meilleures pratiques» pour améliorer la qualité de vie, garantir plus de liberté et protéger l’environnement; ce type d’initiatives existe déjà, mais le défi est de consolider ces actions «pour former un mouvement de masse suffisamment puissant pour rééquilibrer le monde»;
  • les réformes conséquentes permettraient de changer nos structures; l’auteur mentionne notamment les peines pénales aux personnes morales, la généralisation de la propriété commune (et la limitation de certaines formes de propriété privée, entre autres intellectuelle), la réglementation restrictive de la publicité politique, la réforme du secteur financier et la taxation des opérations spéculatives, la révision du concept de croissance et le financement plus généreux des initiatives sociales du secteur pluriel.

Vous, moi et nous dans ce monde troublé : L’auteur incite ses lecteurs à cesser de chercher ce que les autres devraient faire pour améliorer la situation et plutôt de se demander ce qu’eux-mêmes peuvent faire, individuellement ou en se joignant à un ou des groupes travaillant à améliorer la situation.

Annexe : Bouillir dans notre propre eau : L’auteur donne d’autres exemples de ce qu’on peut faire pour rééquilibrer la société et surtout de pratiques à combattre : surconsommation, lobbyisme, presse corporatiste, publicité, attaques contre les services publics, imposition au secteur public de pratiques de gestion du secteur privé, attaques des politiques de protection de la population dans les ententes internationales «de nouvelle génération», baisse des impôts des riches et des sociétés (qui entraîne des compressions dans les services publics), etc.

À propos de ce projet : L’auteur explique les différentes étapes que la réalisation de ce livre a connues, dont la tenue d’ateliers dans 15 pays sur une période de 14 ans.

Et alors…

Lire ou ne pas lire? Malgré la profonde irritation que j’ai manifestée dans ce billet sur la supposée non-importance du clivage gauche-droite-centre, j’ai quand même apprécié ce livre et son approche. Il se distingue par la qualité de sa critique des pratiques actuelles et par les solutions qu’il avance (quoique je les vois mal renverser la situation actuelle sans l’appui d’un gouvernement véritablement progressiste). Et j’ai noté que ses solutions sont souvent celles proposées par la gauche et les pratiques qu’il veut combattre celles mises de l’avant par la droite…

Encore une fois, je déplore que les notes soient à la fin. En plus, il s’agit uniquement de compléments d’information (les sources renvoient à la bibliographie, ce qui est bien) souvent substantiels, particulièrement nombreux (69) pour un petit livre comme celui-là. Pire, ces notes utilisent des caractères lilliputiens à peine lisibles pour mes vieux yeux (heureusement, comme je suis très myope, je peux me coller au texte et parvenir à le lire en enlevant mes lunettes). Il demeure que l’éditeur manque de respect pour ses lecteurs plus âgés. Bref, même si je le recommande, ce livre m’a irrité sur plus d’un point…

L’hélicoptère monétaire

21 janvier 2017

helicoptereAvez-vous déjà entendu parler de l’hélicoptère monétaire? Il s’agit d’une autre mise en récit de l’économie (voir mon précédent billet), mieux connue dans sa version anglaise (helicopter money), qui provient d’une métaphore utilisée par Milton Friedman. L’idée, qui est une des façons de faire fonctionner la planche à billets (autre récit…), soit de créer de la monnaie, est de carrément remettre une somme à tous les citoyens d’un pays, directement de la banque centrale (comme si l’argent tombait d’un hélicoptère). Cela peut être fait une seule fois ou à quelques reprises. Même si cette idée n’a jamais été expérimentée (à ma connaissance), elle a été fréquemment discutée dernièrement, surtout en Europe. L’objectif serait de faire reprendre la consommation en supposant que la plupart des personnes qui recevraient une telle somme s’empresseraient de la dépenser. Ce moyen, applicable seulement dans des périodes de récession ou de trappe à liquidité (sinon, cela ne ferait que créer de l’inflation) pourrait, selon certains économistes, être plus efficace que les assouplissements quantitatifs (la banque centrale crée de la monnaie en achetant des titres de dettes étatiques ou d’entreprises, rendant disponible des sommes importantes dans l’économie) utilisés au cours des dernières années aux États-Unis et en Europe.

C’est dans le contexte de ces débats que des économistes du Groupe ING ont publié récemment un texte sur le blogue du Centre for Economic Policy Research (CEPR). Intitulé Helicopter money: Loved, not spent (L’hélicoptère monétaire, aimé, mais pas dépensé), ce texte est en fait une reproduction d’un rapport de sondage publié sur le site d’ING. Comme j’ai trouvé ce rapport intéressant, surtout parce qu’il permet d’expliquer certains concepts souvent mal compris, j’ai décidé d’en parler ici.

Contexte

Même neuf ans après le début de la Grande Récession, la croissance et l’inflation demeurent bien faibles en Europe, surtout dans la zone euro. C’est dans ce contexte que bien des économistes se demandent si ce serait une bonne idée que la Banque centrale européenne (BCE) remette une certaine somme à tous les citoyens de la zone euro pour faire décoller la croissance (1,7% en 2015 et autour de 1,6% en 2016) et atteindre enfin le niveau d’inflation visé par la BCE (2 %). En effet, les données les plus récentes, soit de mars à décembre 2016, montrent un taux d’inflation qui fut négatif de mars à mai, est revenu positif par la suite, ne surpassant 1 % qu’en décembre, et encore, de peu (1,14 %). L’efficacité d’une telle mesure repose toutefois sur l’hypothèse que les gens dépenseraient la majorité des sommes qu’ils recevraient. C’est cette hypothèse qu’ont voulu tester les économistes d’ING.

Le sondage

ING a donc interviewé 12 000 personnes provenant de 12 pays d’Europe. Les intervieweurs leur ont demandé ce qu’elles feraient si elles recevaient 200 euros par mois pendant un an, en étant assurées qu’elles n’auraient jamais à rembourser cette somme et que celle-ci ne serait pas imposable.

helicoptere1– effet sur les dépenses : Le graphique ci-contre montre les premiers résultats. De façon surprenante, seulement le quart (26 %) des répondants ont dit qu’ils dépenseraient la majeure partie de ces sommes. Cette moyenne passe en fait de seulement 12 % en Roumanie à 38 % en Italie, pays plus touché par la Grande récession. Par contre, ce taux est à peine plus élevé que la moyenne en Espagne (28 %), pourtant encore plus touché que l’Italie et est égal à la moyenne en Allemagne, pays parmi les moins touchés. Encore plus surprenant, la majorité (52 %) l’épargnerait ou l’investirait et seulement 15 % consacreraient cette somme en premier lieu pour rembourser des dettes. Les 7 ou 8 % restant l’utiliseraient à d’autres fins (3 %) ou ne le savent pas (5 %). Les auteurs, aussi surpris que je le suis, émettent l’hypothèse que les gens interrogés ne connaissent peut-être pas le concept de l’hélicoptère monétaire et peuvent craindre qu’ils aient à rembourser ces sommes ou à payer des impôts plus élevés à l’avenir, même si, en fait, cet argent a été créé sans compensation et n’aura jamais à être remboursé.

– effet sur les prix : En réponse à une autre question, seulement le tiers des répondants (34 %) pensent que les prix augmenteraient à la fin des 12 mois de réception de 200 euros (ce qui est pourtant un des objectifs de cette mesure). Si 42 % pensent qu’ils demeureraient stables, 7 % pensent même qu’ils baisseraient (17 % avouent ne pas le savoir). Étonnamment, la proportion des Allemands qui pensent que les prix monteraient est égale à la moyenne (35 %), même si leur pays connaît pratiquement le plein emploi (ce qui devrait entraîner une hausse des prix), taux presque identique à celui des Espagnols (36 %) qui en sont pourtant très loin (situation qui devrait grandement limiter la hausse des prix).

– effet sur la croissance : En recoupant des réponses à d’autres questions, les auteurs ont établi que, même avec la faible proportion de ces sommes qui seraient dépensées, la consommation dans la zone euro augmenterait de 3 %, ce qui ferait augmenter le PIB de près de 2 % (je passe les détails de ce calcul, qui tient compte des achats de produits importés de l’extérieur de l’Europe). Pourtant, comme le montre helicoptere2le graphique ci-contre, moins de 40 % des répondants considèrent que cet apport entraînerait une hausse de la croissance. Pire, 13 % d’entre eux pensent que cela la ferait diminuer! Cette fois, les répondants des pays les plus touchés par la récession, soit l’Italie et l’Espagne (la Grèce ne fait pas partie des pays sondés, ni l’Irlande et le Portugal, malheureusement), sont proportionnellement plus nombreux à croire que cette mesure générerait plus de croissance (53 et 52 %) que ceux des pays moins touchés comme l’Allemagne (31 %), même si cette relation ne s’observe pas systématiquement dans les réponses de tous les pays.

helicoptere3– approbation : Même si les répondants n’ont pas paru plus enthousiastes qu’il ne le faut, le graphique ci-contre montre que les répondants sont presque quatre fois plus nombreux à trouver que le fait de recevoir 200 euros par mois pendant un an serait une bonne idée (54 %) qu’une mauvaise (14 %). Environ 20 % des répondants trouvent cette idée ni bonne ni mauvaise et 11 % ne se prononcent pas. Malheureusement, les documents ne donnent pas les résultats par pays.

Conclusion

Les économistes d’ING expliquent dans cette conclusion que les études empiriques montrent que les baisses d’impôt ont moins d’impact sur la croissance qu’une hausse des dépenses publiques. L’idée de l’hélicoptère monétaire pouvait sembler encore plus prometteuse, mais le fait que les gens n’aient l’intention de dépenser que le quart des sommes qu’elles recevraient rend cette idée moins invitante. Pour contourner ces intentions, une solution pourrait être de remettre à la population des coupons d’achat qu’ils seraient obligés d’utiliser pour pouvoir en profiter (je n’appuie absolument cette proposition, car les consommateurs pourraient les utiliser en épargnant l’argent qu’ils auraient utilisé pour ces achats; bref, cette «solution» pourrait bien ne rien changer au comportement des consommateurs). L’autre solution qu’ils proposent serait que l’hélicoptère, au lieu de laisser tomber son argent dans les portefeuilles des citoyens, le laisse plutôt tomber dans les coffres des États pour qu’ils puissent augmenter leurs dépenses (ou cesser de les réduire). Je préfère cette option, quoique les États pourraient ne pas dépenser cet argent et l’utiliser pour réduire leurs déficits ou leur dette!

Et alors…

Si j’ai présenté ce sondage, c’était surtout pour montrer l’impact que peut avoir l’hélicoptère monétaire. Comme les économistes d’ING, j’ai l’impression que les répondants n’ont peut-être pas compris le principe de cette mesure. On s’est tellement fait dire qu’on ne peut rien avoir pour rien, qu’il est bien normal qu’une mesure aussi contraire au sens commun soit accueillie avec scepticisme par une majorité de la population.

En plus, il est loin d’être certain que les gens ne dépenseraient vraiment que le quart des sommes qu’elles recevraient si cette mesure était vraiment appliquée et bien expliquée avant de l’implanter. Mais, surtout, il est probable que si cette mesure avait été appliquée au plus fort de la récession, disons en 2009 ou en 2010, soit au moment où elle aurait été la plus désirable et donc la plus efficace, le niveau de dépenses aurait été bien plus élevé. Or, comme même avec seulement le quart des sommes utilisées on obtient une croissance supplémentaire de 2 %, une utilisation de la moitié de ces sommes aurait entraîné une hausse de 4 % du PIB et une utilisation complète (ce qui est un peu irréaliste), de 8 %. Bref, au creux de la crise, une telle mesure aurait été fort efficace, d’autant plus qu’elle aurait éloigné les risques de déflation et que la zone euro était en pleine trappe à liquidité. En outre, les auteurs ne mentionnent pas que les sommes épargnées ou les remboursements de dettes auraient un impact positif sur la croissance les années suivantes.

Cela dit, cela aurait pu être aussi sinon plus efficace de remettre cet argent aux États au creux de la récession, soit au moment où ils avaient dû dépenser énormément pour sauver les banques et le système financier. Mais, peu importe l’utilisation de ces sommes, le principal serait que les banques centrales n’hésitent pas à faire décoller les hélicoptères si une autre récession importante survenait.