Skip to content

Ce n’est pas une simple question de sémantique

28 mars 2015

sémantiqueJ’ai pensé une seconde écrire un billet sur le budget de l’Alberta qui a été déposé hier et qui montre que les déficits peuvent survenir même chez les plus riches, mais je me suis dit que, avec tout ce qui s’est écrit sur celui de Martin Coiteux, vous en aviez eu assez pour quelques jours. Alors, pourquoi ne pas parler des vraies affaires, soit d’une autre expression qui me tape sur les nerfs?

Dans une chronique parue cette semaine, Michel David a débuté son texte en disant que «La politique est en grande partie une affaire de mots. Entre la « souveraineté » et « l’indépendance », la « rigueur » et l’« austérité », il y a plus qu’une simple question de sémantique». Mais, les questions de sémantique sont-elles si simples?

D’ailleurs, il poursuit en expliquant que ces expressions ont des connotations émotives différentes. Mais pourquoi ont-elles des connotations émotives différentes? Essentiellement parce qu’on les a utilisées sans respecter leur sens. Et qu’est-ce que la sémantique? Des nombreuses définitions de ce mot, celle que je trouve la plus appropriée à ce contexte est «qui a rapport à la signification d’un mot». Donc, en disant que ce n’est pas une simple question de sémantique, M. David ne réalise pas que toute son histoire origine justement du fait que certains n’ont pas respecté la signification des mots, soit leur sémantique!

Qu’était le jeu de Jean Charest et de sa cour de transformer une grève en boycott, sinon une intention de changer la signification des mots, donc de travestir la sémantique? Disons que c’est une «simple question de sémantique» qui est devenue une stratégie de dénigrement et de détournement!

Dans une des lettres sur cette page, un commentateur distingue de façon pertinente un autre jeu qui était moins évident que la confusion sémantique entre un boycott et une grève, mais qui était peut-être encore plus insidieux. Il nous rappelle l’insistance du gouvernement pour que les représentants étudiants condamnent des gestes répréhensibles commis au cours de la grève, plutôt que de leur demander de plus simplement les dénoncer. Il a bien raison, mais, lui aussi, n’a pu s’empêcher de dire que cette confusion dans les termes «ne constitue pas qu’une simple question de sémantique» (ce pourquoi j’ai trouvé cette lettre!), alors que son texte montre, là encore, que, oui, il s’agissait d’une question qui avait rapport à la signification des mots!

Et alors…

J’en conclus que ceux qui utilisent à mauvais escient l’expression «Ce n’est pas une simple question de sémantique» font finalement une erreur de sémantique très simple!

L’économie du partage : la réglementer ou l’interdire?

25 mars 2015

économie du partageÀ la suite de la diffusion de la position de Projet Montréal (PM) sur Uber et les autres services de covoiturage commercial il y a quelques semaines, j’ai participé à des échanges avec des membres de ce parti, soulevant quelques objections de principe. Tout d’abord, j’ai reproché à un élu de ce parti, Guillaume Lavoie, d’avoir qualifié ceux qui s’opposaient à la position de son parti de «camp des dinosaures». On m’a accordé que cette expression n’était pas appropriée.

J’ai ensuite fait part de mes inquiétudes sur la précarisation des travailleurs de ces services, me basant entre autres sur un excellent billet de Robert Reich à ce sujet. Là, j’ai frappé un mur, les interlocuteurs de PM se contentant de répéter la position du parti et ajoutant que cette position ne changerait sûrement pas en fonction des arguments d’un commentateur sur un média social. Même si un élu du parti a ensuite nuancé ce raisonnement, m’invitant à poursuivre les échanges, j’ai préféré arrêter de perdre mon temps. Cela dit, je comprends très bien qu’une position d’un parti ne puisse pas changer à la suite de quelques commentaires!

Par un hasard qui fait toujours bizarrement les choses, j’ai mis la main récemment sur un document d’analyse sur le sujet, document intitulé Policymaking for the Sharing Economy: Beyond Whack-A-Mole (ou L’élaboration des politiques de l’économie du partage: au-delà du jeu de la taupe).

Les secteurs touchés

Le document commence en décrivant les secteurs qui font partie de l’économie du partage. Il en a déterminé cinq :

  • le transport : il s’agit en premier lieu des activités, comme celles de Uber, qui concurrencent les services de taxi extrêmement réglementés, ce qui explique le prix élevé des permis qui s’achètent seulement d’anciens détenteurs, car le gouvernement n’en émet plus (ce prix pouvait atteindre 200 000 $ à Montréal avant l’arrivée d’Uber; il aurait déjà baissé de 20 %, rognant la valeur des investissements des détenteurs de ces permis qui ont généralement emprunté pour pouvoir l’acheter). Les partages d’autos, comme Communauto et Car2go, concurrencent de leur côté les ventes d’auto et les services de location. Quant au Bixi, son impact est plus limité, quoique certains chauffeurs de taxi (et vendeurs de vélos) le considèrent aussi comme un concurrent…
  • le commerce de détail : ce secteur est atteint par les sites qui mettent en lien les acheteurs et les vendeurs, comme eBay, Craigslist et Kijiji. Les auteurs distinguent ce type de services de la simple vente sur Internet. L’impact semble toutefois bien limité.
  • l’hébergement : les services comme Airbnb concurrencent les hôtels et les gîtes du passant en permettant à des personnes de louer leurs maisons à des touristes. «[traduction] Alors que les consommateurs et les propriétaires semblent satisfaits de cette façon de fonctionner jusqu’à maintenant, ces locations informelles ne respectent pas les mêmes lois de zonage, de sécurité et d’accessibilité, et généralement ne sont pas soumis aux taxes d’hôtel».
  • le travail et les services personnels : il s’agit ici de services divers, souvent liés à des métiers, offerts par des gens ne possédant pas nécessairement de cartes de compétence ou de formation prescrite. Ces services ne respectent généralement pas les lois et les normes du travail. Là encore, l’impact semble limité pour l’instant.
  • les services financiers : le financement participatif ou collectif, ou encore le sociofinancement (crowdfunding) est une forme de financement «par lequel un porteur de projet sollicite l’appui financier d’un grand nombre de contributeurs par l’entremise de plateformes de médias sociaux afin de permettre la mise en œuvre d’un projet ou d’en soutenir le développement». Comme ce genre de projet n’est généralement pas financé par les banques, ces dernières ne se sentent pas vraiment menacées… pour l’instant!

Réglementer ou interdire?

Là est la question! C’était d’ailleurs le cœur de mon argumentation avec les membres de Projet Montréal : comment peut-on réglementer des activités qui sont actuellement interdites, alors qu’on est incapable d’appliquer ces interdictions? Comment pourrait-on alors appliquer la réglementation (ou l’encadrement, comme le dit PM)?

Tout comme PM, le document favorise la réglementation, mais ne répond nullement à ma question, alors que c’est pour cela que je l’ai lu! On y dit bien qu’il faudrait demander l’accès aux bases de données des entreprises de ce secteur sous la menace de les interdire (alors que la plupart sont déjà interdites et s’en balancent totalement!), mais pourquoi le feraient-elles si on ne peut pas les obliger à le faire?

La suite du document montre les conditions qu’il faudrait respecter pour concevoir une réglementation moderne, mais en reste au niveau des principes, sans proposition concrète. Il faut faire preuve de souplesse et d’imagination, changer la culture bureaucratique, moderniser la structure gouvernementale, semble-t-il. Mais encore?

Et alors…

En fait, je n’ai pas de position définitive sur le sujet. Mais, je n’ai encore vu aucune solution satisfaisante. Oui, l’économie du partage peut apporter des bienfaits, mais elle peut aussi former une nouvelle façon d’exploiter les travailleurs, comme le démontre clairement Robert Reich, détruire la vie des travailleurs des secteurs touchés et menacer la structure de protection des citoyens qui a été bâtie pendant des années.

Elle peut aussi servir de déclencheur pour moderniser des règlements et les façons de faire qui n’ont plus leurs raisons d’être, les adapter à la réalité actuelle. Mais, pour cela, il faudrait faire plus que de lancer des anathèmes à ses opposants et énoncer des généralités sans substance. Il faudrait plutôt analyser à fond les conséquences de cette «nouvelle» économie (qui n’offre en fait aucun nouveau service, mais seulement de nouvelles façons de les rendre, souvent plus efficaces, mais aussi plus dangereuses pour la santé et la cohésion sociales), tant sur les travailleurs que sur les citoyens, et soupeser les avantages et désavantages avant de prendre des décisions fondamentales pour la vie de beaucoup de personnes.

Quand l’austérité tue

23 mars 2015

austérité«Si la récession fait mal, l’austérité tue». Cette phrase est tirée de l’introduction du livre Quand l’austérité tue de David Stuckler, sociologue spécialisé en santé publique et en économie politique et Sanjay Basu, épidémiologue. Il ne s’agit pas d’un slogan ou d’un truc de marketing pour vendre un livre, mais bien d’une conclusion tirée de données fiables.

Après avoir démontré certains faits dans leur avant-propos (notamment le lien solide entre l’espérance de vie et le niveau de dépenses sociales dans les pays industrialisés), les auteurs étudient le lien entre les récessions et la santé publique à travers diverses situations vécues un peu partout dans le monde.

La Grande dépression et le New Deal

Dans ce chapitre, les auteurs ont tenté de déterminer l’évolution de la mortalité aux États-Unis au cours de la Grande Dépression de 1929 à 1937. Les données brutes étaient peu utiles, car, surtout en raison de l’amélioration de l’hygiène publique (notamment de la construction d’infrastructures comme les égouts et les aqueducs), la mortalité avait une forte tendance à la baisse. Ils ont dû obtenir des données plus précises sur les causes de la mortalité. Ils ont ainsi constaté que :

  • le nombre de suicides a explosé, surtout dans les états où il y a eu le plus de faillites de banques (le suicide étant tout de même peu fréquent par rapport aux autres types de mortalité, cette hausse avait peu d’influence sur l’évolution globale de la mortalité);
  • la mortalité liées aux accidents de la route a plongé, avec un effet global beaucoup plus fort que la hausse du nombre de suicides;
  • la mortalité due à la consommation de l’alcool a fortement augmenté à partir de 1933, année de la fin de la prohibition.

La mise en œuvre du New Deal de 1933 à 1938 a permis aux auteurs un examen précis des conséquences des plans de relance par rapport aux mesures d’austérité. Même si cela est peu connu, de nombreux états (républicains) ont refusé d’implanter certaines des mesures du New Deal. Au contraire, les états démocrates «finançaient plus de programmes de logement, investissaient dans plus de projets de construction pour créer des emplois et soutenaient les bons alimentaires et l’aide sociale». Ces états (par rapport aux états républicains qui préféraient diminuer leur dépenses) ont connu une baisse plus forte de la mortalité infantile et des suicides, ainsi que de l’incidence des maladies infectieuses.

La chute du mur de Berlin

Les auteurs ont effectué le même genre de comparaison lors de la chute du mur de Berlin entre la mortalité en Russie et dans des pays qui ont procédé plus graduellement à la privatisation de leur économie, comme en Biélorussie, en Pologne et en Tchécoslovaquie (et en République tchèque et en Slovaquie à compter de 1992). Là, les écarts sont encore plus dramatiques. Si tous les pays ont connu une récession à la suite de la chute du mur, celle de la Russie (qui a suivi les conseils des économistes orthodoxes de procéder le plus rapidement possible à la privatisation de son économie pour diminuer les coûts de transition…) fut bien pire et la mortalité qui s’en est suivie bien des fois plus élevée. En effet, «les gens perdaient leur emploi et leur protection sociale, d’une pierre deux coups», parce que cette protection était directement liée à leur emploi. La hausse de la mortalité fut, comme lors de la Grande Dépression aux États-Unis, en partie due aux maladies infectieuses, mais bien davantage aux conséquences de la consommation d’alcool, souvent frelaté (consommation qui s’est notamment manifestée par une explosion des crises cardiaques chez des hommes d’âge moyen).

La crise asiatique

L’éclatement de la bulle des «Tigres asiatiques» et des «Dragons asiatiques» qui a menée à une crise économique en 1997, crise en partie provoquée par des spéculateurs, a aussi permis de comparer les effets des mesures d’austérité et des mesures de relance. Les résultats furent les mêmes : les pays qui ont suivi les préceptes du Fonds monétaire international (FMI), comme l’Indonésie et la Thaïlande, ont vu la santé publique de leur population s’effondrer, ce qui ne fut pas le cas en Malaisie, pays qui a refusé ses prêts. La description des conséquences de l’application des mesures préconisées par le FMI est horrible, se manifestant notamment une hausse phénoménale de la malnutrition infantile et du sida.

La grande récession

Dans la deuxième partie du livre, les auteurs comparent les conséquences pour la santé publique des mesures d’austérité dans les pays qui ont accepté les préceptes de la Troïka (Commission européenne, Banque centrale européenne et FMI) et dans ceux qui les ont rejetés lors de la grande récession (de 2008 à 2012, puisque le livre a été écrit en 2013). D’un côté, il y a la Grèce qui a connu une forte hausse des suicides et des maladies infectieuses (entre autres désastres), et de l’autre, il y a l’Islande qui a adopté un processus de résolution de la crise foncièrement démocratique et qui n’a vu aucune dégradation de la santé publique (ni même de hausse des suicides).

Les auteurs analysent aussi les conséquences de la grande récession dans différents pays, entres autres aux États-Unis, mais aussi au Royaume-Uni, en Italie et en Suède. Aux États-Unis, le verdict est mixte : certaines interventions de relance ont permis d’éviter le pire, mais n’ont pas empêché la hausse des suicides, l’augmentation du nombre de sans abris («Le nombre d’enfants sans domicile a augmenté, passant de 1,2 million en 2007 à 1,6 million en 2010, soit un enfant sur 45 aux États-Unis») et l’éclosion de maladies infectieuses (notamment du virus du Nil, en grande partie en raison des eaux stagnantes des piscines des maisons saisies par les banques et devenues inhabitées).

En Suède, les mesures sociales ont évité toutes ces conséquences. Les auteurs soulignent plus spécifiquement les mesures d’accompagnement des personnes qui ont perdu leur emploi qui diminuent le stress et le désespoir. La description des conséquences de la récession au Royaume-Uni sont plus complexes à résumer, surtout en raison de l’arrivée au pouvoir des conservateurs de David Cameron en 2010.

Conclusion des auteurs

«La véritable tragédie de l’austérité n’est pas qu’elle nuit à nos économies [même si elle le fait], c’est la souffrance humaine qu’elle provoque. (…) Les défenseurs de l’austérité promettent que les sacrifices à court terme apporteront des bénéfices à long terme. Cette promesse s’est constamment révélée fausse lors des récessions passées et actuelles. L’austérité est un choix, rien ne nous oblige à le faire.»

Que dire de plus?

Et alors…

Alors, lire ou ne pas lire? Lire, sans faute! Ce livre permet vraiment de pouvoir affirmer sans démagogie aucune que l’austérité tue, détruit le tissu social et est une aberration basée sur des théories économiques zombies (démontrées fausses, mais qui renaissent constamment). Je suis loin d’être sûr que ce billet rend justice à la profondeur de la démonstration des auteurs. Plein de preuves inébranlables, ce livre se lit en plus facilement. Mais, il a un défaut… toujours le même que je souligne! Les notes (68 pages pour un livre dont le texte principal n’en compte que 236 après la préface) sont à la fin. Au moins, ce livre n’est pas trop pesant, ni trop volumineux, ce qui rend l’accès au deuxième signet plus facile…

L’enseignement postsecondaire des États-Unis combat-il les inégalités?

21 mars 2015

indic_éduc_USIl y a quelque semaines, j’ai écrit un billet sur l’importance de la dette étudiante aux États-Unis. Ce billet montrait clairement que le système universitaire de ce pays n’est surtout pas un modèle à suivre. Plus récemment, encore une fois grâce au blogue Economist’s View, j’ai lu une étude du Pell Institute for the Study of Opportunity in Higher Education et de l’University of Pennsylvania Alliance for Higher Education and Democracy intitulée 2015 Indicators of Higher Education Equity in the United States: 45 Year Trend Report (ou «Les indicateurs de l’éducation postsecondaire sur les inégalités aux États-Unis: un rapport sur les tendances depuis 45 ans»), étude qui présentait un grand nombre de données sur la participation des jeunes des États-Unis aux études supérieures en fonction de leur niveau socio-économique.

Comme ce rapport contient de très nombreuses données, je vais me contenter ici de présenter celles qui m’ont le plus frappé.

Participation aux études supérieures

Le graphique qui suit montre l’évolution du taux de poursuite des études des jeunes dépendants (non mariés de 1970 à 1986 et qui dépendent de leur famille de 1987 à 2013) âgés de 18 à 24 ans à des études postsecondaires selon le quartile de revenu.

indic_éduc_US1

On peut ainsi constater que le taux de poursuite des études était en 2012 beaucoup plus élevé (de 80 %) chez les jeunes du quartile supérieur (81 %) que chez les jeunes du quartile inférieur (45 %). On pourrait se consoler en se disant que l’écart entre les deux s’est amoindri (l’écart en points de pourcentage est passé de 46 en 1970 à 36 en 2012), mais il demeure qu’il est encore énorme.

Le coût des études et les bourses

Le prochain graphique montre l’évolution du coût des études postsecondaires en dollars constants de 2012 (comprenant les droits de scolarité, une chambre et la pension) par rapport au montant maximum de bourses qu’un étudiant peut recevoir.

indic_éduc_US2

Alors que le coût des études a augmenté de près de 130 % entre 1974 et 2012 (de 8 858 $ à 20 234 $), le montant maximal des bourses (qui est nettement supérieur à ce qui est versé en moyenne, soit de 55 % en 2012) n’a augmenté que de 18 %. Les auteurs ajoutent qu’il a même diminué si on le compare au montant maximal de la période (en 1975, disent-il, quoique le graphique ne semble pas montrer cela). La proportion du coût des études assurée par ces bourses est passée de 53 % en 1974 (un peu plus en 1975) à seulement 27 % en 2012, proportion deux fois moins élevée.

Un graphique que je ne présenterai pas ici montre d’ailleurs que les jeunes du quartile inférieur sont proportionnlelement plus nombreux à étudier dans des programmes de deux ans (les moins avantageux pour trouver un emploi bien payé par la suite) que de quatre ans par rapport aux jeunes du quartile supérieur. Et, ce n’est pas la seule conséquence de cette baisse de financement, comme on le verra à l’aide des prochains graphiques…

L’obtention des diplômes

Le graphique qui suit montre l’évolution du pourcentage de jeunes dépendants qui obtiennent un diplôme d’études postsecondaires selon le quartile de revenu.

indic_éduc_US3

Ce graphique est celui qui m’a le plus renversé. Tout au long de la période, moins de 10 % des jeunes dépendants du quartile inférieur ont obtenu un diplôme d’études postsecondaires, taux n’augmentant que légèrement au début du siècle, alors que la proportion de jeunes dépendants du quartile supérieur a presque doublé entre 1965 (le texte parle de 1970…) et 2013. Cette hausse serait encore plus forte si la période débutait en 1975. La proportion de jeunes dépendants du quartile supérieur était environ 6 à 7 fois plus élevée que celle des jeunes dépendants du quartile inférieur en début de période, soit 40 % par rapport à 6 %, (environ 5 fois plus élevée en 1975) et avait grimpé à plus de 8 fois en 2013 (77 % par rapport à 9 %). Il est difficile de ne pas faire de lien entre la hausse du coût des études non compensée par une hausse comparable des bourses et la faible hausse de la proportion des jeunes du quartile inférieur qui obtiennent des diplômes. On aura d’ailleurs sûrement remarqué que l’écart entre ceux qui commencent des études postsecondaires (premier graphique de ce billet) est bien moindre que l’écart entre ceux qui les terminent avec succès.

Ce dernier phénomène est bien rendu par le prochain graphique qui compare l’évolution de la proportion de jeunes dépendants qui obtiennent un diplôme d’études postsecondaires parmi ceux qui les ont commencé.

indic_éduc_US4

On peut en effet constater que la proportion de jeunes dépendants du quartile inférieur qui ont obtenu un diplôme d’études postsecondaires parmi ceux qui les ont commencées n’a presque pas varié entre 1970 et 2013. Par contre, en 2013, presque tous les jeunes dépendants du quartile supérieur qui les avaient commencées ont obtenu un diplôme (99 %). Cette proportion a en plus augmenté fortement entre 1970 et 2013 (de 55 % à 99 %). On notera que cette proportion a aussi peu augmenté chez les jeunes du deuxième quartile (de 23 à 29 %), mais bien davantage chez ceux du troisième quartile (de 26 % à 51 %).

Il est difficile de ne pas voir de liens entre ces données et la hausse du coût des études dans un contexte où les bourses permettent de compenser une plus faible portion de ces coûts qu’en début de période.

Conclusion du document

Les auteurs concluent de ces données (et des autres que je n’ai pas présentées ici) que la hausse du coût des études postsecondaires et la baisse de leur proportion qui peut être compensée par des bourses font en sorte que les études postsecondaires ne sont plus un moyen pour les membres les plus défavorisés de la société de se sortir de leur situation, mais sont au contraire devenus un facteur qui favorise la reproduction des inégalités intergénérationnelles.

Et alors…

Ce document vient accentuer le malaise qu’on pouvait ressentir à la vue des données sur la dette étudiante aux États-Unis. On ne peut qu’endosser la conclusion des auteurs et s’en désoler. Cela montre encore une fois à quel point il est ridicule de vouloir imiter le système d’éducation de nos voisins comme certains recteurs voulaient le faire il n’y a pas si longtemps et en rêvent sûrement encore!

Les gros chars

18 mars 2015

gros_charsQuelques articles récents ont abordé les conséquences de la baisse du prix de l’essence sur les choix des consommateurs dans leurs achats de véhicules automobiles. Dans celui-ci, on se sert des affirmations de deux concessionnaires automobiles de la Colombie-Britannique et d’une donnée lancée sans fournir de sources, ni sur cette affirmation, ni sur les changements qu’elle apporte à la tendance antérieure («les camions légers, les véhicules utilitaires sport (VUS) et les véhicules multisegments représentent 60 % des ventes de nouveaux véhicules au Canada») pour conclure que la baisse du prix de l’essence entraîne une hausse de la proportion de gros véhicules dans les achats. Dans cet autre article, Pierre-Olivier Pineau présente un discours semblable, mais le base de façon plus claire sur les données récentes (décembre 2014) de Statistique Canada pour appuyer le constat que, par exemple, «pour la première fois de notre histoire, il s’est vendu plus de VUS que de voitures».

Comme, en plus, Statistique Canada a publié une donnée encore plus récente (janvier 2015) sur le sujet la semaine dernière, je me suis dit que ce serait intéressant de présenter ces données et ainsi mettre à jour un billet que j’ai publié sur la question en novembre 2013, soit bien avant la baisse des prix de l’essence qui a vraiment commencé à se manifester en octobre 2014, selon ce document de la Régie de l’énergie (voir entre autres la page 6).

Tendance à long terme

Les deux graphiques que je présenterai dans ce billet proviennent du tableau cansim 079-0003 de Statistique Canada. Le premier illustre l’évolution en moyenne annuelle de la proportion de voitures de promenade dans les ventes de véhicules neufs (formés des voitures de promenade et des camions légers, camions qui comprennent les véhicules dits utilitaires sport, VUS).

gros_chars1

Ce premier graphique montre que la tendance des achats d’automobiles, si ce n’est une certaine stabilité de 1997 à 2008, penche vers une baisse de la proportion de voitures de promenade, et vers une hausse des achats de VUS depuis au moins 30 ans, tant dans le reste du Canada qu’au Québec. Cette tendance est plus forte dans le reste du Canada, car la proportion de voitures de promenade dans les achats totaux a diminué de 39 points de pourcentage entre 1983 et 2014 (de 75 % à 36 %, soit une baisse de 52 %), tandis quelle diminuait de 32 points au Québec (de 86 % à 54 %, une baisse de moins de 38 %). L’écart observé entre le Québec et le reste du Canada a d’ailleurs atteint son sommet historique en 2014, avec plus de 17 points de pourcentage d’écart. Mais, on peut bien se consoler avec cette observation, il n’en demeure pas moins que le portrait qui se dégage de ce graphique est surtout désolant…

Tendance à court terme

Le graphique suivant illustre aussi l’évolution de la proportion de voitures de promenade dans les ventes de véhicules neufs, mais en moyenne mensuelle, cette fois, et seulement depuis le début de 2010. Cela nous permet de présenter la donnée la plus récente (janvier 2015) et de voir si les mouvements récents sont liés à la baisse du prix de l’essence.

gros_chars2

Malgré certains écarts mensuels, les tendances, tant au Québec que dans le reste du Canada, ne sont que légèrement (quoique clairement) à la baisse entre 2010 et le milieu de 2014, même s’il n’y a pas eu de baisses notables du prix de l’essence entre ces deux périodes (il y a même eu une hausse importante, d’environ 30 % au Québec, entre 2010 et 2011, ce qui ne semble avoir aucunement renversé la tendance…). On observe toutefois une forte baisse au cours des trois derniers mois, soit d’octobre 2014 à janvier 2015, de 14,1 % dans le reste du Canada (de 36,5 % à 31,3 %) et de 14,9 % au Québec (de 54,5 % à 46,4 %, deuxième mois consécutif en bas de 50 %, ce qui confirme l’observation de Pierre-Olivier Pineau, quoiqu’il soit inexact de parler de «la première fois de notre histoire», puisque ce taux était à 48,4 % en janvier 2011). Comme ces deux chutes importantes correspondent à la période où le prix de l’essence a diminué, il est bien sûr invitant de donner raison à M. Pineau et aux personnes interrogées en Colombie-Britannique. Mais, comme j’hésite toujours à interpréter une corrélation comme une causalité, j’ai tenté d’aller un peu plus loin… Certes la tendance récente à la baisse est plus forte que la tendance générale, mais à quel point?

J’ai alors constaté que presque tous les points les plus bas du graphique s’observent… en janvier! Le cas de 2011 est particulièrement évident. Je l’ai d’ailleurs isolé en indiquant le pourcentage pour le Québec et le Canada. Mais, on voit aussi la baisse de janvier de façon claire en 2014. J’ai aussi remarqué que le volume des ventes de janvier est toujours le plus bas de l’année. Il ne semble en outre pas anormal que les VUS soient proportionnellement plus populaires en hiver qu’en été (c’est tellement plus sécurisant, les gros chars, en hiver!). En comparant les pourcentages de ventes de voitures de promenade de janvier avec ceux d’octobre, j’ai fait les constats suivants :

Reste du Canada :

  • baisse entre octobre 2014 et janvier 2015 : 14,1 %;
  • baisses moyennes entre octobre et le mois de janvier suivant de 2010 à 2014 : 7,6 %, variant d’une hausse de 2,1 % entre octobre 2011 et janvier 2012 à une baisse 13,6 % entre octobre 2010 et janvier 2011. La baisse la plus récente, même si elle est la plus élevée à 14,1 %, l’est à peine plus que celles observées entre octobre 2010 et janvier 2011 (13,6 %) et entre octobre 2013 et janvier 2014 (12,3 %).

Québec :

  • baisse entre octobre 2014 et janvier 2015 : 14,9 %;
  • baisses moyennes entre octobre et le mois de janvier suivant de 2010 à 2014 : 10,0 %, variant d’une baisse de 3,1 % entre octobre 2011 et janvier 2012 à une baisse 15,4 % entre octobre 2010 et janvier 2011, soit une baisse plus importante que la plus récente (14,9 %), sans pourtant que la moindre baisse du prix de l’essence n’ait été relevée entre ces deux mois. Il est en fait passé au Québec de 1,08 $ en octobre 2010 (voir à la page 6) à environ 1,18 $ en janvier 2011 (voir à la page 6).

Devant ces observations, comment peut-on être raisonnablement certain que la baisse récente de la proportion de voitures de promenade dans les ventes de véhicules neufs est uniquement due à la diminution du prix de l’essence? Elle semble plus clairement due à la tendance générale observée depuis au moins 1981 et, surtout, à la baisse normale de cette proportion entre les mois d’octobre et de janvier. Cela dit, il n’est pas impossible que la diminution récente du prix de l’essence ait aussi joué un rôle dans l’ampleur de cette baisse récente, mais elle n’en est clairement pas le facteur principal. Cela dit, on verra avec les données des prochains mois si cette proportion augmentera, comme elle le fait habituellement, à partir du mois de mars.

Et alors…

Quand j’ai décidé d’écrire ce billet, j’étais certain que mon analyse appuierait les conclusions de Pierre-Olivier Pineau et des concessionnaires de la Colombie-Britannique. Je voulais simplement examiner leur ampleur et leur niveau de corrélation. À ma grande surprise, je me suis aperçu que la relation entre le prix de l’essence et l’évolution de la proportion de voitures de promenades dans les achats de véhicules automobiles neufs n’est pas aussi évidente qu’on l’aurait pensé.

Pourtant, j’aurais dû m’y attendre, moi qui ai mentionné dans le billet précédent sur ce sujet que le prix de l’essence n’avait rien changé au comportement des acheteurs d’automobiles en écrivant «Ah, l’amour du char, et surtout du gros char, ils sont bien nombreux à être prêts à tout sacrifier pour l’assouvir…». Mais, on aimerait tellement que cela change…

Les deux vitesses de la pensée (2)

16 mars 2015

kahnemanJe poursuis ici le billet précédent sur le livre Système 1, système 2 – Les deux vitesses de la pensée de Daniel Kahneman portant sur nos systèmes de pensée et nos biais cognitifs. Voici donc d’autres concepts abordés dans ce livre.

L’illusion de compréhension : Quand on lit une histoire comme celle de Google (ou d’Apple ou de Microsoft), on est happé par la cohérence des événements. On ne peut voir que ce qui s’est passé, pas ce qui se serait passé si les événements avaient été différents. La cohérence qu’on voit dans ce genre d’histoire est à la fois due au fait que notre système 1 adore les histoires et qu’il se base sur ce qu’il voit et rien d’autre (COVERA). En fait, ce type d’histoires n’a aucune valeur prédictive car elles sont toutes dues à beaucoup de chance et ce, à de nombreuses reprises. Bref, ce n’est pas seulement en raison du talent (indéniable) de leurs protagonistes ou de leurs stratégies que ces entreprises ont eu du succès, mais grâce à la chance, à beaucoup de chance!

Le biais rétrospectif : On a tendance à modifier les souvenirs de nos intuitions antérieures, surtout lorsqu’elles étaient inexactes. Pour un chroniqueur de centre-droit, il est difficile de se rappeler correctement la façon dont il pensait quand il était trotskiste… Il aura tendance à minimiser ses certitudes passées. De même, notre conviction que telle équipe sportive est la meilleure fondra rapidement après une ou deux défaites humiliantes. Certains prétendront que, dans le fond, elles le savaient bien que cette équipe n’était pas si bonne, même si leur estimation inexacte disait le contraire! Qui n’a jamais dit «je le savais bien» quand le contraire de ce qu’il prévoyait est arrivé?

L’illusion de validité (l’illusion du talent, de la compétence et des experts) : Dans un travail auprès d’une société d’investissement, Kahneman et ses collaborateurs ont démontré que les courtiers de cette firme n’avaient à long terme pas plus de succès que les indices de la Bourse (ou que si leurs investissements avaient été choisis au hasard). Pourtant, les gestionnaires de la firme croyaient dur comme fer aux bienfaits des primes de performance récompensant les courtiers les plus performants une année donnée. Même en réalisant que ces performances étaient essentiellement dues à la chance, jamais ils n’ont même envisagé de modifier leur système. Ils avaient toujours fonctionné ainsi, les autres firmes aussi et c’était donc la bonne façon de faire. D’ailleurs, la baisse de rendement de l’an passé n’a pas empêché une augmentation des primes touchées par les courtiers de Wall Street…

Si on remplace dans cette étude les financiers par des économistes orthodoxes, on observera le même résultat. On aura beau leur montrer par des faits que leur théorie ne fonctionne pas dans le monde réel, jamais (ou très rarement) ils ne remettront en cause les bases de leurs modèles pourtant inexacts. Comme le dit bien Kahneman «les illusions cognitives peuvent s’avérer plus tenaces que les illusions visuelles». Face à une illusion d’optique, comme celle des lignes qui semblent de longueur différente en raison des appendices penchant vers l’intérieur ou vers l’extérieur, notre cerveau acceptera qu’il se trompe, même si on continue à voir les lignes de longueur différente. Il en est tout autrement dans le cas des illusions cognitives, car «les illusions de validité et de compétence sont soutenues par une puissante culture professionnelle. Nous savons que les gens peuvent entretenir une fois inébranlable dans n’importe quelle proposition, aussi absurde soit-elle, quand ils sont entourés par une communauté partageant la même foi». Voilà qui explique bien l’entêtement des économistes orthodoxes (et des financiers…)!

Les intuitions et les formules : L’auteur montre que des formules basées sur des données précises et objectives donnent souvent de meilleurs résultats que ceux provenant de verdict de professionnels. Par exemple, une formule n’utilisant que les notes obtenues au cégep (j’adapte l’exemple de l’auteur au Québec) et les résultats d’un test d’aptitudes a mieux prédit dans 11 des 14 études où elle a été utilisée les notes d’étudiants universitaires que l’analyse de bien plus de facteurs et d’entrevues menées chez ces étudiants par des consultants spécialisés. Ce type de formule utilisé dans d’autres domaines (risque de violation de la liberté conditionnelle, récidivisme chez des délinquants, etc.) a aussi donné de meilleurs résultats que des analyses bien plus fouillées par des psychologues. Le même phénomène s’est observé dans l’utilisation de telles formules en médecine (survie de nourrissons, longévité de patients atteints du cancer, etc), en économie (probabilité de survie de nouvelles entreprises), en politique, en agriculture, etc. On ne s’étonnera pas que les professionnels de ces secteurs ont bien souvent rejeté avec hostilité la validité de l’utilisation de telles formules dans leur domaine (illusion de compétences?)… Il semble que le manque de constance des experts (dû en bonne partie aux nombreux biais cognitifs qu’une méthode moins systématique entraîne) soit le facteur qui expliquerait le mieux leur manque de succès.

Qu’est-ce que l’intuition? : Le texte précédent ne veut pas dire que l’intuition ne sert à rien et qu’elle est toujours biaisée. En fait, une intuition se forme graduellement par l’accumulation d’expériences et l’acquisition de compétences. La prise de décision intuitive repose en effet sur la reconnaissance d’une situation antérieure. «La situation fournit un indice; cet indice donne à l’expert un accès à une information stockée dans sa mémoire et cette information, à son tour, lui donne la réponse».

La vision externe : En concevant avec une équipe un nouveau programme scolaire sur la prise de décision, Kahneman s’est demandé, après un an de travaux, dans combien de temps ils auraient fini. L’évaluation moyenne des membres de l’équipe tournait entre un an et demie, et deux ans et demie. Il a demandé au responsable de l’élaboration de programmes combien de temps cela prenait en moyenne pour en terminer une. À sa surprise, le responsable, qui était pourtant parmi ceux qui avait évalué le temps que cela prendrait à cette équipe, a révélé que jamais cela n’a pris moins de sept ans, ni plus que 10 ans, mais que seulement 60 % des travaux avaient finalement été terminés. Et, de fait, cela leur a pris encore huit ans! Cet écart gigantesque entre l’évaluation interne et ce que Kahneman appelle la vision externe est dû à de nombreux facteurs, dont l’optimisme des participants, l’illusion qu’un rythme élevé de travail peut être maintenu indéfiniment et la minimisation des risques d’écueils. Les entrepreneurs qui n’envisagent qu’une fois leurs ressources épuisées leur échec potentiel malgré le fort taux d’échecs des nouvelles entreprises représente un autre exemple du rejet de la vision externe au profit de la vision interne bien moins réaliste, trop influencée par leur optimisme et leur excès de confiance.

La prise de décision et l’homo œconomicus : Au début des années 1970, l’auteur a pris connaissance de la vision de l’être humain (ou plutôt de l’homo œconomicus, qu’il appelle l’Écon) des économistes classiques, soit un être rationnel et égoïste «dont les goûts ne changent pas». Il en fut abasourdi. «Pour un psychologue, il est évident que les gens ne sont ni complètement rationnels, ni complètement égoïstes, et que leurs goûts sont tout sauf stables». C’est comme si l’objet d’étude des économistes (orthodoxes, me sens-je obligé d’ajouter…) et des psychologues n’était pas le même, les Humains n’ayant rien à voir avec les Écons, comme nous le verrons dans les prochains biais cognitifs…

L’aversion du risque et à la perte : Les gens préfèrent en général recevoir nettement moins de la moitié d’une somme avec certitude (disons 45 $) que de parier à pile ou face la possibilité de la recevoir en entier (100 $) s’ils gagnent et rien du tout s’il perdent (0,9 tiens vaut mieux que deux tu l’auras!). De même, d’autres tests ont montré qu’une personne qui possède une richesse de 1 million $ est moins satisfaite si elle en possédait 10 millions $ la veille que celle qui possède la même richesse (1 million $) mais qui en possédait 100 000 $ la veille. Pourtant, un homo œconomicus n’y verrait aucune différence… De même, un gain de 500 $ pour un pauvre apporte beaucoup de bien-être que le même gain à un milliardaire.

La théorie des perspectives : Cette théorie est celle qui a permis à Kahneman de remporter le Prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel en 2002 et est à la base de l’économie comportementale, qui explique que les êtres humains n’agissent pas toujours de façon rationnelle. Cette théorie formalise les découvertes antérieures de Kahneman et Tversky (notamment sur l’aversion du risque et à la perte). Il serait beaucoup trop long de la présenter dans le cadre de ce billet. Disons seulement qu’elle a été précisée de façon importante depuis sa première version par de nombreuses autres personnes, même si ses principes demeurent les mêmes.

L’effet de dotation : Quand on possède un bien utilisable (ce qui exclut l’argent), on lui accordera souvent une valeur plus élevée. L’auteur donne de nombreux exemples de cet effet (tous très intéressants!), mais je n’en présenterai qu’un. Si vous avez acheté un billet pour un spectacle d’un groupe que vous adorez et qu’on vous offre dix fois ce que vous avez payé pour vous l’acheter, vous refuserez plus souvent qu’autrement cette offre. Par contre, très rarement vous accepteriez de payer ce montant dix fois plus élevé pour aller voir ce spectacle! La douleur de vous en séparer est plus grande que le plaisir de vous le procurer. C’est dans le fond un autre aspect de l’aversion à la perte.

Autres formes d’aversion à la perte : L’auteur et ses collaborateurs se sont aperçus que, à distance et difficulté égales, les golfeurs ratent moins souvent un putt pour obtenir une normale (éviter un bogey) que pour réussir un birdie (ils passent aussi bien plus de temps à s’y préparer). Cela est un autre exemple de l’aversion à la perte et de la douleur plus accentuée d’une perte que du plaisir d’un gain. Il en est de même des règlements hors cour dans des poursuites. Bien souvent un accord rapportant bien moins qu’escompté (même en tenant compte des frais d’avocats) sera accepté même si la personne qui poursuit l’autre est presque (la clé est le «presque») certaine de l’emporter. La petite probabilité de perdre a plus d’importance que la différence de gains souvent disproportionnée par rapport à la probabilité de perdre.

Dans le même sens, on accorde plus d’importance à une probabilité de gagner qui passe de 0 % à 5 % ou de 95 % à 100 % qu’à une probabilité qui passe de 60 % à 65 %, même si les différences d’espérance de gains sont les mêmes. Dans le premier cas, on passe d’une certitude de perdre à une possibilité de gagner, dans le deuxième, on élimine la possibilité de perdre et dans le troisième… bof!

Événements rares : Pour illustrer les effets des événements rares sur notre rationalité, Kahneman donne pour exemple ses présences à Israël à l’époque où il y avait des attentats terroristes dans les autobus de ce pays. En trois ans (de décembre 2001 à septembre 2004), ces attentats ont fait 236 victimes. En tenant compte du nombre d’usagers des autobus (1,3 million par jour), la probabilité d’être victime d’un attentat était donc minime (environ 0,00002 %). Mais, ce n’était pas la sensation qu’en avait le public. Même avec seulement deux victimes du terrorisme au Canada, on assiste ici aussi au gonflement de la prévalence et de l’importance de ces attaques (ce qui ne veut pas dire qu’il ne faut rien y faire…), alors qu’on minimise celles des meurtres et disparitions des femmes autochtones (1186 en 30 ans). Kahneman s’en voulait d’éviter de prendre l’autobus à l’époque et même de tout faire pour ne pas être près d’un autobus à un feu rouge. Si quelqu’un comme lui, qui connaît bien ce genre de biais cognitif, modifiait son comportement en raison d’événements qui avaient une probabilité infime de se passer (en fait inférieure à la probabilité d’avoir un accident de voiture mortel), il se sentait mal placé pour faire la leçon aux Israéliens! Il a ainsi constaté que les humains (mais pas les Écons!) surestiment la probabilité qu’un événement rare se produise et surévaluent son importance dans la prise de décision.

Kahneman donne comme autre exemple de la surestimation de la probabilité qu’un événement rare se produise les estimations par des partisans de la probabilité que chacune des équipes de basketball ayant accédé aux éliminatoires emporte le trophée Larry O’Brien (remis au champion de la finale). Le total de chaque personne interviewée donnait en moyenne 240 %!

Expérience et mémoire : Dans de nombreuses expériences, l’auteur a montré qu’on préfère parfois souffrir davantage pour garder en mémoire un niveau de souffrance moins élevé. Ainsi, la plupart des personnes ont choisi de garder leur main dans une eau un peu moins froide (mais tout de même inconfortable) 30 secondes, après l’avoir laissée dans une eau très froide pendant une minute, prolongeant ainsi leur inconfort, plutôt que de l’enlever immédiatement après la minute dans l’eau plus froide. Ainsi, le dernier souvenir qu’ils gardent de cette expérience est moins déplaisant. Ce phénomène s’observe aussi quand on interroge des personnes après une opération chirurgicale douloureuse : ils gardent un meilleur souvenir d’une opération douloureuse si elle dure plus longtemps quand les dernières minutes sont moins douloureuses. De même, on gardera un souvenir négatif d’un film qu’on a aimé pendant deux heures si la conclusion durant deux minutes nous déplaît.

L’illusion de concentration : Cette illusion est le fait d’accorder trop d’importance à un facteur par rapport aux autres pour estimer un phénomène. C’est une conséquence du COVERA (ce qu’on voit et rien d’autre). L’auteur donne comme exemple l’impression que les Californiens seraient plus heureux que les habitants du Midwest parce qu’ils bénéficient d’un climat plus agréable. S’il est vrai que les Californiens apprécient davantage leur climat que les habitants du Midwest, les données ne montrent aucune différence dans la satisfaction de la vie entre ces deux populations. Tellement d’autres facteurs entrent en ligne de compte dans la satisfaction de la vie…

Conclusion de l’auteur

Pour clore ce livre, l’auteur présente quelques conséquences de trois des distinctions que ses études ont démontrées :

  • entre le moi mémoriel (ce dont on se souvient) et le moi expérimental (ce qu’on a vécu) : il se demande entre autres si on doit estimer le bien-être d’une personne (ou son bonheur, sa satisfaction de la vie) en fonction de ce qu’elle a vécu ou de ce qu’elle s’en rappelle. Les enquêtes sur le sujet portent bien plus souvent, en raison de leur conception, sur le moi mémoriel. Est-ce juste?
  • entre les Humains et les Écons: si les Humains ne sont pas toujours irrationnels, ils ont souvent besoin d’aide pour prendre des décisions avisées. Ce constat démolit totalement l’approche classique (et l’approche libertarienne) en économie. Les marchés seuls ne permettent pas la maximisation de l’utilité. Des institutions, comme l’État, ont un rôle important pour «aider les gens à prendre de bonnes décisions sans empiéter sur leur liberté».
  • entre le système 1 et le système 2 : malgré tous les biais cognitifs présentés dans ce livre, il n’en demeure pas moins que la division de notre pensée en deux systèmes fonctionne bien. Et les erreurs que nous commettons ne sont pas uniquement dues aux caractéristiques de ces deux systèmes, mais aussi, entre autres, au manque de connaissance. On peut aussi mieux éduquer ces deux systèmes et surtout être conscient de leurs biais, ce qui peut contribuer à moins en subir les effets. Ce dernier point était en fait un des principaux objectifs de l’auteur quand il a entrepris l’écriture de ce livre.

Et alors…

Alors, lire ou ne pas lire? Ce livre est sans contredit un des plus importants que j’ai lus. Même si je lui ai consacré deux longs billets, j’ai dû prendre de nombreux raccourcis dans les explications de l’auteur. Ne croyez surtout pas que mes billets permettent de profiter pleinement des analyses de l’auteur. En plus, son langage est clair et facile à comprendre. Je n’y ai ressenti aucune longueur, et je considère qu’aucun chapitre ou même exemple est superflu. Seul bémol, les notes (32 pages) sont à la fin, ce qui rend la lecture de ce gros livre (555 pages) difficile, surtout dans les transports en commun…

Qu’est-ce que le secteur financier apporte à la société?

13 mars 2015

finance_sociétéDans mon dernier billet, j’ai résumé la première de deux études portant sur le secteur financier que j’ai lues récemment grâce au blogue Economist’s View. La deuxième, que je vais présenter dans ce billet, est intitulée Does Finance Benefit Society? (Est-ce que la société profite du secteur financier?). Cette étude a été écrite par Luigi Zingales, professeur en entrepreneuriat et en finance à l’Université de Chicago. Elle provient donc d’une personne exerçant sa profession à l’intérieur du monde de la finance et permet ainsi un éclairage différent et moins technique que celui présenté dans le précédent billet.

L’étude

- Introduction

L’étude commence en citant un sondage montrant que plus de personnes aux États-Unis considèrent que le secteur financier nuit à l’économie (48 %) que de personnes qui pensent qu’il y contribue positivement (34 %). L’auteur précise que cette perception ne vient pas seulement du rôle de ce secteur dans la dernière crise, mais aussi du fait que ce secteur est caractérisé par ses activités de recherche de rente (activités qui consistent «à favoriser la recherche d’une rente obtenue à l’aide de la manipulation ou de l’exploitation de l’environnement économique ou politique, plutôt qu’un revenu correspondant à une activité apportant un surplus de richesse pour la collectivité»). L’auteur ajoute que les professionnels de la finance auraient tort de ne pas tenir compte de cette perception, d’autant plus qu’elle repose sur une grande part de vérité. Ils devraient plutôt reconnaître les défauts de leur secteur et travailler à les corriger.

- Pourquoi en tenir compte?

Pour l’auteur, le secteur financier n’aurait pas été obligé de verser 139 milliards $ en amendes en deux ans s’il n’avait rien à se reprocher! En plus, de nombreuses activités financières tendent à apporter des revenus aux acteurs du secteur plutôt qu’à contribuer au bénéfice de la société. Il donne en exemple les attaques de George Soros contre la livre et contre les monnaies asiatiques (notamment en Malaisie) dans les années 1990, attaques qui l’ont certes enrichi, mais qui ont nuit à des millions de personnes (et en ont tués un grand nombre). Ainsi, l’enrichissement d’un financier est toujours vu plus suspect (avec raison!) que celui d’un inventeur comme Steve Jobs (quand même suspect…).

Le rôle du secteur financier dans «l’achat» de l’appui des politiciens en contribuant largement à leur élection crée aussi (encore avec raison!) la désapprobation, voire la rage de la population. La contradiction de ce secteur qui prône le rehaussement de la concurrence et forme en fait un oligopole et se dote d’un lobbying gigantesque pour s’assurer que les règles continuent de le favoriser choque également (il y a de quoi!).

- Quels sont les bénéfices apportés par le secteur financier?

Même les critiques les plus lapidaires du secteur financier reconnaissent son apport essentiel au bon fonctionnement de l’économie (l’auteur cite Joseph Stiglitz, cinglant envers ce secteur). Par contre, les financiers ont plutôt tendance à exagérer ses bénéfices, notamment en croyant que ce secteur fonctionne dans le cadre d’un marché efficientles marchés financiers sont le meilleur guide possible pour connaître la valeur des actifs économiques et donc pour prendre des décisions concernant les investissements et la production», prétend cette croyance), alors qu’il ne l’est pas du tout (voir entre autre ce billet qui montre que cette hypothèse est ce qu’on appelle une idée zombie, démontrée fausse, mais toujours vivante!)! Le précédent billet a en outre montré qu’un trop gros secteur financier nuit à la croissance des autres secteurs économiques et à leur productivité, ce que souligne aussi l’auteur en citant d’autres sources allant dans le même sens.

- Un secteur financier hypertrophié

Alors que son rôle traditionnel de prêts aux individus et aux entreprises est en général bénéfique pour la société, ses activités plus récentes profitent plus souvent à des individus qui recherchent des rentes qu’à la société, qui en subit au contraire les contrecoups. L’auteur donne quelques exemples d’activités nocives pour la société :

  • la tromperie des investisseurs profanes : cette tromperie se fait aussi bien en leur vendant des produits toxiques pour s’en débarrasser qu’en leur proposant des produits que seuls des experts peuvent comprendre;
  • le mode de paiement des dirigeants : en les payant avec des options d’achat, on les incite à prendre des décisions risquées à court terme; or, c’est trop souvent la société qui paie pour les dégâts quand les risques tournent mal, alors que, quand ils tournent bien, ce sont ces dirigeants qui touchent le gros lot; on parle alors de la privatisation des gains et de la socialisation des pertes (ou, pile je gagne, face tu perds!);
  • la déréglementation : idem : quand tout va bien, la déréglementation fait augmenter les profits des entreprises financières, mais, quand ça va mal (et la déréglementation contribue à ce que ça aille mal), les dégâts sont trop souvent absorbés par la société;
  • les garanties gouvernementales : quand le gouvernement garantit les prêts (par exemple, sur des hypothèques), il incite les entreprises financières à prendre plus de risques et… (autre idem!);
  • la fraude : l’auteur rappelle que les amendes payés par le secteur financier ont atteint 139 milliards $ en deux ans et qu’elles ne représentent que la pointe de l’iceberg, notamment parce que les entreprises qui ont fait faillite en raison de fraudes n’ont pas payé d’amendes et que bien d’autres ne se sont pas fait prendre (ou, parce qu’on n’a pas pu amasser suffisamment de preuves contre elles)… Pire, bien des cas de fraudes font partie intrinsèque de la culture d’entreprise. L’auteur craint que «la fraude soit devenue une caractéristique [du secteur financier] et non un bug». Dans le même sens, l’auteur a maintes fois observé que les clients sont trop souvent considérés comme des sources de revenus qu’on n’hésitera pas à lessiver pour le profit de l’entreprise (ou pour soi-même);
  • les conséquences : toutes ces activités résultent en un transfert des revenus des plus pauvres vers les plus riches. On gaspille en outre les compétences des citoyens les plus brillants pour inventer des produits qui tromperont les clients (cela rejoint la conclusion du billet précédent).

- Est-ce que la recherche peut contribuer à solutionner ces problèmes?

Sûrement, certaines recherches empiriques ont d’ailleurs permis de révéler de nombreux problèmes et scandales (collusion chez les agences de notation, fraudes dans les évaluations de la valeur de maisons, disparition de recommandations d’analystes, etc.). Et, il n’y a rien de plus efficace pour combattre la culture du secret que de révéler les tactiques employées. Mais ce type de recherche est de plus en plus difficile à mener. D’une part, les données des entreprises financières sont gardées jalousement secrètes, même celles des entreprises quasi-gouvernementales comme Fannie Mae et Freddie Mac. D’autre part, ces entreprises ne fournissent généralement des données que lorsqu’elles financent des recherches dont elles peuvent influencer les résultats pour qu’ils soient à leur avantage. Selon l’auteur, la recherche théorique peut aussi apporter des contributions importantes, mais en prenant de nombreuses précautions qu’il serait fastidieux de lister ici (d’autant plus que l’auteur ne m’a pas convaincu, car les résultats de ce type de recherches dépendent beaucoup des hypothèses de départ).

- Et l’enseignement?

Étant professeur de finance, l’auteur ne pouvait pas passer à côté du rôle que peut jouer l’enseignement pour corriger les problèmes soulevés dans son document. Le premier point qu’il analyse est le faible niveau de normes morales dans cette industrie. Selon de nombreuses études, cette lacune s’explique en partie par les motivations qui portent les candidats à se diriger dans ce domaine (ils sont entre autres plus égoïstes que la moyenne des étudiants). Ensuite, d’autres études montrent que cet état empire au cours de leurs études (ils deviennent encore plus égoïstes et moins préoccupés par le bien commun). Cet état déjà peu enviable se détériore encore quand ils obtiennent un emploi dans le secteur financier (l’auteur parle carrément d’endoctrinement, de culture industrielle).

Un étudiant de Gary Becker (un économiste qui pensait que toutes nos décisions relèvent de l’économie et sont prises comme si nous étions des homos œconomicus) a déjà dit être devenu amoral (comme la majorité des autres étudiants de ce cours) quand leur professeur leur a «enseigné» que le choix d’une personne face au crime ne repose que sur le calcul de l’utilité d’un crime par rapport à la désutilité de se faire prendre. Face à un tel discours, on peut voir à quel point l’enseignement de l’économie (et de la finance) peut transformer une personne normale (ou presque, puisqu’elle a choisi cette discipline…) en un être amoral qui peut justifier «scientifiquement» son amoralité.

L’auteur croit que les professeurs d’économie et de finance devraient au contraire insister sur le fait que le fonctionnement de l’économie repose justement sur des comportements qui respectent les normes sociales (sans un minimum de confiance, aucune transaction ne se ferait). Il ajoute que les lacunes qu’il mentionne dans son document devrait être enseignées. Il résume finalement ainsi le rôle qu’il voit aux professeurs du domaine :

«D’une part, nous devons mieux expliquer et documenter la contribution de la finance à la société. D’autre part, nous devons comprendre que certaines des critiques qui sont soulevées contre nous sont fondées. Plus important encore, nous avons besoin de nous prémunir contre les risques de devenir de simples porte-parole de l’industrie financière.»

Et alors…

Dans l’amorce de ce billet, j’ai écrit que, comme cette étude provient d’une personne exerçant sa profession à l’intérieur du monde de la finance, nous pourrions ainsi bénéficier d’un éclairage différent. En fait, il s’agit plutôt d’un éclairage complémentaire! Au bout du compte, j’ai préféré cette étude à celle que j’ai présentée dans le billet précédent. C’est d’ailleurs pourquoi j’ai choisi de présenter l’autre en premier, même si je l’ai lue après!

Si le monde de l’économie et de la finance avait plus de Luigi Zingales et moins de Gary Becker (et autres néoclassiques), nous n’aurions peut-être pas vécu la dernière crise. Mais, malheureusement, le système capitaliste et le secteur financier semblent produire plus de Becker que de Zingales…

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 227 autres abonnés