Skip to content

Le déclin de la concurrence

28 septembre 2016

declin_concurrenceLa concurrence est censée être la principale vertu de l’économie de marché. On tente même d’instaurer cette «vertu» dans le secteur public (soit à l’interne, soit avec des entreprises privées), ce qui montre à quel point on la vénère. Or, selon une récente allocution du président du Council of Economic Advisers (Assemblée des conseillers économiques), Jason Furman, intitulée Beyond antitrust: The role of competition policy in promoting inclusive growth (Au-delà des mesures pour réglementer les monopoles : Le rôle des politiques sur la concurrence dans la promotion de la croissance inclusive), la concurrence serait en perte de vitesse aux États-Unis.

Manifestations de la baisse de la concurrence

Les données montrent que la part des revenus des 50 plus grosses entreprises a augmenté dans 12 des 13 regroupements industriels entre 1997 et 2012 (voir le tableau à la page 2 du document). Cette hausse fut particulièrement forte dans le transport, le commerce de détail, les finances et assurances, et le commerce de gros. La seule baisse (minime) a été observée dans les autres services (services de réparation, services personnels, ménages, associations, etc.), le secteur où les revenus étaient déjà les moins concentrés en 1997. Furman présente ensuite l’évolution de sept indicateurs macroéconomiques qui pourraient expliquer la plus grande concentration de l’économie et le déclin de la concurrence.

1 . Baisse du taux de création d’entreprises : L’image qui accompagne ce billet montre que la proportion de nouvelles entreprises (fondées au cours des cinq dernières années) est passée d’environ 50 à 35 % de l’ensemble des entreprises entre 1982 et 2013. Encore pire, alors qu’elles embauchaient 20 % de la main-d’œuvre en 1982, cette proportion était passée à guère plus de 10 % (environ la moitié!) en 2013. declin_concurrence1Le graphique ci-contre montre que cette tendance vient presque uniquement de la baisse du taux annuel de création de nouvelles entreprises (de 15 à 8 % entre 1975 et 2013), très peu de changements dans le taux de fermeture des entreprises, puisque celui-ci n’ayant diminué que légèrement (de 10 à 8 %). La principale hypothèse avancée par Furman est que les barrières à l’entrée dans des industries ont augmenté avec les années, tant à cause de la complexification des activités des entreprises que de ce qu’on appelle la capture de la réglementation par les entreprises existantes (voir ce billet à ce sujet).

2. Baisse du dynamisme du marché du travail : Cette baisse se manifeste aussi bien par la declin_concurrence2diminution de la création et de la destruction d’emplois (comme on peut le voir sur le graphique ci-contre, où on voit que le niveau de création d’emplois a diminué davantage que le taux de destruction, faisant aussi diminuer le taux de création nette, soit la croissance de l’emploi), que par la baisse de la migration entre les États des États-Unis (voir le graphique de la page 6 du document) et que par le recul de la fréquence des changements d’emplois par les travailleurs (voir cette autre étude notamment la figure 2 de la page numérotée 47). Notons que cette dernière baisse peut aussi bien être une bonne nouvelle (les travailleurs peuvent moins changer d’emploi parce que leur emploi leur convient davantage qu’avant) qu’une mauvaise (les travailleurs ont peur de quitter leur emploi ou n’en trouvent pas de meilleure qualité). L’auteur (et moi aussi) penche plutôt du côté de la mauvaise nouvelle, en raison de l’augmentation du rapport de force des employeurs, augmentation qui se manifeste entre autres par une faible croissance des salaires.

declin_concurrence33. Baisse de la part des revenus allant aux travailleurs : Le graphique ci-contre montre que la part des revenus allant aux travailleurs n’a diminué que légèrement entre 1948 et 2000 (avec une hausse vers la fin des années 1990), passant d’un sommet de 66 % en 1960 à 64 % à 2000. Par la suite, cette part a diminué beaucoup plus abruptement se stabilisant autour de 57 % de 2010 à 2016. Furman, citant quelques études à ce sujet, mentionne que les principaux facteurs expliquant cette chute seraient la baisse du taux de syndicalisation et du salaire minimum réel, le déclin de la concurrence qui a fait diminuer le rapport de force des travailleurs et les changements technologiques.

4. Augmentation du taux de rendement du capital : Cette observation est intimement liée à la précédente. C’est en raison de la hausse du taux de rendement du capital que la part des revenus allant aux travailleurs a diminué et que celle allant au capital a augmenté. Ce résultat peut aussi être attribué à la présence accrue de rentes (profits non liés à la productivité) et à la baisse de la concurrence.

declin_concurrence45. Baisse des investissements : Le graphique ci-contre montre l’évolution de la part des investissements fixes des entreprises (excluant les investissements en bâtiments résidentiels) sur le PIB de 1950 à 2016 (les courbes de tendances sont de moi). Alors que cette part a augmenté fortement de 1950 à 1980, elle n’a cessé de diminuer depuis. L’auteur précise que les baisses récentes vont à l’encontre de la théorie économique orthodoxe qui prétend que des rendements plus élevés sur le capital font augmenter ces investissements. Furman associe cette baisse au déclin de la concurrence qui enlève des incitatifs à l’investissement.

declin_concurrence56. Hausse de la variation du taux de rendement des entreprises : Le graphique ci-contre montre la forte croissance de l’écart des profits sur le capital investi entre les entreprises non financières. Alors que les entreprises qui bénéficiaient des profits les plus élevés (le 90e centile) en faisaient entre deux et trois plus que la médiane en 1965, cette proportion est passée à environ six fois en 2014 (même si le taux de profit médian a presque doublé). Cette croissance laisse penser à une forte hausse des rentes. En plus, les deux tiers des entreprises ayant des taux de rendement supérieurs à 45 % étaient dans les secteurs de la santé et des technologies de l’information, secteurs où la concurrence est particulièrement faible.

7. Hausse des inégalités des salaires : Non seulement les salaires sont de plus en plus inégalitaires, mais ces écarts s’observent davantage de nos jours qu’auparavant entre les entreprises des mêmes secteurs qu’à l’intérieur des entreprises.

Conclusion : Ces sept tendances ne sont pas des preuves formelles que la baisse de la concurrence provient de l’augmentation des barrières à l’entrée dans des industries, mais seraient toutes des conséquences attendues si c’était le cas. Cela demeure donc l’hypothèse la plus crédible, d’autant plus que d’autres facteurs penchent de ce côté, facteurs qui inquiètent le gouvernement.

Mesures adoptées pour contrer ces tendances

Furman étant un conseiller d’Obama, il a bien sûr tendance à louanger les politiques prises par cette administration, d’autant plus qu’il la conseille. Comme certains points qu’il aborde sont quand même intéressants et pertinents, je vais me concentrer sur ceux-là.

Propriété intellectuelle : Une étude que j’ai présentée au début de 2016 montrait que la propriété intellectuelle est le principal facteur explquant la baisse de la part des revenus allant aux travailleurs. J’étais donc curieux de lire ce que Furman allait en dire, d’autant plus que l’administration Obama appuie l’accord de partenariat transpacifique qui, selon bien des commentateurs (dont Médecins sans frontière), «aurait pour conséquence de restreindre la concurrence provenant des fabricants de médicaments génériques qui permet actuellement de faire baisser les prix des médicaments et de faciliter l’accès aux traitements».

Furman considère que si la protection de la propriété intellectuelle vise à inciter l’innovation, elle se traduit trop souvent par la création de monopoles et par des barrières à des innovations. Il vante quelques mesures de l’administration Obama, comme de faciliter la contestation des brevets qui risquent de mettre un frein à l’innovation, mais ne dit mot sur les abus des dernières années (prix de l’EpiPen qui a sextuplé, hausse de 60 % du prix des médicaments distribués par Valeant, hausse de 5400 % du prix du Daraprim par Turing, trois hausses appliquées sans qu’aucune recherche ne soit entreprise). Il serait pour le moins étonnant que cette mesure timide change la tendance actuelle à la hausse de l’importance de la propriété intellectuelle dans l’économie.

Rapport de force des travailleurs : Furman cite de nombreux facteurs qui nuisent au rapport de force des travailleurs :

  • baisse de la syndicalisation;
  • hausse des frais de transport;
  • multiplication des clauses de non-concurrence (ces clauses toucheraient 18 % des travailleurs aux États-Unis, parfois des employés à bas salaires qui sont pourtant peu susceptibles de connaître les «secrets» industriels des entreprises);
  • hausse de la réglementation des professions (la proportion des emplois réglementés est passée de 4 % dans les années 1950 à 25 % en 2008);
  • baisse du salaire minimum réel (voir le graphique 11 au bas de la page 14 du document).

Mais, les actions pour contrer ces problèmes sont rares et peu efficaces…

Et alors…

Ce document n’est peut-être pas le plus progressiste que j’ai lu (euphémisme), mais il a le mérite de bien présenter un grand nombre de manifestations de la baisse de la concurrence dans l’économie dite de marchés des États-Unis. Cela dit, il semble très difficile d’adopter des réformes permettant de mettre un frein à ces manifestations. Cela montre peut-être que ce système n’est justement pas réformable!

Plongée en eau trouble

26 septembre 2016

plongee

Plongée en eau trouble : enquête explosive chez les banquiers de Joris Luyendijk nous invite dans un monde où, même quand un avion s’enflamme, il n’y a pas de pilote dans le cockpit… Cette histoire, bien trop réelle, est contée par un journaliste ne connaissant au départ rien du secteur financier qui a passé deux ans et demi en immersion dans ce secteur à Londres.

Introduction : L’auteur explique le contexte qui l’a amené à discuter avec plus de 200 personnes travaillant dans la «City» de Londres à la demande du journal le Guardian, pour un blogue qu’il y a tenu pendant tout ce temps.

La loi du silence : L’auteur explique tout d’abord les difficultés auxquelles il a dû faire face pour percer la loi du silence qui règne dans ce secteur. Il raconte ensuite (en fait avant…) une journée passée dans une maison de fous… euh, plutôt dans un cabinet de courtage, et fait part du résultat de certains de ses entretiens obtenus en partie grâce à cette phrase savoureuse : «La démocratie finit par ressembler à un système où les électeurs décident quel politicien doit mettre en œuvre ce que dictent les marchés» qui a fait réagir un bon nombre de banquiers…

Il illustre avec une autre citation que j’aime bien (tirée d’une de ses entrevues, cette fois) la différence entre les sous-secteurs de la finance : «Si les banquiers d’affaires sont des chasseurs en quête d’une proie, les banquiers de financement, eux, sont plutôt des fermiers qui labourent patiemment la terre». Nous avons certainement besoin des deuxièmes, mais des premiers?

La planète finance et le krach : L’auteur montre tout d’abord à quel point le système financier est fragile. Un seul joueur qui s’effondre peut entraîner la chute de tous les autres, ce qui a bien failli se passer en 2008. L’auteur précise ensuite que la très grande majorité des entreprises financières n’ont joué aucun rôle dans cette crise, ce qui est à la fois rassurant et très inquiétant, car cela veut dire qu’une petite minorité de ces entreprises peut mener ce système au bord du gouffre.

Le risque du caméléon : L’auteur raconte dans ce chapitre ses discussions avec des employés de banques d’investissement (personnes qu’il a eu beaucoup de difficulté à recruter). Il défait entre autres le cliché sur leur mode de vie : non, ce ne sont pas tous des drogués toujours sur le party! Il constate alors la grande variété des fonctions qu’on retrouve dans ces banques et la piètre opinion que les personnes qui y travaillent ont de celles qui n’accomplissent pas les mêmes fonctions qu’elles! Finalement, il montre que toutes ces personnes jugent leur travail essentiel à la société et qu’aucune d’entre elles ne se considère responsable de la crise, même celles qui créent le genre de produits dérivés incompréhensibles qui sont en partie responsables de cette crise.

Ce n’est que l’argent des autres : Ce chapitre porte sur des témoignages d’employés dans des fonctions d’appui (direction, tâches administratives, informatique, gestion du risque, service juridique, etc.). À partir de ces témoignages, l’auteur conclut entre autres que les services de gestion du risque ont perdu beaucoup de pouvoir après les déréglementations du secteur financier, car le risque est dorénavant assuré par la population en raison du concept du «too big to fail» («trop gros pour faire faillite»). Ces services servent dorénavant plus à calmer les actionnaires et les gouvernements qu’à véritablement éviter les activités trop risquées. Bref, le risque porte sur l’argent des autres, pas sur celui des institutions financières : «pile les banques gagnent, face la population perd».

Quand le téléphone sonne : L’auteur aborde ici le travail des responsables des ressources humaines, travail particulièrement pénible lors des vagues de licenciements trop fréquentes dans ce milieu, et présente les réactions des employés qui en sont victimes. Ensuite, il analyse tous les euphémismes utilisés dans ce milieu pour amoindrir la réalité de ces licenciements sauvages (départs, démissions, transactions, etc.). Ce qui ressort de tout cela est un climat de travail où règnent la suspicion, la peur et le chacun pour soi.

Chacun pour soi : Conséquence du climat de travail et des incitations que l’auteur qualifie de «perverses», le secteur financier se caractérise par une amoralité généralisée. Ces travailleurs ne se considèrent pas immoraux, mais avancent que la moralité n’a simplement rien à voir avec leur travail. Il y a des gagnants et des perdants dans chaque transaction et ils doivent faire partie des gagnants s’ils veulent garder leur emploi. Il justifient cette amoralité avec des raisonnements motivés, invoquant la même amoralité chez les clients et les actionnaires qui n’hésiteront pas à retirer leurs billes si les profits attendus ne sont pas au rendez-vous, l’absence de discrimination associée à cette amoralité et le fait que le reste de la société n’est pas plus morale.

Des îles en plein brouillard : L’auteur se penche ici sur les quants (analystes quantitatifs), experts en évaluation quantitative du risque (pour le calculer et le neutraliser). Ceux qu’il a rencontrés étaient tous renfermés, avec peu de relations sociales, au moins deux étant même atteint du syndrome d’Asperger. L’auteur montre ensuite les dangers de la complexité des algorithmes que les quants développent, notamment dans les transactions à haute fréquence. S’ils fonctionnent bien et rapportent beaucoup en temps «normal», ils peuvent être désastreux quand les hypothèses sur lesquels ils sont basés ne s’observent plus, comme lors de la dernière crise. Comme les dirigeants ne comprennent pas le fonctionnement de ces algorithmes, ils ne peuvent pas réagir rapidement. Et le temps que les quants leur disent quoi faire et que ces solutions soient mises en œuvre (quand elles le sont…) les pertes peuvent être déjà faramineuses… Voilà bien un domaine qui mérite bien son appellation de finance casino! Un banquier a d’ailleurs déjà affirmé que le problème n’est pas seulement que trop de banques sont trop grosses pour faire faillite, mais surtout qu’elles sont «trop grosses pour savoir ce qu’il s’y passe»! Et la clarté n’est pas plus présente du côté des systèmes informatiques, dans lesquels les dirigeants bancaires n’aiment pas investir (ceci explique peut-être cela et cela), car ces investissements font réduire les profits à court terme (je vais continuer à garder mon carnet bancaire…).

Et maintenant, quelques bonnes nouvelles ? : Là, l’auteur nous embarque dans l’univers des CDO (obligations adossées à des actifs) qui sont supposés protéger l’acheteur de risques trop élevés, mais qui sont aussi un des produits opaques à la source de la crise… À l’aide des témoignages qu’il a reçus, l’auteur explique que la conception de ces produits toxiques n’est que la conséquence de la culture de ce secteur (amoralité, chacun pour soi, absence de loyauté, concurrence entre les employés, peur, suspicion, etc.) et de l’incompréhension des produits par les banques qui les vendent. L’auteur souligne ensuite les conflits d’intérêts entre les agences de notations et les banques qu’elles évaluent, et entre les firmes de vérification et les banques qu’elles vérifient. Comme le dit l’auteur, c’est comme si le guide Michelin était payé par les chefs pour les évaluer! Finalement, les régulateurs, des employés gouvernementaux, font leur possible, mais si même les banquiers ne savent pas ce qui se passe chez eux, comment les régulateurs pourraient-ils le savoir, surtout que ceux qui commencent à avoir de l’expérience se font embaucher par les banques (où le salaire est bien plus élevé)?

Putain de merde : Malgré ses tentatives de déni, l’auteur réalise à quel point le système financier (ainsi que l’économie réelle et notre fragile système d’approvisionnement) est passé proche du gouffre. Pourtant, bien peu de choses ont été changées dans la réglementation après la crise : légère augmentation du taux de fonds propres, mais aucun changement du côté des incitations perverses, même culture délétère, même opacité, même complexité des produits, etc. Au bout du compte, on peut douter que le système financier soit plus fiable qu’avant la crise.

Les maîtres de l’univers : Les maîtres de l’univers sont les employés (souvent des traders, mais pas toujours) qui considèrent leurs principales transactions comme l’équivalent d’un but gagnant dans le septième match d’une série éliminatoire. Ils se considèrent plus brillants que les autres, estiment mériter leurs salaires indécents (qui atteignent parfois le millions de livres par année) et défendent farouchement leur secteur. Ils détestent la réglementation, sont convaincus que les banquiers sont presque tous honnêtes et que la crise fut uniquement due à la malchance (un cygne noir).

Enfermés dans leur bulle : Les banquiers à œillères sont enfermés dans leur bulle, comme le titre du chapitre l’indique. Ils travaillent 16 heures par jour, souvent sept jours par semaine. Ils ont rarement des ami.e.s. Le monde extérieur n’existe pas pour eux. «On vit en circuit fermé, loin de la réalité», dira l’un d’eux. Un autre s’est mis en colère en raison d’une augmentation d’impôt découlant des sommes énormes que le gouvernement britannique a payées pour sauver le secteur financier de ce pays… Que tout le monde souffre en raison des folies faites dans son secteur ne le concernait pas.

« Personne n’aime les prophètes d’Apocalypse » : Dans la terminologie de l’auteur, les banquiers délirants sont un croisement des maîtres de l’univers et des banquiers à œillères. Comme les premiers, ils se congratulent de leurs succès (mais ne s’enflent pas la tête) et comme les deuxièmes, ils se consacrent corps et âme à leur travail. L’auteur donne comme exemple un trader qui, le 11 septembre 2001, a compris dès que le premier avion a frappé une tour qu’il s’agissait d’un acte terroriste et qui s’est mis à vendre tout ce qu’il pouvait de titres provenant des sociétés d’assurances et aériennes. À la fin de la journée, il s’est rendu compte qu’il n’avait pas pensé une seule seconde à ses amis proches qui travaillaient dans ces tours. Il a quitté ce travail quelques mois plus tard… Les responsables des scandales de la manipulation du Libor et du Forex seraient des banquiers délirants. En effet, l’auteur mentionne que ces responsables se vantaient par courriels (!) d’avoir manipulé le marché (sans apporter de précision sur ce qu’ils avaient fait, quand même!). Et, finalement, il y a les banquiers à sang froid qui ne sont pas qu’amoraux comme les autres, mais carrément immoraux. Eux n’hésitent pas à mentir à leurs clients, surtout s’ils sont fragiles, pour les arnaquer…

Le cockpit vide : Dans ce dernier chapitre en forme de conclusion, l’auteur prétend qu’il a beau avoir découvert des comportements individuels qui nuisent à l’efficacité du secteur financier, c’est en fait le système lui-même qui crée ses propres problèmes (qui deviennent les nôtres), notamment en raison de la présence d’incitations perverses (difficile de lui donner tort quand on lit ce qui s’est passé récemment à la banque Wells Fargo, où la dirigeante s’est vue octroyer une indemnité de départ de 125 millions $ après un scandale important). C’est donc tout ce système qu’il faudrait revoir, notamment :

  • en séparant les banques pour qu’il n’y en ait plus qui soient trop grosses pour faire faillite;
  • en séparant les banques commerciales des banques d’investissements;
  • en interdisant les produits financiers si complexes que même les banquiers ne les comprennent pas;
  • en modifiant les systèmes de bonus pour incorporer des «malus» qui pourraient créer des incitations positives;
  • en augmentant encore les réserves de fonds propres des banques.

Il se demande ensuite comment il se fait qu’aucun gouvernement, de droite comme de gauche n’ait au moins tenté d’apporter ce genre de solution après la dernière crise. Peut-être que les politiciens ont les mêmes tares que les banquiers (maîtres du monde, à œillères, délirants, etc.). Sinon, est-ce une conséquence du lobbying? Des portes tournantes (postes offerts aux politiciens en fin de carrière)? De la capture politique par le secteur financier (les politiciens seraient convaincus que la réglementation est vraiment nocive)? De la mondialisation financière? De tous ces facteurs? Chose certaine, l’inaction des politiciens nourrit le cynisme et ce cynisme éloigne la possibilité d’élire des politiciens qui pourraient vraiment s’attaquer à ce problème. Et, qu’on le veuille ou pas, cela ne peut être que du côté de la politique que se trouvent les solutions.

Et alors…

Lire ou ne pas lire? Lire! Même si je ne raffole habituellement pas des livres basés sur des anecdotes, préférant des analyses plus globales (que des anecdotes peuvent bien sûr illustrer), j’ai dévoré ce livre. Il faut dire que plus de 200 anecdotes (même si cela signifie que seulement 0,5% des travailleurs de la City ont été rencontrés), cela commence à vouloir dire quelque chose du portrait complet. Même si la culture des gens qui travaillent dans ce secteur ne m’est pas tout à fait étrangère, les témoignages à répétition sur les tares qu’on y trouve permettent de mieux percevoir le climat qui règne dans ce milieu. Chose certaine, je ne regrette sûrement pas de ne pas y travailler!

Est-ce que les propositions de l’auteur sont adéquates et pourraient vraiment changer les choses et nous mettre à l’abri d’une nouvelle crise qui serait encore plus difficile à régler? Il dit lui-même ne pas avoir la prétention d’assez bien connaître ce domaine pour garantir que ses propositions sont les meilleures. Je pense qu’elles amélioreraient la situation, mais suis loin d’être certain qu’elles régleraient le problème. Par exemple, je suis loin d’être certain que le fait de réduire la taille des banques diminuerait le risque de contagion d’une crise comme la dernière, car les entreprises financières sont de plus en plus dépendantes les unes des autres. Mais, bon, ces recommandations sont loin de représenter le principal intérêt de ce livre!

Les inégalités et la structure de production

24 septembre 2016

inegalites-et-structureL’importance du secteur financier, la paye des pdg, le niveau insuffisant du salaire minimum, la mondialisation, la baisse de la syndicalisation, les changements technologiques, l’accumulation de rentes et la capture de la réglementation sont probablement les facteurs auxquels on pense en premier pour expliquer les inégalités de revenus. Un communiqué de l’Organisation de coopération et de développement économiques (OCDE) paru cette semaine a présenté certains travaux qui se sont penchés sur l’impact de la structure de production d’un pays sur son niveau d’inégalités. Intrigué, j’ai décidé de lire la courte étude (une douzaine de pages) sur laquelle ce communiqué était basé. Intitulée Linking Economic Complexity, Institutions and Income Inequality (Les liens entre la diversité économique, les institutions et les inégalités de revenus), cette étude (accessible à partir de cette page) de cinq auteurs parue en mai 2015 aborde un angle rarement exploré lorsqu’on pense aux facteurs expliquant les inégalités.

La courbe de Kuznets

Simon Kuznets a conçu sa célèbre courbe (l’image qui accompagne ce billet en est une reproduction) vers 1955. Avec cette courbe, il prétendait que, lorsqu’un pays s’enrichit, les inégalités augmentent jusqu’à un certain niveau de revenu par habitant, puis se mettent à décroître quand le revenu par habitant augmente encore plus. Si cette évolution s’est parfois observée, ce ne fut pas fréquent et cela est de plus en plus rare. Depuis que Kutznets a créé cette courbe, on s’interroge de plus en plus sur la pertinence d’associer le développement économique au seul PIB. Un des éléments qui semble prometteur est l’étude de l’impact de la structure de production d’un pays sur son niveau d’inégalités. En effet, la structure de production d’un pays est souvent le reflet d’autres facteurs qui sont liés aux inégalités, comme la qualité des institutions, la scolarité de la population, la géographie, la température, le passé colonial, la technologie utilisée, etc.

L’indice de la diversité économique

De nombreuses études montrent que les économies qui reposent sur l’extraction des ressources naturelles sont bien plus inégales que celles qui sont plus diversifiés et qui sont basées sur un niveau technologique avancé. Pour comparer les structures de production des pays, les auteurs utilise l’indice de la diversité économique (Economic Complexity Index) développé par le Massachusetts Institute of Technology (MIT). Cet indice tient compte surtout de la structure des exportations d’un pays, car c’est le facteur qui fait le plus ressortir les différences de la structure de production d’un pays, et la compare au niveau de ses inégalités. Les auteurs donnent l’exemple de deux paires de pays au PIB par habitant assez semblables, inegalites-et-structure1soit le Chili et la Malaisie, et l’Équateur et la Thaïlande. Le graphique ci-contre montre que plus de la moitié de la valeur des exportations du Chili et de l’Équateur est composée d’un ou deux biens, et que cette concentration se fait du côté des ressources naturelles (surtout du cuivre au Chili, et surtout du pétrole et des bananes en Équateur), alors que les exportations de la Malaisie et de la Thaïlande sont bien plus variées et bien moins concentrées sur les ressources naturelles (et plus dans des produits électroniques et de la machinerie). Or, les coefficients de Gini de la Malaisie et de la Thaïlande sont bien moins élevés (respectivement 0,39 et 0,38) que ceux du Chili et de l’Équateur (0,49 et 0,47).

Si on se basait uniquement sur cet exemple, cette relation ne voudrait pas dire grand-chose. Pour voir si cette relation est répandue, les auteurs ont comparé l’indice de la diversité économique (IDÉ) et le coefficient de Gini de 1960 à 2008 (en regroupant les données en cinq décennies) pour tous les pays comptant au moins 1,5 million d’habitants et exportant pour une valeur d’au moins 1 milliard $ par année (retenant ainsi les pays qui représentent 91% de la population mondiale et 84% des exportations). Notons qu’on peut accéder au rang des pays selon l’IDÉ sur cette page, avec les données allant de 1962 à 2014.

Les résultats

Je vais aller droit au but : en tenant compte du PIB par habitant, du niveau de scolarité et de la population, l’IDÉ expliquerait environ 60 % des écarts d’inégalités entre les pays. Les auteurs ont contrôlé la robustesse de leurs résultats avec d’autres sources de données et d’autres facteurs sans changement notable. Ils ont ensuite estimé le lien entre les changements de l’IDÉ et des inégalités par pays avec le temps (d’une décennie à l’autre). Ils s’attendaient à des résultats moins nets, car les changements de inegalites-et-structure2structures de production dans les pays sont toujours lents (si on a du pétrole, il serait étonnant qu’on arrête de l’exploiter, même si on devrait…). Ils ont quand même trouvé une relation significative comme le montre le graphique ci-contre. On peut en effet constater qu’il y a bien plus de pays dans les quadrants en haut à gauche et en bas à droite (montrant une relation inverse entre l’évolution du coefficient de Gini, donc des inégalités, et celle de l’IDÉ) que dans les quadrants en haut à droite et en bas à gauche.

Les auteurs ajoutent que le rôle de la structure de production sur les inégalités est sûrement plus important que le montre l’IDÉ, car celui-ci ne tient compte que des exportations de biens, donc pas de l’importance des secteurs de la finance et de l’immobilier qui sont fortement liés aux inégalités.

Ensuite, les auteurs utilisent ces données pour déterminer l’impact sur les inégalités de chacun des produits d’exportations pour construire un indice de Gini des produits (IGP). Le rang des produits selon l’IGP est disponible sur cette page, avec les données allant de 1995 à 2014. Comme prévu, ce sont les ressources naturelles qui se situent au bas du classement et la fabrication de machines à son sommet.

Conclusion

Les auteurs ne prétendent pas que l’importance du rôle de la structure de production sur les inégalités contredit le fait que les facteurs mentionnés au début de ce billet jouent aussi un rôle dans les inégalités. L’utilisation de la structure de production est plutôt un autre angle pour expliquer les inégalités. Ils expriment cette relation ainsi :

«Bien sûr, nos résultats ne signifient pas que les structures de production sont le seul facteur qui détermine le niveau des inégalités des revenus d’un pays. Une explication plus probable, comme nous l’avons soutenu dans l’introduction, est que la structure productive d’un pays est le reflet d’un certain nombre de facteurs, des institutions à l’éducation, qui évoluent au même rythme que la composition des produits qu’un pays exporte.»

Et alors…

Ce n’est pas la première fois que je lis des études qui font un lien entre la structure de production d’un pays et les inégalités. Les malédictions des ressources naturelles et du secteur financier sont par exemple bien documentées. Par contre, c’est la première fois que je lis une étude qui analyse les liens entre l’ensemble de la structure de production et les inégalités. Même si on n’a pas vraiment besoin d’autres arguments pour refuser l’exploitation pétrolière au Québec et le passage du pétrole sale de l’ouest du Canada sur nos terres, cette étude nous en fournit d’autres et nous incite à nous y opposer avec encore plus de vigueur.

Les gros chars et le prix de l’essence

21 septembre 2016

gros-charsDans un billet que j’ai publié en mars 2015, je relativisais les conclusions de quelques auteurs qui avaient observé que, pour la première fois dans l’histoire (en fait, c’était la deuxième), il s’était vendu au Québec en décembre 2014 plus de camions (catégorie qui comprend, selon la note 3 du tableau cansim 079-0003 de Statistique Canada, «les mini-fourgonnettes, les véhicules utilitaires sport, les camions légers et lourds, les fourgonnettes et les autobus») que de voitures particulières et qui attribuaient cette situation à la baisse du prix de l’essence. Je montrais entre autres qu’il est normal que la proportion de camions dans les ventes de véhicules neufs augmente l’hiver et que la hausse de cette proportion est en fait une tendance qui s’observe depuis le début des années 1980. Dans un autre billet que j’ai publié quelques mois plus tard, j’ai montré que, tel que je le prévoyais, la proportion de camions dans les ventes de véhicules neufs est repassée sous la barre des 50 % en mars 2015 et y est demeurée en avril et en mai 2015. Par contre, j’observais aussi que cette proportion continuait à augmenter. Qu’en est-il plus d’un an plus tard? C’est ce que je vais tenter de savoir en utilisant, comme pour les précédents billets, les données du tableau cansim 079-0003 de Statistique Canada.

Tendance à long terme

Le graphique qui suit montre la tendance annuelle à long terme de la proportion de camions dans les ventes de véhicules neufs au Québec (ligne rouge) et dans le reste du Canada (ligne bleue). On voit que cette tendance haussière n’a connu que quelques interruptions depuis 1981 (à la fin des années 1980, de 1999 à 2008 et en 2012 au Québec, et encore moins dans le reste du Canada), mais que le niveau de cette proportion a toujours été nettement plus élevée dans le reste du Canada qu’au Québec (d’entre huit et 17 points de pourcentage, selon les années). Ainsi, cette proportion a augmenté de respectivement 39 et 38 points de pourcentage dans le reste du Canada et au Québec entre 1981 et 2015, soit de 27,5 à 66,8 % dans le reste du Canada (une hausse de plus de 140 %) et de 13,2 à 51,6 % au Québec (une hausse de 290 %!).

gros-chars1

D’autres données, dont celles du tableau cansim 079-0004, montrent que cette tendance touche surtout les ventes de camions légers (qui représentaient 97% du nombre de camions neufs vendus au Québec et au Canada en 2015), dont celles des véhicules utilitaires sport (VUS). Les courbes de tendance de ce graphique (lignes droites) permettent aussi de constater que la proportion de camions dans les ventes de véhicules neufs a bien plus augmenté en 2015 qu’au cours des années précédentes au Québec (car le point de l’année 2015 est nettement au-dessus de la courbe) et que cette proportion a surpassé cette année-là la barre des 50 % en moyenne annuelle pour la première fois.

Tendance à moyen terme

Le graphique qui suit montre le même genre de données, mais par mois entre le premier janvier 2010 et le dernier mois pour lequel des données sont disponibles, soit juillet 2016 (donnée diffusée la semaine dernière par Statistique Canada).

gros-chars2

Ce graphique ne permet pas seulement d’observer plus de données (soient celles de janvier à juillet 2016), mais fait ressortir les tendances plus récentes. On peut d’ailleurs constater que la tendance à la hausse de la proportion de camions dans les ventes de véhicules neufs s’est considérablement ralentie de 2010 à 2014 au Québec, mais qu’elle a soudain repris de la vigueur depuis la fin 2014. On voit aussi que la tendance a été bien plus régulière dans le reste du Canada. Cette proportion a même dépassé au Québec la barre des 60 % en janvier et février dernier, alors qu’elle n’avait même jamais atteint 55 % au cours des hivers précédents. L’hypothèse que la baisse du prix de l’essence stimule la vente des plus gros véhicules serait-elle finalement plus juste que je ne le pensais?

Impact du prix de l’essence

J’ai utilisé diverses méthodes pour tenter d’estimer l’impact du prix de l’essence dans l’évolution de la proportion de camions dans les ventes de véhicules neufs. J’y suis tout d’abord allé directement en calculant le coefficient de corrélation entre le prix de l’essence ordinaire (en utilisant la moyenne mensuelle pour le Québec des données fournies par la Régie de l’énergie) et la proportion de camions dans les ventes de véhicules neufs entre janvier 2010 et juillet 2016. Cela m’a donné un coefficient de -0,58 (le rapport négatif signifie que le prix de l’essence et la proportion de camions varient inversement, c’est-à-dire que la proportion de camions tend à augmenter quand le prix de l’essence diminue et vice-versa, ce qui est logique), ce qui n’est pas mauvais, mais quand même pas si élevé. Comme la proportion de camions dans les ventes de véhicules neufs varie passablement selon les mois, j’ai alors tenté de désaisonnaliser cette proportion en calculant la moyenne mensuelle de ces proportions de 2010 à 2015, en divisant les moyennes mensuelles par la moyenne annuelle, et en divisant les données de chaque mois par ces résultats mensuels (je sais, ce n’est pas facile à comprendre…). Cela a de fait permis à rendre la courbe de cette proportion plus lisse, mais, à ma grande surprise, cela a fait diminuer un peu le coefficient de corrélation (à -0,55), alors que je pensais que cela le ferait augmenter! Cette petite baisse (en fait cette petite hausse, car -0,55 est plus élevé que -0,58…) est probablement due au fait que le prix de l’essence a tendance à diminuer l’hiver quand la proportion de camions vendus augmente et à diminuer l’été quand cette proportion diminue. La désaisonnalisation amoindrit en effet cette relation.

Étant comme bien du monde visuel, j’ai alors décidé de regarder cette relation sur un graphique, celui qui suit. Je me disais qu’il fallait peut-être que je tienne compte du fait que les consommateurs attendent peut-être quelques mois après un changement du prix de l’essence avant d’ajuster leur comportement. Encore là, je me gourais…

gros-chars3

On notera que j’ai construit ce graphique à deux axes (l’évolution de la proportion de camions, la ligne rouge, variant en fonction de l’axe de gauche et celle du prix de l’essence, la ligne bleue, correspondant à l’axe de droite) en équilibrant le plus possible la proportion entre les maximums et les minimums des deux axes (62/37 = 67,8% et 150/90 = 66,7%).

Là, j’ai constaté trois choses qui m’avaient échappé. Tout d’abord, la proportion de camions et le prix de l’essence semblent vraiment varier en sens opposé depuis la forte baisse du prix de l’essence à la fin de 2014 et au début de 2015. En fait, cette forte relation s’observe même depuis le début de 2014. J’ai donc calculé le coefficient de corrélation entre ces deux valeurs de janvier 2014 à juillet 2016. Cela m’a donné un coefficient de -0,90, valeur qui montre une relation très forte! Avec les données désaisonnalisées sur la proportion de camions (non illustrées dans le graphique), encore une fois, la force de la relation diminue (demeurant quand même à -0,88). Toujours à l’œil, la relation ne me semblait pas trop mauvaise entre janvier 2011 et décembre 2013, même si le prix de l’essence est demeuré relativement élevé au cours de cette période. De fait, le coefficient de corrélation est de -0,63 au cours de cette période (mais de seulement -0,40 avec les données désaisonnalisées). Finalement, le début de la période (l’année 2010) semble plutôt montrer une relation positive entre le prix de l’essence et la proportion de camions au cours de la forte augmentation du prix de l’essence. De fait, le coefficient de corrélation de janvier à décembre 2010 est de 0,43, pas si élevé, mais de façon tout à fait contre-intuitive, positif! L’augmentation des prix de l’essence ferait augmenter la proportion d’achats de véhicules qui consomment plus d’essence!

Et alors…

Que conclure de ces résultats? Ils laissent penser que la variation du prix de l’essence expliquerait la majeure part de celle de la proportion de camions dans les ventes de véhicules neufs depuis janvier 2014, qu’elle l’aurait expliqué un peu moins entre janvier 2011 et décembre 2013, mais qu’elle aurait eu un effet opposé en 2010! Je prends la peine ici de rappeler qu’une corrélation n’est pas une causalité et que les relations que j’ai trouvées ne sont donc pas nécessairement causales.

Il est aussi connu que les comportements des humains ne sont pas coulés dans le béton. Comment expliquer la forte hausse de la proportion de camions vendus vers la fin de 2010 jusqu’en janvier 2011, malgré la hausse du prix de l’essence? J’ai vérifié la météo de ces mois en me disant que les ventes de VUS augmentent peut-être davantage quand il fait plus froid que la moyenne ou quand les précipitations de neige lui sont plus élevées, mais n’ai rien trouvé pour appuyer cette hypothèse. Bref, une autre tentative d’explication qui est tombée à l’eau!

Ce qui semble certain, c’est que le prix de l’essence peut jouer un certain rôle dans les décisions d’achat, mais qu’il est loin d’être le seul facteur, et que son importance relative (et celle des autres facteurs) peut varier considérablement avec le temps. L’autre constat indubitable est que, malgré la supposée sensibilisation des Québécois à l’environnement, leur amour des gros chars augmente année après année…

Sciences et vérités

19 septembre 2016

Sciences et véritéOn associe souvent les sciences à la vérité. Mais est-ce vraiment le cas? Et à quel point? Dans son livre De la vérité dans les sciences, le physicien Aurélien Barrau se pose ces questions et, sans y répondre formellement, entend susciter la réflexion sur ce sujet.

Prologue : L’auteur explique dans ce court prologue le contexte qui l’a amené à écrire ce livre (une rencontre entre des philosophes et des scientifiques sur la vérité dans les sciences) et présente ses objectifs.

I. Qu’est-ce que la science : D’entrée de jeu, l’auteur remet en question le caractère incontestable qu’on accole trop souvent à la science. Il tente ensuite de définir ce qu’est la science (ou les sciences?). La présence des mathématiques? Pas toujours, comme en biologie. La capacité de prévoir? Les expériences, l’observation, l’analyse rationnelle? L’auteur préfère finalement ne pas définir ce terme, car les «dictionnaires sont des cimetières ou des prisons» et ne permettent pas l’évolution d’un concept. Il conclut ce chapitre en disant que :

«La science n’est qu’un mode d’accès au réel, parmi beaucoup d’autres. (…) Elle est un mode qui, de plus varie grandement avec les époques et les moyens à dispositions. Mais dès lors qu’elle accepte les limites de sa perception et la fugacité de ses propositions, elle dessine un univers d’une richesse inouïe parce que rien n’y est tenu pour acquis, parce que la pensée n’y a jamais peur de ce qu’elle ignore encore. (…) Aucun «principe» simple ne permet de la définir et d’appréhender l’ensemble de l’édifice. La diversité de ses méthodes, la tentative de ne pas déceler dans le réel que ce que notre esprit ou notre culture désire y entrevoir, ainsi que l’usage constant du doute face à ses propres énoncés constituent sans doute – avec l’acceptation du caractère inévitablement éphémère de ses énoncés – les fondamentaux de ses modalités.»

II. Vérité des sciences : En vérité, en vérité, l’auteur a des problèmes avec les définitions, même avec celle de la vérité! «Ce qui est vrai ne l’est que relativement à un certain nombre de conventions qui peuvent s’avérer dangereuses autant que nécessaires selon le cas. La vérité est (…) assujettie à une construction et ne fait sens qu’au sein de celle-ci. Il faut certainement s’y plier, mais garder à l’esprit qu’affronté ou interprété différemment, le réel peut révéler d’autres vérités». L’auteur met aussitôt en garde de ne pas interpréter ce constat comme une justification du révisionnisme de la science, mais simplement comme une reconnaissance du caractère bien relatif du concept de la vérité. Il précise d’ailleurs plus loin que «Penser en scientifique, c’est d’abord accepter de se laisser surprendre; c’est ne pas enclore le réel dans ce que nous souhaitons qu’il soit; c’est vouloir penser au-delà de nos fantasmes et de nos croyances». Et encore, la science c’est aussi accepter qu’il «n’est plus question de s’émerveiller devant nos propres créations, mais aussi devant ce qui semble exister et se déployer indépendamment de nous». Comme il le dit si bien à ses élèves, si on cherche des certitudes absolues, on doit faire de la théologie, pas de la physique (pas sûr, cependant que les théologues seraient d’accord)!

III. Falsifications, incommensurabilité et anarchisme : Tout en soulignant l’apport essentiel du principe de réfutabilité de Karl Popper (ce qui est scientifique peut être réfuté, mais ce qui ne peut pas l’être n’est pas scientifique), l’auteur en souligne les limites, en se basant notamment sur la pensée de Paul Karl Feyerabend, qui niait «l’existence de règles méthodologiques universelles» en science. L’auteur considère en effet que la «science est exploratoire, y compris quant à ses propres modalités». Il cite ensuite Thomas Kuhn qui concluait que «la science ne fonctionne pas par accumulation, mais par ruptures», par changements de paradigmes. Par exemple, la théorie d’Einstein n’a pas complété celle de Newton, mais l’a remplacée.

L’auteur met toutefois en garde contre l’utilisation de ces nuances pour justifier les théories obscurantistes, comme le créationnisme. Même si la démarche scientifique ne peut pas être clairement définie, le créationnisme ne souscrit à aucune de ses caractéristiques. Il montre ensuite son désaccord avec Feyerabend qui considère que tout peut être enseigné. Mais, cette position de Barrau ne repose pas sur le caractère non scientifique de certaines croyances (comme le créationnisme), mais plutôt sur leur ineptie intrinsèque : «Il faut montrer qu’ils [ce qu’il appelle les mondes pauvres] sont faibles ou faux suivant leur logique propre [et non selon celle de la science]. Il faut souligner les incohérences ou incomplétudes internes. Tout est là». L’auteur conclut que nous devons rester modestes (pas par mysticisme, mais par réalisme) et accepter que toutes les sociétés ont considéré vraies des théories qui se sont finalement révélées fausses et qu’il en sera sûrement encore le cas à l’avenir.

IV. Vers un relativisme cohérent et exigent : L’auteur précise qu’on doit bien sûr rejeter le relativisme qui prétend que toutes les opinions se valent (ce qu’aucun philosophe relativiste sérieux ne fait, d’ailleurs), mais que l’humilité nécessaire à la recherche de la vérité doit nous amener à accepter que nos vérités peuvent très bien n’être que relatives. Il ne s’agit pas d’être laxiste, mais au contraire plus exigeant. Il n’a rien de plus relatif que le relativisme! L’auteur conclut :

«[La science] est un mélange intrinsèquement instable d’ambition et d’humilité absolue. Elle est aussi consciente du fait que ces termes eux-mêmes n’acquièrent un sens que lorsqu’un cadre historique et culturel est choisi et assumé. Elle sait qu’elle ne touche pas la Vérité, que nos savoirs ne sont exacts et justes que relativement à des constructions toujours déconstructibles. Tout peut vaciller à chaque instant, aucune certitude n’est possible. Et pourtant, elle sait que le discours d’un astronome n’est pas celui d’un astrologue (…).»

Épilogue : L’auteur résume ses positions, ce que j’ai fait dans ce billet…

Et alors…

Lire ou ne pas lire? Lire! Moi qui ai toujours eu une perception négative du relativisme, croyant notamment que ses principaux partisans croyaient vraiment que toutes les opinions se valent, je dois avouer que ce petit livre (moins de 100 pages) a ébranlé cette perception. J’ai toujours su qu’il peut être sain de ne pas toujours prendre les théories scientifiques comme des vérités inébranlables, mais gardais quand même une certaine gêne devant le relativisme. Je la garde toujours, mais comprends mieux qu’il y a bien des variantes au relativisme et qu’elles ne sont pas toutes à rejeter. Chose certaine, ce livre qui a comme objectif de favoriser la réflexion l’a pleinement atteint!

Les syndicats et les salaires des non-syndiqués

17 septembre 2016

syndicats-et-non-syndiquesOn reproche souvent aux syndicats de ne chercher qu’à améliorer les conditions de travail de leurs membres sans se préoccuper de celles des non-syndiqués, pourtant bien moins avantageuses. Une récente étude (parue le 30 août dernier) porte justement sur cette question. Intitulée Union decline lowers wages of nonunion workers – The overlooked reason why wages are stuck and inequality is growing (Le déclin de la syndicalisation a fait baisser les salaires des travailleurs non-syndiqués – Le facteur qu’on néglige trop souvent pour expliquer que les salaires stagnent et que l’inégalité ne cesse de croître), cette étude de Jake Rosenfeld, Patrick Denice et Jennifer Laird a été publiée par The Economic Policy Institute (EPI).

Contexte

Comme on peut le voir sur l’image qui accompagne ce billet (image tirée de cet autre document), alors que les salaires des travailleurs des États-Unis ont progressé au même rythme que la productivité de 1950 au milieu des années 1970, ce ne fut pas du tout le cas par la suite, la productivité continuant à croître à un bon rythme alors que les salaires augmentaient très peu. Les facteurs les plus souvent mentionnés pour expliquer ce décrochage sont la mondialisation, les changements technologiques et le ralentissement de la croissance du niveau de scolarité. L’effet du déclin du syndicalisme est parfois cité, mais a fait l’objet de bien moins d’attention que les autres facteurs. Le graphique qui suit montre l’évolution des salaires réels (en tenant compte de l’inflation) des hommes et des femmes non-syndiqué.e.s travaillant à temps plein dans le secteur privé.

syndicats-et-non-syndiques1

La partie gauche du graphique montre que le salaire des hommes dans cette situation a diminué assez fortement au cours des années 1980, a augmenté au cours de la deuxième moitié des années 1990 et a de nouveau baissé par la suite, mais moins abruptement. Au bout du compte, ce salaire était environ 4 % moins élevé en 2013 qu’en 1979. Le graphique montre aussi que cette baisse fut encore plus importante chez ceux qui n’étaient pas titulaires de diplômes des collèges (cours de quatre ans) et des universités (baisse de 11%), et encore plus chez ceux qui possédaient au plus un diplôme d’études secondaires (DES). Chez les femmes, la situation fut meilleure, mais elles partaient de bien plus loin. Ce salaire a augmenté en moyenne de 27 % (mais pas du tout depuis le milieu des années 2000). Cette hausse fut bien moins élevée chez les femmes qui n’étaient pas titulaires de diplômes des collèges et des universités (hausse de 10 % et en fait en baisse depuis le début du siècle) et a même diminué chez celles qui possédaient au plus un DES (baisse de 2 %, mais d’environ 10 % depuis 2000).

syndicats-et-non-syndiques2Or, la période illustrée dans ce graphique correspond à une très forte érosion du niveau de syndicalisation dans le secteur privé aux États-Unis, comme on peut le voir dans le tableau ci-contre. Ce tableau montre que le taux de syndicalisation a diminué d’entre 60 et 70 % entre 1979 et 2013 selon les groupes présentés, passant par exemple de 34 % à 10 % chez l’ensemble des hommes et de 16 % à 6 % chez les femmes. On notera aussi qu’entre 70 et 80 % de cette baisse s’est réalisée entre 1979 et 1993, et moins de 10 % entre 2003 et 2013 (cette observation servira plus loin). On peut aussi voir que les hommes et les femmes ayant le moins de scolarité ont toujours eu un taux de syndicalisation un peu plus élevé que la moyenne.

Effets de la baisse du taux de syndicalisation

De nombreuses études montrent que la baisse du taux de syndicalisation fait diminuer le salaire moyen de différentes façons et pourrait ainsi être un facteur dominant pour expliquer la quasi-stagnation des salaires depuis le milieu des années 1970. S’il est clair que la baisse de la proportion de syndiqués fait diminuer la proportion de personnes qui bénéficient de la prime à la syndicalisation (les employés syndiqués ont presque toujours un salaire plus élevé que les employés non-syndiqués qui occupent des emplois semblables), il est peut-être moins connu que la baisse du taux de syndicalisation fait aussi baisser le salaire des non-syndiqués. Les auteurs présentent donc les facteurs qui expliquent cette autre baisse :

  • la syndicalisation ralentit la délocalisation des emplois vers les pays à bas salaires;
  • les employeurs qui craignent que leurs employés se syndiquent tendent à offrir des salaires qui s’approchent de ceux offerts aux employés syndiqués;
  • même les employeurs qui ne craignent pas la syndicalisation doivent offrir de meilleurs salaires pour pouvoir embaucher et conserver leurs employés (ils doivent aussi offrir de meilleures conditions de travail, mais cela déborde le cadre de cette étude);
  • le pouvoir politique des syndicats permet d’améliorer les lois du travail et crée des pressions pour augmenter le salaire minimum (la campagne actuelle pour le salaire minimum à 15,00 $ bénéficie d’ailleurs de l’appui et des pressions de tous les grands syndicats);
  • les syndicats négocient souvent les salaires pour des secteurs entiers, salaires qui s’appliquent aussi aux employés non-syndiqués (au moyen de décrets de convention collective, au Québec); les auteurs donnent aussi l’exemple de la France, où, même si le taux de syndicalisation est un des moins élevés des pays industrialisés (moins de 8 %), environ 80 % des salariés sont couverts par une convention collective;
  • une présence forte des syndicats augmente le rapport de force des salariés.

Fort de ces analyses, les auteurs ont cherché à quantifier cet effet.

Résultats

Dans un premier temps, les auteurs ont comparé les salaires des non-syndiqués par industrie (en divisant le secteur privé en 18 industries) et par région des États-Unis (quatre). Ils ont observé que les regroupements industries-régions les plus syndiqués offraient de bien meilleurs salaires aux non-syndiqués que les regroupements industries-régions les moins syndiqués, tant en 1976 qu’en 2013, à la fois chez les hommes et les femmes. Le graphique B de la page numérotée 10 de l’étude montre éloquemment ce résultat (je ne le présente pas ici, car il ne s’agit que d’une étape intermédiaire dans la présentation des auteurs).

Par contre, cette comparaison ne tient pas compte de très nombreux autres facteurs qui peuvent influencer le niveau des salaires. Ils ont donc utilisé une méthode (calculs économétriques) pour tenir compte du plus grand nombre de facteurs possibles. Une partie des résultats de ce travail (je résume férocement) est présenté dans le tableau qui suit, mais seulement pour les salariés non-syndiqués du secteur privé qui ne sont pas titulaires de diplômes des collèges et des universités. D’autres parties de l’étude donnent des résultats pour l’ensemble des non-syndiqués et pour ceux qui possèdent au plus un DES, et présentent des résultats semblables, même si un peu différents, soit un peu moins élevés pour l’ensemble des non-syndiqués et un peu plus pour ceux qui possèdent au plus un DES.

syndicats-et-non-syndiques3

Avant d’analyser ce tableau, je vais expliquer les quatre lignes qui y sont présentées. Les auteurs ont commencé avec une hypothèse moyenne («Mid-range»), celle dont les résultats sont sur la deuxième ligne. Avec cette hypothèse, les auteurs ont isolé l’effet du niveau de syndicalisation en tenant compte des facteurs suivants :

  • l’expérience de travail;
  • les heures travaillées par semaine;
  • le sexe;
  • l’ethnie (Blancs non hispaniques, Noirs non hispaniques, hispaniques et autres non hispaniques);
  • la région (urbaine ou non urbaine);
  • la proportion de l’emploi dans le secteur manufacturier (ce facteur sert entre autres à estimer l’impact des changements technologiques et de la mondialisation, dont la délocalisation);
  • le taux d’emploi par regroupements région-industrie (quatre régions et 18 industries);
  • la profession (quatre niveaux);
  • la scolarité (quatre niveaux).

L’hypothèse optimiste («High-range») conserve cette structure, mais en enlevant le taux d’emploi par regroupements région-industrie. La première hypothèse pessimiste («Low-range (1)») retire la proportion de l’emploi dans le secteur manufacturier et la deuxième («Low-range (2)») retire en plus la région.

On peut voir à la dernière colonne que si le taux de syndicalisation était resté en 2013 à son niveau de 1979, les salaires auraient été plus élevés avec ces quatre hypothèses, plus pour les hommes, mais aussi pour les femmes (qui ont toujours été proportionnellement moins syndiquées, je le rappelle). Au delà de l’ampleur des salaires perdus en raison de la baisse du niveau de syndicalisation, tout de même significative (les auteurs estiment à 109 milliards $ la diminution des salaires due à cette baisse pour les hommes et à 461 millions $ pour les femmes en 2013), on peut remarquer que l’ampleur de cette baisse a suivi presque parfaitement la baisse du niveau de syndicalisation. Par exemple, on peut voir que cette baisse a peu augmenté pour les hommes entre 2003 et 2013, et a même diminué pour les femmes, ce qui correspond à ce que j’avais observé plus tôt, soit que seule une faible partie de la baisse du niveau de syndicalisation s’est observée entre 2003 et 2013.

Au bout du compte, cette étude va dans le même sens qu’une autre qui était arrivée à la conclusion que le déclin de la syndicalisation explique le tiers de l’augmentation des inégalités de salaires chez les hommes et le cinquième de cette augmentation chez les femmes. Pour un seul facteur, c’est énorme!

Et alors…

Il m’est déjà arrivé et il m’arrivera encore de reprocher aux syndicats certaines décisions et certaines actions (ou inactions…). Par contre, j’ai toujours souligné à quel point l’institution du syndicalisme est essentielle. Cette étude donne un excellent exemple du rôle essentiel des syndicats dans nos sociétés capitalistes. Et cela ne tient pas compte de l’influence des syndicats sur la politique, l’économie et la culture, dont l’étude ne fait que glisser un mot. Ne nous laissons surtout pas aveugler par la médiatisation des quelques mauvais coups de nos syndicats et retenons surtout leur rôle primordial dans notre société!

Les avantages et désavantages des données massives

14 septembre 2016

big-data-avantages-desavantagesJ’ai déjà publié un billet sur les données massives, mais les trois documents que j’y ai commentés (et y ai critiqués) étaient promotionnels et ne nous informaient donc pas sur les enjeux les entourant. J’ai depuis lu un document plus neutre provenant de la Federal Trade Commission (FTC) intitulé Big Data: A Tool for Inclusion or Exclusion? (Les données massives: un outil pour l’inclusion ou l’exclusion?) et présentant sans parti-pris évident les avantages et les désavantages de cet outil et les questions juridiques et politiques qu’il soulève.

Définition

Les données massives se caractérisent par la collecte et l’utilisation rapides de données très nombreuses provenant d’une grande variété de sources et par la création de nouvelles applications pour les analyser, les lier et en tirer des conclusions et des prévisions. Cela peut aussi bien se faire à l’aide de cartes dites de fidélité (qui permettent à une entreprise de connaître nos achats) que par les mots que nous utilisons dans nos recherches sur Internet ou par la compilation des pages que nous aimons sur Facebook ou ailleurs. L’utilisation des données massives peut dans certains cas apporter des bénéfices à la société (par exemple dans les domaines de l’éducation, de la santé et des transports) et permettre à des entreprises de personnaliser leur offre de biens et services, mais aussi nuire à de nombreuses personnes en plus de mettre en danger leur vie privée et la protection de leurs renseignements personnels.

Avantages et désavantages

Se basant sur un atelier public organisé par la FTC qui regroupait des universitaires, des représentants gouvernementaux, des membres d’organismes de défense des consommateurs, des dirigeants d’entreprises, des avocats et d’autres citoyens, les auteurs ont regroupé les commentaires reçus en deux catégories, la première présentant des utilisations positives, la deuxième les utilisations négatives.

– avantages :

  • acceptation d’étudiants aux études supérieures en se basant sur des critères objectifs, ce qui a permis à des étudiants qui n’auraient pas été acceptés d’accéder à ces études;
  • identification plus rapide d’élèves en difficulté d’apprentissage;
  • octroi de prêts à des personnes qui n’auraient pas pu en recevoir avec les méthodes traditionnelles;
  • aide aux diagnostics, aux traitements et surtout à la prévention en médecine;
  • augmentation de la diversité en les utilisant dans le processus d’embauche (les entrevues traditionnelles avantagent les personnes qui ont des caractéristiques semblables à celles des recruteurs).

Les auteurs soulignent ensuite que des participants aux ateliers ont émis de nombreux bémols à ces avantages, notamment en raison de la qualité souvent douteuse des données massives (qui excluent souvent certaines catégories de la population, comme les personnes pauvres) ce qui peut mener à des décisions discriminatoires et néfastes envers les groupes mal représentés dans ces données. D’autres ont souligné que ces données ne peuvent faire ressortir que des corrélations, sans savoir si elles sont causales. Les auteurs précisent ensuite des effets potentiellement négatifs de ces données.

– désavantages :

  • des personnes qui ont les mêmes caractéristiques que celles qui ont un comportement à risque peuvent se faire refuser l’accès à des services (prêts, cartes de crédit, etc.), même si leur dossier personnel est impeccable (cela peut aussi toucher les embauches, l’accès aux études supérieures, et bien d’autres domaines où on utilise ces données);
  • certaines caractéristiques personnelles peuvent être rendues publiques uniquement grâce à des corrélations (par exemple, les «j’aime» de Facebook ont permis à cette entreprise de déterminer correctement 88 % des fois l’orientation sexuelle d’utilisateurs, 82 % leur religion, et 75 % leur consommation de drogues!);
  • ces renseignements peuvent servir aux fraudeurs en permettant d’identifier les personnes les plus vulnérables;
  • l’analyse des données massives peut faire augmenter les prix dans les quartiers pauvres (par exemple quand le volume d’achats faits sur Internet y est moins élevé).

Aspects juridiques

Les auteurs présentent dans cette section les principales lois qui encadrent directement ou indirectement l’utilisation des données massives. Comme cette section est très technique et que les lois peuvent être passablement différentes ici, je ne mentionnerai que quelques-uns de leurs domaines d’application :

  • les entreprises qui possèdent de l’information personnelle pour des fins d’évaluation du crédit des consommateurs doivent prendre des mesures pour s’assurer de l’exactitude de ces informations et permettre aux consommateurs de les consulter et de pouvoir les corriger; en plus, elles ne peuvent les fournir que pour les fins pour lesquelles elles ont été amassées;
  • si une entreprise peut utiliser les données qu’elle a amassées dans ses relations avec ses clients (par exemple avec les cartes de fidélité), elle sera soumise aux exigences mentionnées précédemment si elle veut les vendre ou les fournir à une autre entreprise, et doit entre autres aviser ses clients de cette possibilité;
  • de nombreuses lois empêchent la discrimination basée sur «la race, la couleur, le genre ou le sexe, la religion, l’âge, le statut d’invalidité, l’origine nationale, l’état matrimonial et l’information génétique»; ces lois interdisent donc une utilisation de données massives basées directement ou indirectement sur ces caractéristiques, que ce soit dans des processus d’embauche et dans la location de logements ou dans l’octroi de prêts et dans la publicité (entre autres), même si des données montraient que les membres de ces groupes ont des comportements différents (plus avantageux ou désavantageux);
  • les entreprises qui détiennent des informations personnelles doivent prendre des mesures raisonnables pour les protéger; le niveau de protection jugé «raisonnable» augmente avec la sensibilité des données détenues (on exigera davantage de mesures pour protéger le numéro de la carte de crédit d’une personne que son poids…);
  • une entreprise ne peut pas vendre ses données à une autre qui risque de les utiliser d’une façon frauduleuse ou qui peut nuire au client (cette loi a déjà été appliquée, mais on peut douter de son efficacité).

Aspects politiques

Le document se penche ensuite sur des aspects plus politiques des données massives. En voici quelques-uns.

– Représentativité des données : Les données massives ne peuvent dans bien des cas être collectées que dans des secteurs couverts par des services Internet et qu’auprès des utilisateurs de ces services. Les auteurs donnent des exemples relatifs à certaines catastrophes (notamment lors de l’ouragan Sandy) où les activités sur les réseaux sociaux étaient bien plus nombreuses en provenance des endroits les moins touchés (les services Internet ont bien souvent été coupés dans les secteurs les plus touchés, souvent où on trouve le plus de pauvres, qui en plus utilisent bien moins ces services). Il fallait donc éviter de se servir des données provenant de ces sources pour planifier les interventions de secours.

Ils mentionnent aussi l’utilisation des données provenant des téléphones interactifs pour planifier une meilleure circulation automobile ou même des réparations de nids de poule. Dans ce dernier cas (cela s’est fait à Boston), on s’est aperçu que ces téléphones sont plus répandus dans les quartiers où vivent les personnes les plus riches et que l’utilisation de ces données pourrait retarder les réparations dans les quartiers les plus défavorisés. La ville a donc décidé de compléter ces données avec les observations des employés municipaux. Cela montre qu’il est possible de corriger le manque de représentativité de ces données si on est bien conscient de leurs biais.

– Reproduction de biais : Si on tente de chercher de bons candidats pour des emplois à partir des données sur les employés actuels, on ne pourra que reproduire les biais antérieurs (par exemple, sur la composition ethnique et sexuelle). Pire, comme les médias signalent plus fréquemment les crimes commis par des Noirs, les données massives sur la criminalité basées sur les médias sont biaisées à leurs dépens. Il est toutefois possible de contrecarrer ces biais en utilisant d’autres méthodes et d’autres sources, par exemple des données sur les comportements individuels plutôt que sur des corrélations qui sont non seulement pas nécessairement causales (comme mentionné précédemment), mais en plus trop souvent biaisées.

– Précision des prévisions : Encore là, le problème est la fiabilité des données massives. Les auteurs donnent pour exemple l’utilisation des mots utilisés pour les recherches sur Google. Un algorithme utilise par exemple la fréquence de l’utilisation du mot «grippe» (flu) pour prévoir l’apparition de cette maladie par région des États-Unis. En fait, l’utilisation de ce terme augmentera aussi si on parle dans les médias de l’apparition d’une grippe dans n’importe quelle région du monde. La cause qui explique l’augmentation des recherches d’un mot n’est donc pas toujours liée avec ce qui a été programmé dans l’algorithme… Les auteurs donnent d’autres exemples qui conduisent à de mauvaises conclusions dans les domaines du paiement du loyer par des locataires, de la publicité (on vous offre un produit si vous faites des recherches avec certains mots), l’utilisation des médias sociaux, etc. Les auteurs concluent qu’avant «d’utiliser des données massives pour prendre des décisions qui peuvent nuire à la capacité des consommateurs à effectuer des transactions, les entreprises devraient considérer les avantages et les désavantages potentiels, en particulier lorsque leurs politiques pourraient avoir une incidence négative sur certaines populations souvent déjà défavorisées».

– Préoccupations d’ordre éthique : Les entreprises doivent éviter de se servir des données massives quand leur utilisation peut mener à de la discrimination ou à d’autres formes d’iniquité. Les auteurs mentionnent qu’une entreprise a refusé de donner la priorité d’embauche à des personnes habitant près de leur bureau même si les données massives indiquaient une corrélation entre la durée en emploi et la proximité du lieu de travail, car, comme cette entreprise était située au centre-ville, les personnes appartenant à une minorité (ethnique, linguistique, sexuelle ou autre) et plus pauvres ne pouvaient se permettre d’habiter proche du centre-ville. Un peu à l’inverse, ces données peuvent parfois au contraire favoriser la diversité de l’embauche, comme mentionné plus tôt. Elles peuvent aussi servir à mieux connaître les différences de besoins de services municipaux dans les quartiers composés fortement de membres appartenant à une minorité.

Et alors…

Même s’il est relativement aride, ce document permet de mieux comprendre les avantages et désavantages des données massives et les aspects politiques et juridiques qui entourent leur utilisation. Et au bout du compte, je trouve que leurs avantages ne compensent pas leurs désavantages et que les lois qui encadrent leur utilisation, malgré leurs bonnes intentions, n’empêchent pas vraiment leur utilisation malveillante. Il demeure toujours dangereux de laisser volontairement des entreprises en connaître trop sur nous. Personnellement, je fournis le moins d’information possible à Facebook (ne répond par exemple jamais à ses demandes pour savoir si j’aime les sites qu’il propose), n’utilise jamais de carte de fidélité, n’ai pas de téléphone interactif et évite autant que possible de répondre à des sondages ou à toute question personnelle non nécessaire. Malgré ces précautions, je suis certain que nos Big Brothers privés en savent bien plus sur moi que je ne le voudrais…