Skip to content

L’effondrement

10 août 2015

collapsologieQuand j’ai écrit un billet sur le livre Destruction massive – Géopolitique de la faim de Jean Ziegler, je n’ai pas pu faire autrement que de le qualifier de livre d’horreur. Bien que l’image était selon moi bien choisie, elle s’applique encore plus à Comment tout peut s’effondrer : petit manuel de collapsologie à l’usage des générations présentes de Pablo Servigne et Raphaël Stevens.

Le début

«Tout le monde a su que le GIEC avait publié un nouveau rapport sur l’évolution du climat en 2014, mais a-t-on vu un réel débat sur ces nouveaux scénarios climatiques et sur leur implication en termes de changement social? Non, bien sûr. Trop catastrophiste.»

Cette citation, tirée de l’introduction du livre, met bien la table pour la suite. Comment cela se fait-il que la population et les politiciens n’aient pas réagi davantage face à ce rapport plus qu’inquiétant? Avant d’aborder ce genre de question, les premiers chapitres présentent plutôt le portrait de la situation actuelle et à venir de façon prévisible.

Pour les auteurs, l’effondrement est «le processus à partir duquel les besoins de base (eau, alimentation, logement, habillement, énergie, etc.) ne sont plus fournis (à un coût raisonnable) à une majorité de la population par des services encadrés par la loi». Il s’agit d’un processus à grande échelle irréversible, mais ce n’est pas la fin. On ne sait pas trop à quoi aura l’air la suite, mais, selon l’ampleur et la soudaineté de cet effondrement «la situation pourrait devenir incommensurablement catastrophique», le mot le plus important ici étant «pourrait»…

L’état des lieux ou les prémices d’un effondrement

Dans la première partie du livre, les auteurs présentent l’état des lieux. Je ne ferai ici que mentionner leurs principaux constats. Le premier d’entre eux est que la croissance exponentielle que l’économie mondiale a connue au cours des derniers siècles fera face à un plafond, soit la capacité de charge de la Terre. Ce plafond se concrétise par des limites et des frontières.

Les limites sont des quantités maximales à la fois de stocks (énergies fossiles, matières premières, etc.) et de flux (eau, bois, aliments, etc.), renouvelables certes, mais qu’on exploite à des rythmes supérieurs à leur capacité de régénération. Les frontières sont les seuils à ne pas dépasser «sous peine de déstabiliser et de détruire les systèmes qui maintiennent notre système en vie»: climat, écosystèmes, etc. Sachant que l’atteinte d’une seule des limites et le dépassement d’une seule des frontières suffiraient à sérieusement déstabiliser la civilisation, on peut imaginer les conséquences de l’atteinte de plusieurs limites et du dépassement plusieurs frontières simultanément.

– Les limites

L’énergie est au cœur de toute civilisation, surtout «industrielle et consumériste» comme la nôtre. Or, la principale source d’énergie, le pétrole, a déjà atteint son pic. Certes d’autres gisements sont découverts, mais ils sont beaucoup moins productifs. Sans énergie accessible, «c’est la fin de l’économie telle que nous la connaissons : les transports rapides, les chaînes d’approvisionnement longues et fluides, l’agriculture industrielle, le chauffage, le traitement des eaux usées, Internet, etc.».

Certaines des matières premières les plus utilisées par notre économie sont aussi à leur pic de production, notamment l’argent, le lithium, l’indium, le phosphate et… l’eau potable! Et, ces ressources sont difficilement remplaçables (surtout pas l’eau!), car la recherche d’autres ressources et leur exploitation exigeraient plus d’énergie, énergie ayant elle-même atteint son pic… Les auteurs concluent : «Nous vivons donc probablement les derniers toussotements du moteur de notre civilisation industrielle avant son extinction».

– Les frontières

  • le climat et la diversité : l’importance des conséquences du réchauffement climatique est relativement bien connue. Seule l’ampleur du réchauffement est encore incertaine. On sait qu’il aura des effets négatifs sur l’approvisionnement en eau, sur le rendement agricole, sur les courants marins et sur la perte de biodiversité (dont les conséquences sur les interactions écologiques ne sont pas suffisamment médiatisées, notamment sur la qualité de l’air, la séquestration du carbone, la fertilité des sols, le recyclage des déchets, la pollinisation et la prévention des maladies infectieuses), effets qui pourraient déboucher sur la sixième extinction. Les auteurs précisent que certaines régions du monde subiront le réchauffement climatique de façon encore plus dramatique que d’autres, notamment l’Inde, le Pakistan et le Bengladesh, élargissant encore les inégalités entre pays et à l’intérieur des pays. La possibilité d’un retour du cycle classique suivant bien des catastrophes ne doit pas être occultée : famines, maladies et guerres;
  • l’acidification des océans : conséquence des émissions de gaz à effet de serre, l’acidification des océans menace carrément la vie marine et l’alimentation humaine, tout en réduisant la capacité des océans à absorber le gaz carbonique de l’atmosphère, accentuant ainsi l’ampleur du réchauffement climatique;
  • la réduction de l’ozone stratosphérique : cette frontière nous est apparue de façon bien nette dans les années 1970; elle est peut-être moins d’actualité de nos jours, mais le dépassement de cette frontière demeure inquiétante et certains facteurs la menacent encore;
  • la perturbation du cycle du phosphore et de l’azote : le déversement de ces produits dans la nature, surtout dans les activités agricoles, est trop intense pour permettre à la nature de les absorber; on assiste donc à l’eutrophisation des eaux : l’eau n’est plus potable, les cyanobactéries (ou algues bleues) toxiques pour les humains et les animaux non humains se multiplient, la faune aquatique meurt par manque d’oxygène, etc.
  • la charge en aérosols atmosphériques : certains de ces aérosols menacent la couche d’ozone; on ne connaît pas encore toutes les conséquences de leur multiplication, due entres autres à la combustion de carburants fossiles;
  • la consommation d’eau douce : la limite d’utilisation n’est pas atteinte, mais elle s’approche, surtout en raison de la croissance de la population, de son utilisation dans l’agriculture et du changement climatique; son dépassement aurait bien sûr des conséquences catastrophiques (même cet adjectif extrême semble doux par rapport aux conséquences du manque d’eau douce); 80 % de la population serait actuellement exposée à des pénuries, notamment dans les deux pays les plus peuplés de la planète, l’Inde et la Chine;
  • le changement d’affectation des terres : comme la baisse du couvert forestier, un des plus importants puits de carbone;
  • la pollution chimique et atmosphérique : on parle ici des effets des produits chimiques de synthèse sur la santé humaine (et des animaux non humains), effets très inquiétants chez les femmes enceintes et leur embryon, et chez les enfants, mais aussi chez les abeilles (pesticides) et bien d’autres animaux (les papillons monarques, par exemple). La pollution atmosphérique menace les habitants des grandes villes et force même l’arrêt de l’activité économique de façon de plus en plus fréquente.

De ces neufs frontières, quatre auraient déjà été dépassées, alors que le dépassement des deux premières suffisent pour «faire basculer la vie humaine». Comme on l’a vu, ces frontières sont en grande partie liées : le dépassement d’une frontière entraîne le dépassement d’autres frontières.

Les autres chapitres

Le reste du livre aborde d’autres aspects de la question, expliquant par exemple pourquoi nous ne réagissons pas davantage à cette menace qui donne froid dans le dos (il est temps que je finisse ce billet…). Les auteurs abordent entre autres :

  • les verrouillages socio-techniques : ceux-ci expliquent qu’on reste pris avec des technologies inadéquates parce que celles-ci sont bien implantées et qu’il est trop difficile socialement de les changer; ce concept s’applique aussi bien au désir de la croissance infinie qu’à la difficulté de changer son mode de vie (lâcher l’auto, cesser de prendre l’avion, ralentir l’étalement urbain, etc.);
  • la fragilité des systèmes complexes : ces systèmes sont liés à la finance (on l’a vu lors de la crise débutée en 2007), à l’économie, aux flux tendus (système appelé souvent «just in time», qui fait en sorte qu’on garde de moins en moins de stocks et qu’un retard dans la livraison d’une seule des matières utilisées pour la production d’un bien ou d’un service peut paralyser cette production), aux chaînes collapsologie1d’approvisionnement, aux infrastructures, etc. Il suffit parfois d’un événement à première vue anodin pour que ces systèmes, fortement interdépendants, s’enrayent avec des conséquences toujours importantes, parfois dramatiques. Cela laisse penser que, quand l’effondrement commencera, il s’aggravera rapidement (un genre de moment Minsky nullement spécifique à la finance…), un peu comme le coyote qui reste suspendu dans les airs jusqu’à ce qu’il réalise sa situation et tombe dans le vide…
  • les prévisions du moment où l’effondrement aura lieu (ce que les auteurs refusent avec raison de faire);
  • les signaux avant-coureurs (qui peuvent provenir de différentes sources);
  • les modèles de prévisions : comme celui du Club de Rome (World 3), qui fonctionne vraiment trop bien, même s’il date de plus de 40 ans, et dont les prévisions sont loin d’être réjouissantes;
  • les stades de l’effondrement : il est fort possible que l’effondrement se réalise dans cet ordre : finance, économie, politique, société et culture (auxquels s’ajouterait l’écologie);
  • la psychologie de l’effondrement : ou pourquoi tant de personnes ne croient pas l’effondrement probable : les barrières cognitives (nous avons évolué en nous inquiétant des dangers à court terme, concrets et visibles, pas des dangers conceptuels à long terme), le déni, etc.
  • les types de réactions : du jemenfoutisme au survivalisme en passant par l’aquoibonisme et le catastrophisme (le terme «collapsologie» utilisé par les auteurs m’irrite…);
  • les réactions humaines : nous entraiderons-nous ou nous entretuerons-nous? Les auteurs penchent pour la première possibilité, mais ne peuvent en être certains…
  • les voies de sortie : il n’y en a pas vraiment, quoique les auteurs appuient les adeptes de la décroissance, car un effondrement graduel auquel on s’adapte est préférable à l’effondrement brutal auquel peu de gens pourront s’adapter.

Et alors…

Alors, lire ou ne pas lire? Pour moi, la question ne se pose pas, il s’agit d’une lecture essentielle. Je ne prétendrai pas avoir appris beaucoup d’éléments sur les dangers auxquels la survie de l’espèce humaine fait face, mais aucun livre que j’ai lu avant cela, même pas l’excellent Tout peut changer, Capitalisme et changement climatique de Naomi Klein (dont j’ai parlé dans ce billet), ne présente les facteurs qui nous mènent à l’effondrement de façon aussi claire et en faisant des liens aussi pertinents entre tous ces facteurs.

Cela dit, attendez-vous à quelques frissons. On a beau savoir ce qui nous attend, se le faire présenter de façon aussi crue peut quand même nous ébranler. Malgré tout, cette lecture demeure essentielle, car ce n’est qu’avec cette connaissance qu’on peut avoir une petite possibilité d’amoindrir les effets de l’effondrement qui est, lui, inéluctable.

L’effet des cohortes sur les estimations de l’emploi de l’EPA

8 août 2015

emploi_cohortesLe mois dernier, j’ai dû écrire un billet rapidement pour faire le point sur la situation de l’emploi au Québec, sentant qu’il était urgent de réagir à la baisse de 33 300 de l’estimation de l’emploi au Québec que j’attendais depuis quelques mois (pensant toutefois qu’elle serait répartie sur plus d’un mois!). Idéalement, j’aurais voulu expliquer comment une baisse aussi forte a pu survenir quand, en fait, l’emploi est probablement resté assez stable. Je vais tenter de me reprendre ce mois-ci. Mais avant de donner ces explications, je vais présenter les données diffusées hier par Statistique Canada.

Les données récentes

Comme je le fais toujours quand je présente des données sur l’emploi provenant de l’Enquête sur la population active (EPA), je vais les comparer avec celles de l’Enquête sur la rémunération et les heures de travail (EERH). En effet, les estimations de l’EPA comportent une marge d’erreur importante, (la marge d’erreur à 95 % des estimations de l’EPA pour un mois donné par rapport à celles du mois correspondant de l’année précédente est d’environ 56 000 et celle d’un mois à l’autre est de près de 30 000), tandis que celles de l’EERH sont beaucoup plus fiables, sans marge d’erreur, car issues d’un recensement des salariés de toutes les entreprises à partir de leur liste de paye, mais disponibles avec un ou deux mois de retard sur les premières. Par contre, l’EERH ne comptabilise pas les travailleurs autonomes, les salariés du secteur de l’agriculture, les grévistes, les personnes en lock-out et les personnes en congé sans solde, alors que les estimations de l’EPA le font. Ces différences font en sorte qu’il faut toujours être prudent quand on compare les données de ces deux sources. Pour les rendre comparables, je dois donc faire partir les données à 100 (en divisant chaque donnée de chaque série par l’emploi de juillet 2011) dans les deux cas pour qu’on puisse mieux voir l’évolution relative des deux courbes.

emploi_cohortes1

On a vu le mois dernier que la surestimation cumulative de l’emploi montrées par les données de l’EPA (ligne rouge) observée entre janvier et mai 2015 s’est presque effacée en un seul mois! Mais, avec la parution hier des estimations de juillet, près des deux tiers de la baisse de juin a disparu! Difficile à suivre, tout cela!

On pourrait penser que la hausse de 21 700 des estimations de l’emploi en juillet annule en quelque sorte la baisse vraiment étonnante de 33 300 en juin, mais l’examen des estimations de la variation de l’emploi par industrie en juin et en juillet nous montre que les mouvements de ces deux mois ne se sont pas manifestés dans les mêmes industries. Pire, plus de 70 % de la hausse de juillet se serait concrétisée dans les administrations publiques, plutôt touchées par des compressions que par des vagues d’embauche! Cela montre ce que je dis tout le temps dans mes billets sur l’emploi, il faut éviter de tenter d’expliquer les mouvements mensuels des estimations de l’EPA, mais plutôt se concentrer sur les tendances de long terme.

Ce mois-ci, les données de l’EERH nous sont de peu de secours, car celles qui pourraient nous éclairer sur les mouvements désordonnées des estimations de l’EPA pour juin et juillet ne seront disponibles respectivement qu’à la fin août et à la fin septembre. Tout ce qu’on peut noter avec ces données (ligne bleue), c’est qu’elles poursuivent leur tendance à la stagnation commencée en juillet 2012.

Comment expliquer des mouvements aussi nets?

Pour avoir le moindre espoir de comprendre comment il est possible que les estimations de l’emploi de l’EPA puissent s’éloigner autant des tendances des données de l’EERH qu’elles l’ont fait de septembre 2011 à mai 2012 et de janvier à juillet 2015 (sauf en juin, ce qui complique encore les choses!), il faut savoir comment fonctionne son échantillonnage. L’échantillon de l’EPA pour le Québec est en 2015 formé de 10 185 ménages, donc d’un peu plus de 20 000 adultes (personnes âgées de 15 ans et plus). Pour suivre l’évolution de la situation sur le marché du travail des membres de l’échantillon, on les conserve pendant six mois, retirant un sixième de l’échantillon à chaque mois, soit environ 1700 ménages, et le remplaçant par 1700 autres ménages. On appelle ces groupes de 1700 ménages des cohortes (Statistique Canada utilise le terme «panels», mais j’aime moins, car ça fait des moins belles images pour accompagner mes billets!).

Or, il arrive de temps en temps qu’une nouvelle cohorte se comporte différemment des autres, en étant par exemple plus active ou moins. Pour amoindrir le choc d’une cohorte se comportant différemment de celle qui quitte l’échantillon et faire en sorte que la variation des estimations d’emploi d’un mois à l’autre reflète le changement d’emploi et non les différences de comportement entre la cohorte entrante et la cohorte sortante, Statistique Canada applique depuis 2000 ce qu’elle appelle l’«estimation composite» (voir ce document à partir de la page 2). Dit simplement, il s’agit d’accorder plus de poids aux cinq cohortes qui demeurent dans l’échantillon qu’à celle qui y entre. Si cette méthode permet d’atténuer les conséquences de l’entrée dans l’échantillon d’une cohorte nettement plus active ou moins que les autres, il n’en demeure pas moins que cette cohorte aura un impact complet dès le deuxième mois et que cet impact se fera sentir pendant cinq mois.

Si cette cohorte est en plus suivie d’une nouvelle cohorte qui a un comportement moyen ou même opposé (comme les cohortes entrées en juin et en juillet, on dirait…), elle n’aura pas trop d’impact, sauf quand elle quittera l’échantillon. C’est ce qui arrive le plus souvent. Mais lorsque deux ou trois cohortes ont des comportements biaisés dans le même sens, les données risquent d’être influencées pendant sept ou huit mois, le temps que ces cohortes quittent l’échantillon. C’est manifestement ce qui s’est passé de septembre 2011 à mai 2012, alors que l’écart a pris huit mois à se corriger. C’est possiblement aussi ce qui semble s’être passé de janvier à mai 2015, quoiqu’il soit possible que la cohorte de mai (qui a eu son impact complet en juin, son poids en mai ayant été amoindri par l’«estimation composite») ait eu un biais opposé très fort! Par contre, si ce fut le cas, il deviendrait difficile d’expliquer la hausse de juillet, sauf par un biais opposé encore plus fort (d’autant plus que la cohorte qui a quitté avait fait augmenter l’emploi), ce qui est possible, mais peu probable… On voit donc que, si la connaissance du fonctionnement de l’échantillon de l’EPA permet de mieux comprendre les mouvements des estimations, elle ne permet pas de tout expliquer! Les mouvements erratiques des deux derniers mois rendent vaine toute tentative de prévoir les mouvements des prochains mois en extrapolant sur les caractéristiques des cohortes de l’échantillon.

En effet, le fonctionnement des cohortes et de l’«estimation composite» ne peuvent permettre de comprendre qu’un des facteurs qui influencent l’évolution des estimations d’emploi de l’EPA. Cette évolution est aussi influencée par les mouvements à l’intérieur des cohortes qui demeurent dans l’échantillon, car la situation de l’emploi d’une personne un mois donné (en emploi, en chômage ou inactive) n’est surtout pas une garantie de sa situation au cours des cinq mois suivants! En fait, ce sont ces mouvements que l’EPA cherche à estimer en premier lieu. Par contre, l’analyse des données de l’EERH permet justement d’avoir une idée de ces mouvements à l’intérieur des cohortes, et elles nous montrent que ces mouvements ont été à peu près nuls depuis trois ans. On verra ce qu’elles nous montreront pour juin et juillet d’ici la fin septembre!

Un autre facteur dont il faut tenir compte est le fait que les estimations publiées par l’EPA mensuellement sont désaisonnalisées. Or, les effets des saisons ne sont pas nécessairement les mêmes d’une année à l’autre. Par exemple, les estimations de Statistique Canada pour décembre 2011 montraient une baisse de 25 700 emplois entre novembre et décembre 2011, alors que, après correction de la saisonnalité et d’autres facteurs, les estimations du tableau cansim 282-0087 indiquent maintenant une baisse de «seulement» 18 400 entre ces deux mois. C’est quand même 28 % de moins! Le mois précédent, on annonçait une baisse de 30 500 emplois, qui est maintenant estimée à 21 400, soit une diminution de  30 %! Est-ce qu’un changement à la saisonnalité pourrait expliquer l’annulation des deux tiers de la baisse de juin en juillet? Peut-être, mais, comme mentionné auparavant, le fait que les mouvements de ces deux mois ne se soient pas manifestés dans les mêmes industries ne va pas dans ce sens…

Bref, même en tenant compte du processus des cohortes de l’EPA, de l’analyse des mouvements à l’intérieur des cohortes et des effets d’une variation de la saisonnalité, il demeure en bout de ligne que les variations de ces estimations peuvent aussi être simplement une conséquence des fortes marges d’erreur propres aux enquêtes du genre!

Et alors…

Je crains toujours quand j’explique les nombreux facteurs dont il faut tenir compte pour analyser les estimations d’emploi de l’EPA, qu’on se dise que ces données ne valent rien. Il faut bien comprendre que, faisant partie d’une enquête, il n’est pas anormal que ces données aient une marge d’erreur élevée et qu’elles soient corrigées de temps en temps. Il faut toutefois réaliser que cela change peu de choses à leur pertinence. Par exemple, le passage d’une baisse de 25 700 à 18 400 en décembre 2011 est en fait un changement de 7 300 emplois sur les 3 935 000 emplois maintenant estimées pour décembre 2011, un écart inférieur à 0,2 %. La leçon à retenir de ces explications est plutôt de toujours être prudent quand on commente les mouvements mensuels des estimations d’emploi de l’EPA et de cesser de partir en peur à chaque écart à première vue étonnant. Et cela appuie la méthode que j’ai adoptée de toujours comparer ces estimations avec des données provenant d’autres sources, surtout celles de l’EERH!

Les crédits d’impôt pour le revenu de travail

5 août 2015

crédits_impôtDans un billet datant d’un an portant sur les mesures fiscales adoptées par le gouvernement conservateur depuis 2005, j’ai montré, en me basant sur une analyse du directeur parlementaire du budget (DPB), que la Prestation fiscale pour le revenu de travail (PFRT) fut de loin la mesure la plus progressiste adoptée par ce gouvernement en termes de contribution à la diminution du coefficient de Gini.

Malgré ce constat, je me suis toujours demandé quels étaient les impacts réels de ce crédit. Il vise à fournir des incitatifs aux sans-emploi pour en trouver un, mais y parvient-il? Y a-t-il vraiment des personnes qui prennent leurs décisions en fonction d’une mesure fiscale que peu de personnes connaissent? Encore une fois grâce au blogue Economist’s View, j’ai pris connaissance de deux études portant sur les impacts du crédit équivalent (quoique différent sur bien des aspects) des États-Unis, soit le Earned Income Tax Credit (EITC) qu’on peut traduire par le crédit d’impôt pour le revenu de travail. Pour ce billet, je me baserai surtout sur une de ces deux études, mais sans négliger l’autre.

Court historique

Le débat sur ce programme date des années 1960 et s’est joué entre la proposition de Milton Friedman sur l’impôt négatif (une sorte de revenu de base qui remplacerait les autres programmes sociaux) et celle d’un programme qui inciterait au travail. Phénomène presque disparu, ce programme a reçu l’approbation à la fois des Démocrates et des Républicains. Il a finalement été adopté en 1975 et a connu de très nombreuses modifications (dont je vais vous épargner la liste).

Son fonctionnement

Contrairement au PFRT canadien, l’EITC fut conçu en premier lieu pour les familles avec enfants, comme le montre éloquemment le graphique suivant qui illustre le fonctionnement de ce crédit selon les situations familiales en 2015.

crédits_impôt1

Ce graphique montre en effet clairement que les travailleurs sans enfants (ligne bleue, en bas à gauche) ne reçoivent presque rien de l’EITC, soit un maximum de 503 $ quand ils touchent un revenu de travail entre 6580 $ et 8240 $. En plus, ce crédit s’éteint totalement à partir d’un revenu de 14 820 $. Dès la présence d’un enfant (ligne jaune), ce crédit devient bien plus significatif, puisqu’il peut atteindre 3359 $ quand une famille (qui est la base de calcul de ce crédit) avec un enfant (de moins de 18 ans ou de moins de 25 ans s’il est aux études à temps plein) gagne entre 9880 $ et 18 110 $, et ne disparaît qu’à partir d’un revenu de 39 131 $. Il est encore plus avantageux pour les familles avec deux ou trois enfants, pouvant même atteindre plus de 6000 $, comme le montrent les lignes rouge vin et verte. Il faut aussi tenir compte que certains états bonifient ce crédit jusqu’au tiers de son niveau fédéral, portant le maximum du crédit pour une famille avec trois enfants à plus de 8000$.

Le graphique suivant montre que, au bout du compte, ce sont les familles avec des revenus se situant entre 10 000 $ par année et 29 999 $ qui en bénéficient le plus. Celles avec des revenus allant de 5000 $ à 9999 $ sont aussi nombreuses à en toucher, mais les sommes reçues sont nettement plus basses, puisque la barre noire (% des montants versés) est moins élevée que la blanche (% des bénéficiaires). Et ce sont les familles qui gagnent entre 15 000 $ et 19 999 $ qui reçoivent les montants les plus élevés (car c’est dans cette tranche que la barre noire surpasse le plus la blanche).

crédits_impôt2

Notons finalement que, en 2011, 28 millions de familles se sont partagées des crédits de 63 milliards $ (sans tenir compte des compléments apportées par les états). Cette somme aurait été un peu inférieure en 2012 (59 milliards $), probablement en raison de la reprise économique. On voit donc qu’il s’agit d’un programme important. Les auteurs de la deuxième étude précisent toutefois que cette somme représente moins du tiers de la perte de revenu du gouvernement (200 milliards $) en raison des deux mesures fiscales qui bénéficient le plus aux contribuables à revenus élevés, soit la non-imposition des cotisations et des revenus de retraite, et les taux réduits d’imposition sur les gains en capital et les dividendes. Cela montre que la générosité étatique des États-Unis (et d’ailleurs…) ne vise pas nécessairement les personnes qui en ont le plus besoin!

Son accès

Le guide expliquant ce crédit compte 108 pages! On ne sera donc pas surpris d’apprendre que la majorité des personnes qui le demandent ont fait appel à des firmes externes ou à des services bénévoles pour remplir leur déclaration de revenus! En plus, les deux études estiment qu’environ 20 % des personnes qui ont droit à ce crédit ne le demandent pas (même si elles peuvent simplement indiquer le demander dans leur déclaration de revenus sans remplir les formulaire à cet effet), surtout celles qui ont droit aux montants les plus faibles, faut-il préciser. Dans ce contexte, peut-on vraiment penser qu’un tel programme puisse avoir les vertus incitatives au travail qu’on lui prête?

Les incitatifs

En théorie, ce crédit devrait inciter fortement les cheffes de familles monoparentales à travailler, car ces familles se situeraient dans les tranches de revenus les plus «payantes». On a de fait observé certains effets, mais bien moindres que prévus. De même, ce crédit aurait pu inciter à ce qu’un des deux membres d’un couple avec enfants abandonne son emploi (ou qu’il réduise fortement ses heures de travail, soit en ne travaillant qu’une partie de l’année ou en travaillant à temps partiel), mais rien de tel n’a été observé (ou si peu qu’il n’est pas clair que ces observations soient liées à ce crédit). Les auteurs expliquent cette quasi absence d’effets ainsi :

  • ce crédit est trop complexe pour être bien compris, donc pour avoir de tels effets;
  • les employeurs en profitent pour baisser les salaires qu’ils offrent ou ne pas les augmenter (notons que l’ampleur estimée de ce phénomène varie énormément selon les études). À ce sujet, de nombreux auteurs de ces études (dont Emmanuel Saez) mentionnent que seule une hausse importante du salaire minimum pourrait empêcher les employeurs d’accaparer une partie de ce crédit par des baisses de salaires (ou par des augmentations salariales faibles ou nulles);
  • on n’a pas observé de comportements sur la baisse des heures de travail, notamment parce qu’il est rare qu’un salarié (surtout un bas salarié) puisse contrôler ses heures de travail, mais aussi parce que le résultat demeure incertain (entre autres en raison de la crainte de perdre son emploi ou de ne pas pouvoir en trouver un autre).

Bref, on a observé certains effets sur le comportement des personnes, mais bien moins que les concepteurs de ce crédit et que les politiciens qui l’ont appuyé l’imaginaient.

Effets sur la pauvreté

Le principal effet positif de ce crédit se situe du côté de la pauvreté. Selon les calculs du Census Bureau, il a fait diminuer le taux de pauvreté global de trois points de pourcentage en 2013 (de 18,4 % à 15,5 %) et celui des enfants (moins de 18 ans) de plus de six points de pourcentage (de 22,8 % à 16,4 %), permettant à neuf millions de personnes, dont 4,6 millions d’enfants, de sortir de la pauvreté. C’est loin d’être négligeable! Ce fort impact est par contre atténué par le fait que le salaire minimum demeure bien bas et que l’absence ou la faiblesse des augmentations salariales dans les emplois exigeant peu de compétences peuvent avoir fait augmenter les taux calculés avant de tenir compte de ce crédit (les 18,4 % pour l’ensemble de la population et 22,8 % pour la pauvreté infantile).

Autres effets positifs

L’EITC a aussi d’autres effets positifs, notamment sur la santé, à la fois physique et mentale, et surtout chez les femmes cheffes de familles monoparentales. Ce crédit favoriserait aussi la poursuite des études chez les enfants et leur taux de diplomation. Finalement, il diminuerait le nombre de naissances de bébés avec des poids jugés insuffisants (baisse de 7 à 11 %, selon les études, pour chaque tranche de 1000 $ reçue dans le cadre de ce crédit).

Et alors…

Quelque part, ces deux études m’ont rassuré. D’une part, je n’errais pas en pensant que ce genre de crédit ne peut pas avoir les effets que les théoriciens en économie lui prêtent en termes d’incitation à chercher un emploi, car peu de personnes connaissent ces crédits et probablement encore moins celles qui y ont droit! Si les bénéficiaires potentiels des États-Unis ne connaissent toujours pas le fonctionnement d’un crédit créé il y a 40 ans, comment penser que nos crédits bien plus récents (le PFRT date de 2007 et la prime au travail de 2005) puissent inciter un grand nombre de personnes à travailler?

Il faut préciser que le crédit canadien n’est pas axé en premier lieu sur les familles (il y a d’autres crédits pour cela) comme l’EITC, mais bien plus sur les individus. Les crédits d’impôts pour les personnes seules sans enfants du PFRT et de la prime au travail du Québec (qui est, elle, plus avantageuse pour les familles…), peuvent atteindre plus de quatre fois le crédit maximal de l’EITC pour une personne sans enfants (soit près de 2200 $ par rapport à 496 $ en 2014), alors qu’ils sont moins élevés pour les couples avec enfants ou les cheffes de familles monoparentales. En plus, comme le salaire minimum est nettement plus élevé au Canada (même si pas assez), on peut penser que les employeurs en profitent moins qu’aux États-Unis pour maintenir leurs salaires bas. Il serait toutefois intéressant qu’une étude analyse l’impact de ces crédits au Québec. Cela dit, puisque ces crédits réduisent sans contredit la pauvreté et les inégalités, je ne peux que les appuyer!

Le mouvement masculiniste au Québec

3 août 2015

masculinismeLe mouvement masculinisme québécois me fascine depuis longtemps, même si je l’évite comme la peste! Mélissa Blais et Francis Dupuis-Déri ont eu la bonne idée de rééditer leur livre Le mouvement masculiniste au Québec – L’antiféminisme démasqué paru pour la première fois en 2008 en mettant à jour l’introduction et la conclusion, et en y ajoutant deux textes. Comme je le fais souvent dans ce genre de livre, je vais me contenter de présenter brièvement les textes qu’on y trouve.

Les textes

– Introduction : discours et actions masculinistes : Mélissa Blais et Francis Dupuis-Déri font plus que seulement présenter les thèmes des textes qui forment ce livre. Cette introduction aborde aussi les principaux faits et concepts qui seront élaborés plus loin, notamment l’histoire du masculinisme au Québec, ses principaux représentants, les liens entre le masculinisme et l’antiféminisme, et l’intérêt des médias pour ce mouvement.

– Le «masculinisme»: une histoire politique du mot : Francis Dupuis-Déri utilise l’approche qu’il avait adoptée dans son livre Démocratie. Histoire politique d’un mot, dont j’ai parlé dans ce billet. Il raconte dans ce texte l’évolution de l’utilisation des mots et surtout des concepts qui leur sont associés pour représenter le mouvement masculiniste au Québec, en France et dans les pays anglo-saxons : masculinisme, humanisme, hominisme, masculiste, etc. Il s’agit du premier des deux textes ajoutés dans cette édition.

– «Liberté, fraternité, masculinité»: les discours masculinistes contemporains du Québec et la perception des femmes dans la France révolutionnaire : Ève-Marie Lampron montre dans ce texte que le masculinisme et l’antiféminisme ne sont pas des phénomènes récents, mais étaient bien en place lors de la Révolution française. Un texte éclairant!

– Un terreau antiféministe : Diane Lamoureux s’attarde dans ce texte davantage à l’antiféminisme qu’au masculinisme qui n’en est qu’une des manifestations. De l’emprise du clergé au mouvement des Yvettes, en passant par les événements de Polytechnique, l’auteure montre que les attaques contre le féminisme peuvent prendre des formes variées.

– Marc Lépine: héros ou martyr? Le masculinisme et la tuerie de l’École polytechnique : Mélissa Blais élabore dans ce texte sur les événements entourant la tuerie de l’École polytechnique. Elle montre entre autres la récupération de cette tuerie par les masculinistes et la négation de la nature foncièrement antiféministe des meurtres de Marc Lépine. Pire, Marc Lépine est, pour certains masculinistes, devenu un héros de leur cause (ce qui ne les empêche pas de nier le caractère antiféministe ou même politique de cette tuerie…).

– Le discours masculiniste sur les violences faites aux femmes: une entreprise de banalisation de la domination masculine : Louise Brossard s’attaque avec des données probantes aux affirmations des masculinistes à l’effet que la violence entre les sexes seraient bien partagée entre les hommes et les femmes, que les violences faites aux femmes seraient moins importantes que les féministes ne le disent et qu’il n’y a pas de lien entre ces violences et le désir de contrôle et de domination de trop d’hommes.

– Cyberviolence: le discours masculiniste sur les femmes : Mathieu Jobin montre l’utilisation que font les masculinistes des médias sociaux et des autres sites Internet, tant pour nier la violence faite aux femmes que pour les dénigrer et les intimider, et appuyer leurs revendications politiques.

– Les féministes, les réseaux sociaux et le masculinisme: guide de survie dans un no woman’s land : Dans le deuxième texte ajouté dans cette édition, Sarah Labarre explore plus à fond les attaques (dénigrement, intimidation, menaces, etc.) des masculinistes sur les réseaux sociaux, aussi bien dans ceux qu’ils contrôlent que dans ceux produits par des féministes. Elle explique les tactiques qu’ils utilisent et propose des moyens pour les contrer.

– L’homophobie sournoise dans l’idéal masculin des masculinistes : Janik Bastien Charlebois montre que le modèle de masculinité idéalisé par les masculinistes est incompatible avec l’homosexualité et les portent donc à l’homophobie, même si ceux-ci évitent en grande majorité de préciser leur position en la matière. Mais, cela n’empêche pas cette homophobie de se manifester de façon concrète!

– Le chant des vautours: de la récupération du suicide des hommes par les antiféministes : Francis Dupuis-Déri démolit habilement et avec des données fiables (autant peuvent-elles l’être dans un tel domaine) l’association que font les masculinistes entre les taux de suicide plus élevés chez les hommes que chez les femmes et la montée du féministe. En fait, d’aussi loin que remontent les données à ce sujet, les taux de suicide chez les hommes ont toujours été plus élevés que chez les femmes et ce, dans presque tous les pays industrialisés, sans aucun lien avec le niveau d’égalité des sexes dans ces sociétés.

– L’influence du masculinisme auprès de l’État: le débat autour de la réforme du Conseil du statut de la femme : Karine Foucault présente les péripéties entourant les débats qui ont eu lieu en 2005 sur la possibilité de transformer le Conseil du statut de la femme en un Conseil de l’égalité. L’existence même d’un tel débat a «démontré l’influence réelle des mouvements misogynes et antiféministes, principalement dans un contexte de résurgence du conservatisme politique».

– L’activisme juridique, le divorce et la garde des enfants: backlash sur les gains essentiels du mouvement féministe : Josianne Lavoie décortique les lois et les décisions des juges en matière de garde d’enfants et détruit ainsi l’argumentaire des masculinistes sur un supposé parti-pris des lois et des juges en faveur des femmes.

– Lorsque des actions masculinistes ciblent des féministes : Émilie Saint-Pierre rend compte de ses recherches sur les tactiques adoptées par les groupes masculinistes, notamment sur les tactiques d’intimidation, de harcèlement et de menaces.

– Le mouvement des femmes du Québec face à la montée de l’antiféminisme: affirmation et renouveau : Marie-Ève Surprenant propose des stratégies pour faire face à l’antiféminisme, que ce soit en déconstruisant les discours antiféministes, en réinventant les pratiques féministes et la façon de présenter le message féministe, ou en poursuivant les luttes et en les transmettant aux jeunes générations.

– Conclusion — Le masculinisme comme mécanisme de contrôle des femmes : Mélissa Blais et Francis Dupuis-Déri font le lien entre les constats présentés dans les textes précédents, mentionnent les sujets qui demanderaient plus de recherches et concluent que, même si le mouvement masculiniste est proportionnellement peu répandu, on aurait tort de minimiser son influence et son capital de sympathie, que ce soit dans les médias, dans les milieux de la santé et de l’éducation, ou en politique. Il faut au contraire redoubler d’ardeur pour le contrer.

Et alors…

Alors, lire ou ne pas lire? Lire bien sûr! Ce sujet est trop important pour ne pas lui accorder l’importance qu’il mérite. Si les répétitions sont nombreuses, ce qui inévitable avec un tel sujet et un si grand nombre d’auteurEs, les textes sont suffisamment variés et complémentaires pour qu’il vaille la peine de tous les lire avec attention. Comme il est mentionné dans la conclusion, on aurait tort de minimiser l’importance de ce mouvement en raison du nombre relativement restreint d’acteurs majeurs qui s’en revendiquent. Ils sont de fait peu nombreux, d’où la fréquence de la mention des noms de ces personnes dans les textes du livre, mais ils ont beaucoup trop d’écoute, d’influence et de pouvoir de nuisance pour qu’on les ignore et surtout pour qu’on laisse aller leur mouvement sans lui résister.

L’utilisation des ressources sur le marché du travail

1 août 2015

utilisation des ressourcesLa zone grise entre l’activité et l’inactivité sur le marché du travail semble susciter de plus en plus d’intérêt. J’ai abordé récemment cette question dans deux billets, le premier sur la situation aux États-Unis, le deuxième sur celle au Québec. Les deux textes présentés tentaient d’estimer le nombre de personnes proches du marché du travail, mais n’abordaient nullement l’ampleur de la perte que leur situation représente pour le niveau d’emploi.

C’est justement ce que tente de faire une étude de la Federal Reserve Bank of Richmond intitulée Measuring Resource Utilization in the Labor Market (Mesure de l’utilisation des ressources sur le marché du travail). Cette étude s’intéresse plus spécifiquement au fait que le taux de chômage semble de moins en moins représenter un indicateur adéquat de la sous-utilisation de la main-d’œuvre aux États-Unis depuis la fin de la Grande Récession débutée dans ce pays en 2007.

La zone grise

Comme dans les textes que j’ai présentés auparavant, les auteurs de cette étude s’interrogent sur la pertinence des indicateurs comme le taux de chômage et le taux d’activité pour avoir un portrait complet de la sous-utilisation de la main-d’œuvre. Mais, plutôt que de tenter de compter le nombre de personnes dans la zone grise entre le chômage et l’inactivité, ils se demandent plutôt quel est le statut (chômeurs ou inactifs) des personnes qui trouvent vraiment un emploi et à quel niveau ils en trouvent selon ce statut.

Je conçois que cette introduction ne soit pas bien claire. Je me posais moi-même des questions devant les explications des auteurs, jusqu’à ce qu’ils présentent quelques données concrètes dans deux tableaux des plus éloquents.

utilisation des ressources1

Ce tableau présente la situation du non-emploi selon diverses catégories :

– les chômeurs («Unemployed»), catégorie divisée entre le chômage de courte durée («Short-term», soit moins de 26 semaines) et de longue durée («Long-term», soit plus de 26 semaines);

– les inactifs, mais qui veulent un emploi («OLF, Want a job», ou «out of the Labour Force», soit hors de la population active, ou inactifs en français), catégorie divisée trois sous-catégories :

  • la main-d’œuvre potentielle découragée («Marginally attached, discouraged», soit des gens qui ne cherchent pas d’emplois parce qu’ils pensent qu’il n’y en a pas pour eux, mais qui en ont cherché dans les 12 derniers mois);
  • la main-d’œuvre potentielle pas découragée («Marginally attached, other», soit des gens qui ne cherchent pas d’emplois, mais qui en ont cherché dans les 12 derniers mois sans être découragés);
  • les autres qui veulent un emploi, mais n’en ont pas cherché depuis 12 mois («Other»);

– les inactifs qui ne veulent pas un emploi et n’en cherchent pas («OLF, Do Not Want a Job»), eux aussi divisés en sous-catégories, selon la raison de ne pas vouloir un emploi :

  • parce qu’ils vont à l’école («Other, in school»);
  • sans raison, même s’ils ne vont pas à l’école («Other, not in school»);
  • parce qu’ils vivent avec une incapacité («Disabled »);
  • parce qu’ils ont pris leur retraite («Retired»).

Les trois premières colonnes montrent leur proportion dans la population adulte (âgée de 16 ans et plus), entre 1994 et 2013 (1994 est la première année où ces questions étaient posées), en 2007 (dernière année avant la récession) et en 2010 (au pire de la récession). On peut voir que les proportions illustrées en 2007 ne sont pas très différentes de celles de la moyenne 1994-2013, si ce n’est que la proportion de personnes en chômage était un peu plus basse (notons qu’il ne s’agit pas du taux de chômage, car celui-ci est calculée sur la population active, tandis que la proportion ici montrée est calculée sur la population adulte) et que la proportion de personnes qui ne voulaient pas d’emploi parce qu’ils allaient à l’école était un peu plus élevée.

Les trois dernières colonnes montrent le pourcentage moyen des personnes dans chaque catégorie qui occupaient un emploi le mois suivant celui où ils étaient dans ces catégories entre 1994 et 2013, en 2007 et en 2010. C’est là que ça devient intéressant (il était temps!). Elles nous montrent notamment que :

  • les personnes en chômage de courte durée ont une probabilité deux fois plus élevé d’occuper un emploi que les personnes en chômage de longue durée;
  • les personnes qui sont inactives mais veulent un emploi (peu importe leur sous-catégorie) ont une probabilité à peu près identique à celle des personnes en chômage de longue durée d’occuper un emploi;
  • les personnes qui ne veulent pas d’emploi, sauf celles qui vivent avec une incapacité ou sont retraitées, ont une probabilité d’être en emploi le mois suivant à peine 50 % moins élevée que les personnes en chômage de longue durée et que celles qui sont inactives mais veulent un emploi;
  • ces probabilités étaient seulement un peu plus élevées en 2007 que celles de la moyenne de 1994 à 2013, mais avaient fortement diminué en 2010, tout en conservant des différences similaires entre les catégories et sous-catégories (par exemple, 10,3 % sur  n’est pas très différent de 15,5 % sur 29,7 %).

Les auteurs ont ensuite voulu savoir si ces constats étonnants s’observaient avant 1994. Pour ce, comme les questions permettant de composer les catégories et sous-catégories du premier tableau n’étaient pas posées avant 1994, ils ont composé les catégories autrement comme le montre le tableau suivant.

utilisation des ressources2

Dans ce tableau, les catégories sont conçues ainsi :

  • Recent employment (emploi récent) indique les personnes qui ont occupé un emploi dans au moins un des deux mois précédents le statut actuel;
  • No recent employment (pas d’emploi récent) pour les chômeurs indique les personnes qui n’ont pas occupé d’emploi dans les deux mois précédents et ont été inactifs au moins un des deux mois précédents;
  • No recent employment pour les inactifs indique les personnes qui n’ont pas occupé d’emploi dans les deux mois précédents et ont été en chômage au moins un des deux mois précédents;
  • Continuously unemployed indique les personnes qui ont été en chômage les deux mois précédents;
  • Continuously OLF indique les personnes qui ont été inactives les deux mois précédents.

Comme dans le tableau précédent, les quatre premières colonnes (au lieu de trois comme dans le tableau précédent) montrent la proportion des personnes dans ces catégories par rapport à la population adulte et les quatre dernières montrent le pourcentage moyen des personnes dans chaque catégorie qui ont trouvé un emploi le mois suivant celui où ils étaient dans ces catégories.

Là, les écarts sont encore plus nets que dans le tableau précédent. La proportion des personnes en chômage qui ont travaillé au moins un des deux mois précédents et qui ont occupé un emploi le mois suivant était dans les quatre périodes indiquées plus du double de celle des personnes qui n’étaient pas en emploi les deux mois précédents, et même plus du triple en 2010. Le lien récent avec un emploi est encore plus important chez les personnes inactives, puisque la proportion de ces personnes qui occupaient un emploi le mois suivant était de beaucoup plus élevée (plus du double en 2010) que celle des personnes en chômage mais qui n’avaient pas occupé un emploi au cours des deux mois précédents. Cela signifie que ces personnes dites inactives sur le marché du travail avaient un lien plus fort avec l’emploi que plus de la moitié des personnes dites actives en chômage (et même que plus des trois quarts en 2010)! Et leur proportion de la population adulte était plus élevée, sauf en 2010. Ces constats éclairent drôlement plus la zone grise entre l’activité et l’inactivité sur le marché du travail que les études précédentes!

Les mesures de la sous-utilisation des ressources

Les auteurs se servent ensuite des différences d’obtention d’un emploi dans les deux tableaux précédents (les trois et quatre dernières colonnes, respectivement) pour développer des mesures de sous-utilisation des ressources. Les deux premières mesures établissent des ratios entre les probabilités des différentes catégories et sous-catégories d’être en emploi le mois suivant et celles des personnes en chômage depuis peu (les premières lignes des deux tableaux) en fonction des deux méthodes de catégorisation des personnes adultes (présentées dans chacun de ces deux tableaux). Les troisième et quatrième indices ajoutent aux deux précédents ratios la part de sous-utilisation des personnes qui travaillent à temps partiel de façon involontaire. À l’aide de ces ratios (je résume encore plus, ce billet commençant à être long…), ils calculent des indices de sous-utilisation des ressources. Le graphique qui suit montre l’évolution de leurs quatre indices.

utilisation des ressources3

Les indices de graphique ne correspondent pas à des taux de chômage, mais bien à un indice de non emploi calculé sur l’ensemble de la population adulte (et non pas sur la population active comme le fait le taux de chômage). Les lignes rouges sont tirées des indices calculés à l’aide du premier tableau, ce qui explique qu’elles ne commencent qu’en 1994. La ligne en continu ne tient pas compte du temps partiel involontaire, tandis que celle en tirets le fait. Les lignes vertes sont construites de la même façon, mais avec le deuxième tableau. Encore là, la ligne en continu ne tient pas compte du temps partiel involontaire, tandis que celle en tirets le fait.

L’important ici n’est pas nécessairement les niveaux calculés du non-emploi (qui sont d’ailleurs passablement différents entre les lignes vertes et rouges), mais leur évolution. Ce qui a frappé les auteurs est le fait que le non-emploi dû au travail à temps partiel involontaire, soit l’écart entre les lignes en continu et celles en tirets, qu’elles soient rouges ou vertes, est beaucoup plus grand depuis la récession commencée en 2007 qu’auparavant. Ils notent aussi que cet écart s’était bien moins accentué lors des récessions des débuts des années 1980 et 1990. D’ailleurs, s’ils ont tenu à développer un indice différent pour les années antérieures à 1994, c’était justement pour comparer le comportement des deux courbes (en continu et en tirets), lors des récessions antérieures (celle du début des années 2000 était de trop faible ampleur pour comparer ses conséquences avec celle commencée en 2007). Ils en concluent (je simplifie encore, sautant notamment l’analyse de six graphiques complexes…) que la réponse aux questionnements des dernières années sur l’évolution erratique du taux de chômage officiel par rapport à la sous-utilisation de la main-d’œuvre aux États-Unis depuis 2007 se situe presque complètement du côté de la croissance du travail à temps partiel involontaire, et non du côté d’une évolution anormale du taux de chômage officiel par rapport à cette sous-utilisation, comme beaucoup de personnes le prétendent.

Et alors…

Cette étude, probablement la plus complexe que j’ai lue depuis des années sur le marché du travail, est aussi celle qui m’a le plus éclairé sur son fonctionnement. Tous les concepts de «vrai» taux de chômage et de division entre le chômage officiel et l’inactivité me paraissent maintenant encore plus superficiels que je ne le pensais. Je savais cet univers complexe, mais pas à ce point, ni que des méthodes du genre pouvaient nous permettre d’éclairer autant notre lanterne sur la zone grise entre le chômage et l’inactivité!

Pour un meilleur régime d’assurance-emploi?

29 juillet 2015

assurance-emploi_fortin_bédardL’Institut de recherche en politiques publiques (IRPP) a diffusé la semaine dernière une étude produite par Michel Bédard, actuaire en chef du régime d’assurance-emploi de 1991 à 2003, et Pierre Fortin, économiste émérite de l’Université du Québec à Montréal, intitulée Onze propositions pour un meilleur régime d’assurance-emploi. Si les médias ont assez bien couvert cette étude, je n’ai pas encore lu d’analyse ou de texte d’opinion sur son contenu. Dans ce billet, je compte présenter et commenter ces 11 propositions (comptant quelques sous-propositions supplémentaires).

Les 11 propositions

Avant de proposer leurs recommandations, les auteurs ont succinctement présenté l’évolution des paiements de prestations d’assurance-emploi (et d’assurance-chômage) de 1972 à 2014. En ne retenant que les prestations ordinaires, de pêcheurs et de travail partagé, les auteurs observent que la part du PIB correspondant à ces prestations est passée, en ne tenant pas compte des périodes de récession du début des années 1980 et du début des années 1990, d’environ 1,5 % dans les années 1970 à seulement 0,55 % en 2014, soit en gros trois fois moins (comme on peut le assurance-emploi_fortin_bédard1voir dans le graphique ci-contre, tiré des tableaux cansim 276-0005, 276-0017, 380-0064 et 380-0501). Pourtant le taux de chômage canadien était de 7,1 % en 1976 et de 6,9 % en 2014 (selon le tableau cansim 282-0002), différence qui ne peut bien sûr pas expliquer cet écart gigantesque. Les auteurs considèrent plutôt que ce sont les modifications apportées à ce programme, notamment celles du début des années 1990 (qui furent suivies de la baisse la plus spectaculaire), qui l’expliquent le plus.

1. Abandonner les critères actuels d’admissibilité aux prestations, basés sur un nombre minimum d’heures d’emploi assurable, et revenir à l’ancien système, basé sur un nombre minimum de semaines d’emploi

Je n’ai aucun problème avec cette recommandation. Contrairement à ce que prétendait le gouvernement, cette mesure a nui considérablement aux personnes qui travaillent à temps partiel, surtout aux jeunes et aux femmes. Les auteurs précisent que 38,9 % de ces personnes n’accumulent pas suffisamment d’heures pour recevoir des prestations, proportion 9 fois plus élevée que chez les personnes qui travaillent à temps plein (4,4 %). Il s’agit pour les auteurs et pour moi d’une discrimination évidente.

Celle-ci est en fait encore pire que ce qu’en disent les auteurs. En effet, le régime actuel ne prévoit des remboursements de cotisations qu’aux personnes qui ont gagné moins de 2 000 $ dans l’année (montant qui n’a pas été indexé depuis 1996!). Or, pour avoir droit à des prestations, il faut avoir, selon les situations, accumulé entre 420 et 910 heures au cours de l’année précédente. Même au salaire minimum (10,55 $ de l’heure), il faut donc avoir gagné entre 4431 $ et 9600 $ pour avoir droit aux prestations, bien plus que l’exemption de 2000 $. Le fait de ne pas rembourser des cotisations qui ne pourront jamais permettre de recevoir des prestations est un vol pur et simple… Pourtant, nos auteurs n’émettent aucune recommandation à cet effet.

2. Établir qu’une semaine d’emploi assurable donnant droit à des prestations doit comporter au moins 15 heures de travail

Pas de problème. Au moins, les gens qui travaillent moins ne seraient pas obligés de payer des cotisations!

3. Abolir les 62 régions économiques actuelles de l’assurance-emploi

Je suis divisé sur cette proposition. Les auteurs n’ont pas tort de dire qu’il est inéquitable qu’une personne qui perd son emploi se voit refuser des prestations dans une région alors qu’elle y aurait droit dans une autre. Par contre, il est certain que cela risque de prendre plus de temps à trouver un emploi décent dans une région où le taux de chômage est plus élevé que la moyenne que dans une région où il y est moins élevé. Dans ce sens, la durée des prestations doit tenir compte du taux de chômage régional. Bref, il est sensé de prévoir des durées de travail semblables pour avoir droit à des prestations, mais en généralisant les critères les plus bas actuellement appliqués ou même en les réduisant. En effet, la durée de travail dans des emplois saisonniers est souvent relativement courte. Que d’autres régions bénéficient des mêmes conditions, cela est correct, mais si on généralise les critères les plus élevés, de nombreuses personnes qui occupent des emplois saisonniers n’auraient plus droit aux prestations et devraient quitter ce genre d’emploi (et les employeurs devraient faire venir des travailleurs étrangers ou fermer leurs portes… Génial!), voire leur région. Malheureusement, les auteurs recommandent justement une hausse du nombre de semaines de travail permettant de recevoir des prestations…

4. Établir qu’un nombre minimum de 20 semaines d’emploi assurable est nécessaire pour donner droit aux prestations

Voilà! Cela est un appel à vider certaines régions de leur population et à renoncer à l’occupation du territoire. Comme les auteurs reconnaissent que leur critère est arbitraire, ils auraient pu au moins faire une étude d’impact avant de proposer leur solution. Ils reconnaissent que ce serait difficile d’exiger davantage de semaines, mais ne réalisent pas que de nombreux emplois dans la pêche, la forêt et même dans le tourisme (pour ne citer que ces trois industries) durent beaucoup moins que 20 semaines par année. Il faut aussi noter que le nombre d’heures par semaine est souvent beaucoup plus élevé que la moyenne dans ce type d’emploi au cours des quelques semaines où ces personnes travaillent et que le retour à un critère basé sur des semaines les pénaliserait davantage. Pourquoi pas un critère qui pourrait offrir le choix entre les semaines et les heures? Un tel système serait bien plus souple et mieux adapté à la diversité des situations sur le marché du travail.

5. Sous réserve du maximum de la rémunération hebdomadaire assurable, établir le taux de prestations à partir de la rémunération hebdomadaire moyenne obtenue au cours des 20 meilleures semaines d’emploi assurable

Pas trop de problème à première vue.

6. Maintenir le taux de prestations à une moyenne de 55 % de la rémunération assurable, mais le moduler de manière progressive tout en augmentant sensiblement son maximum

Le rapport propose d’une part d’augmenter le salaire maximal donnant droit à des prestations et d’autre part de moduler le taux de prestations par rapport au revenu assurable de 40 % du revenu assurable pour les personnes gagnant les revenus les plus élevés à 662/3 % pour celles gagnant les revenus les plus faibles. Ce système permettrait une redistribution des plus «riches» aux plus pauvres, d’autant plus que les personnes qui touchent les salaires les plus élevés ont un taux de chômage bien moins élevé que celles qui ont des salaires plus bas. Même si je favorise en général les programmes universels, je n’ai pas d’objection majeure à cette proposition. Notons que ce taux pouvait atteindre 75 % de 1971 à 1976 et 662/3 % jusqu’en 1979, puis 60 % jusqu’en 1993. Et comme la moyenne des prestations versées demeurerait à 55 % de la rémunération assurable, rien ne serait fait pour corriger les baisses que ce taux a connues depuis 1971.

7. Fixer la durée maximale des prestations à un nombre de semaines égal au nombre de semaines d’emploi assurable

Les auteurs recommandent que le nombre de semaines de prestations soit équivalent au nombre de semaines d’emploi assurable, créant ainsi une série de «trous noirs» dans les régions où il y a beaucoup de travail saisonnier (si ces personnes parviennent à travailler 20 semaines!). En effet, une personne qui aurait accumulé 20 semaines d’emploi assurable toucherait 20 semaines de prestations et n’aurait pas de revenu pendant 12 semaines! Les auteurs prévoient bien certaines exceptions, mais uniquement pour «un petit nombre de régions isolées où l’activité économique peut ralentir considérablement à certains moments et où les travailleurs d’expérience qui perdent leur emploi ont souvent besoin d’une longue période de reconversion». On notera que cette exception est en lien avec des événements conjoncturels et ne touche nullement le travail saisonnier. Les auteurs ne se cachent d’ailleurs pas de favoriser la mobilité de la main-d’œuvre vers les endroits où la demande de main-d’œuvre est plus forte, même si cela implique que les personnes faisant partie de la main-d’œuvre (la main-d’œuvre est en effet formé de personnes, n’oublions pas) doivent quitter leur région.

Pourtant, ils reconnaissent que des périodes de prestations plus longues n’ont qu’un effet faible sur la durée du chômage et qu’elles permettent aux personnes de trouver un meilleur emploi et aux employeurs de trouver des employés qualifiés qu’ils pourront garder dans un emploi plus longtemps. Pourquoi alors ne pas modifier cette recommandation?

8. Réduire la période d’attente à une semaine

Bravo. Bon, c’est encore une semaine de trop, mais cela améliorerait la situation actuelle de 50 %!

Bizarrement, les auteurs terminent leurs explications sur cette recommandation en en ajoutant une, bien plus importante : «dans les cas de départ volontaire ou non justifié, ou encore de congédiement pour cause, plutôt qu’une exclusion permanente de l’assurance-emploi (ce qui est le cas actuellement), une exclusion temporaire de quatre semaines s’ajouterait à la semaine imposée dans tous les cas ; et cette exclusion devrait être plus sévère en cas de récidive». Les auteurs semblent ignorer que l’exclusion complète dans ces cas est un des facteurs les plus importants expliquant la baisse du ratio prestataires/chômeurs depuis le début des années 1990 (et donc la baisse spectaculaire des sommes versées en prestations au cours de cette période). En effet, comme je l’ai montré dans ce billet, ce facteur exclut des prestations en moyenne environ 21 % des cotisants au régime, soit un peu plus que la proportion de ceux qui n’ont pas travaillé suffisamment d’heures (environ 17 % des cotisants)! Il s’agit donc d’une excellente recommandation, même si elle n’est pas dans l’énoncé de leurs 11 recommandations.

9. Assujettir le versement des prestations à deux conditions : que les prestataires conviennent de se soumettre aux vérifications normales de leur situation et qu’ils s’engagent à accepter tout emploi convenable qui leur sera offert

Cette recommandation semble ne rien changer… Sauf que, encore là, il faut lire le texte qui l’accompagne pour en évaluer l’impact. On y recommande entre autres d’augmenter les rencontres avec des conseillers «dont le rôle est d’aider les prestataires à établir des plans personnalisés de retour sur le marché du travail», mais surtout de revenir à la définition de l’emploi convenable qui était en vigueur avant la dernière réforme de l’assurance-emploi. Plutôt que de forcer des personnes en chômage d’accepter des emplois n’offrant dans le pire cas que 70 % du salaire antérieur, on tiendrait compte «de l’âge du chômeur, de son ancienneté dans sa profession antérieure, de l’expérience acquise, de la durée du chômage, de l’état du marché du travail, des répercussions de cet emploi sur la situation personnelle et familiale de l’intéressé et du fait que l’emploi est disponible en raison directe d’un arrêt du travail dû à un conflit professionnel en cours».

Cette recommandation est sage. Sauf que les auteurs prétendent qu’avec les autres mesures qu’ils préconisent, comme le minimum de 20 semaines d’emploi assurable et le «nombre maximal de semaines de prestations égal au nombre de semaines d’emploi assurable (…) on éviterait dans une large mesure le problème du «recours fréquent à l’assurance-emploi». Cela ressemble à une mort annoncée et voulue de l’emploi saisonnier et de l’occupation du territoire…

10. Confier la gestion de la composante du Régime liée à l’assurance contre la perte involontaire d’emploi à une caisse autonome qui appliquerait les principes actuariels généralement reconnus

En espérant que cela empêcherait vraiment les politiciens d’utiliser les cotisations d’assurance-emploi à d’autres fins que celles pour lesquelles elles sont versées, on ne peut qu’appuyer cette recommandation.

Dans le texte explicatif, les auteurs précisent que cette caisse ne servirait qu’aux prestations régulières (y compris les prestations pour pêcheurs et de travail partagé), mais pas au versement de prestations spéciales (maladie, maternité, parentales, formation, etc.), ni pour les secteurs saisonniers (parce que dans ces secteurs, disent-ils, «les pertes d’emploi ne sont pas liées à un risque, mais sont prévisibles sur une base annuelle»). Pourtant, ils ne disent rien sur la façon dont ces autres prestations seraient financées et administrées, quels en seraient les critères, ni quels avantages il y aurait à séparer le financement et l’administration de ces autres prestations. Il m’apparaît aussi contradictoire de vouloir imposer aux prestataires des rencontres avec des conseillers (voir la recommandation 9) sans financer ces rencontres à même ce programme. Je considère que cette imprécision mine quelque peu cette recommandation et suscite de nombreuses questions sans y répondre.

11. Sauf dans des conditions économiques extrêmement difficiles, financer le Régime d’assurance-emploi à parts égales — et exclusivement — avec les cotisations des employeurs et des employés

Cette recommandation d’un financement paritaire entre les employeurs et les employés (plutôt que 5/12 par les employés et 7/12 par les employeurs comme c’est le cas depuis 1972) n’est appuyée par aucun argumentaire, sinon de prétendre qu’il s’agit «d’une exigence de légitimité et d’équilibre». Ça me semble bien mince pour appuyer un tel chamboulement! Il faut rappeler que «La contribution plus élevée de l’employeur est sensée (sic) traduire le fait que celui-ci exerce un plus grand contrôle sur les coûts du programme (au niveau des décisions de licenciement) que les employés». Il faut aussi noter le rôle majeur des employeurs dans l’administration du programme, étant ceux qui, notamment, décident du motif d’une cessation d’emploi (manque de travail, inconduite, départ volontaire, etc.).

Cette recommandation étonne d’autant plus que les entreprises ont bénéficié de nombreuses baisses d’impôt au cours des dernières années, alors que les particuliers font face à des hausses de tarifs de plus en plus fréquentes et abruptes. Légitime et équilibrée, cette recommandation? Pas vraiment…

Et alors…

Avec l’entrée en matière de ce document, on aurait pensé que les auteurs auraient cherché à bonifier ce programme pour qu’il retrouve, au moins en partie, le niveau de financement qu’il a perdu depuis le début des années 1990. Certaines recommandations que j’ai appuyées vont dans ce sens, mais d’autres, notamment la hausse du nombre de semaines d’emploi assurable pour avoir droit à des prestations et la baisse du nombre de semaines de prestations auxquelles la personne qui perd son emploi aurait droit, vont carrément dans le sens inverse.

Il ne faut toutefois pas s’en étonner. D’ailleurs, un des auteurs a déclaré que «La droite sera contre. La gauche aussi. Ce sera la preuve qu’on ne se trompe pas tant que ça». Il s’agit sûrement d’une boutade et je ne perdrai pas de temps pour en démontrer l’absurdité manifeste. Mais elle montre que les auteurs ont tenu à «équilibrer» leurs recommandations plutôt que de travailler à corriger les principales lacunes qu’ils ont eux-mêmes illustrées au début de ce document. Cela dit, tel n’était pas leur objectif comme ils le disaient au début de leur document, celui-ci étant plutôt «de procéder à un examen attentif de ces conséquences de même que de la structure du Régime après 20 ans d’existence». Mais, à force de vouloir rester neutre, on aboutit à un ensemble de recommandations qui manquent de cohérence et de justifications. C’est malheureusement ce que je retiens de cette étude.

Tout ce que vous n’avez jamais voulu savoir sur la merde… mais auriez dû!

27 juillet 2015

merdeC’est grâce à un article du Devoir que j’ai eu le goût de lire Merde… Ce que les excréments nous apprennent sur l’écologie, l’évolution et le développement durable de David Waltner-Toews, un épidémiologiste canadien, poète à ses heures… Si ce sujet suscite nombre de gags et de jeux de mots scatologiques, dont l’auteur ne se prive pas, il est aussi beaucoup plus sérieux qu’on pourrait le penser.

Ce livre n’est pas facile à résumer, car les chapitres ne sont pas consacrés à des aspects particuliers de la question, mais adoptent plutôt une structure basée sur différents angles par lesquels on peut aborder cette question. Un peu déroutante, cette approche n’est pas dénuée d’intérêt. Plutôt que le présenter chaque chapitre, je vais tenter de me concentrer sur les constats du livre que j’ai trouvés les plus instructifs et intéressants.

La merde et ses particularités

les rejets des uns sont la bouffe des autres : ce principe se manifeste tout d’abord de façon directe, par les animaux (surtout des insectes), qui mangent carrément les excréments d’autres animaux et s’en servent pour nourrir leur progéniture. Le premier exemple fourni par l’auteur concerne les bousiers, dont le nom ne laisse rien à l’imagination, qui, en plus de manger de la merde, forment des boules avec les excréments et les enterrent dans le sol pour nourrir d’éventuels rejetons. En plus, cette action permet de répartir cette substance à différents endroits et d’ainsi favoriser sa décomposition dans le sol, ce qui servira à enrichir la terre et à fournir des éléments nutritifs essentiels à la croissance des végétaux.

Ce principe s’applique aussi de façon indirecte. Par exemple, les premières formes de vie sur la Terre, les cyanobactéries, consommaient du dioxyde de carbone et obtenaient l’énergie nécessaire à leur existence par la photosynthèse qui entraînait le rejet de molécules d’oxygène. Après quelques centaines de millions d’années de ce processus, l’atmosphère de la Terre s’est modifiée (initialement formée à 90 % de dioxyde de carbone, mais aussi de soufre et de méthane), permettant l’émergence de formes de vie se servant de ces rejets d’oxygène pour subsister. Bref, l’atmosphère telle que nous la connaissons vient des rejets (l’auteur parle de crottes gazeuses…) d’organismes vivants (je résume et simplifie…). Cette observation nous montre aussi que l’atmosphère de la Terre est instable et pourrait encore se modifier par d’autres rejets (pollution et gaz à effets de serre, notamment) pour la rendre plus accueillante pour d’autres formes de vie que la nôtre…

– un maillon important de la reproduction : un grand nombre de végétaux dépendent de la merde des animaux pour assurer leur reproduction. En mangeant des fruits et en rejetant leurs graines à un autre endroit, les animaux permettent de faire pousser les végétaux à des lieux éloignés de leurs «parents», évitant une trop grande proximité et concentration d’espèces végétales qui seraient autrement plus vulnérables aux maladies et nuisances (insectes ravageurs, par exemple) qui leur sont spécifiques.

– un outil de protection ou de vulnérabilité : l’odeur des excréments peut à la fois servir à éloigner des prédateurs qu’à les attirer. Certains animaux (dont les lapins) digèrent par exemple deux fois leurs aliments en mangeant leurs selles molles (odorantes) et en laissant celles qui sont dures (digérées deux fois et moins odorantes) pour éviter que leur odeur attire les prédateurs. Certains insectes projettent leurs excréments à une certaine distance avec le même objectif.

– un problème et un outil de santé publique : la merde constitue un problème de santé publique majeur, celle-ci provoquant de nombreuses maladies souvent mortelles : diarrhée (notamment par la bactérie E. coli qui cause plus de morts de bébés et d’enfants que bien d’autres maladies jugées plus dangereuses), salmonellose, intoxication due aux bactéries campylobacter, toxoplasmose, etc. Les mesures d’hygiène publique (notamment la construction d’égouts et d’usines d’épuration des eaux) ont d’ailleurs eu un impact majeur sur l’espérance de vie humaine. Par ailleurs, son examen sert à diagnostiquer des problèmes alimentaires et même d’autres maladies, et à recommander des mesures pour les éviter (surtout un changement de régime alimentaire). La présence de plus en plus importante de médicaments dans l’urine et dans les excréments humains et même des animaux non humains est aussi une menace pour les cours d’eau et pour l’humain en raison de l’utilisation de leurs ressources (poissons et eau).

– une ressource précieuse… de plus en plus abondante : contenant de l’azote, des nitrates et du phosphate, le guano (excréments d’oiseaux marins et de chauves-souris) est un engrais recherché, à la base de conflits et de guerres. La merde humaine a longtemps servi non seulement d’engrais mais aussi de combustible (elle est d’ailleurs encore utilisée à cette fin une fois séchée) et avait même une valeur marchande dans certains pays (notamment au Japon). En outre, avec l’augmentation du nombre d’animaux sur Terre (surtout les humains et les animaux d’élevage pour les nourrir), la merde est de plus en plus abondante et les mesures pour la gérer encore plus essentielles.

– un élément faisant partie d’un système complexe : la gestion des excréments doit se faire en tenant compte qu’ils ne sont qu’un maillon appartenant à un système complexe. Les excréments permettent de retourner au sol des éléments qui lui ont été retirés (autres animaux, plantes digérées, etc.). Le commerce mondial d’aliments transfère ainsi des nutriments et des excréments (et bactéries) qui ne seront pas nécessairement adaptés au milieu où ils seront rejetés. On ignore les effets à long terme de ce transfert, mais si on se fie à l’introduction d’espèces étrangères dans un milieu non adapté (pensons par exemple à la carpe asiatique), on peut et doit s’inquiéter des conséquences de ce type de transfert. Dans une moindre mesure, le déplacement des aliments des zones rurales vers les villes peut créer des problèmes de ce genre.

Des solutions?

L’auteur a consacré le dernier chapitre de son livre à l’ébauche de solutions. En effet, devant un phénomène aussi complexe, l’auteur considère qu’il n’existe pas qu’un type de solutions. Celles-ci doivent être adaptées à chaque réalité, à la fois physique, biologique et sociale. Elles doivent être élaborées par des équipes multidisciplinaires formées aussi bien de scientifiques (ingénieurs, épidémiologistes, vétérinaires et autres) que d’économistes, d’écologistes, de psychologues ou de travailleurs sociaux, auxquels ce joignent des militants, des mères, et même des enfants. Des mesures adoptées démocratiquement correspondent mieux aux spécificités d’un milieu, sont mieux acceptées et peuvent être implantées plus efficacement.

L’éventail des solutions tourne autour des éléments présentés dans les chapitres précédents, soit par la réutilisation et par le recyclage, dans un contexte de protection de la santé publique. Par exemple, le compostage et d’autres méthodes permettent de tuer les bactéries et parasites nuisibles à la santé publique, et d’utiliser la merde à ses usages utiles : fumier, combustible et autres. L’abandon des complexes agricoles trop gros (que l’auteur recommande sans s’illusionner sur son application) permettrait de mieux réutiliser les excréments de l’élevage (un autre exemple que Ce qui est petit est bien plus beau) et doit aussi faire partie des solutions. L’auteur mentionne aussi la diversification des élevages dans une même ferme, y compris l’intégration de bassins de poissons, car ils utilisent avantageusement d’autres types d’excréments. L’utilisation plus parcimonieuse de l’eau est souvent essentielle (notamment pour éviter l’utilisation d’eaux infectées pour boire).

La technologie peut être un outil important, mais il faut éviter de croire qu’elle peut à elle seule apporter des solutions globales. L’auteur cite d’ailleurs quelques utilisations qu’elle a permis :

  • de meilleures méthodes de compostage permettent l’utilisation des excréments d’animaux domestiques et même de leurs cadavres comme engrais;
  • l’élimination des métaux lourds qui sont parfois présents dans les excréments pour pouvoir les utiliser de façon plus sécuritaire comme engrais;
  • la production de biogaz (des établissements pénitenciers et scolaires utilisent par exemple la merde des détenus et des élèves pour fournir l’énergie dont ils ont besoin);
  • l’utilisation comme aliment (humain ou animal) des insectes scatophages (avec bien des précautions!), très riches en protéines;
  • l’utilisation comme ciment dans la construction (ça se fait dans certains pays);
  • la fabrication d’objets en plastique (oui, ça se fait);
  • la production de vanille (c’est un peu un gag, mais un prix Ig Nobel a été accordé pour cette découverte);
  • la production de papier (voir la dernière phrase de cette section).

L’auteur précise que ces techniques ne sont pas toutes désirables et que les utilisations comme engrais et comme combustible demeureront les plus courantes. Cela dit, devant une question d’une telle complexité, chaque utilisation doit être analysée attentivement, les effets négatifs de toute solution risquant d’en surpasser les avantages… Voici comment il résume la question à la toute fin de son livre :

«Si intelligentes que soit nos techniques, elles ne seront utiles et efficaces que si elles sont conçues dans les contextes socioécologiques appropriés. La grande question n’est pas : «Pouvons-nous concevoir de nouvelles techniques fondées sur la merde?» (bien sûr que nous le pouvons). La question est : «Pouvons-nous nous réorganiser de manière à ce que les techniques que nous concevons favorisent une planète prospère et durable, accueillante pour notre espèce?».

Pouvons-nous imaginer pour le XXIème siècle un civisme holacratique qui tienne compte de notre appartenance à la stupéfiante panarchie codépendante et coévolutive de millions d’espèces de plantes, d’animaux et de bactéries, tout en reconnaissant la richesse et l’inventivité de la culture humaine? Pouvons-nous admettre, librement et ouvertement que notre façon de manger et notre façon de traiter notre merde sont des actes essentiels de civisme, aussi importants que notre façon de voter? (…) En connaissant la merde, l’incertitude et la complexité, nous avons de grandes chances d’offrir quelques belles possibilités aux générations futures.»

Et alors…

Alors, lire ou ne pas lire? Lire, sans faute! Tout d’abord, il s’agit d’un sujet sur lequel on est presque certain d’apprendre quelque chose. Ensuite, mon billet n’a pas pu élaborer sur tous les exemples fournis par l’auteur, ni mentionner les nombreuses anecdotes qui allègent la lecture de ce livre et permettent d’améliorer la compréhension des enjeux majeurs qui entourent cette question. Chose certaine, tout discours écologique se doit de tenir compte de la gestion des excréments, discours que je n’ai pas lu ou entendu souvent!

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 250 autres abonnés