Aller au contenu principal

Big Data : faut-il avoir peur de son nombre?

29 juin 2020

Big DataAvec son livre Big Data : faut-il avoir peur de son nombre?, Pierre Henrichon «déploie une analyse percutante des dynamiques sous-jacentes à ce véritable complexe sociotechnique et financier qu’est le phénomène du Big Data, mais offre également un vibrant plaidoyer contre cette tendance à réduire l’humain à une forme de capital dont il faut uniquement mesurer le rendement».

Introduction : «L’énoncé est devenu banal: nos institutions politiques, nos démocraties sont en crise». Les causes de cette crise sont aussi nombreuses que le nombre d’auteur.es qui les ont analysées. Après cette entrée en matière, l’auteur présente l’objectif de ce livre et le contexte dans lequel il se situe.

1. Aux sources de la marchandisation totale : L’auteur se demande «comment le marché est devenu synonyme de société» (moi qui ne le savais même pas!). Il nous présente comme piste de réponse les fondements philosophiques et moraux de l’économie classique.

2. Le rêve cybernétique – une société de sujets contrôlables : L’auteur explore les changements sociaux apportés par la cybernétique grâce à la facilité de traitement de l’information qu’elle permet (je simplifie), changements encore accentués avec le Big Data. Comme il repose sur des données passées individuelles pour prévoir les désirs et les comportements, «Le collectif se dissout dans l’individuel, le politique dans le psychologique. Cela sert bien tous ceux ayant intérêt à dissoudre la société dans le marché». Cette information sert bien sûr aux publicitaires et vendeurs de tout et de rien, mais aussi auxpartis politiques qui sauront adapter leur message (en fait, leurs messages) en fonction de chacune des personnes visées.

3. Aux origines du Big Data : Au début d’Internet, la publicité était peu efficace. Puis sont arrivées les données massives (Big Data) comme base du «nouveau modèle d’affaires d’Internet». Ces données, fournies gratuitement et avec enthousiasme par les personnes qui utilisent Facebook, Google et consorts, ont pu être vendues aux annonceurs et à bien d’autres clients, notamment aux courtiers en information dont l’auteur nous parle plus en détail.

C’est comme si le téléphone et les interurbains étaient gratuits, mais que les conversations seraient enregistrées et vendues, puis qu’on recevrait ensuite des appels des annonceurs intéressés par ce qu’on a dit au téléphone. Les usager.ères s’insurgeraient rapidement, mais ceux et celles de Facebook semblent ne pas s’en préoccuper, même si Facebook et les courtiers en information vont encore plus loin. L’auteur décrit à cet effet les très nombreuses sources de données qui sont utilisées par les courtiers en information pour en savoir le plus possible sur nous et les produits qu’ils vendent ensuite à l’aide de ces données, et montre le peu de pouvoir que nous avons sur le traitement et l’utilisation des données qui nous concernent pourtant. Il aborde aussi :

  • les données recueillies par l’Internet des objets et leur évolution prévue;
  • «l’absence de normes claires en matière de collecte et de vente de renseignements et l’inexistence d’une politique de confidentialité uniforme réglementée par l’État»;
  • le caractère de bien commun des données recueillies de cette façon;
  • la dataveillance, pas vraiment une surveillance, mais plutôt une veille pour pouvoir capter le plus de données possible sur tout le monde;
  • la supposée objectivité des algorithmes et des données;
  • le droit algorithmique qui repose sur des probabilités et non pas sur des certitudes;
  • les effets des algorithmes sur le monde du travail.

4. Quantification totale = concurrence totale : L’auteur retrace l’évolution des modes de gestion du travail (fordisme, gestion de la qualité totale, etc.) qui en sont arrivés à rendre les travailleur.euses de plus en plus malades, notamment dans le secteur de la santé (avec la méthode Lean ou Toyota). Il montre que toutes ces méthodes ont besoin de points de comparaisons et donc de données, et surtout de données quantifiables, d’indicateurs chiffrés. Or, un indicateur ne fait qu’indiquer quelque chose et n’est pas nécessairement un reflet fiable de ce qu’on veut réaliser.

En plus, en appliquant ces méthodes de nouvelle gestion publique à des secteurs qui ne sont pas en concurrence (éducation, santé, etc.), on dénature ces services, en ne tenant compte que de ce qui est mesuré, comme si le reste était sans importance. Cette gestion par le nombre favorise aussi la concurrence entre les employé.es et (ce qu’on dit rarement) nuit au travail d’équipe, valeur pourtant essentielle dans bien des milieux. Pour se défendre, les individus tendent à tricher, confirmant ainsi que «quand une mesure devient une cible, elle cesse d’être une bonne mesure» (constat auquel j’ai consacré un billet en 2010). Il en est de même des palmarès, qui modifient les comportements et les mesures en fonction de leurs critères bien souvent peu pertinents (l’auteur mentionne ceux des urgences et des universités et qui, comme d’autres, «masque[nt] toute la complexité du réel»).

5. Quantification, informatisation et Big Data : L’auteur décrit un ensemble d’utilisation des outils de quantification et des données massives, ainsi que leurs effets pervers. Si la plupart des exemples de ce chapitre sont éclairants et justes, j’ai trouvé sa critique de la définition du taux de chômage peu pertinente (et même en partie fausse et conspirationniste), d’autant plus qu’il n’en propose pas d’autres.

6. Automatisation, précarisation et dépolitisation : L’auteur commente dans ce chapitre les effets de la quatrième révolution industrielle et l’importance que les données auront sur cette «nouvelle» économie. Il cite entre autres (et même plus d’une fois, à mon désespoir) l’étude bâclée de Carl Benedikt Frey et Michael A. Osborne (que j’ai démolie dans ce billet) pour appuyer sa vision dystopique de l’avenir du marché du travail. Et, il ne mentionne pas que le taux de chômage a atteint des planchers et l’emploi des sommets aux États-Unis et au Canada quand il écrivait son livre. Il ne dit mot non plus de la stagnation de la croissance de la productivité, ce qui contredirait son propos.

Il aborde ensuite les applications de l’intelligence artificielle et des données massives en santé, sur la main-d’œuvre et en éducation. Dans ce dernier cas, il souligne notamment que la part du PIB consacré à ce secteur entre 1971 et 2011 au Canada est passée de 7,7 % à 4,6 %, une baisse de 40 %, sans mentionner que la proportion de la population âgée de moins de 18 ans est passée de 35,8 % à 20,2 %, une baisse de 43 %; cela dit, il a raison de déplorer la marchandisation de ce secteur, quoique bien d’autres facteurs que l’intelligence artificielle et les données massives ont contribué à cette situation. Il présente ensuite les conséquences de l’accaparement croissant des richesses par le capital sur les inégalités (mais avec quelques erreurs dans les données qu’il utilise, confondant par exemple la part des revenus avec la part du patrimoine détenue par les plus riches et se mêlant dans les statistiques sur le marché du travail), la précarisation de la main-d’œuvre (autre analyse douteuse, où il confond notamment le travail atypique et le travail précaire), la concurrence mondiale de la main-d’œuvre (ça va!), la croissance des petits boulots (gig workers), la flexibilisation du travail et la baisse du taux d’imposition des sociétés.

7. Refus, requêtes et conquêtes : L’auteur montre que la dystopie qu’il a décrite dans les chapitres précédents n’est pas inéluctable. Il revient sur les éléments les plus nocifs des changements décrits plus tôt, dont l’appropriation des données personnelles et les intrusions dans la vie privée, insistant sur les effets des objets connectés, des villes intelligentes, de la robotisation, de l’automatisation, de l’ubérisation du travail et de la surveillance des travailleur.euses. Puis, il présente différentes façons de combattre ces changements ou à tout le moins de contrer leurs effets les plus négatifs.

Conclusion : La cybernétique, le Big Data et le néolibéralisme sont «les trois grands propulseurs d’une convergence qui a pour effet d’instituer des pouvoirs de contrôle sur les humains». Ils minent toutes les institutions que nous avons «mises en place au fil des siècles», que ce soit pour encadrer le travail et l’économie, ou pour nous gouverner et pour tendre vers le bien commun. L’auteur recommande de «conquérir une autodétermination informationnelle, tant individuelle que collective», en manifestant notre droit de refuser la marchandisation de nos données personnelles. Et il conclut :

«Face aux Goliaths de l’économie de la donnée, de nouvelles coalitions s’organisent; les revendications se précisent et, souvent, se radicalisent; des réglementations plus contraignantes sont adoptées; des enquêtes sont diligentées. Notre tâche collective est claire: participer à ces mouvances et résistances de manière à nous réapproprier notre avenir.»

Et alors…

Lire ou ne pas lire? Pas vraiment. Si certaines analyses de l’auteur sonnent juste, comme celles sur la mainmise des données personnelles, d’autres se basent davantage sur des prévisions dystopiques qui reposent sur des données bien fragiles. Comme mentionné dans le billet, non, l’emploi ne diminue pas (sauf cette année, mais pas à cause des données massives!) et la croissance de la productivité n’augmente pas. J’ai aussi trouvé dans ce livre des contradictions assez gênantes, comme de dire qu’une entreprise peut se passer de main-d’œuvre tout en déplorant qu’elle s’installe dans des pays à bas salaires pour que la main-d’œuvre lui coûte moins cher! De même, il cite des prévisions pour 2019, alors que ce livre est paru en 2020. J’ai aussi remarqué que les sources utilisées datent souvent de quelques années, ce qui est inapproprié pour un sujet qui évolue aussi rapidement.

Pourtant, l’article du Devoir qui m’a incité à me procurer ce livre (son titre est aussi excellent et accrocheur) laissait entrevoir une analyse nuancée et bien documentée (il y a en effet beaucoup de références, même si pas toutes pertinentes et allant toutes dans le même sens). J’ai en plus lu bien des livres et études qui ont bien mieux abordé ce sujet, dont le livre Algorithmes : la bombe à retardement de Cathy O’Neil que j’ai présenté dans ce billet (et que l’auteur cite). Cela dit, soyons clairs. J’appuie beaucoup des idées de l’auteur, surtout sur la protection des données personnelles et l’utilisation abusive de données décontextualisées par des entreprises qui ne visent qu’à maximiser leurs profits au détriment du bien commun. C’est sa démonstration qui me semble trop souvent bancale et peu nuancée.

Notons finalement que les 376 notes, aussi bien des références que des compléments d’information, s’étendent sur 40 pages à la fin du livre, représentant ainsi plus de 20 % de son contenu. Heureusement, je l’ai lu en format électronique.

One Comment leave one →
  1. 29 juin 2020 22 h 32 min

    Je répète que j’appuie les constats de l’auteur sur la protection des données personnelles. C’est rendu que même Tim Hortons nous espionne!

    «Cette enquête fait suite à des reportages dans les médias qui ont soulevé des inquiétudes liées à la manière dont cette application pourrait recueillir et utiliser les données sur les déplacements de ses utilisateurs lorsqu’ils vaquent à leurs occupations quotidiennes.»

    https://www.ledevoir.com/societe/581659/une-enquete-conjointe-a-ete-lancee-sur-l-appli-de-commandes-de-tim-hortons

    J'aime

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :