Aller au contenu principal

Quelques études sur l’automatisation des emplois (3)

12 janvier 2018

Ce billet est le dernier d’une série de trois sur les récentes études sur l’automatisation de l’emploi. Après avoir présenté deux études sur l’impact qu’aura l’intelligence artificielle sur l’emploi au cours des prochaines décennies et deux autres sur les effets passés des changements technologiques sur l’emploi, je vais ici en commenter deux autres qui portent sur des sujets bien différents.

Une technologie à usage général

La première étude que je vais présenter est intitulée The Impact of Artificial Intelligence on Innovation (L’impact de l’intelligence artificielle sur l’innovation), date de septembre 2017 et a été rédigée par Iain M. Cockburn, Rebecca Henderson et Scott Stern. Les auteur.es précisent qu’il s’agit d’une version préliminaire, qu’elle n’a pas été révisée par des pairs et qu’on doit donc ne pas la citer ou la commenter. Comme je ne compte mentionner que quelques aspects de cette étude, je respecterai donc l’esprit de cette demande. Notons que cette étude n’était plus sur Internet quand j’ai publié ce billet. Je vais tout de même laisser le lien au cas où elle revienne.

Cette étude ne s’intéresse pas directement aux effets de l’intelligence artificielle (IA) sur l’emploi, mais sur l’innovation, qui a, dans un deuxième temps, des effets sur l’emploi. Les auteur,es soulignent tout d’abord que, si l’IA a le potentiel de changer le processus d’innovation en lui-même, aucune tentative à cet effet n’en est arrivée là jusqu’à maintenant. En fait, mis à part certaines applications en robotique et dans quelques autres domaines, les auteur.es se demandent jusqu’à quel point l’IA ne sert pas seulement à implanter de nouvelles technologies, mais n’est pas aussi et surtout une technologie à usage général (TUG) qui influencera les progrès technologiques à long terme dans une foule de domaines difficiles à identifier pour l’instant. Elle inventerait alors une nouvelle méthode d’invention (les auteur.es parlent d’«invention of a method of invention») qui lui permettrait de s’adapter à des contextes particuliers et d’ainsi créer des types d’innovations plus variées, notamment grâce à ses capacités en apprentissage automatique («machine learning»). Les auteur.es donnent comme exemple de TUG l’invention des moteurs électriques qui a permis dans un premier temps seulement quelques applications, mais a entraîné à long terme des changements technologiques et organisationnels dans un grand nombre de secteurs économiques et même la création de nouveaux secteurs. Il en fut de même avec l’invention du microprocesseur.

L’étude se penche ensuite sur d’autres aspects de la question. Par exemple, les auteur.es s’inquiètent de la possibilité que des entreprises revendiquent la propriété de données massives d’usage général et que les règles de la propriété intellectuelle puissent ralentir certaines applications de l’IA : «Des droits de propriété trop restrictifs, sans possibilités d’utilisation par d’autres selon des conditions acceptables, peuvent entraîner un empêchement («hold-up», en anglais) pour la création d’innovations de stades ultérieurs et ainsi réduire l’impact final de l’IA en termes d’applications commerciales (ou autres)».

Les auteur.es abordent d’autres sujets dans les sections suivantes, mais compte tenu de leur demande, je vais m’arrêter là. Les deux éléments que j’ai présentés (le concept de technologie à usage général associé à l’IA ainsi que les conséquences possibles de la propriété intellectuelle) permettent de mieux comprendre qu’une bonne partie des innovations mentionnées dans les études futuristes risquent en fait de ne se réaliser qu’à long terme, et non pas d’ici cinq, dix ou même vingt ans comme trop d’études le prétendent. C’est déjà beaucoup.

Les sept péchés capitaux des prévisions sur l’intelligence artificielle

«Nous sommes inondés de prévisions hystériques à propos de l’intelligence artificielle et de la robotique, nous avertissant qu’elles vont devenir tellement puissantes, et cela tellement rapidement, et qu’elles seront impitoyables pour les emplois». Ainsi commence un texte de Rodney Brooks, un roboticien et entrepreneur en robotique australien, datant d’octobre 2017, et intitulé The seven deadly sins of AI predictions (Les sept péchés capitaux des prévisions sur l’intelligence artificielle). Tout de suite après cette amorce percutante, l’auteur fait comme je l’ai fait souvent, il dénonce les conclusions de l’étude de Carl Benedikt Frey et Michael A. Osborne qui prévoyait en 2013 la disparition de la moitié des emplois en seulement 10 ou 20 ans, la jugeant carrément ridicule. Il donne comme exemple la prévision de cette étude comme quoi le nombre de manœuvres en aménagement paysager et en entretien des terrains passerait d’un million à 50 000 d’ici 10 à 20 ans parce qu’ils seraient remplacés par des robots, alors qu’aucun robot n’existe actuellement dans ce domaine (j’ajouterai que ce travail étant extérieur, dans un environnement non contrôlé, il devrait être un des moins menacés par l’automatisation). Inspiré par cette étude bâclée, l’auteur présente les sept erreurs les plus classiques des futurologues catastrophistes.

1. Surestimation et sous-estimation : À ce sujet, l’auteur cite la Loi d’Amara : «on tend à surestimer l’effet d’une technologie à court terme et à sous-estimer ses effets à long terme». Il donne comme exemple de l’application de cette citation le Global Positioning System (ou GPS) qui bien que mis en place de 1973 à 1978 (pour faciliter la livraison de munitions pour l’armée), sera peu utilisé pour la fonction pour laquelle il a été créé, mais est maintenant répandu partout, représentant notamment une application de base dans les téléphones cellulaires. Ses concepteurs ont sûrement été déçus du peu d’utilisation du système à ses débuts par l’armée, mais seraient renversés de le voir maintenant comme un outil de base. Il en sera probablement de même avec l’intelligence artificielle (IA) : ses premiers développements datent des années 1950 et on a surestimé son impact initialement et on sous-estime sûrement encore maintenant ses impacts à long terme, la seule incertitude étant la durée de ce «long terme».

2. Imaginer la magie : Cette fois, l’auteur nous parle des Trois lois de Clarke, du nom d’un écrivain de science-fiction qui croyait que rien n’est impossible, qu’il y a aucune limite aux possibilités de la technologie. En réaction à ces «lois», l’auteur imagine comment Newton réagirait s’il se faisait montrer un téléphone cellulaire qui peut servir à photographier, filmer, s’éclairer, se retrouver, communiquer avec des personnes à l’autre bout du monde, etc. Newton, n’ayant jamais même rêvé qu’une telle chose pourrait exister un jour, ne pourrait simplement pas imaginer les limites des possibilités de cet objet, comme le fait qu’on doit le recharger (l’électricité n’était pas découverte à son époque), que le fabricant peut le ralentir volontairement (OK, celle-là n’est pas dans le texte de Brooks…) ou qu’il ne peut pas nous téléporter ou transformer du cuivre en or (blague probablement basée sur le fait que Newton a fait de nombreuses recherches en alchimie). Selon l’auteur, un des problèmes quand on tente de prévoir les possibilités d’une nouvelle technologie est qu’on ne peut pas imaginer ses limites et qu’on ne peut pas non plus réfuter les affirmations même les plus ridicules. Il conclut ainsi ce péché : «Méfiez-vous des arguments qui avancent que la technologie future sera magique. Un tel argument ne peut jamais être réfuté. C’est un argument basé sur la foi, pas un argument scientifique».

3. La performance par rapport à la compétence : Quand on va dans une ville étrangère, on peut sans trop craindre de se tromper penser qu’une personne y habitant saura comment se rendre à un endroit précis. le mode de paiement d’un passage en transport en commun et bien d’autres informations sur cette ville. Nous sommes habitués à ainsi associer des compétences différentes. Par exemple, si une personne montre une photo de joueurs de frisbee, on pense qu’elle sera capable d’en reconnaître un et saura minimalement comment y jouer. Mais, ce n’est pas parce qu’un ordinateur contient la même photo qu’il saura ces choses. Ainsi, lorsqu’on apprend qu’un ordinateur peut réaliser une tâche humaine mieux que les humains, on tend à penser qu’il sera capable d’accomplir mieux toutes les autres tâches que peut accomplir une personne qui réalise la tâche que l’ordinateur peut réaliser mieux qu’elle. On pense qu’il ne pourra pas seulement remplacer un humain pour une tâche qu’il accomplit mieux, mais pour toutes les tâches que cet humain réalise. En fait, «les tâches que les robots et systèmes d’IA d’aujourd’hui peuvent accomplir sont incroyablement limitées. Les généralisations qu’on peut faire avec des tâches accomplies par des humains ne s’appliquent pas aux robots».

4. Les mots-valises : En anglais, un mot-valise («suitcase words») est un mot qui peut avoir plusieurs sens (alors qu’en français, il résulte «de la fusion d’éléments empruntés à deux mots»). Apprendre («learn») est un exemple de ces mots. «Apprendre à utiliser des baguettes est une expérience très différente de l’apprentissage d’une nouvelle chanson. Et apprendre à écrire du code est une expérience très différente d’apprendre à se retrouver dans une ville». Malgré ces différences, trop de gens qui entendent parler de l’apprentissage automatique («machine learning») associent cet apprentissage à celui d’un humain qui apprend une nouvelle compétence. L’apprentissage automatique est en fait beaucoup plus lent et fragile que celui d’un humain, et est conçu pour des compétences bien précises, avec «une structure d’apprentissage spécifique à chaque nouveau domaine à apprendre». L’ordinateur qui a appris à jouer au go et à y battre les meilleurs joueurs humains devrait repartir à zéro si on voulait qu’il apprenne un nouveau jeu, ou même une variante du jeu de go. Ses compétences acquises pour cette tâche ne sont pas du tout transférables. Selon l’auteur, ce mot-valise et d’autres utilisés par les chercheur.es et surtout par les responsables à l’information induisent les gens en erreur sur les aptitudes des machines.

5. Exponentiel : J’ai déjà pensé utiliser ce mot dans ma série sur les expressions qui me tapent sur les nerfs… Comme moi, l’auteur déplore que trop de gens «souffrent d’un grave problème d’«exponentialisme». Il nous rappelle cette fois la Loi de Moore, qui, dans ses trois versions, avance que certaines choses doublent avec la régularité d’une horloge (chaque année, aux dix-huit mois ou aux deux ans). En fait, sa loi a fonctionné des années pour le nombre de transistors que peuvent contenir des semi-conducteurs, mais a fini par atteindre ses limites physiques. L’exponentialisme consiste à appliquer la Loi de Moore à différents sujets et à se servir de cette loi comme argument pour justifier son raisonnement, argument qui devient bien sûr à ce moment un sophisme. Mais le pire, on l’a vu, c’est que la progression des lois de Moore n’est pas vraiment exponentielle, car elle finit toujours par atteindre des limites physiques ou de rentabilité (ça coûterait trop cher de doubler encore et la demande ne le justifie pas). Il en est de même en IA. S’il est vrai que la performance de l’IA a connu une progression fulgurante au cours des dernières années, notamment grâce au succès de l’apprentissage profond (ou «deep learning»), rien ne dit que ce rythme de progression se poursuivra. Au contraire, il serait étonnant qu’une autre découverte aussi importante que l’apprentissage profond survienne annuellement… Cela dit, il y aura certainement d’autres périodes de forte croissance, mais il n’y a aucune loi pour régir ou prévoir la fréquence de ces périodes.

6. Les scénarios hollywoodiens : Dans les films de science-fiction, on présente généralement l’avenir comme s’il était comme maintenant, mais avec des progrès énormes dans seulement quelques domaines, le reste étant semblable à ce qu’on vivait au moment du tournage. L’auteur donne l’exemple d’un film où le héros parle avec un robot avant d’ouvrir un journal en papier (L’Homme bicentenaire). C’est souvent le cas des gens qui craignent que l’IA permette aux machines de prendre le contrôle du monde et de se débarrasser des êtres humains. Ils ne réalisent pas que si de tels progrès survenaient, cela se ferait de façon graduelle et que bien d’autres choses auraient changé. Ces «robots» superintelligents n’apparaîtront pas soudainement pour nous prendre par surprise. Nous aurons en masse le temps de réagir, notamment avec d’autres machines moins malignes et moins belliqueuses. «Nous allons changer notre monde graduellement, en ajustant à la fois l’environnement pour les nouvelles technologies et les nouvelles technologies elles-mêmes. Je ne dis pas qu’il n’y a pas de défis. Je dis qu’ils ne seront pas soudains et inattendus, comme beaucoup le pensent».

7. Vitesse de déploiement : Si mettre à jour un logiciel est rapide, c’est parce que c’est peu coûteux, avec un coût marginal presque nul (mettre un milliard de copies de Facebook à jour ne coûte pas beaucoup plus cher que de mettre une seule copie à jour). Par contre, le déploiement de l’équipement informatique est beaucoup plus coûteux, chaque appareil représentant une dépense non négligeable. De même, un bon nombre des autos et des camions actuellement sur nos routes le seront encore dans 10 ou même 20 ans. Ce facteur fait en sorte que, même si les véhicules autonomes étaient au point (ce qui n’est pas le cas), leur déploiement ne pourrait pas être instantané, ni même rapide, d’autant plus que rien ne dit que ce seront tout d’un coup les seuls véhicules vendus sur le marché (il se vendra encore des automobiles non autonomes bien moins chères quand les premières voitures autonomes seront sur le marché, et ces automobiles circuleront sur nos routes pendant des années). L’auteur donne ensuite de nombreux autres exemples du genre (maisons, avions, ordinateurs, vieux logiciels encore opérants, etc. Il conclut :

«De nombreux chercheurs et experts de l’IA s’imaginent que le monde est déjà numérique et que la simple introduction de nouveaux systèmes d’IA se traduira immédiatement par des changements opérationnels sur le terrain, dans la chaîne d’approvisionnement, dans l’usine, dans la conception des produits. Rien ne pourrait être plus éloigné de la vérité. Presque toutes les innovations en robotique et en intelligence artificielle prennent beaucoup, beaucoup plus de temps pour être réellement déployées que les gens sur le terrain et en dehors du champ imaginent.»

Et alors…

Les deux textes présentés dans ce troisième billet sur l’automatisation des emplois portent sur des aspects non traités dans les billets précédents. Le premier nous permet de mieux comprendre ce qu’est une technologie à usage général et les conséquences de cet aspect et des règles de propriété intellectuelle sur la vitesse d’implantation des applications de l’IA, tandis que le deuxième, probablement celui que j’ai préféré des six textes présentés dans cette série, souligne avec compétence et de façon claire et amusante les erreurs de faits et de raisonnement les plus courantes chez les personnes qui pensent que l’IA modifiera notre monde de façon fondamentale d’ici moins de 20 ans.

Depuis le début de cette série, on n’a pas arrêté d’écrire sur le sujet. J’ai d’ailleurs lu la semaine dernière une autre étude sur ce sujet, mais même si elle contient deux ou trois trucs intéressants sur les dangers de l’utilisation de l’IA pour aider les institutions financières à prendre des décisions sur leurs clients à l’aide de données personnelles massives, je ne vais pas la présenter ici. Je vais plutôt attendre de mettre la main sur des textes qui apportent des contributions importantes à la compréhension du phénomène de l’automatisation des emplois, comme les six que j’ai présentés dans cette série de billets, avant de revenir sur ce sujet. J’espère que vous avez apprécié!

6 commentaires leave one →
  1. Richard Langelier permalink
    13 janvier 2018 2 h 45 min

    Moi, j’ai apprécié, ceci dit sans basses flatteries, tu me connais!

    Aimé par 1 personne

  2. 13 janvier 2018 21 h 44 min

    Un merci général pour ce blogue (et pour le billet précédent sur Le piège de la liberté). Deux points:

    A- que pensez-vous de cette affirmation: « Les personnes remplacées par des robots ont voté Trump » (aphorisme construit pour rentrer dans ce twit https://twitter.com/PaulJorion/status/951596442623381507)

    B- Pourquoi en vouloir aux exponentielles? Une croissance relative (donc en %) constante, même modeste de 3% par année, résulte en une fonction exponentielle, du type y(t) = A^t . Sauvez les exponentielles!

    J’aime

  3. 14 janvier 2018 12 h 35 min

    «Les personnes remplacées par des robots ont voté Trump»

    Il faudrait que je lise l’article du NY Times pour me prononcer (et, il n’est même pas certain que je le ferais, dépendant de son contenu), mais comme on n’a droit qu’à 5 articles par mois, j’hésite un peu à en consacrer un à cet article…

    «Pourquoi en vouloir aux exponentielles?»

    Comme Brooks, je n’ai rien contre, mais j’en ai contre les gens qui en voient partout où il n’y en a pas ou qui pensent que les tendances exponentielles sont toujours éternelles (et qu’elles n’ont pas de limites)!

    Et, merci pour les bons mots!

    J’aime

  4. 15 janvier 2018 8 h 19 min

    « L’ajout d’emplois consécutifs à un changement technologique se réalise plutôt dans d’autres secteurs de l’économie grâce à la hausse de la demande globale qui provient des gains en productivité des changements technologiques »

    Peut-être… en autant que A- les gains ne soient pas accaparés par les détenteurs du capital… sinon la demande globale ne croît pas,

    et en autant que B- les ressources terrestres permettent l’accroissement de la demande. Ces deux conditions ne semblent pas constatées.

    https://www.youtube.com/watch?v=0xKXpw-Yez8 pour A
    https://ourfiniteworld.com/about/ pour B

    PS: oui je ne suis pas dans le bon billet sur l’automatisation… mon extrait provient d’un billet précédent.

    J’aime

Trackbacks

  1. Utopies réalistes |
  2. Ça augmente de façon exponentielle |

Laisser un commentaire