Faire la morale aux robots
Avec son livre Faire la morale aux robots – Une introduction à l’éthique des algorithmes, Martin Gibert, philosophe spécialisé en psychologie morale et chercheur en éthique de l’intelligence artificielle à l’Université de Montréal, montre que, alors que les robots «sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites».
Introduction – le bus des jours fériés : «Avec quelle sorte de robots voulons-nous vivre?», se demande l’auteur en regardant ses voisines d’autobus (il était le seul homme dans cet autobus). C’est à cette question qu’il tente de répondre avec ce livre en se penchant sur l’éthique des algorithmes, concept qu’il préfère à celui de l’éthique des robots. Il le distingue aussi de l’éthique de l’intelligence artificielle (IA) qui concerne plus ce qu’on veut faire avec l’IA que de la façon de la programmer.
Le vieillard ou l’enfant : En utilisant le dilemme du tramway et ses variantes, l’auteur confronte l’éthique utilitariste de Bentham avec l’éthique déontologique de Kant qui considère que le devoir l’emporte sur ses conséquences. Si ce genre de dilemme risque peu de survenir dans notre vie puisqu’on agirait plus par réflexe qu’à la suite d’une longue réflexion, il se pose directement aux programmeurs qui doivent trancher à ce sujet dans leurs algorithmes.
Aristotle (MD) et l’intelligence artificielle : «Aristotle est un assistant virtuel destiné aux enfants». Il a été retiré du marché en raison de nombreuses plaintes, notamment parce qu’on l’accusait d’intrusion dans leur vie privée, donc en raison de son éthique déficiente. L’auteur profite de cet exemple pour tenter de circonscrire ce qu’est une intelligence et de décrire les différentes formes d’intelligences artificielles. Il analyse ensuite la responsabilité des actions de ces robots et les conséquences de leur absence de sensibilité et de conscience.
Les trois robots : L’auteur analyse différentes règles éthiques que pourraient suivre les voitures autonomes et d’autres types de robots, et les conséquences de ces règles. Il présente par la suite des principes qui devraient guider ces règles, quoique leur application pose d’autres problèmes qu’il n’est pas nécessairement possible de résoudre. Non, ce n’est pas simple de faire la morale aux robots!
Attention, superintelligence : Bien des gens prévoient l’émergence prochaine de l’IA générale, qui serait une superintelligence et qui surpasserait donc nos capacités. Ce serait ainsi la dernière invention humaine, car cette IA prendrait le relais des humains, ce qui pourrait représenter un danger majeur pour leur existence. Cette possibilité accentue le besoin de doter les algorithmes de l’IA de valeurs éthiques qui empêcheraient ce genre de catastrophe, même si, en fait, une IA générale n’est pas pour demain.
Isaac et Ursula : L’auteur présente les lois de la robotique des romans d’Isaac Asimov. Il trouve qu’elles vont dans le bon sens, mais aussi qu’elles sont incomplètes et trop génériques, ce qui explique les nombreux dilemmes qui surgissent dans ces romans. Ensuite, il décrit et déplore l’hégémonie masculine, blanche et antisociale dans le domaine de la programmation, situation qui risque de déboucher sur une éthique des algorithmes qui leur ressemble. Cette hégémonie s’observe aussi dans les données qui servent à l’apprentissage des robots.
Métaéthique pour programmeuses : Dans ce chapitre écrit au féminin (comme les prochains) pour réagir à l’hégémonie masculine mentionnée précédemment, l’auteur aborde le relativisme moral, se demandant s’il est possible de dégager une théorie morale idéale et universelle. Il suggère l’utilisation du voile d’ignorance, comme le faisait notamment John Rawls, pour déterminer quelle posture morale l’emporte. Il aborde finalement la question des émotions qu’un robot ne peut pas ressentir, mais qu’il peut apprendre à percevoir.
Faire des robots vertueux : Même si on s’entendait sur la morale que nous aimerions voir les robots appliquer, encore faudrait-il trouver les données qui permettraient aux robots de l’apprendre. L’auteur propose de collecter ces données auprès des personnes les plus vertueuses. Mis à part le problème du choix de ces personnes, il est clair qu’elles ne réagiraient pas toutes de la même façon aux événements. Mais l’auteur propose une solution à ce problème que je vous laisse le plaisir de découvrir en lisant ce livre…
Conclusion – une cité incroyable : À partir d’une nouvelle d’Ursula Le Guin, l’auteur montre les limites des éthiques utilitaristes et déontologiques. Et il conclut :
«Bref, faire la morale aux robots, lorsqu’on y regarde de près, ça revient pas mal à faire de la morale tout court. Et de la politique. Ça revient à bâtir, pour nous toutes, une cité juste et bonne.»
Et alors…
Lire ou ne pas lire? Lire! La plus grande qualité de ce livre relativement court (moins de 100 pages) est de nous sensibiliser à la complexité de l’éthique des algorithmes et de nous faire réfléchir, et pas seulement sur le problème soulevé, mais aussi sur la morale en elle-même et sur le concept de vertu. Non, il n’y a pas de solution unique à ce problème, mais seulement des pistes de solutions. L’auteur sait rendre son livre agréable à lire grâce à son style clair et à ses comparaisons pertinentes et parfois amusantes. Et les notes sont en bas de page!
Un livre de plus que j’ajoute à ma liste, merci ! Je suis particulièrement curieux de lire le chapitre « Métaéthique pour programmeuses ».
J’aimeAimé par 1 personne
En fait, ce sujet est aussi abordé dans le chapitre précédent, qui met la table pour celui-ci.
J’aimeJ’aime