Le journal La Presse publiait hier un article traitant des défis liés à la morale qui s’imposent de plus en plus à nous, en cette ère de début de l’intelligence artificielle (l’« IA », ou « AI », selon l’acronyme en anglais). En l’occurrence, le contrôle que place l’IA dans les mains d’appareils tangibles ne peut faire autrement que de mener, au fil des situations factuelles dans lesquelles sont placés ces objets, à des dilemmes qu’on qualifierait de dilemmes moraux si des humains les rencontraient. Le temps venu, comme ces décisions seront le fruit de la programmation, au-delà de la morale, le droit pourrait en venir à remettre en question ces choix. Devrait-on réfléchir à ce qu’on apprend aux IA ou quant aux choix qu’on leur dit de faire ? À y réfléchir, difficile de penser le contraire, particulièrement en droit.
En gros, tout le problème dont on parle ici est le successeur du « dilemme du tramway », une question utilisée par les philosophes depuis quelques décennies pour réfléchir au concept des valeurs (éthiques) et de la morale. Ce dilemme est celui qui se présenterait à un conducteur de tramway, résumé comme suit sur Wikipédia : « une personne peut effectuer un geste qui bénéficiera à un groupe de personnes A, mais, ce faisant, nuira à une personne B ; dans ces circonstances, est-il moral pour la personne d’effectuer ce geste ? ». Bref, en cas de collision inévitable à gauche ou à droite, de quel côté doit-on aller, par exemple s’il y a un seul individu à droite, mais un groupe à gauche?
Selon plusieurs, le degré d’autonomie conféré à des systèmes et des appareils dotés d’IA implique une réflexion préalable à laquelle devraient s’adonner les créateurs et promoteurs de ce genre de technologies. Selon plusieurs, on devrait anticiper l’interaction future, inévitable, entre la santé d’êtres humains et les gestes de machines pilotées par l’IA. L’exemple peut-être le plus frappant à ce sujet implique les véhicules autonomes qui, comme chacun le sait, font progressivement leur entrée sur nos routes. En somme, en cas de réalisation par un tel véhicule qu’un accident est inévitable, comment devrait-on avoir programmé l’IA quant aux choix qu’il fera, par exemple, quant à qui se fera frapper par le véhicule ? Si la voiture frappera quelqu’un ou quelque chose à coup sûr, doit-elle exercer un jugement sur qui elle choisira ? C’est le genre de question qui se pose de façon prospective.
Bien que largement théorique pour l’instant, la question type revient à se questionner sur qui devrait être épargné en cas d’accident qui ne peut être complètement évité. Dans une telle situation, si l’IA peut éviter un préjudice à certains, mais pas à tous les humains impliqués, existe(ra)-t-il un barème moral devant dicter à l’IA quels choix effectuer ? et si oui, lequel ? L’IA doit-il, par exemple, privilégier (ou au contraire défavoriser) la protection de certains groupes d’âge, comme les enfants ou les vieillards ? Les femmes ? Les gens plus en santé ? Les minorités ethniques ? Les animaux ? Ceux qui violent la loi ? etc. Bref, nos choix de programmation composeront une partie de la moralité que se retrouvera à exprimer notre société, par l’entremise des appareils autonomes de demain. Il y a donc un argument à faire qu’une réflexion s’impose dès maintenant notamment, peut-être, afin de doter nos machines autonomes de certaines valeurs, lesquelles se manifesteront ensuite dans les choix qui seront faits, au fil du fonctionnement et de l’utilisation de ces appareils, dans diverses situations.
Puisque c’est l’humain qui programme l’IA ultimement, on en est donc à se demander si les constructeurs devraient munir leurs appareils (véhicules, etc.) d’une boussole morale, en quelque sorte. Le développement de l’IA devrait-il chercher à doter l’IA d’une morale ou d’éthique? À force de réflexion, l’industrie réalise qu’une telle tournure de l’industrie de l’IA s’avère probablement en réalité inévitable, puisqu’on doit, par définition, dire à l’IA comment on veut qu’elle se comporte. On apprend ainsi à une IA conductrice de véhicule à respecter les règles de sécurité routière quand tout se passe normalement. Par contre, en pratique, on doit aussi « apprendre » à l’IA comment on désire qu’elle réagisse en cas de problème. Comme les imprévus sont une réalité inévitable de la conduite, on doit inévitablement encadrer ces « imprévus », ce que feront les constructeurs et développeurs en donnant un cadre de réflexion à leurs véhicules. Imbriquer nos valeurs dans l’IA s’avère donc une démarche incontournable, notamment parce que l’IA est une machine à faire des choix, choix qui impliqueront souvent de peser ou sous-peser des valeurs concurrentes. Tout véhicule autonome sera tôt ou tard forcé de faire un choix entre la santé de X et celle de Y, c’est inévitable.
Bien que l’exercice puisse sembler relever de la philosophie, on peut déjà anticiper que la réalité ramènera rapidement le débat au niveau des pâquerettes quand, par exemple, un accident se produira suite à la décision d’un véhicule autonome de frapper telle personne plutôt que telle autre. Facile de comprendre pour tout juriste que l’une des premières questions qui seront posées alors est de savoir pourquoi ce choix a été fait dans ces circonstances exactes. En cas d’accident avec des morts ou des blessés que l’IA aurait été en mesure d’éviter (s’il avait fait un choix autre), pourra-t-on alors tenir le manufacturier responsable ? Tous les choix possibles d’un véhicule alors s’avèrent-ils valables au moment de la programmation ? La question se pose et se posera de plus en plus, au fil du développement et de l’utilisation des véhicules autonomes. Impossible qu’il en soit autrement, en fait.
C’est donc là le genre de débat juridique vers lequel nous nous acheminons à 100 km/h, au fur et à mesure de l’entrée des véhicules autonomes sur nos routes.
Fait intéressant, selon l’article de La Presse, des chercheurs universitaires auraient mis au point un outil cherchant à poser les bases d’une éthique morale universelle qu’on pourrait éventuellement appliquer à l’IA. Un site Web aurait ainsi interrogé des internautes de divers pays en posant des questions visant à connaître les valeurs qu’elles appliqueraient dans telle ou telle situation, tirées de scénarios d’accidents projetés aux diverses victimes potentielles. Selon l’article, les résultats démontreraient de grandes disparités de résultats causées par des facteurs culturels et sociaux. En somme, la bonne réponse à tel ou tel scénario pourra varier, réfutant ainsi la thèse que les êtres humains peuvent s’entendre parfaitement quant à ce que signifie avoir un comportement moral. Sans grande surprise, la réponse typique à tel ou tel scénario pourra varier d’un pays à l’autre. Les Canadiens, par exemple, sembleraient privilégier le fait d’épargner un plus grand nombre de vies humaines, ce qui ne serait pas une réponse qui va de soi pour tous les pays. La morale possède quelque chose de très culturel après tout.
Les quarante millions de réponses obtenues par l’entremise du site Web du projet de recherche universitaire mentionné ci-dessus seraient dorénavant mis à la disposition des entreprises œuvrant en IA. On espère ainsi faire avancer le domaine, en permettant peut-être de jeter ainsi les bases d’un sous-domaine lié à l’IA et qui viserait à doter ces choses autonomes d’un peu plus d’humanité sous le capot.
Malgré l’intérêt universitaire pour ce genre de questions, l’article reconnaît néanmoins que les sociétés innovantes dans ce domaine (comme Waymo et Uber) ne sont pas nécessairement aussi intéressées à ce genre de questions, qu’à développer et mettre en marché le plus rapidement possible des technologies, comme des véhicules autonomes, que pourront se procurer des acheteurs. Malheureusement, bien que l’exercice soit sans aucun doute intellectuellement valable, l’acheteur potentiel moyen n’y accorde pour l’instant que peu d’importance. La loi devait-elle tenter d’intervenir pour corriger le tir ? Cette question-là, aussi, se pose.