Prendre une décision n’est pas toujours un processus simple. Quand des implications morales entrent en jeu, trancher peut même devenir assez ardu. Or, qu’en est-il lorsque l’on délègue la décision à une machine ou à un algorithme ? Bien qu’étonnante, cette possibilité est déjà envisagée par certains. Pour Clayton Peterson, professeur au Département de philosophie et des arts de l’Université du Québec à Trois-Rivières (UQTR), cette proposition est cependant à considérer avec prudence.
Titulaire de la Chaire de recherche UQTR en éthique de l’intelligence artificielle, le professeur Peterson s’intéresse aux enjeux éthiques soulevés par l’émergence des nouvelles technologies. Situés à l’intersection des sciences sociales, de l’ingénierie et de l’informatique, ses travaux portent notamment sur les limites de l’automatisation du raisonnement et des comportements éthiques. Ses activités de recherche l’amènent ainsi à réfléchir non seulement aux principes qui devraient guider et encadrer l’utilisation de l’IA dans les différentes sphères de la société, mais aussi aux façons concrètes d’intégrer ces principes aux développements technologiques.
« Certains pensent que les technologies peuvent être éthiques en soi, capables d’agir éthiquement par elles-mêmes. Bien que l’intelligence artificielle et l’apprentissage automatique ouvrent la voie à de nouvelles possibilités, il subsiste cependant de nombreuses préoccupations éthiques fondamentales à cet égard. On peut penser entre autres à l’omission d’informations contextuelles pertinentes, à la résolution de dilemmes moraux, ainsi qu’aux biais dans les algorithmes. Cela soulève également la question de l’imputabilité : en cas d’erreur, une machine peut-elle être tenue responsable ? Cela sans compter que les théories éthiques sont multiples, et qu’elles se contredisent souvent. En ce sens, comment une technologie pourrait-elle prétendre avoir la bonne réponse face à un problème éthique ? », soulève le professeur.
La tête dans les usages
Afin d’éviter les dérapages liés à la propagation de l’intelligence artificielle, M. Peterson propose d’adopter une approche qui mise davantage sur l’éthique appliquée.
« Je souhaite développer une réflexion éthique sur les pratiques actuelles d’intégration de l’éthique aux développements technologiques. En ce moment, plusieurs réflexions faites en éthique de l’intelligence artificielle sont externes à ce qui se passe sur le terrain. On reprend divers principes de philosophie politique, sans nécessairement réfléchir à ce qui pourrait poser problème dans leur application concrète. Il s’agit d’une réflexion normative, théorique », note-t-il.
Afin de développer une approche axée sur la pratique, le professeur estime que les valeurs éthiques doivent être intégrées aux technologies elles-mêmes. Pour y parvenir, il défend l’importance d’un réel dialogue entre les disciplines et les différents secteurs, insistant sur le fait que les chercheurs issus des sciences humaines et sociales devraient s’intéresser davantage aux aspects techniques, afin de mieux comprendre le fonctionnement et les limites des technologies.
« Quand on parle d’éthique de l’intelligence artificielle, on a tendance à y voir deux sphères distinctes. Les chercheurs sont généralement soit experts de l’IA, soit experts en éthique, mais rarement experts des deux. Pourtant, la réflexion en éthique de l’IA est non seulement interdisciplinaire, mais surtout intersectorielle. On ne peut pas espérer qu’un ingénieur qui ne considère pas les problèmes éthiques et les conflits de valeurs inhérents à sa pratique puisse fournir des développements technologiques éthiques. À l’inverse, une réflexion éthique qui ne tient pas compte des réalités pratiques et techniques de l’intelligence artificielle ne sera jamais concrètement applicable », précise-t-il.
Dans cette optique, les travaux du professeur Peterson sont subventionnés par les Fonds de Recherche du Québec par le biais du programme AUDACE International « Québec-Luxembourg », qui encourage les collaborations intersectorielles. Le professeur, qui est issu des sciences humaines, travaille ainsi avec des chercheurs du domaine de l’ingénierie (Sousso Kelouwani et Marc-André Gaudreau en génie mécanique, ainsi qu’Adel Badri en génie industriel), de même qu’avec une équipe spécialisée en intelligence artificielle basée au Luxembourg et menée par Leendert van der Torre.
« L’une des choses que nous voulons faire, c’est de tisser des liens avec les entreprises. Dans le monde industriel, les règles éthiques se retrouvent toujours confrontées à la volonté de faire des profits. La question est donc de voir comment on peut répondre à ces deux impératifs de manière optimale. Nous avons notamment un projet avec les étudiants du baccalauréat en génie mécanique (cheminement DUAL), qui consiste à les initier en leur offrant une formation complémentaire en éthique, et à inclure une dimension éthique au stage qui fait déjà partie de leur programme d’études. C’est une façon de bonifier leurs stages, puisqu’ils profitent de leurs premiers pas en entreprise pour intégrer l’éthique à leur exercice professionnel. Par la même occasion, je souhaite aussi envoyer mes propres étudiants en éthique afin qu’ils puissent aller voir ce qui se passe sur le terrain », indique M. Peterson.
Les limites de l’IA
Le déploiement de machines et d’algorithmes de plus en plus raffinés laisse entrevoir la possibilité d’automatiser les raisonnements éthiques. Or, M. Peterson est convaincu qu’en raison des problèmes conceptuels et pratiques inhérents à cette idée, il s’agit plutôt d’un mirage. Dans un autre projet de recherche subventionné par les Fonds de Recherche du Québec – Société et Culture (FRQSC), il explique pourquoi le fait de confier l’évaluation du risque et la prise de décision à des technologies utilisant l’IA ne fonctionnera pas.
« Si l’on simplifie, le rôle d’une telle machine serait de recevoir un intrant (le dilemme éthique), de traiter l’information, et de produire un extrant (la réponse au dilemme). Or, pour que ça fonctionne, il faudrait qu’elle tienne compte de toutes les actions possibles et tous les contextes possibles, qu’elle les ordonne, et qu’elle considère les relations entre tous ces éléments. Une telle évaluation éthique est trop large ! On sait aussi que les enjeux éthiques n’ont pas de solution unique. Lorsqu’une machine aura à choisir entre plusieurs possibilités éthiques, laquelle va-t-elle sélectionner, et sur quelle base ? », questionne le professeur.
« Pour automatiser un raisonnement, il faut le traduire en langage de programmation. Sauf que la façon de coder, bien qu’elle relève d’un choix technique, va influencer la décision de l’algorithme. Dépendamment des lignes de codes, la réponse de l’algorithme peut être différente. L’existence de ce biais technique montre que les technologies et les choix techniques ne sont pas moralement neutres, et que la question de savoir si le choix fait par un algorithme était en effet le bon choix demeurera toujours ouverte », ajoute-t-il.
Une boussole au fond de la poche
Les travaux de M. Peterson suscitent l’intérêt de nombreux chercheurs. Ceux du Centre national intégré de manufacturier intelligent (CNIMI) ont d’ailleurs fait appel à son expertise. En effet, le professeur a reçu une subvention du Centre interordres de recherche et de transfert en manufacturier intelligent (CIRT-MI), afin d’entamer les démarches en vue de la production d’un outil de sensibilisation aux enjeux éthiques en entreprise.
« Au départ, on m’a sollicité pour élaborer un guide, mais rapidement, ça a ouvert la porte à une programmation de recherche beaucoup plus large. Sans entrer dans les détails, l’objectif est de produire un outil diagnostique offrant une solution facile à utiliser et accessible aux gens de l’industrie », évoque le professeur.
Questionné à savoir si un tel dispositif s’inscrirait dans le changement de paradigme qu’il souhaite voir s’opérer, M. Peterson renvoie à la racine de l’enjeu. Il répète que les spécialistes de l’éthique, les ingénieurs et les informaticiens doivent maintenir le dialogue, dans une perspective de compréhension mutuelle. Il nous encourage du même souffle à reconnaître notre propre rôle.
« Au final, l’éthique et la responsabilité reposent sur l’humain. Que cela nous plaise ou non, nous serons toujours responsables, et il faut agir en conséquence », conclut-il.