Maîtres en droit
Comment éviter de réduire les avocats à de simples exécutants dans les décisions prises par des outils d’intelligence artificielle.
« Les logiciels dévorent le monde », a écrit Marc Andreesen il y a quelques années. Ce n’est pas nécessairement une mauvaise chose. Aujourd’hui, les algorithmes d’apprentissage automatique s’améliorent et automatisent les performances humaines dans des domaines allant de la médecine aux services financiers en passant par le secteur manufacturier et celui du détail.
Même nos institutions judiciaires examinent la manière dont l’apprentissage automatique pourrait améliorer la prise de décisions administratives ou la prestation de services. L’an dernier, Justice Canda a lancé un projet pilote d’IA visant à guider les décideurs en matière d'immigration, de prestations de retraite et de dossiers fiscaux. Certaines provinces envisagent d’avoir recours aux outils de prédiction du risque dans le cadre des décisions relatives aux libérations sous caution – une voie déjà empruntée par des tribunaux américains.
Alors que les décideurs bureaucratiques et juridiques se fient de plus en plus à ces algorithmes, nous pourrions nous diriger vers une crise de légitimité morale et politique, met en garde Pim Haselager, philosophe et professeur à l'Université Radboud. Lors de la Conférence internationale sur l'intelligence artificielle et le droit qui s'est tenue à Montréal le mois dernier, le professeur Haselager a également soulevé des questions troublantes sur ce que signifie cette montée de la « gouvernance algorithmique » pour les professionnels du droit.
L'IA peut certainement aider les humains à prendre de meilleures décisions. Un trop grand nombre d’entre elles pourrait cependant être délégué aux algorithmes, ce qui pourrait entraîner l'érosion de nos compétences essentielles. Tout comme les voitures sans conducteur pourraient contribuer au déclin de nos compétences derrière le volant, des algorithmes de prédiction juridique pourraient éroder notre capacité de prendre des décisions juridiques et morales.
Le professeur Haselager croit qu'il faudra faire des efforts pour éviter de voir ce risque devenir réalité. Le principal défi, dit-il, sera de garder les humains impliqués dans les processus d’information et de prise de décision dans lesquels l’apprentissage automatique est impliqué.
Il existe à la fois des raisons pratiques et de principe qui justifient cette position. Sur le plan pratique, nous devons reconnaître que « certaines décisions sont encore exécutées de manière plus efficace et plus fiable par les humains », note Pim Haselager. Quant aux principes, certaines décisions ou actions ne devraient en réalité être prises ou posées que par des êtres humains, comme la condamnation des contrevenants ou la décision de tuer des combattants ennemis.
Ultimement, on doit s’assurer que notre rôle d’humain reste une part essentielle du processus décisionnel, notamment par « la supervision d'un opérateur humain qui peut annuler les actions du robot ».
Autrement, dit le professeur Haselager, nous risquons de créer un vide en matière de responsabilité, et donc une crise de légitimité.
La difficulté consiste alors à déterminer comment éviter que l'intervention de l'homme dans cette prise de décision ne soit plus qu'un simple palier d’approbation automatique. Une telle supervision peut non seulement créer da la confusion en termes de responsabilité, mais elle peut aussi contribuer à « saper la fierté et l'engagement professionnels ».
Mais que signifie être en contrôle? C’est une chose de croire que nous sommes en contrôle parce que nous pensons que nous agissons de manière intentionnelle, ou en contribuant d’une manière ou d’une autre à une activité d’apprentissage automatique. Mais que se passe-t-il si un beau jour, le décideur humain se trouve confronté à un conflit personnel à la maison et est psychologiquement indisposé à réagir de manière appropriée? Ou encore, si la personne est mal équipée pour apprécier les capacités réelles du système avec lequel elle interagit? Et si cette personne décidait tout simplement de déléguer sa responsabilité morale à la machine?
Le professeur Haselager qualifie ces situations de piège technologique. Si une technologie est conçue de telle sorte que les gens qui doivent la contrôler ne peuvent se concentrer sur l’exercice d’un contrôle réel et significatif, la responsabilité sera alors en soi déficiente.
Il est facile d’imaginer à quel point il peut être difficile pour un humain de s’écarter d’une recommandation algorithmique. Sur la route, plusieurs d'entre nous sont déjà esclaves de nos applications GPS. On se maudit lorsque l’on se retrouve coincé dans la circulation après avoir ignoré l’application. Imaginez maintenant qu’un juge demande, après une décision de condamnation qui a suscité un tollé général, pourquoi il n’a pas suivi la recommandation de la machine.
« Il y a un potentiel pour faire des humains des boucs émissaires, puisque les structures conventionnelles ont du mal à attribuer une responsabilité à des entités artificielles », ajoute M. Haselager. Et au fur et à mesure que plus d'outils d'intelligence artificielle seront utilisés, de moins en moins d'opérateurs humains seront capables de passer outre leurs décisions. Comme dans le cas des outils de santé numériques en médecine, les outils de prévision juridiques nécessiteront que nous élaborions des normes d'utilisation.
De plus, pour éviter les situations dans lesquelles les humains sont enclins à renoncer à leurs responsabilités, le professeur Haselager propose d'éviter l'introduction d'outils d'aide à la prise de décisions juridiques basés sur l’IA, avant de mettre en place une structure organisationnelle appropriée qui définisse de manière définitive les droits des humains de refuser une recommandation. Nous devons comprendre non seulement comment et quand utiliser ces outils, mais aussi quand ne pas les écouter.
« Les systèmes de soutien aux décisions doivent s’accompagner de systèmes de responsabilisation » qui tiennent compte des forces et des faiblesses humaines, conclut Pim Haselager. Il propose de concevoir des outils d’apprentissage automatique qui intègrent la possibilité d’être contestés. Ainsi, en plus des systèmes qui suivent un raisonnement donné, nous pourrions aussi développer des systèmes qui peuvent suivre le raisonnement inverse.
Après tout, l’oisiveté est la mère de tous les vices.