Passer au contenu

Bâtir la confiance dans notre système de justice avec la technologie

La technologie juridique peut faciliter l’accès à la justice, à condition d’être axée sur les besoins du public.

Lady Justice and technology concept
Illustration : Studio Parko

Voici l’histoire trop bien connue des bagages égarés, mais la fin est étonnante. Le 18 septembre 2021, Jessica Kalynn s’est rendue de Vancouver à Dubaï sur un vol d’Air Canada. Ses bagages, eux, ne sont arrivés que vers le milieu des six jours de son voyage d’affaires. Elle a réclamé 2 120,67 $ comme dédommagement à Air Canada, qui lui a versé 500 $.  

Mme Kalynn a déposé une réclamation contre Air Canada auprès du Civil Resolution Tribunal (CRT) de la Colombie-Britannique. L’audience a eu lieu en ligne, et la plaignante s’est représentée elle-même. Le 15 juillet 2022, soit moins d’un an après l’incident, le CRT a ordonné à Air Canada de payer 700 $ de plus en dédommagement.

La partie étonnante de l’histoire, ce n’est pas tant qu’Air Canada a dû payer un dédommagement pour les bagages égarés; c’est la rapidité et la facilité de la procédure de règlement. Et encore, l’instance a duré dix mois, soit plus que les trois mois qu’il faut en moyenne au CRT pour régler un dossier.

Cette histoire nous rappelle que le recours à la technologie peut améliorer l’accès à la justice. Mais combien de litiges peut-on régler de façon fiable à des frais aussi économiques et aussi efficacement? Est-ce un bon moyen de renforcer la confiance du public dans notre système de justice?

Justice préventive

La pandémie a révélé combien fragiles ou résilientes nos institutions publiques peuvent être. Après des débuts cahoteux, les changements rapides observés dans le système de justice – des audiences en ligne au dépôt électronique – ont de beaucoup réduit les coûts et facilité le recours à la justice pour certaines personnes à tout le moins, pourvu qu’on dispose d’un bon accès Internet.

Malgré cela, il faut plus qu’Internet haute vitesse. La clé du succès du CRT, c’est la priorité indéfectible accordée à l’expérience de l’utilisateur. Depuis 2014, le CRT a réglé plus de 27 000 litiges – des affaires de petites créances pour la plupart – touchant plus de 50 000 personnes. Près de 22 000 de ces dossiers seraient passés par la cour provinciale de la Colombie-Britannique.

« Nous misons sur le facteur humain et une application des principes d’introspection comportementale », explique Richard Rogers, ex-président du CRT et directeur intérimaire de sa division du droit de la location résidentielle. « Notre priorité va aux utilisateurs. Ce système n’est pas conçu pour les juristes; c’est pourquoi nous n’avons pas mené de consultations approfondies auprès des barreaux et de la magistrature. »

L’individu à la recherche d’un avocat commence par demander quelles sont ses chances d’avoir gain de cause. Le CRT propose un outil de recherche de solutions servant à analyser les chances de succès d’une action, et à renseigner sur la question en litige. L’utilisateur se fait ensuite montrer des solutions sur le règlement du dossier par ses propres moyens. D’après Me Rogers, la prochaine révolution consistera à utiliser l’IA comme « moteur » pour aider le client dans le processus judiciaire.

« Dans 85 % des cas, l’outil de recherche de solutions est utilisé pour une affaire de petites créances ou un enjeu lié à la copropriété, rapporte Me Rogers. La capacité d’utiliser l’IA pour relier cet outil aux décisions judiciaires dans ce type d’affaires ouvrirait des possibilités. L’outil pourrait indiquer comment le CRT a jugé des affaires similaires, quelles sont les preuves nécessaires pour avoir gain de cause et les éléments que le client doit prendre en compte pour savoir si le droit penche en sa faveur ou non. »

En privilégiant les besoins du public, on lui permet d’accéder au système de justice à ses conditions. Shannon Salter a cette priorité dans sa ligne de mire. Sous-ministre de la justice, elle remplit des fonctions comprenant l’innovation dans le système de justice. Forte de ses huit ans d’expérience à la tête du CRT, elle connaît des moyens de nous doter de services efficaces et efficients pour garantir un processus dont le public sera satisfait.

« Quand nous étions en train de construire le CRT, le plus important était d’être flexible et d’offrir des choix, souligne Me Salter. Nous ne voulions pas que les gens se sentent obligés de l’utiliser; nous voulions leur donner un outil d’utilisation pratique. Personne n’aime se servir d’un outil mal conçu. La technologie, ce n’est pas une question d’amener tout le monde sur Internet; il s’agit de trouver des avenues qui rendent les opérations accessibles. »

Mise en place de politiques publiques

Ne pas songer au public d’abord peut conduire à la catastrophe. En 2013, les Pays-Bas ont commencé à utiliser un algorithme pour détecter les demandes frauduleuses de prestations pour allocations familiales. Résultat : 20 000 familles ont été accusées à tort de fraude et se sont fait ordonner de payer des centaines de milliers d’euros. Enquête faite, il s’est avéré que la nationalité, notamment le statut de citoyen, faisait partie des facteurs déterminants appliqués par l’algorithme. Amnistie Internationale a tiré à boulets rouges sur le programme, le décrivant comme une nouvelle forme de profilage racial. Certains parents ont même perdu la garde de leurs enfants. Certaines victimes se sont suicidées. Après qu’un comité parlementaire a établi dans son rapport que les députés du gouvernement, les juges et l’administration judiciaire avaient violé la règle du droit, le gouvernement au pouvoir a démissionné en 2021 dans la foulée du scandale.

Et cette histoire n’est pas finie : dans un article publié en 2022 sur Politico, Chermaine Leysner, l’une des victimes attendant d’être remboursées, a déclaré que « si l’on vous fait subir un pareil calvaire, vous allez perdre confiance dans le gouvernement. C’est donc très difficile de croire ce que [les autorités] disent à présent. »

Ce qui est arrivé en Hollande devrait nous inciter à la prudence, mais ça ne veut pas dire qu’on doive se passer de la technologie. Rejeter la modernité nuirait aussi à la confiance du public dans des institutions juridiques vieillissantes.

Karen Eltis, professeure de droit à l’Université d’Ottawa, où elle travaille au Centre de recherche en droit, technologie et société, estime que le moment est venu pour les tribunaux et le gouvernement de s’attaquer aux complexités de la technologie alliée à la justice.

« Nous avons pris l’habitude de nous en remettre aveuglément à la technologie, par inconfort et appréhension, observe Me Eltis. Il faut donner aux gens le pouvoir d’adopter un point de vue critique quand vient le temps d’utiliser la technologie. Par exemple, quand le système Waze nous dit de tourner à gauche, nous allons à gauche même si nous savons qu’il faudrait tourner à droite. Nous avons même des algorithmes pour nous dire quels articles lire. Comme société, nous abandonnons ces prises de décisions. Les juristes ont la responsabilité professionnelle d’adopter une pensée critique, notamment à l’égard de la technologie, qui est un outil et non une béquille. »

Dans son rapport de 2022 intitulé « Accountable AI », la Commission du droit de l’Ontario (CDO) exhorte les provinces et le gouvernement fédéral à adopter des systèmes d’IA fiables pour les systèmes gouvernementaux. Le but : cesser de traiter les problèmes d’IA au cas par cas et adopter des politiques responsabilisant le gouvernement et les tribunaux quant à leur utilisation de l’IA. Le rapport présente 19 recommandations, y compris celle d’établir un cadre fiable pour l’IA en matière de législation, de s’assurer que les tribunaux et les instances adoptent un tel cadre, de mettre au point des mesures du rendement et de créer un cadre pour une IA spécialisée pour le droit pénal.

« Nous avons toujours temporisé au sujet de ces questions d’encadrement et de gouvernance, poursuit-elle. Quand la pandémie a frappé, nous avons plongé des institutions conservatrices directement dans l’âge du numérique. Le système de justice est dans une phase de transformation analogue à la révolution industrielle. Nous devons régler ces questions, et le faire maintenant. »

Le gouvernement fédéral a adopté une position restreinte concernant l’encadrement de l’IA fiable dans la Directive sur la prise de décisions automatisée du Conseil du Trésor. La Directive a ses avantages et ses inconvénients.

Dans son rapport, la CDO a constaté que cette directive comporte des lacunes liées au droit administratif, car elle n’exige pas explicitement de motifs de justification et n’affirme pas le droit du citoyen à une audience. Elle s’attaque toutefois aux préjugés systémiques.

Un des gros problèmes réside dans le fait que la directive fédérale ne dit rien au sujet du droit pénal. Or, l’utilisation de l’IA dans les instances pénales est très problématique. L’an dernier, à l’issue d’une enquête conjointe, les commissaires à la protection de la vie privée de la Colombie-Britannique, du Québec, de l’Alberta et du gouvernement fédéral ont conclu que Clearview AI avait violé le droit à la vie privée des Canadiens. Cette société technologique américaine recueille des images en ligne et permet aux forces policières d’utiliser son logiciel de reconnaissance faciale pour identifier des personnes, logiciel qui a été utilisé par la GRC, de même que les corps de police de Calgary et de Toronto. Clearview AI est disparue du paysage canadien, mais cet incident montre clairement qu’il faut insister sur la responsabilisation.

« La technologie doit refléter nos valeurs et notre cadre démocratiques, insiste Me Eltis. Il s’agit d’un outil et non d’une béquille. Nous la laissons nous dépasser et nous diriger. Ce laisser-aller creuse les lacunes et mine la confiance. La technologie contourne les protections légales. »

L’IA dans les tribunaux est une problématique de longue date. Les sociétés technologiques continuent de vendre l’intelligence artificielle comme moyen de prendre des décisions plus intelligentes plus rapidement grâce à des algorithmes qui analysent les données et déterminent les résultats. Le problème, c’est qu’on présente l’IA comme une panacée. Selon Me Eltis, les décideurs doivent « penser vite et réfléchir longuement » aux façons d’utiliser l’IA.

« Quand des juges utilisent l’IA, ils craignent d’aller à l’encontre des algorithmes, explique-t-elle. Il faut bien réfléchir aux contextes auxquels l’IA devrait s’appliquer. Par exemple, donner un constat d’infraction au code de la route est habituellement une décision qui se prend rapidement avec des conséquences mineures. En revanche, une longue réflexion est de mise lorsqu’il s’agit d’exercer un jugement subjectif comme dans l’affaire “personne”. Cette affaire singulière portait sur le droit constitutionnel. Si nous avions appliqué un algorithme, le système nous aurait signifié de suivre la loi. Les affaires de ce genre doivent être traitées sous une supervision humaine constante. »

Le Québec fait partie des leaders en matière de réforme du droit. Le projet de loi 64 modernise la loi québécoise sur la protection de la vie privée en suivant l’exemple du Règlement général sur la protection des données (RGPD) de l’Union européenne. Il accorde le droit à l’oubli et l’obligation d’obtenir le consentement pour l’utilisation des renseignements personnels. Le gros changement concerne la prise de décisions automatisée. Les citoyens seront informés quand une décision est prise et pourront corriger les renseignements personnels utilisés à cette fin ou fournir de nouveaux renseignements en portant la décision en appel. Ils auront aussi le droit d’obtenir des renseignements sur la façon dont la décision a été prise.

Ce qui rend la technologie si dangereuse, c’est non seulement la rapidité du changement, mais aussi notre gaucherie technologique en tant que juristes. Même si l’avènement des technologies juridiques date de 25 ans, il reste du travail à faire si nous voulons que les juristes apprivoisent et gèrent la technologie. « Ce n’est pas un problème technologique, c’est un problème humain, résume Me Eltis. Les gens ont du mal à substituer leur jugement aux indications des systèmes technologiques. On se sent mal à l’aise devant ce qu’on ne connaît pas. Des compétences technologiques de base sont nécessaires au respect des valeurs du droit et à l’analyse critique des changements apportés par la technologie. »

Avenir de la technologie juridique publique

L’espoir pour l’avenir réside dans l’art de réinventer des systèmes juridiques adaptés aux besoins du public qui intègrent véritablement les droits de la personne, la protection de la vie privée et l’application normale de la loi. Valentin Callipel, gestionnaire de projet au Laboratoire de cyberjustice de l’Université de Montréal, estime que l’avenir de la technologie appliquée au droit est une question de donner aux gens les moyens de prendre des décisions éclairées au sujet des litiges qui les impliquent.

« Nous parlons d’améliorer la gestion des dossiers, le dépôt électronique et les audiences à distance pour l’administration de la justice, mais rien n’a encore été dit sur la technologie qui aide les utilisateurs, dit Me Callipel. Au lieu de parler de dépôt électronique, comment pourrions-nous miser sur le règlement extrajudiciaire des différends comme source d’information améliorée et outil de résolution de problèmes pour le public? Nous avons aujourd’hui la possibilité de penser au rôle de la justice dans la vie des gens. »

En 2016, le Laboratoire de cyberjustice a créé un programme d’aide à la résolution de litiges en ligne comme projet pilote pour l’Office de la protection du consommateur du Québec. Plus de 11 000 personnes ont été orientées vers ce programme, et plus de 5 000 dossiers réglés. Le programme présente un taux de satisfaction de 90 % chez les consommateurs et les entreprises, selon Me Callipel, et le délai moyen de résolution par entente est de 25 jours.

« Il faut plus de systèmes accessibles en ligne pour gagner la confiance du public et l’amener à interagir, dit-il. Actuellement, les personnes qui ont des ennuis de nature juridique doivent se déplacer, ce qu’elles ne font pas d’ordinaire, se privant ainsi de la possibilité de faire valoir leurs droits. Les gens voudraient pouvoir régler leurs problèmes de justice le dimanche soir avant d’aller se coucher. Ce type de service bâtit les relations avec le public. »

L’an dernier, le Laboratoire de cyberjustice a collaboré avec le Tribunal administratif du logement pour créer JusticeBot, un logiciel que le public peut interroger sur des questions de droit du logement. Lancé l’été dernier, le site Web a accueilli plus de 7 700 internautes et généré plus de 34 000 réponses. « La meilleure façon est de travailler [avec le gouvernement] pour se doter d’une stratégie pangouvernementale et d’une vision bien définie », fait observer Me Callipel.

Au bout du compte, c’est uniquement en mobilisant le public que nous gagnerons sa confiance et lui ferons sentir que le système de justice est à l’écoute de ses besoins et lui garantit l’accessibilité, l’abordabilité et la protection des droits de sa personne. « Outillez les gens, termine Me Callipel. Donnez-leur les moyens de comprendre la loi et de faire valoir leurs droits. L’avenir de l’accès à la justice passe par là. »