Comment contre-interroger un algorithme?
Selon les experts, la menace des hypertrucages forcera la révision des lois sur la preuve du Canada
Pendant des années, P a gardé sur une tablette chez elle à Edmonton une boîte étiquetée « assurance ». (Afin de protéger son identité, nous n’utiliserons que la première lettre de son prénom.) Son conjoint croyait que la boîte contenait de la paperasse, mais P y avait placé un autre type d’assurance : un dossier physique de téléphones fracassés, des lunettes brisées et des photographies des ecchymoses que les épisodes de violence de son conjoint lui avaient causées.
« Des ecchymoses bleues entouraient ma bouche parce qu’il me la recouvrait de sa main et m’étouffait. »
Des photographies, des vidéos et des enregistrements sonores sont très convaincants pour les juges et les jurys. Quand un crime se produit en privé, sans témoin, une contestation en cour oppose deux versions contradictoires d’un événement qui fournissent l’explication la plus vraisemblable des mêmes faits. Des photographies et des enregistrements sonores ajoutent à une objectivité irréfutable une incidence émotive. Selon une étude, la combinaison d’une preuve visuelle et d’un témoignage peut augmenter de 650 % la rétention d’information par les jurés.
Crise de confiance
Selon la criminaliste Emily Dixon, si un client lui montre une photo ou une vidéo disculpatoire, elle n’en fera pas des analyses avant de la déposer en preuve. Il est raisonnable, pour l’instant, de supposer qu’une photo est réelle. Pourtant, nous nous approchons rapidement d’un point où nous ne pourrons plus nous fier à nos sens de la vue ou de l’audition. Le début de l’intelligence artificielle, dans le système de justice notamment, est sur le point de rendre les pratiques actuelles inopérantes.
Les spécialistes peuvent encore repérer les anomalies qui distinguent les images générées par l’IA des photos réelles.
« Mais dans un an, ce ne sera plus possible », avertit l’expert en informatique juridique, Simon Lavallée.
Maura R. Grossman est une avocate qui a longtemps préconisé l’emploi des technologies de pointe pour réaliser des tâches juridiques, notamment l’examen de documents. Elle croit toutefois que la menace des hypertrucages forcera l’examen des lois sur la preuve du Canada.
« Auparavant, la falsification d’une signature nécessitait un certain talent », dit-elle.
« Il est maintenant possible de créer l’hypertrucage d’une voix en deux minutes. »
Les jurés seront ainsi peut-être de plus en plus sceptiques à l’égard de l’ensemble de la preuve, dit Me Grossman.
Pour les plaignants et plaignantes comme P, l’érosion de cette confiance s’accompagne d’un coût élevé : les personnes, assaillies par le doute, peuvent être tentées de s’en remettre à leur instinct, qu’il est impossible de distinguer de leurs souhaits, de leurs craintes et de leurs préjugés.
Dans les cas de violence familiale en particulier, la preuve sonore et visuelle agit comme un contrepoids important à la tendance à la normalisation de la société. Au travail et avec ses amis, P dit que son conjoint était amusant et gentil, mais qu’il était très différent à la maison, « au point où la plupart des gens ne vous croiraient pas ».
Récemment, la Commission du droit de l’Ontario (CDO), un organisme indépendant qui réclame des réformes législatives, a réalisé une étude nationale sur ce qui s’annonce comme une collision frontale entre deux systèmes épistémiques : le système de justice pénale, qui repose sur l’élimination du doute raisonnable, et l’intelligence artificielle, qui favorise la dissémination du doute.
« Le risque que les gens en subissent les conséquences est monumental », dit Ryan Fritsch, le juriste à l’origine de l’initiative.
Le projet a réuni des policiers et policières, des avocats et avocates de la défense, des procureurs et procureures, des juges et des défenseurs et défenseuses des droits de la personne dans le but de formuler des recommandations à communiquer au gouvernement de l’Ontario plus tard cette année.
Érosion de la transparence
Le miroir noir de l’hypertrucage n’est pas le seul défi que l’avènement de l’intelligence artificielle représente pour le système de justice pénale. Que ce soit par l’adoption de l’analytique avancée pour prédire les risques, l’augmentation de l’ordre prédictif ou l’utilisation d’importants modèles linguistiques pour résumer les dépositions ou rédiger les décisions, les tribunaux canadiens composeront bientôt avec une forme d’intelligence aux rouages mystérieux qui affaiblissent la notion même de transparence sur laquelle repose le droit.
À l’échelle internationale, les législateurs canadiens accusent déjà un retard considérable dans l’élaboration de lignes directrices sur l’utilisation de l’intelligence artificielle dans le système de justice; il existe donc peu de balises.
Le Canada se trouve aussi confronté à des situations contradictoires. L’Europe accueille avec scepticisme l’emploi de certaines technologies, allant même jusqu’à les interdire carrément, mais les États-Unis axent leurs prises de décisions sur des algorithmes complexes et des mégadonnées.
Les règles et procédures juridiques du Canada ont été créées avant l’avènement de l’IA. Comment le public peut-il continuer de faire confiance à un système qui repose sur la formulation laborieuse d’une logique, alors que les affaires entendues dans les salles d’audience commencent dans une boîte noire?
Le procureur Rupert Ross a été guide de pêche et, dans son livre Dancing with a Ghost, il a écrit sur la façon d’apprendre à prédire les conditions sur le lac avant de quitter le rivage. Debout à l’extrémité du quai, il superposait ses perceptions de la direction des vents, du couvert nuageux et de la température sur ses images mentales de différents endroits sur l’eau. Comme si chaque image était « en quelque sorte transparente, les variables étant transposée de façon opaque sur sa surface. Des images semblables des derniers jours du même endroit se glissent ensuite sous elle ». Si son sentiment de la journée s’accompagnait d’un souvenir proustien d’une journée passée où il avait pêché un brochet dans une anse, il amenait ses clients pêcheurs vers cet endroit.
La description par Me Ross se lit comme l’éloge des subtilités d’un souvenir incarné, l’une des caractéristiques essentielles qui séparent les humains des machines. Toutefois, pour les personnes à l’esprit pratique, Me Ross a simplement fait des prédictions fondées sur des données historiques. Les machines ne sont-elles pas tout simplement meilleures?
C’est la raison pour laquelle P est emballée par la perspective que les évaluations du risque criminel soient réalisées par l’intelligence artificielle. Elle a l’impression que les acteurs du système de justice se laissent trop facilement influencer par le charme de son conjoint.
« Ces gens tentent de prédire les résultats, avec leur imagination, leur impression ou leur instinct », explique-t-elle.
« L’IA élimine tout ça. »
Depuis les années 90, des évaluations statistiques du risque ont été réalisées dans les systèmes carcéraux d’un grand nombre de provinces et de territoires au Canada et ailleurs pour trier les délinquants par niveau de sécurité requis et en fonction de la preuve offerte aux audiences devant la commission des libérations conditionnelles. La corrélation des données contemporaines avec les résultats des affaires passées, par exemple les prisonniers qui ont répondu aux questions de façon similaire ont-ils commis d’autres crimes, donnait aux prisons un système axé sur les données leur permettant de décider qui pouvait bénéficier d’un niveau de sécurité plus permissif ou d’une libération conditionnelle anticipée. La précision des modèles algorithmiques informatisés a rapidement rivalisé avec les évaluations minutieuses des psychologues experts.
Toutefois, selon Simon Borys, avocat en droit carcéral, les prisons et les commissions des libérations conditionnelles n’ont pas à expliquer leurs décisions avec autant de détails que les tribunaux. Ce n’est que dans les années 2010, alors que les outils algorithmiques d’évaluation du risque ont été ajoutés à la détermination des peines aux États-Unis, que la norme élevée du raisonnement juridique a mis en évidence les aspects préoccupants de ces outils.
En 2016, le média américain ProPublica a publié une importante étude qui a révélé le préjugé racial du Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), un outil algorithmique d’évaluation du risque très utilisé. Les études portant sur des outils similaires utilisés au Canada, comme le Level of Service Inventory (LSI), ont démontré des résultats comparables.
Pour une panoplie de raisons, dont le fait que les modèles s’appuient sur des données d’arrestation passées et que les collectivités racialisées sont plus surveillées que les quartiers blancs, les prédictions algorithmiques ont tendance à exagérer la probabilité que les personnes racialisées commettent des crimes et à sous-estimer ces risques pour les délinquants blancs.
Si un miroir plus vaste ne fait que montrer une fausse réalité, l’intelligence artificielle alimentée par les mégadonnées exagère les problèmes de la prédiction actuarielle des risques. Comme nous vivons dans un monde injuste où les personnes démunies, souffrant de maladies mentales ou racialisées sont arrêtées en nombre disproportionné, le simple fait qu’elles appartiennent à l’une de ces catégories peut donner l’impression qu’elles seront plus susceptibles de commettre un crime. (Equivant, la société actuellement propriétaire de COMPAS, conteste le fait que l’outil est empreint de préjugés raciaux, et d’autres études subséquentes entreprises par des organismes indépendants ont aussi conclu que les résultats de ProPublica étaient exagérés.)
Toute personne accusée d’un crime au Canada a le droit de connaître la preuve qui sera utilisée contre elle. Elle a le droit de vérifier cette preuve, d’entendre les raisons pour lesquelles un juge ou un jury décide de la priver de sa liberté et d’interjeter appel de la décision si ces motifs sont insuffisants. Dans l’un des documents demandés par la CDO, Gideon Christian, le titulaire de la chaire de recherche sur l’IA et le droit de l’Université de Calgary, et l’avocat Armando D’Andrea soumettent un problème nouveau : comment contre-interroger un algorithme? Si une évaluation du risque doit être désignée comme une opinion d’expert, on s’attend à ce que l’expert qui l’a formulée demeure à la disposition du tribunal. Cependant, dans le cas d’un outil d’IA, même si un ingénieur en logiciels qui a conçu le programme pouvait être amené à témoigner, la nature de l’apprentissage machine pourrait limiter sa capacité à attester du fonctionnement réel du programme.
« Vous devez pouvoir expliquer la note attribuée à une personne et sa signification », avance Tim Brennan, à l’origine de COMPAS.
« Une technique d’IA comme les modèles de forêt aléatoire » – une méthode d’échantillonnage statistique qui concerne des centaines de bifurcations d’arbres de décision en d’autres arbres de décision– « est une excellente façon de faire des prédictions. C’est toutefois absolument impossible d’expliquer ce concept à un juge. »
Même si les tribunaux interdisaient aux juristes d’employer l’IA, ils ne pourraient pas empêcher la rédaction de rapports ou d’évaluations dans d’autres domaines – par les travailleurs sociaux, par exemple, ou les en toxicomanie – à l’aide de la technologie. Cependant, l’utilisation de l’IA pourrait signifier que ces rapports, qui constituent en ce moment une partie habituelle de la procédure judiciaire, ne respecteraient plus les critères de leur admissibilité en preuve.
Selon Me Fritsch, l’avocat de la CDO, l’IA donne de moins bons résultats dans un domaine auquel le système de justice accorde beaucoup d’importance : la fourniture d’une documentation et d’une justification claires. Les systèmes d’IA occultent l’information ou les processus, ce qui signifie qu’ils ne permettent pas la communication complète exigée par la loi. Pour les défendeurs et défenderesses qui souhaitent faire appel de leur peine, cette information manquante pourrait être essentielle afin de faire infirmer les décisions qui les privent de leur liberté ou même de leur vie. Les rouages internes d’un logiciel d’IA sont des renseignements exclusifs détenus par des sociétés privées. Aux États-Unis, les tribunaux ont démontré une tendance troublante à se ranger du côté des sociétés qui soutiennent qu’elles ne peuvent être forcées à communiquer des secrets commerciaux, même lorsque leurs produits sont utilisés pour envoyer des gens dans le couloir de la mort.
L’IA au secours des parties sans avocat
Dans une affaire de 2025, devant le tribunal de règlement des conflits au civil de la Colombie-Britannique, le vice-président Eric Regehr a indiqué dans sa décision que les deux parties devaient avoir utilisé l’IA pour rédiger leurs observations. Selon son raisonnement, « il est impossible qu’un être humain » puisse avoir fait certaines des erreurs contenues dans les observations. De plus, il ne s’est pas cru obligé de répondre à chacun des arguments soumis par le logiciel.
« Je reconnais que l’intelligence artificielle puisse représenter un outil utile pour aider les gens à trouver le bon libellé afin de formuler leurs arguments, du moment qu’elle est utilisée correctement, a écrit Me Regehr. Toutefois, les gens qui utilisent l’intelligence artificielle sans discernement finissent souvent par inonder le TRCC d’arguments juridiques interminables. »
La promesse de l’IA aux parties sans avocat est alléchante. L’évidence saute aux yeux : les services des juristes sont coûteux. Les tarifs d’un criminaliste peuvent atteindre 800 $ l’heure, et de nombreuses personnes qui demandent l’aide juridique s’en voient privées. Conséquemment, le nombre de personnes non représentées devant le tribunal est à la hausse. L’augmentation est la plus marquée dans les domaines du droit civil, comme les affaires de divorce et de garde, mais certains Canadiens accusés d’une infraction criminelle constatent qu’ils n’ont d’autres choix que de préparer leur propre défense.
Selon la nature de l’affaire, les gens non représentés en cour utilisant CoPilot de Microsoft ou ChatGPT peuvent se trouver face à un juriste qui utilise des outils encore plus sophistiqués. Un inventaire compilé en juin 2025 a conclu que 638 outils d’IA générative sont disponibles dans le domaine de la « technologie juridique », conçue pour toute tâche allant de l’exploration des bases de données juridiques à l’examen de contrats, en passant par la recherche de brevets et la rédaction de documents. Les sociétés créent des outils spécialisés d’intelligence artificielle pour les grandes entreprises qui ont les moyens de payer pour bénéficier de la technologie la plus avancée. Pour une partie non représentée, ChatGPT peut ainsi être mieux que rien, mais il s’agit de la version pour enfants des produits payants à la disposition d’un juriste bien nanti de la partie adverse.
Au Canada, certaines organisations à but non lucratif tentent d’uniformiser les règles du jeu. Beagle+ est un robot conversationnel juridique gratuit entraîné selon le droit de la Colombie-Britannique, alimenté par ChatGPT et créé par la People’s Law School, qui offre des formations et des renseignements juridiques gratuits en langage clair au public. À l’Université Queen’s, le Conflict Analytics Lab a créé OpenJustice, une plateforme d’IA en libre accès, s’inspirant du droit canadien, américain, suisse et français. Samuel Dahan, le professeur de droit qui a mis sur pied le projet, indique qu’à l’origine, l’idée était de créer de toutes pièces un immense modèle linguistique canadien.
« La triste réalité des universités dans le monde en ce moment est qu’aucune d’entre elles n’a les ressources pour créer un modèle linguistique », dit-il.
À l’occasion d’un programmathon juridique tenu conjointement avec l’Université Stanford à Toronto en février dernier, les équipes du Conflict Analytics Lab ont conçu des programmes qui utilisent OpenJustice pour aider les organismes bénévoles à rationaliser la participation des clients et à cerner les tendances de la jurisprudence qui pourraient permettre d’intenter une action collective.
Bien que l’intelligence artificielle semble être sur le point d’accroître l’écart dans l’accès à la justice plutôt que de le réduire, Me Grossman propose une façon clé dont la technologie pourrait venir en aide à la personne moyenne dans le contexte civil. Elle a acheté une paire de boucles d’oreille en ligne, mais l’une des tiges était courbée. Elle a communiqué avec le vendeur, a envoyé une photo et a demandé l’envoi d’une boucle d’oreille de remplacement.
« Il m’a pratiquement répondu que si je n’étais pas une idiote, je pourrais la redresser. »
Me Grossman a présenté ses arguments dans la boîte de dialogue du système de règlement des conflits du site Web. Ce dernier a numérisé sa photo, a examiné la valeur de l’article (les boucles d’oreille lui avaient coûté environ 12 $, plus les frais d’expédition), a compilé des transactions comparables et rendu une décision : il lui a accordé 2,38 $.
Plutôt qu’une consommatrice insatisfaite d’une boucle d’oreille, Me Grossman invite à examiner la situation comme si elle était une locataire dont le propriétaire retiendrait illégalement le dépôt de sécurité.
« Je suis concierge et si je prends une journée de congé, cela signifie que mes enfants ne mangeront pas; je ne connais rien du système judiciaire; je ne parle peut-être pas bien l’anglais; et peut-être que je ne suis pas ici légalement », présente-telle.
Le système de décision en ligne peut ne pas être parfait; il pourrait lui accorder moins que le montant complet. Mais l’affaire pourrait être close en une semaine, sans qu’il soit nécessaire de s’absenter du travail ou d’attirer l’attention sur le statut d’immigration.
« Ce n’est pas parfait », reconnaît-elle, « mais une justice imparfaite est mieux qu’aucune justice ».
Rétrécissement et élargissement simultané
Jusqu’à maintenant, les tentatives du Canada d’adopter une législation complète sur l’intelligence artificielle n’ont pas porté leurs fruits. La LIAD, la Loi sur l’intelligence artificielle et les données, est morte au Feuilleton lorsque le Parlement a été prorogé en janvier 2025.
Elle était également controversée : Amnistie Internationale a soutenu que la loi faisait fi des préjudices potentiels que les groupes vulnérables sont susceptibles de subir, et l’Assemblée des Premières Nations a menacé d’intenter des poursuites pour absence de consultation. Des groupes autochtones, comme l’organisme régional de Québec-Labrador de la Commission de l’APN, ont publié de façon proactive des guides pour réglementer et élaborer l’intelligence artificielle en ce qui concerne la souveraineté des données autochtones, mais en ce moment il ne s’agit que d’énoncés de principe moraux plutôt que d’une loi exécutoire. La nomination d’Evan Solomon comme tout premier ministre de l’Intelligence artificielle et de l’Innovation numérique l’année dernière est annonciatrice de l’adoption prochaine d’une nouvelle mesure législative.
La Cour fédérale a déclaré qu’elle n’utiliserait pas l’IA ou des outils de prise de décision automatisés sans d’abord entamer une consultation publique. Pour ce qui est du système pénal, « le public doit donner son aval pour ce type de chose »,dit Me Fritsch.
Cependant, quelle forme prendrait une consultation significative sur l’IA quand même les experts n’arrivent pas à s’entendre sur ce qu’est l’intelligence artificielle? Les documents de la CDO portent sur COMPAS en sa qualité d’outil d’intelligence artificielle, mais Equivant nie que COMPAS utilise l’IA. « L’outil n’“apprend” pas et ne change pas avec le temps », dit l’entreprise sur son site Web. Tim Brennan indique qu’un outil semblable à COMPAS, conçu pour les délinquantes, intègre l’IA depuis les huit dernières années. Il a plus tard modifié sa déclaration, pour dire que l’outil utilise un « classificateur dérivé de l’apprentissage machine », mais qu’il ne s’agit pas en soi d’un outil d’IA.
La catégorie d’intelligence artificielle semble se rétrécir et s’élargir simultanément.
« Lorsque l’outil s’apparente à un filtre antipourriel et que nous nous y habituions, ce n’est pas de l’IA, c’est un logiciel », dit Me Grossman.
« Quand c’est nouveau, magique et incompréhensible, c’est de l’IA. »
L’été dernier, Karine Gentelet, une sociologue de l’Université du Québec en Outaouais, a créé un projet pilote sur une autre forme de consultation sur l’IA.
« Ce n’est pas une consultation au sujet de l’IA », dit-elle.
« C’est une consultation sur la façon dont les gens veulent être consultés. »
Plutôt que des forums à grande échelle habituellement convoqués par les administrations publiques, dont l’industrie a souvent tendance à prendre le contrôle, ces séances étaient petites et ont eu lieu dans un centre communautaire de Montréal. De 30 à 40 participants et participantes par séance ont proposé des définitions des concepts de base comme « confiance » et « transparence ». L’équipe de Karine Gentelet a installé une affiche illustrant une feuille de calcul Excel de 168 programmes d’intelligence artificielle en développement ou en utilisation par les organismes de la province, disponible dans le site Web du gouvernement. Les descriptions étaient brèves et souvent vagues : « Service aux citoyens ». Il s’agissait clairement de l’idée qu’une personne se faisait de la transparence, mais elle ne correspondait pas à ce qu’avaient écrit les participants et participantes à l’atelier. Ils veulent savoir exactement comment l’information sera recueillie et utilisée et comment le gouvernement prévoit garantir la présence de balises éthiques.
À la question de savoir ce qu’elle répondrait à une commission gouvernementale qui l’interrogerait sur ce que peut faire ou non l’IA, P n’a pas eu besoin de réfléchir longtemps.
« Je demanderais s’il y a une façon pour les étudiants et étudiantes en génie informatique de créer un système qui soulagerait les intervenants et intervenantes de refuge d’une partie du fardeau », dit-elle.
Les travailleuses et travailleurs débordés sont constamment au téléphone pour trouver des places dans diverses installations pour les femmes qui ont besoin d’un endroit sécuritaire où rester. Est-ce que la situation ne pourrait pas davantage ressembler aux systèmes qui trouvent des billets d’avion? On pourrait saisir le lieu et toute mesure spéciale (les refuges ne sont pas tous des endroits sécuritaires pour les femmes trans, a fait remarquer P), et un algorithme pourrait gérer le reste.
Essentiellement, les citoyens veulent que le système de justice pénale réalise deux résultats contradictoires : les garder en sécurité et respecter leur liberté individuelle. Augmenter la sécurité publique au maximum fera en sorte que nous serons tous gardés préventivement en isolement pour empêcher que nous nous causions du tort. À l’opposé, si on augmente la liberté au maximum, il n’y aura plus de protection pour les plus vulnérables. L’équité est une façon de décrire l’équilibre entre ces préoccupations. La pierre angulaire de notre tradition juridique repose sur la doctrine de 1769 connue comme le principe de Blackstone : « il vaut mieux laisser s’échapper dix personnes coupables que de voir souffrir un seul innocent ». Il s’agit d’une maxime morale plutôt que mathématique.
Enfouie profondément dans les instructions codées qui régissent les outils algorithmiques, l’équité trouve une expression, ou plutôt des expressions, mathématiques. L’équilibre dans la prévision du risque repose entre la probabilité qu’une formule donne de faux positifs ou de faux négatifs : soit le fait d’emprisonner des personnes inutilement ou de remettre des personnes dans les collectivités qui finiront par en blesser d’autres.
Lorsque les ingénieurs tentent de modifier les variables qui produisent des résultats racistes ou sexistes, ils appliquent différentes formules équitables selon différentes normes. La méthode d’« équité par l’ignorance » s’entend de l’utilisation de données d’entraînement pour l’apprentissage machine qui exclut des variables comme la race ou le genre. L’« équité contre-factuelle » signifie qu’une prédiction demeurerait constante, même si le groupe démographique auquel appartient l’individu était modifié. Selon les derniers chiffres, il existe 20 définitions différentes d’équité dans le domaine de l’évaluation du risque, offrant différentes options qui sont statistiquement impossibles à concilier.
Dans un article de 2024 publié dans la revue Artificial Intelligence and Law, des chercheurs allemands ont prévenu qu’en concevant des modèles encodés d’options précises, les ingénieurs en logiciels et les sociétés usurpent ce qui devrait être le choix des citoyens. L’équipe de recherche a conçu un code qui a modifié l’équilibre dans COMPAS entre les droits des victimes et ceux des délinquants. Les chercheurs ont reconnu que les législateurs pourraient ne pas accepter le nouvel équilibre reflété dans la vision de l’équité par l’État, mais au moins les choix faits sont maintenant publics et les citoyens peuvent ainsi en débattre.
Comme le prévoyait Karine Gentelet, la plupart des gens n’ont pas les connaissances techniques pour parler de l’intelligence artificielle en connaissance de cause. Les participants et participantes à ses ateliers n’avaient pas pour objectif d’analyser la façon dont les forêts aléatoires diffèrent des méthodes de classification de l’amorce ou de parler avec éloquence des échantillons oob (outofbag). Cependant, ils savaient ce qu’ils craignaient, notamment les coûts environnementaux de la technologie. Ils lui ont dit que l’inévatibilité de l’intelligence artificielle était de plus en plus présentée comme un signe du destin : une simple étape inéluctable que l’humanité doit franchir. La majorité des personnes dans la salle avaient une question pressante : avait-on la possibilité de dire non?
* Veuillez noter que certaines sources sont uniquement en anglais; les citations qui en sont tirées sont des traductions.