Passer au contenu

Nicolas Vermeys sur l’avenir de l’intelligence artificielle en droit

Montréal est une des plaques tournantes en matière de droit et d’intelligence artificielle. Discussion sur le potentiel et les limites de l’apprentissage autonome dans l’industrie juridique.

Nicolas Vermeys, directeur adjoint du Laboratoire de Cyberjustice à l’Université de Montréal
Nicolas Vermeys, directeur adjoint du Laboratoire de Cyberjustice à l’Université de Montréal

En juin, la conférence ICAIL a réuni la communauté scientifique internationale à Montréal dans le but de soutenir et de promouvoir la recherche dans le domaine de l’intelligence artificielle et du droit. ABC National s’est entretenu avec Nicolas Vermeys, directeur adjoint du Laboratoire de Cyberjustice à l’Université de Montréal, l’hôte du colloque pour nous parler des grands enjeux.

ABC National : Expliquez-nous d’abord où nous sommes rendus quant à l’application des avancées de l’intelligence artificielle à la pratique juridique.

Nicolas Vermeys : D’abord, il y a eu des avancées assez importantes dans les dernières années dans ce qu’on appelle le « machine learning », donc l’apprentissage autonome. Et on a rendu ça possible parce qu’on a plus de données qu’on n’en a jamais eu, et parce qu’on a des ordinateurs beaucoup plus performants que ce qu’on avait auparavant. Donc, je vais essayer d’entraîner mon algorithme pour reconnaître que si l’élément A arrive, et en appliquant telle disposition de la loi, voici la conséquence. Mais pour que cela se produise, il me faut des centaines de milliers de cas de A. Or, combien de disposition dans le Code civil du Québec, qui date depuis 1994, n’ont toujours pas reçu d’interprétation de la part des tribunaux? Donc c’est en théorie possible. En pratique, il faut un corpus jurisprudentiel beaucoup plus important pour être capable d’entraîner l’algorithme et ça, c’est en supposant que le droit n’évolue pas. Donc, c’est beaucoup plus complexe que ce que les gens peuvent penser.

N : Mis à part le volume de données, quels sont les autres défis?

NV : Il y a l’évolution de la jurisprudence, et l’évolution des mœurs qui, évidemment, ne sont pas répertoriées. L’intelligence artificielle fonctionne d’une façon qui est contraire, en quelque sorte, au fonctionnement de l’appareil judiciaire. Le principe d’un algorithme, c’est d’aller voir tout ce qui s’est fait et d’en ressortir la conclusion. Mais en droit, bien qu’on utilise la jurisprudence pour établir les principes, il reste que chaque cause est unique. Chaque personne a le droit d’être jugée sur les faits de son dossier et non sur les faits d’autres dossiers. C’est particulièrement vrai, évidemment, en matière criminelle et pénale.

N : Alors, comment adresser cette contradiction-là?

NV : En fait, on ne devrait pas nécessairement utiliser l’intelligence artificielle comme outil de prédiction. On l’utilise comme outil d’aide. C’est très pertinent pour un juge de savoir qu’il y a eu 25 dossiers similaires au mien et que voici le montant qui a été accordé. Mais peut-être que dans les circonstances, il faudrait qu’il prenne en compte certains éléments qui techniquement, ne sont pas pertinents.

N : Quel est le rôle de la transparence dans tout ça?

NV : Si mon algorithme n’est pas suffisamment transparent pour que je sache pourquoi et comment il en est arrivé à me faire une proposition, il y a un problème; et on revient à cette tendance qu’on a à faire confiance à la technologie. Mais si on me dit exactement comment le calcul a été fait, je peux voir qu’il y’a eu une erreur. Ou bien, que tel ou tel critère n’a pas été pris en compte. Ou l’algorithme s’est basé sur telle décision qui, bien que similaire à la mienne, date d’avant une réforme ou une décision de la Cour suprême qui est venue changer la donne.

N : À une conférence comme celle-ci à ICAIL, on s’aperçoit qu’il y a des programmeurs, des ingénieurs en informatique, et qui n’ont aucune formation en droit. C’est inhabituel pour une conférence sur le droit.

NV : Oui, et effectivement au Laboratoire, on travaille beaucoup avec des informaticiens. On travaille beaucoup avec les gens des sciences humaines aussi, justement pour identifier tous les biais possibles et s’assurer qu’ils ne soient pas répertoriés dans l’algorithme. Donc on travaille avec des gens du milieu de l’intelligence artificielle, mais aussi des sociologues, et des psychologues. Et je pense que ce mélange entre juristes, gens issus des sciences humaines, gens issus du milieu informatique et du développement logiciel est de plus en plus pertinent et on le voit dans les cabinets aussi, d’ailleurs. Ils savent très bien qu’ils ne peuvent pas programmer leur propre algorithme. Avec les programmeurs, c’est le constat inverse. Ils peuvent développer un algorithme, mais s’ils ne comprennent pas l’objet, l’algorithme ne sera pas très utile.

N : Quel est le rôle des facultés de droit pour préparer les étudiants à cet avenir dans lequel l’intelligence artificielle va se mêler aux services juridiques?

NV : Alors, j’enseigne un cours droit et intelligence artificielle. Nous avons un cours d’été sur la cyberjustice. D’autres facultés développent des programmes. À Ottawa, Ian Kerr enseigne sur le sujet de l’intelligence artificielle depuis des années. Donc dans certaines facultés, le curriculum commence à changer pour tenir compte de cette réalité-là. Je vous dirais que le problème est plutôt au niveau du barreau, indirectement, dans la mesure où il y a ces fameux cours du barreau qui doivent être suivis, et donc les étudiants vont préférer suivre les cours au baccalauréat qui vont bien les préparer pour le barreau – davantage que les cours qui vont bien les préparer pour la profession. C’est un peu fermé comme approche, mais en même temps je peux comprendre qu’ils y vont une étape à la fois. Donc c’est là où il faut travailler les esprits pour s’assurer que, oui, les connaissances de base en matière contractuelle soient bien maîtrisées, mais que les juristes de demain comprennent que la profession, ce n’est pas comme on voit à la télévision. De toute façon, ça ne l’a jamais été.

N : Qu’espérez-vous retirer de cette conférence ?

NV : On veut souligner le fait que la question du droit et de l’intelligence artificielle c’est à Montréal que ça se passe, à cause des travaux du laboratoire, à cause de notre association avec MILA, [l'Institut québécois de l'intelligence artificielle] et avec IVADO. On veut apporter notre contribution et aider autant que possible à ce que les discussions à Montréal et au niveau international autour de l’utilisation de l’intelligence artificielle dans le milieu juridique aient lieu et qu’elles impliquent des gens qui savent de quoi ils parlent et que ce ne sont pas simplement des « talking heads ».  Il faut parler aux experts en technologies qui sont capables de bien expliquer ce qui est possible, et ce qui n’est pas possible de faire avec l’intelligence artificielle au moment où on se parle.