L’IA en pratique: Gérer les attentes
Prévoyez beaucoup d’essais et erreurs. Et soyez patients.
Venu partager avec ses collègues du cabinet Lavery les usages professionnels de l’intelligence artificielle (IA) testés dans leur laboratoire L3IA, Eric Lavallée a commencé par un clin d’oeil à un classique. « C'est l'Halloween, parlons de Frankenstein! » Selon lui, plusieurs des réticences éprouvées par la communauté juridique envers l’IA ont leurs racines dans cette peur fondamentale de la science dont on perd le contrôle, évoquée dans l’oeuvre de Shelley.
Présenté en octobre dernier à une conférence organisée par l’ABC-Québec et la SOQUIJ, l’atelier visait aussi à retracer l’évolution de l’IA et à dégager les principaux enjeux juridiques de son usage.
De la traduction à la reconnaissance moléculaire
On connait peu les pionniers et surtout les pionnières qui ont pavé la voie aux Yoshua Bengio de ce monde. Kathleen Booth, conceptrice d’une des théories fondamentales de l’apprentissage machine, s’en sert pour coder en 1947 la première — et fort encombrante — machine à traduire. Une percée révolutionnaire qui paraît modeste aujourd’hui : « En tournant des manivelles, on est loin de “Siri, traduis mon texte” », blague Me Lavallée.
Après les réseaux de neurones, un autre jalon important, la théorie de la rétropropagation (1961), tombée en désuétude à la fin des années 60, effectue un retour en 1988 pour fonder des applications pratiques en reconnaissance de l’écriture, puis de la parole (1997), de l'image (2011), et des médicaments (2015). Des avancées qui restent imparfaites. « C'est sûr que la machine fait des erreurs. Des fois, on lui montre un muffin, et elle dit que c'est un petit chien », évoque Me Lavallée, en référence à un meme populaire dans le milieu de l’IA.
La gestion d’un projet d’IA en cabinet en 2019 commence donc par une bonne gestion des attentes et des préoccupations de ses collègues, et souvent un brin d’éducation. Non, l’IA ne permettra pas de « remplacer les étudiants et les techniciens juridiques », et il ne faut pas rêver à court terme d’une IA prête à déployer, fiable, gratuite et dont les avocats ont le monopole!
Certaines préoccupations sont cependant plus sérieuses. L’IA peut-elle amener le praticien à agir aveuglément? Éliminera-t-elle certaines démarches formatrices pour la relève? Offre-t-elle l’image d’une justice inhumaine, ou au contraire efficace? D’un point de vue déontologique, « est-ce qu’on connaît assez les outils de TI […] pour assurer aux clients que ça protège leurs intérêts »?
L’enjeu principal demeure cependant que les robots se nourrissent de données. « Où trouver ces données, à propos de qui doivent-elles être, et qu’en est-il de la protection des renseignements personnels et du droit à l'oubli » restent les questions les plus cruciales à examiner avant de faire le saut. D’autant plus que si ces données sont choisies inadéquatement, on risque de renforcer les préjugés systémiques. À l’autre bout du spectre, la multinationale L’Oréal « a su faire un bon usage de l’IA pour rétablir l’équité de genre au sein de son organisation».
Oublier la R&D traditionnelle
Selon Sylvain Pierrard, pour gérer avec succès une démarche d’IA, les cabinets doivent commencer par accepter d’avoir moins de contrôle sur leur processus d'innovation, et évoluer de l’innovation fermée à l'innovation ouverte.
Ce dernier modèle sous-entend que l'on confie le processus de recherche aux acteurs externes (fournisseurs de solutions, clients, universités, voire des concurrents pour un échange de données ou de solutions déjà testées), à l’exemple de Google qui partage librement son outil d’apprentissage machine TensorFlow.
« Cela permet d'obtenir de la propriété intellectuelle qu'on n’a pas à l'interne » de réduire les coûts, d’accélérer les développements et d’établir des partenariats stratégiques. L’innovation ouverte, c’est aussi de permettre l’utilisation de sa propre propriété intellectuelle par le biais de partenariats ou de licences, voire de cessions si la technologie n’a pas d’intérêt à l’interne.
Quel rôle jouent les avocats dans le développement de solutions d’IA adaptées à l’industrie juridique? « Protéger le public, identifier les opportunités, évaluer les solutions et être en dialogue avec les fournisseurs », énumère Me Pierrard.
Selon lui, tous les acteurs trouvent leur compte dans ce type de partenariat. Les risques sont limités : les cabinets et les fournisseurs de solutions IA ont besoin de l’expertise les uns des autres et n’opèrent pas dans le même secteur. Quant aux clients, sources de données, ils profitent d’une facture moins salée.
L’industrie juridique doit aussi se doter de nouveaux joueurs, comme les analystes en données. Outre les questions juridiques pointues sur leur propriété et leur protection, les données doivent en effet être triées, préparées, unifiées et présentées sous une forme digeste à l’IA. Or, « les avocats n'ont pas cette expertise à l'interne ».
Quelques outils pour appuyer la pratique de tous les jours
Et le profane dans tout ça? Plusieurs solutions technologiques s’efforcent déjà à lui rendre le système de justice plus accessible: Rocket Lawyer, Demander justice, LegalZoom ou OnRègle, une plateforme de négociation en ligne.
En ce qui concerne les avocats, plusieurs centaines d’outils sont disponibles : vérification diligente, divulgation de la preuve, recherche intelligente, rédaction automatisée… en Estonie, on en est même à tester des robots-juges!
Le principal défi? « Départager le bon du mauvais », répond Andrée-Anne Perras-Fortin. Même les meilleurs outils testés au L3IA conservent leur lot de défis. Par exemple, l’outil de vérification diligente Kira : « son entraînement demande beaucoup de documents. On doit prévoir beaucoup d’essais et erreurs. » L’environnement ouvert de l’outil d’analyse de contrats Beagle signifie qu’« on ne peut pas lui confier de documents confidentiels ».
Le Contract and Litigation Companion, en examinant les définitions et la cohérence interne des documents, a tendance à considérer tous les noms de rue comme problématiques. Et ainsi de suite! C’est sans compter que la plupart de ces outils sont en common law et en anglais, ce qui en diminue la portée au Québec. Une exception est l’outil gratuit et multilingue WIPO, qui « est très précis pour effectuer des recherches de brevets avec un vocabulaire technique ».
Problèmes de contextualisation et d’interprétation, difficulté à reconnaître différentes formes de textes, commentaires génériques et répétitifs.
« L’intervention humaine demeure essentielle », conclut Me Perras-Fortin. Bref, on a peut-être parcouru beaucoup de chemin depuis Mary Allen Wilkes et LINC, le premier ordinateur personnel, mais rien pour contredire le résultat des recherches de Frank Levy et Dana Remus. En 2017, ceux-ci répondaient par la négative à la question Can Robots be Lawyers? Pour changer la donne, l’IA, il semblerait, a encore pas mal de données à manger.