Pourquoi certains juristes débranchent Internet pour utiliser l’IA
Lorsqu’aucune plateforme commerciale n’offre une protection de la vie privée suffisante, l’utilisation de votre propre modèle peut être la solution
Les juristes de cabinets du pays, grands et petits, et spécialisés dans tous les domaines du droit, se heurtent au même problème Après avoir intégré l’IA dans leur vie personnelle et constaté ses avantages pour la recherche, la synthèse de documents et d’informations, ils souhaitent désormais adopter cette puissante technologie dans leur pratique professionnelle.
Toutefois, ils n’ont pas accès à une plateforme d’IA à laquelle ils peuvent se fier lorsqu’il est question de renseignements sur des clients ou de la communication de la preuve par la Couronne. Même les solutions payantes, comme Protégé de Lexis Nexis, ne leur inspirent pas toujours la certitude d’une sécurité sans faille.
Nous savons tous, ou à tout le moins nous devrions tous le savoir, que nous ne puissions pas télécharger de données sensibles sur des clients vers ChatGPT ou d’autres grandes plateformes commerciales qui ne sont pas conçues pour la pratique du droit.
Mais, à part cette mesure élémentaire, que pouvez-vous faire?
Les ordres professionnels de juristes approuvent-ils l’utilisation des dossiers des clients sur l’IA de Lexis ou de Westlaw? La Couronne, qu’elle soit provinciale ou fédérale, permet-elle aux avocats et avocates de la défense de télécharger des éléments de preuve vers un système d’IA propriétaire? Qu’en est-il des autres organismes gouvernementaux?
Face à cette incertitude, de nombreux juristes avec qui je me suis entretenu – de la Couronne, de la défense, ou en pratique privée – s’abstiennent tout simplement d’utiliser l’IA générative avec les renseignements qui sont en leur possession.
Ils se privent donc d’utiliser l’IA pour une foule de tâches où elle leur serait extrêmement utile, notamment pour trouver un élément caché dans des centaines de pages de documents de preuves, pour résumer des déclarations et des rapports de témoins, ou pour préparer des pièces à conviction.
Certes, un juriste devrait toujours réviser personnellement la communication de la preuve. Mais, une fois cette révision faite, l’IA pourrait bien devenir un allié indispensable pour en tirer parti.
Ni les ordres professionnels de juristes ni la Couronne n’excluent expressément l’utilisation de l’IA à ces fins. Des outils comme Protégé constituent peut-être une solution. Cependant, si l’incertitude persiste, il reste un ultime recours vers lequel se tournent les tribunaux et les gouvernements, une option qui se trouve à portée de main des juristes : utiliser son propre modèle, hors ligne.
Pour ce faire, il importe de bien comprendre ce qui est permis et ce qui ne l’est pas, les raisons pour lesquelles l’hébergement de votre propre système d’IA peut être la voie la plus sûre, ainsi que les implications d’une telle approche.
Directives des ordres professionnels de juristes et politiques de la Couronne en matière de protection de la vie privée et d’IA
La plupart des ordres professionnels de juristes du Canada ont émis des directives sur l’utilisation de l’IA avec des documents de clients, et tous établissent les mêmes limites. Tout d’abord, vous devez parler au client de l’utilisation de l’IA et obtenir son consentement éclairé. Cependant, il est interdit de recourir à des plateformes comme ChatGPT ou à d’autres services dépourvus d’une politique rigoureuse de protection de la vie privée, ou dont il est impossible de garantir que les renseignements ne seront pas utilisés pour l’entraînement de modèles.
Au-delà de ces règles, cependant, toutes les directives que j’ai consultées, y compris celles de la Colombie-Britannique, de l’Alberta et de l’Ontario, suggèrent que les plateformes d’IA internes ou propriétaires dotées de mesures de sécurité solides pourraient être acceptables tant que les juristes font preuve d’une « extrême prudence ».
Ce que les avocats et avocates de la défense peuvent faire avec la communication de la preuve par la Couronne demeure, moins clair. En Colombie-Britannique, la Couronne, qu’elle soit fédérale ou provinciale, ne se prononce pas sur l’IA. Les avocats et avocates de la défense sont seulement informés qu’ils doivent « conserver le matériel de manière sécurisée », sans le copier ni le communiquer à quiconque qu’ils ne supervisent pas.
L’IA propriétaire offre-t-elle une protection de la vie privée suffisante?
Évidemment, personne ne prétendra officiellement que la politique de protection de la vie privée de Protégé ou de CoCounsel, de Westlaw, respecte ces normes, et ce n’est certainement pas ce que j’avance ici.
Toutefois, Lexis, par exemple, cherche à rassurer ces utilisateurs quant à la fiabilité de la protection de la vie privée de sa plateforme. La société affirme qu’elle n’utilise pas les données des clients pour entraîner ses modèles d’IA, qu’elle crypte les données des utilisateurs en transit et au repos, et qu’elle purge les conversations « après 90 jours ou lorsque l’utilisateur les supprime (selon la première éventualité) ». Les documents sont également supprimés après dix minutes d’inactivité ou lors de la suppression d’un « fil de conversation de session ».
Une vérification de sécurité de Protégé est effectuée chaque année par une entreprise tierce, mais des questions demeurent. Est-ce que la mention « aucune donnée n’est utilisée pour de la formation » s’applique-t-elle uniquement aux modèles de base ou à l’ensemble des modèles? Les « fils de conversation de session » incluent-ils tout ce qui a été téléchargé? Comment la suppression est-elle vérifiée? Où sont stockées les données entre-temps?
Le gouvernement ne prend pas de risques
La politique d’IA du gouvernement fédéral jette le doute sur la suffisance des mesures de protection de la vie privée offertes par Protégé ou par tout autre produit de nature semblable. Toutefois, les fonctionnaires peuvent uniquement saisir des renseignements personnels dans des systèmes d’IA générative « qui sont contrôlés ou configurés par le gouvernement lorsque les contrôles appropriés de protection de la vie privée et de sécurité sont en place ».
Si un système d’IA stocke des données à l’extérieur du Canada, ce que la plupart d’eux font, les juristes de l’État doivent composer avec une contrainte supplémentaire – en vertu de lois fédérales et provinciales sur la protection de la vie privée – lorsqu’ils doivent procéder à des évaluations ou obtenir des assurances au sujet de la protection de la vie privée.
À la lumière de tout cela, la solution pour les procureurs et les tribunaux semble évidente : concevoir et gérer leur propre système d’IA.
Le Commissariat à la magistrature fédérale a établi une feuille de route qui semble aller dans cette direction. J’ai entendu des anecdotes sur des projets en cours dans des tribunaux et bureaux de la Couronne de deux provinces qui souhaitent en faire autant.
L’ultime recours : utiliser son propre modèle
Les juristes qui souhaitent recourir à l’IA pour traiter des renseignements de clients ou des éléments de preuve de la Couronne tout en ayant la quasi-certitude que le système protégera la vie privée et sera sécuritaire font face au même choix : utiliser un modèle linguistique sur leur ordinateur, sans connexion Internet.
Comme pour bien des choses, il y a des avantages et des inconvénients.
Les avantages : C’est facile et gratuit à essayer. En une vingtaine de minutes, vous pouvez disposer d’un agent conversationnel capable de lire, résumer, classer ou repérer des documents, et rédige des ébauches et plus encore, ne laissant de trace nulle part ailleurs que sur votre disque dur. Aussi, une fois supprimés, ces renseignements cessent d’exister.
Les inconvénients : Ce n’est pas aussi performant que l’IA que vous avez l’habitude d’utiliser. Cependant, plus votre ordinateur est performant, plus le modèle que vous utilisez est grand et plus il peut accomplir de tâches.
J’ai moi-même expérimenté la chose en téléchargeant LM Studio sur mon MacBook Pro de quatre ans et puis en exécutant divers logiciels libres (en suivant les conseils de ChatGPT pour la configuration). Mon ordinateur ne peut pas exécuter des systèmes assez volumineux pour effectuer la reconnaissance optique des caractères (ROC), ce qui l’empêche de lire les documents numérisés – le format habituel de la communication de la preuve par la Couronne. Cependant, il peut lire des fichiers texte et effectuer des tâches de base. Ce n’est pas encore une solution complète, mais c’est suffisamment prometteur pour que j’envisage d’investir dans un ordinateur plus récent et plus rapide pour en faire plus.
Je vous transmets tous ces renseignements non pas comme un conseil, mais plutôt comme un témoignage de l’évolution rapide des choses. Lorsque je mettrai à niveau mon ordinateur portable d’ici un an ou deux, je doublerai ou triplerai la mémoire vive pour exécuter un modèle beaucoup plus volumineux avec ROC. J’estime que j’aurai besoin de dépenser environ 3 000 dollars pour y arriver.
Résultat : Vous jugerez peut-être qu’un outil comme Protégé offre une protection suffisamment fiable. Mais si ce n’est pas le cas, une autre voie s’offre à vous – celle d’un modèle local, entièrement sous votre contrôle. Il ne sera pas parfait, et vous devrez peut-être investir dans un meilleur ordinateur, mais cette solution pourrait s’avérer efficace et utile.