Passer au contenu

Quand la machine est aux commandes

Comment répliquer avec retenue aux résultats générés par l’IA tout en recadrant la conversation sur les décisions concrètes qui incombent au client

Un avocat examine une grande pile de documents de recherche empilée sur le sol.
iStock/triloks

Ça m’est arrivé deux fois cette semaine. Un client m’a présenté le fruit de ses recherches obtenu après avoir entré un avis juridique (confidentiel) dans ChatGPT (et je parle ici de sa version gratuite, qui n’est pas confidentielle), pour ensuite me demander mon avis quant à « tous ces facteurs qui, selon l’IA, sont importants dans mon dossier ».

Confronté à ces volumineux exposés crachés par la machine, j’ai éprouvé un réel malaise à expliquer à mon client (et à son assistant virtuel) qu’aussi confiant et grammaticalement correct que fût ce « deuxième avis », ce serait sans doute pour moi une perte de temps d’expliquer toutes les raisons pour lesquelles celui-ci n’était d’aucune utilité dans les circonstances.

En relatant cet incident à des collègues, j’ai réalisé que nous faisions de plus en plus les frais de cette tendance. De plus en plus souvent, le client d’aujourd’hui nous arrive muni de ses propres recherches, générées par un algorithme qui n’impose pas de tarif horaire, mais affiche une confiance sans faille.

Quand l’IA nous contredit

Ce n’est pas d’hier que les clients cherchent à obtenir un deuxième avis, mais l’intelligence artificielle (IA) est venue réduire presque à néant les délais et les coûts associés à la démarche. Qu’il s’agisse de rédiger une stipulation contractuelle, de résumer un jugement ou d’explorer une structure fiscale, les outils d’IA peuvent à présent formuler des avis juridiques apparemment éclairés et souvent avec assez d’aplomb pour remettre notre jugement en question.

Le hic, c’est que l’IA ignore ce qu’elle ne sait pas. Elle ne comprend pas la nuance, le contexte ou le raisonnement qui sous-tend les conclusions d’un professionnel. Lorsqu’elle se penche sur le travail d’un juriste, elle n’analyse pas le processus cognitif, mais se limite à faire des liens entre les lignes du texte, et c’est là que le bât blesse.

L’une des nouvelles dynamiques les plus courantes et frustrantes entre en jeu lorsque l’IA lit un avis juridique ou un contrat, pour ensuite présenter, en toute assurance, des « points supplémentaires » que le juriste aurait supposément omis.

Or, ces points n’ont rien de nouveau. Le juriste les a déjà considérés, jaugés et délibérément écartés en raison de leur manque de pertinence ou d’importance, ou parce qu’ils sont déjà adéquatement traités par d’autres dispositions. L’IA est aveugle à cette logique, cependant : elle ne voit que les modalités du texte.

Voilà qui engendre deux problèmes d’entrée de jeu.

Premièrement, le juriste doit prendre le temps d’expliquer à son client qu’il avait déjà étudié, puis écarté les points en question. Fondé sur l’analyse du droit et reflétant une mise en équilibre des risques, des coûts et des réalités de la pratique, le jugement humain doit maintenant être défendu contre la certitude simpliste d’une machine.

Deuxièmement, ce phénomène vient subtilement miner la confiance du client, qui, face à un avis généré par l’IA, est porté à se demander si quelque chose a échappé au juriste. Même lorsque ce dernier arrive à démontrer le bien-fondé de sa réflexion, ce processus peut éroder le lien de confiance.

Un troisième problème se pose, celui-ci étant d’ordre économique.

Si nous devenons obligés de décortiquer et de justifier chacune de nos décisions analytiques à un auditoire algorithmique fantôme, c’est la pratique du droit elle-même qui s’en trouvera alourdie et plus coûteuse. On peut comparer la situation à celle d’un pilote qui narre chacune de ses décisions à ses passagers en plein vol, expliquant pourquoi il ajuste l’altitude, pourquoi il change de cap, et pourquoi il n’y a rien à craindre des turbulences. Aussi instructives que soient ces explications, elles représentent une distraction; elles détournent l’attention de ce qui importe réellement, soit piloter l’aéronef de façon sécuritaire.

On peut dire la même chose du droit. En nous attardant à expliquer en quoi chaque facteur potentiel soulevé par l’IA est sans importance, on risque de perdre l’efficacité et la précision qui donnent sa valeur à notre jugement professionnel.

Quand s’expliquer devient risqué

Un autre risque, bien que plus subtil, mérite notre attention : la responsabilité professionnelle qui découle des répliques offertes à la rétroaction générée par l’IA.

Chaque fois qu’un client soumet des préoccupations produites par l’IA à son juriste, et que celui-ci explique, par écrit, en quelle mesure les points soulevés sont erronés ou sans pertinence, une trace écrite est créée, un fil croissant de commentaires, de clarifications et de réfutations. Avec le temps, ces échanges ressembleront davantage à une liste d’instructions du client qu’à un raisonnement professionnel.

Voilà où se trouve le danger.

Si l’une des suggestions générées par l’IA se révèle plus tard être d’une pertinence indirecte, ou s’il survient un différend, les échanges écrits susmentionnés pourraient être mal interprétés. D’aucuns pourraient croire que le client a soulevé un problème et que le juriste l’a ignoré, alors qu’en réalité, ce dernier n’a fait qu’écarter un faux positif. Toujours est-il qu’avec le recul et sous l’éclairage brutal de la judiciarisation ou des poursuites en négligence professionnelle, la distinction entre le babillage de l’IA et les instructions d’un client peut être floue.

Autrement dit, plus on débat avec la machine, plus on y devient vulnérable.

Cette dynamique met les praticiens en mauvaise posture : s’ils répondent trop brièvement, ils peuvent paraître fermés; s’ils répondent trop en profondeur, ils créent davantage de points hypothétiques qui pourront être soulevés plus tard.

Trouver l’équilibre nécessite jugement, discipline et retenue. Toutes les déclarations de l’IA ne méritent pas de réponse écrite. Parfois, il est plus prudent et professionnel de recadrer la conversation sur ce qui importe : la décision que le client doit prendre dans la vraie vie.

Traiter le dossier ou instruire la machine?

Les cabinets qui maîtrisent cette dynamique, au lieu de subir l’IA, l’utilisent comme un pont. Lorsque l’IA d’un client soulève quelque chose, il ne faut pas être sur la défensive. Mieux vaut répondre quelque chose comme : « C’est une bonne observation. Laissez-moi vous expliquer pourquoi ce facteur ne s’applique pas ici, et ce que nous avons pris en compte pour en venir à cette conclusion. »

Bien dirigées, ces interactions favorisent la confiance. Elles démontrent que le juriste n’est pas menacé par l’IA, mais qu’il la supplante par la richesse de son raisonnement.

À l’inverse, lorsqu’elles sont mal dirigées, elles peuvent miner la crédibilité du juriste. En effet, le client peut percevoir la fermeture ou l’impatience de celui-ci comme de l’évitement. À l’inverse, en expliquant trop, on risque de valider la confiance aveugle du client en l’IA. Pour la prochaine génération de conseillers juridiques, savoir créer cet équilibre sera une compétence salutaire.

Par ailleurs, il y a lieu de faire comprendre au client la dimension pratique de la chose : les explications prennent du temps, et le temps, c’est de l’argent. Pour chaque question soulevée par l’IA, le juriste doit l’analyser, la mettre en contexte et en expliquer la pertinence. Voilà qui n’est ni gratuit ni efficace.

Tôt ou tard, un rappel à la réalité sera nécessaire. Il est tout à fait justifié de demander au client, directement, mais poliment, s’il est prêt à nous payer pour débattre avec son robot.

La question désarme, mais elle va au cœur du problème. Le travail du juriste, ce n’est pas de parlementer avec un algorithme, mais bien de guider le jugement humain à travers les complexités. Il revient au client de décider s’il veut que le juriste s’occupe de son dossier ou instruise la machine.

Dès que l’IA s’introduit dans les discussions avec un client, il y a lieu pour le juriste d’imposer clairement ses limites d’entrée de jeu. Il est prudent d’indiquer explicitement jusqu’où nous sommes prêts à faire place aux conseils générés par l’IA. Vu l’état actuel de ces outils, la plupart du temps, la meilleure réponse à donner, professionnellement parlant, est d’indiquer poliment qu’il n’est pas dans l’intérêt supérieur du juriste ou du client de le faire. On devrait plutôt inviter le client à soulever les points particuliers qu’il aimerait voir expliqués ou défendus. Voilà qui place la responsabilité et les décisions pécuniaires sur les bonnes épaules : le client peut choisir de payer davantage ou non.

La valeur véritable du jugement

Entre les mains d’un professionnel, l’IA peut être un outil redoutable. Elle peut nous aider à épurer de longues listes de facteurs, à trouver des précédents utiles et à résumer une position rapidement. Utilisée à bon escient, elle peut apporter célérité et efficacité à l’analyse juridique.

Or, ce potentiel repose entièrement sur le jugement de l’utilisateur. Entre les mains du client, qui n’a ni la formation ni l’instinct nécessaires pour demander ce qu’il faut à l’IA et interpréter correctement ses réponses, celle-ci peut devenir dangereuse, trompeuse.

Les juristes ne font pas que cerner les problèmes. Ils les trient et les priorisent; ils se concentrent sur ce qui est réellement pertinent pour leurs clients. Ils tiennent compte du pouvoir de négociation de leurs clients, de l’opportunité des décisions à prendre et des réalités commerciales, autant de facteurs qu’aucun algorithme ne peut évaluer à ce jour.

Voilà où se trouve la vraie valeur du juriste. L’IA peut accélérer la recherche de possibilités, mais elle ne peut pas décider lesquelles sont pertinentes.

L’avenir de la relation de conseil

L’arrivée de l’IA dans l’arsenal du client a changé les règles du jeu. Finie l’époque où seul le juriste pouvait analyser les problèmes. Il reste toutefois le seul à pouvoir les comprendre.

L’IA peut débusquer les questions à résoudre, mais ne peut pas les prioriser. Elle peut dénicher les possibilités, mais ne peut pas poser de jugement. Les juristes doivent à présent relever le défi de transformer les faux positifs en occasions de démontrer précisément ce que la machine est incapable de reproduire : l’expérience, le discernement et le jugement professionnel.

L’avenir de la profession juridique n’appartient pas à ceux qui luttent contre l’IA, mais à ceux qui sauront l’adopter avec calme, avec intelligence, et sans oublier que face aux complexités, les clients auront toujours besoin d’un pilote aux commandes.

*Cet éditorial a paru à l’origine, en anglais, dans le magazine JUSTE, de l’Association du Barreau de l’Ontario.