« J’ai tout appris sur l’IA générative quand j’étais petit »
Les vieilles règles s’appliquent toujours, malgré la nouveauté de la technologie
Alors que les juristes du Canada commencent à utiliser l’IA générative dans le cadre de leur travail, il peut être utile de se remémorer ce que nous avons appris à la maternelle. Nombre de ces premières leçons demeurent d’actualité, en particulier lorsqu’il s’agit de travailler avec de nouvelles technologies.
Des valeurs de base, comme l’honnêteté, la sécurité et la responsabilité, s’appliquent tout autant dans le monde numérique que dans la salle de classe.
Ne pas raconter d’histoires
À l’école maternelle, nous avons appris que le fait de déformer la vérité pouvait nous attirer des ennuis. Dans le monde de l’IA générative, nous appelons cela une hallucination.
Comme un enfant à l’imagination fertile, l’IA a besoin d’une personne adulte (vous) pour vérifier ses devoirs. Vous ne pouvez pas blâmer le robot pour une fausse citation. Si l’IA vous cite un cas qui semble réel, vous devez le vérifier. Confirmez toujours les citations avec des sources fiables avant de les utiliser dans votre travail.
Partager ses jouets, pas ses secrets
Vous souvenez-vous lorsque l’on exigeait que vous partagiez vos crayons de couleur? Dans le cas de l’IA, cela signifie qu’il faut partager les bonnes pratiques avec vos collègues afin que tout le monde utilise les outils en toute sécurité.
Mais certaines choses ne devraient pas être partagées. Ne saisissez jamais d’informations relatives à la clientèle dans les outils publics d’IA. Ces systèmes peuvent stocker vos données ou s’en servir pour s’entraîner, ce qui peut exposer des informations confidentielles ou privilégiées. Utilisez des outils sécurisés, de qualité professionnelle, qui protègent vos données.
Les informations de votre clientèle doivent être traitées avec soin, qu’elles se trouvent dans un classeur ou affichées dans une fenêtre de requête. Nos obligations déontologiques de compétence, de franchise et de confidentialité ne disparaissent pas simplement parce que la technologie entre en jeu.
Se tenir la main et rester ensemble
Se tenir la main assurait notre sécurité lors des sorties scolaires. Dans le domaine juridique, il s’agit d’examiner les résultats de l’IA avec une autre personne lorsque cela est possible. Une relecture par une autre personne peut permettre de détecter des erreurs, y compris les hallucinations ou les faits inexacts, avant qu’ils ne parviennent à votre client ou, pire, qu’ils ne soient présentés au tribunal.

Pas de tricherie
On apprend aux enfants à ne pas tricher, même lorsque personne ne les regarde. Les juristes devraient traiter l’IA de la même manière.
Attendre de se faire prendre n’est pas la solution, et les cas d’hallucinations ne sont pas des mensonges anodins de cour de récréation; ce sont des risques professionnels. Vous devez examiner et vérifier tout ce que l’outil produit.
Ne pas frapper les autres
Lorsqu’on nous disait, enfant, de « ne pas frapper les autres », cela signifiait qu’il ne fallait pas faire de mal aux autres. En pratique juridique, cela signifie qu’il ne faut pas utiliser la technologie d’une manière qui pourrait nuire à la clientèle ou induire un tribunal en erreur. De nombreux outils d’IA gratuits stockent des données de l’utilisateur ou s’en servent pour se perfectionner. Le partage d’informations privilégiées avec eux peut causer de graves dommages. Vos obligations déontologiques passent avant tout.
Remettre les choses à leur place
Cette règle enseigne l’ordre et la responsabilité. Pour l’IA, cela signifie comprendre où vont vos données, comment elles sont stockées, qui peut y accéder et si elles seront supprimées.
Cela signifie également qu’il faut bien tenir ses dossiers. Si vous avez utilisé l’IA pour faciliter la recherche ou la rédaction, enregistrez ce qui a été généré et ce que vous avez modifié. Cela vous protégera en cas de questions ultérieures.
Nettoyer ses propres dégâts
À la maternelle, vous avez appris à nettoyer vos propres dégâts. En pratique juridique, il faut nettoyer les erreurs de l’IA. Tout comme l’excuse « le chien l’a mangé » explique rarement l’absence du devoir à rendre, les tribunaux n’acceptent pas l’excuse « c’est l’IA qui l’a fait ». Il n’est pas question de renvoyer la balle à l’algorithme.
N’oubliez pas que les outils d’IA peuvent sembler sûrs d’eux, même lorsqu’ils se trompent. Vérifiez les faits et les sources, et appliquez votre propre jugement. Si l’IA commet une erreur, c’est à vous de la trouver.
Faites preuve de prudence avant de vous fier aux résultats de l’IA et d’envoyer des travaux assistés par l’IA. Corrigez les erreurs, supprimez les propos tendancieux et assurez-vous que tout est exact.
Présenter ses excuses et assumer ses erreurs
Tout le monde commet des erreurs. Ce qui compte, c’est la façon dont on y réagit.
Si vous avez utilisé l’IA et qu’une erreur s’est glissée dans votre travail, prenez vos responsabilités et corrigez-la rapidement. La responsabilisation professionnelle incombe toujours au juriste, et non à l’outil.
Se laver les mains
Tout comme le lavage des mains, une bonne hygiène cybernétique est importante. Vous devez vous protéger contre les cyberrisques. Les juristes sont souvent la cible d’attaques d’hameçonnage et d’hypertrucage. Adoptez des pratiques de sécurité rigoureuses, y compris l’authentification multifacteur.
Faire une sieste tous les après-midi
Le repos permet d’avoir les idées claires. Aujourd’hui, l’IA peut inciter les juristes à se précipiter parce qu’elle produit des réponses rapides. Mais la vitesse peut cacher des erreurs. Prenez le temps de réfléchir, de prendre du recul et de vérifier si les résultats de l’IA ont un sens.
Toujours demander « pourquoi »
Les enfants demandent constamment « pourquoi ». Les juristes devraient en faire autant. Demandez à l’IA pourquoi elle a produit un certain résultat ou pourquoi elle a classé les données d’une certaine manière, et demandez-vous pourquoi et comment des préjugés pourraient apparaître dans ses résultats.
Comprendre le fonctionnement de l’IA permet de l’utiliser de manière responsable et d’en expliquer les limites à la clientèle et devant les tribunaux.
En résumé
L’IA générative offre aux juristes de nouveaux outils puissants, mais les principes de base que nous avons appris à l’école maternelle continuent de guider une utilisation responsable.
Le succès ne dépend pas de la technologie elle-même, mais de l’utilisation que l’on en fait avec prudence et discernement, et dans le respect des limites déontologiques.