Passer au contenu

Signalement de contenu préjudiciable

Que propose au juste le gouvernement?

Harmful content concept illustration

À la dernière séance de la Chambre des communes, ce printemps, le gouvernement libéral a présenté un document de consultation sur son plan de lutte contre le discours haineux en ligne en même temps qu’il déposait le projet de loi C-36, qui propose de rétablir l’article 13 de la Loi canadienne sur les droits de la personne, tout en créant de nouvelles infractions criminelles sur la propagande haineuse, et d’agrandir le Tribunal canadien des droits de la personne. Si son intention avait d’abord été de réunir ces deux volets dans le même projet de loi, le gouvernement a plutôt choisi de les distinguer, sans doute à cause de la controverse que la consultation ne manquera pas de soulever.

Les résultats de l’élection auront bien sûr une incidence considérable, mais le document de consultation propose la création d’une Commission canadienne de sécurité numérique soutenant trois organismes chargés de lutter contre le contenu préjudiciable en ligne : un Commissaire à la sécurité numérique du Canada, qui administrerait le cadre législatif; un Conseil de recours en matière numérique du Canada, qui agirait comme instance d’appel; et un Comité consultatif d’experts, qui formulerait des avis à l’intention des deux premiers pour éclairer leurs processus et leurs décisions, mais sans s’impliquer lui-même concrètement dans les décisions relatives à la modération du contenu de l’un ou de l’autre.

Le système proposé cible cinq catégories de contenu préjudiciable : le contenu terroriste, le contenu incitant à la violence, les discours haineux, le partage non consensuel d’images intimes et le contenu d’exploitation sexuelle des enfants. Il prévoit également qu’une plate-forme en ligne doive rendre inaccessible dans les 24 heures tout contenu répondant à la définition d’une de ces catégories. Or la plupart des observateurs jugent cela impraticable.

Richard Marceau, vice-président des relations externes et avocat-conseil au Centre consultatif des relations juives et israéliennes (le CIJA), se dit déçu que le gouvernement ait choisi de séparer la consultation du projet de loi C-36. Il espérait une action plus rapide.

« Espérons que le gouvernement élu prendra le relais, lance-t-il. Il faut absolument s’attaquer sérieusement au discours haineux en ligne, car il a des conséquences directes dans la vraie vie. Les gens passent beaucoup plus de temps en ligne, les dangers associés à la haine et à la radicalisation sont encore plus présents qu’auparavant. »

Me Marceau voit dans la proposition gouvernementale un certain nombre d’éléments prometteurs, notamment l’idée d’une autorité indépendante de réglementation du contenu en ligne, de même que l’adoption d’une réglementation claire à l’intention des entreprises de médias sociaux.

« Un récent rapport montre que 84 % du contenu antisémite signalé n’a pas été retiré, affirme-t-il. L’industrie ne peut pas être laissée à elle-même, car elle a amplement démontré qu’elle était incapable de s’autoréglementer pour éradiquer ce cancer. »

Me Marceau se réjouit également que la consultation propose de faciliter le signalement de contenu haineux.

« Nous sommes heureux que le gouvernement ait accepté notre suggestion de faire correspondre la définition de la haine à celle qu’a utilisée la Cour suprême du Canada dans l’arrêt Whatcott; c’est un point essentiel, dit-il. Il y aura une discussion importante autour de la liberté d’expression. L’arrêt Whatcott est très clair : la barre est très haute quant à ce qui constitue de la haine et peut donc être sanctionné. Il ne s’agit pas d’empêcher les gens de s’exprimer, de les censurer. »

L’un des défis, c’est qu’il soit trop facile pour une grande société de payer l’amende. Selon Me Marceau, le gouvernement devrait envisager de tenir personnellement responsables les dirigeants d’entreprises de médias sociaux qui ne retirent pas le contenu haineux signalé.

Pour Emily Laidlaw, titulaire de la Chaire de recherche du Canada en droit de la cybersécurité à l’Université de Calgary, la consultation met en lumière le défi que représente la recherche d’un équilibre entre la libre expression et le droit à l’égalité et à la vie privée.

« Il faut revenir en arrière et réécrire des portions et revoir la portée de la législation pour trouver un équilibre adéquat entre ces droits », affirme-t-elle.

Me Laidlaw est en faveur de l’idée et de la structure d’une Commission de sécurité numérique, à condition que ses pouvoirs et son domaine d’application soient circonscrits, et qu’elle ait les ressources nécessaires pour effectuer son travail. « Si elle ne dispose pas des bonnes personnes, adéquatement formées, ce sera une catastrophe », dit-elle.

David Fraser, avocat spécialisé en protection de la vie privée et associé chez McInnes Cooper, à Halifax, est plutôt sceptique. « Cette consultation, c’est de la poudre aux yeux, lance-t-il. La plupart des gens avec qui j’ai discuté à l’étranger, qui collaborent avec les entreprises qui doivent composer avec ces [propositions] un peu partout, s’entendent pour dire que c’est l’une des pires. »

Parmi les cinq catégories ciblées, plusieurs sont déjà des infractions criminelles, explique-t-il. Quand il s’agit d’incitations à la violence, la police a déjà beaucoup de difficulté à déterminer s’il faut ou non porter des accusations.

Nos tribunaux ont déjà énormément de mal à interpréter ces catégories avec précision, ajoute-t-il. C’est donc beaucoup demander aux plates-formes en ligne de modérer du contenu et de « construire des systèmes capables de détecter et de rendre inaccessible tout ce qui entre dans ces catégories ». Par ailleurs, « il doit aussi y avoir un mécanisme de plainte, et ces plaintes doivent être traitées dans les 24 heures; en cas d’erreur, elles s’exposent à des pénalités importantes », conclut-il.

Me Fraser se dit aussi préoccupé par les exigences de divulgation des données des utilisateurs impliqués dans la pornographie juvénile, des exigences qui s’appliqueraient sans mandat ni surveillance judiciaire. Si l’utilisateur concerné est en Europe, la communication de ces données violerait le Règlement général sur la protection des données de l’Union européenne (le RGPD). On parle également de la possibilité d’obtenir une ordonnance obligeant tous les fournisseurs d’accès Internet à bloquer les sites Web jugés en infraction flagrante.

« Cela ouvre la porte à d’autres ordonnances de blocage de sites Web pour d’autres raisons, dit Me Fraser. Il sera très difficile pour quiconque d’appliquer [la loi proposée]. »

Selon Emily Laidlaw, l’obligation de surveiller les sites Web est très problématique, car elle crée un énorme risque pour la confidentialité.

« Grosso modo, la proposition dit qu’un organisme privé doit surveiller activement toutes les communications sur sa plate-forme, explique-t-elle. Ce qu’on propose, c’est une obligation générale de surveillance. Je n’ai jamais vraiment vu ça de la part d’un gouvernement occidental, une portée si large. »

Quant à Lex Gill, avocate de Montréal affiliée au Citizen Lab qui s’exprime en son propre nom, elle se dit frustrée parce que le gouvernement sait très bien qu’il y a des problèmes constitutionnels et des atteintes aux libertés civiles dans ce que propose le document.

« Le Fonds d’action et d’éducation juridique pour les femmes a publié un rapport révolutionnaire sur la responsabilité des intermédiaires en lien avec la violence contre les femmes en particulier, explique-t-elle. C’est un document incroyablement constructif. Et absolument rien n’indique que le gouvernement l’ait lu avant de produire son document de consultation. »

Me Gill note également qu’aucun des intervenants antérieurement consultés par le gouvernement n’avait demandé de nouveaux pouvoirs pour la police et les organismes de renseignements, soulignant que la plus grande partie de ce qui est proposé remonte à un projet de loi conservateur de lutte contre le terrorisme qui prévoyait le même genre de pouvoirs considérables.

« La technologie de censure est essentiellement une technologie de surveillance, explique-t-elle. On ne peut avoir une infrastructure qui supprime du contenu à grande échelle – c’est ce que propose le projet – sans se doter d’un mécanisme qui suit, évalue, catégorise et surveille les activités de chaque utilisateur pour faciliter cette suppression de contenu. »

Elle souligne qu’une fois un tel mécanisme en place, il devient extrêmement facile d’ajouter de nouvelles catégories de contenu à surveiller et à filtrer.

« Cela devient insidieux; une technologie construite à une fin particulière est aisément détournée à d’autres fins », ajoute-t-elle.

En ce qui concerne l’avis de 24 heures pour la suppression de contenu, l’analyse du contenu signalé nécessite plus de temps.

« Donner 24 heures pour supprimer du contenu, ça sonne bien pour le gouvernement, mais c’est infaisable », explique Me Fraser, qui ajoute que les sites Web pécheront vraisemblablement par excès de censure. « S’ils laissent passer quelque chose et que le Commissaire est en désaccord, ils s’exposent à des pénalités. À l’opposé, la suppression d’un contenu légal n’entraîne aucun autre inconvénient que la disparition d’un contenu parfaitement légitime. »

On dispose de preuves empiriques montrant qu’un tel régime de suppression peut mener au retrait de contenu légal, affirme Emily Laidlaw. Mais le processus d’appel intégré au régime proposé pourrait permettre de résoudre le problème. Selon Me Marceau, la solution réside dans un moyen rapide de retirer un contenu haineux, jumelé à un bon mécanisme d’appel.

« La technologie évolue très rapidement, de même que l’intelligence artificielle; l’industrie des technologies devrait consacrer des ressources à ce qui représente aujourd’hui la place publique, dit Richard Marceau. Une grande partie de cette place publique se retrouve sous le contrôle d’entreprises, et ce contrôle doit s’accompagner de responsabilités, notamment celle de consacrer suffisamment de ressources à la lutte contre les fomenteurs de haine pour éviter qu’ils ne la prennent d’assaut. »

Les systèmes de suppression automatique de contenu ne sont pas non plus une panacée : comme ils ont tendance à être biaisés, ils nécessitent une intervention humaine et un processus d’appel, et donc des délais plus flexibles.

Supposons que l’on souhaite se doter d’un processus qui garantit l’équité des procédures et qui correspond aux garde-fous prévus par la Charte. Selon Me Fraser, il devrait s’agir d’un processus accéléré semblable à l’obtention d’un engagement de ne pas troubler l’ordre public auprès d’un tribunal provincial, et qui amènerait toute plate-forme de bonne tenue à respecter une ordonnance de suppression.

Certains s’inquiètent aussi de voir au poste de Commissaire à la sécurité numérique un activiste pressé de supprimer du contenu. Pour David Fraser, un juge serait perçu comme plus impartial.

Mais ce ne serait peut-être pas réaliste, étant donné la quantité de dossiers qui pourraient se retrouver devant les tribunaux. « Les processus judiciaires sont lents, souligne Me Laidlaw. L’organe de recours proposé ne sera peut-être pas plus rapide, mais étant donné la quantité de ce genre de publications et la vitesse à laquelle bougent les choses, il semble logique d’en sortir une partie de l’appareil judiciaire pour la confier à un groupe d’experts. »

Il faut bien voir qu’il est forcément difficile de faire obstacle à la publication de contenu préjudiciable en ligne. « Si la solution idéale existait, on l’utiliserait déjà, lance Me Laidlaw. Mais je suis contente qu’on tente quelque chose. »