Déplatformer la misogynie
Un rapport publié par le Fonds d’action et d’éducation juridique pour les femmes dit que les plateformes doivent être tenues responsables de la prolifération de la violence en ligne contre les femmes et les filles.
Comment se fait-il qu’une adolescente puisse rapidement voir sa vidéo sur YouTube disparaître, car elle contient quelques mesures d’une chanson de Beyoncé, mais que personne ne puisse rien faire lorsque des photos intimes de cette adolescente sont affichées partout sans son consentement? Pourquoi des photos d’oignons doivent-elles être retirées car elles sont jugées « sexuellement suggestives », alors que des menaces de viol ciblées, crédibles et reconnues ne sont pas réputées enfreindre les modalités de service de la plateforme?
Un nouveau rapport publié par le Fonds d’action et d’éducation juridique pour les femmes (FAEJF) intitulé Deplatforming misogyny (rapport intégral uniquement en anglais, mais un résumé est disponible en français sur leur site Web sous le titre Déplatformer la misogynie) enquête sur ces lacunes de notre cadre juridique et propose 14 recommandations pour rendre l’Internet plus sécuritaire pour les femmes et les filles au Canada.
Le rapport, financé en partie par une subvention accordée par le Fonds pour le Droit de demain de l’Association du Barreau canadien, examine le rôle des plateformes numériques dans la prolifération de la violence, des abus et du harcèlement des genres facilités par la technologie (TFGBV). Il exhorte le gouvernement fédéral à tenir les plateformes numériques responsables au moyen de la réglementation ou d’une responsabilité légale.
« Nous devons reconnaître que la TFGBV est un problème et que les plateformes jouent un rôle suffisamment important pour justifier que leur soit imposé un certain degré de responsabilisation ou de responsabilité », dit Cynthia Khoo, avocate spécialisée en droit de la technologie et des droits de la personne qui a rédigé le rapport. « Cependant, cette responsabilité doit être imposée avec prudence pour promouvoir l’égalité et pour que le droit ne se retourne pas contre nous. »
Ainsi, dit-elle, une loi qui vise les préjudices en ligne de manière générale, comme la désinformation, le harcèlement ou le cyberterrorisme, pourrait aller trop loin et être déclarée inconstitutionnelle au motif qu’elle viole la liberté d’expression.
En cas de contestation d’une loi régissant la misogynie en ligne, les tribunaux devront déterminer si les restrictions imposées à la liberté d’expression sont justifiées en vertu de la Charte et si elles satisfont au critère de la proportionnalité.
« Si vous essayez de réaliser 10 choses différentes à la foi au moyen d’un seul et unique régime, comment savoir si c’est proportionné ou non puisque l’analyse de la proportionnalité va être très différente en ce qui concerne le terrorisme ou la diffusion non consensuelle d’images intimes », dit Me Khoo.
Le rapport du FAEJF exhorte le gouvernement fédéral à créer un régime particulier pour la violence sexospécifique, ou au moins, à le limiter à la violence et les abus en ligne qui sont ancrés dans l’oppression systémique.
« Nous devons argumenter au sujet de l’identité des personnes qui revendiquent la liberté en question », dit Pam Hrick, directrice générale du FAEJF et avocate principale, à qui le Prix de l’étoile montante Douglas-Miller de l’ABC a été décerné en 2021. La cyberviolence décourage les femmes de participer plus activement à la vie publique en ligne, dit-elle. Bien qu’encouragée par le fait que les gouvernements tentent de résoudre la question des préjudices en ligne, Me Hrick insiste sur le fait qu’ils doivent « ancrer leurs réponses et les mesures qu’ils prennent dans les connaissances des experts en droit de la personne, dans l’expérience des victimes de violences facilitées par la technologie et des personnes qui, en première ligne, font face à cet enjeu au quotidien ».
La création d’un système qui incite les plateformes à commettre l’erreur d’éliminer trop de contenu est un autre écueil à éviter. Il existe un risque que le gouvernement promulgue un régime dans lequel le contenu préjudiciable est éliminé, de concert avec « une grande quantité de contenu légitime, légal et utile, dit Me Khoo, plus précisément, celui émanant de groupes marginalisés depuis longtemps ». Elle mentionne les romans de « fan fiction » gais, ou la documentation d’éducation sexuelle positive destinée aux jeunes personnes transgenres comme des exemples de contenu pouvant facilement être visé et éliminé lorsque les plateformes sont réglementées trop strictement.
Ce dont nous avons besoin, ce sont des définitions claires de ce qui constitue de la violence sexospécifique inacceptable. C’est alors seulement que les personnes qui surveillent le contenu disposeront de bons outils pour prendre les décisions appropriées au lieu de s’en remettre à des algorithmes qui ne peuvent pas percevoir la différence entre une photo intime et celle d’un sac d’oignons.
Déplatformer la misogynie n’a pas pour objet, il faut bien le dire, de museler les personnes qui pourraient afficher un mème sexiste sur leur page Facebook. Il s’agit plutôt de prévenir la prolifération de violence sexospécifique qui, autrement, se retrouve normalisée en ligne. « Cela devient une manière de resserrer les liens avec vos amis, explique Me Khoo. Et les autres, les personnes qui subissent un préjudice, ne sont que des gens qui font les frais de cette formation de liens sociaux et de cette compétition sociale. »
La normalisation de la misogynie en ligne pose également un autre problème : elle peut rapidement faire boule de neige alors que chacun tente de surpasser les autres. « C’est dans ces cas que nous constatons son évolution hors ligne et que nous faisons face à des actes tels que les tueries perpétrées par des personnes appartenant à la sous-culture incel (célibataire involontaire) », dit Me Khoo.
Il importe que les gens comprennent que la violence facilitée par la technologie « cause des préjudices disproportionnés aux femmes, et même plus particulièrement à celles qui ont des identités intersectionnelles, dit Pam Hrick. Ce n’est pas “juste des mots” ou “juste en ligne”. Cela cause un grave préjudice psychologique, cela nuit à la capacité des personnes qui sont visées à vivre pleinement, car il n’existe plus aucune division réelle entre ce qui est “en ligne” et “hors ligne”. »
Maître Khoo et Me Hrick disent espérer que le rapport aiguillera la conversation vers un autre sujet que le faux débat qui oppose la liberté d’expression et l’opposition aux messages préjudiciables affichés en ligne. « Ce que nous tentons de souligner dans ce rapport, c’est que non, nous ne tenons pas les plateformes responsables pour ce que les utilisateurs y expriment. Nous les tenons responsables du rôle particulier qu’elles jouent dans la promotion de ce qui se passe quant à l’expression des utilisateurs, et pour la création de ces environnements particuliers » dans lesquels la violence et les abus prolifèrent, explique Me Khoo. « Cela n’en revient pas à tenir les plateformes responsables de l’expression et des actes d’un utilisateur, c’est les tenir responsables de leurs propres actes. »