Actualité 22 septembre 2020

Perspectives d’acteurs : Willie Robert

Membre de Wikimédia France

Trois questions à Willie Robert, membre de Wikimédia France

Pouvez-vous nous présenter la mission de l’association Wikimédia France et vos principaux enjeux aujourd’hui ?

La Wikimédia Foundation, organisme caritatif américain, a la charge de l’infrastructure technique (hébergement, bande passante, logiciel) de l’encyclopédie libre Wikipédia et de ses projets frères (Wiktionnaire, Wikidata, Wikisource, Wikimédia Commons, etc.) mais n’intervient pas sur les contenus (articles encyclopédiques, photos, etc.). L’ensemble des contenus est auto-géré par les communautés de bénévoles, c’est-à-dire potentiellement n’importe quel internaute. Au niveau local, des associations, telles que Wikimédia France, ont pour but de soutenir la connaissance libre et de promouvoir les projets comme Wikipédia. Ces associations sont indépendantes juridiquement de la Wikimédia Foundation et n’interviennent pas non plus sur les contenus. Les buts de Wikimédia France sont notamment des interventions de sensibilisations publiques, l’organisation et/ou la participation à des conférences et congrès nationaux et internationaux, le soutien à la communauté des contributrices et contributeurs aux projets Wikimédia.

Wikimédia France apporte par exemple son expertise pour aider les institutions politiques, éducatives ou culturelles à bien appréhender le fonctionnement des projets Wikimédia et y participer, en contribuant aux articles ou en libérant des contenus. C’est une grosse partie de l’activité de l’association. Un des autres enjeux actuels est de réagir à la prolifération récente des législations nationales et européennes pour réguler le monde numérique, avec à l’horizon le Digital Service Act, qui sera sans doute la réglementation européenne majeure sur le sujet pour les 20 prochaines années. Nous sommes présents pour tenter de faire comprendre aux institutions qu’Internet ne tourne pas entièrement autour de quelques très grosses multinationales et qu’il ne faut que les législations jettent le bébé Wikimédia avec l’eau du bain GAFAM. En 2020, malheureusement, il est assez difficile de faire entendre la voix d’un modèle gratuit, bénévole, open source, dont les contenus sont réutilisables sous licence libre et qui vit grâce aux dons des utilisateurs, sans aucune publicité ni exploitation des données personnelles… même lorsqu’il est utilisé par des dizaines de millions de personnes tous les jours.

À quels défis, actuels et à venir, Wikipédia est/pourrait être confrontée, au vu de son modèle de modération communautaire des contenus ?

Le système de modération de Wikipédia est particulier car il est citoyen et bénévole. Le principe est que tout le monde, tout le temps, peut modérer le contenu. N’importe quelle lectrice ou lecteur de Wikipédia n’a que quelques clics à effectuer pour intervenir sur le contenu d’un article, et ce sans même avoir besoin de créer un compte ou de se connecter puisque ce n’est pas obligatoire pour participer à Wikipédia. C’est une des forces de notre modèle : l’ouverture, qui permet la réactivité. À l’heure actuelle, il y a tous les mois entre cinquante et soixante mille personnes qui contribuent à Wikipédia en français, dont quinze à vingt mille ont créé un compte. On identifie deux défis principaux : maintenir un niveau de participation important et accroître la diversité de la communauté.

En ce qui concerne la participation élevée, un écueil à éviter est la difficulté technique (par exemple, il est moins pratique de rédiger des textes sur téléphone que sur ordinateur, bien que nous savons que les usages ont tendance à se déplacer vers le mobile) et l’inclusivité (avoir une communauté plus ouverte, plus accueillante, mieux gérer les conflits qui se produisent inévitablement comme dans tout groupe social, etc.). Cela fait partie des axes de travail de la Wikimédia Foundation, qui gère l’aspect technique mais prend aussi des initiatives, en liaison avec les communautés et les associations locales, sur l’accueil, la lutte contre le harcèlement en ligne, etc.

Le deuxième défi est la diversité de la communauté. Plus de diversité, cela induit bien sûr une participation globalement plus élevée, mais c’est plus que cela. Si on veut lutter contre la prolifération de tous les types de contenus haineux ou discriminatoires, il faut que la communauté sache les identifier même quand ceux-ci sont énoncés à bas bruit ou de façon détournée. Il faut donc de la diversité dans les profils des personnes qui contribuent à Wikipédia pour assurer une modération équilibrée et sensible à tous les problèmes. Et il y a aussi la problématique de l’invisibilisation : supprimer telle ou telle insulte, c’est de la micro-modération. C’est important, mais ce n’est pas le plus compliqué et surtout ce n’est pas suffisant. Il faut aussi faire de la macro-modération, c’est-à-dire s’assurer que le « discours » complet articulé au travers des millions d’articles de Wikipédia ne soit pas lui-même discriminatoire parce que, par exemple, telle thématique ou point de vue serait démesurément mis en avant et tel autre complètement invisibilisé, ou qu’une thématique serait complètement laissée en jachère, donc très peu modérée faute de personnes intéressées par le sujet. Les biais de représentation sont parmi les premiers vecteurs des discriminations et des discours toxiques. Or, Wikipédia est traversée par les mêmes biais que la société, dont elle n’est qu’un reflet : pour diminuer ces biais et, dans le même temps, améliorer notre modèle de modération, il faut accroître la participation des femmes, des francophones du monde entier (en particulier l’Afrique), faire participer plus de spécialistes académiques, plus de personnes socialement défavorisées, plus de jeunes, plus de personnes âgées, etc. Bref, plus de diversité.

Que pensez-vous des récents débats qui ont émergé sur la fin de l’anonymat sur internet ? Constituerait-t-elle un moyen efficace de lutte contre la propagation de contenus toxiques en ligne ?

Wikimédia France est particulièrement vigilante sur ce point car la remise en cause de l’anonymat ferait courir un risque important au fonctionnement de l’encyclopédie. Ce serait une catastrophe en ce qui concerne l’élaboration des articles, pour la modération de leurs contenus et pour la communauté. Au-delà de ces problématiques, nous sommes aussi tout simplement très inquiets pour la liberté d’expression en général. D’autant plus que le problème est généralement très mal posé, avec une confusion généralisée entre anonymat et pseudonymat, et que les réalités techniques sous-jacentes sont ignorées la plupart du temps. Alors que les communications sur Internet mettent souvent en avant un aspect fortement égotique de la vie sociale, le modèle de Wikipédia pour la production de contenus repose sur la mise à distance de ces égos. Les principes de base font que les personnes qui écrivent dans Wikipédia n’écrivent jamais en leur nom, mais retranscrivent les points de vue énoncés dans des sources tierces, en citant ces sources dès qu’il y a désaccord ou pour prévenir ce désaccord. C’est la clé qui permet d’atteindre un consensus, par le dialogue et la confrontation des sources. Et, c’est un fait, la recherche obligatoire du consensus mène à une propagation très restreinte des contenus toxiques sur Wikipédia, par construction. La fin de l’anonymat n’améliorerait rien sur Wikipédia, bien au contraire.

Côté modération des contenus toxiques plus spécifiquement, les bénévoles qui sont identifiables et qui s’impliquent dans la modération sont aussi particulièrement exposés car nombreux sont les internautes qui n’acceptent pas de se retrouver bloqué ou banni, ou de voir leur travail effacé. Il est arrivé que cela aille jusqu’au harcèlement en ligne ou que des employeurs soient contactés à la suite d’un différend. Connaître l’identité d’une personne qui modère un contenu, c’est un moyen de pression très important, très dangereux et qui dessert bien souvent les plus faibles. Suggérer que tout le monde s’exprime sous son identité civile, comme le proposent certains responsables politiques, est en fait tout simplement pernicieux.

D’une façon générale, ne pas dévoiler son identité est une protection : tout comme des auteurs de l’encyclopédie de Diderot et d’Alembert, des wikipédiennes et wikipédiens ont choisi de ne pas révéler leur identité, par sécurité, car encore de nos jours il est dangereux dans certains endroits du monde d’écrire sur le chef de l’État, l’opposition, la religion, les mœurs, etc. Or, quand la discussion sur « l’anonymat » est abordée en France, pense-t-on au fait que le numérique est mondialisé, que ce que vous lisez a peut-être été écrit par une personne francophone vivant sous un régime dictatorial ? Pense-t-on, aussi, au fait qu’il est encore assez difficile, même en France, de s’exprimer en tant que personne appartenant, par exemple, à la communauté LGBTQ+ ?

Souhaite-t-on vraiment comme alternative : le coming out ou se taire ? Pense-t-on aux mineurs : devront-ils, eux aussi, dévoiler leur identité à tout Internet, et perdre le droit à l’oubli de leurs erreurs de jeunesse ? Alors, oui, certaines personnes malveillantes cachent leur identité pour diffuser des contenus toxiques. Mais le fait que le remède soit pire que le mal n’est que très peu souligné, et ça, c’est inquiétant. Sans compter que l’efficacité de telles mesures reste à prouver : quelle que soit la « solution » qui serait retenue, on sait aussi que les personnes les plus motivées et les mieux équipées pour contourner ce type de législations sont souvent les personnes les plus malveillantes.

Enfin, il y a aussi confusion sur les acteurs ciblés par les discussions sur la fin de l’anonymat sur « Internet ». On évoque généralement les « réseaux sociaux », mais ne nous y trompons pas : si une loi devait voir le jour elle viserait beaucoup plus large que les deux ou trois réseaux sociaux généralement cités sous un vocabulaire vague (« plateforme », « opérateur de contenus », etc.). Les mêmes raccourcis sémantiques ont été employés lors des débats de la loi contre la manipulation de l’information et de la loi contre les contenus haineux. Conséquences : Wikipédia entre dans le champ d’application de la première et aurait également été concernée par la deuxième, alors qu’elle n’est citée par personne comme étant un vecteur des problèmes qu’on cherche à régler.

Plutôt que de véhiculer des idées simplistes, nous militons pour l’éducation (des internautes et des responsables politiques), pour la coordination entre les différents acteurs impliqués et pour que plus de moyens soient alloués à la justice pour agir dans le respect des libertés fondamentales.