Actualité 16 mars 2020

Perspectives d’acteurs : Jacob Berntsson

Research Manager chez Tech Against Terrorism

Trois questions à Jacob Berntsson, Research Manager chez Tech Against Terrorism

Pouvez-vous nous décrire les origines et le rôle de Tech Against Terrorism

À l’origine, Tech Against Terrorism est une initiative du Comité contre le terrorisme des Nations unies (UN CTED) – qui dépend directement du Conseil de sécurité de l’ONU – visant à contrer l’usage d’internet à des fins terroristes. Lorsque le projet a été lancé en 2016, l’utilisation d’internet par les groupes terroristes, notamment Daesh, posait de sérieux problèmes ; même pour les plateformes comme Twitter et Facebook qui ont depuis amélioré leur capacité de réaction. Le CTED avait alors organisé trois ateliers de travail avec les parties prenantes – entreprises du numérique, acteurs de la société civile, organisations gouvernementales et universitaires. Ces travaux ont accouché de quatre conclusions majeures : premièrement, le besoin d’une base de données répertoriant les contenus terroristes identifiés. Deuxièmement, le constat que l’émergence d’un usage terroriste d’internet n’est que l’extension numérique d’une violence terroriste bien réelle : la source du problème n’est pas à chercher en ligne, mais dans le monde physique, d’où la nécessité d’adopter une approche holistique pour envisager le sujet dans sa globalité. Troisièmement, il est vital d’incorporer le respect des droits humains à toute forme de réponse. Si le combat contre le terrorisme donne lieu à une restriction de la liberté d’expression, alors on va dans le mauvais sens. Enfin, quatrièmement, il faut prendre en compte les capacités limitées des petites entreprises face à cette problématique.

Depuis 2017, nous sommes devenus une organisation indépendante financée par les gouvernements et le secteur privé, même si nous suivons toujours l’orientation du CTED. Notre activité principale est d’aider les plateformes numériques à améliorer leur réponse à des usages extrémistes ou terroristes de leurs services. Cet objectif se décline en trois missions : en premier lieu la sensibilisation. Nous élaborons une cartographie des menaces grâce à des techniques de recherche en source ouverte (open source intelligence – OSINT) afin d’identifier quelles plateformes sont utilisées par les terroristes pour relayer quels messages. Nous faisons de notre mieux pour mener un travail constructif avec les plateformes et cherchons à comprendre comment les aider selon leurs spécificités. Deuxièmement, nous essayons de faciliter la coopération entre les entreprises de la tech. Certaines entreprises leader de ce secteur – comme Facebook, Twitter, Google, et Microsoft, qui ont fondé le GIFCT (Global Internet Forum to Counter Terrorism) – ont développé une réflexion importante et investi des ressources considérables pour contrer le terrorisme. Il existe donc quantité de bonnes pratiques à partager entre ces sociétés et des entreprises de plus petite taille qui découvrent cette problématique sur leur site internet. Notre troisième axe de travail est le développement de solutions opérationnelles et l’offre d’un soutien technique. Nos développeurs et data scientistscréent de nouvelles solutions et aident les acteurs de la tech à renforcer leurs programmes d’identification des contenus dangereux et de modération.

Nous avons la responsabilité de diffuser auprès des acteurs privés la connaissance produite par la société civile et universitaire, afin qu’elle donne lieu à une réponse effective sur les plateformes, c’est-à-dire l’implémentation de mesures opérationnelles par les entreprises de la tech. En tant qu’acteur issu d’un partenariat public-privé, nous travaillons avec tout le monde. Nous nous percevons comme un intermédiaire chargé de coordonner les efforts des différents secteurs. Notre neutralité et notre indépendance nous permettent de jouer pleinement ce rôle.

L’absence d’une définition unanimement reconnue du terrorisme impacte-t-elle la compréhension de votre mandat, et affecte-t-elle votre travail ?

Comme vous le suggérez, il ne s’agit pas seulement d’un débat académique, cette question impacte effectivement la manière dont les entreprises du numérique vont opérer, et quel type d’action elles peuvent envisager. Si les grandes plateformes se sont montrées si efficaces face aux contenus de Daesh, c’est car il existait très clairement un mandat international unanime à l’encontre de cette organisation. Ce consensus a facilité le développement de solutions techniques comme le hashing et le hash sharing (partage d’empreintes liées aux contenus) permettant d’identifier et de retirer rapidement la propagande de Daesh. Mais le terrorisme est un domaine qui possède de nombreuses zones grises où il est plus difficile d’agir car toute réponse technique nécessite une approche catégorique “noir et blanc”. Cela ne veut pas dire qu’il s’agit d’un sujet noir et blanc ni que les solutions techniques devraient fonctionner ainsi, mais les machines ne sont pas encore efficaces pour apporter des nuances. Lorsque nous entraînons une solution automatisée, il faut lui donner des réglages bien précis lui permettant de déterminer clairement ce qui est et ce qui n’est pas du terrorisme. C’est pourquoi un consensus international sur les groupes terroristes nous aiderait beaucoup car il apporterait cette clarté indispensable : s’il existe un consensus sur le fait que le Groupe X est terroriste, alors vous pouvez implémenter le logo de ce groupe dans votre programme de base de données automatisée. Les définitions sont importantes.

Nous utilisons la liste de sanctions des Nations unies (United Nations Security Council Consolidated List) comme cadre de référence. C’est une bonne base car elle répertorie la plupart des groupes terroristes islamistes. Nous pensons que c’est le cadre le plus approprié pour trouver un consensus international dans la mesure où c’est le Conseil de sécurité, instance exécutive des Nations unies, qui est responsable de cette liste. Cependant, chaque classification a ses limites, par exemple cette liste ne mentionne aucun groupe d’extrême droite. Pourtant, nous avons beaucoup travaillé ces derniers mois sur l’identification des symboles de l’extrême droite diffusés sur les plateformes. Encore une fois, il n’existe pas de consensus. La désignation « extrême droite » est très large et parfois inadaptée : elle qualifie un spectre d’acteurs allant de Marine Le Pen à des groupes qui prônent la violence. Nous utilisons le terme « extrêmisme violent » comme ligne de distinction.

Il est important de se référer à des critères de respect des droits humains afin de s’assurer que les entreprises qui utilisent des bases de données d’empreintes numériques (hash) ne prennent pas de mesures contraires aux droits humains ou à la liberté d’expression. Afin de garantir ce respect, nous invitons les entreprises à signer la charte Tech Against Terrorism qui s’inspire de plusieurs documents reconnus sur la liberté d’expression, comme le Pacte international relatif aux droits civils et politiques (ICCPR) ou les Principes directeurs des Nations unies relatifs aux entreprises et aux droits humains. Par ailleurs, le GIFCT dispose d’un programme d’adhésion calqué sur le nôtre dont objectif est d’inciter les entreprises à s’engager et de permettre aux petits acteurs de participer. Le programme oblige les membres à respecter certains critères : prohiber le terrorisme explicitement dans les clauses d’utilisation, publier régulièrement des rapports transparents, s’engager publiquement en faveur des droits humains. De notre côté, en tant qu’organisme neutre, nous effectuons des vérifications sur le respect de ces engagements. En effet, les acteurs principaux, comme Facebook par exemple, ne veulent pas être en position de dire si une plateforme respecte ou non les bons critères, il est important qu’un acteur indépendant puisse assumer ce rôle.

Pouvez-vous nous en dire davantage sur l’attention particulière portée par Tech Against Terrorism aux plateformes de plus petite taille ? Est-ce l’objectif de votre Knowledge Sharing Platform et de votre plateforme d’analyse des contenus terroristes (TCAP) ? Par ailleurs, que pensez-vous de la régulation européenne des contenus terroristes ?

La Knowledge Sharing Platform a été lancée en 2017 au siège des Nations unies à New-York. C’est une base d’outils et de ressources à destination des entreprises du numérique, protégée par un système d’accès sécurisé. Les entreprises peuvent y trouver des outils dans trois domaines : les conditions d’utilisation, la modération des contenus, et le reporting. Nous offrons un dashboard et des outils pour aider les entreprises à comprendre comment les autres acteurs du secteur fonctionnent. Nous fournissons également une liste indexée de termes, symboles et drapeaux utilisés par les groupes terroristes ou d’extrême droite sur le net. En dehors de cette plateforme de partage, nous travaillons avec les entreprises sur des projets ad hoc selon les besoins avec de la recherche ciblée, des analyses de risque ou encore de la threat intelligence (renseignement sur les menaces).

Actuellement, nous sommes en train de constituer une plateforme d’analyse des contenus terroristes (TCAP) avec le soutien du ministère de l’intérieur canadien. Ce sera la première plateforme centralisée et gratuite répertoriant des contenus identifiés comme terroristes. Ce projet sera supervisé par un conseil d’administration constitué de chercheurs universitaires partenaires. Nous allons également construire notre propre système de collecte de contenus terroristes identifiés pour alimenter la base de données. L’objectif du projet est d’aider les plateformes à identifier les contenus terroristes, mais également de les aider à améliorer leur compréhension de ces contenus et de ce à quoi ils ressemblent. Elles pourront analyser ces contenus dans un environnement sécurisé. Nous pourrons aussi leur envoyer une alerte dès que nous trouvons quelque chose sur la plateforme. Ce sera très utile pour gérer la viralité de certains contenus comme dans le cas de Christchurch. Enfin, cette base sera accessible aux universitaires à des fins de recherche. L’objectif sera de participer à l’analyse quantitative de l’utilisation terroriste d’internet. Il existe déjà bon nombre d’analyses qualitatives mais nous voulons améliorer l’analyse quantitative. Dans un premier temps, nous collecterons seulement les contenus de Daesh et al Qaeda afin de respecter le droit – en l’absence de définition précise du terme « extrême droite », nous voulons débuter sur un périmètre bien défini. Mais l’objectif final est d’inclure toutes formes d’idéologies. Plus tard, grâce au recueil systématique de ces données, nous espérons que la plateforme pourra servir de centre d’entraînement pour les solutions algorithmiques et automatisées de traitement de données.

Pour ce qui est des régulations, nous observons qu’il existe trop souvent un manque d’appréciation des enjeux qui concernent les petites plateformes. Par exemple, certains aspects de la proposition de loi européenne, comme le retrait en 1h des contenus, et la possibilité d’un contact 24/7, sont irréalisables pour les petits acteurs. Et certaines des plateformes utilisées quotidiennement par Daesh sont littéralement gérées par une seule personne. Qu’arrive-t-il lorsqu’elle se couche ? Il existe de nombreuses questions d’ordre pratique qui devront être reconsidérées… Plus généralement, sur l’approche de la régulation, je pense que nous devons être prudents avec les initiatives qui tendraient à déléguer toute responsabilité aux plateformes numériques, et qui obligent l’implémentation d’upload filters (filtres de téléchargement), par exemple, qui peuvent avoir un effet négatif pour la liberté d’expression. En tant que pays démocratiques, nous devons être vigilants à ne pas ouvrir la voie à des mesures de censure, que d’autres pays moins démocratiques pourraient vouloir copier. La question qu’il faut se poser c’est : que veulent les terroristes ? Les terroristes cherchent à avoir un impact politique en commettant des attaques, en créant la peur dans la société, donc si nous prenons des mesures portant atteinte à nos propres valeurs pour lutter contre le terrorisme, c’est contre-productif. Il est important d’envisager de manière globale et d’examiner les causes profondes du terrorisme. On ne peut pas se contenter de punir les entreprises qui se trouvent être le lieu où ce problème se manifeste, lorsque le problème a des racines dans la société.