Logo
Thématique
Economie, emploi et travail
Politiques, institutions et démocratie
Libertés publiques et éthique
Inclusion numérique et solidarité

note

Technologies de sécurité : Sans un contrôle effectif, pas de confiance des citoyens

  • Libertés publiques et éthique

Technologies de sécurité : Sans un contrôle effectif, pas de confiance des citoyens

  • Libertés publiques et éthique

TÉLÉCHARGER LA CONTRIBUTION

Les technologies numériques de sécurité sont en quête d’une gouvernance de confiance

Le champ de la sécurité connaît une multiplication des usages des technologies numériques. Usages publics, privés, voire publics-privés, les applications sont multiples et relancent avec une vive acuité le débat ancien de l’équilibre entre le droit à la sécurité et les libertés publiques.

La multiplication des textes législatifs visant à favoriser le déploiement de technologies toujours plus intrusives dans le champ de la sécurité est un marqueur des attaques successives à cet équilibre. Sur les trente-cinq premières années de l’application de la Loi Informatique et Libertés, douze textes principaux ont été consacrés à la création de fichiers de police ou de justice ou à la régulation de technologies de sécurité (vidéoprotection, empreintes ADN), contre vingt-neuf textes sur les dix dernières années pour introduire ou réguler a posteriori des technologies numériques de sécurité (géolocalisation, accès élargi aux données de trafic, nouvelles techniques de renseignement, IMSI catchers, drones, consultations élargies de fichiers centraux, nouveaux champs de l’identification génétique, reconnaissance faciale, etc.). Si cette tendance a accompagné l’essor même de l’innovation dans le champ de la sécurité, ce dernier ne suffit pas à justifier cet écart. Rien que sur cette dernière année, on dénombre trois textes liés aux enjeux de sécurité : la proposition de loi pour une sécurité globale préservant les libertés, le projet de loi relatif à la prévention d’actes de terrorisme et au renseignement, et enfin la proposition de loi d’expérimentation créant un cadre d’analyse scientifique et une consultation citoyenne sur les dispositifs de reconnaissance faciale par l’intelligence artificielle, portée par le député Didier Baichère.

Exécutifs et législateurs successifs semblent engagés dans une course en avant pour accroître le champ des usages des technologies numériques dans le domaine de la sécurité et les exceptions juridiques afférentes. Si cette tendance participe d’un affaiblissement progressif des libertés publiques, l’apport efficient pour la sécurité n’est, lui-même, pas toujours démontré. Il semblerait qu’il en soit de même de la mission parlementaire à laquelle répond cette position. Le besoin de ces technologies et leur apport incrémental au regard des moyens, des formations nécessaires et des capacités d’analyse ou de corrélation, est faiblement interrogé dans la lettre de mission. Qu’est-ce que l’on ne peut pas faire sans avoir recours à ces technologies ? A-t-on évalué leur performance au regard du besoin de sécurité dans un environnement où les formes de criminalité ou d’infractions se multiplient, en diversité et en volume ?[1] Ces technologies ne sont d’ailleurs pas décrites, ni même mentionnées en exemples ou en « cas d’usage » précis. Quelles sont les technologies concernées par les termes de « technologies de sécurité » ? La mémoire est-elle une technologie de sécurité ? La multiplication des accès à des bases de données aussi ? Les nouveaux « capteurs » d’informations sontils en soi utiles sans interroger la capacité d’analyse ? Quelles données vont être traitées ? Qui va les utiliser ? Dans quel contexte ? Pour quel motif initial ? Pour quelle évolution des besoins ? Pendant combien de temps ? Cette analyse que l’on précipite en amont de plusieurs rendez-vous sportifs internationaux, mériterait une réflexion plus approfondie, qui dépasse la création d’un « produit » pour adresser un « besoin » particulier. Renaissance Numérique redoute que l’urgence de ces rendez-vous contribue à modifier durablement nos perceptions en la matière, sans que des justifications solides soient apportées à cette urgence.

Le dur constat que fait le think tank est que le débat a peu progressé depuis sa dernière position en 2015, relative à la loi Renseignement, qui a notamment créé la Commission nationale de contrôle des techniques de renseignement (CNCTR)[2]. Renaissance Numérique alertait alors sur l’accumulation des exceptions juridiques relatives aux usages numériques dans le champ de la sécurité, notamment en matière de surveillance. Le think tank appelait à ce que la CNCTR devienne un « réel organe de contrôle, indépendant, autonome et compétent face aux risques de dérives liés à une surveillance accrue ». Malgré une forte mobilisation des défenseurs des droits, cet appel n’a eu que peu d’effet et, six ans plus tard, la question est à nouveau posée par le législateur : comment mieux encadrer ce déploiement ?

 

TÉLÉCHARGER LA CONTRIBUTION

 


[1] À ce titre, les technologies de reconnaissance faciale sont un exemple particulièrement illustratif des limites de ces technologies, dont on ne peut en particulier garantir une fiabilité à 100  %. Voir le rapport de Renaissance Numérique sur ce sujet : « Reconnaissance faciale : Porter les valeurs de l’Europe », juin 2020, 104 p.

[2] Renaissance Numérique, « Projet de loi Renseignement. Pas de garantie des droits sans un pouvoir de contrôle effectif », Position, Mai 2015.