Actualité 9 juillet 2020

Régulation numérique : Le respect de nos droits fondamentaux passe par une éthique de la responsabilité

AUTEURS

  • Valérie Fernandez, Professeure et Titulaire de la chaire "Identité Numérique Responsable" à Telecom Paris

  • Henri Isaac, Maître de conférences à PSL Université Paris-Dauphine

Le 8 juin 2020 l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale, suivie par des annonces de Amazon et Microsoft. Plus récemment, le Conseil constitutionnel français jugeait qu’une grande partie de la proposition de loi visant à lutter contre la haine en ligne était inconstitutionnelle et pourrait restreindre de manière disproportionnée la liberté d’expression. Alors que l’actualité récente montre les difficultés d’appréhension des droits fondamentaux dans le champ numérique, Renaissance Numérique invite les régulateurs et les acteurs européens à bâtir une éthique de responsabilité commune, reposant sur ces droits et une véritable évaluation technologique de leur bonne application.

Le 8 juin 2020 l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré. Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux États-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la Tech à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par Max Weber : une éthique de conviction et une éthique de responsabilité. La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action. La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique. Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal-fondées – qui favorisent peu l’empowerment du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du face swapping – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur
responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses. L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les États-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies.

En matière de régulation des technologies numériques, l’Europe pâtit d’un manque d’évaluation objective de ces dernières. Or, le respect de nos droits et libertés fondamentaux doit reposer sur une analyse fine des risques associés à la technologie – le technology assessment en bon français -. Les dernières controverses autour du dispositif ALICEM ou de l’application StopCovid sont ainsi passées à côté de l’évaluation technologique de ces outils. Tel que le débat médiatique s’est formé, les citoyens ont été renvoyés à une éthique de conviction et on ne les a pas accompagnés dans une éthique de responsabilité. Il en est de même en matière de reconnaissance faciale où tous les imaginaires sont mobilisés, mais le débat ne rentre jamais (ou largement insuffisamment) dans leur technology assessment. Nous devons associer notre éthique de conviction, le respect des droits et libertés fondamentaux, à une éthique de responsabilité, la vérification opérationnelle que ces principes sont bien respectés. Alors que l’Union européenne a développé jusqu’à présent une approche technique de la standardisation, nos institutions doivent changer de paradigme et y intégrer une forte dimension juridique. Une même technologie dans des contextes différents peut revêtir des enjeux éthiques distincts. Cette nouvelle approche doit donc également reposer sur un suivi des technologies dans leurs évolutions. Alors que traditionnellement on associe les standards à une image de rigidité, c’est là qu’ils révèlent toute leur force en apportant une plus grande agilité que la loi.

Ainsi, il est temps que l’Union européenne revoit l’évaluation des technologies numériques à l’aune de ses propres valeurs. La décision du Conseil constitutionnel du 18 juin sur la loi visant à lutter contre la haine sur internet a rappelé que les valeurs européennes sont portées par notre droit. Alors que l’éthique revêt une dimension très culturelle, une éthique commune européenne doit reposer sur nos droits et libertés fondamentaux qui sont des principes partagés.


Sur le même sujet