Logo
Thématique
Economie, emploi et travail
Politiques, institutions et démocratie
Libertés publiques et éthique
Inclusion numérique et solidarité

note

L’éthique dans l’emploi à l’ère de l’intelligence artificielle

  • Economie, emploi et travail

L’éthique dans l’emploi à l’ère de l’intelligence artificielle

  • Economie, emploi et travail


 

Coordination :
Henri Isaac, président de Renaissance Numérique
Jennyfer Chrétien, déléguée générale de Renaissance Numérique


TÉLÉCHARGER LA NOTE


Les technologies d’intelligence artificielle (IA) ont une influence croissante sur la société. Qu’il s’agisse d’applications GPS, d’outils de traduction, d’agents conversationnels, de recommandation de contenus ou demain de voitures autonomes, leurs applications n’ont de cesse de se développer dans notre quotidien. Au regard de cette accélération et de la nature de ces innovations, il est légitime de s’interroger, en tant que citoyens et acteurs de la société numérique, sur les impacts de cette transformation, pour l’individu et la collectivité.

C’est dans cet esprit que la Commission nationale de l’informatique et des libertés (CNIL) a lancé en janvier 2017, un débat public sur les enjeux éthiques soulevés par les algorithmes et l’intelligence artificielle. Ce dernier vise à dresser un panorama général des problématiques éthiques soulevées par ces technologies et à porter des premières recommandations pour accompagner leur développement dans un cadre éthique. C’est dans ce contexte que s’inscrit cette contribution. Au regard de sa dimension sociétale forte, elle s’attache tout particulièrement à interroger les enjeux dans le secteur de l’emploi et des ressources humaines. Elle est issue des débats qui se sont tenus lors de la matinée-débat organisée par le think tank Renaissance Numérique et le groupe Randstad en France, « Le travail à l’ère des algorithmes : quelle éthique pour l’emploi ? », le 5 septembre 2017. Ces réflexions font également écho aux premiers travaux du think tank, sur le travail à l’ère digitale [1].

Il s’agit de porter ici une vision réconciliatrice autour de l’intelligence artificielle. Loin d’un angélisme aveugle, il devient essentiel d’instaurer un cadre de confiance autour de ces technologies, afin d’en tirer tous les bénéfices pour la société. Cette note vise à éclairer le débat, à donner réalité à la place qu’occupe ces technologies dans notre société, et ainsi dépasser des fantasmes sur un avenir empreint par l’affranchissement du robot par rapport à l’homme, qui demeurent prégnants dans le débat public et répondent bien souvent à des intérêts particuliers [2].

Les progrès permis par les technologies de l’IA sont multiples et se sont développés dans de nombreux secteurs de la société, à l’instar de la santé ou de l’énergie. D’un point de vue économique, elles constituent un axe incontournable d'une politique industrielle future, conquérante de nouveaux marchés. En témoigne la masse des investissements sur ces questions aux Etats-Unis et en Chine qui laisse peu de doute sur cette question. Selon le Comité économique et social européen, le marché de l’IA s’élève aujourd’hui à environ 664 millions de dollars et devrait atteindre 38,8 milliards en 2025 [3]. Bien qu’il soit difficile d’avancer un chiffre avec certitude étant donné le caractère diffus des technologies de l’IA, l’essor de ces technologies reste quasi-certain et la France doit adopter une approche résolue pour en faire un axe européen majeur de croissance économique.

Or, notre pays pâtit aujourd’hui d’un défaut généralisé de connaissance technique de ces technologies, qui risque de freiner les choix d’investissement et les avancées scientifiques en la matière. Un travail de pédagogie et de sensibilisation autour de ces enjeux est donc nécessaire, tant auprès des décideurs publics et privés que des citoyens. Il s’agit non seulement d’un enjeu d’acceptabilité sociale mais également d’égalité, si l’on ne veut pas augmenter la fracture déjà existante entre ceux qui ont le savoir et la maitrise des usages et les autres.

Ce débat n’est d’ailleurs pas nouveau. Il traverse le secteur du numérique depuis ses débuts. Si les algorithmes ne sont eux-mêmes pas récents, c’est leur utilisation nouvelle et plus complexe qui questionne aujourd’hui. L’accélération massive de l’IA, grâce à l’augmentation des capacités de calcul, de stockage et de traitement des données, interroge en effet le cadre actuel. Il convient à ce propos de remarquer le lien étroit qui existe entre l’éthique et le droit autour de ces enjeux, en particulier concernant le traitement et la protection des données. Des principes établis par le cadre juridique existant et à venir avec la mise en application en mai 2018 du Règlement général sur la protection des données européen, tels la transparence des systèmes, le droit à l’oubli, à l’adaptation de ses données ou encore le droit au consentement des personnes, ne tiennent pas aujourd’hui compte des spécificités des technologies d’intelligence artificielle. La STOA (Scientific Foresight Unit) du Parlement européen, a ainsi identifié en 2016 six domaines dans lesquels l’Union européenne est susceptible de devoir réviser ou adapter ses textes du fait de l’évolution des domaines de la robotique, des systèmes cyber-physiques et de l’intelligence artificielle, à savoir : les transports, les systèmes de double utilisation, les libertés civiles, la sécurité, la santé et l’énergie [4].

Il importe ainsi de préciser les termes du débat en introduction. Tout d’abord, il est intéressant de noter la variation sémantique entre acteurs pour désigner ces technologies – intelligence artificielle, algorithme, machine, système… - qui traduit le caractère extrêmement large que revêt le champ de l’IA et la diversité d’usage, si ce n’est confusion, selon la discipline ou profession.

Dans cette contribution, nous privilégierons l’emploi de l’expression « technologies d’intelligence artificielle » qui traduit sa nature diverse. Rappelons par ailleurs que l’éthique revêt avant tout une dimension humaine. Il ne s’agit donc pas dans cette réflexion d’intégrer des dilemmes éthiques dans les technologies et de leur attribuer une personnalité juridique, au risque d’affecter le droit de la responsabilité civile [5]. Il convient également de distinguer l’éthique individuelle de l’éthique collective. Par exemple, concernant le droit au consentement, l’IA « contribue à déplacer le consentement du niveau individuel de l'usage de ses données personnelles, à un niveau collectif du consentement à ce que des systèmes informatiques puissent servir à orienter la société à partir d'observations globales de cette société » [6]. Par ailleurs, si l’éthique n’est pas universelle, mais dépendante du contexte social et culturel dans lequel elle s’inscrit, les technologies d’intelligence artificielle ne connaissent, elles, pas de frontières. Aussi, il s’agit de s’interroger sous le prisme de nos valeurs, sur ce que devrait être une éthique de l’IA portée par l’Europe au niveau international. Enfin, notons qu’il ne s’agit d’un débat définitif. Il s’inscrit nécessairement dans le temps, au regard de l’augmentation continue de nos connaissances en matière d’IA et de l’analyse de ses effets. Par cette approche, il s’agit donc d’établir une « vigilance éthique », en instaurant les conditions propices au bon développement de ces technologies, plutôt que des normes trop restrictives qui pourraient vite devenir obsolètes [7].

TÉLÉCHARGER LA NOTE
 

---
[1] « La question du travail à l’ère digitale », Henri Isaac, Renaissance Numérique, juillet 2016.
[2] Olivier Ezratty rattache cela aux « mécanismes de propagande de l’innovation ». « Douze mythes de l’intelligence artificielle », Olivier Ezratty, Billet, Opinion Libres – Le blog d’Olivier Ezratty, 29 septembre 2017.
[3] « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société », Comité économique et social européen, Avis d’initiative, 31 mai 2017.
[4] « Ethical Aspects of Cyber-Physical Systems », Scientific Foresight Unit, Parlement européen, juin 2016.
[5] Le Comité économique et social européen évoque également « des possibilités d’abus de même qu’un risque moral ». « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société », Comité économique et social européen, Avis d’initiative, 31 mai 2017.
[6] « Ethique de la recherche en apprentissage machine », CERNA, Rapport, juin 2017.
[7] « Ethique de la recherche en apprentissage machine », CERNA, Rapport, juin 2017.