Publication 25 juillet 2023

Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne

Synthèse de la conférence organisée le 21 juin 2023 par Confrontations Europe et Renaissance Numérique, en partenariat avec Microsoft France

AUTEURS

  • Inès Michel, Chargée de mission, Confrontations Europe

  • Brivaela Renaud, Chargée de mission, Renaissance Numérique

Le mercredi 21 juin, les think tanks Confrontations Europe et Renaissance Numérique, en partenariat avec Microsoft France, ont organisé à la Maison de l’Europe de Paris, une conférence intitulée « Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne ». La première table-ronde, visant à questionner l’impact de l’utilisation croissante de l’intelligence artificielle (IA) sur l’économie et le marché du travail européens, a rassemblé Michel COMBOT, Délégué général de Numeum, Agata HIDALGO, Responsable des affaires européennes chez France Digitale, et Audrey PLONK, Cheffe de la division de la politique de l’économie numérique à l’OCDE. Dédiée à la question « Comment s’assurer que l’IA soit développée et utilisée dans le respect des valeurs éthiques européennes ? », la deuxième table ronde a réuni Brunessen BERTRAND, Professeure au sein de la Chaire Jean Monnet sur la gouvernance des données de l’Université de Rennes, Constance BOMMELAER DE LEUSSE, Directrice exécutive de l’Institut McCourt, et Mariagrazia SQUICIARINI, Cheffe du bureau exécutif en Sciences sociales et humaines de l’UNESCO. La première table ronde était modérée par Michel DERDEVET, Président de Confrontations Europe et la seconde, par Nicolas VANBREMEERSCH, Président de Renaissance Numérique. Cette synthèse retrace leurs échanges.

Introduction

L’IA accompagne désormais le quotidien de milliards de personnes et transforme nos sociétés et nos économies, parfois de manière imperceptible, mais souvent avec des conséquences profondes. Au-delà des avantages que peuvent présenter ces technologies, la croissance rapide de l’IA soulève des interrogations qui sont au coeur des réflexions menées par Renaissance Numérique et Confrontations Europe.

Du fait des éventuels biais et discriminations qu’elle peut engendrer, et des enjeux de sécurité, de protection des données et de manipulation ou surveillance de masse qui peuvent y être liés, l’adoption de l’IA à grande échelle pose des questions d’ordre éthique. Pouvant entraîner une importante réorganisation du monde du travail, notamment des évolutions ou suppressions de postes, ainsi qu’une distorsion de la concurrence sur le marché de l’emploi, l’IA soulève également des questions d’ordre économique. Ces préoccupations soulignent la nécessité d’objectiver ces phénomènes, afin d’évaluer la nécessité d’encadrer (ou non) les développements de l’IA, et d’identifier différents leviers d’action. À cet égard, plusieurs textes non contraignants ont été adoptés à l’échelle internationale ces dernières années, à l’instar du Cadre de l’OCDE pour la classification des systèmes d’IA, des Principes de l’OCDE sur l’intelligence artificielle ou encore de la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle.

Depuis plusieurs mois, deux propositions législatives ont propulsé l’IA au coeur du débat public européen : la proposition de règlement établissant des règles harmonisées concernant l’intelligence artificielle (l’« AI Act ») et la proposition de directive sur la responsabilité en matière d’IA. Lors de la session plénière du mois de juin 2023, les députés européens ont adopté leur position de négociation sur l’AI Act. En approuvant de nouvelles règles de transparence et de gestion des risques pour les systèmes d’IA, le Parlement européen vient d’édicter la première législation au monde de ce genre sur l’IA. Au moment de la publication de cette synthèse, les « trilogues » entre le Parlement, le Conseil et la Commission sur la forme finale du texte sont en cours.

Au-delà d’une appréciation globale sur le futur de l’IA au sein de l’UE, la conférence a permis de questionner deux aspects de l’IA : les possibilités créées par son utilisation croissante dans l’économie et sur le marché du travail, et la question de sa responsabilité et de sa dimension éthique.

Conférence "Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne"

L’impact de l’utilisation croissante de l’intelligence artificielle sur l’économie et le marché du travail européens

Du point de vue de l’économie et de l’emploi, les questions qui se posent sont multiples : Comment adapter l’ensemble de la chaîne de production et de services ? Comment accompagner efficacement cette révolution sociétale ? Quelles compétences professionnelles convient-il de développer afin que tous puissent bénéficier au maximum de cette révolution ? Quelle est la nature des nouveaux métiers susceptibles d’apparaître ?

Jusqu’à présent, l’automatisation par l’IA a touché les emplois à revenus moyens mais pourrait à l’avenir concerner tous les types d’emplois, y compris les plus qualifiés. La crainte que cette technologie transforme profondément le marché du travail européen, notamment en supprimant certains postes apparaît dès lors, pour certains intervenants, justifiée. Les métiers des services à la personne, par exemple dans le domaine de la santé, du bien-être ou de l’aide aux personnes âgées, devraient être épargnés. En outre, l’impact de cette révolution numérique ne saurait se mesurer à la seule idée que la machine remplace l’homme. Elle doit aussi être appréhendée au travers de ce qu’elle génère, notamment en matière de création d’emplois au sein de l’UE. Un rapport du cabinet américain McKinsey estime que l’intelligence artificielle pourrait entraîner une croissance du PIB mondial de 1,2% par an jusqu’en 2030.

Au-delà de la création d’emplois, l’IA pourrait contribuer à l’amélioration de la productivité au travail. Des travaux de recherche menés sur les assistants conversationnels basés sur l’IA générative, tels que ChatGPT, montrent des effets significatifs sur la productivité : réduction du temps de travail et de la pénibilité, amélioration de la qualité de la production. Le service de recherche du Parlement européen estime une augmentation de la productivité du travail liée à l’IA entre 11 et 37% d’ici 2035.

Néanmoins, l’IA reste encore peu déployée sur le marché du travail européen, comme le montrent les chiffres d’Eurostat. En 2021, 28% des grandes entreprises européennes utilisaient l’IA, mais cette statistique varie selon la taille de la structure : si nous prenons l’ensemble des entreprises européennes et non uniquement les plus grandes, ce chiffre n’atteint que 8%. En France, 6% des entreprises ont adopté l’IA au quotidien. L’Allemagne se situe sensiblement au même niveau, avec 7%, soit la moyenne européenne. À titre de comparaison, cette proportion atteint 23% en Irlande et 19% à Chypre. Les principaux obstacles à l’utilisation de l’IA par les entreprises européennes semblent être la pénurie de talents et le manque de compétences et d’innovation.

Conférence "Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne"

Dans la plupart des États membres de l’UE, il existe encore peu de formations dans les métiers du numérique, tels que la science des données ou l’IA, en comparaison à l’offre d’emplois grandissante dans ce secteur. L’OCDE reconnaît aujourd’hui l’importance de faire progresser les compétences au travers de formations initiales et continues, ainsi que via des reconversions professionnelles. L’enjeu des compétences est double : il s’agit non seulement de former des spécialistes de l’IA, mais également de rendre l’IA plus accessible, en apprenant aux personnes qui verront leur travail transformé par cet outil à l’intégrer et à s’en servir au quotidien.

En matière de recherche et développement en IA, l’un des objectifs du budget de l’UE pour 2021-2027 est de miser sur l’innovation industrielle, la numérisation et le soutien aux PME. Le gouvernement américain a quant à lui investi plus de 1,7 milliards de dollars dans la recherche et développement en IA en 2022, selon l’AI Index Report 2023 de l’Université de Stanford. L’avantage des États-Unis réside dans leur secteur privé, solide source de financement en recherche et capital-risque dans le domaine de l’IA. Faute d’investissements publics et privés, le chemin vers la création de champions européens de l’intelligence artificielle semble encore long, même si près de 600 startups sont dédiées à l’IA ou utilisent l’IA dans une partie de leur métier aujourd’hui en France.

Face au succès d’outils tels que Chat GPT auprès d’un large public, l’essor de l’IA générative sur le marché du travail européen introduit de nouveaux enjeux. La question qui se pose désormais est : comment créer un cadre de confiance à l’échelle de l’Union européenne, pour accompagner les entreprises vers une utilisation éthique et responsable de ces IA ?

L’AI Act voté par le Parlement européen constitue un premier élément de réponse, qui devrait fortement et directement impacter les startups, les citoyens, ainsi que les investisseurs. Ce règlement a pour but de garantir que l’IA développée et utilisée en Europe respecte les droits et les valeurs de l’UE : la démocratie, les droits fondamentaux et l’État de droit. D’une part, il vise à accompagner les PME dans leur utilisation de l’IA et la mise en conformité avec la régulation européenne, le but étant de favoriser l’ensemble du secteur et pas uniquement les grandes entreprises du numérique. D’autre part, il entend assurer la supervision humaine des processus reposant sur des technologies d’IA.

L’IA ne devrait donc pas remplacer l’homme sur le marché du travail, mais lui permettre de se concentrer sur des tâches à plus grande valeur ajoutée. Législateurs et acteurs privés mettent en avant la nécessité de comprendre la manière dont l’IA peut être utilisée par les entreprises, afin d’accompagner et encadrer au mieux l’innovation, l’utilisation et le développement de ces technologies. Loin de ne concerner que le secteur des « technologies numériques », l’IA devrait entraîner une transformation en profondeur de la société.

Comment s’assurer que l’IA soit développée et utilisée dans le respect des valeurs fondamentales européennes ?

L’IA, et en particulier l’IA générative, a connu récemment une forte « socialisation » de ses usages : elle est désormais utilisée par de nombreux non-professionnels au quotidien, comme l’illustre le boom de l’agent conversationnel ChatGPT, qui a dépassé les 200 millions d’utilisateurs en avril 2023. Comme souligné lors de la première table ronde, la démocratie, les droits fondamentaux et l’État de droit forment le socle des valeurs européennes. Face à la socialisation des usages de l’IA, il convient d’identifier les différents leviers pouvant permettre un développement et une utilisation de l’IA inclusifs, respectueux de la vie privée et qui ne portent pas atteinte à la dignité humaine.

À cet égard, le défi réside dans la nécessité d’encadrer le déploiement de l’IA afin de protéger les utilisateurs et les citoyens, sans toutefois entraver l’innovation. L’adoption croissante d’outils reposant sur l’IA nécessite ainsi un équilibre entre innovation et développement responsable.

Comme souligné par l’Organisation des Nations Unies (ONU) dans une récente prise de position, « les données utilisées pour informer et guider les systèmes d’IA peuvent être erronées, discriminatoires, obsolètes ou non pertinentes. » Dès lors, « les systèmes d’IA peuvent conduire à des décisions discriminatoires », entraînant des traitements injustes, en particulier pour les groupes déjà discriminés.

Certains systèmes d’IA, à l’instar des technologies de reconnaissance faciale, peuvent également entraîner des risques vis-à-vis de la protection des données personnelles, de la sécurité et des libertés et droits fondamentaux de façon générale. Ces valeurs fondamentales méritent ainsi une attention particulière concernant le recours aux systèmes d’IA. Certaines garanties existent d’ores et déjà à cet égard à l’échelle européenne. C’est le cas du Règlement général sur la protection des données (RGPD) adopté en 2016 et entré en vigueur en 2018, qui « encadre le traitement des données de manière égalitaire sur tout le territoire de l’Union européenne ». Dans la continuité de la loi française Informatique et Libertés de 1978, modifiée par la loi de 2018 relative à la protection des données personnelles, le RGPD vise à renforcer le droit des personnes tout en responsabilisant les responsables de traitements de données personnelles.

Conférence "Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne"

L’AI Act, adopté par le Parlement européen le 14 juin 2023, et la proposition de directive sur la responsabilité en matière d’IA, répondent également à cette nécessité d’équilibre entre protection et innovation, et d’harmonisation des règles entre les États membres. L’objectif de l’AI Act est ainsi « d’asseoir une vision européenne de l’IA basée sur l’éthique en prévenant les risques inhérents à ces technologies par un règlement commun permettant d’éviter certaines dérives ». Comme souligné par certains intervenants, l’IA nécessite une approche dynamique, dont l’AI Act n’est qu’un premier pas. Favorisant une approche « tester et apprendre » (“test and learn”), ce texte est voué à évoluer. En ce sens, il n’a pas vocation à traiter tous les risques liés à l’IA. En outre, il va devoir s’articuler avec d’autres textes européens, à l’instar du RGPD et de la directive sur le droit d’auteur.

Lorsque l’exécutif européen a décidé de lancer une initiative législative pour encadrer l’IA, la question a pu se poser d’opter pour une régulation générale, c’est-à-dire transversale, horizontale (la voie choisie avec l’AI Act) ou de légiférer via différents textes sectoriels (une approche plus souvent adoptée aux États-Unis). Pour certains intervenants, l’approche européenne actuelle en matière de régulation du numérique (la multiplication de grands textes aux sigles évocateurs : RGPD, Directive SMA, DSA, DMA, AI Act, DGA…) traduit la volonté politique de l’UE de montrer au monde qu’elle entend imposer ses valeurs via ces textes. Cette intention confère ainsi un aspect géopolitique au sujet, à comprendre en superposition de sa dimension juridique.

Outre l’agilité du droit, sa neutralité technologique apparaît comme un défi central pour une régulation adaptée de l’IA. En effet, les risques comme les avantages que l’IA peut conférer résident dans les usages qui en sont faits. Plusieurs participants ont ainsi insisté sur l’importance de ne pas réguler la technologie en tant que telle, mais ses usages.

Au-delà des initiatives législatives, la formation initiale constitue un autre pilier indispensable au développement responsable de l’IA. En ce qui concerne les étudiants en école d’ingénieur, par exemple, qui seront amenés à développer les systèmes d’IA de demain, leur formation doit aller au-delà des sciences et de la technique. Elle doit mettre l’accent sur les enjeux éthiques de ces technologies. Cela permettra par la suite de mieux anticiper les éventuels risques, et de les éviter, en adoptant une approche fondée sur l’« éthique by design ».

Conférence "Perspectives économiques et éthiques sur le futur de l’intelligence artificielle dans l’Union européenne"

Enfin, plusieurs participants ont défendu l’idée selon laquelle l’Union européenne devrait s’associer à la construction d’une approche mondiale de l’IA, l’enjeu étant de ne pas s’enfermer dans une « bulle d’éthique européenne ». Certains des acteurs majeurs de l’IA étant asiatiques, il est primordial que le langage choisi pour encadrer l’IA soit compréhensible de leur point de vue et n’isole pas l’UE des autres puissances. Si l’approche mise en avant dans le RGPD a bénéficié d’un “Brussels effect” et a été répliquée aux quatre coins du monde, les intervenants ne promettent pas à l’AI Act le même destin. Il faudra donc conserver une approche dynamique, afin de pouvoir s’aligner au maximum au niveau mondial. Cela renvoie à l’importance d’une collaboration transfrontalière afin d’assurer l’efficacité des différents cadres qui émergent. Les principaux outils d’IA n’étant pas développés au sein de l’Union européenne, il est d’autant plus nécessaire pour l’UE de prendre en compte ces éléments d’extranéité.

Cependant, comme observé par un intervenant, le mot « éthique » connaît autant de définitions que d’acteurs ; d’où la difficulté pour les institutions européennes de réguler sans se marginaliser. L’éthique, pour la Chine, ne correspond évidemment pas aux valeurs européennes. Pour certains intervenants, il est dès lors peu probable qu’une “Convention internationale sur le numérique” voie le jour, les pays (y compris au sein même de l’Union européenne) étant en désaccord sur des concepts clés. Pour d’autres, il ne faut pas oublier que des inquiétudes similaires existaient il y a une dizaine d’années concernant l’absence de contrôle sur les objets connectés. Cependant, grâce à un long et patient travail de labellisation, et via la collaboration des pouvoirs publics et de l’UE, il a été possible d’atteindre une situation vertueuse.

Le juste milieu à atteindre entre le respect des valeurs éthiques européennes et la nécessité d’inclure des acteurs extérieurs dans les discussions, pose en outre des questions de gouvernance et de capacité à gouverner. Un véritable investissement visant à faire monter en compétence les « gouvernants » sur l’ensemble des sujets ayant trait à la transformation numérique de la société, apparaît ainsi indispensable et urgent.


Sur le même sujet