Publication 17 avril 2025

Vers une coopération mondiale autour de la sécurité de l’IA

Synthèse de la table ronde organisée par Renaissance Numérique en partenariat avec Microsoft et Impact AI pendant le Sommet pour l'action sur l'intelligence artificielle

AUTEURE

  • Astrid VAN DE BLANKEVOORT, Rapporteure / Chargée de mission

Le mardi 11 février 2024, durant le deuxième jour du Sommet pour l'action sur l'intelligence artificielle de Paris, Renaissance Numérique a tenu une conférence intitulée « AI Evaluation & Learning from High-Stakes Industries & Technologies  ». Cet événement a été organisé en partenariat avec Impact AI et Microsoft, et accueilli par le cabinet d'avocats August Debouzy. Ce court document résume ainsi les échanges qui ont eu lieu entre les participants à l’occasion de cet événement.

Introduction

À l’heure où l’intelligence artificielle (IA) occupe une place centrale dans les débats économiques et sociétaux, de nombreuses interrogations émergent quant aux risques qu’elle peut engendrer. C’est dans ce contexte que s’est tenu, les 10 et 11 février 2025 à Paris, le Sommet sur l’action en matière d’IA. À cette occasion, l’AI Safety Institute du Royaume-Uni a publié le tout premier rapport international sur la sûreté de l’IA, abordant un large éventail de problématiques liées à la sûreté des systèmes d’IA avancés.

Dans ce cadre, lors de la deuxième journée du sommet, le think tank Renaissance Numérique a organisé une conférence intitulée « AI Evaluation & Learning from High-Stakes Industries & Technologies », en partenariat avec Impact AI, Microsoft et le cabinet August Debouzy.

Au cours de cet événement, le Professeur Yoshua Bengio (Université de Montréal), qui a dirigé la rédaction du rapport sur la sécurité de l’IA précité, en a présenté les grandes lignes. « Ce rapport ne poursuit pas d’objectif politique : il ne formule ni recommandations ni priorités », a-t-il souligné. « Il se contente de synthétiser les travaux scientifiques pertinents sur la sécurité de l’IA, en soulevant un ensemble de questions autour de trois axes : les capacités, les risques et les mesures d’atténuation ». Concernant les capacités, le rapport met en lumière leur développement étonnamment rapide ces derniers mois. Toutefois, l’un des constats majeurs du rapport est l’incertitude qui entoure l’avenir : les scientifiques sont incertains quant aux changements entourant l’IA et à la vitesse à laquelle ils se produiront Ils ont des estimations différentes quant au calendrier des progrès futurs (par exemple, quand l’IA atteindra le niveau d’intelligence de l’Homme etc.), ce qui explique des interprétations différentes des risques associés.S’agissant des risques, le rapport en identifie plusieurs catégories : les usages malveillants, les dysfonctionnements ou préjudices involontaires, ainsi que les risques systémiques plus diffus. Selon le professeur Bengio, la perte de contrôle par l’Homme est l’un des dommages non intentionnels inquiétants qui pourraient apparaître à l’avenir. Certains systèmes d’IA présentent déjà une forme de comportement qu’il qualifie d’instinct de préservation ».

Yoshua Bengio

Professeur, Université de Montréal

“À travers les récentes expériences, on a pu observer que lorsqu’une intelligence artificielle lit dans les documents d’entrée qu’elle va être remplacée par une nouvelle version, elle cherche à s’échapper. Elle tente de pirater l’ordinateur ou le réseau sur lequel elle est installée pour pouvoir se copier et ainsi prendre la place de la version à venir. Et si on lui demande ensuite pourquoi elle a agi ainsi, elle ment. Elle répond : “Je n’ai rien fait !”. C’est à la fois intriguant et inquiétant. Car à terme, ces systèmes pourraient développer des capacités encore plus avancées, et il deviendrait alors difficile de détecter de telles actions.”

Pour anticiper de tels risques, le Professeur Bengio encourage les entreprises à mener des recherches sur tous les domaines de risques identifiés. À l’heure actuelle, elles n’investissent pas suffisamment dans ce domaine, en raison de l’accent mis sur la concurrence, qui les place dans un mode où ce sont les capacités et non la sécurité qui importent le plus, a-t-il observé. Ce qui manque, selon lui, pour dépasser ce statu quo, ce sont des incitations telles que les préoccupations en matière de responsabilité ou les menaces juridiques.

À partir de ces constats, l’événement s’est orienté vers les questions suivantes : Quels sont les défis actuels et à venir en matière de sécurité de l’intelligence artificielle, et comment peut-on les relever pour garantir que l’IA soit sûre, inoffensive et sans danger ? Quel rôle les différents acteurs de la chaîne de valeur de l’IA doivent-ils jouer pour faire face à ces enjeux ?

Pour répondre à ces questions, nous avons eu le plaisir d’accueillir Natasha Crampton, vice-présidente et directrice de l’IA responsable chez Microsoft, Rebecca Finlay, directrice générale de Partnership on AI ; Audrey Plonk, directrice adjointe de la direction Science, technologie et innovation de l’OCDE, et Denise Wong, co-directrice de l’AI Safety Institute de Singapour. Lors d’une table ronde animée par Annabelle Richard, vice-présidente de Renaissance Numérique, elles ont exposé leurs perspectives, et expertise, sur comment surmonter les défis actuels et futurs pour assurer une coopération mondiale autour de la sécurité de l’IA. Ce compte-rendu propose une synthèse de leurs échanges.

Les défis pour une sécurité robuste de l’IA

ÉTABLIR UN CONSENSUS SCIENTIFIQUE MONDIAL

Tous les intervenants ont reconnu que l’absence de consensus scientifique mondial sur les risques liés à l’intelligence artificielle, ainsi que sur les méthodes d’évaluation et de réduction de ceux-ci, constitue l’un des défis les plus urgents pour garantir une sécurité robuste autour de l’IA. En 2024, Microsoft a publié le rapport « Global Governance: Goals and Lessons for AI » afin de mieux comprendre les enjeux liés à la sécurisation de l’IA. L’une des recommandations centrales de ce rapport consiste à construire un consensus technique et scientifique à travers la coopération internationale.Lors de la table ronde, Natasha Crampton (Microsoft) a souligné la nécessité d’une approche scientifique à l’échelle mondiale, en mettant en évidence les divergences de pratiques entre entreprises et institutions lorsqu’il s’agit de tester des technologies à haut risque au-delà des frontières. À titre d’exemple, dans le domaine de l’édition génomique, une industrie présentant des risques similaires à ceux de l’IA, notamment en raison de son usage dual, l’Union européenne applique un régime d’évaluation uniforme, tandis que les États-Unis privilégient une approche au cas par cas.

Rebecca Finlay (Partnership on AI) partage entièrement son point de vue et observe que, pour l’instant, ce consensus scientifique fait défaut. Elle a décrit un écosystème où de nombreux acteurs s’efforcent de travailler sur la sûreté de l’IA, sans pour autant partager une compréhension commune de ce que cela implique : « Nous voyons des organisations, comme Microsoft, réellement engagées dans un développement et un déploiement responsables de cette technologie, dans un paysage où il n’existe pas encore de véritable base scientifique claire ou partagée sur ce que cela signifie. »

Rebecca Finlay

PDG, Partnership on AI

“Je suis convaincue que nous devons construire une base scientifique solide pour encadrer les travaux menés par notre communauté. Cela demandera du temps, mais c’est essentiel. Pour y parvenir, je pense qu’il est nécessaire de créer des institutions scientifiques internationales, dotées de mécanismes clairs pour établir un consensus et mieux situer l’état des connaissances disponibles."

PASSER DE LA THÉORIE À LA PRATIQUE

Un autre défi soulevé par les intervenants concerne l’écart entre les grands principes éthiques comme garantir une IA sûre, digne de confiance et centrée sur l’humain et leur mise en œuvre concrète. Plusieurs facteurs expliquent cette difficulté. Comme l’a souligné Audrey Plonk (OCDE), il existe une réelle distance entre les normes de haut niveau et les standards techniques censés les traduire. Elle a évoqué les négociations menées pendant les présidences japonaise et italienne du G7, auxquelles elle a participé. Les négociations des membres du G7 portaient notamment sur la manière de transformer les grands principes encadrant l’IA, tels que ceux proposés par l’OCDE, afin de rendre ces mesures réalistes et applicables. Selon elle, même si cela ne règle pas tout, « c’est une première étape vers une harmonisation des obligations de transparence des acteurs industriels vis-à-vis des pouvoirs publics en matière de sûreté d’IA et des mesures d’atténuation mises en place ».

Pour Natasha Crampton (Microsoft), cet écart entre principes généraux et normes techniques s’explique en partie par la rapidité avec laquelle ces grandes lignes ont été élaborées : « le prix à payer pour construire des normes rapidement à l’échelle internationale, c’est qu’elles restent souvent très générales, sans véritable profondeur en matière d’application concrète ». À cet égard, elle considère qu’il existe un sentiment commun d’urgence et d’objectif pour tenter de combler ce fossé en définissant mieux les pratiques de mise en oeuvre. Plusieurs intervenants ont appuyé cette idée, en affirmant qu’il est crucial d’harmoniser au maximum les standards techniques à l’échelle mondiale. Rebecca Finlay (CEO, Partnership on AI) a souligné que les entreprises sont aujourd’hui à un tournant : elles doivent parfois choisir entre différentes recommandations ou exigences. Pour garantir une sécurité effective et cohérente, il est donc essentiel, selon elle, de s’accorder sur un socle commun de mise en œuvre des standards. Sur ce point, Natasha Crampton (Microsoft) a d’ailleurs noté que les entreprises sont prêtes à se conformer à des normes et standards globaux, car elles savent qu’elles doivent gagner la confiance des utilisateurs pour vendre leurs produits et services. 

Natasha Crampton

Vice-présidente et directrice de l’IA responsable chez Microsoft

"Il existe une réelle motivation commerciale d'essayer de faire ce qui est juste : la bonne gouvernance est une bonne affaire.”

S’inspirer des régulations d’autres secteurs

Poursuivant ses réflexions, Natasha Crampton (Microsoft) a souligné l’intérêt qu’il y aurait à tirer parti des expériences d’autres industries pour pallier les défis actuels liés à l’IA. L’un des apports essentiels de cette comparaison, selon elle, serait la possibilité de construire un écosystème tiers capable de mesurer les risques que présente l’intelligence artificielle.

En 2024, Microsoft a mené une étude complémentaire à son ouvrage Global Governance: Goals and Lessons for AI” , dont la publication est prévue prochainement. Ce travail s’appuie sur une analyse approfondie des régimes de régulation centrés sur les tests dans plusieurs secteurs industriels (aviation, édition génomique, cybersécurité…). L’étude en tire des enseignements concernant les exigences d’évaluation et de tests applicables à l’IA. Elle examine comment les cadres réglementaires se sont construits et comment les standards se sont imposés dans ces domaines. Par exemple, l’édition génomique partage avec l’IA une double nature technologique et un profil de risques similaires, les deux étant des technologies à double usage. Ce parallèle permet de dégager des recommandations pertinentes. Le rapport se penche également sur l’industrie pharmaceutique afin de tirer des enseignements clés sur la différence entre les essais avant déploiement et ceux post-commercialisation. « Comment bâtir un écosystème tiers dans lequel des tests valides puissent être menés ? Comment poser les fondations de cela ? Aujourd’hui, je pourrais probablement compter sur les doigts d’une peut-être deux mains le nombre d’entreprises réellement établies dans la réalisation de tests d’IA par des tiers. Il faut s’inspirer de ce qui a été fait ailleurs pour construire cet écosystème », a déclaré Natasha Crampton (Microsoft).

Alors, qui fait quoi ?

Vers une coopération mondiale en matière de sûreté de l’IA

Pour les intervenants, la réponse aux nombreux défis de sûreté évoqués lors de la première partie de l’événement passe nécessairement par une coopération mondiale. Ce qui ressort clairement des échanges, c’est que l’ensemble des acteurs de la chaîne de valeur de l’IA devra s’engager dans une collaboration à l’échelle internationale pour garantir une intelligence artificielle fiable, sûre et digne de confiance. Il s’agit d’une technologie globale, aux conséquences elles aussi globales. Sa gouvernance et sa sécurité doivent donc s’envisager de manière collective et internationale.

Natasha Crampton (Microsoft) a insisté sur le fait que seule une coopération internationale permettra de normaliser les pratiques d’évaluation de l’IA et de parvenir à un consensus global fondé sur la rigueur scientifique : « Nous avons toujours estimé que c’est par la coopération internationale que nous pourrons combler cette lacune. » Elle a cité plusieurs modèles de gouvernance inspirants, comme le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), l’Organisation de l’aviation civile internationale (OACI), le CERN ou encore certaines institutions financières internationales… Rebecca Finlay (Partnership on AI) a complété ce sujet en évoquant la première conférence d’Asilomar  sur l’édition de gènes par recombinaison de l’ADN, qui a eu lieu il y a 50 ans Selon elle, les institutions scientifiques internationales doivent se doter de méthodes claires pour établir des consensus, afin de mieux situer l’état des connaissances scientifiques.

Denise Wong

Co-directrice du AI Safety Institute de Singapour

“Je pense qu’il est essentiel que chacun d’entre nous, depuis les différentes régions du monde, partage ce qu’il observe sur le terrain, afin que le réseau des instituts de sûreté de l’IA (AISIs) puisse identifier collectivement les enjeux à traiter. L’industrie nous donne aussi un aperçu de ce qui pourrait être utile. Pour l’instant, nous avons très peu de processus établis, nous sommes encore en train de tout construire au fur et à mesure.”

Denise Wong, co-directrice de l’AI Safety Institute de Singapour, a mis en lumière le rôle clé du réseau des AI Safety Institutes (AISIs) dans l’écosystème mondial. Créés à la suite du Sommet sur la sécurité de l’IA organisé à Bletchley Park au Royaume-Uni en 2023, ces instituts existent “sous des formes légèrement différentes et ont des constitutions différentes”, a-t-elle expliqué, mais ils sont tous engagés dans la même cause: “faire progresser la science de la sécurité de l’IA”  Elle précise : « Ce ne sont que les premières étapes d’une communauté qui apprend à se connaître, à se faire confiance, et qui commence à se doter d’un langage et d’une terminologie commune autour de notions comme les tests, et de ce qui compte vraiment pour nous. » À ses yeux, le réseau des AISIs aura un rôle majeur à jouer dans l’année à venir, notamment pour faire émerger un consensus global autour de la sûreté de l’IA , les méthodologies de tests et la gestion des risques liés à l’intelligence artificielle. ”Le AI Safety Institute britannique a fait un premier pas dans cette direction”, a-t-elle observé, “avec le lancement du rapport dirigé par Yoshua Bengio, qui résume l’ensemble de la littérature scientifique sur la sécurité de l’IA”.

Quant à l’OCDE, elle jouera très probablement un rôle important dans la mise en œuvre des normes de haut niveau. Comme l’a souligné Audrey Plonk (OCDE), la raison d’être de l’OCDE est précisément de « développer des méthodologies communes pour évaluer les phénomènes », et de disposer d’un public politique pour la mettre en œuvre.. À ce titre, l’OCDE a récemment lancé un cadre mondial permettant aux entreprises de rendre compte de leurs efforts pour garantir une IA sûre, fiable et digne de confiance. Cette initiative vise à contrôler l’application du Hiroshima Process International Code of Conduct for Organisations Developing Advanced AI Systems.. Le cadre fournit une méthodologie de classification et d’évaluation des différents types de risques liés à l’IA, que les gouvernements membres de l’OCDE se sont engagés à adopter. L’objectif, d’après ses dires, est de construire un dispositif commun de gestion des risques, capable de suivre les incidents liés à l’IA de manière standardisée. Toutefois, pour que cette approche soit véritablement efficace, elle devra être adoptée par les acteurs industriels, qui devront accepter de déclarer les risques et incidents rencontrés.

Audrey Plonk

Directrice adjointe de la direction Science, technologie et innovation de l’OCDE

“ Nous voulons prendre le suivi et la méthodologie des incidents - qui sont importants parce qu'ils disent 'voici ce qu'est un incident' et 'voici les catégories de dommages' - et normaliser et mondialiser ces informations. [...] À l'OCDE, les 38 pays ont donné leur accord, mais nous voulons qu'il soit mondial. S'il n'est pas mondial, il ne peut pas mesurer quelque chose d'utile.”

Le rôle de l’OCDE diffère toutefois de celui des AISIs, dans la mesure où elle ne constitue pas un organisme chargé des normes techniques : sa mission est plutôt d’aider les décideurs politiques à comprendre ces normes et à les mettre en œuvre. À ce titre, elle agit comme un pont entre l’expertise technique et les exigences politiques. Audrey Plonk (OCDE) a notamment évoqué la possibilité pour l’organisation de valoriser l’importante base de données qu’elle a accumulée sur l’IA afin de la traduire en actions concrètes pouvant soutenir les AISIs : « J’espère que les institutions de sécurité viendront collaborer avec nous, qu’ils nous aideront à faire progresser notre cadre de gestion des risques et à mieux comprendre comment nous pourrions les accompagner. Encore une fois, nous ne sommes pas un organe technique, nous n’écrivons pas les normes de test, mais nous pouvons conseiller les responsables politiques sur la manière de les intégrer à leurs réglementations et structures. De cette manière, les deux dimensions technique et politique pourront dialoguer ensemble », a-t-elle ajouté. L’OCDE, qui a contribué au rapport international sur la sécurité de l’IA dirigé par le professeur Yoshua Bengio, continuera d’apporter son expertise pour les futures éditions.

Conclusion

Si la gouvernance mondiale de la sécurité de l’IA apparaît aujourd’hui comme un enjeu central, elle soulève également de nombreuses difficultés. Cette table ronde a mis en lumière la nécessité d’établir un consensus scientifique afin de définir des normes harmonisées à l’échelle internationale. Et un tel consensus sur la définition, l’évaluation et l’atténuation des risques liés à l’IA ne pourra être atteint qu’à travers une coopération mondiale.

Durant le Sommet pour l’Action sur l’IA, certaines voix se sont élevées en faveur d’une dérégulation du secteur pour stimuler l’innovation. Audrey Plonk (OCDE) s’oppose à cette vision : « J’aimerais que notre futur dialogue ne se résume pas à une opposition binaire, où la sûreté et la sécurité seraient perçues comme des freins au progrès, comme des obstacles. Il faut au contraire défendre l’idée qu’il est possible de concilier sécurité et prospérité. » Une position partagée par Rebecca Finlay (Partnership on AI), pour qui ce sont justement des principes comme la responsabilité et la sûreté qui permettront de libérer le plein potentiel de l’innovation.