Publication 19 mai 2025
Éthique et numérique, avec Claude Kirchner

S’intéresser à l’éthique du numérique nécessite de bien comprendre ce qu’est l’éthique. Pouvez-vous clarifier ce qui la différencie d’autres concepts, comme la morale, la déontologie ou l’intégrité ?
L’éthique est une réflexion relative aux conduites humaines et aux valeurs qui les fondent, menée en vue d’établir une doctrine et une science de la morale. Elle n’est donc pas de la conformité (comme on l’entend parfois) ; c’est une réflexion. Je n’insisterai jamais assez sur ce point.
Le terme de morale se rapproche, il est vrai, de l’éthique, mais elle emporte souvent une dimension propre à une société ou à une religion, et renvoie à des conduites. En ce sens, elle revêt un caractère prescriptif qui est absent dans la notion d’éthique qui est réflexive et descriptive. Quant à la déontologie, il s’agit d’un ensemble de règles applicables à une profession ; par exemple, le serment d’Hippocrate pour les médecins. L’éthique n’est pas non plus à confondre avec l’intégrité qui, elle, renvoie plutôt à l’absence de mauvaise intention, que l’on pourrait aussi appeler “honnêteté”. Pour terminer sur les termes connexes, il est important de noter que “ethics”, en anglais, ne correspond pas à l’éthique en français, telle qu’entendue comme une réflexion. “Ethics” renvoie plutôt à l’étude du caractère général de la morale et des choix moraux spécifiques à chaque individu dans leur vie quotidienne, mais aussi explicitement à la déontologie, donc à des ensembles de règles.
Pouvez-vous nous en dire plus ?
Comme je l’évoquais, le terme “ethics” a un sens qui n’est pas complètement réflexif, qui correspond à “the study of the general nature of morals”, selon le American Heritage Dictionary. Il s’agit de l’étude (philosophique) de phénomènes moraux, autrement dit des règles ou des standards qui gouvernent telle ou telle chose. Ce n’est pas de la réflexion, bien que la mise en œuvre de ces règles nécessite de réfléchir. Par conséquent, nous avons des définitions différentes en anglais et en français. C’est un vrai défi dans la communication avec nos amis anglo-saxons, dans la mesure où nous ne parlons pas nécessairement de la même chose. Ensuite, si on regarde la notion de “deontology”, toujours dans le même dictionnaire, il s’agit de “the theory or study of moral obligations”, ce qui rejoint la notion d’“ethics”. En d’autres termes, “ethics” et “deontology” renvoient à des notions similaires en anglais, là où l’éthique et la déontologie, en français, sont deux notions bien distinctes.
Claude Kirchner
Président du Comité consultatif national d’éthique du numérique (CCNEN)
Une fois toutes ces précautions terminologiques prises, pourquoi selon-vous est-ce impératif de s’intéresser à l’éthique du numérique ?
En 2021, le CNPEN a publié un “manifeste pour une éthique du numérique”, qui souligne l’importance de s’interroger sur l’influence croissante et durable des technologies numériques sur nos vies. Pour moi, l’un des points importants est la fascination provoquée par les machines qui imitent l’humain. Pour mieux répondre à votre question, je vais développer deux exemples sur les agents conversationnels ou chatbots, sur lesquels le CNPEN avait publié la même année un avis. Le premier point qui devrait nous titiller, c’est la publicité autour de ces technologies, comme par exemple : “Siri en fait plus avant même que vous le demandiez” ou encore : “Dis Siri, fais-moi écouter une chanson que je vais aimer”. Ça devrait quand même nous interroger. Il y a aussi : “Ajoutez Alexa sur votre table de chevet”. Je vous rappelle qu’il y a un micro dans ces appareils et pas seulement un haut-parleur. Après, en toute connaissance de cause, chacun est libre de faire ce qu’il souhaite.
J’en reviens à mes exemples. Le CNPEN a notamment travaillé sur les chatbots intégrés aux jouets. Typiquement, il y a eu la question des chatbots dans les Barbies, avec la fonctionnalité “Hello Barbie!”, qui permet à la poupée de poser des questions aux enfants, du style “Comment t’appelles-tu?”, “Quelle est ta matière favorite à l’école ?” ou encore “Quel est ton restaurant préféré ?”.
Bien que ces questions puissent sembler anodines, le fait que les dialogues avec les enfants soient enregistrées et analysées par la suite, notamment à des fins de ciblage publicitaire, doit nous interpeller. Et ce d’autant plus que les parents (sans parler des enfants) ne sont pas forcément conscients de ces mécanismes à l’œuvre. Le jouet équipé d’un agent conversationnel peut ainsi traîner sur un fauteuil et capter les conversations de la famille. Cet exemple soulève des questions importantes du point de vue de l’éthique du numérique. Il y a eu des associations “anti Barbie” qui se sont constituées aux États-Unis, et une campagne “Hell no Barbie!”, en réponse à la fonctionnalité “Hello Barbie!”.
Claude Kirchner
Président du Comité consultatif national d’éthique du numérique (CCNEN)
Le CNPEN s’est également penché sur la question des “jumeaux numériques” conversationnels qui reproduisent la parole ou le comportement langagier des personnes décédées, appelés “deadbots” en anglais. Aujourd’hui, ces services sont très faciles d’accès. Par exemple, si votre meilleur ami, votre père, votre mère, votre enfant… décède, vous pouvez, avec ou sans le consentement de la personne décédée, reconstituer un chatbot à partir de toutes les traces que la personne a pu laisser (enregistrements audio, photos et autres contributions diverses et variées). Il est également possible de créer des deadbots qui vont au-delà du simple dialogue, qui font plus que reproduire l’expression orale, et adoptent également l’aspect visuel de la personne décédée. Vous pouvez choisir l’âge auquel le deadbot vous parle ; par exemple, échanger avec une version plus jeune de votre conjoint ou conjointe disparu(e). Cela soulève de nombreuses questions, d’autant plus que le deuil est aussi très dépendant de la culture.
Le CNPEN a donc préconisé de mener une réflexion sociétale avant toute réglementation sur ces deadbots, afin de mieux en comprendre les enjeux. Faut-il autoriser les deadbots ? Le cas échéant, faut-il les laisser exister pendant six mois, un an, toute une vie ? Il pourrait être intéressant de simuler une discussion avec Einstein, par exemple ; mais ce n’est pas forcément un de vos proches. Puis, il y a également la question de l’encadrement technique des deadbots. Que peuvent-ils faire ? Comment respecter la dignité humaine dans ce cadre ? On peut imaginer des dérives, avec des chatbots qui desserviraient ou entacheraient la mémoire de la personne décédée. Dans les mois et années à venir, le législateur risque ainsi de se retrouver à devoir trancher sur ces sujets qui ne sont pas faciles à traiter.
L’intelligence artificielle et certains de ces usages soulèvent de nombreux débats. Selon vous, quels sont les principaux risques de l’IA en termes d’éthique ?
Avant toute chose, il convient de définir précisément ce que l’on entend par intelligence artificielle. Tout n’est pas intelligence artificielle et le numérique est bien plus vaste. Par ailleurs, il y a différents types de systèmes dits d’intelligence artificielle. On devrait déjà parler au pluriel. Il y a des systèmes d’intelligence artificielle apprenants, basés sur des techniques d’apprentissage machine. Il y en a qui sont symboliques, qui vont typiquement utiliser des techniques relatives à ce qu’on appelle du “raisonnement symbolique”, et dans lesquelles les notions de logique et de sémantique sont centrales. Je viens personnellement de ce milieu. Et puis, il y a des systèmes qui reposent sur tout ce qu’on sait en statistique et probabilité. Sur ces trois catégories, il existe des résultats scientifiques et techniques particulièrement élaborés depuis les années 1950 et des avancées majeures depuis 15 ans. Au final, il faut retenir que l’IA est le nom d’un domaine scientifique et technologique du numérique. C’est une petite partie des domaines scientifiques du numérique qui incluent globalement les sciences informatiques, les sciences des réseaux de communication, le traitement du signal, l’automatisation, la robotique, l’apprentissage machine, les sciences des données, ainsi que les domaines des mathématiques, de la physique et des sciences cognitives.
Pour répondre à votre question et vous donner un exemple d’enjeu d’éthique, suite à un échange avec un collègue du CNPEN, j’ai réalisé l’expérience suivante le 31 mai 2024 sur ChatGPT, alors outillé de GPT4o : une simple multiplication de deux nombres entiers. Je lui ai donné le prompt suivant : “379 x 719 = ”, ce à quoi il m’a répondu : “379 x 719 = 285 043”. Cette réponse est incorrecte (le bon résultat est 285 443), ce que je lui ai indiqué. Je lui ai alors demandé “Pourquoi y a t-il eu une erreur?”. Il m’a répondu : “L’erreur s’est probablement produite en raison d’une simple faute de frappe ou d’un calcul mental incorrect de ma part. Utiliser des outils automatiques pour des calculs garantit une précision plus grande, comme nous l’avons fait en utilisant du code pour vérifier la multiplication. Désolé pour l’erreur initiale.” Moi qui pensais que le code était objectif…! Et en plus de ça, ChatGPT est “désolé”. Ce type de réponse est très problématique. Cette machine prétend faire du calcul mental, quand en réalité elle exécute un programme informatique, elle écrit des assertions fausses, des tromperies… globalement c’est très grave ! D’autant plus que chacun peut s’en emparer : n’importe qui peut l’utiliser, et ce type de logiciel sera bientôt entre toutes les mains.
Claude Kirchner
Président du Comité consultatif national d’éthique du numérique (CCNEN)
En quoi les sciences cognitives peuvent-elles nous être utiles pour faire face à ce genre de questions ?
Les sciences cognitives sont essentielles, car ces machines interagissent étroitement avec nous, notamment avec notre cerveau et notre manière de traiter l’information. Cette “civilisation numérique”, que nous sommes en train de créer et de vivre, repose sur la synergie profonde entre les systèmes de traitement de l’information numériques et les systèmes de traitement de l’information biologiques. Au moment où je vous parle, nous traitons, vous et moi, de l’information. Pour ma part, je suis debout, et donc mon corps, plus exactement mon cerveau, traite de l’information pour faire en sorte que je reste debout, et que je puisse aller où je souhaite aller si je veux me déplacer. De la même façon que je vous envoie de l’information quand je vous parle, j’en reçois de votre côté quand vous m’écoutez. Nous sommes des systèmes de traitement de l’information biologiques, et nous avons créé des systèmes de traitement de l’information numérique. Les deux, à l’ère de la civilisation numérique, se combinent.
Aujourd’hui, si je vous propose de vous enlever votre téléphone portable pendant une heure, vous allez me répondre : “Pourquoi pas !” Si je vous propose de vous l’enlever pendant un jour, un mois ou une année, vous ne serez sans doute pas si coopératif. Pourquoi ? Parce qu’il y a désormais une synergie profonde entre les outils numériques, en particulier les smartphones, et nous. Cette synergie est basée sur la maîtrise et la confiance que nous pouvons avoir dans les systèmes numériques de traitement de l’information. Nous avons une confiance raisonnable dans ces systèmes. Par exemple, quand vous êtes guidé par un GPS, en général, vous allez là où il vous propose d’aller. Aujourd’hui, quand vous appuyez sur la pédale de frein dans votre voiture, ce n’est pas vous qui freinez, c’est le numérique qui vous aide à freiner. Et pourtant, vous avez confiance. C’est la confiance dans cette combinaison “biologique-numérique” qui est importante. Avoir conscience de cette synergie et de cette confiance est une première étape indispensable pour se questionner sur les nombreux enjeux d’éthique relatifs au numérique actuels et à venir.
Selon vous, quels seront justement les grands enjeux de demain en matière d’éthique du numérique ?
Je pourrais citer de nombreux enjeux : la justice algorithmique, le numérique et les jeunes, le numérique et les interactions sociales, l’utilisation des systèmes d’IA en zone de guerre, les interactions cerveaux-machine… Mais selon moi, il y en a trois qui sont extrêmement importants. Le premier concerne le numérique et les jeunes. Et quand je dis “jeune”, je veux dire y compris avant même la naissance. Je dis souvent « -9+25 », pour dire dès la conception (-9 mois) jusqu’aux 25 ans. Aujourd’hui, si l’on envisage d’avoir un enfant, il est impératif de réfléchir dès le début de ce projet aux questions d’éthique liées au numérique. Sans une telle réflexion en amont, des éléments essentiels risquent d’être négligés.
Puis il y a tous les enjeux liés à la démocratie et au numérique, qui constituent un énorme sujet, sur lequel nous n’avons pas avancé dans le cadre du CNPEN et qui sera sûrement un sujet abordé par le CCNEN. Et enfin, il y a la question de l’impact environnemental du numérique et de l’utilisation des ressources rares ou stratégiques. Dans plusieurs avis du CNPEN nous avons abordé le sujet, mais il faudra le développer et ce sera aussi un des points importants à aborder par le CCNEN.