Elsa Godart, philosophe : « Sur le numérique, l’innovation doit aussi être celle de l’éthique, et parfois cela implique d’interdire avant d’autoriser »

0 Shares
0
0
0

Philosophe et psychanalyste, Elsa Godart a créé le diplôme universitaire « Ethique et numérique – santé » à l’université Paris-Est-Créteil-Val-de-Marne (UPEC). Elle est chercheuse au Laboratoire interdisciplinaire d’étude du politique Hannah-Arendt (université Gustave-Eiffel) et chercheuse associée au Laboratoire d’anthropologie politique (EHESS-CNRS). Elle a écrit Ethique de la sincérité. Survivre à l’ère du mensonge (Armand Colin, 2020).

Vous souhaitez la création d’une charte de l’éthique et du numérique. Dans quel but ?

Cela répondrait à une problématique majeure des développements technico-scientifiques. A un moment donné, ils nous échappent et nous n’arrivons pas à les appréhender dans leur globalité. Prenons un micro-exemple, mais tout à fait emblématique de la problématique des deepfakes. Certains filtres disponibles sur l’application TikTok, qui modifient l’apparence d’une personne, sont totalement indécelables. Cela pose la question de la construction de soi, surtout auprès des jeunes lorsqu’ils sont en pleine crise identitaire de l’adolescence. De telles applications sont mises sur le marché sans être testées en amont, sans aucun aval et sans aucun encadrement éthique, contrairement aux découvertes scientifiques, qui doivent être approuvées par un comité avant d’être mises sur le marché.

Que suggérez-vous ?

Il faudrait imposer une norme. La régulation dans ces domaines est absolument nécessaire. Dès qu’une innovation technologique touche le champ du social, de l’humain, elle devrait passer devant un comité d’éthique ; l’homme et tout ce qui est « humain » ne doivent pas être considérés comme un objet de la technologie. Nous sommes dans une sorte de « vide éthique », tel que l’a formulé le philosophe allemand Hans Jonas dans son ouvrage Le Principe responsabilité [1979]. Il dénonce « les possibilités apocalyptiques contenues dans la technologie moderne » comme la bombe H, qui a créé un précédent ; désormais l’Homme pouvait s’autodétruire. Lorsque nous sommes dans un environnement technico-scientifique qui nous dépasse, nous n’avons plus les moyens éthiques de penser les choses et leur devenir, il nous faut ériger de nouveaux principes, de nouvelles règles. L’innovation doit aussi être celle de l’éthique. Et parfois cela implique d’interdire d’abord avant d’autoriser !

Cela pose-t-il également la question de la confiance ?

Oui, et cette confiance est impossible tant que nous ne maîtrisons pas l’objet. Des innovations comme l’intelligence artificielle [IA] sont testées, jetées au grand public, et c’est seulement après qu’elles sont analysées. C’est extrêmement anxiogène. Prenez l’exemple de ChatGPT, qui inquiète les foules. Il n’y a eu aucune réflexion en amont sur l’impact qu’un tel outil peut avoir. Quant à le maîtriser, il était disponible et utilisé par tous avant même que nous l’ayons apprivoisé. Sans parler du stade supérieur vers lequel on tend, l’autonomisation de l’IA, qui va s’autoengendrer, et là, nous aurons perdu toute possibilité de contrôle… Quand ChatGPT aura progressé, qu’il sera plus précis, la question se posera de savoir pourquoi penser par nous-mêmes, pourquoi chercher à écrire, quand la machine peut le faire comme moi et même mieux…

Il vous reste 22.8% de cet article à lire. La suite est réservée aux abonnés.

source

0 Shares
Leave a Reply

Your email address will not be published. Required fields are marked *

You May Also Like