Pass sanitaire et identité numérique : quels dangers pour nos libertés ?

Image générée numériquement d'un réseau de particules connectées
Image générée numériquement d'un réseau de particules connectées ©Getty - Andriy Onufriyenko
Image générée numériquement d'un réseau de particules connectées ©Getty - Andriy Onufriyenko
Image générée numériquement d'un réseau de particules connectées ©Getty - Andriy Onufriyenko
Publicité

Le pass sanitaire, destiné à réguler nos entrées dans certains lieux, vient d'être adopté. Il pourrait venir s'ajouter à nos identités numériques. Mais celles-ci ne deviendraient-elles pas un danger pour nos libertés ?

Avec
  • Olivier Tesquet Journaliste à la cellule enquête de Télérama
  • William Eldin Directeur général de XXII group, entreprise innovante dans le domaine de l'intelligence artificielle
  • Caroline Lequesne Roth Maître de conférences en droit public à l’université Côte d’Azur (Nice), directrice du Master 2 en droit algorithmique et gouvernance des données

C’est l’histoire d’un pass sanitaire qui passe mal. Il a fallu cette semaine un deuxième vote à l’Assemblée Nationale pour que ce dispositif soit adopté in fine à l’arrachée. Un pass sanitaire souvent présenté comme un sésame vers une liberté retrouvée, notamment pour assister aux prochains grands événements culturels et sportifs. 

La Commission nationale de l’Informatique et des Libertés, la CNIL, met en garde, et demande dans la précipitation quelques garanties pour préserver la sécurité et la confidentialité de nos données personnelles… tant convoitées.

Publicité

Alors que l’espoir d’un retour à la vie normale s’entrevoit au bout du chemin à l’horizon d’un été de toutes les promesses… Quelle trace cette pandémie va-t-elle laisser, notamment sur le respect de nos libertés fondamentales ? La Covid-19 a-t-elle permis à l’Etat français d’amplifier les moyens de sa surveillance ? A-t-elle bénéficié aux artisans des nouvelles technologies, de la reconnaissance faciale à l’intelligence artificielle ? A-t-elle été le terrain de nouvelles expérimentations, parfois à la frontière de la loi ?
Voici les quelques questions qui vont animer notre Temps du débat avec Olivier Tesquet, journaliste spécialiste des questions numériques à Télérama et auteur de l'essai Etat d’urgence technologique (Premier Parallèle, février 2021), Caroline Lequesne Roth, Maître de conférences en droit public à l’Université Côte d’Azur (Nice) et directrice du Master 2 en droit algorithmique et gouvernance des données, et William Eldin, fondateur de XXII, professeur d’Intelligence Artificielle à Sciences Po. 

Un algorithme apprend sur une base de données. Une base de données, ce sont des millions d'images. Pour reconnaître un ballon blanc, il va falloir des dizaines et des dizaines de milliers d'images de ballons blancs. Les algorithmes comprennent qu'un pixel est égal à blanc, et blanc est égal à une décimale. Et ensuite, comme chaque image c'est des millions de pixels, quand un algorithme regarde ces pixels, regarde ces couleurs et voit apparaître un rond blanc qui correspond à peu près à un ballon qu’il aurait vu avant, il va le reconnaître et dire que c'est un rond blanc. Aujourd'hui, pour pouvoir mettre un cadre de contrôle, prenez les algorithmes, videz-les de toutes leurs données, puis mettez un jeu de données légal, certifié, et regardez comment cet algorithme apprend. On en verra le résultat en fonction de tests qu'on pourra faire en temps réel, voir si c'est un algorithme qui va un peu plus loin que ce qui est expliqué. - William Eldin -

Il ne faut pas tomber dans une vision manichéenne des choses. Nous sommes dans une société technologique, l’idée n'est pas de se priver de ces outils qui offrent des perspectives formidables, mais de penser les garde-fous qui vont nous permettre d'en avoir des usages responsables et respectueux de nos libertés. Pour tous ces systèmes algorithmiques, ce qui est essentiel, c'est de prendre en considération leurs risques, d’imposer aux acteurs qui les utilisent et qui les produisent de rendre des comptes, et de pouvoir diligenter des contrôles efficaces, qui vont permettre d'assurer que cette chaîne de sécurité est respectée. La législation européenne qui a été proposée va dans le bon sens puisqu'elle commence à poser les premiers jalons de l'audit algorithmique. - Caroline Lequesne Roth -

La reconnaissance faciale est une technologie policière. Quand on a inventé la reconnaissance faciale, on l'a inventé à des fins d'identification des personnes, pour des enquêtes criminelles, pour du renseignement. Les premières recherches en reconnaissance faciale aux Etats-Unis ont été financées en secret par les services de renseignement américains. Ça signe un peu l'idéologie de ces technologies. Et aujourd'hui, si les forces de police notamment sont aussi intéressées par la reconnaissance faciale, c'est parce qu'il y a ce fantasme d'un contrôle d'identité qui serait permanent et général. On a eu pendant des années une montée en régime technologique avec la vidéosurveillance, depuis les années 90 à peu près. Aujourd'hui, il s'agirait de mettre une couche supplémentaire, qui permettrait de faire de la vidéosurveillance intelligente, ou demain peut être de la reconnaissance faciale, avec effectivement, ce problème que les usages précèdent bien souvent le droit et que le droit, dans ces conditions, n'intervient que pour blanchir des usages déjà existants. - Olivier Tesquet -

Le fait qu'on n'ait pas eu des résultats a posteriori à Nice révèle un autre problème qui ne résulte pas tant des collectivités, mais plutôt des industriels, et qui se pose en termes de transparence et de contrôle. Un certain nombre de questions ont été posées à la ville de Nice, qui n'avait pas nécessairement les moyens d'y répondre, parce que seul l'industriel disposait de réponses. Des questions comme : comment l'algorithme est-il généré ? Comment a-t-il été construit ? Comment exploite-t-on la base de données ? Et ça, c'est encore une lacune de nos systèmes. Pourquoi les industriels ne veulent-ils pas répondre sur ce type de questionnements ? Parce qu'ils invoquent le secret des affaires et la protection de leurs technologies. - Caroline Lequesne Roth -

Pendant longtemps on a pensé que le modèle numérique que construisait la Chine, elle le construisait pour elle-même, avec vocation à filtrer les informations venues de l'extérieur, assurer le contrôle social sur la population. Aujourd'hui on est en train de se rendre compte que ce modèle chinois est plutôt destiné à l'exportation. Il y a évidemment une utilité nationale, mais il est destiné aussi à des pays étrangers. Et donc aujourd'hui, il faut savoir si ce modèle technologique chinois est capable de s'introduire dans d'autre pays. Je crois que l'un des dangers de la prolifération de ce type d'outils c'est aussi la réduction des imaginaires. On ne se comporte plus tout à fait de la même façon dans l'espace public quand on sait qu'il y a des caméras partout, que ces caméras sont capables de faire de nombreuses choses. Si c'est une caméra capable d'identifier mon visage, je vais me comporter d'une façon différente, je ne vais plus interagir de la même façon avec les autres individus. Et donc, finalement, que ces technologies fonctionnent ou non, la destruction du lien social entre les individus est déjà effective par la seule présence de la technologie, qu'elle soit placebo ou non. - Olivier Tesquet -

Ces caméras-là, aujourd'hui, font peur. Si demain, elles entraînent des usages positifs, je pense qu'elles feront un peu moins peur. Par essence, toutes les technologies qui arrivent dans ce monde font peur au début. Après, on donne des orientations et ensuite, elles entrent dans la commodité. Aujourd'hui nous sommes face au raz-de-marée de cette technologie. L'intelligence artificielle va déferler, parce qu'elle reprend le concept et le précepte même de notre esclavagisme sur la société. Et j'entends par là que nous avons tous été à l'école, nous sommes tous sortis avec des spécialités et nous servons chacun comme un lego bien assemblé à l'économie de cette société. Cette technologie arrive, elle est en train de petit à petit apprendre à faire ce que vous savez faire, mais avec bien plus d'horizontalité et bien plus de volume. Il faut réfléchir à notre modèle de société, à ce que  nous sommes, à ce que nous voulons devenir et s'en servir comme un outil, comme nous l'avons toujours fait. - William Eldin -

L'équipe