80. Restreindre, interdire – On se souvient qu’il pèse sur les responsables de traitement une obligation de récolter le minimum de données nécessaire à la réalisation des finalités qu’ils ont fixées. Mais l’on garde également en mémoire la distance qui semble séparer cet idéal réglementaire des pratiques de terrain 1. L’individu peut parfois y remédier en partie, en procédant à certains arbitrages éclairés. Ceux-ci visent tantôt à limiter la collecte de données (1), tantôt à y faire obstacle (2).
1 – La collecte rationnée
81. Le choix du partenaire contractuel – Dans toutes les situations, fréquentes, où la collecte de données a lieu sur la base d’un consentement, et notamment à l’occasion de la conclusion ou de l’exécution d’un contrat, il est possible d’effectuer une comparaison entre les services proposés, en fonction de leur gourmandise en informations personnelles. Puisque la fourniture de données s’apparente de plus en plus à un « prix » — qui n’est pas libellé en euro s mais s’exprime en fragments d’intimité mis à nu — une compétition est susceptible de s’instaurer entre les offres 2.
À titre d’exemple, l’internaute est aujourd’hui invité à choisir entre le moteur de recherche dominant, Google Search, et certains concurrents comme l’américain DuckDuckGo ou le français Qwant. Les deux derniers affirment pratiquer la publicité non ciblée, et ne pas conserver les données personnelles de leurs utilisateurs. L’arbitrage se fait alors entre une plus grande efficacité supposée du moteur dominant et la moindre gourmandise en données de ses concurrents 3. Parfois, les termes du choix sont encore plus lisibles, puisqu’il s’agit de trancher entre une solution gratuite, mais consommatrice de données personnelles, et une solution payante 4. La démarche de privacy by design, qui consiste à concevoir un produit ou un service dès l’origine de manière à ce qu’il ne puisse pas porter une atteinte profonde à l’intimité de l’utilisateur, est théoriquement rendue obligatoire par le règlement de 2016 à compter de son entrée en vigueur 5. Mais il sera difficile de dépasser rapidement le vœu pieux, et de l’imposer à des services déjà existants, populaires, avec d’immenses bases d’utilisateurs, qui ont été pensés à l’inverse. En revanche, certains acteurs existants ou plus vraisemblablement entrants sur le marché peuvent en faire un avantage concurrentiel, susceptible d’attirer une fraction croissante de clientèle, celle qui se préoccupe de la maîtrise de son identité numérique. Ce mouvement est qualifié de « privacy as a service » 6. Tout cela est néanmoins subordonné — et la réserve n’est pas mince — à la possibilité d’instaurer une véritable concurrence, alors que le secteur du numérique se caractériserait par de puissants effets d’auto-renforcement : un réseau social, par exemple, est de plus en plus attractif au fur et à mesure que sa communauté d’utilisateurs augmente, ce qui rend l’entrée sur le marché extrêmement difficile 7.
82. Les interfaces de paramètre de la collecte – Le choix d’un prestataire ayant une politique plutôt protectrice ou plutôt agressive en matière de données personnelles ne constitue qu’une première étape. Supposons qu’un internaute ait fait le choix d’un service gratuit et performant, mais qui cherche à recueillir sur lui un maximum de données. Aujourd’hui, une entreprise comme Google propose à ses clients de prendre un grand nombre de décisions relatives à leur compte, en procédant à des arbitrages entre protection de leur intimité et pertinence du service 8. Par exemple, l’entreprise explique qu’elle crée « une carte privée des lieux où vous vous rendez avec les appareils sur lesquels vous êtes connecté, afin notamment de fournir de meilleurs résultats de recherche sur Google Maps et d’améliorer le calcul d’itinéraires pour vos trajets domicile-travail ». Décocher cette option provoque un avertissement sur les pertes de performance qui risquent de s’ensuivre s’agissant des services de cartographie de l’entreprise. De même, il est possible de refuser que la firme de Mountain View stocke les instructions vocales données par l’utilisateur, mais au prix, selon elle, d’une moindre précision dans la reconnaissance vocale et d’une limitation ou d’une perte (sans plus de précisions) de fonctionnalités de recherche vocale.
En dépit de l’aspect quelque peu dissuasif de ces alertes au moment d’effectuer les choix, il faut reconnaître que l’existence d’un tel tableau de bord est un progrès, dont l’utilisateur peut se saisir pour gérer plus finement les contours de son identité numérique.
83. Les cookies et autres traceurs – Nous avons déjà souligné l’importance du dispositif technique appelé « cookies » dans la collecte de données sur les internautes 9. Or, l’individu a la possibilité de s’opposer à ce que ces fragments d’information soient déposés sur son terminal. Actuellement, la directive relative aux communications électroniques impose d’en informer spécifiquement l’internaute 10. À titre d’exemple, un site comme Facebook affiche un « bandeau » ainsi libellé : « Nous utilisons des cookies pour personnaliser le contenu, ajuster et mesurer les publicités et offrir une expérience plus sûre. En cliquant sur le site ou en le parcourant, vous nous autorisez à collecter des informations sur et en dehors de Facebook via les cookies. Pour en savoir plus, notamment sur les moyens de contrôle disponibles, consultez la Politique d’utilisation des cookies ». L’idée de départ est saine, mais le résultat concret décevant. D’une part, ce bandeau s’affiche trop souvent : dès lors, les internautes ont appris à les fermer aussitôt sans plus en avoir conscience. D’autre part, l’exemple choisi propose simplement à l’internaute de poursuivre sa navigation en acceptant le traceur, ou bien — implicitement — de quitter le service. En visitant le site de la CNIL, on découvre ce qu’aurait pu être un modèle vertueux : le visiteur est invité à se prononcer sur une variété de traceurs pris individuellement, qu’il peut autoriser ou interdire ; même s’il les interdit tous, cela ne l’empêche pas de poursuivre sa visite, mais modifie seulement les fonctionnalités disponibles 11.
Le projet de règlement sur les communications électroniques pourrait constituer un progrès en la matière 12. Dans un considérant, on peut ainsi lire :
Étant donné l’usage généralisé des cookies traceurs et autres techniques de suivi, il est de plus en plus souvent demandé à l’utilisateur final de consentir au stockage de tels cookies dans son équipement terminal. En conséquence, les utilisateurs finaux sont débordés par les demandes de consentement. Le recours à des moyens techniques permettant de donner son consentement, par exemple, à l’aide de paramètres transparents et conviviaux, peut constituer une solution à ce problème. Par conséquent, le présent règlement devrait prévoir la possibilité d’exprimer un consentement en utilisant les paramètres appropriés d’un navigateur ou d’une autre application. Les choix effectués par l’utilisateur final lorsqu’il définit les paramètres généraux de confidentialité d’un navigateur ou d’une autre application devraient être contraignants pour les tiers et leur être opposables 13.
L’internaute installant ou démarrant pour la première fois son navigateur devrait ainsi prendre position 14. Les cookies déposés par le site consulté seraient traités différemment des « cookies de tiers », ces derniers, principalement utilisés par des régies publicitaires, servant généralement à traquer l’internaute tout au long de sa navigation entre différents sites. Toutefois, certains cookies tiers servent exclusivement à réaliser des mesures d’audience et sont par conséquent moins dangereux : le projet de texte les autorise donc par principe 15. Il est donc probable que la majorité des internautes donnera instruction à son navigateur de refuser les cookies tiers. Les sites pourront demander une levée de ce refus à leur seul profit (opt-in) : la manière dont ces exceptions seront demandées et accordées, ainsi que l’effet d’un refus persistant sur les conditions de navigation, conditionnent largement l’efficacité du dispositif 16.
En l’état actuel, ce sont des initiatives privées qui donnent aux individus les moyens les plus intéressants de s’opposer aux traceurs tiers. Des chercheurs de Stanford et Princeton ont imaginé le système Do Not Track (ne pas me pister) : si cette option est activée dans le navigateur, chaque envoi de données par l’internaute comprend, en en-tête, une demande visant à ne pas faire l’objet d’un suivi 17. Les sites sont actuellement libres de respecter ou d’ignorer cette requête, mais l’Electronic Frontier Foundation a mis au point un outil appelé Privacy Badger, qui vise à analyser en temps réel les traceurs tiers invisibles rencontrés par l’internaute et à les contrecarrer 18. Si le fait de bloquer un traceur perturbe l’expérience de navigation, l’internaute est libre de lui redonner accès à son terminal. Un tel outil redonne du pouvoir aux personnes souhaitant conserver la maîtrise de leur identité numérique, mais il est employé par une petite minorité d’initiés. Il faut espérer que le règlement sur les communications électroniques parviendra à des résultats similaires, au profit de tous.
Conférer aux internautes un contrôle approfondi des cookies ne sera toutefois pas suffisant. Pour suivre les individus en ligne, d’autres techniques ont émergé récemment, au premier rang desquelles figure l’empreinte du navigateur. Toujours selon l’Electronic Frontier Foundation, très vigilante sur ces questions, l’objectif est d’identifier l’internaute sans déposer aucun fichier sur son terminal, mais uniquement en combinant des fragments d’information fournis au monde par son navigateur. Il s’agit d’informations a priori totalement anodines, par exemple : le type de navigateur et son numéro de version ; la liste des extensions installées et leur version ; la langue choisie ; la résolution de l’écran ; le système d’exploitation et sa version ; le fuseau horaire ; les polices d’écriture disponibles sur le terminal… 19. La plupart de ces éléments sont nécessaires à la prise en charge technique de la navigation. Par exemple, un site doit connaître la résolution de l’écran pour s’afficher correctement. Mais la combinaison de ces réglages aboutit à un profil qui, à l’échelle de centaines de milliers de personnes, se révèle rare, voire unique 20. Les institutions européennes sont conscientes de l’existence de ces nouvelles techniques, et le projet de règlement sur les communications électroniques est censé y remédier, mais il est trop tôt pour dire si les mesures proposées suffiront à empêcher ces pratiques très silencieuses 21.
Face aux progrès constants des outils destinés à les pister, pour protéger leur identité, mais aussi le contenu même de leurs échanges, les individus ont la possibilité d’aller plus loin. Plutôt que de simplement réduire la collecte de données, ils peuvent chercher à l’empêcher.
2 – La collecte empêchée
84. Plan – Il est possible d’occulter techniquement non seulement le contenu de données (a), mais aussi l’identité des parties qui les échangent (b).
85. Le chiffrement, masque apposé sur le contenu des données 22 – Nous avons déjà rencontré le chiffrement, « Janus aux deux visages », dans sa fonction d’authentification : il permet de s’assurer que l’interlocuteur en ligne est bien celui qu’il prétend être 23. Sa deuxième fonction — indissociable techniquement de la première — est d’occulter un contenu aux yeux d’un tiers observateur. Il peut s’agir de protéger des données hors-ligne (par exemple, le contenu d’un disque dur) ou le contenu d’une communication.
L'une des interventions du colloque du 21 novembre 2016, au Sénat. Pour visualiser les autres, cliquez ici.
Ainsi employé, le chiffrement a mauvaise presse. M. Bernard Cazeneuve, alors ministre de l’Intérieur, a plusieurs fois présenté cette technique comme un instrument privilégié des terroristes, qui peuvent ainsi planifier leurs crimes à l’abri des écoutes pratiquées par les services de renseignement 24. Une tribune publiée dans le New York Times par plusieurs hauts magistrats européens et américains dont M. Molins, Procureur de la République de Paris, dénonçait une « obstruction à la justice » 25.
S’en tenir à une telle vision serait une erreur. Comme le relève l’Observatoire des libertés et du Numérique, les journalistes, les médecins, les avocats, les lanceurs d’alertes, mais aussi les simples citoyens ont des raisons légitimes de stocker des informations et de procéder à des communications dont le contenu ne soit pas librement accessible aux curieux 26. D’un point de vue pratique, le chiffrement consiste à transformer le paquet de données « en clair » en une suite de caractères sans signification apparente, à laquelle il faudra appliquer une « clé » de déchiffrement pour lui restituer sa physionomie initiale. S’agissant des communications, le chiffrement asymétrique, dont les concepts principaux ont déjà été présentés, est actuellement très utilisé. Il évite aux interlocuteurs d’avoir à se concerter au préalable sur une clé commune, qu’ils devraient alors se remettre en mains propres pour être certains qu’elle ne soit pas interceptée 27. Il leur permet d’entamer immédiatement la communication, sans s’être jamais rencontrés.
Pour savoir contre qui la protection ainsi érigée est efficace, dans le cas des échanges de données, il faut cependant se demander si le chiffrement a lieu « de bout en bout » (end to end encryption). Prenons l’exemple des prestataires de messagerie électronique. Il est courant qu’ils chiffrent les communications « de point à point » : entre l’utilisateur A et son prestataire, le message est en clair ; entre le prestataire de A et le prestataire de B, il est chiffré et donc protégé de la curiosité des tiers ; entre le prestataire de B et l’utilisateur B lui-même, le message est à nouveau en clair 28. L’échange est protégé d’une attaque de type « homme du milieu », c’est-à-dire d’un attaquant qui se place au milieu de la communication et la relaie tout en l’écoutant. Mais il peut être analysé par les prestataires, aux fins par exemple de proposer de la publicité ciblée à leurs clients. De plus, à partir du moment où le message existe en clair chez le prestataire, celui-ci peut être directement attaqué par des pirates, ou requis par des gouvernements de divulguer ces informations. Inversement, lorsque le chiffrement a lieu « de bout en bout », il en résulte une confidentialité maximale. Le message sort du terminal de A déjà chiffré, et parvient au terminal de B encore chiffré. Les prestataires de service, les propriétaires des réseaux de communication, par extension les gouvernements n’y ont plus accès. De nombreux outils à destination du grand public se développent, qui offrent à leurs utilisateurs un chiffrement « de bout en bout » totalement transparent pour eux, sans leur demander de se livrer à aucune forme de configuration ou de formalité préalable, les clés étant créées sans leur intervention 29.
Quelle peut, quelle doit être l’attitude du droit en France et dans le monde à l’égard des techniques qui viennent d’être décrites ?
86. Dégrader le chiffrement, une tentation dangereuse – Cela fait plus de quarante ans que les États, poussés par leurs services judiciaires et de renseignement, sont tentés de décourager ou d’interdire les techniques de chiffrement, qui ont été considérées en France comme des armes de guerre jusqu’à la fin des années 1990 30. Et les inquiétudes exprimées par des ministres ou magistrats semblent au premier abord parfaitement légitimes : peut-on accepter que des informations parfois cruciales pour le bon déroulement d’une enquête pénale, ou pour la sûreté de la nation, soient irrémédiablement soustraites au regard de l’État ? Une solution parfois avancée consiste à contraindre les concepteurs de techniques de chiffrement à concevoir une « clé maître » ou des « portes dérobées ». Ces solutions techniques sont différentes, mais consistent toutes en un secret permettant à son détenteur de contourner le problème mathématique qui rend les données illisibles : il peut donc toutes les consulter à sa guise. Malheureusement, à partir du moment où cette possibilité existe, elle peut être exercée de manière totalement invisible et il est impossible de vérifier que l’État n’en fait pas usage en dehors des procédures légales. Par ailleurs, la faille peut être recherchée et trouvée par des entités hostiles disposant de moyens suffisants comme des États étrangers, des entreprises concurrentes ou des organisations criminelles 31.
La solution consistant à « affaiblir » volontairement le chiffrement n’est pas meilleure. Elle consiste à autoriser la transformation de données lisibles en données sans signification apparente, mais en limitant la puissance des opérations mathématiques utilisées pour accomplir la transformation. De la sorte, il suffirait de disposer d’une puissance de calcul massive pour intervertir le processus sans même connaître la clé. Une telle idée suscite au moins deux objections, chacune suffisant à la disqualifier. La première, c’est que la puissance nécessaire pour renverser un processus de chiffrement faible, on l’a dit, est loin d’être le monopole des États. Ainsi, les réseaux mafieux utilisent des logiciels malveillants pour infecter des millions d’ordinateurs à travers le monde. La puissance informatique en résultant peut être mise au service d’attaques, mais aussi de calculs mathématiques 32. La deuxième, c’est que les cibles privilégiées des services judiciaires et de renseignement, notamment les terroristes, n’utiliseront pas les versions « affaiblies » des logiciels de chiffrement. Plusieurs outils de chiffrement fort ont un code source public : la manière de les mettre en œuvre fait à présent partie du savoir commun de l’Humanité, qui ne disparaîtra pas. Criminaliser leur utilisation ne risque pas de dissuader des individus qui cherchent à tuer des dizaines d’innocents. En revanche, le citoyen ou l’entreprise ordinaires utiliseront un chiffrement facile à briser, ce qui permettra le vol de données, empêchera les objets connectés de dialoguer avec des serveurs distants en étant à l’abri d’une prise de contrôle par des pirates, neutralisera le chiffrement dans toutes ses fonctions d’authentification déjà décrites, vitales pour l’administration en ligne, la banque en ligne ou le commerce électronique 33.
87. Le contournement du chiffrement en droit positif – Faut-il pour autant renoncer à tout encadrement ? Certainement pas. La CNIL relève que le droit positif « […] autorise notamment les réquisitions numériques, l’accès aux données de connexion, les interceptions de correspondances, les enregistrements audiovisuels, la captation de données informatiques affichées à l’écran ou introduites au clavier, ou encore le recours à des experts techniques dans le cas de données chiffrées » 34. Les autorités peuvent en effet avoir recours à des logiciels destinés à reproduire à distance les données affichées à l’écran ou saisies au clavier par une personne faisant l’objet d’une enquête, ce qui permet d’accéder à ses données à un moment où elles ne sont plus ou pas encore chiffrées ; par ailleurs, lorsque la machine utilisée par la personne soupçonnée d’avoir commis une infraction pénale peut être physiquement appréhendée et confiée à un expert, les autorités parviennent fréquemment à contourner le chiffrement 35.
En outre, plusieurs dispositions du Code pénal visent à la remise de la clé de chiffrement par les personnes en ayant connaissance. L’un d’entre eux concerne toute personne « ayant connaissance de la convention secrète de déchiffrement d’un moyen de cryptologie susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit, de refuser de remettre ladite convention aux autorités judiciaires ou de la mettre en œuvre, sur les réquisitions de ces autorités délivrées en application des titres II et III du livre Ier du code de procédure pénale » 36. Selon les circonstances, les peines encourues vont de trois à cinq ans de prison et une amende allant jusqu’à 450 000 euros 37. Un autre texte concerne spécifiquement le malfaiteur lui-même ou ses complices. Il s’applique lorsqu’un moyen de chiffrement « a été utilisé pour préparer ou commettre un crime ou un délit, ou pour en faciliter la préparation ou la commission » 38. Il augmente de manière significative les peines encourues pour la commission « sèche » de l’infraction, mais cette augmentation n’est pas applicable à l’auteur ou complice qui a remis sa clé de déchiffrement aux autorités sur leur demande. Il est permis de s’interroger sur la conventionnalité de ce second texte, au regard du droit reconnu à toute personne accusée d’une infraction pénale de ne pas contribuer à sa propre incrimination. Ce droit résulte tant du Pacte international relatif aux droits civils et politiques que de l’article 6 de la Convention européenne des Droits de l’Homme, tel qu’interprété par la Cour de Strasbourg 39. Pour que la loi française soit conforme à ces conventions internationales, elle devrait au minimum s’interpréter comme visant des documents chiffrés précis, dont l’existence et le thème général sont déjà connus des enquêteurs ; la clé de chiffrement ne devrait pas pouvoir être exigée « à l’aveugle » uniquement pour prendre connaissance du contenu d’un ensemble de données codées, dans la simple éventualité où elles auraient un rapport avec l’enquête 40.
Un requérant a fait valoir, devant le Conseil constitutionnel, que cette disposition était contraire au droit à une procédure juste et équitable garanti par l’article 16 de la Déclaration des droits de l’homme et du citoyen de 1789 et au principe de présomption d’innocence garanti par l’article 9 de cette même déclaration 41. Il n’a pas été entendu, les Sages jugeant ce texte conforme à la Constitution considérant que :
En premier lieu, en imposant à la personne ayant connaissance d’une convention secrète de déchiffrement d’un moyen de cryptologie de remettre ladite convention aux autorités judiciaires ou de la mettre en œuvre uniquement si ce moyen de cryptologie est susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit et uniquement si la demande émane d’une autorité judiciaire, le législateur a poursuivi les objectifs de valeur constitutionnelle de prévention des infractions et de recherche des auteurs d’infractions, tous deux nécessaires à la sauvegarde de droits et de principes de valeur constitutionnelle.
En second lieu, aux termes de la première phrase de l’article 29 de la loi du 21 juin 2004 mentionnée ci-dessus constitue un moyen de cryptologie « tout matériel ou logiciel conçu ou modifié pour transformer des données, qu’il s’agisse d’informations ou de signaux, à l’aide de conventions secrètes ou pour réaliser l’opération inverse avec ou sans convention secrète ». Les dispositions critiquées n’imposent à la personne suspectée d’avoir commis une infraction, en utilisant un moyen de cryptologie, de délivrer ou de mettre en œuvre la convention secrète de déchiffrement que s’il est établi qu’elle en a connaissance. Elles n’ont pas pour objet d’obtenir des aveux de sa part et n’emportent ni reconnaissance ni présomption de culpabilité mais permettent seulement le déchiffrement des données cryptées. En outre, l’enquête ou l’instruction doivent avoir permis d’identifier l’existence des données traitées par le moyen de cryptologie susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit. Enfin, ces données, déjà fixées sur un support, existent indépendamment de la volonté de la personne suspectée.
Cette décision ne préjuge pas, bien évidemment, du résultat d’un recours qui serait formé devant la Cour de Strasbourg sur le fondement de la CEDH.
Ainsi, l’arsenal existant semble d’ores et déjà suffisant pour lutter contre les usages illégitimes du chiffrement, tout en protégeant les usages — de très loin les plus nombreux — légitimes, voire indispensables de ces techniques.
b – Les parties à une communication
88. Caractère sensible des « métadonnées » – Le chiffrement des données, lorsqu’il est utilisé dans le cadre de communications, masque le contenu de l’échange, mais pas l’origine des connexions des interlocuteurs – en particulier, leur adresse IP. Par diverses techniques de recoupement privées ou publiques déjà exposées 42, connaître l’adresse IP d’un internaute permet souvent de remonter jusqu’à son identité stable. Ainsi, si le tiers observateur ignore le contenu de l’échange, il sait qui sont les participants. Cette information est à elle seule particulièrement sensible : savoir de telle personne qu’elle discute avec telle autre, ou qu’elle consulte telle liste de sites, c’est déjà pénétrer profondément son intimité. On se souvient par exemple comment les factures téléphoniques détaillées (les « fadettes ») de journalistes avaient été exploitées pour tenter d’identifier leurs sources 43. Le même problème se pose avec Internet.
Il existe cependant des solutions techniques destinées à masquer ces informations. Elles utilisent le chiffrement, mais font de surcroît emprunter un détour aux informations lancées sur le réseau, pour que les observateurs en perdent la trace. Nous en présenterons certaines parmi les plus connues.
89. Les réseaux privés virtuels – La première technique est celle du réseau privé virtuel. L’internaute va connecter sa machine à un serveur distant, en établissant entre eux un « tunnel », dont le contenu est généralement chiffré et donc non observable par un tiers. Ce serveur distant va servir d’intermédiaire pour accéder à un réseau privé, par exemple d’entreprise ou d’université, mais peut aussi être employé pour accéder à n’importe quel site externe. C’est cette dernière possibilité qui nous intéresse particulièrement. L’intérêt pour l’internaute est double. Premièrement, l’internaute ne révèle à son fournisseur d’accès qu’un minimum d’informations. Le FAI observe une liaison entre l’abonné et le serveur distant — le « tunnel » — mais n’en sait pas davantage, car il n’a pas la possibilité d’examiner quelles informations le serveur distant va recueillir à l’extérieur. Deuxièmement, l’internaute est protégé de la curiosité du site ou du service visité. Ce n’est pas son adresse IP qui est collectée, mais celle du serveur qui lui sert d’intermédiaire. Il peut ainsi préserver la confidentialité de sa connexion, mais aussi mentir sur sa localisation géographique. Les réseaux privés virtuels ont ainsi été popularisés auprès du grand public à la suite du succès du service de vidéo à la demande Netflix, qui propose un catalogue de contenus différents selon le pays d’où ses abonnés se connectent. Afficher artificiellement une adresse IP américaine permet d’accéder à des contenus non disponibles en France, ce qui constitue une violation des conditions d’utilisation du service 44. Occulter son adresse IP peut également servir à commettre des infractions pénales en rendant les enquêtes plus difficiles, qu’il s’agisse d’actes banals de contrefaçons de séries télévisées sur des réseaux d’échanges de fichiers, ou des crimes les plus graves. Le constat s’impose sans cesse d’une réversibilité des techniques, qui peuvent être employées à des fins parfaitement légitimes ou pour les motifs les plus vils, ce qui rend difficile l’adoption d’une position de principe par le système juridique.
90. The Onion Router (TOR) – La seconde technique en constitue un exemple plus flagrant encore. Il s’agit du projet The Onion Router, plus connu sous son acronyme TOR 45. TOR consiste en un ensemble de logiciels libres, qui organisent le transport des informations sur Internet selon des modalités originales, afin de protéger l’anonymat de ses utilisateurs. Habituellement, les protocoles TCP/IP font transiter les données échangées sur les réseaux par un ensemble de points relais, qui peuvent être situés n’importe où et sont choisis en temps réel pour répartir la charge sur les réseaux de communication. Mais ces paquets d’information comportent en permanence l’adresse IP de l’expéditeur et celle du destinataire : chaque point du parcours est donc en mesure d’identifier les parties à la communication. Le réseau TOR, lui, crée un ensemble de points relais appelés « noeuds », qui sont choisis au hasard, mais auxquels un minimum d’informations est fourni. Chaque « noeud » connaît les coordonnées de celui qui le suit et de celui qui le précède, mais pas davantage. Un internaute français communiquant avec les États-Unis pourrait voir ses informations transiter par la Suède, l’Autriche, le Japon, l’Argentine puis les États-Unis. Chaque paire de nœuds forme un tunnel de communications usant de sa propre clé de chiffrement. La protection de l’utilisateur repose ainsi sur la superposition de plusieurs couches : de là vient le choix de l’oignon comme symbole. Précisons que le dernier maillon de la chaîne est susceptible de communiquer en clair avec le destinataire final. Par exemple, si l’internaute français cherche à consulter le site du New York Times, le serveur du journal enverra ses informations sous forme lisible au client argentin (appelé « nœud de sortie »), comme il le ferait pour n’importe quel autre lecteur. Le « nœud de sortie » peut donc être espionné par celui qui l’héberge 46. C’est que l’objectif de TOR n’est pas d’occulter le contenu des communications : il est bien de masquer techniquement la provenance et la destination des flux et, partant, l’identité des interlocuteurs. Cela est inutile, cependant, si ces identités sont révélées dans le contenu d’échanges en clair. Mais il est possible d’utiliser, en combinaison avec TOR, les techniques de chiffrement de bout en bout déjà décrites. L’anonymat est alors fortement protégé.
TOR présente un autre intérêt : celui de proposer d’accéder à des sites ou à des services « cachés ». Certains leur accolent l’appellation controversée de dark web ou dark net 47. Ils ne sont pas recensés par les moteurs de recherche, et leur adresse — reconnaissable à son extension en .onion — doit donc être précisément connue en amont de la connexion.
Les fins les plus nobles cohabitent une fois encore avec la criminalité la plus noire. Les lanceurs d’alerte peuvent masquer l’origine et la destination des communications pour entrer en relation avec des journalistes. Des dissidents politiques peuvent créer des sites en .onion pour abriter des discours contestant des régimes autoritaires, en minimisant les risques d’être identifiés et châtiés : les « printemps arabes » ont fait usage de ces outils 48. Les citoyens ordinaires peuvent y recourir pour échapper aux techniques de plus en plus sophistiquées, mises en œuvre par des acteurs privés à des fins marchandes, visant à traquer l’ensemble de leurs activités en ligne, à l’aide notamment de leur adresse IP 49. À côté de ces usages légitimes, certains affirment que « le Darkweb, avec le temps, est devenu une véritable zone de non-droit où tout s’échange, s’achète, se montre. On peut ainsi y acquérir toutes sortes de drogues, des armes, des organes, des personnes vivantes ou mortes, même. On peut également y consulter des sites pédopornographiques, regarder des scènes de meurtres ou de viols tournées en temps réel, etc. Un monde d’horreur à la portée de tous » 50.
91. Outils et usages – La tentation première, face à ces abominations, est d’envisager l’interdiction. Rien n’est simple toutefois puisqu’interdire les outils met fin aux bons comme aux mauvais usages. On ne songerait pas à interdire les chapeaux et les lunettes de soleil sous prétexte qu’ils sont parfois portés par des criminels cherchant à s’enfuir en toute discrétion. Il importe de focaliser les efforts du système juridique, dans un premier temps, sur le caractère licite ou illicite des usages. Si l’usage est réprimé par la loi, l’outil est alors un « simple » problème matériel que les enquêteurs doivent surmonter. Comme l’écrit le Premier avocat général à la Cour de cassation, « (…) exactement comme dans la configuration du Clearnet un cyberdélinquant est d’abord un délinquant, et comme tel relevant des mêmes lois pénales. De même, les règles de compétence du juge ne sont pas différentes sur le clear ou sur le dark, et ce qui fonctionne ici doit fonctionner là. Dès lors, s’agissant des problèmes de compétence du juge ou de la loi applicable, les infractions qui sont commises sur le Darknet justifient des mêmes approches et des mêmes solutions que celles visant les infractions commises sur le Clearnet » 51. La suite est avant tout une question de moyens. Une enquête longue et minutieuse du FBI, qui compte dans ses rangs des informaticiens de très haut niveau, a ms fin ux activités de Silk Road, l’énorme réseau de vente de drogues du Darkweb 52.
Le problème vient finalement de ce que le numérique multiplie la puissance des outils permettant le maniement des identités. Il permet de construire les identités numériques, en agglomérant informations fondamentales et données anecdotiques autour de l’identité stable, avec une efficacité qui ne cesse de croître, et qui menace le droit à la vie privée des individus. En réaction, des possibilités sont apparues d’agir, de communiquer, de passer des transactions en masquant totalement qui l’on est. L’identité numérique est une identité exacerbée, qui oscille sans cesse entre une trop grande transparence et une opacité excessive.
Les instruments permettant la gestion de l’identité numérique en amont de la collecte de données ayant été décrits, il faut à présent présenter ceux qui interviennent en aval (B).