I – La télécommunication

184. Un tout plus grand que ses parties – Dans la classification proposée par M. Benkler, les infrastructures de communication renvoient à la fois à la couche « physique » d’Internet et à sa couche « logique ».

La couche matérielle consiste en une variété d’équipements, certains lourdement tangibles — fibres optiques sous-marines et terrestres, millions de kilomètres de câbles de cuivres, routeurs — d’autres à la matérialité plus éthérée : réseaux wifi ou de téléphonie mobile, liaisons satellites par exemple. Historiquement, le réseau militaire ARPANET a constitué le backbone, l’épine dorsale des infrastructures. Aujourd’hui, il n’existe plus de réseau central qui s’opposerait de manière officielle à un réseau périphérique, mais certaines sociétés peuvent être considérées, par la taille et le débit exceptionnels de leur réseau de communications, comme constituant de fait un noyau à l’échelle mondiale. La plupart de ces sociétés sont américaines : American Telephone & Telegraphy Company (AT&T) en constitue l’exemple le plus illustre 1. Une société européenne, aujourd’hui disparue avait affiché son ambition d’intégrer cette épine dorsale en prenant le nom d’Ebone, pour European Backbone 2. À ces grands fournisseurs d’accès se connectent ensuite des propriétaires de réseaux plus petits, qui développent leur propre clientèle. Les FAI français entrent essentiellement dans cette catégorie. Enfin, les abonnés constituent parfois leur propre réseau domestique ou d’entreprise, qui peut être considéré comme partie intégrante du réseau global. C’est ce dernier maillon qui se prête à l’exercice le plus puissant du droit de propriété, car, au premier abord, seul son titulaire en subira les conséquences. Cette impression doit être nuancée : il a déjà été exposé que la loi française fait peser sur chacun une obligation de veiller à la sécurité de sa connexion, afin d’éviter que son réseau ne soit exploité par un tiers se livrant à des actes de contrefaçon 3. Au-delà de cette disposition spécifique relevant du droit d’auteur, il est possible d’imaginer qu’une négligence coupable dans la sécurisation d’un réseau privé pourrait être une source de responsabilité civile, par exemple si les machines compromises ont été utilisées pour mener une cyberattaque. Il y aurait, en quelque sorte, une obligation — sans doute de moyens — de veiller à ce que son réseau ne soit pas utilisé pour nuire à autrui, mais pas davantage. Laissons de côté ce dernier maillon dans la chaîne de communication, et considérons les infrastructures des petits et grands FAI. La manière dont elles sont gérées est susceptible d’avoir un impact sur le fonctionnement d’Internet. Si le propriétaire d’un morceau de réseau, par lequel transitent des communications du monde entier, peut refuser de relayer certaines informations, ou est autorisé à les ralentir ou à les altérer, les fonctionnalités collectives s’en trouvent atteintes. Une tension se révèle entre le pouvoir exclusif d’une personne sur sa chose, et l’intérêt général.

Cette considération amène naturellement à décrire la couche logique, car elle pilote la couche matérielle, elle lui fournit ses instructions. Il s’agit en particulier de l’ensemble de protocoles appelé TCP/IP. Pour que l’interconnexion des réseaux privés soit possible, il est nécessaire que ces protocoles soient utilisés partout. Or, nous verrons qu’ils ont été originellement conçus de sorte à réduire au maximum la capacité du propriétaire du réseau à discriminer selon les différents flux qui transitent par ses équipements.

De ce qui précède découle un paradoxe apparent ainsi résumé par M. Lessig :

Internet est un réseau de réseaux. Pour dire les choses simplement, ces réseaux sont connectés entre eux par des câbles. Tous ces câbles et les machines qui y sont reliées sont sous le contrôle de quelqu’un. Il s’agit presque toujours de personnes privées : en d’autres termes, ils appartiennent à des individus ou à des entreprises qui ont décidé de se relier au Net. Certains sont la propriété de l’État. Pourtant, c’est ce vaste réseau de technologie privée qui a permis la mise en place d’un des plus importants biens communs de l’innovation que nous ayons jamais connus. Construits sur une plateforme réglementée, les protocoles d’Internet ont ouvert un espace libre propice à l’innovation. Ces réseaux privés ont créé une ressource ouverte dont tout un chacun peut retirer quelque chose, et que beaucoup ont déjà utilisée avec profit 4.

Un agglomérat de propriétés privées formant une ressource commune : l’histoire est belle. Elle l’est sans doute trop. La tentation existe, aujourd’hui, chez les propriétaires de réseaux, de brandir plus fermement leurs prérogatives pour modifier la manière dont les informations voyagent l’Internet global (A). Le bien commun des origines se trouve alors menacé de fragmentation et d’enclosure 5. Certains États ont alors décidé d’imposer le retour à « l’état de nature » qu’est la neutralité du net, mais ils se présentent sur ce front en ordre dispersé (B).

A – La tentation privée : discriminer les flux

185. Plan – Hasard ou volonté ? Les pères fondateurs d’Internet l’avaient conçu de manière à ce que les informations, toutes les informations, bénéficient d’un égal accès aux infrastructures de transport (1). Depuis quelques années, cette philosophie est largement menacée (2).

1 – La neutralité des origines

186. Le choix d’une architecture end-to-end – Souvent considéré comme la matrice de la neutralité du net, le principe « end-to-end » a été formalisé de manière particulièrement claire dans un article publié en 1984 par des chercheurs du M.I.T 6. Il permet de comprendre quelle philosophie anime les protocoles TCP/IP. La question centrale explorée par les chercheurs est celle-ci : les réseaux de télécommunications doivent-ils être conçus de sorte à non seulement transporter l’information, mais aussi à en assurer par eux-mêmes un traitement ? Ou faut-il considérer que le réseau doit être essentiellement cantonné à sa fonction de véhicule, et laisser les logiciels s’exécutant aux extrémités de la chaîne seuls maîtres du traitement ? Pour le savoir, les auteurs examinent plusieurs exemples de « fonctions » qui pourraient être confiées soit au réseau de transport, soit aux bouts de chaîne, soit aux deux, puis ils recherchent la méthode la plus pragmatique et la plus efficace.

La première fonction étudiée est celle qui consiste à vérifier qu’un fichier a été transmis depuis le disque dur d’un ordinateur A jusqu’au disque dur d’un ordinateur B, séparés par le réseau de télécommunication, sans avoir été endommagé d’aucune manière. Cette fonction de vérification d’intégrité peut être conférée aux nœuds du système de transport de l’information : à chaque « saut » entre deux points du réseau, il est vérifié que la consistance du fichier n’a pas varié. La solution peut sembler logique au premier abord : le réseau est faillible, il peut dysfonctionner et perdre des informations. Pourtant, elle est à proscrire, car le fichier a également pu être corrompu en amont ou en aval. L’ordinateur A peut avoir mal lu le fichier sur son disque dur, l’avoir mal retranscrit dans sa mémoire, ou l’avoir mal transféré vers son module de communication externe. L’ordinateur B, qui exécutera les mêmes opérations dans l’ordre inverse, est exposé aux mêmes risques. Il n’est donc pas possible d’éviter que l’ordinateur B, à l’issue de la communication, compare le fichier qui lui a été transmis à l’empreinte qui l’accompagnait, et vérifie qu’il y a correspondance : c’est le seul moyen de valider l’ensemble des opérations de transfert, aussi bien celles qui dépendent du réseau que celles qui n’ont rien à voir avec lui. La conclusion est la suivante : demander aux nœuds du réseau d’effectuer ce travail est inutile, puisque le logiciel situé en bout de chaîne devra l’accomplir quoiqu’il arrive. La meilleure solution, la plus économe en ressources, la plus rapide, la plus efficace est de transporter servilement les paquets, quitte à recommencer l’envoi si quelque chose s’est mal passé à un quelconque niveau.

Parmi les autres exemples de fonctions étudiés, figure celui du chiffrement. Il a déjà été évoqué dans cette étude : seul un chiffrement end-to-end procure un degré de sécurité satisfaisant 7. Si c’est le réseau de communication qui est chargé de rendre les données illisibles pour éviter leur compromission en cas d’écoute par un tiers, il sera toujours possible d’intercepter des données en clair entre le terminal A et le réseau, ainsi qu’entre le réseau et le terminal B. C’est à nouveau aux logiciels exécutés aux bouts de la chaîne qu’il revient d’accomplir cette tâche de traitement de l’information.

Un autre exemple de fonction est celui du first-in, first-out (FIFO), qui vérifie qu’un ensemble de messages échangés entre des parties arrive dans le même ordre que celui dans lequel ils ont été envoyés. Les différents paquets ont pu voyager en empruntant des chemins différents sur le réseau. Seuls les bouts de chaîne ont une vision d’ensemble de la discussion, et son capables d’assurer cette mise en ordre.

Le dernier exemple qui peut être pris parmi ceux développés par les auteurs, et peut-être le plus frappant, est celui des conversations en temps réel. Chacun en a déjà fait l’expérience : lors d’une telle discussion, surtout lorsqu’elle combine de la vidéo à la voix, le signal est parfois dégradé.

POP CULTURE - "If you hear me, make a gesture-

Extrait de la série télévisée Silicon Valley, saison 1, épisode 5, 2014, dir. Mike Judge

Cela s’explique par le fait que, lorsque des paquets sont perdus ou corrompus, les applications de chat font le choix de ne pas demander leur renvoi systématique. Appliquer une telle politique introduirait un temps de latence important, qui rendrait l’échange désagréable, voire impossible. Il est généralement possible de comprendre un correspondant si une faible fraction du signal sonore ou vidéo disparaît. En revanche, expliquent les auteurs, s’il s’agit de laisser à une autre personne l’équivalent d’un message répondeur, l’exigence d’un faible temps de latence disparaît, tandis que l’exigence de fiabilité est renforcée – il n’est pas possible de demander à son interlocuteur de répéter le message si un mot est inaudible. Le logiciel procèdera donc à un arbitrage différent et demandera donc beaucoup plus facilement que des paquets d’information lui soient renvoyés. La démonstration est faite, magistralement, que ces décisions ne peuvent être prises par le réseau, mais uniquement end-to-end, d’un bout à l’autre de la chaîne.

187. Un choix propice à l’innovation – Le choix du end-to-end apparaît donc avant tout comme de raison, mais présente de surcroît l’avantage d’offrir une plasticité maximale à Internet pour l’avenir. Ainsi l’un des auteurs de l’article a-t-il déclaré plus tard :

Nous voulions nous assurer que nous n’avions pas au bout du compte bâti une technologie réseau sous-tendue par une infrastructure […] qui nous empêcherait d’intégrer une autre infrastructure de transport qui se serait révélée intéressante dans le futur. […] Telle est la vraie raison pour laquelle nous avons opté pour cet outil d’une extrême simplicité appelé le protocole Internet 8.

Mais c’est M. Lessig qui décrit le mieux les conséquences politiques, au sens large, d’un choix architectural qui pouvait sembler éminemment technique.

Cette structure a d’importantes conséquences pour ce qui est de l’innovation. On peut en compter trois :

Premièrement, parce que les applications fonctionnent sur des ordinateurs qui sont aux « bouts » du réseau, les inventeurs qui mettent au point de nouvelles applications ont seulement besoin de connecter leur ordinateur au réseau pour les faire fonctionner. Aucune modification des ordinateurs situés dans le réseau n’est nécessaire. Par exemple, si vous êtes un inventeur et que vous souhaitez pouvoir utiliser Internet pour passer des appels téléphoniques, il vous suffit de mettre au point un logiciel adéquat et de pousser les usagers à l’utiliser pour qu’Internet devienne capable de faire passer des appels téléphoniques. Vous pouvez écrire le programme et l’envoyer à une personne à l’autre bout du réseau. Vous l’installez tous les deux et vous pouvez vous mettre à parler. C’est tout.

Deuxièmement, parce que sa structure n’est optimisée pour aucune application existante spécifique, le réseau est ouvert à toute innovation non prévue à l’origine. Tout ce que fait le protocole Internet (IP), c’est de trouver le moyen de rassembler et faire circuler les données, il ne dirige ni ne traite certains types de données plus favorablement que d’autres. Cela crée un problème pour certaines applications […], mais cela laisse aussi toutes leurs chances à une large palette d’autres applications. Ce qui veut dire que le réseau est ouvert à l’arrivée d’applications qui n’avaient pas été originellement programmées par ses créateurs.

Troisièmement, parce que la structure est celle d’une plate-forme neutre — « neutre » en ce sens que le propriétaire du réseau ne peut sélectionner certains « paquets » de données au détriment de certains autres — le réseau ne peut pas exercer de discrimination contre une nouvelle structure innovante. Si une nouvelle application menace une application en situation dominante, le réseau ne peut rien y faire. Quelle que soit l’application, le réseau restera neutre.

Le réseau est donc constitué de « tuyaux idiots » (dumb pipes), qui doivent simplement faire leurs « meilleurs efforts » pour acheminer les paquets d’information, sans considération aucune pour leur contenu, selon le principe « premier arrivé, premier servi » : cela revient à décrire la neutralité du net 9. Ces solutions ont des vertus considérables à l’échelle collective, mais elles diminuent singulièrement les pouvoirs que les bâtisseurs de réseaux de communication pouvaient espérer tirer de leur propriété privée. Elles ont donc été combattues par certains opérateurs.

2 – La montée des discriminations

188. La bande passante comme ressource rare – Si les propriétaires d’infrastructures de télécommunications ont l’entière maîtrise physique de leurs matériels, l’âme de leurs réseaux est constituée par les protocoles. Or, nous avons vu qu’en application des principes du end-to-end, ceux qu’on appelle TCP/IP transforment leurs routeurs sophistiqués et leurs coûteuses fibres optiques en dumb pipes. Cela ne les empêche pas de percevoir un retour sur investissements : en tant que FAI, ils sont rémunérés par leurs propres abonnés, mais aussi par leurs concurrents avec lesquels ils passent des accords régissant l’interconnexion des réseaux 10. Et après tout, les services postaux transportent aveuglément les colis qui leur sont confiés. Pourquoi n’en irait-il pas de même avec le transport d’information ? Le problème est que le réseau serait menacé de congestion : si le volume d’information qu’il est possible d’y faire transiter pour une durée donnée a explosé depuis les années 80, les besoins ont augmenté plus vite encore. Il est tentant, dès lors, de définir des usages d’Internet qui peuvent attendre — les emails, par exemple — tandis que d’autres seraient traités en priorité – ainsi des flux vidéo. Cela revient à abandonner le principe des « meilleurs efforts » dans l’acheminement, en instaurant une hiérarchie entre contenus : certains paquets, pourtant premiers arrivés, ne seraient pas les premiers servis. Des solutions techniques sont alors développées pour rendre possible cette discrimination, regroupées sous l’appellation rassurante de « Quality of service » (QoS) 11. En pratique, divers indices seraient recherchés par les routeurs, qui leur permettraient de décider à quelle vitesse ils traitent les paquets qui leur sont adressés 12. D’abord, les logiciels communiquent en utilisant différents canaux numérotés, appelés ports, qui n’ont pas tous la même fonction : par exemple, un serveur de courrier sortant utilise généralement le port 25. L’analyse de ce paramètre permet donc parfois de déduire le type de contenu véhiculé. Il est ensuite possible de recourir aux plages d’adresses IP. Ainsi, les serveurs de YouTube ou de Dailymotion utilisent un ensemble de numéros contigus, qui constituent l’adresse à laquelle ils peuvent être contactés sur le réseau. Un routeur pourrait recevoir l’instruction d’accélérer ou de ralentir les paquets dont il est demandé la « livraison » à ces adresses. Il est encore envisageable d’utiliser certains champs, à l’heure actuelle rarement exploités, au sein de l’Internet Protocol, comme « traffic class », afin d’étiqueter volontairement des paquets d’information, qui seront reconnus par le réseau de communication et pourront être favorisés par lui. Enfin, lorsqu’aucune des méthodes simples citées précédemment n’est efficace, il reste possible de procéder à une analyse approfondie des paquets : le routeur ne se contentera pas de lire l’en-tête — qu’on peut assimiler à l’adresse sur une enveloppe — mais inspectera le contenu, à la lumière d’analyses statistiques antérieures, pour comprendre quel type d’informations il est en train de véhiculer 13.

189. Une grande variété d’atteintes – Ainsi les « tuyaux idiots » peuvent-ils se muer en canaux intelligents. Ces instruments techniques ont rendu possibles diverses atteintes à la neutralité du net, qui n’ont pas toutes la même intensité et ne poursuivent pas toutes la même finalité.

En 2007, le câblo-opérateur américain Comcast a bloqué la possibilité pour ses abonnés d’échanger des fichiers sur certains réseaux de pair-à-pair. La règle ainsi adoptée n’avait pas été dévoilée publiquement. Elle fut révélée par une série de tests réalisés à l’échelle nationale par l’agence The Associated Press 14. Ces mesures auraient ensuite été présentées comme permettant de lutter contre la congestion du réseau – sans que l’affirmation soit démontrée 15.

Plus récemment, le géant Verizon a été accusé de bloquer l’utilisation de l’application de paiement Google Wallet par les utilisateurs de son réseau. Le professeur de droit américain Barbara van Schewick avait déclaré qu’il s’agissait d’une violation de la neutralité du net, visant à défavoriser un concurrent :

Verizon’s behavior looks like an attempt to stall a competing mobile payment application until Verizon’s own application is launched,” van Schewick said in an email. “Verizon’s behavior … threatens competition and innovation in the emerging market for mobile payments. If Sprint, the nation’s third largest wireless carrier, remains the only carrier that supports Google Wallet, Google Wallet will be dead upon arrival 16.

Une offre dite “zero rating” : l’utilisation de certains services n’est pas décomptée dans le forfait données. Publicité algérienne.

En France, des blocages ont également eu lieu : les opérateurs mobiles ont par exemple empêché, par le passé, l’usage d’applications de téléphonie par Internet (dites « de voix sur IP » ou « VoIP »), provoquant les foudres de la Commission européenne 17. Inversement, certains usages du réseau ont été favorisés : des forfaits étaient vendus sans accès à Internet, avec une exception en faveur des seuls Facebook et Twitter – ce qui peut s’analyser en un blocage du reste du réseau 18.

Les atteintes à la neutralité du net ne se matérialisent pas nécessairement par des blocages purs et simples de services : il peut s’agir de ralentir certains flux au profit d’autres. Free avait été soupçonné par l’Autorité de Régulation des Communications Électroniques et des Postes (ARCEP) de ralentir volontairement la liaison de ses abonnés avec le site de vidéos YouTube, suite à des désaccords entre cet opérateur et Google sur la répartition des frais d’acheminement des informations. L’enquête s’est toutefois révélée infructueuse 19. En revanche, Bouygues Telecom propose toujours à ses clients mobiles professionnels un service dit « internet prioritaire » : « en cas d’affluence sur le réseau 3G/4G, le débit reste plus rapide que celui des utilisateurs n’ayant pas le service Internet prioritaire sauf si le débit est réduit en raison d’échange de données très élevé » 20. Le réseau de communications ne se contente donc plus de faire ses « meilleurs efforts » en suivant le principe « premier arrivé, premier servi », mais donne la priorité aux paquets issus d’une clientèle plus lucrative ou jugée plus importante.

190. La diversité des réglementations concevables – Dans un article visionnaire datant de 2003, le juriste américain Tim Wu mettait en garde :

Communications regulators over the next decade will spend increasing time on conflicts between the private interests of broadband providers and the public’s interest in a competitive innovation environment centered on the Internet 21.

Dans tous les exemples cités ci-dessus, ce ne sont pas les mêmes valeurs qui sont heurtées, ce ne sont pas les mêmes dangers qui se profilent. Il n’est donc pas surprenant que Madame Barbara van Schewick décèle, au sein des propositions de réglementation se proposant de « protéger la neutralité du net », des règles très différentes dans leur ambition comme dans leur contenu 22. Toutes ont en commun, dit-elle, d’interdire les blocages purs et simples de services 23. Nombre d’entre elles envisagent en revanche qu’une priorité puisse être consentie à certains flux d’informations : la question est alors celle des critères retenus. Certaines réglementations peuvent viser exclusivement à sanctionner les atteintes à la concurrence : au cas par cas et a posteriori seraient punis les propriétaires de réseau ayant ralenti les flux en provenance de services concurrents des leurs 24. D’autres préfèrent poser des critères a priori, mais très permissifs : une atteinte à la neutralité du net serait permise chaque fois qu’elle fait l’objet d’une révélation explicite par l’opérateur : un tel système fait implicitement le pari que la concurrence sur le secteur est forte, que les consommateurs sont lucides — deux choses dont doute Madame van Shewick -, et laisse le marché décider 25. D’autres encore posent des critères a priori, mais plus sévères : il serait interdit de traiter différemment des usages similaires du net, relevant d’une même catégorie – discrimination among like applications 26. Ainsi deux sites de vidéo devraient-ils être traités de manière identique, de même que deux sites d’information, mais les flux vidéo pourraient par exemple bénéficier d’une priorité générale sur les flux correspondant à de l’information écrite. Le but serait d’assurer un grand confort dans la consommation des vidéos, contenus gourmands en bande passante, en pénalisant légèrement un autre média qui s’accommode mieux d’une réactivité plus faible. L’auteur considère toutefois cette approche comme dangereuse, en ce qu’elle permettrait des distorsions volontaires ou involontaires de concurrence, risquerait de brider l’innovation en se fondant sur l’état actuel de la technique, et reposerait sur une notion trop molle « d’usages similaires ».

Pour autant, Madame van Schewick n’est pas hostile aux discriminations, à condition qu’elles soient totalement neutres par rapport au type d’usage qui est fait de la bande passante – application-agnostic 27. Cela laisse subsister par exemple la possibilité de proposer des offres à débits différents et prix différents, des offres avec ralentissement au-delà d’un certain quota de données utilisé, voire une priorité générale des usagers payant plus cher.

Application-agnostic network management coupled with user-controlled prioritization gives network providers the tools they need to maintain the quality of the Internet experience for all users, even during times of congestion, while preserving the application-blindness of the network and the principle of user choice to the extent possible. Network providers would be able to prevent aggressive users from overwhelming the network and enforce fairness among users by allocating bandwidth among users in application-agnostic ways. But how users use the bandwidth available to them, and whether they would like to give some of their applications priority over others, would be choices left to the users 28.

Ce dispositif serait complété par une clause de sauvegarde, permettant une discrimination entre les contenus dans les situations exceptionnelles de danger pour le réseau 29.

Techniquement, cela revient certes à admettre que le réseau ne fait pas simplement ses « meilleurs efforts » pour acheminer systématiquement l’information d’un abonné, mais qu’il peut tenir compte du contexte – présence en ligne d’abonnés à une formule prioritaire, ou consommation par l’abonné de son quota mensuel d’Internet rapide. Mais la proposition semble bien équilibrée, et correspond même, peut-être, à l’idée intuitive que certains se font de la « neutralité » du net, puisqu’ici les ralentissements imposés aux utilisateurs sont totalement décorrélés de la nature des usages.

Parmi l’ensemble de ces possibilités, il est temps de révéler les choix qui ont été ceux de la France, de l’Europe, mais aussi des USA – dont les FAI possèdent une fraction considérable des infrastructures mondiales de télécommunication.

B – La réaction publique : imposer la neutralité du réseau

191. Plan – Jusqu’à une date très récente, l’histoire était celle d’une montée progressive de la neutralité du net dans les législations et décisions administratives. C’est encore ainsi que la situation européenne peut être présentée (1). Aux USA, en revanche, si le principe a été consacré en 2015, l’élection du président Donald Trump a marqué le début d’un net revirement sur cette question (2) 30.

1 – La faveur européenne

192. La première position de l’Union : une simple exigence de transparence – En 2009, l’Union européenne décide de mettre à jour un ensemble de textes relatifs aux communications électroniques, dont une directive de 2002 concernant le service universel et les droits des utilisateurs au regard des réseaux et services de communications électroniques 31. La question de la neutralité du net surgit au cours des débats. La position adoptée par le législateur européen est alors teintée de prudence, si ce n’est de défiance. Il est notamment affirmé :

La présente directive ne prescrit ni n’interdit les conditions imposées par les fournisseurs de services et communications électroniques accessibles au public pour limiter l’accès des utilisateurs finals aux services et applications et/ou leur utilisation, lorsqu’elles sont autorisées par le droit national et conformes au droit communautaire, mais prévoit une obligation de fournir des informations concernant ces conditions 32.

Rappelons que selon Madame van Schewick, s’en remettre à une transparence de l’offre n’est raisonnable qu’à deux conditions. La première est que la concurrence soit suffisamment forte pour que des alternatives disposent d’alternatives pour le cas où la proposition ainsi formulée ne les satisferait pas. De ce point de vue, la situation française est peut-être meilleure que celle qui prévaut sur le marché américain. La seconde condition, c’est que les clients des FAI soient suffisamment compétents et avisés pour repérer l’existence de ces informations, les comprendre, et arbitrer en conséquence. Au moins s’agissant des simples consommateurs, et au regard de l’extrême technicité du sujet, il est permis d’en douter. Toutefois, si la directive n’imposait pas aux États d’aller plus loin, elle ne leur interdisait pas de le faire.

193. Les réactions françaises – La modification, par l’Europe, de ses grands textes relatifs aux communications électroniques, a rendu nécessaires plusieurs actes de transposition. En 2011, ceux-ci ont été l’occasion d’inscrire dans le Code des postes et des communications électroniques des dispositions allant dans le sens d’une neutralité des réseaux, par exemple :

II. – Dans le cadre de leurs attributions respectives, le ministre chargé des communications électroniques et l’Autorité de régulation des communications électroniques et des postes prennent, dans des conditions objectives et transparentes, des mesures raisonnables et proportionnées aux objectifs poursuivis et veillent :[…]

4° bis A l’absence de discrimination, dans des circonstances analogues, dans les relations entre opérateurs et fournisseurs de services de communications au public en ligne pour l’acheminement du trafic et l’accès à ces services […]

15° A favoriser la capacité des utilisateurs finals à accéder à l’information et à en diffuser ainsi qu’à accéder aux applications et services de leur choix […] 33.

Les pouvoirs de l’ARCEP ont ainsi été renforcés. Mais cela revenait à aborder la question de manière indirecte, quand il aurait été préférable de fixer nettement et sans détour les grands principes gouvernant la matière. Telle était la position d’un rapport parlementaire remis la même année par Mesdames Erhel et de La Raudière, et consacré à « la neutralité de l’Internet et des réseaux ». Il était notamment proposé de définir ainsi le principe de neutralité :

le principe de neutralité devrait être défini dans la loi comme :

(i) la capacité pour les utilisateurs d’Internet

(ii) d’envoyer et de recevoir le contenu de leur choix, d’utiliser les services ou de faire fonctionner les applications de leur choix, de connecter le matériel et d’utiliser les programmes de leur choix, dès lors qu’ils ne nuisent pas au réseau,

(iii) avec une qualité de service transparente, suffisante et non discriminatoire,

(iv) et sous réserve des obligations prononcées à l’issue d’une procédure judiciaire et des mesures nécessitées par des raisons de sécurité et par des situations de congestion non prévisibles 34.

Il s’agissait donc d’une prise de position forte en faveur d’une neutralité qui, pour reprendre la classification de Madame van Schewick, aurait été de type application-agnostic. La proposition n’a pas connu de traduction législative immédiate, mais elle a été reprise par plusieurs études ultérieures. Un rapport rendu par l’ARCEP en 2012 éclairait le Parlement et le Gouvernement sur les enjeux, tout en les laissant prudemment décider des suites à donner 35. En 2013, le Conseil National du numérique, au contraire, appelait vivement à la consécration législative « la plus large » possible 36. Quant au Conseil d’État, en 2014, il faisait d’une consécration de la neutralité des réseaux la deuxième proposition de son rapport consacré au numérique et aux droits fondamentaux 37.

Dans l’intervalle, la position des institutions européennes sur cette question avait largement évolué.

194. La consécration européenne – À l’issue de la révision des textes européens relatifs à la communication en 2009, la Commission européenne avait ouvert un cycle de réflexion sur la neutralité des réseaux 38. En 2011, le Parlement avait adopté une résolution qui reconnaissait certes « […] la nécessité d’une gestion raisonnable du trafic afin de garantir que la connectivité des utilisateurs finaux n’est pas interrompue par une congestion du réseau […] », mais qui

[…] pri[ait] instamment les autorités nationales compétentes de s’assurer que les interventions sur la gestion du trafic n’impliquent pas de discrimination anticoncurrentielle; estime que la spécialisation (ou la gestion) des services ne devrait pas porter atteinte au maintien d’un accès à Internet solide, sans garantie de performances, favorisant ainsi l’innovation et la liberté d’expression, garantissant la concurrence et évitant une nouvelle fracture numérique […] 39.

C’est dans ce contexte qu’a été élaboré, puis adopté en 2015, un règlement sur « l’internet ouvert » 40. Celui-ci proclame solennellement :

1. Les utilisateurs finals ont le droit d’accéder aux informations et aux contenus et de les diffuser, d’utiliser et de fournir des applications et des services et d’utiliser les équipements terminaux de leur choix, quel que soit le lieu où se trouve l’utilisateur final ou le fournisseur, et quels que soient le lieu, l’origine ou la destination de l’information, du contenu, de l’application ou du service, par l’intermédiaire de leur service d’accès à l’internet […].

2. Les accords entre les fournisseurs de services d’accès à l’internet et les utilisateurs finals sur les conditions commerciales et techniques et les caractéristiques des services d’accès à l’internet, telles que les prix, les volumes de données ou le débit, et toutes pratiques commerciales mises en œuvre par les fournisseurs de services d’accès à l’internet, ne limitent pas l’exercice par les utilisateurs finals des droits énoncés au paragraphe 1.

3. Dans le cadre de la fourniture de services d’accès à l’internet, les fournisseurs de services d’accès à l’internet traitent tout le trafic de façon égale et sans discrimination, restriction ou interférence, quels que soient l’expéditeur et le destinataire, les contenus consultés ou diffusés, les applications ou les services utilisés ou fournis ou les équipements terminaux utilisés 41.

Le texte prévoit ensuite quelles mesures peuvent être prises lorsque des tensions apparaissent sur le réseau. Là réside sans doute le cœur du dispositif : admettre de trop larges dérogations aux principes qui viennent d’être énoncés les videraient de toute substance. C’est précisément dans les situations où la bande passante se fait rare que surgissent les tentations que le principe de neutralité du réseau a vocation à repousser. Le règlement est rassurant sur ce point. Il envisage d’abord les « mesures raisonnables de gestion du trafic » au quotidien : elles ne doivent pas discriminer selon les contenus 42. Il prévoit ensuite des mesures de gestion pour les crises les plus graves, qui peuvent entraîner une discrimination selon les contenus, lorsque l’intégrité même du réseau est menacée ou lorsqu’une congestion exceptionnelle se profile 43. Cette combinaison d’un principe strict de non-discrimination et d’exceptions très étroitement encadrées correspond largement au modèle qui était préconisé par Madame van Schewick 44.

195. L’accompagnement en droit français – S’agissant d’un règlement européen, aucune mesure de transposition n’était à proprement parler nécessaire en droit français. Mais la loi République numérique a modifié une nouvelle fois le Code des postes et des communications électroniques, afin d’enrichir les pouvoirs de l’ARCEP, afin que l’autorité soit en mesure de contrôler au mieux les pratiques des acteurs de terrain 45. De plus, l’Organe des régulateurs européens des communications électroniques (ORECE) a publié un ensemble de lignes directrices pour guider les régulateurs nationaux dans l’application du règlement 46.

L’ARCEP a dressé un premier bilan de ses travaux en la matière dans un rapport publié en mai 2017 47. L’autorité y rappelle notamment qu’un certain nombre de blocages et d’interdictions avaient cours dans les offres des opérateurs français : interdiction du peer-to-peer, des newsgroups, du streaming vidéo, de l’utilisation d’un téléphone mobile comme relais pour accéder à Internet depuis un autre appareil. Ces pratiques seraient en voie de disparition 48. En revanche, la pratique dite du zero-rating n’a pas disparu : il s’agit de proposer un forfait limité à une certaine quantité de données, mais de « compter comme zéro » la consommation dirigée vers un ou plusieurs services préalablement déterminés, comme Facebook. L’ARCEP rappelle, « sous réserve d’une analyse au cas par cas », qu’il s’agit probablement d’une pratique illégale 49. À l’avenir, l’Autorité poursuivra ses campagnes de mesure de la qualité du service sur l’ensemble du territoire, mais annonce son intention de recourir au crowdsourcing — aux connaissances du public — pour compléter ses moyens. Un outil sera mis à la disposition de tous « pour mesurer la qualité de service et détecter les pratiques de gestion de trafic » 50. Il sera complété par un espace de signalement en ligne, permettant aux utilisateurs d’attirer l’attention du régulateur sur une pratique qui leur semble contraire au règlement européen 51. L’ARCEP entend également renforcer sa coopération avec d’autres services de l’État, comme la DGCCRF, mais aussi avec les autres régulateurs nationaux 52.

L’Europe a donc pris nettement position en faveur de la neutralité du net, entendue comme une neutralité des réseaux de transport de l’information. Elle en retient une conception à la fois exigeante et techniquement réaliste. Voyons à présent quelle est la position nord-américaine sur ces questions.

2 – Le revirement américain

196. La FCC à la recherche d’un fondement pour agir – Une grande partie de l’épine dorsale d’Internet est la propriété des FAI des États-Unis d’Amérique. Les décisions prises outre-Atlantique sont donc susceptibles d’avoir un impact sur le trafic mondial 53. S’il n’est pas utile, dans le cadre de cette étude, d’aller trop loin dans les spécificités du droit américain, il est donc nécessaire d’en peindre l’évolution à grands traits.

Comme l’écrit M. Jean Cattan, « L’histoire du débat sur la protection de la neutralité de l’internet aux États-Unis se résume en somme à la question de savoir sur laquelle [de] trois bases juridiques la [Federal Communications Commission] est fondée à agir » 54.

La première base juridique sur laquelle l’Autorité a tenté d’agir était le premier titre du Communications Act de 1934, relatif à ses pouvoirs généraux 55. Dès 2005, elle rendit sur ce fondement un policy statement adoptant les principes suivants :

To encourage broadband deployment and preserve and promote the open and interconnected nature of the public Internet, consumers are entitled to access the lawful Internet content of their choice.

To encourage broadband deployment and preserve and promote the open and interconnected nature of the public Internet, consumers are entitled to run applications and use services of their choice, subject to the needs of law enforcement.

To encourage broadband deployment and preserve and promote the open and interconnected nature of the public Internet, consumers are entitled to connect their choice of legal devices that do not harm the network

To encourage broadband deployment and preserve and promote the open and interconnected nature of the public Internet, consumers are entitled to competition among network providers, application and service providers, and content providers 56.

La FCC avait ainsi fait très tôt la démonstration de sa détermination à promouvoir la neutralité des réseaux. Toutefois, lorsqu’elle tenta de mettre en œuvre ces principes dans une affaire Comcast — dont le contexte a déjà été décrit 57 -, la Cour d’appel du district de Colombia refusa à l’Autorité le pouvoir de prendre de telles mesures sur le fondement de la section 1 du Communications Act, dans une décision rendue en 2010 58.

Peu de temps après, la FCC essaya alors de recourir à une deuxième base juridique, issue du Telecommunications Act de 1996 59. Le texte visé avait pour objectif de fournir un accès au réseau à l’ensemble de la population américaine. Il fallait donc solliciter quelque peu le texte pour y découvrir des principes relatifs à la neutralité du réseau. Cela n’empêcha pas la FCC d’adopter un Open internet order, qui fut rapidement contesté par l’opérateur Verizon 60. À nouveau, la Cour d’appel du district de Colombia fit s’écrouler l’édifice, par un arrêt de janvier 2014 61.

197. La consécration de 2015 – Quelques mois plus tard, le président Obama encouragea à prendre de nouvelles mesures, en suggérant d’employer une troisième base légale, le titre 2 du Communications Act, consacré aux common carriers 62. Le 12 mars 2015, la FCC adopta un nouvel Open Internet rules 63. Celui-ci comportait trois « bright line rules » :

No Blocking: broadband providers may not block access to legal content, applications, services, or non-harmful devices.

No Throttling: broadband providers may not impair or degrade lawful Internet traffic on the basis of content, applications, services, or non-harmful devices.

No Paid Prioritization: broadband providers may not favor some lawful Internet traffic over other lawful traffic in exchange for consideration of any kind—in other words, no “fast lanes.” This rule also bans ISPs from prioritizing content and services of their affiliates 64.

Une nouvelle fois saisie, la Cour d’appel du district de Colombia rendit cette fois-ci une décision favorable à la FCC, durant l’année 2016 65. M. Barack Obama salua la décision en termes chaleureux, et rendit hommage aux 4 millions d’Américains ayant assailli la FCC de messages en faveur de la neutralité du net, à l’occasion de la consultation publique qu’elle avait lancée 66.

L’arrivée à la Maison-Blanche de M. Donald Trump fit une nouvelle fois la démonstration de l’influence du Président sur la FCC, mais cette fois-ci en sens inverse.

198. Le coup d’arrêt de 2017 – En mars 2016, le commissaire de la FCC Ajit Pai avait diffusé une déclaration publique très hostile à l’Open internet rules. Il y accusait la présidence Obama d’avoir forcé la main de son institution, et critiquait vivement les règles adoptées sur le fond 67. C’est lui qui fut nommé à la fête de la Commission après l’élection du Président Trump, dans le but avoué de revenir sur la neutralité du réseau 68. En mai 2017, un notice of proposed rulemaking baptisé Restoring internet freedom fut publié et ouvert aux commentaires du public 69.

POP CULTURE - Jon Oliver et la neutralité du net, première partie

Extrait de l'émission Last Week Tonight du 1er juin 2014

POP CULTURE - Jon Oliver et la neutralité du net, deuxième partie

Extrait de l'émission Last Week Tonight du 7 mai 2017

L’introduction du document était limpide :

Americans cherish a free and open Internet. And for almost twenty years, the Internet flourished under a light-touch regulatory approach […].But two years ago, the FCC changed course. It decided to apply utility-style regulation to the Internet. This decision represented a massive and unprecedented shift in favor of government control of the Internet.The Commission’s Title II Order has put at risk online investment and innovation, threatening the very open Internet it purported to preserve. Investment in broadband networks declined. Internet service providers have pulled back on plans to deploy new and upgraded infrastructure and services to consumers. This is particularly true of the smallest Internet service providers that serve consumers in rural, low-income, and other underserved communities. Many good-paying jobs were lost as the result of these pull backs […].

L’argument économique fut au centre des débats : en restreignant le pouvoir des propriétaires de réseaux de jouir de leur chose comme ils l’entendent et de fixer librement leur modèle économique, on réduirait les incitations à investir. En somme, en voulant imposer par la force de la loi un réseau souple et ouvert à l’innovation, on transformerait les infrastructures en champ de ruines déserté par les capitaux privés. À une FCC idéaliste succéderait une Commission lucide et pragmatique. Mais la bataille de chiffres fut rude : l’Internet association — qui regroupe l’essentiel des géants du numérique, mais certes pas les petits FAI auxquels la FCC fait référence — produisit un ensemble d’études montrant que les investissements dans les grands équipements de télécommunication ont continué à croître régulièrement depuis que se profile une application des principes de neutralité du réseau 70. Cela n’empêcha pas l’adoption du Restoring internet freedom order le 14 décembre 2017 71.

Par ailleurs, les mêmes pratiques de zero rating contre lesquelles l’ARCEP s’insurge actuellement en France faisaient l’objet d’enquêtes de la part de la FCC. La nouvelle direction de la Commission a décidé d’y mettre fin 72. Avant même les résultats de la consultation sur Restoring internet freedom, le cap est donc clairement fixé.

Après les infrastructures de télécommunication, envisageons celles qui sont consacrées à la coordination du DNS mondial (II).