Le « hard » du « soft » : la matérialité du réseau des réseaux

Par Dominique BOULLIER
Comment citer cet article
Dominique BOULLIER, "Le « hard » du « soft » : la matérialité du réseau des réseaux", CERISCOPE Puissance, 2013, [en ligne], consulté le 22/11/2017, URL : http://ceriscope.sciences-po.fr/puissance/content/part2/le-hard-du-soft-la-materialite-du-reseau-des-reseaux


Internet, un réseau incontrôlable ? Du modèle distribué au réseau invariant d’échelle, du virtuel au hard des câbles et des serveurs

L’utopie majeure née avec Internet serait-elle déjà morte ? Le réseau distribué conçu comme incontrôlable aurait-il finalement succombé à diverses pressions délibérées et autres effets systémiques pour devenir aussi contrôlable que n’importe quel autre tuyau ? Ce qui se présentait comme un nouvel espace de jeux de pouvoirs marqués par le soft ne serait-il pas en passe de devenir tout simplement dépendant des propriétés de ses infrastructures, si hard et si aisément surveillées, bridées voire sabotées ?

L’histoire d’Internet reste quelque peu paradoxale quand on songe que Paul Baran, chercheur à la Rand Corporation, imagine en 1964 une structure de réseau distribué non pas dans une vision libérale visant à s’émanciper de tout contrôle mais par anticipation de l’exigence de robustesse d’un réseau sujet à d’éventuelles attaques de l’ennemi de la guerre froide et qui a déjà approché des seuils d’alerte élevés dans la période précédente. Tout réseau présentant une dépendance à un centre risque de se retrouver impuissant dès lors qu’une première frappe viserait ce centre de commandement et empêcherait la riposte qui est à la base de la doctrine de la dissuasion. Préserver la circulation des informations et des ordres militaires devient dès lors un enjeu majeur qui nécessite une forme de révolution conceptuelle puisque, à cette époque et aujourd’hui encore, les réseaux de télécommunications fonctionnent à base de centraux (commutateurs) qui sont autant de points de passage obligés et que les réseaux informatiques rattachaient des terminaux sans ressources locales à des ordinateurs dits « mainframes », dont ils se partageaient le temps de calcul (le temps partagé étant inventé à la même époque). Projeter un réseau distribué (et non décentralisé), c’est donc annuler les contraintes des architectures de réseau de l’époque, leur contrainte hard, pour anticiper une circulation d’entités le long de réseaux hétérogènes sans parcours prédéfinis mais seulement calculés localement et au fur et à mesure par optimisation des routes. Ce n’est que dix ans plus tard, à partir de 1973, que sera mise en œuvre cette vision avec l’invention du protocole de code de transfert (Transfer Code Protocol, TCP), augmenté ensuite du protocole Internet (Internet Protocol, IP), dont le nom dit bien la diversité des types de réseaux connectés et l’indifférence à leurs propriétés hard (filaires, radio, satellites, sous-marins). Cette distribution allait à l’encontre des projets des opérateurs de télécommunications qui prétendaient garder le contrôle de ces réseaux informatiques via leurs centraux avec le protocole X25 (qui vient seulement de s’éteindre en 2012 en France). Malgré leur bataille farouche et coordonnée au niveau international avec l’Union internationale des télécommunications (UIT), ces « telcos » devront petit à petit admettre leur défaite face à la plasticité d’une architecture comme celle d’Internet, fondée non sur la commutation par circuits des télécoms mais sur des paquets (issus des travaux entre autres de Louis Pouzin à l’Institut de recherche en informatique et en automatique (Iria) – ancêtre de l’Institut national de recherche en informatique et en automatique (Inria) – sur les datagrammes, aujourd’hui enfin officiellement reconnu comme l’un des fondateurs d’Internet). Dès lors, l’indépendance vis-à-vis du hard semblait acquise et permettait de tout connecter et d’assurer une fluidité et une plasticité extrême.

Ce fut d’ailleurs le début de la « grande peur » des autorités de contrôle de toutes sortes, particulièrement avivée en « grande peur de l’an 2000 » marquée notamment par l’effondrement de l’industrie de la musique face à une architecture peer-to-peer (né en 1999, Napster est contraint de fermer en 2002) qui profitait à plein du caractère distribué d’Internet. La grande peur du bug tant annoncé donnera seulement l’occasion de vérifier que le codage des années en deux chiffres constituait un choix hard en quelque sorte, qui pouvait faire trembler tous les systèmes à base d’électronique tant ces horloges étaient répandues partout et avec elles, le numérique. Désormais, non seulement les paquets peuvent emprunter tous les chemins offerts par les routeurs, mais chaque détenteur d’une machine peut se prétendre serveur et distribuer des contenus, dont le système peer-to-peer recompose les paquets après coup. A partir de 2000 s’engage donc une offensive en règle contre cette libre circulation qui aboutit à une privatisation massive de pans entiers d’Internet qui repose sur des technologies de surveillance et de recentralisation diverses. Première altération commerciale du caractère distribué sous le coup de la riposte généralisée des ayants droits détenteurs de la rente. Ce sont alors des protocoles de surveillance bien matériels qui sont mis en place et qui débouchent en France sur la surveillance par la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi) ou encore sur les tentatives de Deep Packet Inspection, technologie permettant d’aller vérifier le contenu des paquets transmis, pour allouer à volonté la bande passante du réseau par exemple, selon les contrats entre ayants droits.

Au même moment, la « grande peur de l’an 2000 » se trouve amplifiée par le 11 septembre 2001 et la mise en évidence du caractère distribué d’une menace terroriste non réductible à un territoire donné. Dès lors, la machine sécuritaire s’emballe dans tous les pays et l’architecture fluide d’Internet devient une menace pour les Etats démocratiques, sans parler des Etats autoritaires qui avaient déjà senti auparavant la nécessité de tenir ce potentiel de communication sous haute surveillance mais en verront l’urgence avec l’émergence du web 2.0 et de ses modèles contributifs. Les attentats récents (Boston, 15 avril 2013 ; Londres, 22 mai 2013) commis par des individus isolés mais formés et reliés par Internet, nous dit-on, ne font que confirmer cet état d’esprit de soupçon vis-à-vis de l’ouverture du réseau des réseaux. Deuxième altération donc du caractère distribué du réseau, une altération sécuritaire, qui donne lieu à des batailles légales régulières sur les droits que s’accordent les agences de sécurité au détriment des libertés fondamentales des citoyens, et cela jusque dans le design des clés de cryptage ou des systèmes d’exploitation devant garder ou non une porte d’accès (backdoor) pour des raisons de sécurité nationale. Edward Snowden a révélé en juin 2013 l’entreprise de surveillance démesurée mise en place par la National Security Agency américaine sous le nom de PRISM, qui démontre si besoin était l’ampleur de la contagion sécuritaire dans l’esprit des dirigeants et des services spécialisés. Etudier l’infrastructure des réseaux et leur matérialité, c’est désormais prendre en compte tous les points d’accès matériels aux flux d’information captés par ces agences et rapatriés vers leurs centres de décision (Fort Meade près de Washington) ou de calcul (par exemple Bluffdale, Utah, capable d’héberger 5 000 milliards de Gigaoctets selon Libération du 27 juin 2013, ou Domme en Dordogne).

Mais la « grande peur » se trouve renforcée indirectement par les effets même de la croissance de la connectivité du réseau Internet, ce que l'on peut appeler une altération topologique. Il est difficile d’y voir l’effet d’un plan délibéré mais il est certain que la concentration des activités des internautes autour de quelques grands nœuds, que sont par exemple Google et Facebook désormais, fait bénéficier ces entreprises d’effets de monopole qui mobilisent la majeure partie des ressources du réseau à leur profit. Mais ce phénomène, encouragé par le succès de ces offres, modifie en profondeur la structure du réseau. Internet est en effet un réseau invariant d’échelle (scale free network), ce qui signifie que la connectivité entre les nœuds ne se maintient pas à l’état identique lorsque le réseau croît en échelle, mais que certains nœuds attirent plus les nouveaux arrivants (« attachement préférentiel ») et créent de ce fait une connectivité plus grande avec ces nœuds déjà puissants. Ainsi, tout nouveau site web se trouvera plus rapidement connecté à Google qu’à tout autre nœud et, ce faisant, augmentera encore la centralité de Google dans tout le réseau. Dès lors, le réseau n’est plus aussi distribué qu’on le pensait à l’origine car de vrais centres se sont reconstitués par ce seul effet de réseau qui favorise la connexion aux nœuds déjà les plus attractifs. Le réseau s’en trouve fragilisé d’un point de vue stratégique puisqu’il suffirait de frapper les fermes de serveurs de Google pour le mettre sérieusement en difficulté. Ce fut d’ailleurs le cas à petite échelle le 31 janvier 2009 lors d’une panne de Google pendant quelques heures, qui montra que devant l’échec de leurs requêtes vers Google, une bonne partie des utilisateurs ne se tournait pas vers d’autres moteurs de recherche mais abandonnait carrément leur activité sur Internet, ce qui aboutit à une chute de 40 % du trafic d’Internet par le seul fait d’une panne très brève de connexion à Google.


Lire l'étude « A qui a profité le bug de Google ? » sur le site AT Internet Institute

Le réseau distribué est désormais dépendant des centres que sont les fermes de serveurs de Google ou de Facebook, certes disséminées dans le monde mais cependant bien matérielles et localisées. La fragilité d’une telle architecture est vivement ressentie mais dépend en fait de la capacité de compagnies privées supranationales comme Google à assumer leur rôle de gardien du réseau pour le bien commun et non pour leur seul bénéfice.
Ces trois éléments (commercial, sécuritaire et topologique) ont ainsi contribué à rendre visible la part prise par les infrastructures techniques, par leur maintenance et par leur contrôle. Non, tout ne circule pas en tous points sur Internet par la seule vertu des prouesses logicielles, déterritorialisées, partagées et incontrôlables. Plusieurs formes de la matérialité des réseaux sont restées incontournables et deviennent désormais explicitement l’enjeu de batailles féroces entre parties prenantes d’un ordre dont les frontières sont difficilement définissables.

Nous insisterons ici sur cinq aspects de ce hard power qui organise les réseaux :

1/ Les systèmes de transmission, leur diversité et leur matérialité, ce qui les rend contrôlables.

2/ Les points d’entrée dans les pays du point de vue des télécommunications : pour certains pays, seulement quelques points concentrent l’accès à toutes les communications et créent ainsi une fragilité aux attaques ou aux censures de tous types.

3/ Les serveurs, qu’ils soient routeurs des Internet Exchange Points ou regroupés dans les fermes de Google ou de Facebook ou qu’ils gèrent les noms de domaine pour la Société pour l’attribution des noms de domaine et des numéros sur Internet (Internet Corporation for Assigned Names and Numbers, ICANN, qui a succédé à l’Internet Assigned Numbers Authority, IANA, en 1998) : leur puissance et leur distribution indiquent bien des priorités et des centralités.

4/ Les grands calculateurs. La répartition mondiale de ces puissances de calcul éclaire d’un autre jour les capacités de chaque pays en matière de défense, de recherche et de supervision d’opérations majeures de contrôle.

5/ Les standards pour les réseaux mobiles.