Les grands réseaux d’infrastructures, Cendrillons de la résilience ?

chloe Voisin-Bormuth
La Fabrique de la Cité
22 min readMar 2, 2018

--

Henry Thiriet — Wikimedia Commons

Les grands réseaux d’infrastructures sont-ils les Cendrillons de la résilience pour reprendre l’expression de Stephen Graham et Simon Marvin qui voient en eux les laissés-pour-compte des études urbaines[1] ?

Cette interrogation peut sembler absurde tant on connaît le caractère critique et vital des différents réseaux (réseaux de transports, d’électricité, d’eau, de gaz, de TIC, d’hydrocarbures, d’assainissement…) dans le fonctionnement des villes et dans la gestion de crise. On sait par exemple l’importance de l’infrastructure routière pour pouvoir acheminer les secours ou évacuer les personnes en danger en cas de catastrophe naturelle ou celle des réseaux électriques, dont dépendent les autres réseaux et qui touchent directement la population. Les réseaux semblent donc devoir naturellement jouer un rôle central dans une stratégie de résilience dont le but est de rendre un système suffisamment robuste pour absorber la perturbation et le faire fonctionner même dans un état dégradé.

Et pourtant. Ce troisième volet de la série sur la résilience que La Fabrique de la Cité publie montre que l’équation entre réseaux et résilience n’est pas aussi évidente car elle bute sur trois principaux freins : une vulnérabilité réelle, qui a tendance à s’accroître ; un stock de réseaux déjà existant qu’il faut rendre résilient (et non pas un stock à construire en intégrant la résilience) ; enfin, le fait que ces réseaux ont été conçus et construits pour des flux toujours croissants et pour croître eux-mêmes, ce qui n’est plus nécessairement le cas aujourd’hui et crée les conditions pour une crise d’un genre nouveau, sourde, délétère et s’inscrivant dans le temps long.

Robustes mais vulnérables ?

Récemment, l’ouragan Irma, qui a dévasté les îles de Saint-Martin et de Saint-Barthélémy, a mis en lumière l’importance de rétablir au plus vite un réseau de télécommunications performant. L’association française HAND (Hackers Against Natural Disasters) fondée par Gaël Musquet, ancien président d’OpenStreetMap France, s’est ainsi chargée d’envoyer du matériel informatique pour rétablir la communication sur les îles et permettre aux habitants de faire remonter l’information du terrain et aux secours de mieux se coordonner.

La nécessité d’une continuité de service des grandes infrastructures fait ainsi l’objet d’un article dans le code de la sécurité intérieure. Le décret n° 2007–1400 du 28 septembre 2007 mentionne l’obligation pour les opérateurs de réseaux « [d’]assurer le maintien de la satisfaction des besoins prioritaires ». Cette obligation passe à la fois par des mesures préventives pour diminuer la vulnérabilité des réseaux à l’aléa, par des mesures permettant, lors de la crise, d’assurer un service minimum et de rétablir le plus rapidement possible un fonctionnement normal, et enfin par des mesures complémentaires tirant enseignement des défaillances constatées lors de la crise. Les réseaux font donc l’objet d’une sécurisation poussée et sont réputés pour être particulièrement robustes.

Et pourtant, plusieurs catastrophes naturelles ont mis en lumière leur vulnérabilité et l’impact de celle-ci sur les villes et les sociétés. C’est évident dans le cas des catastrophes naturelles les plus spectaculaires et dramatiques dont l’ampleur a mis à mal tous les systèmes de sécurité, comme le tsunami de 2004 dans l’océan indien où, aujourd’hui encore, l’ensemble des infrastructures ne sont pas encore complètement rétablies.

Les rues de Manhattan plongées dans le noir suite au passage de l’ouragan Sandy en 2012 — Dan Nguyen — CC BY-NC 2.0

Mais c’est aussi le cas de l’ouragan Sandy en octobre 2012. Il a privé d’électricité 8,5 millions d’habitants, dont ceux des emblématiques quartiers sud de Manhattan, et a coûté 65 milliards de dollars. Sandy a cruellement mis en lumière le fait que, depuis le 11 septembre 2001, les efforts de sécurisation des infrastructures se sont portés davantage sur les risques d’origine humaine que sur ceux d’origine climatique, et qu’aux États-Unis, la priorité est traditionnellement accordée à la gestion de la crise plutôt qu’aux investissements préventifs. En témoignent l’absence de réglementation fédérale fixant des normes constructives, comme le fait que la politique d’urbanisme, dont dépend fortement la vulnérabilité d’un territoire, relève de la seule compétence des États. Le territoire n’avait donc pas fait l’objet d’un plan de protection face au risque d’ouragans. Si la phase amont n’a pas contribué à la résilience du territoire, la phase aval en revanche, celle de la gestion de la crise à proprement parler, l’a fait du fait de son efficacité, unanimement saluée. Elle a ainsi apporté la preuve de l’efficacité d’une action reposant sur le retour d’expérience, en l’occurrence celui de la mauvaise prise en charge de l’après-Katrina. L’information, tant sur la disponibilité des ressources énergétiques que sur les actions en cours, fut mise à la disposition de tous tandis que plus de 60 000 spécialistes des réseaux électriques de tout l’État fédéral étaient déployés.

Dégâts causés par le passage de la tempête Klaus en 2009 dans le Sud-Ouest de la France, ici à Fonbeauzard — Paulier — CC BY-NC 3.0

Le cas de la tempête Klaus de janvier 2009, une des plus destructrices que la France métropolitaine a connues, est également particulièrement intéressant. Klaus a touché le sud-ouest de la France avec des pointes à plus de 170km/h. Les tempêtes Lothar et Martin de décembre 1999 étaient restées en mémoire pour leur caractère dévastateur et pour la défaillance du système d’alerte national qui avait aggravé les conséquences de l’aléa. Depuis lors, ce dernier avait été amélioré : c’est ainsi qu’en 2009, avec Klaus, une dizaine de départements ont été placés en vigilance rouge pour la première fois depuis la mise en place du dispositif en 2000 et que les services de secours ont pu être mobilisés en amont. Et pourtant, en dépit de ces dispositifs efficaces, 1,7 million d’usagers ont été privés d’électricité, pour certains d’entre eux durant six jours ; plusieurs bourgs ont été privés de réseau de téléphonie fixe et mobile tandis que le trafic ferroviaire a été interrompu sur 3 000 kilomètres de voies. En outre, la défaillance d’alimentation électrique a provoqué, d’une part, l’arrêt des pompes de relevage, privant d’eau potable plus de 140 000 personnes et deux hôpitaux pendant plusieurs jours, d’autre part, la fermeture de nombreuses pompes à essence, générant des difficultés d’approvisionnement en fuel des groupes électrogènes installés pour pallier la défaillance du réseau électrique. Enfin, la chute d’une ligne à haute tension provoqua un incendie de forêt qui réduisit en cendres près de 1 000 hectares. La tempête aura coûté au total 5 milliards d’euros, dont 3 pour la forêt et 1,7 pris en charge par les assureurs pour les particuliers. Ce que montre le cas de la tempête Klaus, ce sont trois choses : d’abord les conséquences en cascade provoquées par la défaillance d’un réseau. C’est ensuite qu’appliquées aux réseaux, les notions de vulnérabilité et de résilience portent à la fois sur l’infrastructure physique et sur le service rendu : une infrastructure défaillante signifie un service qui n’est plus rendu. La notion de seuil d’acceptabilité du dysfonctionnement joue alors un rôle essentiel. Ce qu’il montre enfin, c’est la difficulté à coordonner des logiques d’acteurs très différentes dans la gestion d’une crise touchant aux réseaux[2]. Dans le cas de la tempête Klaus, la logique des élus et du préfet s’est opposée à celle des opérateurs des réseaux, les premiers établissant des listes de priorité de rétablissement, les seconds visant un objectif quantitatif (rétablir le réseau chez le plus grand nombre de clients).

Pont Alexandre III embouteillé suite aux chutes de neige de décembre 2009 — Jean-François Gornet -CC BY-SA 2.0

Cette vulnérabilité des réseaux scandée par l’actualité récente est appelée à se renforcer :

- Avec le changement climatique d’abord, en raison de la multiplication des phénomènes climatiques extrêmes (ouragans, tempêtes, inondations, feux, sécheresse etc.) mais aussi d’évènements météorologiques qui, sans être graves, font peser une contrainte forte sur les réseaux et le maintien du service (chaleurs importantes, neiges collantes, pluies verglaçantes, etc.). Les chutes de neige de janvier 2018 en Île-de-France en ont apporté la preuve : elles ont paralysé le réseau de bus francilien, entraîné des embouteillages monstres et emprisonné toute une nuit des automobilistes dans leur voiture sur des routes bloquées. Elles ont démontré la vulnérabilité du réseau routier, pensé pour fonctionner dans des conditions « normales ». Plus encore, cette vulnérabilité a été perçue comme d’autant plus grande que l’acceptabilité de la population pour ce type de phénomène baisse. La dégradation du service habituellement apporté par l’infrastructure semble sans commune mesure avec l’intensité de ce qui n’est même pas vu comme un « choc »…

- Avec la dépendance croissante des sociétés et des villes à l’électricité et aux TIC ensuite, qui, d’une part, renforce le lien entre réseaux et fonctionnement du système urbain, même en mode très dégradé, et, d’autre part, fait baisser le seuil acceptable de dysfonctionnement de ces mêmes réseaux.

- Avec des budgets et des capacités d’investissement réduits pouvant faire préférer une logique réparatrice post-crise à une logique préventive, donc préférer des coûts probables d’un montant inconnu à des investissements certains au montant connu.

Durcissement et amélioration de la capacité de récupération, duo gagnant de la résilience des réseaux ?

Dans ce contexte, comment accroître la résilience des réseaux ? Deux grandes stratégies peuvent être distinguées qui répondent aux deux questions suivantes : comment rendre les réseaux plus robustes face à un risque donné ? Et comment, si les réseaux sont malgré tout affectés par la crise, permettre un retour à la normale le plus rapide possible ?

La première stratégie, celle du durcissement, consiste à prendre des mesures préventives. Cela peut paraître relativement évident : pour être moins touché par un aléa, il faut s’en protéger. Cette assertion simple soulève toutefois plusieurs questions :

  • Se protéger, soit, mais contre quel(s) risque(s) ? La connaissance des risques reste aujourd’hui encore bien incomplète et surtout inégale territorialement. L’enjeu est ici celui de la connaissance, depuis la cartographie et la modélisation des risques jusqu’au retour d’expérience des précédentes crises. Celui-ci doit pouvoir servir de base à une adaptation des réseaux pour les rendre plus résilients et non pas seulement à leur réparation ou maintien en état. Il est également nécessaire de mener une réflexion prospective sur les risques inconnus jusqu’à aujourd’hui et qui affecteront les villes dans le futur.
  • À quel coût ? Adapter un stock déjà existant — et en bon état de fonctionnement — pour le protéger d’un risque probable, voire encore inconnu, se heurte à un frein important, celui de l’investissement massif qu’il suppose, qui peut ne pas toujours paraître prioritaire. Et cela pour deux raisons. Tout d’abord, en dépit de l’accroissement des aléas (changement climatique, cyberattaque…), tant qu’on n’est pas directement touché, l’espoir perdure qu’on ne le sera pas, ou peu. En outre, les coûts de la défaillance d’un réseau sont très inégalement connus[3] ; et s’ils le sont, ils ne concernent le plus souvent que les coûts propres des opérateurs, et non pas les coûts induits chez les tiers (clients, habitants, autres opérateurs, collectivités…) ni les coûts environnementaux, qui ne sont pas directement pris en charge par les opérateurs. Autrement dit, le coût de l’inaction n’est pas connu si celui de l’action l’est. Cet enjeu de coût pose directement celui du dimensionnement de la prévention.
  • Quel type de maîtrise de risque viser ? À cet égard, trois catégories de risques doivent être distinguées : les risques dits « locaux » (forte fréquence, faible intensité, faibles conséquences) ; les risques dit « intermédiaires » (fréquence et intensité moyennes qui entraînent un dysfonctionnement exigeant la mise en œuvre d’une action coordonnée à l’échelle du réseau) ; enfin, les risques dits « majeurs » (très faible fréquence, mais impact très fort entraînant des réactions en cascade et engageant des ressources de l’opérateur comme de la collectivité). Faut-il viser une mise en résilience de tout le réseau ou seulement d’une partie ? Quels risques associés (opérationnels, financiers, sociaux, d’image…) accepte-t-on de prendre selon le niveau de maîtrise de risque choisi ? Existe-t-il un consensus sur les risques associés acceptables ?
  • Qui est acteur de la protection ? Plusieurs études de cas ont révélé les effets de réactions en chaîne entraînés par la défaillance d’un seul réseau sur les autres réseaux et sur les systèmes urbains. L’enjeu est double : celui de la connaissance des liens des différents réseaux entre eux et de leur emplacement ; ensuite, celui de la gestion coordonnée des actions menées par les opérateurs de réseaux entre eux d’une part, de celles des opérateurs avec celles des collectivités d’autre part, seule voie pour répondre au caractère systémique des crises.
Paris privé d’électricité le 4 novembre 2006 à la suite d’une défaillance sur le réseau électrique allemand -Gabriel Jorby CC BY-ND 2.0

Cette nécessité de la gestion collective peut être parfaitement démontrée par l’exemple de la panne électrique du 4 novembre 2006. Ce jour-là, une coupure sur le réseau allemand pour faire passer un bateau de croisière sur l’Ems, prévue de longue date, mais à propos de laquelle les gestionnaires du réseau se sont mal coordonnés, a provoqué une surchauffe du réseau allemand. En quelques secondes, un système de délestage s’est automatiquement mis en route pour éviter la généralisation de la surchauffe à l’ensemble du réseau et un black-out. Dix millions d’Européens ont été ainsi privés d’électricité pendant une heure, tandis que le Maroc subissait également un blackout, devant recourir à l’aide de ses voisins maghrébins, ce qui entraîna des opérations de délestage sur le réseau tunisien. Dans ce cas, ce sont l’interconnexion des réseaux et leur solidarité à l’échelle européenne qui ont permis leur résilience… en même temps que ce maillage européen a également contribué à propager les effets de la crise.

La seconde stratégie de renforcement de la résilience des réseaux vise, une fois la crise survenue, à les rendre à nouveau opérationnels aussi vite que possible.

Étant donné le caractère stratégique des grands réseaux, ils font l’objet de procédures bien rodées en cas de défaillance avec un ordre de priorité d’action défini : mise en sécurité des personnes, sécurisation des accès et de l’accessibilité (notamment pour faire passer les secours), rétablissement des réseaux pour permettre autant que possible une continuité de service, même en mode dégradé, mise en place de substituts pour pourvoir aux besoins les plus urgents (groupes électrogènes, bouteilles d’eau, couvertures etc.).

Que change le paradigme de la résilience ? La résilience déplace le focus de l’action de récupération en plaçant, en son cœur, le long terme. Cela entraîne deux conséquences majeures : (1) la gestion de l’urgence et le retour à l’équilibre ne deviennent plus qu’une étape de l’action, certes majeure, mais la finalité devient la transformation de l’ensemble du système pour le rendre moins vulnérable ; (2) la gestion de l’urgence s’en trouve elle-même transformée, devenant un processus préparé collectivement.

(1) La crise comme opportunité ? Ou quand la précipitation devient un risque

Ce que met en valeur la résilience, c’est la tension, sinon parfois le caractère antagonique, qui peut exister entre les deux temps d’une gestion de crise touchant aux grands réseaux : l’urgence d’un côté pour rétablir un service, le retour à l’équilibre de l’autre. Cette tension tient à l’ambiguïté de la notion de « retour à l’équilibre » : de quel équilibre parle-t-on ? Est-ce celui qui valait avant la crise ou un autre ? En d’autres termes, ce à quoi invite la résilience, c’est à interroger les liens entre le fonctionnement du système et le risque induit, et non plus seulement en quoi telle ou telle amélioration technique pourrait réduire l’exposition au risque ou le risque lui-même. Tout l’intérêt de cette approche est là : le focus passe des réseaux au territoire, du sectoriel au système. Car le véritable enjeu est le suivant : comment améliorer la résilience du territoire ?

La résilience des habitants vs. la résilience du territoire ? Les habitants de retour dans leurs maisons reconstruites suite aux inondations causées par Katrina.

Répondre à cet enjeu est complexe voire potentiellement source de conflits. Complexe, car il exige une remontée de l’information des différents opérateurs et une instance capable de faire le travail de consolidation de l’ensemble de ces retours d’expérience[4] pour, d’une part, saisir les interdépendances et les effets domino, d’autre part, adapter une action coordonnée. Conflictuel car les mesures prises pour répondre à l’urgence peuvent ne pas jouer en faveur d’une résilience de long terme, comme le montrent les exemples des ouragans Katrina et Sandy. Les travaux d’Isabelle Maret et de Thomas Cadoul sur la Nouvelle-Orléans[5] ont bien mis en lumière le processus fondamental d’attachement à la terre qui lie les habitants à leur ville, à leur quartier, à leur maison, même une fois détruite, et qui explique leur volonté de se réinstaller au même endroit après la catastrophe. L’attachement au lieu est plus fort que la mémoire du risque. Cette résilience des habitants, véritable moteur dans la renaissance de la ville, devient paradoxalement un facteur d’accroissement de la vulnérabilité sur le long terme quand le processus de réinstallation n’est pas accompagné par une politique adéquate de protection face au risque. Ainsi, après Katrina, 83% des habitations sur la façade atlantique, soumises elles aussi à un risque majeur d’inondation, n’ont pas été adaptées pour y faire face. Après Sandy, l’État du New Jersey a attribué 10 000 dollars à tous les habitants décidant de rester sur place et de reconstruire leur maison détruite par l’ouragan — sans que des mesures contraignantes relatives aux normes de construction et de protection face au risque ne soient prises… Les dégâts causés par les ouragans qui ont continué à frapper la côte ouest des États-Unis ont montré combien une stratégie de résilience du territoire ne peut faire l’impasse sur une action de long terme s’attaquant, non pas seulement aux effets de la crise, mais aussi à ses causes, en relation avec les habitants. C’est pourquoi les auteurs du rapport « Résilience des réseaux dans le champ du MEDDE à l’égard des risques » préconisent : « La gouvernance doit tenir compte du facteur temps, se servir de la volonté d’action qui naît de l’urgence et éviter la temporisation qui alimente la volonté d’oubli mais elle doit aussi tenter d’inscrire les actions de réparation dans un cadre de moyen ou long terme[6] ».

(2) Être (in)formé. Pour une gestion collective du risque

Mener une stratégie de résilience territoriale ne peut se faire qu’avec les habitants. L’exemple de la Nouvelle-Orléans montre cependant que cela ne peut se faire que sur la base d’une formation au risque et d’une compréhension des enjeux de long terme. Et cela pour deux raisons au moins : rendre acceptable une situation dégradée ; impliquer les habitants au bon niveau.

La gestion de l’urgence dépend du seuil d’acceptation du dysfonctionnement : plus la compréhension des enjeux et la communication des actions menées auprès de la population sont importantes, plus le seuil d’acceptation est grand, et moins la pression s‘exerce pour une action rapide aux conséquences potentiellement néfastes sur le long terme. On se rappelle de la fameuse « rumeur d’Abbeville » et ses gros titres, « À Abbeville coulent la Somme et la rumeur[7] », « La rumeur d’Abbeville fait déborder la colère des habitants[8] ». En 2001, à la suite d’un hiver pluvieux qui a saturé les nappes phréatiques, la Somme et ses affluents connaissent une montée des eaux lente et durable qui provoque l’inondation de 2 800 foyers au plus fort de la crise et l’évacuation de 1 100 personnes. Alors que l’état de catastrophe est reconnu dès le 23 mars 2001, une rumeur se répand rapidement selon laquelle l’eau de la Seine serait déversée dans la Somme pour éviter d’inonder Paris, qui doit accueillir le Comité Olympique en vue de sa candidature aux Jeux de 2008. Alors même que la gestion « technique » de la crise fut plutôt bonne, avec une politique de relogement bien menée et une surveillance accrue relative à la bonne application des PPRI, l’épisode de la crue de la Somme fut très mal toléré par les habitants qui eurent l’impression d’être laissés pour compte. À l’heure de la communication instantanée, parfois sans vérification factuelle, voire de la désinformation, on comprend d’autant plus le défi et l’importance que représente la bonne communication.

Cette bonne communication doit trouver une base solide dans un travail préliminaire à la crise visant à former au risque : les habitants d’abord, par une explication des phénomènes pouvant engendrer un risque et par l’apprentissage de réactions opportunes en cas de crise ; l’ensemble des opérateurs de réseaux et des autorités publiques ensuite, pour comprendre le point de vue de l’utilisateur. La gestion résiliente de la crise et de l’après-crise repose sur la capacité à faire des habitants des acteurs, capables de relayer l’action, de développer les solidarités locales et enfin de participer au retour à l’équilibre du système.

L’impensé des réseaux ou l’a-croissance croissante

-46,6% à Gdansk, -40,4% à Budapest, -15,6% à Berlin, -16,6% à Paris, -13,3% à Nantes, -4,1% à Madrid… entre 1991 et 2001 la plupart des villes européennes ont vu leur consommation d’eau baisser, parfois de façon spectaculaire pour les villes de l’ancien bloc socialiste. Dans sa contribution au colloque de Cerisy sur les « Villes et territoires résilients » que La Fabrique de la Cité, l’Institut Veolia et Sabine Chardonnet Darmaillacq ont organisé en septembre 2017, Daniel Florentin[9] a mis en lumière un autre type de choc auquel sont soumis les réseaux : l’a-croissance, soit l’absence de croissance, voire la décroissance. Il est moins spectaculaire que les chocs brutaux évoqués précédemment. Lent et délétère, il est plus facile à ignorer longtemps, comme le montre le cas de Séville : ce n’est qu’à la faveur d’autres crises, économiques et sociales, que celle causée par la baisse constante de la consommation d’eau sur le réseau (-40% depuis les années 1990 malgré une population en constante augmentation) a pu être révélée au grand jour en 2013 et faire l’objet d’un débat public.

N’est-on pas face à un paradoxe ? Le précédent article que nous avons publié montrait que la moindre consommation des ressources était un facteur majeur de la résilience. Pourquoi, appliquée aux réseaux, représenterait-t-elle un choc ? C’est que, si la baisse de consommation est propice à la résilience de l’ensemble du système en préservant des ressources difficilement renouvelables, à l’échelle d’un réseau technique déjà constitué et dimensionné pour un niveau de consommation donné, il est vecteur de vulnérabilité infrastructurelle pour deux raisons principales.

(1) Les réseaux sont dimensionnés pour fonctionner à un optimum. Autant le trop que le pas assez pose des problèmes de fonctionnement et d’altération du réseau. Dans le cas des réseaux d’eau, il s’agit avant tout d’un problème sanitaire comme le rappelle Daniel Florentin en évoquant la crise bactérienne de l’été 2008 à Magdebourg à l’est de l’Allemagne : la conjugaison d’une moindre consommation, d’une stagnation d’eau dans les tuyaux pendant quatorze jours consécutifs et de fortes températures estivales a entraîné une multiplication des bactéries dans les canalisations au-delà des seuils recommandés.

(2) L’équilibre économique des réseaux repose sur l’équilibre entre, d’un côté, des investissements et des coûts de gestion très élevés, de l’autre des recettes tirées des volumes consommés. La baisse des consommations aboutit à un équilibre économique rompu et, comme le souligne Daniel Florentin « à un progressif effet ciseau : des coûts en hausse et des recettes en baisse[10]. »

L’enjeu est donc tout à la fois opérationnel (quel nouveau modèle de gestion des réseaux ?), économique (comment augmenter les dividendes ?) et enfin territorial (le modèle du grand réseau national capable de solidariser tous les territoires et d’offrir le même service au même prix est-il remis en question ? Quel modèle alternatif ?)

« En fait, en voyant ce phénomène de baisse de la consommation, on a compris qu’on devait arrêter de construire, et gérer ce qui était là, pour éviter que cela s’effondre également » (entretien mené par Daniel Florentin avec un ingénieur de la Trinkwasser Magdeburg (TWM), opérateur d’eau infrarégional de la région de Magdebourg, janvier 2013[11])

Quelles sont les options pour faire face à ce phénomène ? Daniel Florentin, à partir de l’analyse des réseaux d’eau en décroissance dans les Länder de l’est de l’Allemagne, en dégage plusieurs :

- La bifurcation vers du multiservices des grands opérateurs de réseaux.

- L’augmentation du prix des m3 de façon à faire peser sur la facture le coût des volumes perdus et de la hausse des coûts de gestion du réseau. Cette solution pose d’un côté la question centrale de l’acceptabilité de la mesure de la part de la population et de la précarisation d’une partie des habitants ne pouvant faire face à cette hausse tarifaire ; de l’autre, elle ne permet pas seule de régler le problème à long terme car elle ne s’attaque pas à ses sources, seulement à certaines de ses conséquences (la baisse des recettes).

- Le redimensionnement des réseaux pour s’adapter à la baisse de la consommation. On retrouve ici la problématique des coûts générés pour adapter une infrastructure existante, qui sont très importants. D’une part, ils ne bénéficient que de subventions minimales, d’autre part, dans le cas des réseaux d’eau et d’assainissement en Allemagne, ils sont régis par le principe du « full-cost-recovery ». Celui-ci fait reposer l’ensemble des coûts sur l’usager final. Le maintien d’un faible coût de l’eau pour garantir une solidarité sociale et territoriale induit ainsi une capacité d’investissement réduite, qui peut conduire, même dans le cas d’un statu quo sur le réseau, à la création de nouvelles vulnérabilités infrastructurelles sur le long terme avec une maintenance a minima. Solidarité contre investissement ? La décroissance interroge profondément le modèle économique des grands réseaux.

- Le cloisonnement et la désolidarisation des réseaux conduisant à la mise en place de deux réseaux parallèles, l’un performant, de grande qualité et onéreux, « de première classe », l’autre, standardisé, héritier du réseau traditionnel, plus abordable mais procurant un service dégradé car sous-utilisé. C’est ce que Simon Marvin et Stephen Graham identifient dans leur ouvrage Splintering urbanism[12] qui analyse la conception des réseaux dans les nouvelles extensions urbaines. Cette tendance remet profondément en cause la conception des grands réseaux comme des biens communs, outils essentiels de la structuration du territoire, vecteur de solidarité nationale et garants de l’intérêt public. Elle plaide en faveur de l’adaptation des réseaux aux intérêts — concurrentiels — des différents acteurs pour en accroître ainsi l’efficacité et conduit à faire des réseaux des outils de différenciation (sociale et territoriale) avec le risque de fracturation (sociale et territoriale) associé et de création de zones où vulnérabilités infrastructurelle et sociale se conjuguent.

- La création de nouvelles économies d’échelle en développant une stratégie spatiale et tarifaire permettant à la fois d’augmenter l’assiette et de maintenir une logique de solidarité territoriale. C’est celle qui a été adoptée à Magdebourg, qui pousse Daniel Florentin à voir dans la ville « une forme de laboratoire de gestion de la décroissance des réseaux[13] ». Cette stratégie repose d’abord sur un élargissement de l’assise territoriale de l’opérateur du réseau d’eau, Städtische Werke Magdeburg (SWM), qui a fusionné les réseaux et pris en charge les réseaux des territoires voisins ; elle repose ensuite sur la mise en place par l’opérateur infrarégional de l’eau (TWM) d’une gouvernance partagée afin de favoriser le processus de négociation et de consensus et s’appuie sur l’application d’un tarif solidaire (Solidarpreis) d’échelle régionale. La conséquence en est que Magdebourg, moins touchée par la crise économique et sociale ainsi que par la décroissance, paie pour les autres territoires régionaux plus vulnérables, mais gagne en robustesse de son réseau en diminuant les risques sanitaires liés à la sous-utilisation de celui-ci.

L’intérêt de ce dernier exemple vient de ce qu’il permet de jeter un nouveau regard sur le rôle que peuvent jouer les opérateurs de réseaux. La SWM et la TWM, sans être des instances élues ni des administrations, mais des entreprises de services urbains, développent une vision territoriale qui propose une alternative à la logique de compétition et qui favorise la résilience du territoire en cherchant à diminuer différentes vulnérabilités infrastructurelles et sociales. Comme le constate ainsi Daniel Florentin, « les questions d’infrastructures et de réseaux ont longtemps été réservées aux techniciens et aux sciences ‘dures’, comme s’il s’agissait d’objets socialement ou politiquement neutres. Pourtant, derrière des constats principalement techniques comme celui d’une diminution des consommations d’eau, on retrouve un grand nombre de questionnements sociaux, liés aux enjeux d’adaptation à une société plus sobre dans la consommation d’un certain nombre de ses ressources. Derrière les enjeux du surdimensionnement infrastructurel, on retrouve des choix politiques, dont les implications peuvent générer des transformations territoriales majeures[14]».

En attente du prince ? L’enjeu de la maintenance

Retour au point de départ : les grands réseaux sont-ils donc les Cendrillons de la résilience ? Au-delà de la formule, heureuse, ce qu’elle révèle est majeur : tout comme Cendrillon, fille de roi, est un pilier de son Royaume, les grands réseaux sont des infrastructures stratégiques essentielles au bon fonctionnement du système urbain ; tout comme Cendrillon, privée de soutien et d’attention, perd son rang et sa capacité d’action, les grands réseaux menacent de ne plus bien jouer leur rôle de pilier de la résilience s’ils n’occupent pas la bonne place et ne sont pas correctement entretenus. Tous les exemples le montrent : la maintenance est un enjeu clé pour les réseaux. D’abord parce qu’un réseau en bon état permet de parer aux conséquences de la catastrophe plus rapidement. Ensuite parce que le mauvais état du réseau, en déficit de maintenance, non seulement renforce la vulnérabilité d’un territoire, en freinant sa capacité de récupération mais, pire encore, crée le risque. Rappelons-nous le blackout du 14 août 2003 où près de 50 millions de personnes ont été privées d’électricité dans l’Ontario, l’Ohio, le Michigan, la Pennsylvanie, l’État de New York, le Connecticut et le New Jersey. La raison ? Un défaut de maintenance des lignes, avec des arbres non élagués et des lignes de transmission affaissées. Enfin, parce qu’un changement de référentiel de l’action se profile, comme l’a montré le cas des réseaux d’eau dans l’est de l’Allemagne, celui du primat de la maintenance sur l’extension des réseaux.

[1] CGEDD (2013) Vulnérabilité des réseaux d’infrastructures aux risques naturels, 92p. http://www.cgedd.developpement-durable.gouv.fr/IMG/pdf/008414- 01__rapport_cle523312.pdf

[2] Stephen Graham, Simon Marvin (2001) Splintering Urbanism. Networked Infrastructures, Technological Mobilities and the Urban Condition, Routledge.

[3] Ministère de l’écologie, du développement durable et de l’énergie (2015) Les enjeux économiques de la résilience des réseaux. Rapport n° 008414–02 établi par. Marie-Anne BACOT, Jean-Louis DURVILLE et Laurent WINTER

[4] Ministère de l’écologie, du développement durable et de l’énergie (2015) Résilience des réseaux dans le champ du MEDDE à l’égard des risques. Etude des conditions de retour à la normale après une situation de crise affectant les grands réseaux. Rapport n°008414–03, établi par Yvan AUJOLLET, Philippe BELLEC, Thierry GALIBERT, Gérard LEHOUX, Jean-Michel NATAF et Laurent WINTER

[5] MARET Isabelle, CADOUL Thomas (2008) « Résilience et reconstruction durable : que nous apprend La Nouvelle-Orléans ? », Annales de géographie, 5 (n° 663), p. 104–124. DOI : 10.3917/ag.663.0104. URL : https://www.cairn.info/revue-annales-de-geographie-2008-5-page-104.htm

[6] Ministère de l’écologie, du développement durable et de l’énergie (2015) Résilience des réseaux dans le champ du MEDDE à l’égard des risques. Etude des conditions de retour à la normale après une situation de crise affectant les grands réseaux. Rapport n°008414–03, établi par Yvan AUJOLLET, Philippe BELLEC, Thierry GALIBERT, Gérard LEHOUX, Jean-Michel NATAF et Laurent WINTER p. 56

[7] Libération, 10 avril 2001

[8] Le Monde, 11 avril 2001

[9] Daniel Florentin est maître-assistant en environnement à l’École des Mines de Paris, à l’Institut Supérieur d’Ingénierie et de Gestion de l’Environnement (ISIGE).

[10] Daniel Florentin (2017) « Des réseaux qui décroissent, des solidarités qui s’accroissent ? Baisse des consommations d’eau et d’énergie et nouveau contrat social et territorial », Métropolitiques www.metropolitiques.eu/Des-reseaux-qui-decroissent-des.html

[11] ibidem

[12] Stephen Graham, Simon Marvin (2001)

[13] Daniel Florentin (2017)

[14] Daniel Florentin (2015) « La vulnérabilité des objets lents : les réseaux d’eau. Les enjeux des diminutions de consommation d’eau vus à travers un exemple allemand », Les Annales de la recherche urbaine, N°110, Ville et vulnérabilités. pp. 152–163. www.persee.fr/doc/aru_0180-930x_2015_num_110_1_3176

exemple 4

--

--