DOSSIER – La Wallonie est encore loin d’être une terre d’élection pour des “data centers” ou infocentres, ces espaces plus ou moins spacieux auxquels les entreprises, organismes publics, voire simples particuliers, peuvent venir confier leurs infrastructures et/ou solutions informatiques.
Le data center de Google à Ghlin: hors catégorie…
Il y a bien sûr les grands noms emblématiques, tels Google, mais il s’agit d’un data center que le géant du Net réserve à ses propres besoins. En comparaison, les “régionaux de l’étape” font pâle figure- en termes de capacités.
Il s’agit d’ailleurs, pour la plupart d’entre eux, d’espaces qu’ils ont aménagés pour les besoins de leurs propres clients, dans la foulée ou en guise d’extension à d’autres services prestés.
Aujourd’hui, l’engouement pour la notion (certes fourre-tout) du “cloud”- depuis l’hébergement de solutions mail jusqu’à la gestion d’infrastructures- rebat les cartes. En multipliant la nature de leurs offres respectives, les acteurs locaux comptent en effet attirer de nouvelles clientèles. A terme, les espaces d’infocentres accueilleront indistinctement, côte à côte, séparées seulement par des couloirs de refroidissement ou une simple cage serveurs, des PME et des banques, une solution de gestion e-commerce d’une start-up et un spécialiste du stockage de contenus de réalité virtuelle. Ou encore des coffres-forts virtuels où se trouveront vos données et historiques médicaux, à côté de serveurs surdopés pour assumer des tâches de high performance computing (simulation spatiale, météorologique ou autre).
Pour découvrir la suite de cet article ainsi que le dossier complet que nous consacrons aux data centers wallons, deux solutions: soit vous abonner, soit acheter le dossier.
Soeur Anne est muette…
La Wallonie est encore loin d’avoir balisé ou ne fut-ce qu’esquissé une réelle stratégie en la matière. Une étude grandeur nature des forces et faiblesses des infrastructures (télécoms, immobilier, énergie…) et de l’écosystème fait d’ailleurs encore défaut. Preuve qu’une éventuelle stratégie est encore loin de sortir des cartons. D’ailleurs, ce qui s’est passé la semaine dernière, du côté du réseau fibre optique (mis en vente pour raison de disette budgétaire), n’augure pas d’une politique dynamique quelconque à court ou moyen terme. Voir l’article que nous y avons consacré, voici quelques jours.
Toutefois, les velléités de certains acteurs, du côté du privé, prouvent que de tels scénarios ne sont pas inimaginables. L’occasion pour nous de faire un rapide tour d’horizon, dans ce dossier, de quelques acteurs qui disposent déjà de tels espaces et qui, peu ou prou, ont aligné de nouvelles cartes ces derniers mois.
L’offre locale existante (WDC, Cofely, NRB…) ne s’adresse pas- ou pas encore- réellement à une cible qui commence pourtant à être demandeuse. Et le sera de plus en plus. A savoir, celle des PME, TPE, porteurs de projets, start-ups, développeurs…
Pour satisfaire des besoins en capacités plus modestes que ceux des grandes sociétés, ces acteurs auraient besoin d’espaces et de ressources d’hébergement (plus) flexibles, pouvant être réservés pour un temps déterminés, être “consommables à la demande”. Sans s’engager financièrement et contractuellement dans des schémas trop rigides. Sans devoir se soucier de contraintes et d’interventions techniques.
Cette offre, aujourd’hui, n’existe pas en local, forçant ce type de clients à confier leurs charges IT à des opérateurs ou prestataires étrangers, établis par exemple au Grand-Duché ou en France.
Outre les PME/TPE et autres poids-plume privés, les communes et autres pouvoirs locaux ne trouvent pas forcément leur bonheur dans l’existant.
Le scénario d’un opérateur local, visant ces publics, est à l’érude mais en est encore au stade fort préliminaire de l’élaboration d’un projet qui, une fois déposé et accepté, pourrait bénéficier d’un financement public partiel. A suivre…
… mais Pantagruel est de retour
Pour quelles raisons ce secteur des data centers est-il en progression, en ce compris à l’échelle locale? Tout simplement parce que les acteurs veulent se mettre en ordre de bataille face à une variété de tendances qui rendent de plus en plus nécessaire la disponibilité d’espaces d’hébergement informatique et/ou numérique.
Pour n’en relever que quelques-unes, citons ici:
- succès grandissant du concept de l’externalisation, les sociétés (de toutes tailles) ne désirant plus forcément avoir la maîtrise et la responsabilité totale, potentiellement lourde en termes technologiques et financiers, de leur infrastructure et solutions informatiques
- accroissement sensible des volumes de données à stocker et gérer
- impératifs économiques: réductions des budgets et investissements, basculement en mode OpEx (frais opérationnels), volonté de pouvoir s’adapter plus rapidement et à moindres frais aux exigences du métier (“time to market”)…
- nécessité de confier à des tiers la supervision de l’infrastructure: qu’il s’agisse de serveurs, de téléphonie, de stockage ou de parcs d’équipements mobiles
- craintes pour la confidentialité des données, si elles sont confiées à des opérateurs étrangers. Même si, comme nous l’ont affirmé différents acteurs, il n’y a pas encore eu, suite à l’affaire Edward Snowden, d’“effet PRISM” marqué, qui aurait suscité un repli stratégique vers des hébergeurs européens, voire locaux, pour échapper à la curiosité des autorités américaines. Les dernières révélations concernant Belgacom ont d’ailleurs démontré que, quelle que soit la nationalité de l’opérateur ou de l’hébergeur, aucune donnée n’est potentiellement à l’abri de regards et oreilles aussi indiscrètes que farfouilleuses.
Les opérateurs européens se sont évidemment emparés de l’argument PRISM pour convaincre les clients locaux de l’intérêt qu’ils auraient à confier davantage leurs données, applications et infrastructures à des régionaux de l’étape. Question de proximité, de confiance, de transparence… L’occasion aussi de rappeler que, fondamentalement, la vision qu’ont des acteurs européens en matière de protection de données sensibles et/ou à caractère personnel diffèrent de celle de leurs homologues américains (ou asiatiques, d’ailleurs). Le risque, le travers dans lequel il ne faudrait pas tomber, avertissent certains observateurs, serait un repli national et l’émergence de pré-carrés: les données françaises en France et nulle part ailleurs, les solutions de CRM pour clients allemands exclusivement sur le sol germanique, etc.
Trop tôt pour savoir si l’affaire PRISM modifiera réellement, en profondeur et dans le long terme, les habitudes- tant celles des consommateurs lambda que des entreprises. Certaines études (telles celles de la Cloud Security Alliance (CSA), menée au début de l’été, avaient indiqué un certain malaise de la part d’acteurs non-américains. Selon la CSA, par exemple, 56% des quelque 200 sociétés contactées avaient dit être “moins prédisposés à utiliser les services de fournisseurs de cloud américains”. 10% ont même annulé un projet de déploiement sur un cloud US.
Reste à voir si ce n’est qu’un effet de balancier.
Les conditions d’implantation
Pour qu’un opérateur d’infocentre décide d’inaugurer un nouveau site, de multiples paramètres doivent être présents. A commencer, bien entendu, par une perspective de rentabilisation d’un investissement parfois colossal. Une demande suffisante doit donc émaner du marché et présenter un maximum de garanties de stabilité, voire extension, dans le temps.
Mais le choix du lieu d’implantation dépend aussi et surtout de critères de coûts et d’avantages concurrentiels que peut ou non proposer un territoire donné:
- un territoire doit garantir des connexions télécoms haut débit à faible latence vers les principaux “hubs” (souvent basés dans les capitales européennes); la proximité immédiate d’un réseau haut à très haut débit (fibre optique) est une condition majeure
- le prix de l’électricité (poste majeur dans les coûts opérationnels) a intérêt à être avantageux
- des dispositions de protection de l’environnement peuvent également entrer en ligne de compte (certains pays sont moins regardants que d’autres et acceptent donc que certaines technologies- de refroidissement par exemple- soient utilisées alors que d’autres imposeront des normes plus strictes et donc des investissements parfois plus coûteux)
- l’accessibilité physique du site du data center a également son importance. Du moins s’il s’adresse à une clientèle qui doit pouvoir avoir accès à ses propres étagères de serveurs ou de stockage pour procéder à la maintenance ou à des opérations de routines. De ce point de vue-là, la possibilité de se rendre rapidement sur le site privilégie une implantation à distance raisonnable d’axes autoroutiers pas trop encombrés
- la sécurité est, enfin, un paramètre non négligeable. D’où l’importance d’une localisation distance respectable d’un aéroport (risque d’accident d’avion) ou d’une cible tentante pour des terroristes. Autres critères: l’absence de risque d’inondation, de secousses sismiques…
- le site d’implantation doit pouvoir disposer d’une capacité électrique industrielle suffisante selon le niveau de performances désiré.
Découvrez-nous sur Facebook
Suivez-nous sur Twitter
Retrouvez-nous sur LinkedIn
Régional-IT est affilié au portail d’infos Tribu Médias.