data-center-jpg

Le défi technologique, économique et humain des data centers

Avec la transformation numérique désormais omniprésente dans les activités quotidiennes des entreprises comme des consommateurs, jamais le bon fonctionnement de notre économie n’a été autant dépendant d’une ressource essentielle : le data center, ce bâtiment anonyme qui rassemble des centaines, voire des milliers de serveurs informatiques qui gèrent et transmettent les informations via Internet.

Pour les entreprises, le data center qui héberge l’ensemble des matériels actifs (serveurs, etc.) pour supporter les applications, traite et transmet leurs données, est devenu quasiment aussi stratégique que leurs ressources humaines, car de son bon fonctionnement dépend directement leur réputation commerciale auprès de leurs clients et partenaires.

Pour répondre à toutes les exigences attendues, un data denter doit nécessairement être tout à la fois d’une fiabilité à toute épreuve, hautement sécurisé, ultra performant pour fournir instantanément les services et les données qu’on lui demande, mais aussi facile à maintenir et économe en énergie.

Il doit également, autre élément devenu essentiel, être capable d’évoluer, un peu comme un organisme vivant, pour s’adapter au jour le jour à de nouvelles contraintes, à commencer par les évolutions technologiques et les nouveaux besoins des applications qu’il héberge.

Relever simultanément tous ces défis est de plus en plus complexe, et il n’est pas étonnant que son exploitation quitte progressivement le giron des entreprises, et soit désormais confiée à des sociétés spécialisées.

La recherche perpétuelle des meilleures performances, un défi immédiat et de grande ampleur

La sécurité des informations résidant dans les data centers est évidemment un élément essentiel, comme le montrent les nombreuses cyber attaques dont ils font l’objet, mais elle ne doit pas occulter un défi tout aussi important, celui de l’accroissement des performances.

Car ce qu’on attend d’un data center, c’est qu’il fournisse instantanément le traitement et les informations dont on a besoin, comme si elles résidaient dans son propre ordinateur ou son propre smartphone.

Or, avec l’augmentation rapide et régulière des demandes d’accès aux informations de la part des utilisateurs, les débits de transmission du réseau à l’intérieur des data centers ne suffisent plus et doivent eux aussi être redimensionnés, en les multipliant par dix voire plus. Concrètement, alors qu’auparavant un tuyau – une fibre optique – suffisait pour transmettre les données, celles-ci doivent désormais être transmises en parallèle par plusieurs fibres pour répondre aux besoins.

Le nombre de fibres doit ainsi passer de deux, une dans chaque sens, à 12, 24 voire jusqu’à 16 et 32 fibres et pourquoi pas demain 64 fibres. Mais la mise en œuvre de cette nouvelle architecture, appelée Parallèle Optique (PO), représente une petite révolution.

Car le besoin engendré n’a pas grand-chose à voir avec l’infrastructure qu’ils utilisaient jusqu’à présent. Il nécessite de nouveaux outils d’inspection et de mesure, mais, plus encore, des compétences nouvelles pour le personnel chargé de la conception de l’architecture et de sa réalisation. Or ces compétences manquent cruellement aujourd’hui.

A pile ou face

Il en résulte des retards de mise en œuvre, qui menacent directement la compétitivité des data centers situés en France – il est très simple de migrer ses données vers un data center basé en Allemagne, aux Pays-Bas ou au Royaume-Uni et ainsi apporter de nouveaux risques en matière de fiabilité et de disponibilité.

Manquant de compétences, certains data centers jouent parfois à pile ou face le bon fonctionnement d’une nouvelle liaison.  Car une connexion Parallèle Optique mal pensée, mal installée ou mal certifiée soit ne fonctionnera pas, soit ne respectera pas les critères de performances requis.

La montée accélérée des débits de transmission des données en leur sein est donc aujourd’hui, pour les data centers, un défi technologique, économique et humain. Qui ne pourra trouver sa solution qu’avec la maîtrise des architectures d’infrastructure, des nouveaux outils de certification, des procédures d’inspection et de nettoyage et un effort de formation conséquent.

commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

on en parle !
Partenaires
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective
20 nov 2015
Les principales causes de mortalité dans le monde : mise en perspective