Comment transformer d’anciens datacenters en actifs informatiques critiques
8 min readArmée de la bonne approche, l’infrastructure de datacenter héritée peut être réinventée pour augmenter la capacité, prendre en charge les services commerciaux nouveaux et émergents et réduire les coûts d’exploitation.
Dans le cadre de cette approche, les organisations dont les charges de travail existantes restent dans leurs centres de données doivent décider de la meilleure façon de restructurer leurs infrastructures physiques pour améliorer l’efficacité et prolonger la durée de vie utile du centre de données.
La plupart des leaders de l’infrastructure et des opérations informatiques (I&O) consacrent leur attention aux migrations vers le cloud, aux stratégies de périphérie et au déplacement des charges de travail plus près du client. Mais ils doivent se rappeler qu’un l’ensemble de charges de travail de base peut rester sur site. Bien que l’investissement continu dans un datacenter plus ancien et plus traditionnel puisse sembler contradictoire, il peut apporter des avantages significatifs à la planification à court et à long terme.
Les responsables I&O peuvent optimiser les centres de données existants de trois manières clés pour prendre en charge les services commerciaux nouveaux et émergents.
Amélioration de la livraison
Dans les datacenters qui approchent de la capacité opérationnelle, la principale limitation est le manque d’espace physique et de puissance pour prendre en charge des équipements supplémentaires ou des infrastructures de refroidissement adéquates. Les entreprises choisissent donc soit de construire un nouveau centre de données de nouvelle génération pour soutenir leur croissance à long terme, soit d’utiliser services de colocation, de cloud ou d’hébergement comme solution.
Bien qu’il s’agisse d’options viables, elles impliquent chacune d’éloigner les charges de travail des opérations traditionnelles sur site. Cela introduit des risques et ajoute de la complexité à l’environnement d’exploitation. Une alternative possible pour les mises à niveau à long terme des centres de données existants consiste à utiliser des systèmes de racks autonomes.
Ces boîtiers fabriqués contiennent un groupe de racks conçus pour prendre en charge des densités de calcul moyennes à élevées. Souvent, l’intégration de leur propre mécanisme de refroidissement, la modernisation ou la réutilisation de racks auto-refroidissants informatiques à haute densité peuvent être un moyen simple et efficace d’améliorer l’espace du datacenter.
Maximiser l’espace
Le dégagement d’une petite partie de l’espace au sol pour l’une de ces unités autonomes est la technique de rénovation la moins intrusive. Vous pouvez ensuite diviser l’espace au sol en sections distinctes et reconfigurer votre agencement.
Les unités de rack autonomes nécessitent généralement l’alimentation d’une unité de distribution d’alimentation existante ou, dans certains cas, peuvent nécessiter une unité de distribution de réfrigérant ou de refroidissement. Supposons une augmentation de l’espace par rack d’environ 20% pour prendre en compte les équipements de support supplémentaires.
Étant donné que les systèmes de refroidissement en rack sont autonomes, ils ne nécessitent pas de configuration ou de confinement d’allée chaude/froide. Cela permettra plus de flexibilité dans le placement des nouveaux racks sur le sol du centre de données.
Une fois l’unité installée, commencez une migration progressive des charges de travail à partir d’autres sections de l’étage. Il ne s’agit pas d’une migration un pour un, car ces unités de rack peuvent prendre en charge des densités de refroidissement plus élevées. Souvent, un datacenter existant n’utiliserait qu’en moyenne 50 à 60 % de la capacité du rack, car les racks à plus haute densité provoquent des points chauds au sol.
Avec les nouveaux racks confinés, la charge de travail migrée est souvent supérieure de 40 à 50 %. Par exemple, une nouvelle unité autonome à quatre racks peut absorber les charges de travail de six à huit racks à l’étage existant.
Par conséquent, il est peu probable que les charges de travail déplacées vers le nouveau boîtier proviennent des mêmes racks, et l’ancienne section de la zone serveur sera fortement fragmentée. La phase suivante du projet consiste à défragmenter l’environnement et à déplacer les charges de travail hors des racks sous-utilisés pour libérer de l’espace au sol supplémentaire.
Une fois ces charges de travail déplacées, commencez le processus de relocalisation physique de l’équipement et de dégagement de la section suivante de l’espace au sol pour faire de la place pour la prochaine installation de rack autonome. Au fur et à mesure que chaque unité suivante est installée, la densité globale de calcul par rack augmente, ce qui se traduit par un ratio de calcul par pied carré considérablement plus élevé et une empreinte globale du centre de données plus petite.
Cette phase de migration peut également être un excellent moment pour envisager une actualisation du serveur, en fonction de la situation des serveurs existants dans leur cycle de vie économique. La mise en œuvre de facteurs de forme de serveur plus petits peut augmenter la densité des racks, tout en réduisant les besoins globaux en énergie et en refroidissement.
La clé de tout cela reste la puissance d’entrée du centre de données – elle doit être adéquate pour les racks à plus haute densité. Un avantage compensatoire est que la charge de refroidissement globale peut en fait diminuer à mesure que davantage de charges de travail se déplacent vers des racks haute densité, car une grande partie du flux d’air de refroidissement est gérée à l’intérieur du rack, ce qui réduit la quantité de flux d’air nécessaire dans tout l’espace du datacenter.
Réinventer les infrastructures
Alors que les nouvelles conceptions de puces tentent de réduire l’empreinte thermique des processeurs, les besoins accrus en puissance de calcul entraînent des densités d’équipement plus élevées, ce qui, à son tour, augmente les besoins de refroidissement. À mesure que le nombre de serveurs haute densité augmente, les leaders I&O doivent fournir des niveaux de refroidissement adéquats pour les salles informatiques.
Ceux qui cherchent à moderniser les centres de données pour des densités extrêmes dans un faible encombrement, peut-être pour des applications d’informatique quantique ou d’intelligence artificielle (IA), devraient considérer les systèmes de refroidissement liquide ou immersif comme des options viables. Gartner prévoit que d’ici 2025, les centres de données déployant des techniques de refroidissement et de densité spécialisées verront leurs coûts d’exploitation baisser de 20 à 40 %. Ce sujet sera discuté plus en détail lors de la conférence Gartner IT Infrastructure, Operations & Cloud Strategies au Royaume-Uni en novembre.
Cela peut prendre jusqu’à 60-65% de la puissance totale utilisée pour refroidir un datacenter. Les racks à haute densité de 15 kW à 25 kW peuvent souvent nécessiter plus de 1,5 kW de charge de refroidissement pour chaque 1 kW de charge informatique, juste pour créer le flux d’air frais nécessaire pour prendre en charge ces racks.
Les échangeurs de chaleur de porte arrière (RDHx) sont des portes de rack remplaçables sur site (dans la plupart des cas) qui refroidissent l’air chaud lorsqu’il sort de la porte du rack, plutôt que de dépendre du flux d’air dans le centre de données. L’un des avantages du RDHx est que non seulement vous disposez de racks plus efficaces, mais qu’une grande partie de l’énergie autrefois utilisée pour le refroidissement devient disponible pour être réutilisée par les installations pour prendre en charge d’autres systèmes de bâtiment ou réacheminée en tant que charge informatique supplémentaire. Les fournisseurs RDHx incluent Futjitsu, Vertiv, Schneider Electric, Nortek Air Solutions, Cool IT Systems et Opticool.
L’utilisation du refroidissement liquide peut résoudre le problème de refroidissement des serveurs haute densité, car l’eau (refroidissement par conduction) conduit plus de 3 000 fois plus de chaleur que l’air et nécessite moins d’énergie pour le faire. Le refroidissement liquide permet l’évolutivité continue de l’infrastructure informatique pour répondre aux besoins de l’entreprise.
Il n’est peut-être pas évident que RDHx puisse économiser de l’argent, les clients doivent donc être prêts à construire l’analyse de rentabilisation. En fonction de la charge thermique et des coûts énergétiques, le retour sur investissement (ROI) peut être atteint en quelques années. Dans de nombreux cas, les mises à niveau des installations précédemment planifiées (avec un retour sur investissement typique entre 15 et 20 ans) peuvent ne pas être nécessaires.
La plupart des fournisseurs ont récemment commencé à proposer une solution réfrigérante au lieu de l’eau. Un réfrigérant basse pression peut atténuer les problèmes de fuite d’eau car, en cas de fuite, les réfrigérants peuvent s’évaporer sous forme de gaz non toxiques et non corrosifs. Bien que cela puisse ajouter des coûts supplémentaires pour les unités de distribution de liquide de refroidissement, cela éliminera tout souci de fuites d’eau endommageant l’équipement.
Les systèmes de refroidissement immersifs sont également de plus en plus acceptés, en particulier lorsque des systèmes autonomes à haute densité (40 kW à 100 kW et au-delà) sont nécessaires.
Des systèmes d’immersion directe et de refroidissement liquide sont maintenant disponibles. Ils peuvent être intégrés dans des datacenters existants avec des serveurs refroidis par air. Cependant, l’adoption a été lente, compte tenu du lourd investissement dans les méthodologies de refroidissement mécanique et de l’amélioration continue de l’efficacité énergétique des systèmes modernes. Les fournisseurs de refroidissement immersif incluent Green Revolution Cooling, Iceotope, LiquidCool, TMGCore et Stulz.
Étant donné que chaque environnement est différent, il est essentiel que les responsables I&O utilisent des métriques détaillées, telles que l’efficacité de l’utilisation de l’énergie (PUE) ou l’efficacité de l’espace du centre de données (DCSE), pour estimer les avantages et les économies de coûts uniques de tels investissements.
La ligne du bas
Les leaders I&O peuvent atteindre une croissance significative de leurs installations existantes en mettant en œuvre une modernisation progressive du centre de données, tout en réduisant les besoins de refroidissement et en libérant de l’énergie pour des charges de travail informatiques supplémentaires.
Cette activité n’est pas sans risque, car tout déplacement d’équipement physique au sein d’un datacenter de production en direct est risqué. Cependant, s’il est exécuté comme un projet à long terme et divisé en petites étapes gérables, les avantages peuvent être de grande envergure et l’emporter de loin sur les risques.
D’un point de vue budgétaire, il est également plus facile à mettre en œuvre, car les besoins en capital sont répartis sur plusieurs trimestres, par rapport à un projet de construction de datacenter traditionnel. En outre, les coûts globaux seront nettement inférieurs à ceux d’une nouvelle construction, avec bon nombre des mêmes avantages.
Alors que les dirigeants des I&O commencent à améliorer leurs centres de données pour prendre en charge de nouveaux services métier et réduire les coûts d’exploitation, ils doivent garder cette approche étape par étape à l’esprit.
David Cappuccio est un éminent vice-président de la recherche analyste chez Gartner