May 17, 2024

PDFS

C'est en forgeant qu'on devient forgeron

Faire en sorte que le datacenter et le cloud fonctionnent mieux ensemble dans l’entreprise

8 min read

L’infrastructure des centres de données d’entreprise n’a pas radicalement changé au cours des dix ou vingt dernières années, mais la façon dont elle est utilisée a changé. Les services cloud ont changé les attentes quant à la facilité de provisionnement et de gestion des ressources, et également au fait que les organisations n’ont besoin de payer que pour les ressources qu’elles utilisent.

Avec les bons outils, les centres de données d’entreprise pourraient devenir plus légers et plus fluides à l’avenir, car les organisations équilibrent leur utilisation de l’infrastructure interne par rapport aux ressources cloud pour obtenir l’équilibre optimal. Dans une certaine mesure, cela se produit déjà, car précédemment documenté par Computer Weekly.

L’adoption de l’informatique en nuage est bien sûr en croissance depuis au moins une décennie. Selon aux chiffres d’IDC, les dépenses mondiales de calcul et de stockage pour l’infrastructure cloud ont augmenté de 12,5 % en glissement annuel au premier trimestre 2021 pour atteindre 15,1 milliards de dollars. Les investissements dans les infrastructures non cloud ont augmenté de 6,3 % au cours de la même période, pour atteindre 13,5 milliards de dollars.

Bien que le premier chiffre corresponde aux dépenses des fournisseurs de cloud pour leur propre infrastructure, cela est dû à la demande de services cloud de la part des entreprises clientes. Pour l’avenir, IDC a déclaré qu’il s’attend à ce que les dépenses en infrastructures de calcul et de stockage en nuage atteignent 112,9 milliards de dollars en 2025, soit 66% du total, tandis que les dépenses en infrastructures non cloud devraient atteindre 57,9 milliards de dollars.

Cela montre que la demande de cloud dépasse celle des infrastructures non cloud, mais peu d’experts pensent désormais que le cloud remplacera entièrement l’infrastructure sur site. Au lieu de cela, les organisations sont de plus en plus susceptibles de conserver un ensemble de services essentiels fonctionnant sur l’infrastructure qu’elles contrôlent, le cloud étant utilisé pour des charges de travail moins sensibles ou lorsque des ressources supplémentaires sont nécessaires.

Des outils informatiques et de gestion plus flexibles permettent également aux entreprises de traiter les ressources cloud et l’informatique sur site comme interchangeables, dans une certaine mesure.

L’informatique moderne est beaucoup plus flexible

« L’informatique sur site a évolué aussi rapidement que les services cloud ont évolué », déclare Tony Lock, éminent analyste chez Freeform Dynamics. Dans le passé, c’était assez statique, avec une infrastructure dédiée à des applications spécifiques, ajoute-t-il. « Cela a énormément changé au cours des 10 dernières années, il est donc maintenant beaucoup plus facile d’étendre de nombreuses plates-formes informatiques que par le passé.

« Vous n’avez pas besoin de les démonter pendant un week-end pour installer physiquement un nouveau matériel.

D’autres choses qui ont changé à l’intérieur du centre de données sont la façon dont les utilisateurs peuvent déplacer les applications entre différents serveurs physiques grâce à la virtualisation, ce qui augmente considérablement la portabilité des applications. Et, dans une certaine mesure, la mise en réseau définie par logiciel rend cela beaucoup plus réalisable qu’il ne l’était il y a cinq ou dix ans, dit Lock.

L’évolution rapide des outils d’automatisation capables de gérer à la fois les ressources sur site et dans le cloud signifie également que la capacité de traiter les deux comme un seul pool de ressources est devenue une réalité.

En juin, HashiCorp a annoncé que son Outil Terraform pour la gestion des infrastructures avait atteint la version 1.0, ce qui signifie que l’architecture technique du produit est suffisamment mature et stable pour une utilisation en production – bien que la plate-forme soit déjà utilisée de manière opérationnelle depuis un certain temps par de nombreux clients.

Terraform est un outil d’infrastructure en tant que code qui permet aux utilisateurs de créer une infrastructure à l’aide de fichiers de configuration déclaratifs décrivant à quoi devrait ressembler l’infrastructure. Ce sont en fait des plans qui permettent à l’infrastructure d’une application ou d’un service spécifique d’être provisionnée par Terraform de manière fiable, encore et encore.

Il peut également automatiser des modifications complexes de l’infrastructure avec une interaction humaine minimale, ne nécessitant qu’une mise à jour des fichiers de configuration. La clé est que Terraform est capable de gérer non seulement une infrastructure interne, mais également des ressources sur plusieurs fournisseurs de cloud, notamment Amazon Web Services (AWS), Azure et Google Cloud Platform.

Et comme les configurations Terraform sont indépendantes du cloud, elles peuvent définir le même environnement d’application sur n’importe quel cloud, ce qui facilite le déplacement ou la réplication d’une application si nécessaire.

« L’infrastructure en tant que code est une bonne idée », déclare Lock. «Mais encore une fois, c’est quelque chose qui mûrit, mais il mûrit à partir d’un état beaucoup plus juvénile. Mais c’est lié à toute cette question d’automatisation, et l’informatique automatise de plus en plus, de sorte que les professionnels de l’informatique peuvent vraiment se concentrer sur les éléments commerciaux les plus importants et potentiellement à plus grande valeur, plutôt que sur certaines des choses les plus banales, routinières et répétitives que votre le logiciel peut tout aussi bien faire pour vous.

Le stockage devient cloud natif

Le stockage d’entreprise devient également beaucoup plus flexible, du moins dans le cas des systèmes de stockage définis par logiciel qui sont conçus pour fonctionner sur des grappes de serveurs standard plutôt que sur du matériel propriétaire. Dans le passé, les applications étaient souvent liées à des réseaux de stockage fixes. Le stockage défini par logiciel a l’avantage de pouvoir évoluer plus efficacement, généralement en ajoutant simplement plus de nœuds au cluster de stockage.

Parce qu’il est défini par logiciel, ce type de système de stockage est également plus facile à provisionner et à gérer via des interfaces de programmation d’applications (API) ou par un outil d’infrastructure en tant que code tel que Terraform.

Un exemple de la façon dont le stockage défini par logiciel est devenu sophistiqué et flexible est WekaIO et sa plate-forme de données illimitées, déployée dans de nombreux projets de calcul haute performance (HPC). La plate-forme WekaIO présente un espace de noms unifié aux applications et peut être déployée sur des serveurs de stockage dédiés ou dans le cloud.

Cela permet l’éclatement vers le cloud, car les organisations peuvent simplement transférer les données de leur cluster sur site vers le cloud public et y provisionner un cluster Weka. Toute application basée sur des fichiers peut être exécutée dans le cloud sans modification, selon WekaIO.

Une caractéristique notable du système WekaIO est qu’il permet de prendre un instantané de l’ensemble de l’environnement – y compris toutes les données et métadonnées associées au système de fichiers – qui peut ensuite être envoyé vers un magasin d’objets, y compris le stockage cloud S3 d’Amazon.

Cela permet à une organisation de créer et d’utiliser un système de stockage pour un projet particulier, de l’instantaner et de garer cet instantané dans le cloud une fois le projet terminé, libérant ainsi l’infrastructure hébergeant le système de fichiers pour autre chose. Si le projet doit être redémarré, l’instantané peut être récupéré et le système de fichiers recréé exactement tel qu’il était, explique WekaIO.

Mais un problème avec ce scénario est le coût potentiel – non pas pour stocker les données dans le cloud, mais pour y accéder si vous en avez à nouveau besoin. Cela est dû aux frais de sortie facturés par les principaux fournisseurs de cloud tels qu’AWS.

« Certaines plates-formes cloud semblent extrêmement bon marché uniquement en termes de coûts de stockage purs », explique Lock. «Mais beaucoup d’entre eux ont en fait des frais de sortie assez élevés. Si vous voulez obtenir ces données pour les examiner et y travailler, cela vous coûte énormément d’argent. Cela ne vous coûte pas cher de le garder là, mais si vous voulez le regarder et l’utiliser, alors cela devient très cher très rapidement.

« Certaines personnes vous proposeront une archive active où il n’y a pas de frais de sortie, mais vous payez plus pour cela sur le plan opérationnel. »

Un fournisseur de stockage en nuage qui a ainsi bousculé les conventions est Technologies Wasabi, qui offre aux clients différentes manières de payer pour le stockage, y compris un forfait mensuel par téraoctet.

Tout gérer

L’infrastructure informatique devenant de plus en plus fluide, flexible et adaptable, les entreprises peuvent constater qu’elles n’ont plus besoin d’étendre constamment la capacité de leur centre de données comme elles l’auraient fait par le passé. Avec les bons outils de gestion et d’automatisation, les entreprises devraient être en mesure de gérer leur infrastructure de manière plus dynamique et plus efficace, en réaffectant leur informatique sur site au prochain défi à relever et en utilisant les services cloud pour étendre ces ressources si nécessaire.

Un domaine qui doit être amélioré pour rendre cela pratique est la capacité d’identifier où se situe le problème en cas de défaillance ou si une application fonctionne lentement, ce qui peut être difficile dans un système distribué complexe. C’est déjà un problème connu pour les organisations qui adoptent un microservices architecture. De nouvelles techniques impliquant l’apprentissage automatique peuvent aider ici, dit Lock.

« La surveillance est devenue bien meilleure, mais la question devient alors : comment voyez-vous réellement ce qui est important dans la télémétrie ? » il dit. « Et c’est quelque chose auquel l’apprentissage automatique commence à s’appliquer de plus en plus. C’est l’un des Saint-Graal de l’informatique, l’analyse des causes profondes et l’apprentissage automatique rendent cela beaucoup plus simple à faire.

Un autre problème potentiel avec ce scénario concerne la gouvernance des données, comme la manière de s’assurer que lorsque les charges de travail sont déplacées d’un endroit à l’autre, les politiques de sécurité et de gouvernance des données associées aux données voyagent également avec elles et continuent d’être appliquées.

« Si vous pouvez potentiellement déplacer tout cela, comment conserver une bonne gouvernance des données, de sorte que vous n’exécutez que les bonnes choses au bon endroit avec la bonne sécurité ? » dit Serrure.

Heureusement, certains outils existent déjà pour résoudre ce problème, comme l’open source Atlas des Apaches projet, décrit comme une solution unique pour la gouvernance des données et la gestion des métadonnées. Atlas a été développé pour être utilisé avec des écosystèmes de données basés sur Hadoop, mais peut être intégré dans d’autres environnements.

Pour les entreprises, il semble que le rêve promis depuis longtemps de pouvoir mélanger et assortir leur propre informatique avec des ressources cloud et de pouvoir composer des éléments à leur guise, pourrait se rapprocher.

Leave a Reply

Your email address will not be published. Required fields are marked *