November 24, 2024

PDFS

C'est en forgeant qu'on devient forgeron

Briefing : métriques de performances du stockage dans le cloud

7 min read

Environ 50 % des données d’entreprise sont désormais stockées dans le cloud, et le volume stocké à l’aide des technologies cloud est encore plus élevé lorsque les clouds privés et hybrides sont pris en compte.

Stockage en ligne est flexible et potentiellement rentable. Les organisations peuvent choisir parmi les hyperscalers – Amazon Web Services, GCP de Google et Microsoft Azure – ainsi que des fournisseurs de cloud locaux ou plus spécialisés.

Mais comment mesurer les performances des services de stockage cloud ? Lorsque le stockage est sur site, il existe de nombreuses métriques bien établies pour nous permettent de suivre les performances de stockage. Dans le cloud, les choses peuvent être moins claires.

C’est en partie parce que lorsqu’il s’agit de stockage dans le cloud, le choix apporte de la complexité. Le stockage en nuage est disponible dans une gamme de formats, de capacités et de performances, y compris le stockage de fichiers, de blocs et d’objets, les systèmes basés sur disque dur, le stockage VM, NVMe, SSD et même bande, ainsi que la technologie qui fonctionne sur une base « de type cloud » sur site.

Cela peut rendre la comparaison et la surveillance des instances de stockage cloud plus difficiles que pour le stockage sur site. Ainsi que les mesures de performances de stockage conventionnelles, telles que IOPS et le débit, les professionnels de l’informatique spécifiant des systèmes cloud doivent tenir compte de critères tels que le coût, la disponibilité du service et même la sécurité.

Métriques de stockage conventionnelles

Les métriques de stockage conventionnelles s’appliquent également dans le cloud. Mais ils peuvent être plus difficiles à défaire.

Les systèmes de stockage d’entreprise ont deux mesures principales de « vitesse » : débit et IOPS. Le débit est le taux de transfert de données vers et depuis les supports de stockage, mesuré en octets par seconde ; IOPS mesure le nombre de lectures et d’écritures (opérations d’entrée/sortie (E/S)) par seconde.

Dans ces mesures, les fabricants de matériel font la distinction entre les vitesses de lecture et les vitesses d’écriture, les vitesses de lecture étant généralement plus rapides.

Disque dur, les fabricants de SSD et de baies font également la distinction entre les lectures ou écritures séquentielles et aléatoires.

Ces mesures sont affectées par des éléments tels que le mouvement des têtes de lecture/écriture sur les plateaux de disque et par la nécessité d’effacer les données existantes sur le stockage flash. Les performances de lecture et d’écriture aléatoires sont généralement le meilleur guide des performances réelles.

Les fabricants de disques durs citent des chiffres de révolutions par minute (tr/min) pour les disques en rotation, généralement 7 200 tr/min pour le stockage grand public, et parfois 12 000 tr/min pour les systèmes d’entreprise de qualité supérieure et 5 400 tr/min pour le matériel moins performant. Ces mesures ne sont toutefois pas applicables au stockage à l’état solide.

Ainsi, plus les IOPS sont élevées, plus le système est performant. Les disques durs en rotation atteignent généralement la plage de 50 IOPS à 200 IOPS.

Les systèmes à semi-conducteurs sont nettement plus rapides. Sur le papier, une clé USB hautes performances peut atteindre 25 000 IOPS ou même plus. Cependant, les différences de performances réelles seront moindres une fois que le contrôleur de stockage, le réseau et d’autres surcharges telles que l’utilisation de RAID et mémoire cache sont pris en compte.

Latence est la troisième mesure de performance clé à prendre en compte. La latence est la rapidité avec laquelle chaque demande d’E/S est exécutée. Pour un système basé sur un disque dur, ce sera de 10 ms à 20 ms. Pour les SSD, c’est quelques millisecondes. La latence est souvent la mesure la plus importante pour déterminer si le stockage peut prendre en charge une application.

Métriques du cloud

Mais la traduction des métriques de stockage conventionnelles dans le cloud est rarement simple.

Habituellement, les acheteurs de stockage en nuage ne sauront pas exactement comment leur capacité est provisionnée. La combinaison exacte de flash, de disques rotatifs et même de bandes ou de supports optiques dépend du fournisseur de cloud et de ses niveaux de service.

La plupart des fournisseurs de cloud à grande échelle utilisent un mélange de matériel de stockage, de technologies de mise en cache et d’équilibrage de charge, ce qui rend les données de performances matérielles brutes moins utiles. Les fournisseurs de cloud proposent également différents formats de stockage, principalement bloc, fichier et objet – rendre les mesures de performance encore plus difficiles à comparer.

Les mesures varieront également en fonction des types de stockage qu’une organisation achète, car les hyperscalers offrent désormais plusieurs niveaux de stockage, en fonction des performances et du prix.

Ensuite, il existe des offres axées sur les services, telles que la sauvegarde et la restauration, et l’archivage, qui ont leurs propres métriques, telles que objectif de temps de récupération (RTO) ou les temps de récupération.

Le domaine le plus simple pour les comparaisons, du moins entre les grands fournisseurs de cloud, est le stockage par blocs.

La plate-forme cloud de Google, par exemple, répertorie les IOPS soutenues maximales et le débit soutenu maximal (en MBps) pour son stockage en bloc. Cela se décompose en IOPS en lecture et en écriture, et en débit par Go de données et par instance. Mais comme l’indique Google : “Les IOPS de disque persistantes et les performances de débit dépendent de la taille du disque, du nombre de processeurs virtuels de l’instance et de la taille des blocs d’E/S, entre autres facteurs.”

Google répertorie également une comparaison utile des performances de son infrastructure par rapport à un disque physique à 7 200 tr/min.

Microsoft publie des directives destiné aux utilisateurs informatiques qui souhaitent surveiller son stockage Blob (objet), qui sert d’amorce utile sur mesure des performances de stockage dans le monde Azure.

AWS a des conseils similaires autour de son offre Elastic Block Store (EBS). Encore une fois, cela peut guider les acheteurs à travers les différents niveaux de stockage, des SSD hautes performances au stockage à froid sur disque.

Coût, disponibilité du service… et autres mesures utiles

Le stockage dans le cloud étant un service payant à l’utilisation, le coût est toujours une mesure clé.

Encore une fois, tous les principaux fournisseurs de cloud ont des niveaux basés sur le coût et les performances. AWS, par exemple, propose des volumes SSD à usage général gp2 et gp3, des volumes optimisés pour les performances io1 et io2 et des volumes de disque dur axés sur le débit st1, destinés aux « grandes charges de travail séquentielles ». Les acheteurs voudront compiler leur propre analyse des coûts et des performances afin de faire des comparaisons similaires.

Mais les métriques de stockage cloud ne se limitent pas au coût et aux performances. Le coût par Go ou par instance doit être pris en compte aux côtés d’autres frais, y compris les frais d’entrée de données et en particulier les coûts de sortie ou de récupération de données. Certaines offres de stockage à long terme très bon marché peuvent devenir très coûteuses lorsqu’il s’agit de récupérer des données.

Une autre mesure est la capacité utilisable : quelle part du stockage acheté est réellement disponible pour l’application cliente, et à quel moment l’utilisation commencera-t-elle à avoir un impact sur les performances réelles ? Encore une fois, cela peut différer des chiffres pour la technologie sur site.

Les DSI voudront également examiner la disponibilité des services. La fiabilité des composants et des sous-systèmes de stockage est traditionnellement mesurée en temps moyen entre pannes (MTBF), ou pour les SSD, le plus récent téraoctets écrits au fil du temps (TBW).

Mais pour la fourniture de cloud à grande échelle, la disponibilité est une mesure plus courante et utile. Les fournisseurs de cloud utilisent de plus en plus des mesures de disponibilité ou de disponibilité de type datacenter ou télécom, avec “cinq neuf” souvent le SLA le meilleur et le plus cher.

Même alors, ces métriques ne sont pas les seuls facteurs à prendre en compte. Les acheteurs de stockage cloud devront également tenir compte de l’emplacement géographique, de la redondance, de la protection et de la conformité des données, de la sécurité et même de la solidité financière du fournisseur de cloud.

Bien qu’il ne s’agisse pas de mesures de performance au sens conventionnel du terme, si un fournisseur échoue, cela pourrait être un obstacle à l’utilisation de son service.

Leave a Reply

Your email address will not be published. Required fields are marked *