April 29, 2024

PDFS

C'est en forgeant qu'on devient forgeron

Comment l’interconnexion CXL affectera le stockage d’entreprise

5 min read

Compute Express Link est une interconnexion de mémoire open source. Il spécifie comment fournir des interconnexions hautes performances entre la mémoire et les CPU, GPU, TPU et autres processeurs.

Conçu pour une vitesse, une latence et une cohérence des ressources partagées optimales, CXL aura un effet sur les futures architectures de stockage de données. Bien que cela puisse prendre un certain temps, les administrateurs peuvent prendre des mesures dès maintenant pour mieux comprendre l’interconnexion CXL et son fonctionnement.

Quelques informations sur CXL

Les fournisseurs, notamment Intel, AMD et Nvidia, prennent en charge CXL.

La technologie est devenue un sujet tendance lorsque le fournisseur de mémoire et de stockage Micron a décidé de s’éloigner de 3D XPoint — une technologie de stockage de mémoire que la société a développée conjointement avec Intel — pour se concentrer plutôt sur CXL pour ses activités DRAM et NVDIMM. La justification déclarée de Micron, selon Sumit Sadana, directeur commercial de la société, est que les opportunités les plus importantes résident dans la mémoire plus performante, les capacités de mémoire et la bande passante mémoire améliorée fournies par CXL.

CXL utilise PCIe interfaces physiques et électriques. Il améliore les performances sur PCIe avec trois protocoles transactionnels :

  1. CXL.io. Le protocole CXL principal, et très similaire à PCI Express 5.0., CXL.io est utilisé pour la virtualisation, la configuration, la découverte de périphériques, les interruptions, l’accès aux registres et l’accès direct à la mémoire en masse.
  2. CXL.cache. Un protocole facultatif qui permet aux accélérateurs de mettre en cache la mémoire système pour activer la cohérence CXL.
  3. CXL.memory. Un protocole facultatif qui accorde aux processeurs hôtes un accès direct à la mémoire attachée à l’accélérateur. Le CPU, le GPU ou le TPU considère cette mémoire attachée à l’accélérateur comme un espace d’adressage supplémentaire, ce qui augmente l’efficacité et réduit la latence.

Le problème important que CXL résout est qu’il élimine les interconnexions de mémoire propriétaires. Sans CXL, chaque CPU, GPU et TPU a une connexion propriétaire à la mémoire. CXL est la norme ouverte reconnue par l’industrie. Cela permet à différents processeurs de partager des pools de mémoire – une capacité qui est particulièrement importante pour Réseaux de neurones d’IA, les systèmes d’apprentissage automatique et d’apprentissage automatique profond qui utilisent couramment des processeurs, des GPU et des TPU.

L’interconnexion CXL pour la mémoire est analogue à NVMe pour les SSD flash PCIe. Avant la norme ouverte de l’industrie NVMe, le SSD flash PCIe de chaque fournisseur avait un pilote propriétaire qui ne fonctionnait pas avec les autres SSD flash PCIe. Considérez que la mémoire persistante Optane DC et la mémoire persistante (PMem) d’Intel ne peuvent être utilisées aujourd’hui que par les processeurs Intel. C’est parce qu’il existe une interconnexion propriétaire vers PMem à partir du CPU. Intel a cependant déclaré que il entend soutenir CXL pour PMem à l’avenir.

Les effets de CXL sur le stockage

Il est évident que les serveurs bénéficieront considérablement de CXL. Mais le stockage?

Comme toutes les technologies, cela dépend du logiciel de stockage. CXL permettra aux systèmes de stockage de profiter de pools de mémoire beaucoup plus grands pour la mise en cache. Si le logiciel ou le système de stockage utilise la mémoire comme cache, il bénéficiera de CXL. À l’heure actuelle, le plus grand cache DRAM dans un système de stockage commercial est de 3 To. Sur la base du fait que les systèmes de stockage de plusieurs pétaoctets sont assez courants, 3 To ne sont pas beaucoup pour le cache.

L’interconnexion CXL va permettre de nouvelles architectures de stockage intelligentes.

Certains stockage défini par logiciel peut tirer parti d’Intel Optane PMem pour étendre ce cache à 4,5 To avec le utilisation de MemVerge ou alors Formule Noir – mais c’est tout. Des pools de mémoire plus importants équivalent à un pourcentage plus élevé de succès du cache de lecture et à une meilleure utilisation des médias grâce à la mise en cache d’écriture et à la fusion d’écriture. Le stockage défini par logiciel dans une infrastructure hyperconvergée bénéficiera également des pools de mémoire CXL.

Mais là où le stockage bénéficiera le plus de CXL, ce sera probablement Intel Optane PMem. C’est exact — c’est la même technologie 3D XPoint Micron abandonne se concentrer sur la mémoire CXL. PMem compatible CXL pourra fonctionner avec des processeurs autres que ceux d’Intel. C’est une expansion du marché. Le CXL PMem permettra des pools beaucoup plus importants de cette mémoire non volatile.

Depuis le deuxième trimestre 2021, PMem dans un système de stockage n’est utilisé que dans les serveurs de stockage Oracle Exadata. Cette architecture le rend disponible pour tous les serveurs de base de données du système Exadata. Mais chaque serveur de stockage est limité à 1,5 To de PMem par serveur de stockage, ou jusqu’à 27 To par rack. Le PMem compatible CXL peut potentiellement étendre cela d’un ordre de grandeur ou plus.

L’interconnexion CXL va permettre de nouvelles architectures de stockage intelligentes. Mais ne vous y attendez pas à court terme. La dernière version 2.0 de CXL profite spécifiquement de la spécification PCIe 5.0 pour améliorer radicalement la bande passante mémoire. C’est un point très important. Les serveurs et les systèmes de stockage basés sur PCIe 4.0 viennent d’être disponibles au deuxième trimestre 2021. Les systèmes de stockage PCIe 5.0 ne seront probablement pas disponibles en quantité avant la fin de 2021 dans le meilleur des cas. Plus probablement, ce sera en 2022.

Pourtant, il existe un potentiel important de mémoire massive – à la fois volatile et non volatile – dans les serveurs et les systèmes de stockage à venir. Nous devons juste rester à l’écoute.

Leave a Reply

Your email address will not be published. Required fields are marked *