November 21, 2024

PDFS

C'est en forgeant qu'on devient forgeron

Différences entre les deux types de mémoire

6 min read

RAM signifie mémoire vive. Tout fichier ou application activement utilisé sur un ordinateur est stocké dans la mémoire RAM principale. Cacher est une configuration de mémoire plus petite réservée à partir de la mémoire principale pour rendre les opérations informatiques plus efficaces. Le cache est plus proche de l’unité centrale (CPU) que de la mémoire principale, permettant des performances optimales lorsque les utilisateurs accèdent à certains types de données.

La mémoire volatile ne peut pas conserver les données sans un accès continu à une source d’alimentation. Les périphériques fabriqués avec une mémoire non volatile – qui stockent des données même lorsqu’une source d’alimentation est perdue – peuvent être ajoutés en tant que cache externe ou secondaire à la plupart des ordinateurs. Cependant, cet article compare la RAM en tant que mémoire de stockage avec la RAM en tant que cache disque.

Qu’est-ce que la RAM ?

Les ordinateurs sont équipés de stockage de données et composants de mémoire. Les disques durs ou, plus généralement, les disques SSD fournissent un stockage de données interne et la RAM fournit la mémoire de travail pour les applications et les fichiers.

La mémoire RAM principale agit comme un stockage interne rapide pour le CPU. Les ordinateurs de bureau, ordinateurs portables, smartphones, téléviseurs intelligents, tablettes et autres appareils informatiques contiennent de la RAM. RAM dynamique (DRACHME) est un type de RAM qui contient le système d’exploitation et les données d’application pour permettre au processeur d’y accéder rapidement.

La RAM a ses limites. Une fois que la RAM d’un ordinateur se remplit, son processeur doit créer de la mémoire virtuelle pour compenser le manque de mémoire physique.

La RAM est intégrée à la carte mère et accessible par le processeur via un fond de panier de carte mère. Un composant de mémoire RAM est constitué d’une série de puces semi-conductrices qui constituent les cellules de mémoire. Les cellules gèrent les lectures et écritures de données. Lorsque les utilisateurs travaillent sur un document Word, toutes les modifications sont stockées dans la RAM. En règle générale, lorsque l’utilisateur ferme ce document, les données sont sauvegardées sur le stockage interne de l’ordinateur, un périphérique de stockage secondaire ou le cloud.

Lors du démarrage d’un ordinateur, le système d’exploitation place le code d’application et jeux d’instructions dans la RAM pour accéder au lecteur et réveiller d’autres composants. « Accès aléatoire » signifie que les cellules RAM sont accessibles dans n’importe quel ordre, ce qui permet aux utilisateurs de se déplacer facilement entre plusieurs applications – par exemple, de passer d’un onglet de navigateur à l’autre.

Dans le classique ordinateur von Neumann, la RAM était le “tableau” où les processeurs faisaient le calcul d’un programme. Le fait de placer le magasin de données plus près du processeur évite les demandes de données et les réponses qui doivent traverser le bus de la carte mère. Cela réduit le temps d’attente ou la latence associé au traitement et améliore les performances de la puce.

Mais la RAM a ses limites. Une fois que la RAM d’un ordinateur se remplit, son processeur doit créer mémoire virtuelle pour compenser le manque de mémoire physique. La mémoire virtuelle est créée en transférant temporairement des données inactives de la RAM vers le stockage sur disque, en utilisant la mémoire active dans la RAM et la mémoire inactive dans les disques durs pour former des adresses contiguës qui contiennent une application et ses données.

La mémoire flash fournit un cache supplémentaire au niveau du support magnétique – sur les contrôleurs de disque – pour réduire la latence, en particulier lorsque les capacités du disque augmentent et que l’accès aux données augmente. Il y a des spéculations selon lesquelles le stockage flash, en particulier les SSD, déplacer les disques durs magnétiques comme support de stockage de production.

Qu’est-ce que le cache ?

Le terme cache fait généralement référence au matériel ou aux logiciels qui stockent temporairement les données fréquemment consultées.

Le cache est un composant de mémoire qui fait généralement partie du processeur ou d’un complexe comprenant le processeur et un chipset adjacent. La mémoire contient des données et des instructions auxquelles un programme en cours d’exécution accède fréquemment, généralement à partir d’emplacements de mémoire basés sur la RAM.

Le cache fournit une petite quantité de mémoire plus rapide qui est locale pour les clients de cache, tels que le processeur, les applications, les navigateurs Web et les systèmes d’exploitation, et est rapidement accessible. L1, L2 et L3 sont des niveaux différents de mémoire cache. Tous les types de mémoire cache sont utilisés pour réduire les temps d’accès et la latence, tout en améliorant les E/S. Étant donné que presque toutes les charges de travail des applications dépendent des opérations d’E/S, la mise en cache améliore performances des applications. Un accès aux données et des E/S plus rapides améliorent également les performances de l’ordinateur.

Étant donné qu’elle est directement intégrée au processeur, la mémoire cache L1 fournit l’accès le plus rapide possible aux emplacements de mémoire, ce qui permet des performances de processeur plus rapides. Le cache L2 peut être intégré au processeur, mais le plus souvent il est placé sur une puce adjacente au CPU, tout comme le cache L3. En conséquence, les puces adjacentes qui contiennent le cache mémoire L2 et L3 peuvent être un peu plus lentes et ont généralement un chemin direct vers le processeur pour optimiser les performances.

Cache vs RAM : quelles sont les différences ?

Il existe plusieurs différences clés entre la RAM et la mémoire cache.

Graphique comparant la RAM et la mémoire cache
  • Usage. La RAM fournit un accès à court terme aux applications et aux fichiers s’exécutant en arrière-plan. Une RAM insuffisante obligera un système à travailler pour traiter les données. Mais la RAM est chère et ne doit être ajoutée que si l’amélioration des performances justifie le coût. Le cache fournit des données récurrentes au processeur chaque fois qu’il est demandé. Cela inclut les données avec des modèles d’accès communs ou des calculs qui prendraient trop de temps à calculer sur une base répétitive.
  • Capacité. La plupart des ordinateurs modernes sont construits avec une architecture informatique 64 bits et 32 ​​Go de RAM, avec une RAM supplémentaire disponible via des cartes d’extension. Mémoire cache supplémentaire est disponible dans des capacités allant jusqu’à 512 Ko.
  • Proximité du processeur. En comparant le cache par rapport à la RAM, les deux sont situés près du processeur de l’ordinateur. Les deux offrent des performances élevées. Au sein du hiérarchie de la mémoire, le cache est plus proche et donc plus rapide que la RAM.
  • Coût. Le cache est constitué de cellules RAM statiques (SRAM) conçues avec quatre ou six transistors. La SRAM est plus chère à fabriquer que les autres types d’ordinateurs mémoire et stockage, y compris les disques durs et SSD.
  • Opérations. Le cache fournit une interface mémoire directe au CPU. Les cellules RAM sont accessibles directement dans n’importe quel ordre.
  • Performance. Le cache du processeur est intégré au processeur ou sur une puce adjacente. Son temps d’accès à la mémoire serait 10 à 100 fois plus rapide que la RAM, ne nécessitant que quelques nanosecondes pour répondre à la demande du processeur. L’accès aux données RAM est plus rapide que mémoire en lecture seule et les périphériques de stockage mécaniques, tels que les disques durs et les bandes. Les supports magnétiques délivrent des E/S à des taux mesurés en millisecondes.

Cet article a été écrit à l’origine par Jon Toigo et plus récemment développé par Garry Kranz.

Leave a Reply

Your email address will not be published. Required fields are marked *