RAM-Speicher erklärt

© Nicholas Kinney, 123RF

Hirnforschung

Virtualisierte Systeme treiben den RAM-Bedarf in die Höhe, Storage-Zugriffe gehen flotter, weil überschüssiger RAM als Pagecache hilft, und schließlich vermeidet ausreichend RAM den gefürchteten Performance-Killer Swapping. Höchste Zeit also, sich die aktuellen Random Access Memorys näher anzusehen.
Duell der Datenbanken: In einem Shootout messen sich MySQL und PostgreSQL. Der Schwerpunkt vom ADMIN 06/2011 überprüft, wer schneller ist und gibt einen ... (mehr)

Arbeitsspeicher dient Prozessoren in Computersystemen seit jeher als Speicher für die gerade auszuführenden Programme und ihre Daten. Seit den 80er-Jahren wird überschüssiger Arbeitsspeicher auch als Pagecache zum Cachen von Disk-Zugriffen verwendet [1] [2] . Als Technologie kommt seit Anfang 2000 Double Data Rate Synchronous Dynamic Random Access Memory (DDR-SDRAM) zum Einsatz. Im Gegensatz zum Vorläufer SDRAM überträgt DDR-SDRAM sowohl bei der steigenden als auch fallenden Flanke des Taktsignals Daten und verdoppelt damit die Datenrate.

DDR-SDRAM gibt es mittlerweile in drei Generationen, die vierte ist bereits in Arbeit ( Tabelle 1 ). Aktuelle Systeme nutzen DDR3. Da Server und Desktops aber meist über einen Zeitraum von drei bis fünf Jahren im Einsatz sind, findet sich in vielen Rechenzentren und Büros auch noch viel DDR2-Arbeitsspeicher. Für DDR4 gibt es erste Prototypen. Da aber die Energieeffizienz von DDR3 laufend verbessert wird und LR-DIMMs künftig noch höhere DDR3-Speicherkonfigurationen erlauben werden, erwarten Analysten eine signifikante Verbreitung von DDR4 erst ab 2014.

Fehlerkorrektur

Egal, welche DDR-Generation zum Einsatz kommt, zur Auswahl stehen immer herkömmliche Speichermodule und solche, die eine Fehlerkorrektur bieten. Letztere sind mit Mechanismen zur Fehlerkorrektur (Error-Correcting Code, ECC) ausgestattet und kommen vor allem im Serverbereich zum Einsatz. Der Vorteil liegt dabei auf der Hand: Durch den integrierten Hamming-Code können ECC-Speichermodule 1-Bit-Fehler erkennen und korrigieren, 2-Bit-Fehler werden zumindest noch erkannt. Mainboard und Prozessor müssen ECC für die Fehlerkorrektur unterstützen, andernfalls laufen ECC-Module ohne ECC. Erkennbar sind die fehlerkorrigierenden Module übrigens auch optisch an der Anzahl der aufgelöteten Speicherchips: Während herkömmliche Dual-Inline-Memory-Module (DIMMs) meist acht Speicherchips auf einer Seite haben, findet sich bei ECC DIMMs noch ein neunter Speicherchip. ECC-Module sind im Vergleich zu den herkömmlichen Modulen zwar etwas teurer, die höhere Zuverlässigkeit rechnet sich im Server-Betrieb aber allemal.

Pufferchips

In Desktop-Rechnern und Servern mit einem CPU-Sockel werden sogenannte Unbuffered DIMMs verwendet. Der Speichercontroller greift in diesem Fall direkt auf die Speicherchips zu. Das ermöglicht ein gutes Preis-/Leistungsverhältnis, da die Signale aber vom Speichercontroller bis in jeden Speicherchip laufen, sind dem maximalen Speicherausbau Grenzen gesetzt. Dual-CPU-Systeme verwenden aus diesem Grund andere Speichermodule, die Pufferchips oder Register enthalten und dadurch die Obergrenzen erhöhen. Bei den Dual-CPU-Systemen der Intel-Core-Microarchitektur (Xeon 5100, 5200, 5300 und 5400) kamen dazu Fully Buffered DIMMs (FB-DIMMs) auf Basis von DDR2 zum Einsatz.

Der auf den FB-DIMMs enthaltene Advanced Memory Buffer (AMB) erhöht allerdings den Energiebedarf und die Wärmeentwicklung, die Hersteller haben die Speichermodule daher mit Kühlblechen ausgestattet. Bei der folgenden Nehalem/Westmere-Microarchitektur (Xeon 5500 und 5600) wurden die FB-DIMMs durch Registered DIMMs auf Basis von DDR3 ersetzt. Durch den Registerchip laufen nur die CMD/ADDR/CLK-Signalleitungen, nicht aber die Verbindungen für die eigentlichen Daten. Der Energiebedarf ist damit im Vergleich zu FB-DIMMs deutlich geringer. Einen weiteren Schritt gehen die bereits angekündigten Load-Reduced DIMMs (LR-DIMMs, Abbildung 1 ). Die haben zwar ähnlich wie FB-DIMMs einen Puffer (Isolation Memory Buffer, iMB), durch den alle Signalleitungen verlaufen. Der iMB arbeitet allerdings nicht wie der AMB von FB-DIMMs mit einem speziellen Signalprotokoll, sondern wie normale Registered DIMMs. Der Stromverbrauch soll durch den iMB daher nur gering steigen. Da bei LR-DIMMs alle Signalleitungen durch den iMB laufen, ist die elektrische Last für den Speichercontroller im Vergleich zu Registered DIMMs geringer. Gegenüber dem Speichercontroller verhalten sich LR-DIMMs wie ein Single Rank Modul. Die für 2012 erwarteten Dual-CPU-Systeme der Sandy-Bridge-Mikroarchitektur sollen als erste Systeme LR-DIMMs unterstützen.

Abbildung 1: Bei Load-Reduced DIMMs verlaufen alle Signalleitungen (einschließlich Daten) durch den Zwischenchip. Die elektrische Last ist für den Speichercontroller damit geringer.

Ähnliche Artikel

comments powered by Disqus
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Ausgabe /2023