Moderne Storage Subsysteme, wie zum Beispiel die Compellent
von Dell, verfügen über verschiedene Ansätze, Daten auf den richtigen
Speichermedien zu halten.  Was aber
vermag das „richtige“ Speichermedium zu sein und wird damit umgegangen? Die
Diskussion ist in letzter Zeit vermehrt durch den Einsatz von Solid-State Disks
(SSDs) angeregt worden. Diese sehr schnellen Medien erlauben im Hinblick auf
Storage Systeme viele Einsatzmöglichkeiten. Als vollwertiger Tier als auch als
Caching Instanz. In diesem Zusammenhang wird dann gerne auch mal von „real-time“
Tiering gesprochen, ein Begriff, den auch Gartner in seinen Reports aufgenommen
hat.

In diesem Abschnitt möchte ich nicht auf den Einsatz von
SSDs als reiner Cache in Storage Systemen eingehen, sondern vielmehr die
Frage  beleuchten, worauf es beim Tiering
eigentlich ankommt.

Tiering – wie die meisten Innovationen in der IT – ist nicht
aus reinem Selbstzweck erfunden worden, sondern im Wesentlichen aus dem Grund,
um Kosten zu senken. Die Idee ist dabei, Daten entsprechend einer intelligenten
Software immer auf die Medien zu verschieben, die der Nutzung der Daten
entsprechen. Daten meint hier nicht zwangsläufig eine Datei im klassischen
Sinn, sondern einen Block mit Informationen.

Halten wir also Fest, die Hauptbedingung von Tiering ist,
Kosten zu senken. Die Nebenbedingung dabei ist, die Nutzer zufrieden zu
stellen. Es gilt also, das System so zu gestalten, dass es sich wie ein klassisches
Tier 1 System verhält aber viele Daten in Wirklichkeit auf niedrigeren Tiers
hält. Die Theorie funktioniert so lange gut, so lange ein System eine homogene
Workload hat. Interessant wird es, wenn Workloads sich deutlich ändern. Dies
passiert zum Beispiel beim Wechsel on Online auf Batchbetrieb oder auch von
einem Wochenende auf Montag.

In solchen Fällen lohnt es sich, nicht „real time“ zu sein,
sondern historisch Daten zu korrelieren. Warum ist das so? Ein System, was nahezu
in Echtzeit Daten zwischen den Tiers verschiebt, wird bei solchen deutlichen
Lastwechseln sehr schnell die neuen Daten aufnehmen müssen und die alten Daten
verschieben. Trotz schneller SSDs müssen diese von Festplatten gelesen und verschoben
werden. Kehrt dann nach einiger Zeit die alte Workload zurück, ist nicht mehr
viel davon auf schnellem Cacher untergebracht. Die Antwortzeiten werden in
solchen Fällen in der Regel schlecht sein, bis es sich auf das neue/alte
Verhalten eingestellt hat.

Anders bei Systemen, die eine gewisse Trägheit
implementieren. Hier sind z.b. nach einem Wochenende noch etliche der alten
Daten im schnellen Tier, so dass weit weniger verschoben werden muss. 


Fazit: SSD Caching ist zwar eine sinnvolle Ergänzung um ein Storage System zu beschleuningen, es ist jedoch kein Ersatz für ein sinnvoll agierendes Tiering. Ein Tiering wiederum sollte nicht überreagieren, sondern mittel- bis langfristige Trends umsetzen um eine solide Basisperformance auch bei plötzlichen Lastwechseln zu erbringen.