pressmaster - stock.adobe.com

Storage-Kapazität im Data Center richtig einschätzen

Mit Cloud-Storage und Deduplizierung lässt sich die Speicherkapazität erweitern, Anwendungsausfälle verhindern und die Leistung des Rechenzentrums aufrechterhalten.

Viele Unternehmen müssen mehr Festplatten beziehungsweise vollständige Storage-Arrays hinzufügen, um die Speicherkapazität zu erweitern, aber es gibt einige langfristige Maßnahmen, die wiederkehrenden Speichermangel verhindern können. Administratoren sollten ihre Rechenzentren überwachen, um sicherzustellen, dass sie Laufwerke und Systeme hinzufügen, die ihren Anforderungen an Speicherplatz, Leistung und Skalierbarkeit entsprechen. Darüber hinaus müssen sie ihre Anforderungen an die Storage-Tiers im Auge behalten. Dieses Monitoring kann es einem Unternehmen zudem ermöglichen, Einblicke in die Nutzung von Speicherressourcen zu gewinnen.

So kann beispielsweise Nagios XI die Dateigröße, die Festplattenausnutzung und die Anzahl der Dateien überwachen. Weitere Optionen, den Storage im Rechenzentrum zu überwachen, bieten Storage Performance Monitoring von AppDynamics und das Data Center Monitoring Tool von SolarWinds. Nach der Installation eines dieser Überwachungs-Tools sollten Administratoren es durchgängig verwenden, da es sie bei einer sinkenden Speicherkapazität Warnungen sendet.

Administratoren müssen entscheiden, welche Art von Speichergeräten ihr Unternehmen benötigt. Die meisten Anwendungen benötigen kein hochmodernes Solid-State-Laufwerk; viele Anwendung benötigen herkömmliche Festplatten, um ordnungsgemäß ausgeführt zu werden.

Viele Anwendungen arbeiten mit Serial-Attached-SCSI-Laufwerken, für die Snapshots, Backups und Archivspeicher oft besser geeignet sind, um die serielle Technologie voll auszunutzen. Der Kauf einer herkömmlichen Festplatte kann einem Unternehmen Geld sparen und mehr Speicherplatz bieten.

Weitere langfristige Alternativen, die Speicherkapazität von Rechenzentren zu optimieren, sind Daten-Deduplizierung oder Thin Provisioning.

Daten-Deduplizierung eliminiert redundante Daten. Nur eine Instanz von Daten wird auf einer Festplatte gespeichert. Die Post-Process-Deduplizierung entfernt kopierte Daten nach dem Schreiben. Redundante Daten werden durch einen so genannten Pointer (Zeiger) ersetzt. Der Pointer selbst gibt an, wo die Originaldatei zu finden ist. Dedup ist oft als native Funktion moderner Speicher-Arrays verfügbar, aber Administratoren können es nach dem Kauf eines Deduplizierungs-Tools auf verschiedenen Speicherressourcen implementieren.

Thin Provisioning weist jeder Anwendung Festplattenspeicher basierend auf dem minimalen Speicherbedarf zu, während herkömmliches Provisioning die Menge an Speicherplatz zuweist, die eine Anwendung im Laufe der Zeit benötigen könnte. Da Thin Provisioning nur so viel Speicherplatz bereitstellt, wie eine Anwendung zum Ausführen benötigt, müssen Administratoren im Laufe der Zeit mehr physischen Speicher hinzufügen. Thin Provisioning lässt zunächst etwas Freiraum, aber es ist eine Maßnahme, um Geld zu sparen, anstatt die Speicherkapazität des Rechenzentrums zu erhöhen.

Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Probleme der Speicherkapazität lösen

Storage: Kapazitätenverschwendung vermeiden

Hyperkonvergente Systeme: Storage-Erweiterungen umsetzen

Erfahren Sie mehr über Datensicherheit