On-Premises oder Public Cloud? Welche Speicherlösungen ein Unternehmen benötigt

Ein Gastbeitrag von John Voss*

Anbieter zum Thema

Speicherkapazitäten in einer Public Cloud galten bislang als preisgünstige Alternative zu Storage-Ressourcen im Unternehmensrechenzentrum – bis die Cloud-Service-Provider die Preise erhöhten. Doch nicht nur deshalb werden Speichersysteme im eigenen Datacenter wieder interessanter. Allerdings sind bei der Auswahl der Komponenten für eine interne Storage-Umgebung mehrere Faktoren zu beachten.

Zurück aus der Cloud? Auf diese Faktoren kommt es bei der Wahl der On-Prem-Speichersysteme an.(Bild:  kiri - stock.adobe.com)
Zurück aus der Cloud? Auf diese Faktoren kommt es bei der Wahl der On-Prem-Speichersysteme an.
(Bild: kiri - stock.adobe.com)

Günstige Preise, eine große Flexibilität sowie eine hohe Verfügbarkeit: Mit solchen Argumenten werben die Anbieter von Storage-Services, die über eine Public Cloud bereitstehen. In der Tat haben solche Dienste etliche Stärken. Zu den bekanntesten zählt, dass Nutzer entsprechend dem aktuellen Bedarf objekt-, block- und dateibasierte Speicherressourcen buchen können. Die Gefahr eines Over- oder Under-Provisioning lässt sich dadurch minimieren.

Außerdem übernimmt der Service-Provider den Betrieb der Storage-Infrastruktur. Das entlastet die IT-Fachleute des Nutzers, ein wichtiger Faktor angesichts des Mangels an IT- und Storage-Spezialisten.

Die Schattenseiten von Cloud-Storage

Allerdings sprechen einige Argumente dafür, zumindest einen Teil der Daten im eigenen Rechenzentrum zu speichern. Ein Punkt sind die Kosten. Denn die Cloud-Service-Provider haben die Tarife deutlich erhöht, im Storage-Bereich bis um den Faktor zehn. Die Gründe: höhere Energiekosten und die Inflation.

Unternehmen speicherten 2022 die Mehrzahl der Daten in eigenen Rechenzentren oder Edge- und Remote-Standorten, nicht in Public Clouds. Auch in den kommenden Jahren wird ein beträchtlicher Teil der Datenbestände in Unternehmens-Datacentern sowie Niederlassungen vorgehalten. (Quelle: Report „Rethink Data“ von Seagate, inklusive Forschungs- und Analyseergebnissen von IDC, 2020)(Bild:  Seagate)
Unternehmen speicherten 2022 die Mehrzahl der Daten in eigenen Rechenzentren oder Edge- und Remote-Standorten, nicht in Public Clouds. Auch in den kommenden Jahren wird ein beträchtlicher Teil der Datenbestände in Unternehmens-Datacentern sowie Niederlassungen vorgehalten. (Quelle: Report „Rethink Data“ von Seagate, inklusive Forschungs- und Analyseergebnissen von IDC, 2020)
(Bild: Seagate)

Laut einer Analyse von IDC in Zusammenarbeit mit Seagate waren daher für 36 Prozent der Unternehmen die Kosten der ausschlaggebende Grund, Storage-Ressourcen wieder ins eigene Datacenter zu verlagern. Mehr als die Hälfte der Befragten (51 %) führten außerdem Bedenken in Bezug auf die Sicherheit und den Schutz der Daten an, rund 34 Prozent das komplexe Kosten- und Datenmanagement.

Datenschutz und komplexe Kostenmodelle

Der Speicherort der Daten ist speziell bei Public Clouds eine Herausforderung. Zum einen wegen des Datenschutzes. Denn laut der EU-Datenschutz-Grundverordnung (DSGVO) müssen Unternehmen in der EU sicherstellen, dass sensible Daten ausschließlich auf Servern in einem EU-Mitgliedsland gespeichert werden. Dies zu kontrollieren, ist in der Praxis jedoch kaum machbar.

Beim Kostenmanagement wiederum ist zu beachten, dass je nach Art des Storage-Services und der Region, in der ein Unternehmen diese Dienste nutzt, unterschiedliche Gebühren anfallen. Das ist beispielsweise der Fall, wenn ein Anwender Daten vom eigenen Rechenzentrum in eine Cloud transferiert – oder vice versa. Dann stellen Provider Egress- (Daten-Export) und Ingress-Gebühren (Import) in Rechnung.

Hinzu kommen weitere Kosten für die Nutzung von Netzwerkressourcen, wenn ein Unternehmen Daten zwischen Cloud-Datacentern in unterschiedlichen Regionen transferiert, etwa aus Gründen der Geo-Redundanz.

Zu berücksichtigen sind außerdem die Latenzzeiten bei der Datenübermittlung zwischen Cloud und Unternehmensrechenzentrum. Echtzeitanwendungen benötigen einen möglichst schnellen Zugriff auf Storage-Systeme. Das erfordert schnelle Datenleitungen, die jedoch in Deutschland immer noch teuer und zudem nicht in jeder Region verfügbar sind.

Datenspeicherung „On-Premises“ weiterhin gefragt

Ein Großteil dieser Nachteile lässt sich vermeiden, wenn ein Unternehmen Daten auf Speichersystemen im eigenen Datacenter ablegt. Eine Anforderung an Speicherlösungen im Unternehmensrechenzentrum ist, dass Nutzer diese individuell zusammenstellen können. Das lässt sich mit einem modularen „Baukastensystem“ erreichen. Damit die Komponenten eines solchen Baukastens reibungslos zusammenarbeiten, kann es von Vorteil sein, auf die Lösungen eines etablierten Anbieters von Storage-Systemen und Massenspeichern zurückzugreifen.

Ein modulares System kann folgende Grundelemente enthalten:

  • Systemvarianten für SAN, NAS sowie Block-, File- und Object-Storage, inklusive variabler Gehäuseversionen, für eine hohe Flexibilität und Skalierbarkeit.
  • Speichermedien: Mehrere Varianten von Festplatten (HDD) und SSDs in unterschiedlichen Größen und mit gängigen Schnittstellen.
  • Controller-Module mit ASICS (Application-Specific ICs) und mit Standard-Server-Prozessoren wie AMD Epyc.
  • Host-Interfaces mit hohen Datenraten: Es sollten mehrere Optionen vorhanden sein, etwa für 10- und 25-Gigabit-Ethernet, iSCSI mit 10 Gbit/s oder 25 Gbit/s, Fibre Channel mit 16 Gbit/s oder 32 Gbit/s und Serial-Attached SCSI (SAS, bis 12 Gbit/s).
  • Umfassende Software-Ausstattung, etwa mit Funktionen für den Datenschutz ADAPT Erasure Coding, die Selbstheilung von Datenträgern per ADR Autonoumous Drive Regeneration, das optionale Auto-Tiering zwischen SSDs und HDDs und das Disk Pooling.

Speicher für verschiedene Anforderungen

Zunächst ein Blick auf die Systemvarianten. Für Storage-Umgebungen in hauseigenen Rechenzentren sollten mehrere Optionen zur Verfügung stehen. Ein wichtiger Aspekt ist dabei die Erweiterbarkeit, etwa durch Scale-Up (Integration weiterer oder größerer Massenspeicher in ein Gehäuse) oder Scale-Out (Hinzufügen weiterer Systeme).

Für Blockspeicher kommen Storage-Arrays in Betracht, die sich mit Festplatten, Flash-Speicher und einer Mischung aus beiden (Hybrid) bestücken lassen. Zudem sollten die Systeme gängige Schnittstellen unterstützen, also Serial-Attached Storage (SAS), Fibre Channel (FC) und iSCSI sowie Gigabit-Ethernet mit Datenraten von mindestens 10 Gbit/s.

Vor allem für kleinere und mittelständische Unternehmen ist es wichtig, dass ein Systemanbieter Einstiegspakete bereitstellt. Dafür bieten sich Systeme in einem Chassis mit zwei Höheneinheiten und Platz für 12 oder 24 Laufwerke an. Den Unternehmen, die höhere Kapazitäten benötigen, sollte ein Anbieter einen Upgrade-Pfad anbieten, etwa in Form von Systemen der gleichen Lösungsfamilie, aber mit einem höheren Storage-Volumen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Für Anwendungen wie das Internet der Dinge und Data Analytics sind Object-Storage-Lösungen im Rechenzentrum eine gute Wahl. Wichtig bei hohen Datenvolumina ist zudem die Option, mehrere Controller im Storage-System einzusetzen, um den Durchsatz und die Fehlerredundanz zu erhöhen.

Angesichts der schnell wachsenden Datenmengen sollten für Storage-Systeme Festplatten mit hoher Kapazität verfügbar sein. Seagate stellt beispielsweise HDD-Modelle mit 22 Terabyte bereit. Technologien wie HAMR (Heat-Assisted Magnetic Recording) erweitern die Kapazität in Zukunft noch einmal auf mehr als 30 Terabyte.

SSD und HDD in Kombination

Für anspruchsvolle Anwendungen, die hohe IOPS-Raten (Input/Output Operations per Second) erfordern, ist ein Auto-Tiering zwischen Festplatten und SSDs anzuraten. In diesem Fall werden beispielsweise virtuelle Maschen (VM) beziehungsweise Virtual Machine Disks (VMDK) automatisch von einer Festplatte auf eine SSD mit höheren IOPS-Werten verlagert. Um die optimale Performance zu erreichen, sollten in diesem Fall etwa 20 Prozent der Storage-Kapazität eines Systems auf Flash-Speicher vorgehalten werden.

Hilfreich ist zudem, wenn der Nutzer ein solches Auto-Tiering separat buchen kann, etwa in Form eines Software-Add-ons. Dann hat er die Möglichkeit, eine solche Funktion erst dann zu ordern und zu bezahlen, wenn er diese tatsächlich benötigt.

Systeme mit Server-CPU oder ASIC

Welche Controller-Module und Host-Schnittstellen vorhanden sein sollen, hängt davon ab, für welchen Zweck ein Inhouse-Storage-System eingesetzt wird. Lösungen mit einem integrierten Standard-Serverprozessor, etwa von AMD (Epyc) oder Intel (Xeon), lassen sich beispielsweise nicht nur für das Storage-Management nutzen. Sie können auch weitere Aufgaben übernehmen, etwa im Bereich High Performance Computing (HPC) oder als Basis für eine Software-Defined-Storage-Plattform.

John Voss, Senior Sales Manager, Systems Lead Central & Eastern Europe, Seagate.(Bild:  Seagate)
John Voss, Senior Sales Manager, Systems Lead Central & Eastern Europe, Seagate.
(Bild: Seagate)

Alternativ sollten für den Aufbau einer Storage-Umgebung Systeme verfügbar sein, die das Speichermanagement übernehmen, dafür aber keinen separaten Server benötigen. Das lässt sich mithilfe eines ASIC im Controller erreichen. Er übernimmt die Verwaltung der Massenspeicher. Außerdem stellt er Funktionen bereit, um die Datenintegrität sicherzustellen und das System an einen SAN-Switch anzubinden.

* Der Autor: John Voss, Systems Lead Central & Eastern Europe bei Seagate.

(ID:49619208)