Speicherkapazitäten in einer Public Cloud galten bislang als preisgünstige Alternative zu Storage-Ressourcen im Unternehmensrechenzentrum – bis die Cloud-Service-Provider die Preise erhöhten. Doch nicht nur deshalb werden Speichersysteme im eigenen Datacenter wieder interessanter. Allerdings sind bei der Auswahl der Komponenten für eine interne Storage-Umgebung mehrere Faktoren zu beachten.
Zurück aus der Cloud? Auf diese Faktoren kommt es bei der Wahl der On-Prem-Speichersysteme an.
(Bild: kiri - stock.adobe.com)
Günstige Preise, eine große Flexibilität sowie eine hohe Verfügbarkeit: Mit solchen Argumenten werben die Anbieter von Storage-Services, die über eine Public Cloud bereitstehen. In der Tat haben solche Dienste etliche Stärken. Zu den bekanntesten zählt, dass Nutzer entsprechend dem aktuellen Bedarf objekt-, block- und dateibasierte Speicherressourcen buchen können. Die Gefahr eines Over- oder Under-Provisioning lässt sich dadurch minimieren.
Außerdem übernimmt der Service-Provider den Betrieb der Storage-Infrastruktur. Das entlastet die IT-Fachleute des Nutzers, ein wichtiger Faktor angesichts des Mangels an IT- und Storage-Spezialisten.
Die Schattenseiten von Cloud-Storage
Allerdings sprechen einige Argumente dafür, zumindest einen Teil der Daten im eigenen Rechenzentrum zu speichern. Ein Punkt sind die Kosten. Denn die Cloud-Service-Provider haben die Tarife deutlich erhöht, im Storage-Bereich bis um den Faktor zehn. Die Gründe: höhere Energiekosten und die Inflation.
Unternehmen speicherten 2022 die Mehrzahl der Daten in eigenen Rechenzentren oder Edge- und Remote-Standorten, nicht in Public Clouds. Auch in den kommenden Jahren wird ein beträchtlicher Teil der Datenbestände in Unternehmens-Datacentern sowie Niederlassungen vorgehalten. (Quelle: Report „Rethink Data“ von Seagate, inklusive Forschungs- und Analyseergebnissen von IDC, 2020)
(Bild: Seagate)
Laut einer Analyse von IDC in Zusammenarbeit mit Seagate waren daher für 36 Prozent der Unternehmen die Kosten der ausschlaggebende Grund, Storage-Ressourcen wieder ins eigene Datacenter zu verlagern. Mehr als die Hälfte der Befragten (51 %) führten außerdem Bedenken in Bezug auf die Sicherheit und den Schutz der Daten an, rund 34 Prozent das komplexe Kosten- und Datenmanagement.
Datenschutz und komplexe Kostenmodelle
Der Speicherort der Daten ist speziell bei Public Clouds eine Herausforderung. Zum einen wegen des Datenschutzes. Denn laut der EU-Datenschutz-Grundverordnung (DSGVO) müssen Unternehmen in der EU sicherstellen, dass sensible Daten ausschließlich auf Servern in einem EU-Mitgliedsland gespeichert werden. Dies zu kontrollieren, ist in der Praxis jedoch kaum machbar.
Beim Kostenmanagement wiederum ist zu beachten, dass je nach Art des Storage-Services und der Region, in der ein Unternehmen diese Dienste nutzt, unterschiedliche Gebühren anfallen. Das ist beispielsweise der Fall, wenn ein Anwender Daten vom eigenen Rechenzentrum in eine Cloud transferiert – oder vice versa. Dann stellen Provider Egress- (Daten-Export) und Ingress-Gebühren (Import) in Rechnung.
Hinzu kommen weitere Kosten für die Nutzung von Netzwerkressourcen, wenn ein Unternehmen Daten zwischen Cloud-Datacentern in unterschiedlichen Regionen transferiert, etwa aus Gründen der Geo-Redundanz.
Zu berücksichtigen sind außerdem die Latenzzeiten bei der Datenübermittlung zwischen Cloud und Unternehmensrechenzentrum. Echtzeitanwendungen benötigen einen möglichst schnellen Zugriff auf Storage-Systeme. Das erfordert schnelle Datenleitungen, die jedoch in Deutschland immer noch teuer und zudem nicht in jeder Region verfügbar sind.
Datenspeicherung „On-Premises“ weiterhin gefragt
Ein Großteil dieser Nachteile lässt sich vermeiden, wenn ein Unternehmen Daten auf Speichersystemen im eigenen Datacenter ablegt. Eine Anforderung an Speicherlösungen im Unternehmensrechenzentrum ist, dass Nutzer diese individuell zusammenstellen können. Das lässt sich mit einem modularen „Baukastensystem“ erreichen. Damit die Komponenten eines solchen Baukastens reibungslos zusammenarbeiten, kann es von Vorteil sein, auf die Lösungen eines etablierten Anbieters von Storage-Systemen und Massenspeichern zurückzugreifen.
Ein modulares System kann folgende Grundelemente enthalten:
Systemvarianten für SAN, NAS sowie Block-, File- und Object-Storage, inklusive variabler Gehäuseversionen, für eine hohe Flexibilität und Skalierbarkeit.
Speichermedien: Mehrere Varianten von Festplatten (HDD) und SSDs in unterschiedlichen Größen und mit gängigen Schnittstellen.
Controller-Module mit ASICS (Application-Specific ICs) und mit Standard-Server-Prozessoren wie AMD Epyc.
Host-Interfaces mit hohen Datenraten: Es sollten mehrere Optionen vorhanden sein, etwa für 10- und 25-Gigabit-Ethernet, iSCSI mit 10 Gbit/s oder 25 Gbit/s, Fibre Channel mit 16 Gbit/s oder 32 Gbit/s und Serial-Attached SCSI (SAS, bis 12 Gbit/s).
Umfassende Software-Ausstattung, etwa mit Funktionen für den Datenschutz ADAPT Erasure Coding, die Selbstheilung von Datenträgern per ADR Autonoumous Drive Regeneration, das optionale Auto-Tiering zwischen SSDs und HDDs und das Disk Pooling.
Speicher für verschiedene Anforderungen
Zunächst ein Blick auf die Systemvarianten. Für Storage-Umgebungen in hauseigenen Rechenzentren sollten mehrere Optionen zur Verfügung stehen. Ein wichtiger Aspekt ist dabei die Erweiterbarkeit, etwa durch Scale-Up (Integration weiterer oder größerer Massenspeicher in ein Gehäuse) oder Scale-Out (Hinzufügen weiterer Systeme).
Für Blockspeicher kommen Storage-Arrays in Betracht, die sich mit Festplatten, Flash-Speicher und einer Mischung aus beiden (Hybrid) bestücken lassen. Zudem sollten die Systeme gängige Schnittstellen unterstützen, also Serial-Attached Storage (SAS), Fibre Channel (FC) und iSCSI sowie Gigabit-Ethernet mit Datenraten von mindestens 10 Gbit/s.
Vor allem für kleinere und mittelständische Unternehmen ist es wichtig, dass ein Systemanbieter Einstiegspakete bereitstellt. Dafür bieten sich Systeme in einem Chassis mit zwei Höheneinheiten und Platz für 12 oder 24 Laufwerke an. Den Unternehmen, die höhere Kapazitäten benötigen, sollte ein Anbieter einen Upgrade-Pfad anbieten, etwa in Form von Systemen der gleichen Lösungsfamilie, aber mit einem höheren Storage-Volumen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Für Anwendungen wie das Internet der Dinge und Data Analytics sind Object-Storage-Lösungen im Rechenzentrum eine gute Wahl. Wichtig bei hohen Datenvolumina ist zudem die Option, mehrere Controller im Storage-System einzusetzen, um den Durchsatz und die Fehlerredundanz zu erhöhen.
Angesichts der schnell wachsenden Datenmengen sollten für Storage-Systeme Festplatten mit hoher Kapazität verfügbar sein. Seagate stellt beispielsweise HDD-Modelle mit 22 Terabyte bereit. Technologien wie HAMR (Heat-Assisted Magnetic Recording) erweitern die Kapazität in Zukunft noch einmal auf mehr als 30 Terabyte.
SSD und HDD in Kombination
Für anspruchsvolle Anwendungen, die hohe IOPS-Raten (Input/Output Operations per Second) erfordern, ist ein Auto-Tiering zwischen Festplatten und SSDs anzuraten. In diesem Fall werden beispielsweise virtuelle Maschen (VM) beziehungsweise Virtual Machine Disks (VMDK) automatisch von einer Festplatte auf eine SSD mit höheren IOPS-Werten verlagert. Um die optimale Performance zu erreichen, sollten in diesem Fall etwa 20 Prozent der Storage-Kapazität eines Systems auf Flash-Speicher vorgehalten werden.
Hilfreich ist zudem, wenn der Nutzer ein solches Auto-Tiering separat buchen kann, etwa in Form eines Software-Add-ons. Dann hat er die Möglichkeit, eine solche Funktion erst dann zu ordern und zu bezahlen, wenn er diese tatsächlich benötigt.
Systeme mit Server-CPU oder ASIC
Welche Controller-Module und Host-Schnittstellen vorhanden sein sollen, hängt davon ab, für welchen Zweck ein Inhouse-Storage-System eingesetzt wird. Lösungen mit einem integrierten Standard-Serverprozessor, etwa von AMD (Epyc) oder Intel (Xeon), lassen sich beispielsweise nicht nur für das Storage-Management nutzen. Sie können auch weitere Aufgaben übernehmen, etwa im Bereich High Performance Computing (HPC) oder als Basis für eine Software-Defined-Storage-Plattform.
John Voss, Senior Sales Manager, Systems Lead Central & Eastern Europe, Seagate.
(Bild: Seagate)
Alternativ sollten für den Aufbau einer Storage-Umgebung Systeme verfügbar sein, die das Speichermanagement übernehmen, dafür aber keinen separaten Server benötigen. Das lässt sich mithilfe eines ASIC im Controller erreichen. Er übernimmt die Verwaltung der Massenspeicher. Außerdem stellt er Funktionen bereit, um die Datenintegrität sicherzustellen und das System an einen SAN-Switch anzubinden.
* Der Autor: John Voss, Systems Lead Central & Eastern Europe bei Seagate.