Neue Schnittstellen und Zertifikate auf der Open-Source-Wolke in Aussicht Red Hat münzt seine Produkte auf Big Data und Open Hybrid Clouds

Redakteur: Ulrike Ostler

Dass Open-Source für die Cloud nicht das Schlechteste ist und Red Hat weit mehr im Portfolio hat als ein Linux-Derivat, hat sich schon herumgesprochen. Jetzt wird das Unternehmen sein „Red Hat Storage Hadoop Plug-in“ der Apache-Hadoop-Community zur Verfügung stellen und die Big-Data-Infrastrukturprodukte sowie die Applikationsplattformen fit machen für hybride Clouds.

Firma zum Thema

Open Source Software gilt nicht nur Vereinzelten als Grundlage für Big Dta und Cloud Computing.
Open Source Software gilt nicht nur Vereinzelten als Grundlage für Big Dta und Cloud Computing.
(Quelle: Linux Foundation Enterprise Linux User Report)

Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, hat in der vergangenen Woche seine Strategie und Lösungen für Big Data vorgestellt. Sie sollen Unternehmen damit in die Lage versetzen, zuverlässige, skalierbare und einfach zu verwaltende Big-Data-Analytics-Applikationen zu erstellen und zu betreiben.

Die Strategie konzentriert sich auf drei Hauptbereiche: Dazu gehört der Ausbau des Produktportfolios erstens bei Infrastrukturlösungen und zweitens bei Applikationsplattformen sowie drittens der Aufbau von Partnerschaften mit führenden Big-Data-Analytics-Anbietern und Systemintegratoren.

Doch schon jetzt seien die Big-Data-Infrastrukturlösungen und die Applikationsplattformen von Red Hat bestens für den Einsatz in Open-Hybrid-Clouds geeignet, teilt das Unternehmen mit. In enger Kooperation mit der Open Source Community unterstützt Red Hat Kunden, die Big-Data-Anwendungen einsetzen.

Vorbilder bei den Cloud-Giganten

Viele Unternehmen weltweit nutzen Public Clouds, wie Amazon Web Services (AWS), für die Entwicklung, ein Proof-of-Concept und in der Pre-Production-Phase von Big-Data-Projekten. Anschließend übertragen sie die Ergebnisse in Private Clouds und bearbeiten mit ihren Analytics-Anwendungen sehr große Datenmengen.

Eine Open Hybrid Cloud ermöglicht Unternehmen, ihre Applikationen ohne Anpassungen von einer Public in eine Private Cloud zu übertragen. Red Hat engagiert sich im Rahmen von Projekten wie Openstack und Openshift Origin intensiv in der Open Cloud Community, um Unternehmen heute und in Zukunft optimal bei Big-Data-Projekten zu unterstützen.

Zertifizierte und dokumentierte Referenz-Architekturen sollen Unternehmen schließlich bei der Integration und Implementierung komplexer Big-Data-Lösungen unterstützen können.

... ist alles schon da!

Aktuell bietet Red Hat bereits eine Reihe von Lösungen an, mit denen Unternehmen Big-Data-Applikationen erstellen und betreiben können.

Dazu zählt Red Hat zunächst einmal das „Red Hat Enterprise Linux“ (RHEL): Dem „Linux Foundation Enterprise Linux User Report“ zufolge läuft die Mehrheit der Big-Data-Anwendungen unter Linux. Gleichzeitig ist Red Hat Enterprise Linux, die führende Lösung unter den kommerziellen Linux-Distributionen (IDC Worldwide Linux Client & Server Operating Environments 2012 – 2016 Forecast and 2011 Vendor Shares), die bedeutendste Plattform für Big-Data-Applikationen.

Red Hat Enterprise Linux biete eine hohe Leistung in verteilten Architekturen und enthält umfangreiche Features für Big Data. Die Verarbeitung riesiger Datenvolumina und anspruchsvolle Analytics-Berechnungen erfordern eine performante, zuverlässige, ressourceneffiziente und skalierbare Server- und Storage-Infrastruktur.

Red Hat Enterprise Linux adressiert diese Herausforderungen und bietet umfangreiche Features, um leistungsfähige Big-Data-Applikationen zu erstellen und sicher zu integrieren, die mit der hohen Geschwindigkeit mithalten können, mit der Daten generiert, analysiert und transferiert werden. Dies kann in der Cloud erfolgen, wo es einfacher ist, Daten aus einer Vielzahl von Quellen zu speichern, zu aggregieren und zu optimieren sowie sie plattformübergreifend zu integrieren – unabhängig davon, ob sie sich in physischen, virtuellen oder Cloud-Umgebungen befinden.

Betriebssysten + Storage

Dazu kommt der „Red Hat Storage Server“: Auf Basis von Red Hat Enterprise Linux und dem verteilten Dateisystem „GlusterFS“ können Unternehmen mit der Softwarelösung Red Hat Storage Server einen Pool standardbasierter Server-Systeme miteinander verbinden. Das kann zu einer kostengünstigen, skalierbaren und zuverlässigen Big-Data-Umgebung führen, so das Unternehmen.

Für die Zukunft plant das Unternehmen, sein Red Hat Storage Hadoop Plug-in der Apache Hadoop Community zur Verfügung zu stellen. Das Ziel: Red Hat Storage soll zu einem Hadoop-kompatiblen Dateisystem für Big-Data-Umgebungen weiterentwickelt werden.

Das Plug-in ist aktuell als Technology Preview erhältlich und bietet eine neue Storage-Option für den Unternehmenseinsatz von Hadoop, wobei die API-Kompatibilität beibehalten wird und ein lokaler Datenzugriff möglich ist, wie ihn die Hadoop-Community erwartet.

Betriebssystem + Storage + Virtualisierung

Red Hat Storage Server bietet leistungsfähige Features für Big-Data-Applikationen wie Geo Replication, High Availability, POSIX-Compliance, Disaster-Recovery und -Management – unabhängig vom Ort der Datenspeicherung und unter Beibehaltung der API-Kompatibilität. Unternehmen erhalten damit eine vereinheitlichte Daten- und Scale-out-Storage-Software-Plattform, mit der sie Datei- und Objekt-basiert in physischen und virtuellen Umgebungen sowie in Public und Hybrid Clouds arbeiten können.

Integrativer Bestandteil der Angebotspalette ist „Red Hat Enterprise Virtualization“: Der Storage-Server ist auf die Version 3.1 abgestimmt und ermöglicht eine gemeinsame, sichere Nutzung eines Speicher-Pool, der von Red Hat Storage Server verwaltet wird. Diese Integration bietet laut Red Hat durch geringere Betriebskosten, eine bessere Portabilität, freie Wahl bei der Infrastruktur, Skalierbarkeit, Verfügbarkeit und den Innovationen, wie sie durch die oVirt- und Gluster-Projekte gefördert werden.

Durch die Kombination dieser Plattformen könne das Unternehmen zudem seine Open-Hybrid-Cloud-Strategie konsequent umsetzen: Es entstehe ein integrierter und konvergenter Knoten – aus Red Hat Storage Server und Red Hat Enterprise Virtualization, der gleichzeitig Rechen- und Speicherressourcen bereitstellt.

Betriebssystem + Storage + Virtualisierung + Middleware

Schließlich interpretiert das Unternehmen seine „JBoss Middleware“ als hybrid-cloud-fähig. Sie biete Unternehmen leistungsfähige Funktionen für die Erstellung und die Integration von Big-Data-Applikationen, die mit neuen Techniken wie Hadoop oder „MongoDB“ arbeiten.

Big Data bringe nur dann einen Mehrwert, wenn Unternehmen schnell Informationen zur Verfügung hätten und darauf intelligent reagieren könnten. Lösungen, die mit Red Hat JBoss Middleware erstellt wurden, könnten mit Hilfe schneller Messaging-Technologien Hadoop mit sehr großen Mengen unterschiedlichster Daten versorgen.

Sie vereinfachten zudem die Zusammenarbeit mit MongoDB via „Hibernate OGM“ und verarbeiteten große Datenvolumina einfach und schnell mit „Red Hat JBoss Data Grid“. Die JBoss-Enterprise-Services-Plattform ermöglicht zudem einen Zugriff auf Hadoop und auf traditionelle Datenquellen.

Aber eine Mustererkennung in Datenströmen zur Identifizierung von Chancen und Risiken ist mit JBoss Enterprise BRMS ebenfalls möglich. Das Middleware-Portfolio von Red Hat biete Unternehmen eben eine umfangreiche Unterstützung bei Big Data, so Red Hat.

Das sagt der Analyst:

Ashish Nadkarni, Research Director Storage Systems und co-lead Big Data Global Overview bei IDC, sieht das positive: „Red Hat ist bestens im Bereich der Enterprise-Big-Data-Solutions positioniert, einem Markt, der IDC zufolge von 6 Milliarden Dollar auf 23,8 Milliarden Dollar im Jahr 2016 wachsen wird.“

Das Unternehmen sei zudem einer der wenigen Infrastrukturanbieter, die eine umfassende Big-Data-Lösung bereitstellen könnten. „Grund dafür ist das breite Spektrum von Infrastrukturlösungen und Applikationsplattformen für den Einsatz im Rechenzentrum vor Ort oder in der Cloud. Red Hat steuert in den Open Source Communities wichtige Beiträge zur Entwicklung eines Big-Data-IT-Stack bei – von Linux über Openstack Origin bis zu Gluster – und wird daher auch in Zukunft eine zentrale Rolle bei Big Data spielen.“

Artikelfiles und Artikellinks

(ID:38329540)