Definition: Microservices als Basis von Cloud native Applikationen

Was sind Microservices?

| Autor / Redakteur: Stefan Luber / Florian Karlstetter

Microservices - kleine entkoppelte Dienste für den modularen Aufbau von Anwendungen.
Microservices - kleine entkoppelte Dienste für den modularen Aufbau von Anwendungen. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Bei Microservices handelt es sich um kleine entkoppelte Prozesse, die einzelne Funktionen für eine Anwendungssoftware bereitstellen. Sie ermöglichen den modularen Aufbau von Software und bilden die Basis von Cloud native Applikationen, die die Vorteile von Cloud-Umgebungen voll ausschöpfen.

Microservices ermöglichen es, komplexe Anwendungen mit Hilfe einer Architektur bestehend aus vielen kleinen voneinander entkoppelten Diensten und Prozessen zu realisieren. Die Microservices kommunizieren über Schnittstellen und stellen der Applikation jeweils einzelne Funktionen und Dienste zur Verfügung. Selbst komplexe Anwendungssoftware kann auf Basis von Microservices modular entwickelt und umgesetzt werden.

Cloud native, Container, Docker & Co.: Definitionen rund um Cloud Computing

Definitionen rund um Cloud ComputingVon AWS bis XaaS: Alle relevanten Schlagworte aus dem Bereich Cloud Computing finden Sie verständlich erklärt in unseren Definitionen. Ganz im Sinne eines kleinen, aber feinen Glossars lesen Sie hier neutral verfasste und leicht verständliche Erklärungen zu den wichtigsten Begriffen. Als Service für Sie haben wir die hier erklärten Begriffe in unseren Beiträgen auch direkt mit den zugehörigen Lexikoneinträgen verlinkt. So können Sie die wichtigsten Begriffe direkt dort nachschlagen, wo sie im Text auftauchen.  

Zum Special: Definitionen rund um Cloud Computing

Die einzelnen Microservices sind voneinander unabhängig und können auf verschiedenen Rechnern in verteilten Umgebungen oder auf Cloud-Plattformen laufen. Das Starten, Stoppen, Updaten und Skalieren der Services ist ohne eine gegenseitige Beeinflussung möglich. Für so genannte Cloud native Anwendungen, die die Möglichkeiten und Vorteile von Cloud-Umgebungen voll ausschöpfen, bilden Microservices und Container bestehend aus Microservices die Funktionsbasis.

Typische Merkmale von Microservices

Typisches Merkmal eines Microservices ist, dass er nur wenige oder nur eine einzige Aufgabe erledigt. Er ist auf diese spezialisiert und für die Aufgabe optimiert. Der Umfang der Aufgaben bleibt überschaubar und Services sind einfach ersetzbar. Betreut werden die Microservices von kleinen Entwicklerteams, die Veränderungen oder Anpassungen schnell und flexibel vornehmen können. Die Entwicklerteams sind für einen Microservice oder für fachlich zusammengehörige Microservices zuständig und bestehen in der Regel aus vier bis maximal sieben Personen. Im Vordergrund steht der Nutzen für die übergeordnete Anwendung.

Um mit der Anwendung oder gegebenenfalls mit anderen Microservices zu kommunizieren, verwenden die Services standardisierte Schnittstellen und Protokolle. Durch die Kommunikation über Schnittstellen, sind die Details der Implementierung nach außen verborgen. Für die Anwendung ist nicht ersichtlich, welche Technologie oder Architektur für die Erbringung der Leistung zum Einsatz kommt. Es zählt nur die Bereitstellung der spezifischen Funktion im geforderten Umfang. Grundsätzlich ist es möglich, dass jeder Service eine andere Programmiersprache, Datenbanktechnik oder ein anderes Framework verwendet. Um gegenseitige Beeinflussungen von Microservices zuverlässig zu verhindern, sind sie entkoppelt und gegenüber anderen Services isoliert. Dadurch lassen sich die Services unabhängig voneinander in Produktion bringen und betreiben.

Die Microservices laufen auf unterschiedlichen Rechnern, virtuellen Servern oder in getrennten Betriebssystemumgebungen. Dieser verteilte Ansatz verhindert die gegenseitige Beeinflussung oder eventuelle Überlastungen der Host-Systeme durch Microservices. Microservices besitzen keinerlei zentralistische Hierarchie und sind horizontal skalierbar. Soll die übergeordnete Applikation skalieren, werden nicht Rechnerleistungen oder Netz- und Speicherressourcen angepasst, sondern die Leistungen der einzelnen Microservices erhöht. Treten Fehler einzelner Services auf, sind Fehlerzustände und Ereignisse separiert. Die Überwachung und die Sicherheit der Microservices gewährleisten getrennte Authentifizierungs-, Autorisierungs- und Verschlüsselungsverfahren sowie entkoppelte Logging-, Monitoring- und Reporting-Tools.

Die Vorteile von Microservices

Eine Architektur, die konsequent auf Microservices setzt, bietet gegenüber herkömmlichen Ansätzen zahlreiche Vorteile. Zuständige Entwicklerteams agieren unabhängig voneinander. Parallelisierte Entwicklungsprozesse, bei denen viele Microservices gleichzeitig bereitgestellt werden, lassen sich realisieren. Es ist keine Kommunikation zwischen den Entwicklern der verschiedenen Microservices notwendig. Die Steuerung des kompletten Entwicklungsprozesses ist zentral aus Anwendungssicht möglich, was den Koordinationsaufwand minimiert. Da Microservices nur einzelne Funktionen bereitstellen, bleiben sie klein und überschaubar. Eventuelle Anpassungen oder Erweiterungen sind mit wenig Aufwand in überschaubaren Zeiten umsetzbar.

Genügt ein Microservice den Anforderungen nicht mehr, ist er problemlos durch einen komplett neu entwickelten Service eines anderen Teams ersetzbar. Abhängigkeiten zwischen Funktionen und Diensten lassen sich vermeiden und die Architektur bleibt weiterhin konsequent auf die Bereitstellung von Services für die übergeordnete Anwendung ausgerichtet. Aufgrund der Kommunikation ausschließlich über definierte Schnittstellen werden proprietäre Ansätze vermieden und etablierte Standardmechanismen genutzt. Eine hohe Verfügbarkeit des Gesamtsystems und der Applikation ist erreichbar, da sämtliche Microservices getrennt voneinander funktionieren. Ein Ausfall eines einzelnen Services beeinflusst andere nicht und ist durch die Bereitstellung eine Ersatzservices schnell abzufangen. In puncto Skalierbarkeit bleibt die Anwendung extrem flexibel, da nicht die Anwendung selbst oder Rechnerressourcen, sondern die Microservices skalieren.

Microservices und Cloud native Anwendungen

Eine wichtige Rolle spielen Microservices für Cloud native Anwendungen (NCAs). Es handelt sich bei diesen Anwendungen um Programme, die speziell für Cloud-Computing-Architekturen entwickelt und optimiert werden. Die Applikationen nutzen die Besonderheiten einer Cloud-Umgebung konsequent zu ihrem Vorteil. Die Basis von Cloud native Anwendungen bilden die Microservices, die sich aus voneinander entkoppelten Cloud-Services auf unterschiedlichen Systemen zusammensetzen.

Die Dienste für die Applikation lassen sich auf diese Art auf verschiedenen Systemen und an unterschiedlichen Standorten erbringen. Beispiele für bereitgestellte Funktionen der Microservices sind das Empfangen von Nachrichten, das Liefern von spezifischen Daten, das Lösen von Rechenaufgaben oder das Auslesen von Sensoren. Schon bei der Entwicklung der Cloud native Applikation ist die Cloud-Architektur mit ihren verteilt arbeitenden Microservices zu berücksichtigen. Es sind Redundanzen und Kommunikationsschnittstellen bereitzustellen, die sicherstellen, dass die einzelnen Microservices unabhängig von spezifischer Hardware und bestimmten Betriebssystemen lauffähig bleiben. Für den Fehlerfall einzelner Services sind Redundanzmechanismen vorzusehen.

Oft sind Microservices mit einer HTTP-Schnittstelle für die Kommunikation versehen. Ein wesentlicher Vorteil von NCAs ist, dass Anwendungen schnell zu realisieren und bereitzustellen sind. Die Anwendungen bleiben flexibel, da ein horizontales Skalieren über die Microservices möglich ist. Das aus herkömmlichen Serverumgebungen typische Überprovosionieren von Ressourcen ist überflüssig und die Leistungsfähigkeit kann direkt passend zu den aktuellen Anforderungen bereitgestellt werden. Ebenfalls hinfällig sind lange Deploymentprozesse, da die Cloud native Applikation direkt mit der Fertigstellung der Programmierung veröffentlicht werden kann.

Der Cloud native Ansatz macht Anwendungen ohne große Anpassungen auf verschiedenen öffentlichen oder privaten Cloud-Umgebungen lauffähig. So lassen sich Cloud-Umgebungen und Cloud-Anbieter nach optimalem Preis-Leistungsverhältnis auswählen. Die Unternehmen binden sich nicht an einen bestimmten Provider und vermeiden Abhängigkeiten zu Dienstleistern und Partnern.

Was ist Cloud native?

Definition: Cloud-Architektur konsequent genutzt

Was ist Cloud native?

14.12.17 - Bei Cloud native handelt es sich um einen Ansatz, der sicherstellen soll, dass Anwendungen für die Cloud-Computing-Architektur konzipiert und entwickelt werden. Die Cloud native Anwendungen nutzen die von der Cloud bereitgestellten Services konsequent und basieren auf Microservices. lesen

Container zur Bündelung von Microservices

Mehrere Microservices lassen sich zu so genannten Containern zusammenfassen. Dadurch ist die Bereitstellung von vielen einzelnen Microservices vereinfacht und schneller möglich. Gleichzeitig sind Container gegenüber zum Beispiel einer virtuellen Maschine wesentlich effizienter und flexibler zu handhaben. Die Container sind untereinander isoliert, stellen aber für ihre eigenen Microservices übergeordnete Funktionalitäten bereit. Dies können Filesysteme, Datenbanken oder andere Ressourcen und Services sein.

Grundlagen der Container-Virtualisierung

Container-Technologien - von Docker-Engines bis Kubernetes (K8s)

Grundlagen der Container-Virtualisierung

15.09.16 - Application Container waren im vergangenen Jahr der letzte Schrei in der IT-Szene, 2016 haben sich Docker und Co bewiesen. Sollten Sie als Cloud-Anwender sich in die Materie einarbeiten? Lohnt sich der Einsatz dieser „neuen“ Technologie? Kann sie möglicherweise sogar die Cloud ersetzen? lesen

Was ist AWS Lambda?

Definition: Datenverarbeitungsservice von Amazon Web Services

Was ist AWS Lambda?

29.11.18 - Mit AWS Lambda können Anwender einen Code ausführen, ohne dass dabei Server verwaltet bzw. bereitgestellt werden müssen. Kosten fallen grundsätzlich nur für die tatsächliche Rechenzeit an, die ein Anwender verbraucht. Wird der Code demgegenüber nicht ausgeführt, entstehen auch keine Kosten. lesen

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Wie passen Application-Container in eine sichere Software-Pipeline?

CLOUD 2019 – Interview mit Erik Auer

Wie passen Application-Container in eine sichere Software-Pipeline?

Diese Woche ist in Bonn die diesjährige Konferenz „CLOUD 2019 – Technology & Services“ gestartet. Gemeinsam mit Wolfgang Haider, Teamleiter Configuration Management Raiffeisen Software, bestreitet Erik Auer, Cloud Solution Architekt bei Whizus, dabei die Keynote „Deployment im Container: Business Anforderungen und technische Umsetzung“. Im Vorfeld haben wir mit Herrn Auer ein Interview geführt. lesen

Citrix erweitert Optionen für Microsoft Azure und RedHat OpenShift

Desktop-as-a-Service und Open-Source-Integrationen

Citrix erweitert Optionen für Microsoft Azure und RedHat OpenShift

Citrix Systems ermöglicht mit einer neuen Desktop-as-a-Service-Lösung die cloud-basierte Bereitstellung von Windows-Anwendungen und Desktops über Azure. Mitarbeiter können somit auf diese Ressourcen mit jedem Gerät und von überall zugreifen. lesen

Open Source Monitoring in Rechenzentrum und Cloud

Der Youngster: Sensu Go

Open Source Monitoring in Rechenzentrum und Cloud

Heterogene und verteilte Rechenzentrums- und Cloud-Infrastrukturen stellen neue Anforderungen an moderne Monitoring Lösungen. Mit „Sensu Go“ betrat Ende 2018 ein vielversprechender Youngster unter den Open Source Monitoring Systemen die Bühne, der für dynamische Cloud-Umgebungen wie gemacht, aber in Deutschland noch wenig bekannt ist. Hier wird er kurz vorgestellt. lesen

Was ist Amazon EKS?

Definition Amazon Elastic Kubernetes Service von AWS

Was ist Amazon EKS?

Amazon Elastic Kubernetes Service ist ein verwalteter, hochverfügbarer und skalierbarer Kubernetes-Service, der im Rahmen der Amazon Web Services (AWS) angeboten wird. Er ermöglicht die Bereitstellung, Skalierung und den Betrieb von Container-basierten Anwendungen, ohne selbst eine Control-Plane für Kubernetes einrichten und betreiben zu müssen. lesen

Die Cloud-Migration von Analytics

Wieso, weshalb, warum - und wie?

Die Cloud-Migration von Analytics

Immer mehr Geschäftsanwendungen wandern in die Cloud. Die Vorteile liegen auf der Hand: Agilität, frei skalierbare Leistung und Kosteneffizienz. Viele Cloud-Migrationen scheitern jedoch daran, das volle Potenzial dieser Bereitstellungsform zu erschließen. Um Performance und Mehrwert von Anwendungen in der Cloud zu maximieren, müssen Unternehmen alle Optionen abwägen und den für die konkrete Situation passenden Ansatz finden. lesen

Was ist Istio?

Definition: Service Mesh, plattformunabhängig und quelloffen

Was ist Istio?

Istio stellt ein offenes, plattformunabhängiges Service Mesh zur Verfügung, mit dem sich die Microservices verteilt arbeitender Cloud-native-Anwendungen komfortabel verwalten lassen. Zu den Kernfunktionen gehören das Traffic Management sowie Sicherheits-, Verbindungs- und Monitoring-Funktionen. lesen

Velten: „Cloud Native ist der Gamechanger“

Cloud 2019 Technology & Services Conference

Velten: „Cloud Native ist der Gamechanger“

Ab 10. September findet die Veranstaltungsreihe „Cloud 2019 Technology & Services Conference“ statt. Fachvorträge, Live Demos und Technologie Outlooks thematisieren die Herausforderungen der Multicloud und von Cloud Native. Die Veranstaltungen in Hamburg und München starten mit einer Keynote von Dr. Carlo Velten, Managing Director von Crisp Research. DataCenter-Insider hat ihn und seinen Kollegen Maximilian Hille vorab dazu befragt. lesen

Was ist Container as a Service (CaaS)?

Definition: Container-basierte Virtualisierung aus der Cloud

Was ist Container as a Service (CaaS)?

CaaS ist ein Cloud-Computing-Modell, das Container-basierte Virtualisierungsleistungen als Service aus dem Netz bereitstellt. Es ist zwischen den Modellen Infrastructure as a Service und Platform as a Service angesiedelt. Zahlreiche Public-Cloud-Anbieter wie Microsoft, Google und Amazon stellen Kunden CaaS-Angebote zur Verfügung. lesen

Hybride Cloud mit rotem Hut

Red Hat EMEA Partner Conference 2019

Hybride Cloud mit rotem Hut

Alle zwei Jahre finden sich Red-Hat-Partner zur EMEA-Partnerkonferenz zusammen. Die diesjährige Veranstaltung drehte sich hauptsächlich um Aspekte der Hybrid Cloud. Red-Hat-Manager Hubert Schweinesbein war vor Ort, blickt zurück und fasst die Kernbotschaften für den Channel zusammen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45005792 / Definitionen)