Definition: Microservices als Basis von Cloud native Applikationen

Was sind Microservices?

| Autor / Redakteur: tutanch / Florian Karlstetter

Microservices - kleine entkoppelte Dienste für den modularen Aufbau von Anwendungen.
Microservices - kleine entkoppelte Dienste für den modularen Aufbau von Anwendungen. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Bei Microservices handelt es sich um kleine entkoppelte Prozesse, die einzelne Funktionen für eine Anwendungssoftware bereitstellen. Sie ermöglichen den modularen Aufbau von Software und bilden die Basis von Cloud native Applikationen, die die Vorteile von Cloud-Umgebungen voll ausschöpfen.

Microservices ermöglichen es, komplexe Anwendungen mit Hilfe einer Architektur bestehend aus vielen kleinen voneinander entkoppelten Diensten und Prozessen zu realisieren. Die Microservices kommunizieren über Schnittstellen und stellen der Applikation jeweils einzelne Funktionen und Dienste zur Verfügung. Selbst komplexe Anwendungssoftware kann auf Basis von Microservices modular entwickelt und umgesetzt werden.

Die einzelnen Microservices sind voneinander unabhängig und können auf verschiedenen Rechnern in verteilten Umgebungen oder auf Cloud-Plattformen laufen. Das Starten, Stoppen, Updaten und Skalieren der Services ist ohne eine gegenseitige Beeinflussung möglich. Für so genannte Cloud native Anwendungen, die die Möglichkeiten und Vorteile von Cloud-Umgebungen voll ausschöpfen, bilden Microservices und Container bestehend aus Microservices die Funktionsbasis.

Typische Merkmale von Microservices

Typisches Merkmal eines Microservices ist, dass er nur wenige oder nur eine einzige Aufgabe erledigt. Er ist auf diese spezialisiert und für die Aufgabe optimiert. Der Umfang der Aufgaben bleibt überschaubar und Services sind einfach ersetzbar. Betreut werden die Microservices von kleinen Entwicklerteams, die Veränderungen oder Anpassungen schnell und flexibel vornehmen können. Die Entwicklerteams sind für einen Microservice oder für fachlich zusammengehörige Microservices zuständig und bestehen in der Regel aus vier bis maximal sieben Personen. Im Vordergrund steht der Nutzen für die übergeordnete Anwendung.

Um mit der Anwendung oder gegebenenfalls mit anderen Microservices zu kommunizieren, verwenden die Services standardisierte Schnittstellen und Protokolle. Durch die Kommunikation über Schnittstellen, sind die Details der Implementierung nach außen verborgen. Für die Anwendung ist nicht ersichtlich, welche Technologie oder Architektur für die Erbringung der Leistung zum Einsatz kommt. Es zählt nur die Bereitstellung der spezifischen Funktion im geforderten Umfang. Grundsätzlich ist es möglich, dass jeder Service eine andere Programmiersprache, Datenbanktechnik oder ein anderes Framework verwendet. Um gegenseitige Beeinflussungen von Microservices zuverlässig zu verhindern, sind sie entkoppelt und gegenüber anderen Services isoliert. Dadurch lassen sich die Services unabhängig voneinander in Produktion bringen und betreiben.

Die Microservices laufen auf unterschiedlichen Rechnern, virtuellen Servern oder in getrennten Betriebssystemumgebungen. Dieser verteilte Ansatz verhindert die gegenseitige Beeinflussung oder eventuelle Überlastungen der Host-Systeme durch Microservices. Microservices besitzen keinerlei zentralistische Hierarchie und sind horizontal skalierbar. Soll die übergeordnete Applikation skalieren, werden nicht Rechnerleistungen oder Netz- und Speicherressourcen angepasst, sondern die Leistungen der einzelnen Microservices erhöht. Treten Fehler einzelner Services auf, sind Fehlerzustände und Ereignisse separiert. Die Überwachung und die Sicherheit der Microservices gewährleisten getrennte Authentifizierungs-, Autorisierungs- und Verschlüsselungsverfahren sowie entkoppelte Logging-, Monitoring- und Reporting-Tools.

Die Vorteile von Microservices

Eine Architektur, die konsequent auf Microservices setzt, bietet gegenüber herkömmlichen Ansätzen zahlreiche Vorteile. Zuständige Entwicklerteams agieren unabhängig voneinander. Parallelisierte Entwicklungsprozesse, bei denen viele Microservices gleichzeitig bereitgestellt werden, lassen sich realisieren. Es ist keine Kommunikation zwischen den Entwicklern der verschiedenen Microservices notwendig. Die Steuerung des kompletten Entwicklungsprozesses ist zentral aus Anwendungssicht möglich, was den Koordinationsaufwand minimiert. Da Microservices nur einzelne Funktionen bereitstellen, bleiben sie klein und überschaubar. Eventuelle Anpassungen oder Erweiterungen sind mit wenig Aufwand in überschaubaren Zeiten umsetzbar.

Genügt ein Microservice den Anforderungen nicht mehr, ist er problemlos durch einen komplett neu entwickelten Service eines anderen Teams ersetzbar. Abhängigkeiten zwischen Funktionen und Diensten lassen sich vermeiden und die Architektur bleibt weiterhin konsequent auf die Bereitstellung von Services für die übergeordnete Anwendung ausgerichtet. Aufgrund der Kommunikation ausschließlich über definierte Schnittstellen werden proprietäre Ansätze vermieden und etablierte Standardmechanismen genutzt. Eine hohe Verfügbarkeit des Gesamtsystems und der Applikation ist erreichbar, da sämtliche Microservices getrennt voneinander funktionieren. Ein Ausfall eines einzelnen Services beeinflusst andere nicht und ist durch die Bereitstellung eine Ersatzservices schnell abzufangen. In puncto Skalierbarkeit bleibt die Anwendung extrem flexibel, da nicht die Anwendung selbst oder Rechnerressourcen, sondern die Microservices skalieren.

Microservices und Cloud native Anwendungen

Eine wichtige Rolle spielen Microservices für Cloud native Anwendungen (NCAs). Es handelt sich bei diesen Anwendungen um Programme, die speziell für Cloud-Computing-Architekturen entwickelt und optimiert werden. Die Applikationen nutzen die Besonderheiten einer Cloud-Umgebung konsequent zu ihrem Vorteil. Die Basis von Cloud native Anwendungen bilden die Microservices, die sich aus voneinander entkoppelten Cloud-Services auf unterschiedlichen Systemen zusammensetzen.

Die Dienste für die Applikation lassen sich auf diese Art auf verschiedenen Systemen und an unterschiedlichen Standorten erbringen. Beispiele für bereitgestellte Funktionen der Microservices sind das Empfangen von Nachrichten, das Liefern von spezifischen Daten, das Lösen von Rechenaufgaben oder das Auslesen von Sensoren. Schon bei der Entwicklung der Cloud native Applikation ist die Cloud-Architektur mit ihren verteilt arbeitenden Microservices zu berücksichtigen. Es sind Redundanzen und Kommunikationsschnittstellen bereitzustellen, die sicherstellen, dass die einzelnen Microservices unabhängig von spezifischer Hardware und bestimmten Betriebssystemen lauffähig bleiben. Für den Fehlerfall einzelner Services sind Redundanzmechanismen vorzusehen.

Oft sind Microservices mit einer HTTP-Schnittstelle für die Kommunikation versehen. Ein wesentlicher Vorteil von NCAs ist, dass Anwendungen schnell zu realisieren und bereitzustellen sind. Die Anwendungen bleiben flexibel, da ein horizontales Skalieren über die Microservices möglich ist. Das aus herkömmlichen Serverumgebungen typische Überprovosionieren von Ressourcen ist überflüssig und die Leistungsfähigkeit kann direkt passend zu den aktuellen Anforderungen bereitgestellt werden. Ebenfalls hinfällig sind lange Deploymentprozesse, da die Cloud native Applikation direkt mit der Fertigstellung der Programmierung veröffentlicht werden kann.

Der Cloud native Ansatz macht Anwendungen ohne große Anpassungen auf verschiedenen öffentlichen oder privaten Cloud-Umgebungen lauffähig. So lassen sich Cloud-Umgebungen und Cloud-Anbieter nach optimalem Preis-Leistungsverhältnis auswählen. Die Unternehmen binden sich nicht an einen bestimmten Provider und vermeiden Abhängigkeiten zu Dienstleistern und Partnern.

Was ist Cloud native?

Definition: Cloud-Architektur konsequent genutzt

Was ist Cloud native?

14.12.17 - Bei Cloud native handelt es sich um einen Ansatz, der sicherstellen soll, dass Anwendungen für die Cloud-Computing-Architektur konzipiert und entwickelt werden. Die Cloud native Anwendungen nutzen die von der Cloud bereitgestellten Services konsequent und basieren auf Microservices. lesen

Container zur Bündelung von Microservices

Mehrere Microservices lassen sich zu so genannten Containern zusammenfassen. Dadurch ist die Bereitstellung von vielen einzelnen Microservices vereinfacht und schneller möglich. Gleichzeitig sind Container gegenüber zum Beispiel einer virtuellen Maschine wesentlich effizienter und flexibler zu handhaben. Die Container sind untereinander isoliert, stellen aber für ihre eigenen Microservices übergeordnete Funktionalitäten bereit. Dies können Filesysteme, Datenbanken oder andere Ressourcen und Services sein.

Was ist Container-Virtualisierung?

Definition: Container

Was ist Container-Virtualisierung?

15.09.16 - Application Container waren im vergangenen Jahr der letzte Schrei in der IT-Szene, 2016 haben sich Docker und Co bewiesen. Sollten Sie als Cloud-Anwender sich in die Materie einarbeiten? Lohnt sich der Einsatz dieser „neuen“ Technologie? Kann sie möglicherweise sogar die Cloud ersetzen? lesen

Was ist AWS Lambda?

Definition: Datenverarbeitungsservice von Amazon Web Services

Was ist AWS Lambda?

29.11.18 - Mit AWS Lambda können Anwender einen Code ausführen, ohne dass dabei Server verwaltet bzw. bereitgestellt werden müssen. Kosten fallen grundsätzlich nur für die tatsächliche Rechenzeit an, die ein Anwender verbraucht. Wird der Code demgegenüber nicht ausgeführt, entstehen auch keine Kosten. lesen

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Multi-Cloud als Chance für eine DevOps-Kultur

Mit Containern das Konfliktpotenzial zwischen Entwicklung und Betrieb verringern

Multi-Cloud als Chance für eine DevOps-Kultur

Immer mehr Unternehmen führen Multi-Cloud-Strukturen ein. Die perfekte Gelegenheit für sie, zusätzlich DevOps in die eigenen Prozesse zu integrieren – und so zwei Fliegen mit einer Klappe zu schlagen. Denn DevOps und Multi Cloud ergänzen sich optimal. Nur gehen Unternehmen – meist sogar Traditionsfirmen – oft falsch an die Sache heran und scheitern mit beiden Projekten. lesen

Low-Coding mit K8s-Support und KI-Anbindung

Mendix-Integration mit IBM Cloud Services

Low-Coding mit K8s-Support und KI-Anbindung

Die Low-Code-Lösung Mendix soll sich dank einer neu konzipierten nativen Cloud-Architektur besser in die IBM Cloud integrieren. Der Zugriff auf die Watson KI-Services stand dabei ebenso im Fokus wie der Support von Kubernetes. lesen

Nachfrage nach Multi-Cloud und DevSecOps steigt

Security kommt immer öfter aus der Cloud

Nachfrage nach Multi-Cloud und DevSecOps steigt

Die Nutzung von Applikationen und Lösungen in der Cloud hat zugenommen und Unternehmen, die cloud-basierte, SaaS-Lösungen im Einsatz haben, verfügen auch über DevOps- bzw. DevSecOps-Tools und –Prozesse, um die Agilität und Zuverlässigkeit der Software zu steigern. Das zeigt der Report „State of Modern Applications & DevSecOps in the Cloud“ des Machine Data Analytics-Anbieters Sumo Logic. lesen

Sind miniaturisierte virtuelle Maschinen die Infrastruktur der Zukunft?

Container in Unsicherheit

Sind miniaturisierte virtuelle Maschinen die Infrastruktur der Zukunft?

Container-Infrastrukturen sind flexibel, skalierbar und schnell, aber letztlich unsicher. Als Ausweg bietet sich an, sie in besonders leichtgewichtige virtuelle Maschinen zu packen. OpenStack hat hierzu ein Projekt aufgelegt. lesen

Integrationsplattform für Cloud-native Entwicklung

Red Hat Integration bringt Agilität in Hybrid-Architekturen

Integrationsplattform für Cloud-native Entwicklung

Red Hat Integration wird um neue Komponenten und Funktionen zur Verbindung von Anwendungen, Daten und Geräten in hybriden Architekturen erweitert. Cloud-basiertes Self-Service Messaging und Event Streaming gehören dazu ebenso wie die vollständige Abdeckung des API-Lebenszyklus. lesen

Echte Cloud-Agilität: Wunsch oder Wirklichkeit?

Komplexität in der Enterprise Cloud bewältigen

Echte Cloud-Agilität: Wunsch oder Wirklichkeit?

Cloud-Services werden bereits von vielen Unternehmen eingesetzt. Ein großer Vorteil ist die höhere Flexibilität, auch mit Blick auf eine schnelle Innovationsfähigkeit und die Bereitstellung neuer Services. Doch diese Technologie birgt auch Komplexitätsprobleme und Risiken. Wie erreichen Unternehmen echte Cloud-Agilität, wie unterstützt ein intelligentes Monitoring und welche Änderungen in der Organisationsstruktur erfordert dies? lesen

Multi-Cloud, KI und Edge Computing bestimmen die Cloud 2019

Aktuelle Entwicklungen im Cloud-Markt

Multi-Cloud, KI und Edge Computing bestimmen die Cloud 2019

Führende Fachleute und Analysten wagen einen Blick auf die kommenden Monate in der Cloud. Die Multi-Cloud steht noch in den Startlöchern und soll erst nächstes Jahr ihren Durchbruch erleben. Unterdessen explodieren Edge Computing und die Nachfrage nach vertikalen SaaS-Fachbereichslösungen. Sicherheit ist wie stets ein Dauerbrenner, und der Personalmangel verschärft sich. lesen

Azure wird zur Multifunktionsplattform

Blockchain, DevOps, GitHub und Open Source

Azure wird zur Multifunktionsplattform

Ursprünglich stand bei der Cloud-Computing-Plattform Microsoft Azure das Computing im Fokus. Neue Möglichkeiten in den Bereichen Bitcoin und DevOps sowie der Übernahme von GitHub gibt es nun ganz neue Möglichkeiten für Unternehmen und Entwickler, Dienste auszulagern. lesen

Warum SaaS-Partnerschaften so wichtig sind

Kooperationen wichtiger als Konkurrenz

Warum SaaS-Partnerschaften so wichtig sind

SaaS-Anbieter müssen sich immer weiter spezialisieren, um innovative Angebote auf den Markt zu bringen. Das macht Partnerschaften zwingend notwendig, ein Grund mehr, dass Unternehmen vom Konkurrenzdenken wegkommen sollten. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45005792 / Definitionen)