Definition: Anwendungen und Services aus der Cloud

Was ist Serverless Computing?

| Autor / Redakteur: Dirk Srocke / Florian Karlstetter

IT-Trendthema Serverless Computing - Anwendungen und Services direkt aus der Cloud ausführen.
IT-Trendthema Serverless Computing - Anwendungen und Services direkt aus der Cloud ausführen. (Bild: gemeinfrei (geralt / pixabay) / CC0)

Dank Serverless Computing können Entwickler Anwendungen oder Services in der Cloud ausführen, ohne sich selbst um Bereitstellung, Skalierung und Management von Servern kümmern zu müssen.

Als Serverless Computing bezeichnet man ein Ausführungsmodell in der Cloud, bei dem Nutzer Anwendungen erstellen und ausführen – ohne dabei einen Gedanken an den oder die darunterliegenden Server verschwenden zu müssen. Bei den häufig auch als „Function as a Service“ (FaaS) bereitgestellten Produkten handelt es sich um kurzlebige Laufzeitumgebungen, die vom Provider dynamisch zugewiesen und skaliert werden. Zu den Anbietern für Serverless Computing zählen unter anderem Microsoft mit Azure Functions, Amazon Web Services mit AWS Lambda, Google mit den Cloud Functions oder IBM Cloud Functions (OpenWhisk).

Wenngleich der Name anderes suggeriert, braucht es für „Serverless Computing“ auch weiterhin Server. Aus Anwendersicht werden diese allerdings noch weiter abstrahiert als dies etwa bei einer Platform as a Service (PaaS) schon der Fall wäre. Dabei entfällt für Entwickler die Notwendigkeit, mit der API der Plattform zu interagieren oder zusätzliche Ressourcen zuzuweisen respektive freizugeben.

Das bedeutet: Nutzer von „Serverless Computing“ müssen sich überhaupt nicht mehr darum kümmern, wie Server aufgesetzt, provisioniert oder skaliert werden. Stattdessen sorgt der Serviceanbieter dafür, dass stets genügend Ressourcen zur Verfügung für die jeweilige Anwendung zur Verfügung stellen. Das beinhaltet auch Verfügbarkeit und Fehlertoleranz.

Serverless Computing lässt sich dem Utility Computing zurechnen und wird nach verbrauchten Ressourcen abgerechnet. Kunden müssen somit nicht für überbuchte oder ungenutzte Ressourcen im Leerlauf aufkommen, sondern zahlen lediglich für tatsächlich verwendete Rechen- und Speicherressourcen.

Um Programme für Serverless Computing umzusetzen müssen Entwickler nicht nur Code in die Cloud laden. Zudem sind auch Funktionen zu definieren, die festlegen, wie auf bestimmte Ereignisse reagiert werden soll. Diese Funktionen sind zustandslos.

Vorteile und Nachteile

Als Vorteile von Serverless Computing gilt einerseits die am tatsächlichen Bedarf ausgerichtete Abrechnung. Auf der Haben-Seite steht überdies ein vereinfachter Betrieb, bei dem sich Entwickler auf ihre Kernkompetenzen konzentrieren können.

Nachteilig können sich entsprechende Lösungen allerdings auf die Performance niederschlagen: Anders als durchgehend laufender Code auf dedizierten Servern sowie in virtuellen Maschinen oder Containern können Provider als „serverlos“ bereitgestellte Ressourcen herunterfahren und erst bei Bedarf neu initialisieren. Je nach Startdauer der jeweiligen Laufzeitumgebung kann das zusätzliche und ungewünschte Verzögerungen verursachen. Serverless Computing taugt überdies nicht für alle Anwendungsfälle: Für High-Performance Computing kann es beispielsweise effizienter und kostengünstiger sein, die benötigten Server selbst aufzusetzen.

Auch bei Monitoring und Debugging müssen Anwender mit Einschränkungen leben. Tiefgreifende Analysen mit Profilern, Debuggern und Werkzeugen für Application Performance Management (APM) sind in der Regel nicht möglich. Wenn Provider auf proprietäre Umgebungen setzen, lassen sich diese überdies kaum auf lokalen Testinfrastrukturen replizieren.

Wenngleich sich der Cloudanbieter um aktuelle Patches seiner Umgebung kümmert, ist Serverless Computing nicht zwingend sicherer als andere Distributions-Modelle. So lässt sich argumentieren, dass Applikationen auf einer größeren Zahl von Komponenten aufsetzen als bei traditionellen Architekturen – was schließlich auch die Zahl von Angriffsvektoren erhöht. Überdies können Nutzer ihre Cloud-Workloads nicht mit traditionellen Sicherheitsprodukten für Intrusion Detection oder Prevention schützen.

Schließlich besteht beim Serverless Computing auch die Gefahr eines Vendor Lock-in, sobald man sich an herstellerspezifische Schnittstellen bindet.

Was ist Cloud native?

Definition: Cloud-Architektur konsequent genutzt

Was ist Cloud native?

14.12.17 - Bei Cloud native handelt es sich um einen Ansatz, der sicherstellen soll, dass Anwendungen für die Cloud-Computing-Architektur konzipiert und entwickelt werden. Die Cloud native Anwendungen nutzen die von der Cloud bereitgestellten Services konsequent und basieren auf Microservices. lesen

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Google setzt auf Kubernetes und Serverless Computing

Google Cloud Next ‘18

Google setzt auf Kubernetes und Serverless Computing

Ende Juli trafen sich zum zweiten Mal zahlreiche Partner und Kunden zur internationalen Konferenz „Google Cloud Next ’18“ in San Francisco. Führende Mitarbeiter von Google stellten in Vorträgen, Diskussionsrunden und Workshops ihre Visionen für die Zukunft von Google Cloud vor. Über hundert Ankündigungen für neue Produkte und Services sowie Partnerschaften und Kunden zeugen davon, wie Google sein Cloud-Geschäft vorantreiben will. lesen

Container fürs Erste populärer als Serverless Computing

Cloud-Development-Studie von Digital Ocean

Container fürs Erste populärer als Serverless Computing

Knapp die Hälfte der Software-Entwickler, die in der Cloud arbeiten, vertrauen auf Container, während Serverless Computing noch nicht so populär ist. Dies unterstreicht der Cloud-Anbieter Digital Ocean im vierteljährlich erscheinenden Currents-Report. lesen

VMware und AWS ebnen den Weg in die Cloud

AWS Summit 2018

VMware und AWS ebnen den Weg in die Cloud

Die Verfügbarkeit von VMware Cloud on AWS in der Region Frankfurt war die News des Tages auf dem AWS Summit 2018 in Berlin. Damit soll es nun auch für deutsche Kunden – ebenso wie für Systemhäuser, die sie betreuen – einfacher werden, ihre IT in die Cloud zu erweitern. Die Meinungen der Partner sind geteilt. lesen

Über bisheriges offenes Cloud-Computing hinaus

Der OpenStack Summit Vancouver 2018, Teil 2

Über bisheriges offenes Cloud-Computing hinaus

Im Zentrum der OpenStack-Entwicklungsarbeiten stehen jetzt Container und kontinuierliche Verbesserungen von Private Clouds. Hinzugekommen ist ein neues Thema: Edge Computing. Dieses Arbeitsfeld dürfte das unverändert schnelle Wachstum von OpenStack weiter unterstützen. lesen

OpenStack: Kritik? War da was?

OpenStack Summit 2018 in Vancouver, Teil 1

OpenStack: Kritik? War da was?

Wer auf deutliche Verbesserungen an kritisierten Punkten gesetzt hatte, könnte enttäuscht sein. Das Open-Source-Projekt OpenStack hat anders reagiert und macht davon wenig Aufheben. Es bleiben allerdings offene Fragen, auf die die Organisation noch keine Antwort gefunden hat. lesen

Kubernetes auf dem Höhepunkt?

Von der KubeCon und CloudNativeCon EU 2018

Kubernetes auf dem Höhepunkt?

Der große Besucherandrang zur Doppelkonferenz in Kopenhagen war nicht unbedingt zu erwarten, aber zeugt – wie auch eine große Zahl von Produktneuheiten von einem riesigen Interesse an Kubernetes. Kommt jetzt aber eine Phase der Ernüchterung? lesen

Die vielen Facetten der digitalen Transformation

Aktuelle digitale Trends

Die vielen Facetten der digitalen Transformation

Unternehmen stellen sich immer wieder die Frage, in welche Richtung sich die digitale Transformation entwickeln wird? Worauf müssen IT-Entscheider achten, wo kristallisieren sich Trends und Innovationen heraus? lesen

Warum sich Public Clouds weiter etablieren

Rackspace erklärt drei entscheidende Entwicklungen

Warum sich Public Clouds weiter etablieren

Public Clouds werden in Deutschland immer beliebter. Voraussichtlich rund 17 Milliarden Euro wollen Unternehmen dieses Jahr dafür investieren, hat die Studie „ISG Provider Lens Germany 2018“ herausgefunden. Besonders die Datenanalyse zur Ableitung von Geschäftsentscheidungen steht dabei im Fokus. lesen

Renaissance der SQL-Datenanalyse, diesmal in der Cloud

Snowflake Computing

Renaissance der SQL-Datenanalyse, diesmal in der Cloud

Snowflake, ein durch Venture Capital finanziertes US-Start-up, verlagert die Datenanalyse mit SQL in die Cloud. Der Redshift-Konkurrent wurde eigens für diese Umgebung entwickelt und soll sich durch besondere Schnelligkeit und Flexibilität auszeichnen. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45211833 / Definitionen)