Definition: Hypertext Transfer Protocol

Was ist HTTP?

| Autor / Redakteur: Dirk Srocke / Florian Karlstetter

Hypertext Transfer Protocol - zustandsloses Protokoll zur Übertragung von Daten und zum Laden von Webseiten - eine Definition.
Hypertext Transfer Protocol - zustandsloses Protokoll zur Übertragung von Daten und zum Laden von Webseiten - eine Definition. (Bild: gemeinfrei (geralt / pixabay) / Pixabay)

Das Hypertext Transfer Protocol fungiert nicht nur als Basis des World Wide Web, sondern taugt auch für weitere Anwendungen. Ursprünglich am CERN entworfen, wird das zustandslose Protokoll aktuell unter Obhut der IETF weiterentwickelt.

Mit dem Hypertext Transfer Protocol (HTTP) kommen Nutzer eines Webbrowsers immer dann in Berührung, wenn sie die Webseiten eines entfernten Servers laden. Naheliegenderweise bezeichnen Andrew S. Tanenbaum und David J. Wetherall das Verfahren als Muttersprache des Webs – nachzulesen in der fünften Auflage ihres Lehrbuchs „Computer Networks“.

Das 2014 von der Internet Engineering Task Force (IETF) veröffentlichte RFC 7231 charakterisiert HTTP derweil allgemeiner als zustandsloses Protokoll, das auf Anwendungsebene angesiedelt ist und sich für verteilte, kollaborative Hypertextinformationssysteme eigne.

Was ist eine REST API?

Definition: Representational State Transfer (REST) Application Programming Interface (API)

Was ist eine REST API?

09.06.17 - REST steht für REpresentational State Transfer, API für Application Programming Interface. Gemeint ist damit ein Programmierschnittstelle, die sich an den Paradigmen und Verhalten des World Wide Web (WWW) orientiert und einen Ansatz für die Kommunikation zwischen Client und Server in Netzwerken beschreibt. lesen

Einsatzgebiete abseits des klassischen Webs erkennen übrigens auch Tanenbaum und Wetherall; sie beschreiben HTTP als eine Art Transportprotokoll, dank dessen verschiedene Prozesse über die Grenzen unterschiedlicher Netzwerke hinweg miteinander kommunizieren können. Als Beispiel nennen die Autoren etwa verschiedene Machine-to-Machine-Szenarien sowie Medienplayer oder Antivirusprogramme, die Daten und Updates von entfernten Servern beziehen.

Für die universellen Qualitäten von HTTP sprechen zudem REST-Architekturen, deren Verhalten sich an Paradigmen und Verhalten des WWW orientieren. Explizit auf die Abstraktion per REST verweist auch der oben erwähnte RFC 7231. In diesem Sinne stellt HTTP eine einheitliche Schnittstelle bereit, um auf Ressourcen zuzugreifen – unabhängig von deren Ausprägung oder Implementierung.

Funktionsweise

Für die Kommunikation zwischen Clients und Servern definiert HTTP zweierlei Arten von Nachrichten (Messages). Dabei handelt es sich entweder um Anfragen (Request) oder Antworten (Response).

Die von den Clients gestellten Requests bestehen aus ASCII-Text – beginnend mit einer Methode, wahlweise gefolgt von weiteren Informationen (request headers). Gemäß HTTP 1.1 müssen Server mindestens die Methoden GET und HEAD unterstützen. Mit GET erbitten Clients die aktuellen Darstellung einer kompletten Ressource – beispielsweise eines HTML-Dokumentes. HEAD erwartet derweil lediglich Statuszeile und Header.

Die berfügbaren Methoden beschränken sich allerdings nicht auf das bloße Abrufen von Webseiten. Zu weiteren Methoden für den Umgang mit Objekten zählen POST, PUT, DELETE, TRACE, CONNECT und OPTIONS.

Server erwarten eingehende Requests, verarbeiten diese und antworten schließlich per Response. Ein zurückgelieferter Statuscode signalisiert, wie erfolgreich die Anfrage aufgeführt wurde. Der Wert 200 steht beispielsweise für OK, also eine erfolgreiche durchgeführte Operation.

Ebenso wie auch die Requests können die vom Server verschickten Responses zusätzliches Informationen enthalten. Der Response Header „Last-Modified“ gibt etwa Auskunft darüber, wann das ausgelieferte Dokument zuletzt verändert wurde. Eine nützliche Information für die von HTTP vorgesehenen Caching-Verfahren.

Als Protokoll der Anwendungsschicht greift HTTP typischerweise auf das darunter liegende TCP-Verbindung über Port 80 zurück. Näheres dazu im folgenden Absatz zur Geschichte des Protokolls.

Geschichte und Ausblick

Die Ursprünge von HTTP sind eng mit der Entstehung des World Wide Web verbunden, das ab 1989 von Tim Berners-Lee sowie seinem Team am europäischen Kernforschungszentrum CERN erdacht wurde.

Seit Anfang der 1990er Jahre in Gebrauch, wurde Version 0.9 des Protokolls später als einfaches Protokoll für den Austausch roher Daten beschrieben.

Mit Version 1.0 folgten 1996 die Möglichkeit, Messages in einem MIME-Format samt Metainformationen zu übertragen.

HTTP 1.1 führte 1999 unter anderem persistente Verbindungen ein – wurden TCP-Verbindungen zuvor nach jedem übertragenen Element beendet, konnten nun mehrere Requests effizienter als zuvor über eine bestehende Verbindung abwickelt werden.

Das 2015 als Alternative zu HTTP 1.1 verabschiedete HTTP/2 die Effizienz weiter steigern, indem etwa Anfragen priorisiert und per Multiplex zusammengefasst werden. So sollen TCP-Verbindungen besser als bisher genutzt werden. Per „binary message framing“ ließen sich Message zudem effizienter verarbeiten.

Das aktuell diskutierte HTTP/3 soll auf dem Transportprotokoll QUIC aufsetzen.

Verschlüsselung über zusätzliche Ebene

Wenn HTTP über eine verschlüsselte Verbindung genutzt wird, spricht man von HTTPS respektive Secure HTTP. Dabei wird auf der Transportschicht eine zusätzliche Sicherheitsebene per SSL/TLS genutzt; als Port mitunter 443 statt 80 verwendet.

Weiter auf HTTP basierende Protokolle

Mit WebDAV (Web Distributed Authoring and Versioning) existiert schließlich ein auf HTTP 1.1 aufsetzendes Netzwerkprotokoll, mit dem sich Dateien per Internet bereitstellen lassen.

Auch das Netzwerkprotokoll SOAP stützt sich auf die Internetprotokolle HTTP und TCP.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Kontakte in iCloud verwalten und synchronisieren

Apple iCloud im professionellen Einsatz (Folge 12)

Kontakte in iCloud verwalten und synchronisieren

Mit iCloud können Anwender ihre Kontakte geräteübergreifend erstellen und verwalten. Nach erfolgter Synchronisierung sind die Kontakte auf allen Geräten verfügbar. Wir zeigen die Vorteile und Möglichkeiten. lesen

Digitale Transformation – was bringt 2020 für Unternehmen?

Zscaler stellt Prognosen für das nächste Jahrzehnt auf

Digitale Transformation – was bringt 2020 für Unternehmen?

Mit Blick auf das kommende Jahrzehnt sollten sich Unternehmen auf grundlegende Veränderungen in den IT-Architekturen vorbereiten, die von der Cloudifizierung begünstigt werden: Die No-Network Strategie, eine nahtlose und sichere Benutzererfahrung als wichtige Voraussetzungen für den digitalen Arbeitsplatz und damit verbundene Zero-Trust-Sicherheitsmodelle rücken in den Mittelpunkt. lesen

Was sind Unikernels?

Definition: „Rethinking Cloud Infrastructure“ – das Konzept von Unikernel-Images

Was sind Unikernels?

Ein Unikernel ist ein ausführbares Image, das sich auf die minimal benötigten Funktionen für den Betrieb einer Anwendung beschränkt. Ein Unikernel läuft auf einem Hypervisor oder direkt auf der Hardware und ist im Vergleich zu einem Container wesentlich schlanker. Unikernels lassen sich schnell booten, belegen nur die wirklich benötigten Ressourcen und bieten ein hohes Sicherheitsniveau. lesen

Was CIOs über Container, Kubernetes und Microservices wissen sollten

Frisch vom Gartner Symposium/ITxpo

Was CIOs über Container, Kubernetes und Microservices wissen sollten

„Kubernetes ist die Antwort – aber wie heißt die Frage?“ – So begrüßte Gartner-Analyst und Vice President Richard Watson das Auditorium des hauseigenen Symposiums. Der Titel seiner Präsentation: „Der CIO-Führer zu Containern, Kubernetes und Microservices“; der Inhalt: alles, was ein Chief Information Officer über das neue IT-Operation-Modell wissen muss; das Fazit: Kubernetes ist nicht alles, hilft aber enorm. lesen

Was ist ein Webserver?

Apache, Microsoft IIS, Nginx & Co. – Dienste zur Bereitstellung von Daten und Website-Inhalten

Was ist ein Webserver?

Webserver übertragen Dokumente beziehungsweise Webinhalte an Clients, wie zum Beispiel an einen Webbrowser oder an eine Website. Der Begriff bezieht sich zum einen auf den mit einem entsprechenden Webserver-Programm ausgestatteten Computer und zum anderen auf die Software selbst. lesen

Fujitsu Forum 2019 - Innovationen und Praxis

Digital-Annealer-Projekte, KI und Strategien

Fujitsu Forum 2019 - Innovationen und Praxis

Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion. lesen

Google erzielt mit 53 Qubits einen Durchbruch

Der Beweis für die Überlegenheit des Quantencomputers ist erbracht

Google erzielt mit 53 Qubits einen Durchbruch

Der Begriff „Quantum Supremacy“ bezeichnet den Moment, an dem ein Quantencomputer erstmals herkömmlichen Rechnern bei einer bestimmten Aufgabe überlegen ist. Googles Quantenprozessor, „Sycamore“ genannt, löste ein Problem innerhalb von 200 Sekunden, für das der schnellste Superrechner der Welt ungefähr 10.000 Jahre benötigen würde. lesen

Diversity – der Treibstoff der Digitalisierung

FIT-Kongress 2019

Diversity – der Treibstoff der Digitalisierung

Welche Führungskompetenzen braucht man im Zeitalter der Digitalisierung? Welche Stärken bringen Frauen hier mit? Und: Gegen welche Schwächen lohnt es sich anzukämpfen? Der FIT-Kongress befasst sich mit all diesen Themen genauso wie mit KI, Machine Learning und VUCA. lesen

Cloud Foundry: Infrastrukturagnostische Bereitstellung Cloud-nativer Microservices

(Zurück) zu VMware, hin zu Kubernetes

Cloud Foundry: Infrastrukturagnostische Bereitstellung Cloud-nativer Microservices

Das Lifecycle-Management verteilter Anwendungen könnte wohl kaum noch komplexer werden. Applikationen schneller bauen, testen, skalieren und infrastrukturagnostisch bereitstellen: Genau diese Versprechen hat sich das quelloffene Projekt Cloud Foundry auf die Fahnen geschrieben. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46084583 / Definitionen)