Definition: Hypertext Transfer Protocol

Was ist HTTP?

| Autor / Redakteur: Dirk Srocke / Florian Karlstetter

Hypertext Transfer Protocol - zustandsloses Protokoll zur Übertragung von Daten und zum Laden von Webseiten - eine Definition.
Hypertext Transfer Protocol - zustandsloses Protokoll zur Übertragung von Daten und zum Laden von Webseiten - eine Definition. (Bild: gemeinfrei (geralt / pixabay) / Pixabay)

Das Hypertext Transfer Protocol fungiert nicht nur als Basis des World Wide Web, sondern taugt auch für weitere Anwendungen. Ursprünglich am CERN entworfen, wird das zustandslose Protokoll aktuell unter Obhut der IETF weiterentwickelt.

Mit dem Hypertext Transfer Protocol (HTTP) kommen Nutzer eines Webbrowsers immer dann in Berührung, wenn sie die Webseiten eines entfernten Servers laden. Naheliegenderweise bezeichnen Andrew S. Tanenbaum und David J. Wetherall das Verfahren als Muttersprache des Webs – nachzulesen in der fünften Auflage ihres Lehrbuchs „Computer Networks“.

Das 2014 von der Internet Engineering Task Force (IETF) veröffentlichte RFC 7231 charakterisiert HTTP derweil allgemeiner als zustandsloses Protokoll, das auf Anwendungsebene angesiedelt ist und sich für verteilte, kollaborative Hypertextinformationssysteme eigne.

Was ist eine REST API?

Definition: Representational State Transfer (REST) Application Programming Interface (API)

Was ist eine REST API?

09.06.17 - REST steht für REpresentational State Transfer, API für Application Programming Interface. Gemeint ist damit ein Programmierschnittstelle, die sich an den Paradigmen und Verhalten des World Wide Web (WWW) orientiert und einen Ansatz für die Kommunikation zwischen Client und Server in Netzwerken beschreibt. lesen

Einsatzgebiete abseits des klassischen Webs erkennen übrigens auch Tanenbaum und Wetherall; sie beschreiben HTTP als eine Art Transportprotokoll, dank dessen verschiedene Prozesse über die Grenzen unterschiedlicher Netzwerke hinweg miteinander kommunizieren können. Als Beispiel nennen die Autoren etwa verschiedene Machine-to-Machine-Szenarien sowie Medienplayer oder Antivirusprogramme, die Daten und Updates von entfernten Servern beziehen.

Für die universellen Qualitäten von HTTP sprechen zudem REST-Architekturen, deren Verhalten sich an Paradigmen und Verhalten des WWW orientieren. Explizit auf die Abstraktion per REST verweist auch der oben erwähnte RFC 7231. In diesem Sinne stellt HTTP eine einheitliche Schnittstelle bereit, um auf Ressourcen zuzugreifen – unabhängig von deren Ausprägung oder Implementierung.

Funktionsweise

Für die Kommunikation zwischen Clients und Servern definiert HTTP zweierlei Arten von Nachrichten (Messages). Dabei handelt es sich entweder um Anfragen (Request) oder Antworten (Response).

Die von den Clients gestellten Requests bestehen aus ASCII-Text – beginnend mit einer Methode, wahlweise gefolgt von weiteren Informationen (request headers). Gemäß HTTP 1.1 müssen Server mindestens die Methoden GET und HEAD unterstützen. Mit GET erbitten Clients die aktuellen Darstellung einer kompletten Ressource – beispielsweise eines HTML-Dokumentes. HEAD erwartet derweil lediglich Statuszeile und Header.

Die berfügbaren Methoden beschränken sich allerdings nicht auf das bloße Abrufen von Webseiten. Zu weiteren Methoden für den Umgang mit Objekten zählen POST, PUT, DELETE, TRACE, CONNECT und OPTIONS.

Server erwarten eingehende Requests, verarbeiten diese und antworten schließlich per Response. Ein zurückgelieferter Statuscode signalisiert, wie erfolgreich die Anfrage aufgeführt wurde. Der Wert 200 steht beispielsweise für OK, also eine erfolgreiche durchgeführte Operation.

Ebenso wie auch die Requests können die vom Server verschickten Responses zusätzliches Informationen enthalten. Der Response Header „Last-Modified“ gibt etwa Auskunft darüber, wann das ausgelieferte Dokument zuletzt verändert wurde. Eine nützliche Information für die von HTTP vorgesehenen Caching-Verfahren.

Als Protokoll der Anwendungsschicht greift HTTP typischerweise auf das darunter liegende TCP-Verbindung über Port 80 zurück. Näheres dazu im folgenden Absatz zur Geschichte des Protokolls.

Geschichte und Ausblick

Die Ursprünge von HTTP sind eng mit der Entstehung des World Wide Web verbunden, das ab 1989 von Tim Berners-Lee sowie seinem Team am europäischen Kernforschungszentrum CERN erdacht wurde.

Seit Anfang der 1990er Jahre in Gebrauch, wurde Version 0.9 des Protokolls später als einfaches Protokoll für den Austausch roher Daten beschrieben.

Mit Version 1.0 folgten 1996 die Möglichkeit, Messages in einem MIME-Format samt Metainformationen zu übertragen.

HTTP 1.1 führte 1999 unter anderem persistente Verbindungen ein – wurden TCP-Verbindungen zuvor nach jedem übertragenen Element beendet, konnten nun mehrere Requests effizienter als zuvor über eine bestehende Verbindung abwickelt werden.

Das 2015 als Alternative zu HTTP 1.1 verabschiedete HTTP/2 die Effizienz weiter steigern, indem etwa Anfragen priorisiert und per Multiplex zusammengefasst werden. So sollen TCP-Verbindungen besser als bisher genutzt werden. Per „binary message framing“ ließen sich Message zudem effizienter verarbeiten.

Das aktuell diskutierte HTTP/3 soll auf dem Transportprotokoll QUIC aufsetzen.

Verschlüsselung über zusätzliche Ebene

Wenn HTTP über eine verschlüsselte Verbindung genutzt wird, spricht man von HTTPS respektive Secure HTTP. Dabei wird auf der Transportschicht eine zusätzliche Sicherheitsebene per SSL/TLS genutzt; als Port mitunter 443 statt 80 verwendet.

Weiter auf HTTP basierende Protokolle

Mit WebDAV (Web Distributed Authoring and Versioning) existiert schließlich ein auf HTTP 1.1 aufsetzendes Netzwerkprotokoll, mit dem sich Dateien per Internet bereitstellen lassen.

Auch das Netzwerkprotokoll SOAP stützt sich auf die Internetprotokolle HTTP und TCP.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Aktuelle Beiträge zu diesem Thema

Fujitsu Forum 2019 - Innovationen und Praxis

Digital-Annealer-Projekte, KI und Strategien

Fujitsu Forum 2019 - Innovationen und Praxis

Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion. lesen

Google erzielt mit 53 Qubits einen Durchbruch

Der Beweis für die Überlegenheit des Quantencomputers ist erbracht

Google erzielt mit 53 Qubits einen Durchbruch

Der Begriff „Quantum Supremacy“ bezeichnet den Moment, an dem ein Quantencomputer erstmals herkömmlichen Rechnern bei einer bestimmten Aufgabe überlegen ist. Googles Quantenprozessor, „Sycamore“ genannt, löste ein Problem innerhalb von 200 Sekunden, für das der schnellste Superrechner der Welt ungefähr 10.000 Jahre benötigen würde. lesen

Diversity – der Treibstoff der Digitalisierung

FIT-Kongress 2019

Diversity – der Treibstoff der Digitalisierung

Welche Führungskompetenzen braucht man im Zeitalter der Digitalisierung? Welche Stärken bringen Frauen hier mit? Und: Gegen welche Schwächen lohnt es sich anzukämpfen? Der FIT-Kongress befasst sich mit all diesen Themen genauso wie mit KI, Machine Learning und VUCA. lesen

Cloud Foundry: Infrastrukturagnostische Bereitstellung Cloud-nativer Microservices

(Zurück) zu VMware, hin zu Kubernetes

Cloud Foundry: Infrastrukturagnostische Bereitstellung Cloud-nativer Microservices

Das Lifecycle-Management verteilter Anwendungen könnte wohl kaum noch komplexer werden. Applikationen schneller bauen, testen, skalieren und infrastrukturagnostisch bereitstellen: Genau diese Versprechen hat sich das quelloffene Projekt Cloud Foundry auf die Fahnen geschrieben. lesen

Monitoring von Cloud-Umgebungen und Containern

Hosts dynamisch konfigurieren

Monitoring von Cloud-Umgebungen und Containern

Die Münchner Firma Tribe29 hat nach einem Jahr Entwicklungszeit eine neue Version seiner Monitoring-Lösung Checkmk vorgestellt. Checkmk 1.6 biete intelligentes Monitoring von Cloud- und Container-Infrastrukturen sowie einen neuen Dienst zum dynamischen Konfigurieren von Hosts. lesen

20 Gadgets, die den Herbst angenehmer machen

Nützlich, außergewöhnlich und verrückt

20 Gadgets, die den Herbst angenehmer machen

Der Sommer ist definitiv vorbei, und um den Herbst auch richtig genießen zu können, bietet der Gadget-Markt wieder zahlreiche technische Spielereien! IT-BUSINESS hat die besten Gadgets zusammengesucht: vom Kaffee und Tee zubereitenden Wecker bis zum Smartphone-Gefängnis. lesen

Entwickeln für Serverless-Umgebungen

Function as a Service

Entwickeln für Serverless-Umgebungen

Wer vorrangig eine Anwendung coden und sie nicht zusätzlich orchestrieren möchte, entwickelt für Serverless. Doch der „Function as a Service“- oder kurz FaaS-Ansatz hat seine ganz eigenen Spielregeln und bricht mit dem klassischen DevOps-Gedanken. lesen

iOS-Geräte sicher an Office 365 und iCloud anbinden

Apple iCloud im professionellen Einsatz (Teil 10)

iOS-Geräte sicher an Office 365 und iCloud anbinden

Geräte mit iOS-Betriebssystem lassen sich an Office 365 anbinden und mit Postfachrichtlinien absichern. Auch die Anbindung an iCloud kann sicher durchgeführt werden, wenn Anwender richtig vorgehen – wir zeigen wie. lesen

5 Empfehlungen für KI-Projekte

Verschenktes Potenzial

5 Empfehlungen für KI-Projekte

Algorithmen, Roboter und digitale Assistenten haben in deutschen Unternehmen Einzug gehalten: Gut 40 Prozent der Betriebe haben schon mit Künstlicher Intelligenz (KI) gearbeitet, 88 Prozent planen dies in den kommenden zwölf Monaten. Doch die Unternehmen setzen KI vorwiegend zur Prozessoptimierung ein – und schöpfen dadurch ihr Potenzial nicht umfassend aus, so die These von Johannes Wagmüller, Netapp. lesen

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46084583 / Definitionen)