Neues von der .conf-Anwenderkonferenz 2020 Splunk schreibt sich „Cloud First!“ auf die Fahnen
Auf der diesjährigen .conf-Anwenderkonferenz konzentrierten sich die Neuvorstellung von Splunk auf drei Bereiche: Streaming-Verarbeitung, APM und Service Intelligence sowie eine brandneue Machine Learning Suite. Die Cloud ist für Splunk von strategischer Bedeutung geworden und Kubernetes spielt dabei eine zentrale Bedeutung.
Anbieter zum Thema

„Wir werden voraussichtlich 80 Prozent unseres Gesamtumsatzes mit Lösungen machen, die wir in der Cloud bereitstellen“, sagte Splunk-CEO Doug Merritt in seiner Keynote und der anschließenden Pressekonferenz. Um der Cloud Rechnung zu tragen, hat sein Unternehmen massive Anstrengungen unternommen, um die vorhandenen vier Portfolio-Säulen IT Service Management (ITSM), Security, Machine Learning (AIOps) und IT-Ops zum Teil völlig neu zu entwickeln. Das Betriebsmodell ist fortan Hybrid- und Multi-Cloud, wobei Kubernetes eine zentrale Rolle spielen. Dafür bietet Splunk nun den Splunk Operator for Kubernetes ((http://splunk.com/operator)) an.
„Wir nutzen Kubernetes für alles, was mit der Cloud zu tun hat“, sagt CTO Tim Tully, „so etwa für unsere Splunk Enterprise Cloud, also für den internen Gebrauch. Alles, was wir kürzlich angekündigt haben, läuft auf Kubernetes.“ Das bedeutet nämlich die Devise „Cloud First“, die CEO Doug Merritt verkündet hat: „Alle Lösungen laufen in Containern auf Kubernetes. Unsere Release-Zyklen haben sich auf vier bis sechs Wochen verkürzt. Früher erfolgte ein Release nur zweimal im Jahr. Das bedeutet, dass auch unsere On-Prem-Releases künftig alle vier Wochen erfolgen.“
Neues Ziel: Streaming-Daten
In einem weiteren strategischen Schwenk konzentriert sich die Datenerfassung und -auswertung zudem auf Streaming-Daten. „Wir realisieren einfach nur, wohin unsere Kunden uns führen“, sagt Tim Tully. Zu diesen Kunden gehören namhafte deutsche Unternehmen wie etwa DB Cargo. Dort wird seit mehreren Jahren ein umfassendes Sensornetzwerk aufgebaut, das Waggons, ihre Inhalte, ihren Zustand und ihren Aufenthaltsort laufend erfasst. Dabei fallen große Datenmengen, die in den Petabyte-Bereich reichen. Entsprechend skalierbar und performant müssen demnach auch Splunks neue Cloud-Versionen und -Angebote sein.
Der neue Data Streaming Processor (DSP) 1.2, der laut Tully im vierten Quartal nur für die Cloud bereitgestellt wird, verarbeitet die Streaming-Daten mithilfe von Apache Pulsar anstelle von Apache Kafka oder Apache Flink. „Der Grund für diese Wahl waren Performance-Aspekte“, erklärt Tully. „Aspekte wie Latenzzeit, Bandbreite, CPU-Belastung, Anzahl der nötigen Knoten und mehr. Der DSP liefert Daten im Millisekundenbereich.“ Der DSP lässt sich von Kunden nutzen, die bereits vorhandene Splunk-Cloud-Instanzen betreiben. „Wir haben große Kunden, die täglich viele Petabyte an Daten durch den DSP leiten. Sie brauchen die performanteste Technologie.“
Es handle sich um einen Datenbus für das Unternehmen, der ihm hilft, die Stream-Daten in Echtzeit zu verstehen, sie in andere Formate umzuwandeln und zu aggregieren. „Die neue Version ist 400 Prozent schneller und unterstützt das Pub/Sub-Verfahren auf der Google Cloud Platform sowie das MS Azure Event Hub.“ Der DSP, der on-premises und in der Cloud laufe, reichere die Daten zudem an. Zudem lassen sich die nun völlig umgeschriebenen Machine Learning Algorithmen direkt auf die Datenströme anwenden. „Die skalierbaren Modelle lernen von den Streams im DSP und verbessern dabei die Algorithmen.“
Die Algorithmen und Modelle lassen sich nun in dem cloud-basierten Splunk Machine Learning Environment (SMLE) erstellen und bearbeiten. Dafür wurden die hauseigenen SPL-Befehle komplett überarbeitet, so etwa auch für eine angepasste Version von Jupyter Notebooks. „SMLE ist derzeit cloud-only, aber es wird eine On-Premises-Version geben“, kündigte Tully an.
Splunk Enterprise 8.1 for Multi-Cloud
Durch die Nutzung von Kubernetes unterstützt Splunk Enterprise 8.1 die Multi-Cloud-Anforderungen seiner Kunden. Sie mache sie produktiver, liefere erweiterte Einblicke in den IT-Service-Betrieb und sei für Admins leichter zu steuern.
Service Intelligence for SAP ist ein neuer Bestandteil der ITSI-Suite. „ITSI erfasst die Daten, die SAP-Lösungen aussenden, und Splunk Service Intelligence for SAP verarbeitet sie mit KI-Funktionen in ITSI, um den Admins einen Überblick mit der Möglichkeit, sie tiefer zu analysieren, zu liefern.“ Auf SAP-Seite läuft Service Intelligence for SAP im SAP App Center. Weitere Ergänzungen in ITSI sind ein Splunk Infrastructure Monitoring Add-on, mit dem sich Metriken in die Splunk-Plattform sammeln und integrieren lassen.
Application Performance Management (APM)
In den letzten Jahren hat Splunk durch Zukäufe die Fähigkeit seiner Plattform erhöht, aus Daten Erkenntnisse zu ermöglichen und aus diesen Erkenntnissen Aktionen zu generieren. Die Monitoring-Fähigkeit, die mit SignalFX und Omnition eingekauft wurde, war nur ein erster Schritt, und mit der Akquise von Plumbr sowie der Kaufabsicht für Rigor (s.u.) kommen weitere Funktionen hinzu.
In einer neuen Observability Suite führt Splunk Metriken, Tracing und Logging in einer einzigen Benutzeroberfläche zusammen. Damit stößt es in den DevOps-Markt für Application Performance Monitoring (APM) vor, dessen Lösungen in den gesamten Workflow von der Problemerkennung bis zur Problembehebung reichen sollen. Das Alleinstellungsmerkmal besteht laut Tim Tully in „Splunks Fähigkeit, anstelle von lediglich Stichproben sämtliche Daten zu sammeln, zusammenzuführen und auszuwerten. Und das zudem kosteneffizient und skalierbar. „
Real User Monitoring (RUM)
Zu den zentralen Funktionen der Observability Suite gehört Real User Monitoring (RUM). RUM liefere in Echtzeit umfassende, zuverlässige und detaillierte Daten zu jedem Kunden und zu jeder Nutzerinteraktion mit einer Anwendung. Der Zweck bestehe darin, dass Entwicklerteams eine genaue Vorstellung von der Kundenerfahrung mit ihrer neuen App erhalten.
Wenn Site Reliability Engineers (SRS) die Stabilität einer Webseite erhöhen wollen, hilft ihnen der Log Observer for DevOps. Für beide Tools, die sich noch im Beta-Stadium befinden, lasse sich die Cloud-Infrastruktur als auch die neue Streaming-Architektur von Splunk nutzen. Mit Plumbr erhalte der Entwickler tiefen Einblick in Java- und Byte-Code (BCI). Rigor sei ein Spezialist für die Überwachung eines digitalen Nutzungserlebnisses mithilfe des Synthetic Monitoring.
Standards für Telemetrie
Um die Datenerfassung für die genannten AIOps- und DevOps-Zwecke noch genauer und schneller zu gestalten, treibt Splunk nach Tullys Worten die Entwicklung eines offenen, allgemeinen Standards für Telemetrie (Fernmessung) voran. Zusammen mit Google und Microsoft trage das Unternehmen stark zum quelloffenen CNCF-Projekt bei. „Bei OpenTelemetry geht es um die Demokratisierung des Zugriffs auf Daten“, erläutert Tully. „Es geht nicht bloß um die Datenerfassung, sondern darum, was man mit den Daten tut.“
Splunk Connected Experiences
Schon in den letzten zwei Jahren hat Splunk seine Kunden aufhorchen lassen, als es um Fernsehen, Amazon und Apple ging. „Splunk Connected Experiences“ soll Kunden mit nützlichen Informationen und Erkenntnissen auch unterwegs versorgen und die Produktivität der Belegschaft steigern.
„Splunk Augmented Reality" bietet das neue Feature der Kollaboration und Interaktion zwischen zwei entfernten Nutzer-Standorten an. Splunk TV erlaubt es Nutzern nun, mehrere Fernsehgeräte von einem zentralen Standort aus zu steuern, ohne mit dem gleichen Netzwerk verbunden sein zu müssen. Splunk TV ist nach Apple TV inzwischen auch auf Android TV und Fire TV (Amazon) erhältlich. Auch „Splunk Virtual Reality“ ist mittlerweile allgemein verfügbar. Das 3D-Erlebnis soll Kunden in die Lage versetzen, benötigte Daten durch den visuellen Vergleich von Daten zu finden und eine einfache Trendanalyse durchzuführen.
(ID:46957266)