Fundamente der KI Architecture Mining kämpft gegen die Cloud-Verschwendung

Von Dr. Dietmar Müller 5 min Lesedauer

Anbieter zum Thema

Ein neues Verfahren hat sich aus dem universitären Kontext gelöst und geistert nun durch die globale IT-Szene: Architecture Mining zeigt visualisiert auf, wohin das Geld in der Cloud verschwindet und bildet ganz nebenbei die Basis für alle möglichen Anwendungsfälle der KI.

Die Cloud wird zu komplex. „Architecture Mining“ schickt sich an, dies zu ändern.(Bild:  frei lizenziert, geralt / Pixabay)
Die Cloud wird zu komplex. „Architecture Mining“ schickt sich an, dies zu ändern.
(Bild: frei lizenziert, geralt / Pixabay)

Die Cloud wird zu komplex. In Zeiten von Hybrid- und Multi-Cloud hören wir Anwender zunehmend über einen Wildwuchs bei ihren Installationen klagen, immer mehr Daten und Infos verschwinden in irgendwelche digitalen Unternehmens-Nirvanas. Flexera spricht in diesem Zusammenhang von einer „Cloud-Verschwendung“, die in der Regel etwa ein Drittel aller Cloud-Budgets betrifft.

Ein junges Verfahren, gerade erst der Universität entwachsen, schickt sich an, dies zu ändern: „Architecture Mining“ will Daten, die in der Infrastruktur verborgen liegen, extrahieren, bündeln und analysieren. Das soll nicht zuletzt Abhängigkeiten zwischen verschiedenen Elementen der Umgebung aufzeigen, und zwar in visualisierter Form. Anhand einer Graphik können Anwender erkennen, welche Bereiche hohe Kosten verursachen, welche Investitionen sich gelohnt haben, etc. Wichtig dabei ist, dass die herangezogenen Daten stets auf dem neusten Stand sind. So bilden sie dann auch eine tragfähige Basis für alle möglichen Anwendungsfälle der künstlichen Intelligenz (KI) im Unternehmen.

Architecture Mining ist kein Data Mining

Aber Achtung: Architecture Mining ist nicht einfach ein anderer Begriff für „Data Mining“, das praktisch seit Anfang der Informatik für die Erfassung und die Untersuchung von Big Data zum Einsatz kommt. Das Augenmerk liegt beim Architekture Mining auf der möglichst automatischen Extraktion empirischer Zusammenhänge zwischen Objekten. Speziell an niederländischen Hochschulen scheint man das aber schon früh anhand von Visualisierungen versucht zu haben, entsprechende Diplomarbeiten dazu belegen dies.

So waren beispielsweise an der Uni Utrecht 2018 u.a. die damaligen Doktoranden Vinicius Stein Dani und Jan Martijn van der Werf mit entsprechenden Ansätzen aufgefallen. Und Carlijn Quik präsentierte 2019 am dortigen Institut für Information and Computing Sciences eine entsprechende Diplomarbeit mit dem Titel „ Visualising Software Dynamics through Architecture Mining”. Sie beschreibt die Motivation für ihren Ansatz gleich eingangs ihrer Arbeit: „Bei der Rekonstruktion einer Softwarearchitektur auf der Grundlage von Daten, die aus einem laufenden System extrahiert wurden, kann die Menge der extrahierten Daten überwältigend werden (z. B. Dutzende von Gigabyte) und schwer zu verstehen sein. Der Bereich der visuellen Analyse entwickelt bessere und effektivere Möglichkeiten, solch große Datensätze zu verstehen und zu analysieren.“

Leider mangle es jedoch an Forschung zur effektiven Visualisierung von Architekturinformationen. Dem wollte Quick mit einem webbasierten und interaktiven Dashboard namens „Architecture Miner“ entgegenwirken. Dafür erhielt sie ein „cum laude“ und ist heute als Senior Consultant bei Deloitte Consulting angestellt. Ihr Spezialgebiet: Die Visualisierung von Daten.

Was bringt Architecture Mining?

Auch der ehemalige Student van der Werf hat sich gemacht und trägt mittlerweile zwei Doktortitel in Informatik, einen von der Technischen Universität Eindhoven, einen und der Humboldt-Universität zu Berlin, basierend auf seiner Doktorarbeit „Compositional Design and Verification of Component-based Information Systems“. Er ist als Assistenzprofessor für Softwarearchitektur wieder am Institut für Informations- und Computerwissenschaften der Universität Utrecht tätig. Nach wie vor betreibt er eine Site zum Thema Verbesserung der Architekturdokumentation durch Softwarebetriebsdaten, kurz: Architecture Mining.

Auch in Augsburg geht es in die Architekturmine

Qbilon-CTO Dr. Thomas Driessen.(Bild:  Qbilon)
Qbilon-CTO Dr. Thomas Driessen.
(Bild: Qbilon)

Aber auch hierzulande hat man den Wert des Ansatzes erkannt: Das in Augsburg ansässige Qbilon vertreibt eine Architecture-Mining-Lösung, die sich einfach und praktisch in bestehende Management-Suites integrieren lässt. Ihr oberstes Ziel ist es, die eingangs von Flexera aufgedeckte „Cloud-Verschwendung“ zu reduzieren und den ROI einer Cloud-Migrationen genauer zu beziffern. Durch Visualisierung von Abhängigkeiten zwischen verschiedenen Elementen der Umgebung, versteht sich. So könnten Unternehmen genau sehen, welche Bereiche unmäßig hohe Kosten verursachen und welche Anwendungen dagegen gut abschneiden.

Dafür integriert Qbilon verschiedene Datenquellen, beispielsweise Cloud-Plattformen wie AWS oder Azure, IT-Monitoring- und Management-Lösungen wie Paessler PRTG oder Dynatrace sowie Virtualisierungs-Tools wie vSphere. Kunden können auch generische Daten wie CSV oder JSON importieren, um ältere Informationen zu integrieren. „Das automatische Aktualisieren der gesammelten Daten und eine stets aktuelle Dokumentation für den gesamten Cloud-Bestand ermöglichen eine kontinuierliche Überwachung und Optimierung der Cloud-Infrastruktur“, fasst der Qbilon-CTO Dr. Thomas Driessen den Ansatz zusammen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das Architecture Mining von Qbilon beschränke sich übrigens nicht auf Cloud-Umgebungen. Auch und gerade bei hybriden Architekturen, bei denen ein Teil der Infrastruktur on-premises läuft, könne der Ansatz helfen. Das dürfte nicht zuletzt Behörden und Finanzinstitute brennend interessieren, sind sie doch aus datenschutzrechtlichen Gründen praktisch gezwungen, ihre Daten in vernagelten Tresoren ganz unten in dunklen Keller versteckt zu halten. Da ist es dann auch kein Wunder, dass sich Qbilon zuletzt auf der Sicherheitsmesse it-sa in Nürnberg gezeigt hat. Die Doppelspitze aus Dr. Julian Kienberger und Dr. Simon Lohmüller präsentierte zusammen mit Driessen und der CPO Dr. Melanie Langermeier „hybride IT-Landschaften" und wie man sie überblicken kann.

Qbilon unter den Fittichen von Paessler

Die vier ehemaligen Informatik-Studenten hatten Qbilon 2019 gegründet. Vor einem Jahr übernahm es der IT-Monitoring-Spezialist Paessler AG, der insbesondere im Segment der Großunternehmen sein Produktangebot ausbauen wollte.

„Qbilon schafft es, verschiedene Datenquellen komplexer IT-Landschaften auf intelligente Weise zu verbinden“, erläuterte der CTO von Paessler, Joachim Weber, die Beweggründe für die Übernahme. „Mit verschiedenen Aggregationsstufen und intelligenten Auswertungen von Datensätzen generiert Qbilon Erkenntnisse und ermöglicht IT-Managern und Lead-Architekten, über das Monitoring hinaus bessere Geschäfts- und Sicherheitsentscheidungen zu treffen.“

Paessler PRTG liefert dafür den Dateninput, Qbilon ermöglicht die automatisierte, aktuelle Dokumentation der bereitgestellten Informationen. Gemeinsam erkennen und verfolgen sie automatisch alle Komponenten einer komplexen, gerne auch globalen IT-, OT- und IoT-Umgebung. Mittlerweile nutzt eine ganze Reihe namhafter Unternehmen aus der Automobil-, Versorgungs- und Fertigungsindustrie die Kombination für die Optimierung und Steuerung ihrer IT-Infrastruktur. So zum Beispiel KTR Systems.

Olaf Korbanek, IT-Leiter bei KTR Systems.(Bild:  KTR Systems)
Olaf Korbanek, IT-Leiter bei KTR Systems.
(Bild: KTR Systems)

„Ich sehe Qbilon als eine strategische Investition – denn Daten allein sind nur Daten, aber Qbilon sagt mir, was ich damit tun kann“, erläuterte Olaf Korbanek, IT-Leiter des Anwenderunternehmens KTR Systems. „In einer komplexen und sich weiterentwickelnden Branche brauche ich einen dynamischen Überblick, der es mir ermöglicht, vorausschauend zu planen. Aus dieser Perspektive ist es möglich, ein Notfallkonzept zu erstellen, meine Mitarbeitenden zu entlasten, meine IT-Landschaft nachhaltig zu entwickeln und langfristig Geld zu sparen. Qbilon ist im Grunde Business Intelligence für meine IT-Abteilung.“

Artikelfiles und Artikellinks

(ID:50044507)