Durchdacht und durchgerechnet Manchmal gar nicht so schlau: KI für die Cloud
Deutsche Unternehmen begeistern sich für Maschinenlernen, Roboterautomation und künstliche Intelligenz. Doch die Nutzung entsprechender Systeme muss gleich drei Hürden nehmen. Manchmal muss daher die natürliche Verbindung von KI und Cloud gekappt werden.
Anbieter zum Thema

Mit drei Milliarden Euro will die Bundesregierung die Forschungen an der Künstlichen Intelligenz (KI/AI) bezuschussen – mehr oder weniger, die Diskussionen darum laufen seit Wochen auch in den Massenmedien. Kein Wunder: Deutsche Unternehmen erhoffen sich von KI, Robotic Process Automation (RPA) und Maschine Learning (ML) „mehr Umsatz, weniger Personaleinsatz, bessere Entscheidungsfindung und einen höheren Automatisierungsgrad“, so die Analystin Anna-Lena Schwalm von Crisp Research, übereinstimmend mit Ergebnissen von PAC.
Das österreichische Bundesministerium für Verkehr, Innovation und Technologie (BMVIT) hat erkannt (PDF), dass KI-Systeme im Rechenzentrum „für die unterschiedlichsten Anwendungen und Funktionen“ eingesetzt werden können, darunter Monitoring von großen Datenmengen, Auffinden von Mustern und neuen Erkenntnissen, Vorhersagen, Interpretation von unstrukturierten Daten und Interaktion mit der physischen Umgebung, anderen Maschinen und Menschen. So oder so: 44 Prozent der von Crisp befragten Entscheider gehen aktuell davon aus, dass ML in den kommenden zwei Jahren mehr als 20 Prozent der Wertschöpfung neuer digitaler Produkte und Dienstleistungen ausmachen wird. Umgerechnet auf die 100 umsatzstärksten deutschen Unternehmen entspricht das rund 61 Milliarden Euro im Jahr 2020.
Natürliche Verbindung von Cloud und KI
Anwendern kommt eine andere Technologie entgegen, die parallel und unterstützend zu KI für Furore im Rechenzentrum sorgt: Cloud Computing. Zwischen beiden Verfahren besteht praktisch eine natürliche Verbindung, denn KI benötigt Daten, Unmengen von Daten, um etwas lernen und erkennen zu können. Diese müssen irgendwoher kommen und irgendwohin abgespeichert werden. Ohne die Cloud wäre das kaum machbar.
Da wundert es wenig, dass deutsche Firmen laut der Untersuchung „State of AI in the Enterprise Survey 2019“ von Deloitte künstliche intelligente Systeme kaum selbst entwickeln, sondern als Service beziehen oder Unternehmenssoftware mit integrierter KI einsetzen. Als KI-as-a-Service findet die Technologie auch leicht Eingang in mittelständische Unternehmen: „Insgesamt lässt sich festhalten, dass der Trend „AI als Dienstleistung“ gewissermaßen zur Demokratisierung von AI beiträgt: Cloud-basierte Lösungen Künstlicher Intelligenz eröffnen auch kleineren Unternehmen, denen oft die benötigten Fachkräfte und Mittel für Eigenentwicklungen fehlen, den Zugang zu dieser neuen Schlüsseltechnologie“, so Milan Sallaba, Leiter Technology Sector bei Deloitte.
Problem 1: Datenschutz wird noch herausfordernder
Gerade hat Cloud Computing seinen schlechten Ruf abgelegt, was die Sicherheit der darin aufbewahrten Daten anbelangt. Gerade noch als völlig unsicher verschrieen finden sich Clouds in der einen oder anderen Art mittlerweile praktisch in jeder Firma, Sicherheitsverfahren wie etwa Cloud Access Security Broker (CASB) haben sie sicherer werden lassen.
:quality(80)/images.vogel.de/vogelonline/bdb/1272200/1272263/original.jpg)
Definition: CASB
Was ist ein Cloud Access Security Broker?
Nun aber tritt ein neuer Alliierter auf, dessen Ruf noch schlechter ist: Deloitte hat herausgefunden, dass „das Vertrauen in künstliche Intelligenz ausbaufähig ist“, deutsche Unternehmen betrachteten KI vielfach mit Sorge. „Gerade hinsichtlich Cyber-Risiken bestehen Bedenken, etwa was den Diebstahl sensibler Daten oder Algorithmen anbelangt“, so Ralf Esser, Leiter TMT Insights Deutschland bei Deloitte. „Als gravierendste Herausforderungen im Rahmen von KI-Initiativen nennen die befragten deutschen Firmen an erster Stelle datenbezogene Probleme etwa bezüglich Datenschutz, Datenqualität, Bereinigung, Integration, maschinelle Interpretation und so weiter.“
Da deutsche Unternehmen gehalten sind, die europäische Datenschutzgrundverordnung (DSGVO) vollumfänglich umzusetzen, müssen sie auch eine Datenschutzfolgeabschätzung vornehmen. Künstlich intelligente Maschinen haben nun aber den Anspruch, zu lernen – mit der Folge, dass der zu Grunde liegende Algorithmus nötigenfalls laufend verändert wird. Wie genau eine Datenschutzfolgeabschätzung für ML/KI unter diesen Umständen erfolgen soll ist nach wie vor unklar.
Problem 2: Qualität der Daten
Vanson Bourne hat in seiner Studie „Driving The Rise of AI and ML with Data“ nachgewiesen, dass – analog zu den oben genannten Studienergebnissen – Unternehmen gerne KI / ML einsetzen würden, nicht zuletzt weil man sich davon greifbare Predictive Analytics erwartet. Zugleich fand Vanson Bourne heraus, dass dieselben Unternehmen in der Regel gar nicht die Kapazitäten vorhalten, um KI / ML durchzuführen. 37 Prozent der Unternehmen haben demnach extra in Cloud-Storage investiert, aber nur 30 Prozent nutzen Werkzeuge, um einen Mehrwert aus ihren Daten zu ziehen.
„Ich bin überrascht, dass nur wenige Unternehmen Cloud-Infrastrukturen tatsächlich für ML und KI einsetzen, obwohl dies viele Vorteile hätte. Es scheint, dass viele Unternehmen das Potenzial ihrer Daten noch nicht erkannt haben: Sie investieren in die Cloud, um diese dann doch nur für passive Datendienste zu nutzen. Dabei könnten die flexibel skalierbaren Rechenleistungen helfen, um mittels ML ihr Business zu optimieren“, so Mathias Golombek, CTO bei Exasol, das die Studie gesponsert hat. Er rät zu hybriden IT-Umgebungen, um Daten-Silos zu vermeiden und so übergreifend Informationen aus den Daten zu generieren.
„Mit Maschinellem Lernen zu beginnen, ist einfacher als viele befürchten, und es ist ermutigend zu sehen, dass Unternehmen die Qualität ihrer Daten mittlerweile verbessern – denn dies ist eine entscheidende Voraussetzung. Nur qualitativ hochwertige Daten bilden die Grundlage für solche lernenden Systeme. Die Cloud bietet hierbei Projektleitern die Möglichkeit, die Infrastruktur nach und nach zu skalieren und Kompetenzen für Pilotprojekte oder langfristige Programme aufzubauen“, so Golombeks von Vanson Bourne.
Problem 3: Latenz
Nun, ein Drittel der Firmen hat das Problem erkannt und setzt KI bzw. ML in Kombination mit Cloud-Diensten ein. Aber auch diese Pioniere sehen sich einer weiteren Hürde gegenüber: Daten stammen oft aus einem Industrie 4.0-Nezwerk, einem Internet of Things (IoT) und werden von irgendeinem Sensor hervorgebracht. Die Übertragung dieser Daten in die angeflanschte Cloud dauert!
Die Studie „Reach Your Analytics Goals with Hybrid Cloud“ von Forrester zeigt, dass Anwender gerade die für KI notwendigen Workloads in die Hybrid Cloud schieben, diese wird zum integralen Bestandteil von modernen Analytics-Strategien. Für die innercloudige Datenverarbeitung haben die Prozessorenexperten dieser Welt mittlerweile spezielle Hardware geschmiedet, mit der Ergebnisse tatsächlich beinahe in Echtzeit erzielt werden können. Doch die Leitungen zwischen Sensor und Tool sind das Problem.
Und was für ein Problem – stellen Sie sich etwa die kommenden autonomen Fahrzeuge vor. Diese funktionieren nur mit KI, das Auto muss im Zweifelsfall, gerade in brenzligen Situationen, blitzschnelle Entscheidungen treffen. Dauert die Übertragung der dafür nötigen Daten zu den Werkzeugen in der Cloud zu lange, können die Insassen des Fahrzeugs längst tot sein. „Längere Distanzen zwischen dem Anwender und der Anwendung in der Cloud führen zu einer höheren Latenz beim Datentransfer. Hinzu kommt eine nicht ausreichende Bandbreite sowie Protokolle, die nicht für weite Strecken geeignet sind. Das hat zur Folge, dass ebenfalls die Geschwindigkeit der Anwendung darunter leidet und der Anwender so mit einer langsamen Anwendung arbeiten muss“, so Crisp-Analyst Hille bereits vor Jahren.
Lösung: Edge Computing?
Ganz frisch stellt daher Capgemini die berechtigte Frage: „Zunehmender Datenverkehr stellt die Cloud vor Herausforderungen hinsichtlich Latenz, Netzwerkbandbreite und erhöhten Netzwerkkosten. Ist Edge Computing die Lösung?“ Beim Edge Computing wird das verarbeitende Rechenzentrum bekanntlich an die Quelle der Daten herangerückt, „Durch die lokale Verarbeitung von Daten, werden Latenzzeiten verkürzt und Netzwerküberlastungen verhindert“, so Capgemini. Das Problem ist genauso bekannt wie vielschichtig.
Das haben neben Spezialisten wie Thomas Krenn auch Generalisten wie IBM, Siemens und Bosch, HPE, Amazon, Microsoft oder Google erkannt und haben entsprechende Lösungen gebaut. Speziell für KI-Anwendungen ist etwa AWS Greengrass entwickelt worden, genau wie Microsofts Azure IoT Edge oder Googles Cloud IoT Edge.
„Bis vor drei Jahren galt die Cloud als DER Heilsbringer der Branche, seit dem bauen und installieren wir in zunehmendem Maße kleine, kompakte Edge-Rechenzentren direkt vor Ort“, berichtet Bernhard Seibold, zuständig für das Systems Engineering bei der Thomas Krenn AG. Er berichtete von einem Boom bei Edge-Rechenzentren und führt als Grund die genannte mangelnde Bandbreite der Verbindungen zwischen Rechenzentrum bzw. Cloud und der Quelle von Daten, gerade im IoT-Umfeld. Besser sei es, die Daten direkt vor Ort auszuwerten und nur die Ergebnisse ins „Mutterhaus“ zu übermitteln.
Fazit: Was ist hier schlau?
Deutsche Unternehmen haben Sinn und Vorteil von künstlich intelligenten Systemen erkannt. Der KI-Standort Deutschland ist daher nach Ansicht des Deloitte-Analysten Milan Sallaba „eindeutig noch nicht ‚abgehängt‘“. IT-Verantwortliche haben erkannt, dass KI-Werkzeuge einen großen Mehrwert aus Daten ziehen können, die gerade in IoT-Netzen in gewaltigen Massen entstehen. Ob die Datenverarbeitung günstiger in einer Cloud oder vor Ort geschieht, muss von Fall zu Fall entschieden werden. Die Anbieter entsprechender Systeme werden sich freuen, den Anwendern Modellrechnungen präsentieren zu dürfen. Fragen Sie sie danach - das wäre ziemlich schlau.
(ID:45909731)