KI-Automatisierung direkt am Rand des Netzwerks Edge-Assistent statt ERP: Qualcomm setzt auf KI vor Ort

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Qualcomm, Aetina und Data Systems bringen eine Edge-KI-Lösung für Unternehmen an den Start. Ein Enterprise AI Assistant soll Dokumente erfassen, Bestellungen automatisieren und klassische IT-Architekturen herausfordern. Das Trio setzt dabei auf massive Rechenleistung am Netzwerkrand – und will Prozesse fast vollständig von Handarbeit befreien.

Qualcomm, Aetina und Data Systems bringen eine Edge-KI für die Industrie – komplett ohne Cloud-Anbindung.(Bild: ©  Grüner - stock.adobe.com)
Qualcomm, Aetina und Data Systems bringen eine Edge-KI für die Industrie – komplett ohne Cloud-Anbindung.
(Bild: © Grüner - stock.adobe.com)

Der Trend zur Edge-KI bekommt ein neues Gesicht: Mit dem „Enterprise AI Assistant“ zeigten Qualcomm, Aetina und Data Systems auf der Computex 2025, wie sich multimodale Large Language Models (LLMs) direkt am Netzwerkrand ausführen lassen. Das System basiert wohl auf Aetinas MegaEdge AIP-FR68, das wiederum auf Qualcomms Cloud AI 100 Ultra Accelerator setzt – eine Plattform, die laut Angaben der Anbieter bis zu 870 TOPS an Rechenleistung liefert. Genug, um multimodale Large Language Models direkt am Netzwerkrand auszuführen.

Zielgruppe seien Unternehmen, die sensible oder latenzkritische Prozesse nicht in die Cloud verlagern können. Stattdessen soll der KI-Assistent lokal aus Dokumenten, Bildern oder Formularen Informationen extrahieren, interpretieren und in bestehende Systeme wie ERP- oder E-Formular-Lösungen einspeisen. Die Interaktion erfolge dabei über natürliche Sprache – etwa per Chatfenster oder Sprachinterface.

Automatisierung mit Anwendungsnähe

Ein typisches Szenario: Ein Hersteller verarbeitet pro Tag 50 Bestellungen manuell. Aktuell dauert das rund 150 Minuten. Mit der Edge-KI soll sich dieser Aufwand auf 5 Minuten reduzieren lassen – eine rechnerische Effizienzsteigerung von 96 Prozent. Möglich soll das durch automatisierte Texterkennung, semantische Analyse und regelbasierte Weiterverarbeitung sein.

Dabei betonen die Anbieter, dass die Lösung auf existierende Infrastrukturen aufsetzt. Die Integration erfolge über APIs, Middleware oder direkt in bestehende Formulare. Besonders in Umgebungen mit eingeschränkter Internetverbindung – etwa in der Fertigung oder bei kritischen Infrastrukturen – könnte dieser Ansatz Vorteile bieten.

Kein Cloud-Zwang, keine Datenflut

Durch die Edge-Architektur bleiben sensible Daten lokal, die Latenz gering, und der Bandbreitenbedarf überschaubar. Der Assistent komme ohne laufende Verbindung zur Cloud aus – ein Argument, das vor allem in regulierten Branchen auf Gehör stoßen dürfte. Gleichzeitig bedeutet das: Updates, Trainingsdaten und Modelle müssen vorab gut abgestimmt sein, da „nachjustieren in Echtzeit“ hier nicht vorgesehen sei.

Die KI-Modelle nutzen multimodale Inferenz, um Sprache, Bilder und strukturierte Daten zu verarbeiten. Damit ließen sich auch komplexe Dokumente wie Lieferscheine, Zollformulare oder technische Zeichnungen in automatisierte Prozesse einbinden – zumindest theoretisch.

(ID:50474419)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung