Rund 1.700 Entscheiderinnen und Entscheider erlebten am 25. Februar in München die Microsoft AI Tour. Chairman und CEO Satya Nadella skizzierte live vor Ort den Sprung von Chatbots zu vernetzten KI-Agenten und rückte „souveräne Intelligenz“ und Vertrauen ins Zentrum der Unternehmensstrategie.
Hoher Besuch in München: Satya Nadella zeichnet vor rund 1.700 Teilnehmenden auf Microsofts AI Tour seine Vorstellung von „souveräner Intelligenz“, Sovereign Cloud und wertbringendem Einsatz von KI‑Agenten.
(Bild: MCSC 2026)
In seiner Keynote lobte Microsoft-Chef Satya Nadella generative künstliche Intelligenz (GenAI) als Werkzeug, dessen Wirkung aus menschlicher Ambition entsteht: Produktivitätsschübe im Mittelstand, bessere Gesundheits- und Bildungsergebnisse, effizientere Verwaltung. Den strategischen Kern definierte er als Aufbau einer firmeneigenen Wissens- und Entscheidungsbasis, die er „souveräne Intelligenz“ nennt.
Es gehe um die Fähigkeit, das im Unternehmen vorhandene Wissen, die Daten und Beziehungen in Arbeitsabläufe einzubinden, ohne dass das Differenzierungswissen nach außen abfließe. Damit verknüpft Nadella Vertrauen als zweite Leitachse: Governance, Nachvollziehbarkeit und Schutz des eigenen Wissenskapitals werden zum Wettbewerbsfaktor.
Vom Chat zum vernetzten Agenten für weniger kognitive Last
Technologisch markiert Microsofts Stack den Übergang vom Chat zur Agentenökonomie. Copilot wandelt sich zum vernetzten, zustandsbehafteten Begleiter quer durch Teams, Outlook, Word, Excel und PowerPoint. Standardaufgaben – Recherche, Analyse, Reporting – werden an spezialisierte Agenten delegiert, die nicht nur antworten, sondern aktiv Tools bedienen, Daten hochladen und Workflows fortführen.
Excel soll durch „Agent Mode“ ein Revival erleben: Modelle generieren und erklären Pivot-Layouts, Metriken und Visualisierungen, während Nutzer iterativ steuern mit dem Ziel, kognitive Last zu senken, statt Blackbox-Aufwand zu erzeugen. Nadella hob die Gestaltungsidee hervor, Begründungen („Work IQ“) sichtbar zu machen, nächste Schritte vorzuschlagen und Routinearbeit zu automatisieren – erst so entstehe echte Produktivität.
IQ-Schichten und Foundry: Der „App-Server“ der KI-Ära
Unter der Oberfläche verdichtet Microsoft die Unternehmenssemantik in einer mehrlagigen „IQ“-Schicht: WorkIQ erschließt das Geflecht aus Personen, Artefakten, Kalendern, Projekten und Kommunikation im Microsoft-365-Graph; Fabric/FoundryIQ bringt semantische Datenmodelle aus Power BI und Excel sowie die Dokumentenwelt als Grundwissen für Agenten ein. Daraus entsteht ein unternehmensweites Arbeitsgedächtnis, über das Agenten nicht nur suchen, sondern begründet schlussfolgern.
Mit Foundry positioniert Microsoft den „App-Server“ der KI-Ära: Frameworks für Agenten und Multi-Agenten-Systeme, Systemdienste für Guardrails, Suche/Ranking, Tool-Aufrufe, Observability plus Zugriff auf tausende spezialisierte und Frontier-Modelle. So könnten Entwickler beispielsweise mit GitHub Copilot CLI WorkIQ anzapfen, E-Mails auslesen, Anforderungen ableiten, Playwright-Tests automatisieren, Modelle per Slash-Befehl wechseln und über das Copilot SDK eigene Agenten-Apps bauen.
Azure als „Token Factory“ – nachhaltig und heterogen
Nadella komprimierte den Infrastrukturfokus in eine einfache Rechenformel: „Token pro Watt pro Euro.“ Azure wachse als globales „Tokenwerk“ mit über 70 Regionen und mehr als 400 Rechenzentren; in Deutschland werden drei Regionen weiter ausgebaut. Gleichzeitig hält Microsoft am 100‑Prozent‑Bezug erneuerbarer Energien fest und will Investitionen als Hebel für zusätzliche Grünstromprojekte nutzen.
Auf Systemebene verfeinert Microsoft die Effizienz entlang der Inferenzphasen, betreibt Memory-Tiering und nutzt SRAM‑beschleunigte Draft-Modelle. Die Flotte wird heterogen: Partnerschaften mit Nvidia und AMD treffen auf Microsofts eigene Maia‑Beschleuniger, die laut Nadella in ersten Diensten 30 bis 35 Prozent Performancevorsprung gegenüber bisherigen Bestwerten zeigen – alles mit Blick auf geringere Kosten je Token und Watt.
Adoption in Deutschland: Von Volkswagen bis Patentamt
Unternehmen wie Siemens, BMW, Mercedes und Volkswagen rollen Copilot breit aus; bei VW arbeiten rund 190.000 Beschäftigte mit Copilot-Funktionalitäten, 30.000 mit dem Vollumfang – hinterlegt mit rollenbasierten Use Cases.
Auf Entwicklerseite wächst die deutsche GitHub‑Community auf 4,8 Millionen Nutzerinnen und Nutzer bei 22 Prozent jährlichem Zuwachs. GitHub werde zur „Agent HQ“: Neben Repos und CI/CD orchestrieren Teams ihre Coding‑Agenten – mobil wie am Desktop. Das folgt dem aktuellen Wandel in der Softwareentwicklung, bei dem KI-gestützte Werkzeuge (Coding-Agenten) zu einem festen Bestandteil des täglichen Arbeitsablaufs von Entwicklerteams werden.
Sovereign Cloud im „Offline“-Betrieb
Neuigkeiten hatte Microsoft in Sachen Sovereign Cloud zu verkünden. In seiner souveränen Public Cloud bietet Microsoft erweiterte Kontrollen: lokale Datenresidenz, Confidential Computing, kundenseitig verwaltete Schlüssel (Customer‑Managed Keys) und durchgehende Verschlüsselung – einschließlich HSM‑Integrationen mit Partnern wie Thales und Utimaco, bei denen Schlüsselverwaltung national bleibt, während Public‑Cloud‑Funktionalität genutzt wird.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Mit Microsoft 365 Local und Azure Local adressiert Microsoft Organisationen, die Workloads im eigenen Rechenzentrum betreiben wollen, ohne auf Public‑Cloud‑Komfort zu verzichten. Neu ist die vollständige Verlagerung der Steuerungsebene on‑premises und die Möglichkeit eines komplett „disconnected“ bzw. air‑gapped Betriebs – also ohne jegliche Außenverbindung.
Mit Foundry Local öffnet Microsoft große Sprach- und Spezialmodelle für den isolierten Eigenbetrieb auf kundeneigener Infrastruktur, typischerweise mit Nvidia‑Beschleunigern, um hochsensible Anwendungsfälle ohne Public‑Cloud‑Abhängigkeit zu realisieren.
Wie sich diese Bausteine in der Praxis machen, zeigten verschiedene Kundencases. So muss das Europäische Patentamt (EPO) riesige Mengen unstrukturierter juristisch‑technischer Texte und Dokumente verarbeiten. Die Legal Interactive Platform auf Azure Model‑as‑a‑Service setzt Retrieval‑Augmented Generation ein, verlinkt Antworten auf Rechtsquellen und Rechtsfälle und reduziert Halluzinationen. Intern verzeichnet das Tool rund 600 Interaktionen täglich, extern um die 100 Zugriffe weltweit – die frühere Stichwortsuche ist damit praktisch verdrängt. Die Genauigkeit wird kontinuierlich evaluiert, Fehlerraten liegen laut EPO im niedrigen einstelligen Prozentbereich. Für „Oral Proceedings“ erstellt ein Copilot‑Agent strukturierte Protokolle aus Audio‑Transkripten, führt Prüferinnen und Prüfer iterativ durch Abschnitte, lässt korrigieren und bestätigt am Ende die Qualität. Im Pilotjahr 2025 meldeten 30 Prozent der Nutzer signifikante Zeiteinsparungen; 2026 ist die Lösung breit freigeschaltet und wird bei etwa der Hälfte der Patentierungsverfahren eingesetzt. Technisch strebt das EPO eine Hybridarchitektur an: On‑prem‑GPU‑Ressourcen werden mit Azure‑Diensten verbunden – durchgängig verschlüsselt, mit Confidential Compute und Customer‑Managed Keys, um die Vertraulichkeit sensibler Patentdaten zu sichern.
Die Branddirektion München nimmt in ihrer integrierten Leitstelle jährlich rund 120.000 Krankentransport‑Bestellungen an, bayernweit sind es etwa 800.000. Ein lokal in zwei redundanten Rechenzentren betriebener Sprachbot auf Azure‑Basis (AI Foundry, AI Speech, AI Search) nimmt standardisierte Transportanforderungen mehrsprachig entgegen – besonders für „Profibesteller“ wie die LMU‑Kliniken. Die Leitstelle bleibt weiter für Notrufe erreichbar, gleichzeitig entfallen Wartezeiten und die Bestellung gelingt in der jeweiligen Muttersprache. Der Bot ist strikt vom hochgesicherten Leitstellen‑Netz getrennt, erfüllt ISO‑27001 bzw. BSI‑Grundschutzanforderungen und skaliert derzeit bis 30 parallele Gespräche. Geplant ist eine Notfallerkennung, die Hilfesuchende automatisch an die 112‑Disponenten übergibt – der Bot unterstützt, rettet aber nicht; im Akutfall bleibt der Mensch in der Schleife.
Fraunhofer verankert generative KI in Verwaltung und Forschung. Der eigene Assistent FHGenie verbindet Azure‑Modelle aus AI Foundry mit internen Wissensbeständen und Open‑Source‑Modellen auf Fraunhofer‑GPUs, darunter ein eigenes Sprachmodell. Rund 12.000 Mitarbeitende nutzen FHGenie regelmäßig, über eine Million Chat‑Nachrichten pro Monat laufen über das System. Parallel stattete Fraunhofer 5.000 Lizenzen für M365 Copilot aus; in einem Pilot mit 600 Teilnehmenden würden 80 Prozent der Teilnehmenden Copilot weiter nutzen, im Mittel sparen sie konservativ zwei Stunden pro Woche. Ein weiterer Agent erstellt aus Forschungsarbeiten allgemeinverständliche Zusammenfassungen und Podcasts; entscheidend bleibt das Prinzip „Human‑in‑the‑Loop“, Autorinnen prüfen und verantworten Inhalte vor Veröffentlichung. Der Funfact am Rande: Fraunhofer hat im eigenen Keller ein redundantes IT-System auf Open-Source-Basis stehen – falls doch mal Vertrauen und Verlässlichkeit in den Technologielieferanten gestört sein sollte.
Parloa schließlich, ein 2017 in Berlin gegründetes KI‑Unicorn mit über 400 Mitarbeitenden, skaliert Kundenservice mit Voice‑ und Omnichannel‑Agenten auf Microsoft‑Infrastruktur. Die Plattform versteht den Agenten als digitalen Teamkollegen mit vollem Lifecycle‑Management: klare Rollen und Guardrails, Rollenspiele, A/B‑Tests, Qualitätssicherung und Coaching. Bei Großkunden wie Booking.com verarbeitet Parloa zweistellige Millionenvolumina pro Jahr, mit niedriger Latenz und natürlicher Sprache über viele Sprachen hinweg. Die Composable‑Architektur integriert neue Modelle zügig; Datenschutz und europäische Souveränitätsanforderungen werden über Azure‑Dienste, Verschlüsselung und Microsoft‑Marketplace‑Integration adressiert – inklusive der Möglichkeit, Cloud‑Commitments zu nutzen.
FOMO „in Action“ verwandeln
Microsofts Deutschland-Chefin Agnes Heftberger gab der verbreiteten Verunsicherung einen produktiven Rahmen. FOMO – „fear of missing out“, die Angst, den Anschluss zu verlieren – sei real, aber auch nützlich, wenn sie in Entscheidungen übersetzt werde. „Wer jetzt ganz gechillt in die Zukunft schaut und sagt, schauen wir mal, was da kommt, der wird sicher weg sein. Das ist ein Fakt.“
Satya Nadella und Agnes Heftberger im „Live“-Chat.
(Bild: MCSC 2026)
„Frontier Firms“ zeigten bereits, wie KI entlang der gesamten Wertschöpfungskette verankert wird: Mitarbeitende breit befähigen und qualifizieren, Prozesse Ende‑zu‑Ende neu denken, Innovation und Geschäftsmodelle mit KI beschleunigen und Kundenerlebnisse neu definieren – auf einer vertrauenswürdigen Basis aus Responsible AI, europäischen Datengrenzen, Souveränitätskontrollen und starken Sicherheitsallianzen.
Exemplarisch schilderte Hugo‑Boss‑Chef Daniel Grieder den Copilot‑Rollout über ein „Speedboat“ in der Schweiz, flankiert von Führungskräftetrainings und klarem „tone from the top“ – mit dem Ziel, Akzeptanz zu schaffen, Tempo zu halten und die Organisation nachweislich produktiver und „glücklicher“ zu machen.
Fazit: Optionen statt Dogmen und messbarer Nutzen im Alltag
Die AI Tour in München zeigte eine KI‑Agenda, die Technik, Governance und Ökonomie verzahnt: Agenten statt isolierter Chats, IQ‑Schichten statt Datensilos, Foundry als Anwendungsplattform, Agent 365 als Kontrollschicht und Azure als effiziente, nachhaltige Tokenfabrik.
Souveränität ist in Europa stark im Portfolio verankert zwischen Public- und Private‑Cloud‑Optionen bis hin zum vollständig getrennten Betrieb und lokal verfügbaren Modellen.
Die Kundencases belegen den Impact: schnelleres Erschließen von Wissensräumen, Entlastung bei Prozessen, produktivere Forschung oder skalierbarer Kundenservice.