Eröffnung des Accenture Gen AI Studio Munich Künstliche Intelligenz für die Fabrikautomation

Von Dr. Harald Karcher 13 min Lesedauer

Anbieter zum Thema

Generative AI kann schöne Bilder malen und wunderbare Gedichte schreiben. Binnen Minuten, verblüffend kreativ. Doch KI, erst recht die sprachbasierte, generative KI, kurz GenAI, frisst enorme Rechenpower in der Cloud, ist also teuer. Deshalb muss GenAI auch geldwerten Nutzen stiften, zum Beispiel in der Fabrikautomation. Wie das geht, wissen vor allem die Technologie-und-Wirtschafts-Berater.

Accenture belegt mehrere Gebäude im Balan Campus der Ideen, nahe dem Münchener Ostbahnhof. Hier befindet sich jetzt auch das neue GenAI Studio.(Bild:  Harald Karcher)
Accenture belegt mehrere Gebäude im Balan Campus der Ideen, nahe dem Münchener Ostbahnhof. Hier befindet sich jetzt auch das neue GenAI Studio.
(Bild: Harald Karcher)

Accenture ist mit über 700.000 Mitarbeitern der weltgrößte Unternehmensberater. Ein Zehntel davon, 70.000, machen schon Künstliche Intelligenz (KI), sagt Kathrin Schwan, Managing Director, Data & AI Network Lead, für Accenture DACH. GenAI verspricht Big Business. Deshalb machen auch die großen Strategie-Berater (wie Bain, Berger, Boston und McKinsey) längst KI. Und auch die globalen Wirtschafts-Prüfer: Deloitte, EY, KPMG oder PwC. Streng alphabetisch, ohne Wertung.

Christina Raab, Chefin von Accenture DACH, beim Pre-Opening des Gen AI Studios Munich für Automobilbau und Fabrikautomation.(Bild:  Harald Karcher)
Christina Raab, Chefin von Accenture DACH, beim Pre-Opening des Gen AI Studios Munich für Automobilbau und Fabrikautomation.
(Bild: Harald Karcher)

Christina Raab ist die Vorsitzende der Geschäftsführung von Accenture DACH. Für sie sei KI, speziell GenAI, der wichtigste Einschnitt in ihrer 25-jährigen Berater-Karriere, erzählt sie uns am 17. April 2024 beim Pre-Opening für die Presse. Tags drauf wurde das Accenture Gen AI Studio Munich offiziell mit Kunden eröffnet, ein weltweites KI-Know-How-Zentrum für Automobilbau und Fabrikautomation.

Das passt, denn just in Germany sitzen ja auch die Zentralen von Edelautobauern wie BMW, AUDI, Mercedes, Porsche, VW, und viele Maschinenbauer. Von München aus denkt Accenture die KI vor, für den Rest der Auto-Welt. In London sitzt ein GenAI Studio für die Banken und Finanzwelt. In Mailand für Konsumgüter. In Rom und Brüssel für die öffentliche Verwaltung. In Dublin für die Medien- und Kommunikationsbranche.

Outfit-Analyse im Gen AI Studio

In München präsentierte der KI-Studioleiter Christian Findeisen vor der GenAI-Tour ein unterhaltsames Warm-Up: Ein sprachbegabter GenAI-Computer mit Video-Kamera analysierte das Outfit der Presse-Besucher. Zuerst opferte sich Findeisen selber: Die GenAI würdigte seine wegrasierte Haarpracht so: Er sei zu cool für Haare. Und auch sonst ein wahrer „Dome of Experience“.

Links im Bild Accenture KI-Studioleiter Christian Findeisen – laut Outfit-Analyse der GenAI: zu cool für Haare.(Bild:  Harald Karcher)
Links im Bild Accenture KI-Studioleiter Christian Findeisen – laut Outfit-Analyse der GenAI: zu cool für Haare.
(Bild: Harald Karcher)

Derart ermutigt unterwarf sich eine Journalistin freiwillig dem britischen Sarkasmus: Der KI-Roboter frotzelte: „The classic corporate runway, featuring last seasons I-just-rolled-out-of-bed-collection. Oh look, there is the Queen of effortless sheek front in center. Offering a masterclass in blurred lines between pyjamas and workation.“ Frei übersetzt: „Der klassische Firmenlaufsteg mit der Kollektion der letzten Saison aus der Gattung: Ich-bin-grad-aus-dem-Bett-gefallen. Hier haben wir die Königin des mühelosen Aussehens. Eine Meisterklasse im Verwischen der Grenzen zwischen Pyjamas und Workation.“ Das Wort ist eine Mischung aus Arbeit (Work) und Urlaub (Vacation). Etwa: Arbeiten vom Strand aus. Der britische KI-Roboter tritt nach: „Truly a moment of sartorial rebellion against the tyranny of effort.“ Auf Deutsch: „Ein wahrer Moment der modischen Rebellion gegen die Tyrannei der Anstrengung.“

Studioleiter Findeisen entschuldigt sich für den frechen Roboter: „Ich hab’s Euch ja gesagt: Es ist sehr, sehr britisch“. Dann bittet er seine PR-Chefin Lea Treese zur Outfit-Analyse. Die GenAI reagiert begeistert: „Where do I even begin? The thrilling backdrop of corporate canvas really sets the stage for this parade of fashion forward professionals“. Auf Deutsch: „Wo soll ich nur anfangen? Die aufregende Kulisse von Corporate Canvas ist die richtige Bühne für diese Parade der modischen Profis“.

Am Ende der Begrüßungsrunde hat der Kamera-Roboter offenbar auch mich, den Autor mit dem blauen Foto-Video-Handy, mittig in der Gruppe entdeckt: „Front end center is the star of the show: A masterclass in office safari photography, Bravo!“. Auf Deutsch: „In der Bild-Mitte steht der Star der Show: Eine Meisterklasse der Bürosafari-Fotografie.“ Boaah, Glück gehabt: Ich, ein Büro-Safari-Fotograf? Bullshit, aber es klingt echt gut.

Wertschöpfungskette des Autobauers

Die Outfit-Analyse ist natürlich nur der Eisbrecher, aber kein Accenture-Business-Modell. Doch gleich wird es ernster, denn Findeisen nimmt uns auf eine kleine Reise durch die Wertschöpfungskette eines erdachten Autoherstellers, in unserem Falle A-Car: „wir werden mit dem Engineering Bereich anfangen, Engineering Design, wir werden weitergehen ins Marketing, dann in die Produktion wechseln, dann später ins Auto selbst, und am Ende in den Bereich Operations und Maintenance“, sagt der KI-Studioleiter.

Automobil-Planungs-Prozess

Der AI-generierte Avatar Thomas Winterberg erklärt uns die drei Challenges des Automobil-Engineerings, leider alles auf Englisch. Ich übersetze mal:

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

1. Talents: Es ist wichtig, dass unsere jungen Talente Zugriff zum Expertenwissen bekommen, weil unsere Systeme komplex sind, sagt der Avatar.
2. Coordination: Verschiedene Teams müssen eng zusammenarbeiten, um das Produkt zu optimieren.
3. Effort and Complexity: Unsere Design- und Software-Tools zur Entwicklung des Autos sind sehr komplex, sagt der KI-Thomas: Unsere Senior-Designer brauchen etwa 45 Minuten für das Re-Design eines neuen Teils. Und dann 30 Minuten zum Simulieren, ob das Design funktioniert. Unser Auto besteht im Schnitt aus 10.000 einzelnen Teilen. Das wären 12.500 Stunden. Also 1562 Tage. Wenn unsere Young Professionals das machen, kann man noch mal 30 Prozent der Zeit draufschlagen. Bei sinkenden Margen und steigendem Wettbewerb geht das auf Dauer nicht gut. Hier kann der Einsatz von Copiloten helfen. Vor allem den jungen Talenten.

Automobil-Marketing mit GenAI

Ein weiterer Schritt in der Wertschöpfungskette ist das Marketing. Auch hier spricht erst mal der KI-Avatar: „Hi everyone, I heard, you did an excellent job, designing the battery of our new car…“. Ich übersetze den Rest: „Bei A-Car launchen wir mehrere Prozesse parallel für die Marketing-Kampagne. Mit GenAI können wir Kampagnen binnen weniger Tage starten, anstatt binnen Monaten. Mit herkömmlichen Prozessen wäre das unmöglich: Überall Zeitnot: Hier eine Social Media Kampagne, dort eine Anfrage, ein Interview zu formulieren, während das Marketing in administrativer Arbeit versinkt. Und all dies mit ständig kleiner werdenden Budgets.“

Agentur-Briefing mit KI

Christian Findeisen: „Es geht darum, dass wir einen Content Brief, ein Briefing für eine Marketingagentur kreieren, wir als A-Car-Hersteller. Das sieht aktuell so aus, dass ich erstmal darauf eingehen muss: In welchem Land bin ich? Die Kulturen sind ein bisschen unterschiedlich, die Sprache unterschiedlich, die Semantik ist entsprechend unterschiedlich. Das heißt, ich brauche dort Support, Menschen, die sich auskennen und die dann genau den Ton treffen, für meine Zielgruppe. In unserem Fall natürlich, klar, der Endkonsument, der unser Auto hoffentlich kaufen wird. Mit einem Briefing habe ich die Möglichkeit, gleich Fotos zu zeigen, von meinem Auto. Ich kann mit Stable Diffusion in unserem Falle Hintergründe generieren, so dass ich dann gleich und recht schnell, der Marketingabteilung oder der Marketingagentur mitteilen kann, worum es mir geht. Und kann gleich verschiedene Vorschläge mitgeben, in welche Richtung es sich entwickeln soll: Soll es eher ein Urban Style haben, soll es eher flippig hip sein? Das kann ich aktuell mit dieser Lösung sehr schnell bewerkstelligen.“

Ersetzen KI-Avatare bald Accenture-Berater?

Bei so viel KI-Initiative komme ich nicht umhin, zu fragen: „Dieser Avatar, haben sie den nur für Demonstrationszwecke oder ist es vorstellbar, dass dieser irgendwann mal den lebendigen Accenture-Berater ersetzt? Man spricht ja davon, dass auch hochwertige Jobs wegfallen sollen. Würden sie diesen Avatar auf ihre Kunden loslassen? Und sind Sie dann der einzige Lebendige, der bei Accenture übrigbleibt?“

Christian Findeisen: „Nein. Wir arbeiten selbst mit dieser Technologie und haben sie im Einsatz. Gerade entwickeln wir in diesem Beispiel auch einen Car-Configurator. Da geht es darum, mit dem Avatar zu kommunizieren, dem Avatar etwa zu sagen: Ich bin dreifacher Familienvater, ich wohne außerhalb von München, ich gehe gerne zum Sporteln in die Berge, was wäre das perfekte Auto? Dann sagt der Avatar, das Modell XYZ wäre das beste Auto. Das soll aber nur der Einstieg sein, der Erstkontakt. Am Ende bin ich der Meinung, dass der Mensch immer über der Technologie stehen wird. Ich spreche lieber zu ihnen, zu Menschen, als zu Avataren.“

Das ergänzt Christopher Twardokus, Accenture Marketing und Communications Lead DACH: „Ich kann Ihnen eine gute Empfehlung aussprechen: Wir haben einen tollen Podcast: #tomorrowtoday, Nachgefragt bei CxOs, heißt der. Da haben wir ein Interview mit einem AI-generierten CEO geführt: sehr spannend, einfach mal reinzuhören.“ – „Also richtig live, spontan aus der KI? Nicht alles von Marketing vorher durchgetextet? Die Frage ist ernst gemeint: Vielleicht kriegt am Ende nur noch der A-Kunde von Accenture den lebendigen Berater? Und der C-Kunde, dem wird dann nur noch so ein KI-Avatar in die Beratungs-Videokonferenz hinein geblendet?“

Ist Metaverse jetzt tot?

Christian Findeisen: „Nein. Viele Leute fanden das super,. Und so ähnlich wird es aus meiner Sicht auch mit KI-Avataren sein. Wenn man zu einem Händler geht, möchte man erst einmal ein Auto anschauen, ein bisschen herumschlendern. Steht dann ein Avatar neben mir, der meine ersten Fragen beantworten kann, dann stellt das einen guten Einstieg dar auch für die breite Masse. Wir arbeiten mit Siemens zusammen am Industrial Metaverse. Auch wenn der große Hype vorbei ist.“

Bildergalerie
Bildergalerie mit 22 Bildern

Weiter zur Automobil-Produktion

Jetzt überspringen wir ein paar Demo-Stationen und kommen in die Auto-Produktion. Dort begrüßt uns schon wieder der KI-Avatar Thomas Winterberg und freut sich, die KI-Tour als Co-Host weiter begleiten zu dürfen. Doch dann, gottlob, ein echter Mensch: „Herzlich Willkommen. Mein Name ist Kevin Eversmann. Ich bin Geschäftsführender Partner bei Accenture, seit 17 Jahren in dieser Firma. Ich verantworte unser Geschäft für Automotive und Mobility, global. Alles, was im Bereich Daten, KI und natürlich KI-Generated liegt. Freut mich, Sie hier begrüßen zu dürfen in unserem Innovation Hub Munich, speziell im KI-Studio.“

Kevin Eversmann weiter: „Gespräche wie soeben mit dem Herrn Winterberg (KI-Avatar) führen wir im Moment täglich mit den Vorständen dieser Welt, ob das die CMs sind, die CIOs, die Produktionsvorstände. Ich war vorher selbst fünf Jahre in der Industrie tätig: Die Automobilindustrie unterliegt dem größten Wandel jemals. Der Markt geht in Richtung Direktvertrieb. Zudem ändern sich die Energiearten, von Combustion Engines (Verbrennermotoren) auf Electric Vehicles (Elektroautos).“

Tesla, Lucid, Xiaomi, Porsche

Die Konkurrenz werde nicht einfacher, skizziert Eversmann das Umfeld seiner GenAI-bereiten Kunden: „Wir kennen alle die Teslas dieser Welt, die Lucid Motors. In der letzten Woche hat dann Xiaomi noch ein Auto released, das aussieht wie ein Porsche Taycan, mit dem Software-Stand von Tesla für 29.000 US-Dollar. Jetzt können wir mal schauen, was da am Markt passiert: Alle unsere Kunden, mit denen wir sprechen, und Partner, mit denen wir zusammenarbeiten, unterliegen diesem Kostendruck. Aber auch dem Druck, End-Customer-Experience zu schaffen, um relevant für alle Autofahrenden zu sein.“

Die „klassischen Hilfsmittel, die wir in den letzten 10, 15, 20 Jahren angewandt haben, im Sinne von Prozessoptimierung und auch Automatisierung über einfachere und am Markt verfügbare Technologien, dazu noch preislich attraktiv, reichen heute nicht mehr aus“, sagt Eversmann. „Als Accenture spielen wir nicht nur mit neuen Technologien, sondern wollen sie verstehen und in Business-relevante Themen für und mit unseren Kunden übersetzen. Das passiert, wie Sie hier im Haus sehen, mit Ecosystem-Partnern, vom Start-up bis zum Hyperscaler, mit Universitäten und Forschungsinstituten.“

Shopfloor mit AI, ComputerVision & GenAI

Danach begann eine KI-Demo im Shopfloor, auf Deutsch: Werkshalle. Kevin Eversmann: „Hier zeigen wir eine Lösung, in der AI, Computer Vision und generative AI zusammenkommen. Diese ist auch schon bei Kunden ausgerollt, was heißt, dass sie bereits über den MVP-Status hinaus ist.“ (MVP = Minimum Viable Product, minimal funktionsfähiges Produkt, um es schon mal Testen zu können).

Das Accenture-Video startet per Sprachbefehl und zeigt schon mal den Use Case auf dem Fließband: Eine fehlende Schraube in der Fahrertür verursacht Klapper-Geräusche.(Bild:  Harald Karcher)
Das Accenture-Video startet per Sprachbefehl und zeigt schon mal den Use Case auf dem Fließband: Eine fehlende Schraube in der Fahrertür verursacht Klapper-Geräusche.
(Bild: Harald Karcher)

Die große Herausforderung sei aber, „am Ende des Tages zu skalieren, und auszurollen, und das machen wir gemeinschaftlich mit unseren Kunden, sowohl im Shopfloor- und Produktionsbereich als auch im Bereich Omnichannel-Experience. Wir haben ein kurzes Video. Und dann wird Philipp, der Product-Owner und auch The-Brain-of-the-Solution, sechs Minuten erklären, was hier passiert.“

KI-Roboter per Sprache steuern

Philipp Pöschke, Management Consulting Principal und Expert for AI bei Accenture, hat ein Funkmikrofon am Hemd. Damit gibt er der KI den Sprach-Befehl: „AICV, play the video!“ Im Gegensatz zu den missglückten Sprachbefehlen des Bundeskanzlers Olaf Scholz am Siemens Roboter Stand der Hannover Messe 2024 wurden im Accenture Gen AI Studio Munich alle Befehle schnell verstanden: Das Video läuft sofort an. „Wir haben vier Hauptkomponenten“, erklärt Pöschke. „Einmal unser autonomes Transportsystem mit einer Autotür, die wir nutzen, um die Produktion nachzubilden, zur Demonstration der ‚Factory of the Future‘. Zum zweiten, wie Sie vielleicht mitbekommen haben, ist alles sprachgesteuert: Ich trage also ein Mikrofon an mir, um die KI, das Dashboard und die Roboter zu steuern. Zum dritten haben wir unseren Cobot, der den Mitarbeitern am Band hilft, die Qualitätskontrolle und Dokumentation durchzuführen. Und zum vierten haben wir unser Live-Dashboard, mit dem wir aktiv interagieren können.“

So, wir starten die Produktion. Alle stehen hinter der gelben Linie. Der Roboter ist angeblich so ausgestattet, dass es keine sicherheitsrelevanten Probleme geben sollte. Dann spricht Philipp Pöschke den nächsten Befehl in sein Mikrofon: „AICV start production!“ Mit der Autotür sind drei Live-Use-Cases verbunden, um Qualitätsprobleme in der aktuellen Produktion darzustellen. Im Normalfall musste der Mitarbeiter am Band auftretende Sicherheitsprobleme oder Probleme mit der Qualität manuell visuell erkennen. Teilweise, je nach Fall, auch unter dem Vier-Augen-Prinzip. „Das am Band visuell zu testen, zu überprüfen, zurück zum PC zu laufen, die Dokumentation vorzunehmen, wieder zurückzukommen, das nächste Objekt oder das nächste Fahrzeug zu inspizieren, ist für den Mitarbeiter wirklich ein enormer, manueller Aufwand“, erklärt Pöschke.

Cobot-Kamera erkennt fehlende Schraube

Der große Monitor (hinten) zeigt dem Fabrikarbeiter das Problem: Der Lautsprecher in der Autotür klappert, weil eine Schraube fehlt.(Bild:  Harald Karcher)
Der große Monitor (hinten) zeigt dem Fabrikarbeiter das Problem: Der Lautsprecher in der Autotür klappert, weil eine Schraube fehlt.
(Bild: Harald Karcher)

Pöschke weiter: „Jetzt sehen wir, wie der Cobot das Signal bekommen hat, dass unser ATS, unser autonomes Transportsystem, vor Ort ist. Er überprüft jetzt Use Cases und hat bereits einen Fehler erkannt, den wir uns jetzt sofort anschauen können.“

Der nächste Sprachbefehl lautet: „AICD Show Latest Inspection!“ Der Fabrik-Mitarbeiter (in dieser Demo Philipp Pöschke) hat jetzt das Signal bekommen, dass er eine Kontrolle machen muss, um zu erfahren, welches Problem er zu fixen hat. „Das heißt, der Roboter geht jetzt zurück zu unserer Repair-Station, mit unserem Material, um Nacharbeit tätigen zu können, in unserem Fall für die Autotür.“

KI erklärt die nötige Reparatur

In der Autotür sitzt ein Lautsprecher, bei dem eine Schraube fehlt, was „später im Auto zu starken Vibrationen führt, auf jeden Fall für den Kunden ein sehr lästiges Problem ist, das nicht für die hohe Qualität, die erwartet wird, spricht. Der Roboter bleibt jetzt stehen, und wir haben die Zeit, unser Werkzeug und unsere Schraube, um aktiv die Nacharbeit zu tätigen. Das heißt, ich werde jetzt einmal für Sie die Schraube verbauen und sage dann: AICV Rework!“

Auch wenn die Sprachbefehle alle auf Englisch sind, funktioniert die KI bei Accenture auf Anhieb. Das System fährt jetzt den Warranty Use Case für die End-to-End-Dokumentation im Werk: „Wir sehen wieder die drei Bilder, die eben aufgenommen wurden, sind jetzt im Re-inspect-Mode, das heißt: Wir haben die Nacharbeit manuell getätigt und müssen das jetzt dokumentieren. Der Lautsprecher ist grün markiert und wir wissen: Okay, die Nacharbeit wurde somit abgedeckt.“

Bildergalerie
Bildergalerie mit 22 Bildern

Normalerweise würde die Tür mit der fehlenden Schraube bis zum Ende der Produktionsstraße fahren und erst nach Montage würde durch die Qualitätsprüfung sichtbar, dass ein Fehler vorliegt. Und was passiert dann? „Die Tür muss abmontiert werden, die Innen-Verkleidung muss abmontiert werden, wir müssten dann alles überprüfen, alle Kabelleitungen wieder prüfen, die Schraube reindrehen. Wir müssten es manuell dokumentieren, die Nacharbeit wieder vollenden, die Tür wieder einhängen, nachpolieren, und das Fahrzeug dann zurück in seinen Lifecycle bringen.“ Das sei viel mehr Aufwand, sagt Philipp Pöschke, als wenn die KI die defekte Tür schon viel früher erkenne und kurz aus der Produktionsstraße herausziehe.

„Diese umfangreiche Nacharbeit schaffen wir ab“, sagt Pöschke, „indem wir die Integration zwischen Mensch und Maschine schaffen, indem die Maschine mit uns kommuniziert, und uns auffordert, Nacharbeit zu leisten. Sie supportet uns durch Computer Vision, also wirklich sehr intelligente Systeme, um Objekterkennung und Klassifikation zu betreiben. Was Sie hier sehen ist ein Dokumentations-Case und Objekterkennungs-Case für Qualitätskontrolle, der nicht nur im Automobilbereich, sondern in allen produzierenden Gewerben durchgeführt werden kann.“

Mit KI: Qualität rauf, Kosten runter!

Kevin Eversmann fasst die Demo von Philipp Pöschke zusammen: „Das sieht jetzt alles sehr einfach aus. In vielen Cases müssen sicherheitsrelevante Themen dokumentiert werden. In den Produktionsstraßen ist zwar schon viel automatisiert. Aber in dem Ausmaß, wo so viele Technologien zusammenkommen, gibt es das weltweit noch nicht häufig. Ein Kunde, mit dem wir das umgesetzt haben, spart in drei Jahren 400 Millionen Euro ein. Kosteneinsparung ist also das erste Argument. Und das Zweite: Wenn Sie ein Auto kaufen und die Qualität stimmt nicht, weil die Lautsprecherbox vibriert, ist das nicht akzeptabel. Das heißt, wir schaffen es, die End-Customer-Experience zu erhöhen, und damit auch die Brand Loyalty.“

Und Eversmann hat noch einen dritten Punkt: „Dieses Thema Workforce, Worker und Workplace, die Interaktion zwischen Maschine und Mensch, gestalten wir aktiv mit Technologie mit. Vor allem mit Hilfe der Large Language Models. Hier muss man nicht immer sagen „Start Video“, „Start Production“, sondern kann interpretieren oder einfach übersetzen, egal ob einer Deutsch, Englisch, Tschechisc, oder irgendeinen Dialekt spricht.“ Allerdings: Die Befehle in den Demos waren noch durchwegs in Englisch. Offenbar ist die GenAI in dieser Weltsprache schon viel besser trainiert als im Deutschen. Vielleicht hätte auch der Kanzler in Hannover lieber mal Englisch mit dem Siemens-Roboter sprechen sollen.

Arbeiter wird zum Maschinen-Orchestrator

Philipp Pöschke macht den Wandel klar: „Wir wollen den Arbeiter in der Produktion dazu enablen, eher als Orchestrator zu agieren, mit den IOT Devices, mit der Produktion zu kommunizieren, und nicht immer die langen Wege aus der gesicherten Produktionslinie raus, bis hin zum Computer, und wieder zurück zu gehen, sondern wirklich sofort direkt mit den Maschinen interagieren zu können.“

Bildergalerie
Bildergalerie mit 22 Bildern

(ID:50021098)