Digital-Annealer-Projekte, KI und Strategien

Fujitsu Forum 2019 - Innovationen und Praxis

| Autor: Ulrike Ostler

Fujitsu-President Takahito Tokita stellt auf der Hausmesse „Fujitsu Forum“ die strategische Ausrichtung für Fujitsu in Europa vor.
Fujitsu-President Takahito Tokita stellt auf der Hausmesse „Fujitsu Forum“ die strategische Ausrichtung für Fujitsu in Europa vor. (Bild: Ulrike Ostler/ Vogel IT-Medien GmbH)

Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion.

Interessant war allerdings seine Reihenfolge der Eckpunkte einer neuen strategischen Ausrichtung in Europa: Digital Annealer, Supercomputer und KI sowie Realisierung von SAP-Projekten in einer Neuauflage eines umfassenden Partner-Systems. Auch die Großrechner-Technik „BS2000“ blieb nicht unerwähnt.

Das Update über die neuen Unternehmensstrategien übernahm Geschäftsführer Rupert Lehner, co-moderiert von Fujitsu-CTO Joseph Reger. „Wir müssen uns eben fokussieren“, so Reger, der dabei ist, eine „Inkubator-Mannschaft“ für diese Themen aufzubauen, insbesondere im Bereich Künstlicher Intelligenz und Quantum-Annealing-Projekte. Es ginge gut voran, so der Cheftechniker und nimmt es als gutes Zeichen, dass sich außer im Quanten-Computing-Bereich - da gibt es noch keine nennenswerte Anzahl an Experten - mehr Bewerber meldeten, als Stellen vorhanden sein. „Wir sind offenbar auch weiterhin als Arbeitgeber attraktiv“, sagt er.

Fujistu soll kein `Kistenschieber`(mehr) sein. Service in Kombination mit Technologie-Innovationen und durchgängigen technischen Infrastrukturen, die in Lösungen für die Kundschaft münden - vom Konzept bis zur Implementierung.
Fujistu soll kein `Kistenschieber`(mehr) sein. Service in Kombination mit Technologie-Innovationen und durchgängigen technischen Infrastrukturen, die in Lösungen für die Kundschaft münden - vom Konzept bis zur Implementierung. (Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Der Spagat zwischen neuer Technologie und sofort realisierbarem Technik-Einsatz muss eben gelingen, wenn sich Fujitsu trotz Umstrukturierung das Vertrauen seiner Kunden erhalten will. So hat Fujitsu zwar die Hardware-Produktion entweder verkauft, das PC-Geschäft ging mehrheitlich an Lenovo, die Mainboard-Fertigung in Augsburg an Kontron, ansonsten beschäftigt Fujitsu eine Reihe von Auftragsfertigern wie Wistron und Inventec, doch es werde weiterhin Datacenter-Infrastruktur von Fujitsu geben. So gab es auch während der Veranstaltung Neuvorstellungen (siehe: Kästen).

Ergänzendes zum Thema
 
Primergy Mono-Socket Server für die Edge und KMUs

Ergänzendes zum Thema
 
Weg frei zum Software-definierten Rechenzentren mit dem „Infrastructure Manager“

Umsatzbringer Mainframe

Fast schon überraschender Weise rutschte auf dem Fujitsu-Forum die BS2000-Technik ins Blickfeld, waren die Fujitsu-Mainframe in den vergangenen Jahren doch eher kein Thema en vogue. Doch nicht nur die Mainframe-Kunden von IBM hängen an der Zuverlässigkeit und Sicherheit ihrer Großrechner und ihren Großrechneranwendungen, sondern auch die Fujitsu-Kundschaft. So heißt es heute: „Das Mainframe Computing bleibt das Herzstück des Rechenzentrums – jedenfalls bei den meisten Unternehmen und Organisationen. Es ist die Basis für wichtige Anwendungen, bei denen hohe Leistung, Sicherheit und Zuverlässigkeit über Sein oder Nichtsein entscheiden können.“

Ergänzendes zum Thema
 
Neue BS2000 SE Infrastruktur als Basis für die digitale Transformation

Zwar seien die Systeme schon immer in Japan entstanden, was auch so bliebe, doch im Augsburger Rechenzentrum hätten die „Aszendierungsthemen“ stattgefunden, so Lehnert, während die Tests schon immer am Standort München erfolgt seien. Das Rechenzentrum wird in den Großraum München verlagert und das Testen übernehmen polnische Kollegen mit. Zudem hat Fujitsu verstärkte Investitionen in entsprechende Initiativen der „Fujitsu Academy“ in der Region Central Europe angekündigt, die die erforderliche Expertise hinsichtlich Enterprise Platform Services-Infrastrukturen sowie Mainframe-Rechenzentrumstechnologien sichern sollen – auch im Hinblick auf die Gewinnung junger Talente.

Bei den Forum-Workshops und -Seminaren zum Thema waren deshalb nicht nur die jüngsten technischen Updates Inhalt (siehe: Kasten „Neue BS2000 SE Infrastruktur für als Basis für die digitale Transformation“), sondern vor allem die Integration in moderne, hybride Anwendungslandschaften und wenn schon unbedingt Migration, dann doch bitte mit kompetenter Unterstützung (aus dem Hause Fujitsu).

Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, präsentiert auf dem Fujitsu Forum eine DLU-Steckkarte, die ohne aktive Kühlung auskommt.
Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, präsentiert auf dem Fujitsu Forum eine DLU-Steckkarte, die ohne aktive Kühlung auskommt. (Bild: Ulrike Ostler - Vogel IT-Medien GmbH)

Die eigenen Chips

Wie tief der IT-Wandel im Allgemeinen und insbesondere bei Fujitsu greift, zeigen jedoch vor allem die Zukunftstechnologien Künstliche Intelligenz und Quantum Computing, denn nicht nur Fujitsu wartet hier mit eigenen Komponenten auf, die Digital Annealer Unit (DAU), eine vom „Quantencomputer inspirierte Brückentechnik“, wie Fujitsu-CTO Reger die Basistechnik beschreibt, und die DLU, „Deep Learning Unit“, so die Bezeichnung der GPU-Konkurrenz.

Auf der Veranstaltung begann Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, mit einem Zitat aus der Veröffentlichung von Emma Strubell, Ananya Ganesh, Andrew McCallum „Energy and Policy Considerations for Deep Learning in NLP“.

CO2-Billanz, Angaben in Pfund
Hin- und Rückflug S/W New York und San Francisco (1 Passagier)
1.984
menschliches Leben (im Durchschnitt pro Jahr)
11.023
ein Durchschnittsjahr eines Menschen in Amerika
36.156
Lebensdauer eines US-Autos inklusive Kraftstoff
126.000
Transformer (213M parameters) w/ neural architecture search 626.155
Quelle: Source: Strubell et al. in der "MIT Technology Review"

Sie veröffentlichten eine Ökobilanz für die Ausbildung mehrerer gängiger großer KI-Modelle für das Training im Natural Language Processing (NLP) und fanden heraus, dass das Verfahren dem Ausstoß von mehr als 313.000 Kilo Kohlendioxid entsprechen kann. Das ist fast das Fünffache der Lebensdaueremissionen eines durchschnittlichen amerikanischen Autos - und das schließe die Herstellung des Autos selbst ein.

Somit ist es also weder egal, welches Trainingsmodell benutzt wird noch welche Akzeleratoren und Hardware. Laut Würtz könne eine Appliance zwar mit GPUs Trainingsaufgaben lösen, doch eine DLU biete eine 10 mal bessere Performance per Watt als eine GPU.

Fujitsu-President Takahito Tokita spricht über die Symbiose von Künstlicher Intelligenz und Supercomputing. Der hauseigene KI-Chip „DLU“ ist in dem jüngsten japanischen Super-Rechner „Fugaku“ verbaut.
Fujitsu-President Takahito Tokita spricht über die Symbiose von Künstlicher Intelligenz und Supercomputing. Der hauseigene KI-Chip „DLU“ ist in dem jüngsten japanischen Super-Rechner „Fugaku“ verbaut. (Bild: Ulrike Ostler/ Vogel IT-Medien GmbH)

Offen lässt Würtz zu diesem Zeitpunkt allerdings, mit welcher GPU die Karte, die ohne aktive Kühlung auskommt, verglichen worden ist. Die bessere Performance führt er darauf zurück, dass die DLU speziell für Deep Learning entwickelt wurde, aber beispielsweise nicht für Video-Rendering gedacht ist.

Ein KI-Chip, wie die DLU von Fujitsu ist für spezifische Lasten gedacht und punktet etwa durch einen hohen Parallelisierungsgrad.
Ein KI-Chip, wie die DLU von Fujitsu ist für spezifische Lasten gedacht und punktet etwa durch einen hohen Parallelisierungsgrad. (Bild: Fujitsu)

Nicole Wochatz, Head of Competence Center Data Science & AI beim Fujitsu-Partnerunternehmen SVA benennt einige Bereiche, in denen der Chip zum Einsatz kommen kann:

  • bei so genannten Convolutional Neural Networks (Cnns) in der Objekterkennung und -lokalisierung, in der Klassifizierung von Objekten und der Segmentierung
  • bei Recurrent Neural Networks (Rnns) für Predictive Analytics, in denen Zeitreihen zugrunde liegen, etwa zur Analyse des Wechselverhaltens bei Kunden (Churn Management), im Handel, in der Übersetzung, in der Wandlung von Schrift in Sprache und umgekehrt, für Chatbots ....
  • bei automatischer Kodierung beziehungsweise Boltzmann-Maschinen und so genannten Deep Belief Netzwerken etwa bei der Erkennung von Fraud Detection, im Gesundheitswesen, im Risiko-Management, im Sprachverstehen und der Entdeckung von Anomalien.

Der massiv parallele Chip verwendet einige große Masterkerne, die mit vielen Deep Learning Processing Units (DPUs) verbunden sind. Ein Master-Kern ist für den Speicherzugriff verantwortlich und steuert den Betrieb der DPU-Executive Cores. Jeder DPU-Exekutivkern besteht aus 16 DPE (Deep Learning Processing Element) Einheiten, eine DPE-Einheit enthält acht SIMD-Exekutiveinheiten (Einzelbefehl, mehrere Daten) und einen Registerblock.

Die Mikro-Architektur der DLU ist laut Fujitsu im Vergleich zu denen der Wettbewerbsprodukte wesentlich vereinfacht. Pipelines sorgen dafür, dass ein Netz entsteht und Daten getauscht werden können. Speicherkapazität lässt sich hingegen sparen.
Die Mikro-Architektur der DLU ist laut Fujitsu im Vergleich zu denen der Wettbewerbsprodukte wesentlich vereinfacht. Pipelines sorgen dafür, dass ein Netz entsteht und Daten getauscht werden können. Speicherkapazität lässt sich hingegen sparen. (Bild: Fujitsu)

Doch die Innovationen bestehen nicht nur aus dem DLU-Chip, der einen Domain-spezifisch arbeitet, mit Deep-Learning-Integer „DL-INT”, ein adaptives numerisches Format bearbeitet. In der ersten Generation leistet der Prozessor gemischte Präzisionsoptimierungen (8-Bit, 16-Bit und 32-Bit). Die Steigerung der Energie-Effizienz basiert auf DL-INT, von der das Unternehmen sagt, dass sie mit 8- und 16-Bit-Datengrößen eine effektive Präzision (auf dem Niveau von 32-Bit) erreicht.

Dazu kommt eine eigene Domain-spezifische Interconnect-Technologie, mit der Bezeichnung „Tofu “, die ebenfalls für einen hohen parallelen Durchsatz und Skalierbarkeit verantwortlich ist.

Die DLU verfügt nicht über einen Cache-Speicher, sondern über einen großen Registerblock, der es ermöglicht, das volle Potenzial des Prozessors freizusetzen; denn der Registerblock ist schneller als der Cache-Speicher und kann vollständig per Software gesteuert werden.

Die Karte „Zinrai DLS“, die Fujitsu heuer vorgestellt hat.
Die Karte „Zinrai DLS“, die Fujitsu heuer vorgestellt hat. (Bild: Fujitsu)

Als Antwort auf das Training neuronaler Netze mit Single Precision (FP32), das eigentlich bereits überholt ist und enorme Rechenleistung und damit den hohen Energieverbrauch fordert (siehe: Tabelle) bietet Fujitsu das System „Zinrai“ an. Auf dem Fujitsu Forum hat Würtz in diesem Jahr das „Zinrai Deep Learning System“ (ZDLS) vorgestellt, das auf dem KI-Prozessor basiert.

Die geschätzten Kosten für ein Modelltraining
Datum der Originalveröffentlichung
Energiebedarf (kWh) CO2-Bilanz (CO2e- Angaben in Pfund) Cloud -Compute-Kosten
(Angaben in Dollar)
Transformer (65M Parameter) Juni 2017 27 26 41 - 140
Transformer (213M Parameter) Juni 2017 201 192 289 -         981
ELMo Februar 2018 275 262 433 - 1.472
BERT (110M Parameter) Oktober 2018 1.507 1.438 3.751 - 12.571
Transformer (213M Parameter) w/ neural architecture search Januar 2019 656.347 626.155 942.973 - 3.201.722
GPT-2 Februar 2019 - - 12.902  -      43.008

Quelle: Source: Strubell et al. in der "MIT Technology Review"

Fujitsu steht mit seinem KI-Prozessor nicht alleine da. Laut Würtz haben alleine in diesem Jahr auf der „International Particle Accelerator Conference“ insgesamt 65 Firmen, etablierte sowie Start-ups, ihre Techniken vorgestellt. Doch vielleicht 10 Prozent böten geeignete Produkte für KI-Trainings und -Testing.

Allerdings gibt es auch Wettbewerber wie Huawei. Dieses Unternehmen kann auf Basis der hauseigenen Entwicklung „Ascend“ bereits eine ganze Reihe von Computern ausliefern, vom Supercomputer bis zu kompakten Inferenz-Systemen. Laut Würtz ist DLU jedoch (noch) zu teuer für Inferenzrechner. Allerdings dürfte das der weitaus größere Markt sein. Man dürfe jedoch noch einiges erwarten, so der Fujitsu-Manager.

Nach einer Umfrage unter 191 global agierenden Kunden von Free Form Dynamics, die Fujitsu gesponsert hat, hat es auch noch Zeit. Hier haben die Analysten danach gefragt, inwieweit KI-Projekte priorisiert werden. Nur 15 Prozent haben ein uneingeschränktes „Ja“ angegeben, 27 Prozent haben mit „teilweise“ geantwortet, 18 Prozent hingegen haben „nein, aber wir sollten“ angegeben und für 36 Prozent ist das gar nicht relevant.

Die Quanten-Computing inspirierten Projekte

Quantum-Computer werden einmal großartig sein, sagen von CTO Reger bis bis Fujitsu Fellow und Distinguished Engineer Fritz Schinkel und Andreas Rohnfelder, Head of Digital Incubation, berufene Münder. Nur, bisher gebe es keinen für den praktischen Einsatz und selbst der Nachweis der Überlegenheit, wie ihn Google für eine bestimmte Rechenaufgabe erbracht hat, scheint interpretationsfähig. „Aus dieser Diskussion halte ich mich heraus“, so Reger.

Ein einfaches Beispiel für einen Fall der kombinatorischen Optimierung: Finde die Kombination aus drei Hemden, drei Hosen und drei Paar Schuhen, die am besten zueinander passen. Das Problem: wenn alle Kombinationen durchgespielt werden, ergibt sich eine Unzahl an Verbindungen und Kombinationsmöglichkeiten.
Ein einfaches Beispiel für einen Fall der kombinatorischen Optimierung: Finde die Kombination aus drei Hemden, drei Hosen und drei Paar Schuhen, die am besten zueinander passen. Das Problem: wenn alle Kombinationen durchgespielt werden, ergibt sich eine Unzahl an Verbindungen und Kombinationsmöglichkeiten. (Bild: Fujitsu)

Bei Fujitsu sprechen die Verantwortlichen lieber von einer Brückentechnologie, wenn von der Digital Annealing Unit (DAU) die Rede ist, die bis zu dem Zeitpunkt, an dem Quantencomputer echte Probleme bei echten Kunden lösen können, für kombinatorische Optimierung (siehe: Abbildung) eingesetzt werden kann.

Ein einfaches Beispiel soll zeigen wie komplex solche Aufgaben sein können: Drei Hemden, drei Hosen, drei paar Schuhe. Das Finden des optimalen Zueinanderpassens lässt sich lösen, indem alle Kombinationen durchgespielt werden und auf Regeln abgeklopft werden: ein Paar Schuhe, eine Hose, ein Hemd beispielsweise.

In den Digital-Annealing-Projekten von Fujitsu aber sind quasi Abkürzungen eingebaut. statt alle Kombinationen durchzuspielen werden Unterprojekte gebildet, etwa kombiniere Hosen mit Schuhen, Hosen mit Hemden, Hemden mit Schuhen und dann auch den besten Ergebnissen, neue Kombinationen zu verknüpfen. Das reduziert die Anzahl der Möglichkeiten beträchtlich. Außerdem wird das Unmögliche ausgeschlossen, keine Rot-Grün-Kombi, kein Ton-in-Ton....

Der erste Kunde, den Fujitsu hierzulande mit einer solchen Aufgabe betreuen durfte, war BMW. Der Konzern hatte sich schon nach der DAU erkundigt, bevor diese überhaupt hierzulande eingetroffen war. Im Automobilbau entfallen rund 40 Prozent der Kosten auf die Lackierung, das Abdichten der Nähte mit PVC mithilfe von Roboterarmen gehört zu den Vorarbeiten. Deren Bewegungen für das Schweißen besser zu koordinieren, um die Durchläufe effizienter zu gestalten und damit zu beschleunigen ist ein kombinatorisches Optimierungsproblem.

BMW war nur der erste Kunde für den Digital Annealer und die Optimierung für sieben Schweißnähte ein Prototyp. Inzwischen geht es um 64 Nähte und weitere sind bereits angedacht, wie auch weitere Optimierungsaufgaben. Weitere OEMs, darunter Daimler, Ford und Volkswagen, haben Quantencomputerprogramme angekündigt - allerdings gehen nicht alle mit Fujitsu.
BMW war nur der erste Kunde für den Digital Annealer und die Optimierung für sieben Schweißnähte ein Prototyp. Inzwischen geht es um 64 Nähte und weitere sind bereits angedacht, wie auch weitere Optimierungsaufgaben. Weitere OEMs, darunter Daimler, Ford und Volkswagen, haben Quantencomputerprogramme angekündigt - allerdings gehen nicht alle mit Fujitsu. (Bild: Fujitsu)

Die Aufgabe: Die besten Schweißanweisungen und den optimalen Roundtrip zwischen den Endpunkten gilt es zu finden und folgende Voraussetzungen:

  • die Schweißroboter ´besuchen´ die richtigen Nahtstellen
  • die Naht selbst kann in zwei Richtungen verschweißt werden
  • die Aufgabe gilt für sieben Nähte

Heute können mithilfe des Digital Annealer bereits 64 Nähte einbezogen und optimiert werden. Die Kombinationen, die den Berechnungen zugrunde liegen, wenn statt sieben Nähte 64 begutachtet werden, liegt um den Faktor 10100 höher und geht „weit über die angenommene Anzahl von Atomen“ hinaus, heißt es im White Paper dazu. Es gilt für n Nähte folgende Formel:

2n-1 (1-n)

Nähte n
5 7 10 22 64
Möglichkeiten 384 46080 1,86 x 10 8 1,07 X 1026 1.83 x 10 106

Die DAU bei der Commerzbank-Tochter

Einer der Kunden, die auf dem Fujitsu Forum öffentlich über ihr „Project Quantum“ gesprochen haben, ist Incubator Main, ein Tochterunternehmen der Commerzbank. In der Aufgabe, die sich hier gestellt hat, geht es darum Leasing-Verträge für Autos durch Investoren abzusichern.

Die Commerzbank-Einheit Incubator Main möchte mithilfe von Digital Annealing die Absicherung von Leasing-Verträgen optimieren.
Die Commerzbank-Einheit Incubator Main möchte mithilfe von Digital Annealing die Absicherung von Leasing-Verträgen optimieren. (Bild: Fujitsu)

Das Problem: Ohne eine solche Sicherung müssen entweder die Autoverkäufer lange auf ihr Geld warten oder die potenziellen Käufer bekommen keinen Vertrag. Forderungen aus Leasing-Verträgen werden daher von den Automobilherstellern oft an Investoren veräußert, um das Liquiditäts-Management zu verbessern. Die Banken handeln mit diesen Forderungen in Gestalt handelbarer Wertpapiere, bei denen die Forderungen unter anderem nach Risikoprofil gebündelt werden. Doch nicht jeder Vertrag eignet sich, nicht jeder Verkäufer und nicht jeder Investor.

Das Filtern der verschiedenen Optionen ist eine Aufgabe kombinatorischer Optimierung und daher für den Quanten Annealer von Fujitsu geeignet.
Das Filtern der verschiedenen Optionen ist eine Aufgabe kombinatorischer Optimierung und daher für den Quanten Annealer von Fujitsu geeignet. (Bild: Fujitsu)

Incubator Main hat daher ein Proof of Concept (PoC) angesetzt, bei dem es um die Optimierung des Auswahlprozesses von einigen Tausend Einzelforderungen zu einem Verbriefungsportfolio gegangen ist. Der Auswahlprozess berücksichtigt mehrere kritische Faktoren gleichzeitig. Dazu gehören neben regulatorischen Vorgaben auch absolute Volumen-Begrenzungen sowie prozentuale Limitierungen. Dies führt zu einem kombinatorischen Optimierungsproblem, für das klassische Prozessoren lange Rechenzeiten benötigen.

Methode Vselected Vmax/Vselected Volume Runtime>1 und <2 in Prozent Laufzeit für die Kalkulation
Digital Annealer 35.487.203 Euro 95.68 Prozent
10    21 Sekunden *thereof
0.07 Sekunden annealing
Current System 35.466.425 Euro 95.63 Prozent
10    1 - 2 Sekunden
Monte Carlo 34.856.552 Euro 93.98 Prozent 9,87 65 Minuten

Doch die Ergebnisse können sich sehen lassen. Augustin Danciu, Project Manager bei Incubator Main GmbH, fasst kurz zusammen:

  • Digital Annealing ist relevant für Anwendungsfälle im Bankenbereich, aber
  • die Transformation von Anwendungsfällen erfordert methodisches Wissen.
  • Aufgrund einer exponentiellen Berechnungszeit, die auf der Anzahl der Anlagen basiert, verspricht Digitial Annealing eine Verbesserung der Effizienz (Skalierbarkeit).

Er sieht in der Nutzung des Digital Annealer von Fujitsu eine Vorbereitung auf die Quantenära. Im Gegensatz zum Fujitsu-Kunden Hamburger Hafen kann er die Frage, warum das Unternehmen diese Technik und nicht etwa die von D-Wave, IBM, Atos oder Google ausgewählt habe, beantworten. Die Inkubator-Company probiert diverse Techniken aus und der Evaluationsprozess ist nicht abgeschlossen. Fujitsu punktet mit guter Unterstützung und einem gesunden Preis-Leistungsverhältnis.

Das Hamburger Hafen-Management will die Signalanlagen auf dem Hafengelände besser aufeinander abstimmen.
Das Hamburger Hafen-Management will die Signalanlagen auf dem Hafengelände besser aufeinander abstimmen. (Bild: Hamburg Port Authority/ Fujitsu)

Die DAU im Hamburger Hafen

Allerdings ist das Problem, mit dem sich der Hafen herumschlägt nicht weniger interessant und unter Umständen von großer Reichweite. Mit einem Gesamtumschlag von 136,5 Millionen Tonnen pro Jahr, davon 78,5 Tonnen Import; 58,0 Tonnen Export, ist der Hamburger Hafen einer der größten Seehäfen der Welt. Das aber bedeutet etwa jede Menge Container: 8,82 Millionen 20 Fuß Container, davon 1,19 Millionen leere Container, so genannte Massenware, etwa rund 13,7 Millionen Tonnen Flüssigkeit und 7,5 Millionen Tonnen Sauggut.

Das kommt nicht ausschließlich per Schiff in den Hafen. Die Infrastruktur im Hafen setzt sich aus Straßen, Brücken, Gleisen, Kaianlagen und Schiffsliegeplätzen zusammen, die von der Hamburg Port Authority (HPA) bereit gestellt werden. Dazu kommen 300 Kilometer Gleisanlagen. Das gesamte Hafengebiet entspricht einer Fläche von rund 7.156 Hektar, 71.560.000 Quadratmeter, also rund 10.000 Fußballfeldern.

Bis zu 2,92 Millionen LKWs fahren jedes Jahr das Gelände an, also etwa 12.000 Lastwagen pro Tag. Den Verkehr regeln Ampeln. Das Problem: hohe Belastung, schlechter Durchsatz.

Dier erste Abstraktionsebene für das Hamburger Hafengelände mit der Abbildung der Funktionen und der Verkehrsampeln.
Dier erste Abstraktionsebene für das Hamburger Hafengelände mit der Abbildung der Funktionen und der Verkehrsampeln. (Bild: Fujitsu)

Um Staus zu vermeiden, will der Hafen die Verkehrssignale besser koordinieren. Dafür hat das Hafen-Management ein Pilotprojekt aufgesetzt - mit 35 Verkehrsampeln. Es geht um einen möglichst gleichmäßigen Verkehrsfluss und damit für die Verkehrsteilnehmer möglichst lange Grünphasen.

Dafür aber müssen die Grünphasen durch die kombiniert werden, wo viel Verkehr herrscht, müssen sie länger werden, um mehr Fahrzeuge durchzulassen. Um nicht zu zu viele in einen Abschnitt zu lenken, müssen gleichzeitig andere Ampeln in kürzeren Abschnitte auf grün stehen (siehe: Bildergalerie).

Begonnen bei der synthetischen Straßenkarte und den verschiedenen Stillständen und der Verkehrsbelastung als Variable hat man im Pilotprojekt drei alternative Ampelstrategien zum Vergleich herangezogen: je eine Hälfte der Ampeln auf Grün, durchlassen des ankommenden Verkehrs und Zufall. Die Optimierung schnitt besser ab, wobei die reine Rechenzeit der DAU gerade einmal 0,045 Sekunden betragen hat.

Da sich der Erfolg eingestellt hat, will das Hafen-Management sich jetzt schrittweise der Realität annähern und damit weiteren Zielen näherkommen, etwa der Reduktion des Lärms und der Abgase. Dafür wird nun die Kreuzungsstruktur, also Richtungen und Fahrspuren beispielsweise, aufgenommen. Es sollen historische Verkehrsdaten dazukommen sowie verschiedene Ampelprogramme sowie mehr Straßen, Kreuzungen und Verkehr. Auch über Echtzeit denken die Projektmanager nach.

Dafür müsste der Hafen aber das Bezugsmodell ändern. Denn genau wie Incubator Main nutzt HPA die DAU-Kapazitäten per Cloud. Das aber wäre im Falle von Realtime-Steuerungen wahrscheinlich wegen der Latenzen unmöglich.

Über die strategischen Ankündigungen v.a. bezüglich des Standorts Augsburg lesen Sie hier weiter.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46233220 / Technologien)