Der Einsatz von Cloud-Ressourcen findet zunehmend Verbreitung in den Branchen Pharmazeutik und Biowissenschaft. Die Anwendungsfälle reichen vom beschleunigten Medikamentendesign über Molekülforschung bis hin zu Testreihen-Analysen, so etwa beim Covid-Impfstoff-Hersteller Moderna.
Schnelle Entwicklung von Impfstoffen oder unterbrechungsfreie Produktion von Arzneimitteln – erhöhte Leistung und Kapazität sowie Steigerung der Produktivität treiben die Cloud-Nutzung in der Pharamazie- und Chemiebranche.
(Bild: frei lizenziert Pixabay - Michael Jarmoluk / Pixabay)
Die Cloud trägt mittlerweile aber nicht mehr nur Reichenleistung und Speicherkapazität bei, sondern auch KI-basierte Apps wie AWS HealthScribe oder Amazon Comprehend. Neben der erhöhten Leistung und Kapazität steht zunehmend die datengetriebene Steigerung der Produktivität im Fokus.
Die Datenmenge im Gesundheitswesen werde sich zwischen 2020 und 2025 vervierfachen, sagt IDC voraus, nämlich auf 10,5 Zettabyte. Diese Prognose aus dem Jahr 2018 war zurückhaltend, denn fünf Jahre später explodieren die Datenmengen regelrecht.
(Bild: IDC)
Denn in Pharma und Biowissenschaft ist der Aufwand für Forschung und Entwicklung (F&E) besonders hoch, denn erstens gibt es Milliarden Möglichkeiten und zweitens muss jedes Produkt innovativ und erfolgreich sein. „Die Pharmaindustrie ist bestrebt, die Gesamtzeit der Arzneimittelversorgung der Patienten zu verkürzen“, schreibt AstraZeneca in seiner Anwenderstudie. „Die Markteinführung eines einzelnen Arzneimittels dauert durchschnittlich zehn Jahre und kostet mehr als eine Milliarde US-Dollar. Die Beschleunigung dieses Prozesses würde den Patienten und den Organisationen der Biowissenschaften, die sich um eine Verbesserung der Ergebnisse bemühen, enorme Vorteile bringen.“
Anna Berg Åsberg, AstraZeneca Global VP, R&D IT, berichtete auf einer IT-Konferenz, dass ihr Unternehmen den Machine Learning Service Amazon SageMaker nutze, um den Einsatz von KI/ML im gesamten F&E-Segment des Konzerns zu demokratisieren und zu steigern. Stolz berichtete sie vom Erfolg dieser Strategie: „Das Unternehmen kann jetzt Hunderte gleichzeitig ablaufender ML-Projekte ausführen und 110 Milliarden statistische Tests in weniger als 30 Stunden vornehmen.“
Schnellere Covid-Impfstoffentwicklung
Diese Beschleunigung kann Leben retten, wie der Cloud-Anwender Moderna bei der Entwicklung seines Covid-19-Impfstoffs 2020 gezeigt hat. Moderna hat sich kontinuierlich von einem Biotech-Unternehmen im Forschungsstadium zu einem Biopharma-Unternehmen im kommerziellen Stadium verwandelt, das ein Portfolio an mRNA-basierten Impfstoffen und Therapeutik entwickelt. Die Potenziale seiner cloud-basierten Strategie hat Moderna durch die hohe Geschwindigkeit, mit der ein wirksamer COVID-19-Impfstoff entwickelt, ausgeliefert und seine Produktion global skaliert wurde, belegt. Von der Nutzung des On-Demand-Computing und ML, um die Forschung und Entwicklung zu beschleunigen, über den Aufbau flexibler Kapazitäten und Echtzeit-Analytik, bis hin zu seinen Cloud-nativen Produktionsstätten setzt Moderna AWS-Dienste ein.
Moderna war in der Lage, die Sequenz für seine mRNA-COVID-19-Impfstoffe in nur zwei Tagen mit Hilfe von ML, das auf AWS entwickelt wurde, durchzuführen. Der erste klinische Batch wurde nur 25 Tage später veröffentlicht. KI-Algorithmen ermöglichen die Entwicklung von Arzneimitteln, angefangen bei schnellen Experimentierzyklen zur Unterstützung des Designs von mRNA- und DNA-Sequenzen bis hin zur Automatisierung von Qualitätskontrollanalysen, die eine stundenlange manuelle Überprüfung von Verbesserungen in Produktionsprozessen und Logistik ersparen.
Optimierte Medikamentenproduktion
Der Pharmakonzern Novartis hat sich auf die Produktion, die Lieferkette und die Distribution konzentriert. Wie Ian Meyers, bei AWS zuständig für Product Management und Engineering, in seinem Blog erläutert, hat sich die Transformation der Lieferkette und der Herstellung für die Pharmaindustrie zu einer kritischen Notwendigkeit entwickelt. Die Services, die Novartis von AWS abonniert hat, sollen alle verfügbaren Informationen aus den rund 60 Fabriken in einem sog. „Insight Center“ zusammenführen und einer beschleunigten und fundierten Entscheidungsunterstützung dienen.
Die alte IT-Architektur bei Novartis war auf regelmäßiges, aber langsames Reporting ausgerichtet. Die neue, ausschließlich mit Cloud-Services betriebenen Architektur ist auf Echtzeit-Meldungen und extreme Skalierbarkeit hinsichtlich Speicher (S3) und Datenverarbeitungsleistung mit Streaming (Kafka) und MapReduce (EMR) abgestellt. Bemerkenswert ist dabei, welche große Rolle der IoT-Bereich spielt, der die Produktionsvorgänge bei den Betriebsstätten und Fabriken erfasst und sofort analysiert. Machine Learning und Deep Learning spielen bereits eine bedeutende Rolle in dieser Architektur.
(Bild: Novartis)
Während die Architektur mit IoT, Streaming, Kubernetes und weiteren Komponenten auf Echtzeit-Agilität ausgerichtet ist, erlauben Basiskomponenten wie S3-Storage hohe Skalierbarkeit. Die neue IT ist auf globale Effektivität ausgerichtet. Sollte unglücklicherweise eine weitere Covid-Pandemie ausbrechen, will Novartis sofort, resilient und flexibel darauf reagieren können. Der Zusammenbruch fast aller Lieferketten während der Pandemie hat die Pharma- und Lifescience-Branchen einige bittere Lehren vermittelt.
Schnellere Diagnostik mit KI
Nicht nur Rechenleistung, sondern Speicherkapazität kann mitunter entscheidend zum Erfolg von medizinischen und wissenschaftlichen Initiativen beitragen. An der Medizinischen Hochschule Hannover (MMH) kommt beides zusammen, denn hier arbeiten die Forscher mit Hochdruck daran, die Diagnostik für die Lungenkrankheit COPD zu beschleunigen und die Lebensqualität der weltweit rund 250 Mio. Patienten signifikant zu verbessern.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die in der Cloud verfügbare All-Flash-Technologie des Storage-Spezialisten NetApp spielt dabei eine Schlüsselrolle. Der Erfolg: Eine Auswertung dauert mittlerweile nur noch fünf Minuten statt wie bisher mehrere Stunden. Die Datenpipeline wurde um den Faktor fünf beschleunigt, ein Neuronales Netz maximal schnell trainiert, um mit KI-Modellen die Auswertung zu automatisieren. Die MHH betreibt eine Private Cloud für mehr als 12.000 User und über 300 Applikationen. Die Datenmenge wächst täglich um 2,6 Terabyte an. Der Speicherbedarf ist entsprechend hoch.
Anhand von MRT- und CT-Bildern und Messungen der Durchblutung (Perfusion) der Lunge kann COPD früh erkannt werden. „Mit neuartigen Bildgebungstechniken lässt sich COPD sehr gut erkennen und überwachen”, sagt Jens Vogel-Claussen, Oberarzt am Institut für Diagnostische und Interventionelle Radiologie der MHH. „Jedoch ist die manuelle Segmentierung der Lunge im Diagnoseprozess ein echter Engpass und Kostenfaktor.“ Das Evaluieren eines Falls kann bis zu einem Tag dauern. Damit aus Stunden buchstäblich Minuten werden, muss der Prozess der Perfusionsbildgebung stark automatisiert werden – ein klarer Fall für einen KI-Ansatz.
Mit SAP Pharma in Google Cloud sollen Nutzer die Wirtschaftlichkeit ihrer pharmazeutischen Prozesse wesentlich schneller berechnen können als zuvor.
(Bild: Google)
Hinrich Winther, sein Assistenzarzt, wählte ein neuronales Netz und kombinierte dazu ein klassisches ML-Protokoll mit Datensätzen für Training, Validierung und Test. Bereits manuell segmentierte Bilddaten dienten als Datenbasis. In Hunderttausenden von Einzelschritten wurde das neuronale Netz trainiert. In jedem Einzelschritt wurde ein Datenbatch von über 6 GB verarbeitet.
Bei der Wahl der IT-Umgebung komme es neben der Bandbreite auf die I/O-Leistung des Storage-Clusters von 5,7 Petabyte genutzte Kapazität an, so Winther: „Um das KI-Modell zu trainieren, müssen die Daten schnellstmöglich vom Speicher zur Verarbeitung gelangen.“ Detlef Amendt, Leiter IT-Infrastruktur an der MHH, und ein Dienstleister von NetApp hatten die Lösung: ein A800 All-Flash-System mit dem Betriebssystem ONTAP 9. Die A800 wurde mit einem DGX-System von Nvidia kombiniert. Der Datendurchsatz für die großen Trainingsdaten ließ sich um das Fünffache steigern.
Bildergalerie
Große Datenanalyse auf Google Cloud Platform
Google sieht die Biowissenschaften mit der angrenzenden Pharmaindustrie ebenfalls als Wachstumsmarkt. Kürzlich hat es dafür mit der Healthcare Data Engine einen neuen Service vorgestellt. Damit können Nutzer „einen Längsschnitt von Patientendaten aus isolierten Daten nahezu in Echtzeit generieren, um sie in Anwendungen, Analysen und KI zu nutzen“.
Etwas relevanter als Patientendaten ist die Unterstützung für Pharma und die Biowissenschaften. Für die Pharmasparte konnte Google den deutschen Hersteller SAP gewinnen. Die Nutzung von Googles Abfrage-Engine BigQuery soll wirtschaftliche Analysen mit SAP für Pharma erheblich beschleunigen.
Genomforschung mit Microsoft Azure
Auch Microsoft Azure hat auf das Gesundheitswesen spezialisierte Anwendungsbereich, gelangt aber mit Genomik-Support in den Bereich von Biowissenschaft und Pharma. In seinem Blog über die Beschleunigung von Genomik-Workflows und von Datenanalyse in Azure erläutert Chaitanya Bangur, Director Genomics in Microsoft Health, den Beitrag Microsofts: „Hierzu hat unser Service Microsoft Genomics verschiedene Open-Source-Projekte auf GitHub veröffentlicht, namentlich Cromwell on Azure und Genomics Notebooks sowie Bioconductor-Unterstützung für Azure. Wir haben ferner eine wachsende Liste mit Genom-Datasets auf der Azure Open Dataset-Plattform zur Verfügung gestellt.“ Datasets tragen dazu bei, das Training von KI-Modellen zu beschleunigen.
Cromwell ist ein Open-Source-System zur Verwaltung wissenschaftlicher Workflows. Mit Cromwell on Azure sollen ihre Benutzer Genomforschung dank der Hyperscale-Computefunktionen von Azure beschleunigen können.
(Bild: Microsoft)
Microsoft Genomics sei ein hochskalierbarer Azure-Dienst zum Durchführen einer Sekundäranalyse des menschlichen Genoms mithilfe der Open-Source-Software Burrows-Wheeler Aligner (BWA) und des Genome Analysis Toolkit (GATK). Cromwell ist ein Open-Source-System zur Verwaltung wissenschaftlicher Workflows. „Mit Cromwell on Azure können Benutzer Genomforschung dank der Hyperscale-Computefunktionen von Azure beschleunigen“, so Bangur.
Compliance und Datensicherheit in regulierten Industrien
„Vereinfacht gesagt stellt der Schutz der Daten die Herausforderung hinsichtlich Governance und Compliance dar“, erläutert Udo Schneider, IoT Security Evangelist Europe beim Sicherheitsspezialisten Trend Micro. „Im Gegensatz zu anderen Industrien sind die gewonnenen Daten direkt ‚kopierbar‘. Natürlich bedarf es noch der technischen Umsetzung der Daten in physische Produkte.“ Im Vergleich zum Aufwand an Forschung & Entwicklung sei dieser Aufwand aber vernachlässigbar. Das bedeute gleichzeitig: „Man muss eine große Menge an Daten über einen langen Zeitraum vor unbefugten Zugriffen schützen – eventuell mit der zusätzlichen Schwierigkeit, dass Dritte auf einen Teil dieser Daten zugreifen müssen, so etwa bei klinischen Studien.“ Dies allein stelle bereits eine massive Herausforderung dar. Kommen dann auch noch personenbezogene Daten dazu, wie etwa Teilnehmerdaten bei medizinischen Studien, wachse die Kritikalität abermals.
Chemie und Pharma sind regulierte Industrien, da heißt es aufpassen. Die Kunden schauen besonders auf die Umsetzung von GxP-Standards. GxP meint alle Richtlinien für eine „gute Arbeitspraxis“. Diese sind besonders für die Branchen Medizin, Pharmazie und pharmazeutische Chemie (etwa die Wirkstoffherstellung) relevant. Das G steht dabei für „Good“, das P für „Practice“, das X ist ein Platzhalter. GMP meint also Good Manufacturing Practices.
„Bei Compliance-Anforderungen gilt es indes, zwischen Forschung & Entwicklung (F&E) und Produktion zu unterscheiden. Im Bereich der Produktion gibt es kaum Unterschiede zwischen Pharma- und anderen chemischen Produktionen. Dementsprechend kommen hier grundsätzlich auch vergleichbare Normen bzw. Vorgaben zum Einsatz.“ Dies habe den immensen Vorteil, dass diese Normen wie etwa IEC62443 oder NIST SP 800-82 nicht nur grobe Rahmen abstecken, sondern teilweise mit konkreten Best Practices Empfehlungen (GxP) aussprechen.
Nutzer verwenden Amazon DataZone, um Daten in großem Maßstab über Unternehmensgrenzen hinweg mit Governance- und Zugriffskontrollen zu entdecken und zu teilen. Amazon DataZone macht Daten für jeden im Unternehmen auf geschützte Weise zugänglich.
(Bild: AWS)
„Insbesondere hier profitiert Pharma definitiv von den Erfahrungen und Normen anderer Branchen im Bereich der Prozessindustrie“, so Schneider. Zu den Best Practices dürfte standardmäßig die durchgehende Verschlüsselung der Daten gehören, aber auch der gesteuerte Zugang zu bestimmten Datenressourcen. Bei Amazon lässt sich dies in der Public Cloud mithilfe des Services Amazon DataZone realisieren. Für die geschützte Zusammenarbeit an gemeinsamen Datenressourcen bereitet Amazon den bereits angekündigten Service AWS Clean Rooms vor.
Eine aktuelle Studie der Unternehmensberatung Deloitte fand heraus, dass fast die Hälfte aller vorhergesagten Umsätze in der späten Phase der Wertschöpfungskette der Pharmaunternehmen durch Kollaborationen und wissenschaftliche Partnerschaften generiert werden dürften. Mithilfe von geschützten Umgebungen wie Amazon DataZone oder AWS Clean Rooms ließe sich der Austausch bei solchem Teamwork absichert realisieren.
„Im Bereich F&E sieht es allerdings nicht ganz so gut aus“, fährt Schneider fort: „Auch hier gibt es definitiv Compliance-Vorgaben, nur mangelt es an den empfohlenen Best Practices. Hier sind Verantwortliche dazu gezwungen, selbst entsprechende Maßnahmen zu entwickeln und auszurollen. Ob diese – besonders in rechtlicher Hinsicht – ausreichend sind, bleibt dabei allerdings das Risiko der Verantwortlichen.“
Um wenigstens die Daten von Drittanbietern mit Rohdaten gefahrlos anzapfen zu können, bietet Amazon seit kurzem den Service AWS Data Exchange an. Hier sollen Kunden Datendateien, Datentabellen und Daten-APIs aus einem Portfolio von 3.500 Datensätzen von Drittanbietern finden, abonnieren und verwenden können. Dieser Datenkatalog soll den Aufwand, den Mitarbeiter für die Datenbeschaffung treiben müssen, verringern. Dieser Aufwand kann bis zu 80 Prozent der Arbeitszeit erreichen, wie immer wieder bestätigt wird. Der neue Service ist ein weiterer Beitrag der Cloud, um Unternehmen produktiver zu machen.