re:Invent 2024 – Updates für Datenbanken, Storage und KI AWS präsentiert nagelneue GenAI-Basismodelle

Von Marvin Djondo-Pacham 8 min Lesedauer

Anbieter zum Thema

Auf der diesjährigen „AWS re:Invent“ Konferenz hat der US-Cloud-Anbieter viele Neuheiten angekündigt. Dazu gehören neben Updates für bestehende Lösungen wie Amazon Simple Storage Service (Amazon S3) auch komplett neue Produkte, wie Amazon Nova, eine Reihe an Basismodellen zur Erstellung von generativer KI (GenAI).

Während der 2024er Ausgabe der „AWS re:Invent“ machte der Cloud-Anbieter einige große Ankündigungen zu neuen Produkten und Updates bestehender Lösungen. (Bild:  Noah Berger)
Während der 2024er Ausgabe der „AWS re:Invent“ machte der Cloud-Anbieter einige große Ankündigungen zu neuen Produkten und Updates bestehender Lösungen.
(Bild: Noah Berger)

Amazon Nova

Amazon Nova umfasst vier Modelle mit verschiedenen Preis- und Leistungsstufen: „Amazon Nova Micro“, ist ein reines Textmodell, das niedrigen Latenzzeiten bei geringen Kosten bietet. „Amazon Nova Lite“ ist ein kostengünstiges multimodales Modell, das Bild-, Video- und Texteingaben verarbeitet. „Amazon Nova Pro“ ist ein leistungsfähiges multimodales Modell, das für eine Vielzahl von Aufgaben genutzt werden kann. „Amazon Nova Premier“ ist das leistungsfähigste der multimodalen Modelle. Es ist für den Einsatz bei komplexen, logischen Aufgaben und zum Training benutzerdefinierter Modelle per Wissensdestillation gedacht. Amazon Nova Micro, Lite und Pro sind ab sofort verfügbar. Amazon Nova Premier wird im ersten Quartal von 2025 verfügbar sein.

Die Funktionen der Nova-Modelle auf einen Blick:

  • Mehrsprachige und multimodale Unterstützung mit langen Kontextfenstern: Amazon Nova Micro, Lite, und Pro unterstützen mehr als 200 Sprachen. Dabei unterstützt Amazon Nova Micro eine Kontextlänge von 128.000 Eingabe-Token, Amazon Nova Lite und Amazon Nova Pro von 300.000 Token oder 30 Minuten Videoverarbeitung. Anfang 2025 wird Amazon eine Kontextlänge von über 2 Millionen Eingabezeichen unterstützen.
  • Schnell und kosteneffizient: Alle Amazon Nova Modelle sind laut AWS schnell, kosteneffizient und wurden so konzipiert, dass sie mit den Systemen und Daten von Kunden verwendet werden können. Amazon Nova Micro, Amazon Nova Lite und Amazon Nova Pro sind laut Herstellerangaben mindestens 75 Prozent günstiger als die leistungsstärksten Modelle in ihren jeweiligen Intelligenzklassen in Amazon Bedrock. Zudem sind sie die schnellsten Modelle in ihren jeweiligen Intelligenzklassen in Amazon Bedrock.
  • Nahtlose Integration mit Amazon Bedrock: Alle Amazon Nova Modelle sind in Amazon Bedrock integriert. Mit Amazon Bedrock können Kunden mit Amazon Nova Modellen und anderen FMs experimentieren und diese bewerten, um das beste Modell für eine Anwendung zu ermitteln.
  • Unterstützung von Fine-Tuning: Die Amazon Nova Modelle unterstützen auch Fine-Tuning. Kunden können die Modelle auf Beispiele aus ihren eigenen vorklassifizierten Daten verweisen, um die Genauigkeit zu erhöhen. Das Amazon Nova Modell lernt aus diesen Daten (einschließlich Text, Bilder und Videos), was für den Kunden am wichtigsten ist. Amazon Bedrock trainiert daraufhin ein privates, auf den Kunden und Anwendungsfall abgestimmtes Modell, das maßgeschneiderte Antworten liefert.
  • Destillation zum Trainieren kleinerer, effizienterer Modelle: Durch die Destillation ermöglichen die Modelle, spezifisches Wissen von einem größeren, sehr leistungsfähigen „Lehrermodell“ auf ein kleineres, effizienteres Modell zu übertragen, das präzise, aber auch schnell und kostengünstig ist.
  • Mit RAG Antworten in Daten verankert: Amazon Nova Modelle sind in Amazon Bedrock Knowledge Bases integriert und eigenen sich gut für Retrieval-Augmented Generation (RAG). Dies ermöglicht es den Kunden, sicherzustellen, dass Antworten der Modelle in den Daten des Unternehmens verankert werden können.
  • Optimiert für agentenbasierte Anwendungen: Die Amazon Nova Modelle lassen sich in agentenbasierten Anwendungen nutzen. Diese erfordern eine Interaktion mit unternehmenseigenen Systemen und Daten über mehrere APIs, um mehrstufige Aufgaben auszuführen.
Bildergalerie

Amazon Nova bietet zudem Modelle um, visuelle Inhalte zu erzeugen. „Amazon Nova Canvas“ ist ein Modell zur Bilderzeugung, das aus bereitgestellten Texten oder Bildern neue Bilder in professioneller Qualität erstellt. Im Modell lassen sich Bilder anhand von Texteingaben und Steuerelementen zur Anpassung von Farbschema und Layout bearbeiten.

„Amazon Nova Reel“ ist ein Modell zur Videoerstellung, das aus Text und Bildern hochwertige Videos erstellen kann. Es eignet sich in den Bereichen Werbung, Marketing oder für Schulungen. Kunden können mit natürlichsprachlichen Prompts den visuellen Stil und das Tempo steuern, einschließlich der Kamerabewegung, Drehungen und Zoom.

Amazon S3

„Amazon S3 Tables“ sind speziell für die Verwaltung von „Apache Iceberg“-Tabellen in Data Lakes konzipiert. Sie basieren auf einem neuen Typ von Amazon S3-Buckets, der für Analyseaufgaben optimiert ist und im Vergleich zu allgemeinen Amazon S3-Buckets eine bis zu 3-mal schnellere Abfrageleistung und 10-mal höhere Transaktionsraten (TPS) bietet.

Amazon S3 Tables übernimmt automatisch Wartungsaufgaben wie die Komprimierung der Tabellen für eine bessere Abfrageleistung und das Snapshot-Management. Dies ermöglicht eine kontinuierliche Optimierung der Abfrageleistung und Speicherkosten. Mit der Erstellung eines Tabellen-Buckets profitieren Kunden von Iceberg-Funktionen wie Transaktionen auf Zeilenebene, abfragbaren Snapshots durch Zeitreise-Funktionalität oder Schema-Evolution. Zusätzlich bieten Amazon S3 Tables Zugriffskontrollen auf Tabellenebene, sodass Kunden Berechtigungen festlegen können.

Die Daten in Amazon S3 Tables lassen sich mit AWS Analysewerkzeugen wie „Amazon Athena“, „Amazon Quick Sight“ abfragen, ebenso wie mit „Apache Spark“ und anderen Open-Source-Werkzeugen, die mit Apache Iceberg kompatibel sind. „Amazon S3 Metadata“ generiert automatisch abfragbare Objektmetadaten nahezu in Echtzeit. Dies beschleunigt die Datenerkennung und verbessert das Datenverständnis, was Kunden den Aufbau eigener komplexer Metadatensysteme erspart. Mit Amazon S3 Metadata können Unternehmen Daten für Geschäftsanalysen, Echtzeit-Inferenzanwendungen und mehr abfragen, finden und nutzen.

Amazon S3 Metadata erzeugt automatisch Objektmetadaten, die Details wie Größe und Quelle des Objekts enthalten, und macht diese über Amazon S3 Tables abfragbar. Werden Objekte hinzugefügt oder entfernt, aktualisiert Amazon S3 Metadata automatisch die Objektmetadaten in Amazon S3 Tables und bietet Kunden eine aktuelle Ansicht ihrer Daten. Metadaten lassen sich einfach mit einer SQL-Abfrage durchsuchen. Damit können Daten schnell für Anwendungen wie Geschäftsanalysen und Echtzeit-Inferenzanwendungen, Feinabstimmung von Basis-KI-Modellen, Durchführung von RAG, Integration von Data-Warehouse- und Analyse-Workflows oder gezielten Speicheroptimierungsaufgaben gefunden und vorbereitet werden.

Amazon Aurora und Amazon DynamoDB

Amazon Aurora DSQL“ ist eine neue über mehrere Regionen verteilte, serverlose SQL-Datenbank. Mit ihr können Unternehmen Anwendungen mit höchster Verfügbarkeit, starker Konsistenz, „PostgreSQL“-Kompatibilität und 4-mal schnelleren Lese- und Schreibvorgängen im Vergleich zu anderen gängigen verteilten SQL-Datenbanken erstellen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die aktiv/aktiv-Architektur und automatische Fehlerbehebung von Aurora DSQL sorgt für ständige Verfügbarkeit der Kundenanwendung, indem eine Anwendung an jedem Aurora DSQL-Endpunkt lesen und schreiben kann. Alle in einer Region geschriebenen Transaktionen werden mit hoher Konsistenz in anderen Regionen widergespiegelt. Aurora DSQL erreicht damit eine Verfügbarkeit von 99,999 Prozent über mehrere Regionen hinweg.

Aurora DSQL skaliert automatisch, um sich an jeden Workload-Bedarf anzupassen, ohne dass Kunden sich um Datenbank-Sharding oder Instanz-Upgrades kümmern müssen. Lese- und Schreibvorgänge können unabhängig voneinander skalieren, dadurch werden Skalierungsengpässe beseitigt und die Leistung bleibt erhalten.

Mit Aurora DSQL entfällt die Notwendigkeit, Datenbankinstanzen bereitzustellen, zu patchen oder zu verwalten. Alle Aktualisierungen sowie Sicherheitspatches erfolgen ohne Ausfallzeiten und ohne Leistungseinbußen. Aurora DSQL ist PostgreSQL-kompatibel und bietet eine benutzerfreundliche Entwicklererfahrung.

AWS verwendet nun die gleiche zugrunde liegende Technologie wie Aurora DSQL und ergänzt „DynamoDB Global Tables“ um die Option der starken Konsistenz, zusätzlich zu den bestehenden Vorteilen: höchste Verfügbarkeit, nahezu unbegrenzte Skalierbarkeit und Zero-Management-Infrastruktur. Sowohl Amazon Aurora DSQL als auch die Unterstützung für starke Multi-Region Konsistenz in Amazon DynamoDB Global Tabels sind ab sofort in der Preview verfügbar.

Amazon SageMaker

AWS hat die nächste Generation von „Amazon SageMaker“ angekündigt, die Daten-, Analyse- und KI-Fähigkeiten in einer integrierten Plattform vereint. Sie hat folgende Elemente:

  • „Amazon SageMaker Unified Studio“: Eine einheitliche Entwicklungsumgebung für Daten und KI, die AWS Werkzeuge für Analysen, maschinelles Lernen (ML) und generative KI zusammenführt.
  • „Amazon SageMaker Catalog“: Ermöglicht es Administratoren, Zugriffsrichtlinien mit granularen Kontrollen zu definieren und mit einem einheitlichen Berechtigungsmodell umzusetzen. Basierend auf Amazon DataZone ermöglicht Amazon SageMaker Catalog die sichere und einfache Verwaltung und Auswertung von freigegebenen Daten und Modellen über verschiedene Teams hinweg. Diese Daten und Modelle werden durch generative KI mit kontextbezogenen Geschäftsinformationen in Form von Metadaten angereichert, um sie leichter auffindbar zu machen. Anpassbare Schutzmaßnahmen wie Datenklassifizierung, das Erkennen von schädlichen Inhalten, Guardrails und Richtlinien für verantwortungsvolle KI helfen, KI-Anwendungen sicher und konform zu gestalten.
  • „Amazon SageMaker Lakehouse“: Bietet einen einheitlichen Zugriff auf Daten aus Amazon Simple Storage Service (Amazon S3) Data Lakes, Amazon Redshift Data Warehouses und föderierten Datenquellen. Es reduziert Datensilos und ermöglicht einfache, Datenabfrage – unabhängig vom Speicherort. Kunden können mit Amazon SageMaker Unified Studio und Apache Iceberg-kompatiblen Werkzeugen auf ihre Daten zugreifen. Dies unterstützt SQL-Analysen, Ad-hoc-Abfragen, Data Science, ML und generative KI. Integrierte, feingranulare Zugriffskontrollen ermöglichen es, Berechtigungen einmal zu definieren und Daten sicher organisationsweit zu teilen. Der einheitliche Zugriff auf verschiedene Datenquellen sorgt für Zeitersparnis.
  • Neue Zero-ETL-Integrationen: Die Zero-ETL-Integrationen vereinfachen die Datenintegration. Sie erlauben Kunden von Amazon SageMaker Lakehouse einen nahtlosen Zugriff auf ihre Daten aus SaaS-Anwendungen wie Zendesk, SAP, ebenso wie aus Amazon Redshift. Dadurch können die Daten für Analyse- und KI-Anwendungen, unabhängig vom Speicherort genutzt werden. Die Lösung eliminiert den Bedarf an komplexen, kostspieligen und fehleranfälligen Datenpipelines. Die Integrationen unterstützen vollständige Datensynchronisation, Erkennung inkrementeller Aktualisierungen und Löschungen sowie Zusammenführungsoperationen.

Die nächste Generation von SageMaker ist ab sofort verfügbar. SageMaker Unified Studio befindet sich derzeit in der Preview. Ein genauer Veröffentlichungszeitpunkt ist noch nicht bekannt.

Amazon Bedrock

Auch für Amazon Bedrock hat AWS einige neue Funktionen angekündigt. Diese Updates sollen faktische Fehler aufgrund von Halluzinationen verhinder. Zudem sollen Anwender mehrere KI-gesteuerte Agenten für komplexe Aufgaben orchestrieren können. Außerdem ist es nun möglich kleinere, aufgabenspezifische Modelle zu erstellen, die ähnliche Leistungen wie ein großes Modell erbringen können, jedoch zu einem Bruchteil der Kosten und Latenz.

„Amazon Bedrock Guardrails“ erleichtert es Kunden, KI-Prüfungen auf generative KI-Anwendungen anzuwenden. Der Dienst ermöglicht nun auch den Zugang zu sogenannten Automated Reasoning Checks. Dabei handelt es sich laut AWS um die erste und bislang einzige Sicherheitsfunktionalität für generative KI, die mit logisch präzisen und überprüfbaren Schlussfolgerungen hilft, Halluzinationen zu vermeiden. Automated Reasoning Checks ermöglichen, faktische Antworten auf ihre Richtigkeit hin zu validieren, überprüfbare Ausgaben zu produzieren und genau einzusehen, warum ein Modell zu einem Ergebnis gekommen ist.

„Amazon Bedrock Agents“ ermöglicht es nun, mehrere KI-Agenten zu koordinieren, die komplexe Arbeitsabläufe gemeinsam ausführen können. Durch die Zusammenarbeit mehrerer Agenten können Unternehmen spezifische Anwendungen für verschiedene Projektschritte erstellen und diese parallel arbeiten lassen. Moody's, einer der weltweit führenden Anbieter von Finanzdaten, nutzt Multi-Agent Colloboration über Amazon Bedrock, um Worlflows im Bereich Risikoanalyse zu verbessern.

Mit „Amazon Bedrock Model Distillation“ können Kunden das Wissen großer Modelle auf kleinere Modelle übertragen und dabei deren Leistungscharakteristiken beibehalten. Unternehmen können ohne spezielle Expertise im maschinellen Lernen Modelle entwickeln, die bis zu 500 Prozent schneller und 75 Prozent günstiger sind. Kunden wählen ein großes und ein kleineres Modell aus derselben Modellfamilie, stellen Beispielprompts bereit, und Amazon Bedrock übernimmt die gesamte Feinabstimmung.

Ein Beispiel ist Robin AI, ein KI-gestützter Assistent für den juristischen Bereich. Robin AI nutzt Model Distillation, um hochwertige juristische Frage-Antwort-Systeme über Millionen von Vertragsparagrafen zu betreiben. Automated Reasoning Checks, Multi-Agent Collaboration und Model Distillation sind in der Preview verfügbar.

(ID:50261054)