Toms Wochentipp: Offene KI-Modelle für Übersetzung Der neue Google Translator: Translate Gemma

Von Thomas Joos 2 min Lesedauer

Anbieter zum Thema

TranslateGemma ergänzt die Gemma-3-Modelle um eine auf Übersetzung optimierte Architektur. Drei Modellgrößen decken Einsatzszenarien von Edge-Geräten bis zur Cloud ab.

TranslateGemma erweitert die Gemma-3-Modellreihe um spezialisierte KI für maschinelle Übersetzung.(Bild:  Joos - Google)
TranslateGemma erweitert die Gemma-3-Modellreihe um spezialisierte KI für maschinelle Übersetzung.
(Bild: Joos - Google)

Die Modellreihe basiert auf Gemma 3 und nutzt eine Trainingspipeline mit Fokus auf parallele Textdaten und Bewertungsmetriken für Übersetzungsqualität. Drei Varianten strukturieren den Einsatz. Das 4B-Modell richtet sich an Systeme mit begrenzten Ressourcen. Die 12B-Version eignet sich für lokale Ausführung auf Laptops. Das 27B-Modell zielt auf hohe Genauigkeit bei Nutzung von GPU- oder TPU-Ressourcen.

Trainingsverfahren und Modellanpassung

Das Training kombiniert Supervised Fine-Tuning mit einem nachgelagerten Optimierungsschritt durch Reinforcement Learning. Parallele Datensätze enthalten manuell erstellte Übersetzungen sowie synthetisch erzeugte Inhalte aus größeren Basismodellen. Diese Kombination erweitert die Abdeckung und reduziert Abweichungen bei weniger verbreiteten Sprachen.

Die zweite Trainingsphase nutzt Bewertungsmodelle, die Übersetzungen anhand strukturierter Qualitätsmetriken prüfen. Dazu zählen MetricX-QE und AutoMQM. Die Modelle passen Ausgaben auf Basis dieser Bewertungen an und verbessern so semantische Konsistenz und Kontextbezug.

Wissensübertragung erfolgt über Distillation aus der Modellfamilie Gemini. Größere Modelle liefern dabei interne Repräsentationen, die in kompaktere Architekturen überführt werden. Das reduziert Rechenaufwand bei vergleichbarer Ausgabequalität.

Leistungsbewertung und Effizienz

Die Evaluierung erfolgt auf dem WMT24++-Datensatz. Das 12B-Modell erreicht höhere Werte als ein Referenzmodell mit 27 Milliarden Parametern. Das 4B-Modell liegt in zentralen Metriken auf dem Niveau größerer Basismodelle.

Die reduzierte Modellgröße wirkt sich direkt auf Laufzeit und Ressourcenverbrauch aus. Systeme verarbeiten mehr Anfragen parallel, gleichzeitig sinkt die Latenz. Diese Eigenschaften sind relevant für lokale Anwendungen und Dienste mit hoher Last.

Sprachabdeckung und Anpassung

TranslateGemma unterstützt 55 Sprachen aus verschiedenen Sprachfamilien. Ergänzend enthält das Training weitere Sprachpaare ohne vollständige Evaluierung. Die Modelle lassen sich für spezifische Sprachkombinationen nachtrainieren.

Eigene Datensätze können in Fine-Tuning-Prozesse integriert werden. Dadurch passen Entwickler Modelle an Fachterminologie oder domänenspezifische Inhalte an. Das betrifft technische Dokumentation, Supportsysteme oder interne Kommunikationsplattformen.

Multimodale Verarbeitung

Die Modelle übernehmen multimodale Eigenschaften aus der Basisarchitektur. Text innerhalb von Bildern kann extrahiert und übersetzt werden. Die Modellgrößen definieren unterschiedliche Betriebsumgebungen. Das 4B-Modell läuft auf Edge-Systemen und mobilen Geräten. Die 12B-Variante eignet sich für lokale Entwicklungsumgebungen. Für maximale Qualität kommt das 27B-Modell zum Einsatz, betrieben auf Hardware wie Nvidia H100 oder TPU-Systemen.

Die Integration erfolgt in lokale Anwendungen, Container-Plattformen oder Cloud-Dienste. Modelle lassen sich direkt in bestehende Workflows einbinden oder über API-basierte Schnittstellen ansprechen. Entwickler erhalten Zugriff auf Modellgewichte und können Anpassungen eigenständig umsetzen.

(ID:50823520)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung