Neural Machine Translation und Large Language Models: Müssen sich Übersetzer:innen entscheiden?

Selbst die besten Werkzeuge brauchen geschulte Hände. Das gilt auch für Übersetzungstools: Nur wer sie versteht, kann deren Ergebnisse fundiert einschätzen und professionelle Texte erzeugen. Denn die den Übersetzungstools zugrundeliegenden Technologien – Neural Machine Translation und Large Language Models unterscheiden sich teils erheblich in ihren Ergebnissen. Ein Vergleich zeigt: Übersetzer:innen müssen sich nicht entscheiden – vielmehr geht es um den gezielten Einsatz der Technologien.

Autorin: Iris Baumann

Translation Management Systems und ihre zum Teil integrierten Übersetzungstools sind heutzutage für Übersetzer:innen unverzichtbar geworden. Hinter diesen modernen Technologien stecken unterschiedliche Parameter und mathematische Modelle der Computerlinguistik. Wir haben diesbezüglich bei Expert:innen innerhalb des ZHAW Departements Angewandte Linguistik und bei Supertext x Textshuttle, einem Schweizerischen Unternehmen für Sprachtechnologie, das eine eigene Softwarelösung zur Übersetzung auf Basis von Neural Machine Translation und Large Language Models verwendet, nachgefragt. Der Blick hinter die Kulissen zeigt: Es hilft, die Funktionsweisen der Übersetzungstools zu verstehen, um deren Vor- und Nachteile einzuschätzen – und damit bessere Ergebnisse zu erzielen.

So funktionieren Übersetzungstools

Zwei vielgenutzte Werkzeuge für Übersetzungen sind DeepL und ChatGPT. Während DeepL auf «Neural Machine Translation» basiert, stützt sich ChatGPT auf ein «Large Language Model». Beiden Tools liegen spezifische Modelle zugrunde, sogenannte «Large-Scale Neural Networks». Diese bestehen aus vielen einzelnen Parametern, wobei wir uns den Prozess wie folgt vorstellen können: Die Parameter sind wie kleine Zahnräder, die während des Trainings korrekt eingestellt werden. So spielt bei der späteren Übersetzung alles gut zusammen und es entstehen korrekte, flüssige Ergebnisse. Das Modell muss diese Parameter aber zunächst lernen, die Zahnräder also richtig eingestellt werden. Dazu benötigt es bereits übersetzte Texte als Referenz, wodurch das Modell so trainiert wird, dass mit dem Feinschliff auch idiomatische Ausdrücke möglichst genau in der gewünschten Zielsprache nachgebildet werden können.

Oftmals werden solche «Large-Scale Neural Networks» mit unserem menschlichen Gehirn verglichen: Wir geben dem System einen Input – in diesem Fall einen Text. Dieser wird über viele Vernetzungen – ähnlich zu unseren Neuronen – geleitet und wir erhalten anschliessend den passenden Output, also die Übersetzung. Klingt einfach, ist es aber doch nicht so ganz. Denn bei diesen Modellen liegen mathematische Funktionen zugrunde. Deshalb muss zunächst jede Eingabe, bevor sie überhaupt verarbeitet werden kann, in mathematische Vektoren umgewandelt werden. Dies ermöglicht eine verständliche Abbildung und Verknüpfung ähnlicher Wörter für das Modell. In der Linguistik lautet der Fachbegriff hierfür «Word Embedding», also Wort-Einbettung.

Neural Machine Translation vs. Large Language Models

Neural Machine Translation (NMT) existiert bereits seit einiger Zeit und wir können es diesem Ansatz verdanken, dass es in den letzten Jahren zu einer Vielzahl an Verbesserungen in der maschinellen Übersetzung gekommen ist. Seit rund zwei Jahren ist hingegen der Ansatz von Large Language Models (LLM) in aller Munde – sie zeigen bei verschiedensten Aufgaben grosses Potenzial. Im Grunde genommen steckt aber dieselbe Technologie dahinter: Sowohl NMT als auch LLM basieren auf «Large-Scale Neural Networks», die in unserem Fall einen Text erhalten und diesen schrittweise übersetzen. Der Unterschied liegt in der Art, wie sie trainiert werden.

Um zu unserem Beispiel der Zahnräder zurückzukehren: Bei NMT werden komplett neue Modelle – mit quasi unkalibrierten Zahnrädern – direkt für die Übersetzung trainiert. LLMs wiederum lernen zunächst nur anhand riesiger Mengen von monolingualen Texten, immer das nächste Wort vorauszusagen. Dies wird in der Fachsprache als «Pretraining», also als sogenanntes Vortrainieren bezeichnet. Erst in einem zweiten Schritt lernen sie, Instruktionen der Benutzenden zu folgen. Hier besteht auch die Möglichkeit, das Modell direkt für Übersetzungsdienstleistungen zu spezialisieren, wobei es nur ganz wenige Beispiele benötigt. Im Vergleich dazu werden NMT auf Millionen von Übersetzungen trainiert. Im entfernteren Sinn könnten wir sagen, das Trainieren eines NMT-Modells lässt sich mit der Entwicklung eines Kindes vergleichen, das zunächst noch das Sprechen erlernen muss. LLMs sind hingegen bereits in der Oberstufe, bringen schon ein gewisses Grundverständnis für die Funktionsweise von Sprachen mit und müssen «nur» eine neue Sprache lernen.

Das bedeuten diese Unterschiede konkret

Modelle, die auf NMT basieren, sind typischerweise kleiner und verarbeiten kürzere Texte auf einmal. Das bedeutet, dass man mit NMT zwar schneller übersetzen kann. Aber: Durch ein kleineres Kontextfenster kann es oft vorkommen, dass Übersetzungen weniger fliessend wirken. Modelle auf Basis von NMT existieren aber schon länger. Aus diesem Grund gibt es verschiedenste Anbieter:innen, die eine grosse Werkzeugkiste zur Übersetzungsspezialisierung entwickelt haben. Somit sind NMT in Fachbereichen sehr stark und sind dazu in der Lage, beispielsweise auch firmeninterne Terminologien bei der Übersetzung zu berücksichtigen. Mit Tools wie ChatGPT ist dies grundsätzlich auch möglich, allerdings ist hier der Mehraufwand seitens Nutzer:innen noch sehr gross. Denn sie müssen sicherstellen, dass alle relevanten Informationen eingegeben werden.

LLMs wie ChatGPT wiederum wurden für eine Vielzahl an Tasks entwickelt. Im Übersetzungsbereich produzieren sie oft überraschend genaue und flüssige Texte – dies aus dem Grund, dass sie Zugang zu einem viel grösseren Kontextfenster haben als NMT. Da LLMs auf allerlei Daten aus dem Internet vortrainiert werden, sind sie für häufig gesprochene Sprachen wie Deutsch oder Englisch, für die es sehr viel Online-Material gibt, sehr gut geeignet. Für Sprachen mit weniger Datengrundlagen braucht es aber noch eine Menge Arbeit, bis die Übersetzungsqualität wirklich überzeugt. Gerade auch bei LLMs, die nicht in einem zweiten Schritt für die Übersetzung spezialisiert wurden, kann es sein, dass man nicht nur den Text als solchen, sondern auch weiterführende Erklärungen als Output erhält. Dies wird dann zum Problem, wenn solche Tools in automatische Workflows eingebunden werden.

Genauigkeit der Ergebnisse vs. Sprachfluss: Einsatz in der Praxis

Der Einblick in die Funktionsweisen von NMT und LLM zeigt: Die beiden Ansätze schliessen sich nicht gegenseitig aus, sondern ergänzen sich vielmehr. Mit LLM übersetzte Texte wirken fliessend und natürlich, da sie durch das Vortrainieren viel mehr Sprachbeispiele gesehen und beim Übersetzen ein grösseres Kontextfenster zur Verfügung haben. Oftmals sind sie aber weniger genau als mit NMT bearbeitete Texte, die auch spezialisierte Terminologien zuverlässig übersetzen. Dies wiederum führt dazu, dass sich NMT zu stark am Ausgangstext orientieren und die Übersetzung zwar weniger vom Original abweicht, der Lesefluss aber gestört werden kann. LLM-basierten Tools wird insofern mehr Kreativität zugeschrieben und sie glänzen bei Social Media Posts oder redaktionellem Inhalt. Für spezialisierte Texte wie Finanzberichte oder Verträge, bei denen auch maximaler Datenschutz gewährleistet werden muss, ist es wichtig, zunächst auch die Anbieter:innen zu prüfen. Denn bei Tools wie ChatGPT ist es möglich, dass eigene Daten auch für weitere Trainings verwendet werden.

Werkzeuge gezielt einsetzen

Übersetzer:innen oder Project Managern für Übersetzungen stellt sich nicht die Frage, ob sie sich für NMT- oder LLM-basierte Tools entscheiden müssen. Vielmehr liegt es an ihnen, sich kritisch und ergebnisorientiert zu überlegen, welches Werkzeug für welchen Zweck zum Einsatz kommt. Für die Sprachprofis von heute ist es also von grosser Bedeutung, die Technologien zu kennen und die verschiedenen Tools im Markt zu evaluieren, zu verifizieren und anzupassen. Doch was braucht es konkret dazu?

Sprachprofis als Dreh- und Angelpunkt

Für maschinelle Übersetzungen braucht es nebst einem fundierten Beherrschen der Ursprungs- und Zielsprache auch ein grosses Verständnis dafür, wie Text und Maschine miteinander interagieren. Darüber hinaus kennen Übersetzer:innen ihr Zielpublikum und bringen das nötige Allgemeinwissen mit, um Geschriebenes in den richtigen Kontext zu setzen. Denn nicht zu vergessen: Aspekte wie Humor oder Sarkasmus sind für DeepL und Co. noch schwierig zu verstehen. Ein Text soll schliesslich die gewünschte Wirkung erzielen. Aus diesem Grund ist es umso wichtiger, dass Sprachprofis Hand anlegen. Sie erkennen Nuancen wie sprachliche oder faktische Fehler, Vorurteile oder auch kontextlose Übersetzungsergebnisse, sogenannte Halluzinationen. Übersetzer:innen sind sich dieser Aspekte bewusst und tragen sie wiederum ins System oder in die Trainingspipeline der Tools ein, um solche Fehler zukünftig zu vermeiden. Somit haben sie einen direkten Einfluss auf die Qualitätssicherung und -verbesserung von Sprachkorpora, die für NMT- und LLM-basierte Technologien verwendet werden.

Sprachprofis bleiben also für professionelle Übersetzungen und Übersetzungsworkflows unabdingbar. Nur mit einem Verständnis für deren Vorteile und Challenges, Risiken und Fallstricke gelingt es, Übersetzungstools gezielt einzusetzen. Auch bei der Qualitätssicherung und beim Datenschutz sind es die Sprachprofis, die mit ihren sprachlichen und technischen Kompetenzen am besten dafür gewappnet sind, Tools in einem komplexen Umfeld entsprechend den Anforderungen ihrer Kunden einzusetzen.

Neugierig geworden?

Der CAS Language Technology and Artificial Intelligence widmet sich genau diesen Themen. Zusammen mit Profis aus Akademie und Berufspraxis lernen Teilnehmende, wie moderne Übersetzungs- und Sprachtechnologien funktionieren und welchem Wandel sie unterworfen sind. Mit praktischen Übungen und anschaulichen Beispielen lehrt der CAS, welche Möglichkeiten computergestütztes Übersetzen bietet und wo seine Grenzen liegen.


CAS Language Technology and Artificial Intelligence

Die perfekte Verbindung zwischen Expert:innen aus Forschung und Praxis: Unsere Dozierenden sind einerseits am Institut für Übersetzen und Dolmetschen (IUED) hier an der ZHAW tätig; andererseits sind sie Expert:innen aus der Praxis.


Das sind unsere Expert:innen

Laura Subirats Kärkkäinen
Leitung Weiterbildung und Dienstleistung am Institut für Übersetzen und Dolmetschen an der ZHAW

Morgan Kavanagh
Leitung Didaktische Innovation und Dozierende am Institut für Übersetzen und Dolmetschen an der ZHAW

Janine Aeberhard
AI Solution Architect bei Supertext x Textshuttle

Chantal Amrhein
Head of AI Research bei Supertext x Textshuttle

Über Supertext x Textshuttle
Supertext x Textshuttle ist ein international erfolgreicher AI-Sprachdienstleister mit Standorten in Zürich und Berlin. Das Unternehmen entwickelt massgeschneiderte und sichere Übersetzungslösungen und lässt sie zusammen mit erfahrenen Sprachprofis zur Höchstform auflaufen. Das Team aus 120 Expert:innen in AI-Forschung, Software, Linguistik und Projektmanagement arbeitet für über 1’500 Unternehmen in ganz Europa.


Ähnliche Beiträge


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert