Dank künstlicher Intelligenz überwinden wir alle Sprachbarrieren, phantastisch, da werden Träume wahr, vielleicht wird was aus dem Weltfrieden. Oder auch nicht, denn die gängigen Programme können nicht, was der Babelfisch fertigbringt, den Douglas Adams einst für Reisen durch die Galaxie erfand. Dieser Simultandolmetscher in Fischgestalt, den man in seinen Gehörgang schlüpfen lässt, versteht und vermittelt die Gehirnströme sämtlicher Lebewesen im Universum, so dass sich der Auftraggeber (der mit dem Fisch im Ohr) mit allen in Rede und Antwort verständigt.
Uns würde schon genügen, mit Polen und Dänen oder wenigstens den Amerikanern ohne Missverständnisse zu sprechen. Das bleibt problematisch. Auf den ersten Blick übersetzen wir dank der generativen künstlichen Intelligenz (GKI) besser und schneller, sie ist aber auch zu Fehlern fähig, und diese sind immer schwerer aufzuspüren. Dennoch, vorschnelles Miesmachen wäre unangebracht, denn auch bei Übersetzungen bietet KI eine Chance. Der wir uns allerdings noch gewachsen zeigen müssen.
Der Umgang mit KI in Laienhänden wird die Kommunikation erst einmal weiter verflachen lassen. Übersetzerprogramme verführen zu ihrem Gebrauch, verbergen aber, was sie nicht können. Das merkt nur, wer genau hinschaut und auch weiß, was er sucht. Das Europäische Patentamt in München ist ein Beispiel für souveräne Anwendung der „schöpferischen“ Intelligenz von neuronalen Übersetzermaschinen (NÜM). Die Profis beschränken sich wohlweislich auf Texte mit überschaubarer Halbwertszeit: Nachrichten, FAQ oder lange Berichte, wo mit Rechtsstreit nicht zu rechnen ist. Da die dafür verwendeten Sprachmodelle mit Fachvokabular trainiert wurden, sind die Profis im Patentamt mit den Ergebnissen zufrieden, lassen sich aber nicht in die Irre führen.
Lektorat
Hier wird es spannend. Die französischen Zieltexte im Patentamt glänzen oft mit flüssigem Stil und fast ohne Grammatik- oder Rechtschreibfehler. Sollten dabei noch Irrtümer und Halluzinationen vorkommen, wie es bei Anwendung von GKI geschieht, sind diese schwer aufzuspüren, sie treten nicht dort auf, wo man sie erwartet. Redaktionelle Nachbearbeitung (Postediting) ist daher wesentlicher Bestandteil der Lehrpläne in der Ausbildung der Übersetzer; das Sprachmodell soll eine Vorübersetzung liefern, die dann „nur“ gegengelesen werden muss. Darauf dürfte die Bezeichnung Lektorat genauer zutreffen.
Texte, die nahezu perfekt übersetzt wurden, auf dennoch verbliebene Fehler zu durchkämmen, ist eine öde Tätigkeit. Sie wird umso stumpfer, je fehlerärmer die Vorübersetzung. Man kennt das Problem aus der Automatisierung: Je besser sie funktioniert, desto seltener muss der Mensch eingreifen, desto weniger pflegt er seine Achtsamkeit, und umso wahrscheinlicher kann sich ein kleiner Fehler zum Unfall auswachsen. Nicht nur deshalb gilt bei juristisch relevanten Dokumenten eine rote Linie. Da ziehen sie im Patentamt die traditionelle Übersetzerleistung vor, sie darf rechnerunterstützt sein, vorausgesetzt sie beruht auf der Basis verlässlicher früherer Übersetzungen – mit der die NÜM trainiert wurde. Solche spezialisierten Sprachmodelle sind ein teurer Spaß und nicht zu verwechseln mit allgemein zugänglichen GKI-Produkten wie ChatGPT.
Fehlende Bildung
Ursprünglich waren der maschinellen Übersetzung Grenzen gesetzt, den Programmen fehlten Wissen, Kenntnisse und Auslegung über die Konventionen des Zusammenlebens. Entsprechend suspekt waren die Ergebnisse. Moderne GKI wird in einem künstlich aufgesetzten Netz trainiert, das die Arbeitsweise des Gehirns in gewisser Weise nachahmt. Was dabei herauskommt, sieht präzise aus, klingt gut, wirkt so überzeugend wie manche Wortfolge gleich als Gedicht durchgeht, aber wie das Ergebnis zustande kommt, kann keiner nachvollziehen. Folglich hat der Übersetzer alles Schwierige weiterhin selber zu leisten – oder er meidet es gleich ganz.
Grammatik
Im einfachsten Fall fällt einem schon selbst auf: Der Text liest sich, als würde jemand falsch singen. Das kann an der Grammatik liegen. Beispielsweise im Polnischen fehlt der unbestimmte Artikel; die GKI findet den passenden Artikel gewissermaßen im Blauen, er kann sogar der richtige sein. Die im Deutschen beliebten Komposita („Sportlermützenstoffmusterbogen“) kommen nur in wenigen Sprachen vor. Relativpronomen (der, die, das) gibt es in den meisten Sprachen keine oder nur eines: Bei der Übersetzung ins Deutsche muss aber genau unterschieden werden. Sodann Tempus und Modalität: In jeder Sprache wird auf eigene Weise Vergangenheit von Gegenwart unterschieden, oder ob ein Befehl ausgesprochen ist. Schließlich das Gendern: In vielen Sprachen gibt die Grammatik kein geschlechtergerechtes Gendern her, etwa im Finnischen oder Bengalischen.
Allgemeinbildung
Stilistische Besonderheiten bedingen merkwürdige Ergebnisse, auch im mündlich Gesprochenen, sogar in Sach- und Fachtexten. Wie ist damit umzugehen, wenn das Wort „Danke!“ nicht zur Verfügung steht? In manchen Kulturen gilt gegenseitige Unterstützung als stillschweigende Übereinkunft; da hebt man sich das Wort für besondere Anlässe auf, etwa wenn einem das Leben gerettet wurde. Zum präzisen Übersetzen gehört also Weltwissen, auch Allgemeinbildung genannt. Mit noch mehr Rechenkraft als aktuell verfügbar ist es vorstellbar, aber wenig wahrscheinlich, dass künftige GKI Allgemeinbildung erwirbt, die der Mühe wert wäre.
Vollends unerreichbar sind Ironie, Doppelbedeutungen, Wortspiele, Sprachbilder, Sprichwörter, kurzum: Humor. GKI bietet dafür falsche oder schiefe Übersetzungen an, im Bemühen um glatte und gefällige Texte wird sie literarischen Vorlagen nicht gerecht. Vom Übersetzer erwarten Autoren und Leser, dass er sperrige Begriffe oder einen rauen Text nicht glattbügelt, sondern angemessen übersetzt. GKI erspart da wenig Übersetzungszeit, sie erfordert sogar mehr Zeit für das Lektorat als eine herkömmliche Rohübersetzung. Das gilt umso mehr, wo Leser den Stil der Urfassung schätzen. Der Stammübersetzer des Autors kennt die Handschrift des Originals, da kann keine GKI mithalten. Maschinelles Übersetzen eignet sich bei literarischen Texten nur für Trivialliteratur.
Fundamentale Probleme
Hinzu kommen Probleme jenseits der Sprachen. Künstliche Intelligenz kann den Übersetzer matt setzen. Er verlässt sich auf die Übersetzung der Maschine, „falsch gesungene“ Formulierungen lässt er im Text stehen. Oder es tritt das Gegenteil ein: Der Übersetzer bezweifelt alles, was ihm die GKI vorsetzt. Er möchte sich davon abheben, darauf vergeudet er seine Energie, und er lässt sich vom Ausgangstext ablenken. Er wird von der GKI sogar aufs Kreuz gelegt, wenn sich diese zu keiner Entscheidung „durchringen“ mag und beim wiederkehrenden Übersetzungsproblem an anderer Stelle ganz anders „entscheidet“. Es leuchtet ein, dass man da aufpassen muss: Wer behält die Kontrolle? KI-Übersetzungen vermitteln die Illusion, ihr Produkt sei fertig. Diese stört Übersetzer dabei, den Ausgangstext zu verinnerlichen und auszulegen. Ähnlich dem Automatenproblem: Je besser das „fertige“ Produkt auf den ersten Blick aussieht, desto mehr unterbindet es die Eigenleistung des Übersetzers. Seine Kreativität wird gebremst, ihm fehlt der Geist zur Übersetzung von Literatur.
Lingua franca
Mit der Weltsprache Englisch hat Vergleichbares eingesetzt, bevor KI das Problem verschleierte. Seither entsteht zunehmend ein Einheitsbrei des Wahrnehmens, eine Monokultur des Denkens. Abweichende Denkroutinen in verschiedenen Sprachen gelten als verzichtbar, schon weil man sie gar nicht mehr zur Kenntnis nimmt. Folglich ähneln einander die Lösungsansätze für Probleme immer mehr. Noch dazu werden wissenschaftliche Texte oft in schlechtem Englisch publiziert. Da darf man auf das Training der KI für Texte dieser Art gespannt sein! Dummerweise gilt Vielsprachigkeit als Kostenfaktor, nicht als Quelle von Erträgen. Entlang dieser denkarmen Weltsicht wird Übersetzung mithilfe KI die Illusion noch befördern, auch dieses Problem sei nun endlich gelöst: Es komme doch jeder auf der Erde zu Wort! – Ja, wie auf Twitter.
Dazu trägt die sogenannte Überanpassung (overfitting) bei. KI wird beim Training für richtige Antworten belohnt. Ist der Algorithmus nicht richtig justiert, passt das Modell am Ende so gut zur Aufgabenstellung, dass nichts Verallgemeinerbares herauskommt. Das Gegenmittel besteht darin, dass man möglichst divers denkt und das System mit sorgfältig ausgewählten, vielfältigen und immer neuen Trainingsdaten robuster macht, oder man gibt dieselbe Aufgabe einem anderen Sprachmodell. Eine Methode, mit der auch die menschliche Intelligenz geweckt werden kann.
Babylon
Das Babelgleichnis kann man auch so lesen: Die Strafe für ihren Hochmut besteht darin, dass die Menschheit einen gemeinsamen Sprachenbrei für alle entwickelt, an dem sie dann von allein eingeht, weil sie nicht merkt, was sie da anrichtet. Erfinder und Entwickler leisten Gewaltiges, den Alltag zu vereinfachen, und die durchschnittlichen Nutzer (vulgo: user) werden dadurch immer fauler, denn wenn sie etwas aufrufen können, brauchen sie es nicht mehr zu lernen, zu verarbeiten und wissen dann weniger gut, ob es situationsgemäß ist. So wie heute keiner mehr ohne Hilfsmittel ein Feuer entfacht wie die Khoi in der Kalahari, so schafft es der moderne Mensch schon jetzt zu überleben, ohne einen einzigen eigenen Gedanken anzufertigen. Wenn es so weitergeht, gewinnen die Maschinen, nicht weil sie es besser könnten als der Mensch, sondern weil er ihnen den Laden überlässt.
Andererseits kann GKI zur Minimierung des Schadens auf dem Weg in die Monokultur beitragen, in Form einer Herausforderung. Wir sprachbegabten Wesen hatten schon vor der KI allen Anlass, unser Sprachgefühl zu hoher Form zu trainieren, so dass wir den Vereinfachern stets auf die Schliche kommen. Leute, die glauben, der Mond sei aus grünem Käse, gab es immer, heute folgen sie wortgetreu Steve Bannons Tip zur Verbreiung der Gesellschaft: Alles vollscheißen („flood the zone with shit“), dann blickt keiner mehr durch. Zwangsläufig wird GKI diese Flut verstärken, oder wir nehmen die Aufgabe ernst: Die Herrschaft über rechnergestützten Unfug behalten wir! Dann aber gibt es kein Entrinnen mehr: Sprache ohne Feingefühl genügt dafür nicht. Genau genommen genügt solche Sprache schon lange nicht.