Illustration zum Beitrag von Waltraud Kolb.

Die Verarmung übersetzter Sprache als reales Risiko

Waltraud Kolb bietet uns einen wissenschaftlichen Überblick zum Konzept des »Translationese«. Noch stärker als Humanübersetzungen ist davon Maschinen-Output geprägt – und das hat Folgen für das Leseerlebnis.


Die rasanten Entwicklungen im Bereich Künstliche Intelligenz und Deep Learning, die aktuell in aller Munde sind, werden das Feld der Literaturübersetzung wohl verändern. Die Frage, inwiefern auch literarische Texte von Maschinen übersetzt werden können, ist nicht mehr rein akademischer Natur [1]. Im Projekt Kollektive Intelligenz haben Literaturübersetzer:innen unlängst verschiedene Szenarien durchgespielt, wie sich ein weit verbreitetes Maschinenübersetzungssystem (DeepL) sinnvoll einsetzen lassen könnte, und in Begleittexten über ihre Erfahrungen und die entstandenen Zieltexte reflektiert. [2] Was in diesen Berichten immer wieder zur Sprache kommt, ist die Vorprägung durch die Maschinenübersetzung (MÜ), das sogenannte Priming, wodurch »der Grundton des Textes von vornherein angeschlagen ist« [3], und die Wahrnehmung der Maschinenvorlage als »Korsett«[4], das bei der Nachbearbeitung, dem Postediting, die eigene Kreativität hemmt. Wo sich die Übersetzer:innen weit genug von der Vorlage lösen können, werden die überarbeiteten Texte durchaus positiv bewertet, viele wirken letztlich aber »nicht geschmeidig genug«[5] und bleiben »seltsam leblos«[6].

 

Translationese – die Sprache übersetzter Texte

In ihrer Antrittsvorlesung hat Susan Bernofsky, die diesjährige August-Wilhelm-von-Schlegel-Gastprofessorin und Übersetzerin von u. a. Franz Kafka, Thomas Mann, Robert Walser und Yoko Tawada, über das Übersetzen als »alchimistische Transmutation« gesprochen und dabei auch an den Begriff Translationese angeknüpft – »das schöne englische Wort, das uns so viel Unglück eingebrockt hat«, beschreibe es doch Übersetzungen, die als »hässlich, ungelenk oder sonstwie nicht gut« wahrgenommen würden.[7] Entsprechend, so Bernofsky, lehnten Verlage oft Übersetzungen mit Verweis auf Translationese ab, auch in Fällen, in denen das Original solche Ungelenkheiten zulasse oder gar erfordere. Eingeführt hat den Begriff Translationese Martin Gellerstam in den 1980er-Jahren, er verstand darunter den regelmäßigen Einfluss der Ausgangssprache auf die Zielsprache. Er hatte damals 27 schwedische Übersetzungen englischer literarischer Werke mit 29 schwedischen Originalwerken, allesamt 1976/1977 erschienen, verglichen und lexikalische sowie syntaktische Spuren des Englischen in den Übersetzungen identifiziert – oder auch die Tendenz, Nicht-Standard-Varianten in Standardsprache zu übertragen, während sich in den schwedischen Originalwerken viele solcher abweichenden Varianten fanden. In einer späteren Publikation sprach Gellerstam dann allerdings nicht mehr von Translationese, sondern neutraler von »fingerprints in translation« und »Übersetzungsschwedisch«. Jedenfalls trugen seine Untersuchungen maßgeblich dazu bei, dass sich die Translationswissenschaft verstärkt der Frage zuwandte, ob übersetzte Texte sich prinzipiell von nicht übersetzten Texten unterschieden, unabhängig von konkreten Sprachenpaaren, und daraus entwickelte sich in der Folge ein dynamisches Forschungsfeld.

 

Merkmale von Translationese

Eine wesentliche Rolle spielten dabei korpuslinguistische Methoden, die es ab den 1990er-Jahren möglich machten, riesige Textmengen per Computer zu analysieren – um beispielsweise herauszufinden, ob es beim Übersetzen bestimmte Regelmäßigkeiten gibt und sich für Übersetzungen generell gemeinsame Merkmale finden lassen. In Studien identifizierte man dabei insbesondere ausgangssprachliche Interferenzen bzw. die Übernahme ausgangssprachlicher Muster, aber auch Vereinfachungen, einen höheren Explizitheitsgrad, die Vermeidung von Wiederholungen und eine Tendenz zur Normalisierung (d. h., dass ungewöhnliche sprachliche Merkmale eines Originals durch gebräuchliche zielsprachliche Mittel wiedergegeben werden). Zudem stellte man fest, dass Übersetzungen einander sprachlich mehr ähnelten als zielsprachliche Originaltexte.

Diese Merkmale und Tendenzen (manche sprechen auch von Übersetzungsuniversalien, doch ist der Begriff wegen seiner Absolutheit ähnlich heikel wie Translationese) finden wir nicht nur in Humanübersetzungen, sondern auch in MÜs und in posteditierten Texten, wenn auch mit unterschiedlicher Gewichtung. Der Begriff Machine Translationese bezeichnet dabei die Auswirkungen von Übersetzungsalgorithmen auf die übersetzte Sprache (Vanmassenhove et al. 2021) und Posteditese Charakteristika, die posteditierte Texte von Humanübersetzungen unterscheiden (Daems et al. 2017).

Die Beschäftigung insbesondere der Computerlinguistik mit Machine Translationese folgt auf eine Phase, in der sie sich vor allem auf die Identifizierung von Fehlern maschinengenerierter Texte (oft im Vergleich zu bestehenden Humanübersetzungen) konzentrierte. Dazu verwendete man anfangs in erster Linie automatisierte Evaluationsmetriken. Inzwischen kommen verstärkt auch manuelle Analysemethoden zum Einsatz, einige sind sogar speziell auf literarische Texte zugeschnitten. Evaluiert wird nicht nur die Performance verbreiteter MÜ-Systeme wie Google Translate oder DeepL (und demnächst sicher auch von Chatbots wie ChatGPT), sondern auch der Output von Systemen, die spezifisch für die Literaturübersetzung trainiert wurden.

Unter den Ersten, die Maschinen für die Literaturübersetzung adaptierten, waren Antonio Toral und Andy Way – »Is machine translation ready for literature?« lautete der Titel ihrer ersten diesbezüglichen Publikation (2014). Sie widmeten sich zuerst den sehr nah verwandten Sprachen Spanisch und Katalanisch, bald kam auch das Englische dazu, und inzwischen arbeiten Forschungsgruppen an den unterschiedlichsten Sprachkombinationen. Die Ergebnisse hängen stark von den beteiligten Sprachen ab, und nicht immer liegen die eigens trainierten Systeme vorne. Eine weiterführende Auswahl von Forschungsarbeiten zu diesem Thema (etwa auch zur »Personalisierung« für den Stil bestimmter Autor:innen oder Übersetzer:innen) findet sich am Ende des Beitrags. Meines Wissens werden solche für literarische Texte adaptierten MÜ-Systeme jedoch bisher nur in Forschungskontexten eingesetzt, nicht aber in der Praxis.

Wie sieht es nun mit den genannten Merkmalen von Übersetzungen im Einzelnen aus? Bei Machine Translationese denkt man in erster Linie an ausgangssprachliche Interferenzen, wie sie schon Gellerstam für die Humanübersetzung festgestellt hat. Obwohl MÜ-Systeme zumindest für bestimmte Sprachkombinationen wie Englisch–Deutsch zuletzt deutliche Fortschritte gemacht haben, was grammatikalische Korrektheit, Idiomatik und ganz allgemein die Leseflüssigkeit angeht, übersetzen sie (verglichen mit Menschen) insgesamt immer noch sehr wörtlich. Auch die im Projekt Kollektive Intelligenz generierten maschinellen Übersetzungen waren »klar als Übersetzung zu erkennen«[8], und in einem der Arbeitsberichte wird etwa »die starke Fixierung von DeepL auf die Syntax des Originals und die ausgeprägte Wörtlichkeit der DeepL-Übersetzung«[9] moniert. Interferenzen und wörtliche Übertragungen finden dann auf Grund von Priming-Effekten oft Eingang in die posteditierte Fassung – in den Projekttexten gibt es zahlreiche Beispiele auch dafür. Für den nichtliterarischen Bereich hat beispielsweise Antonio Toral (2019) in einem Vergleich von Humanübersetzungen mit posteditierten Fassungen für fünf Sprachrichtungen klare ausgangssprachliche Interferenzen in den Posteditionen nachgewiesen, die mit hoher Wahrscheinlichkeit auf Priming durch die MÜ zurückzuführen waren.

 

Weniger dicht, weniger komplex

Eine geringere Rolle spielt in der MÜ die Tendenz von Humanübersetzungen, expliziter als das Original zu sein. Um den Zieltext für das Lesepublikum leichter zugänglich zu machen, ergänzen und erklären Übersetzer:innen oft, konkretisieren Allgemeines oder Angedeutetes und disambiguieren Mehrdeutigkeiten. MÜ-Systeme können derlei Überlegungen nicht anstellen. Auch Kohäsionsmittel (Adverbien, Konjunktionen etc.), mit denen Übersetzer:innen ihre Texte explizieren, um sie kohäsiver und runder zu machen, fehlen in MÜs oft und diese werden auch deshalb oft als »zu wörtlich und seltsam hölzern«[10] wahrgenommen. Was das Leseerlebnis und die Rezeption maschinengenerierter bzw. posteditierter Texte angeht, gibt es für den literarischen Bereich erst einige wenige Untersuchungen. So haben Ana Guerberof-Arenas und Antonio Toral (2020) zuerst Humanübersetzungen mit MÜs und Posteditionen (Englisch–Katalanisch) auf zielsprachliche Kreativitätsmarker hin untersucht und dann 88 Personen zu ihren Leseerfahrungen befragt. Im Ergebnis lag die Humanübersetzung bei den Kreativitätsmarkern klar an erster Stelle und auch bei den meisten Fragen zum Leseerlebnis, an letzter Stelle bei allen Aspekten rangierte erwartungsgemäß die MÜ. Zu einem überraschenderen Ergebnis kamen Guerberof-Arenas und Toral in einer Folgestudie (2023): Hier legten sie 223 katalanischen und niederländischen Leser:innen (die wie auch schon in der erstgenannten Studie über Leseforen rekrutiert wurden) jeweils eine Humanübersetzung, eine post-editierte Fassung, eine MÜ und (im Fall der niederländischen Gruppe) das englische Original einer Kurzgeschichte des US-Autors Kurt Vonnegut vor. Im Unterschied zur katalanischen Gruppe nahmen die niederländischen Leser:innen die Humanübersetzung schlechter auf als die post-editierte Fassung. Eine mögliche Erklärung könnte laut Guerberof-Arenas und Toral sein, dass die niederländischen Leser:innen an die Lektüre englischer Texte gewöhnt sind und deshalb die vergleichsweise stärkere Nähe der post-editierten Fassung zum englischen Original der »kreativeren« Humanübersetzung vorziehen.

Interessante Einblicke verspricht auch eine noch nicht abgeschlossene Studie, bei der niederländischsprachige Versuchspersonen einen Agatha-Christie-Krimi in einer Humanübersetzung sowie als MÜ lesen sollten – in einem Eyetracking-Labor, so dass ihr Leseprozess genau analysiert werden kann (Colman et al. 2022).

Ein weiteres Merkmal, das man schon früh mit korpuslinguistischen Methoden identifizierte, ist die Tendenz zur Vereinfachung. Als eine der Ersten zeigte Sara Laviosa (1998) zum Beispiel anhand der lexikalischen Dichte (dem Anteil von Inhaltswörtern an der Gesamtwortzahl), dass Übersetzungen im Vergleich zu Originaltexten tendenziell semantisch weniger dicht und damit leichter lesbar sind. Dafür stellte sie englische literarische Übersetzungen anerkannter Übersetzer:innen aus dem Arabischen, Deutschen, Französischen, Italienischen, Portugiesischen und Spanischen ähnlichen englischen Originaltexten gegenüber. Vergleichbare Ergebnisse in Bezug auf semantische Dichte und lexikalische Vielfalt finden wir auch für MÜ und Posteditionen. Aber auch auf syntaktischer Ebene vereinfachen Humanübersetzungen häufig, etwa wenn längere Sätze in kürzere aufgesplittet oder hypotaktische Fügungen durch parataktische wiedergegeben werden. In dem Zusammenhang sei ein lesenswerter Aufsatz von Milan Kundera über französische Versionen von Kafkas Schloss erwähnt, in dem er eindrücklich zeigt, wie in diesen Übersetzungen Syntax- und Interpunktionsentscheidungen Kafkas langen Atem letztendlich »ersticken« (Kundera 1993: 113). Im selben Aufsatz widmet Kundera sich gleich noch einer weiteren der oben genannten Tendenzen, nämlich der Vermeidung von Wiederholungen, er nennt es den »Synonymisierungsreflex« von Übersetzer:innen. Eine solche Synonymisierungstendenz finden wir auch in der MÜ, allerdings aus anderen Gründen: Der Algorithmus entscheidet nicht nach stilistischen oder kontextuellen Kriterien und kann auf »gewollte Wiederholungen«[11] keine Rücksicht nehmen, sondern generiert jeweils ein auf Basis seiner Trainingsdaten sich ergebendes Wort. Gleichzeitig finden wir in MÜs auch häufig Wiederholungen, wo es im Original gar keine gibt – Posteditor:innen brauchen hier also einen besonders scharfen Blick.

 

»Tendenziell blasser, fader, leiser, normierter«

Wahrscheinlich sind auch sogenannte Normalisierungstendenzen dem übersetzerischen Impuls geschuldet, den Ausgangstext für das zielsprachliche Lesepublikum möglichst verständlich zu machen. Anhand eines Vergleichs von 14 deutschen Romanen der 1980er- und 1990er-Jahre mit deren englischen Übersetzungen hat Dorothy Kenny (2001) gezeigt, dass verschiedenste kreative Elemente der Originale in den Übersetzungen großteils geglättet wurden, etwa Wortneuschöpfungen, unübliche Kollokationen oder ungewöhnliche Orthographie. Zu einem ganz ähnlichen Ergebnis kam auch Marlies G. Prinzl (2016), die Wortneuschöpfungen in Thomas Manns Tod in Venedig und zehn englischen Übersetzungen der Jahre 1924 bis 2012 untersuchte: Von 107 Neuschöpfungen im Original wurden nur zwischen gut 6 und 8 Prozent nicht normalisiert, wobei die Entstehungszeit der Übersetzungen keinen erkennbaren Einfluss hatte. Erklärungsansätze gibt es mehrere: Sandra Halverson (2017) etwa führt die Tendenz zur Normalisierung auf grundlegende kognitive Prozesse zurück, die Übersetzer:innen eher zu häufiger verwendeten zielsprachlichen Wörtern und Wendungen greifen lassen, solange nicht besondere Umstände deren natürlicher »Anziehungskraft« entgegenwirken. Kenny vermutet dagegen nicht so sehr kognitive Faktoren hinter Normalisierungen, sondern soziokulturelle und wirtschaftliche Aspekte, insofern als in unserer Translationskultur Abweichungen von zielsprachlichen Konventionen tendenziell abgelehnt und von Übersetzer:innen daher oft von vornherein vermieden werden. Auch Susan Bernofsky hat in ihrer Antrittsrede dieses Phänomen angesprochen, mit ihrer Bemerkung, der Übersetzungsprozess neige dazu, »alles tendenziell blasser, fader, leiser, normierter zu machen«. In eine ähnliche Richtung argumentierte etwa auch der französische Übersetzer und Theoretiker Antoine Berman, der in literarischen Übersetzungen alle möglichen »deformierenden Tendenzen« feststellte – deformierend in dem Sinne, dass sie die Eigentümlichkeiten des Originals einebnen.

Auch im KI-Kontext spielen Normalisierungstendenzen eine große Rolle und sind allgegenwärtig, da Algorithmen prinzipiell üblichere zielsprachliche Wörter und Muster verwenden als seltenere (und so zum Beispiel Wortwiederholungen generieren, wo wir im Original unterschiedliche und vielleicht weniger gebräuchliche Wörter finden). Ein Erfahrungsbericht aus dem Projekt fasst es gut zusammen: »Was schon bei der Humanübersetzung tendenziell zu beobachten ist, nämlich, dass der Übersetzer dazu neigt, die angepasstere Lösung zu wählen und sich weniger traut als der Autor, wird durch die maschinelle Übersetzung noch verstärkt. Ein MÜS [MÜ-System] wird immer einheitlichere, gefälligere Lösungen wählen.«[12] In einem Postediting-Szenario gilt es diesen Umstand besonders zu berücksichtigen. Wenn die MÜ allerdings nur als Ideengeberin, punktuell zur Inspiration, eingesetzt wird, könnte die Maschine auch den Anstoß zu weniger normalisierenden Lösungen liefern. Das war jedenfalls das Ergebnis einer Studie, in der ich zusammen mit Wolfgang U. Dressler und Elisa Mattiello (2023) der Frage nachging, wie MÜ-Systeme mit Okkasionalismen in Nestroys Komödie Der Talisman (1840) umgehen, also mit Neuschöpfungen, die Nestroy nur ein einziges Mal verwendete. Im Gegensatz zu den drei existierenden englischen Humanübersetzungen, die Okkasionalismen zum allergrößten Teil paraphrasieren oder ganz eliminieren, generierten DeepL und Google Translate durch weitgehend wörtliche Übersetzung Vorschläge, mit denen sich durchaus arbeiten ließe, vor allem für Komposita (weniger für andere Wortbildungsarten). In diesem Sinne kann, wie in einem der Erfahrungsberichte zu lesen ist, »die KI Kreativität auch anstoßen, indem der eigene kreative Prozess durch die vorgeschlagenen Alternativen […] aktiviert oder in andere Richtung gelenkt wird«[13].

 

Erst der Text, dann die Bedeutung

Mit allen diesen Tendenzen in Zusammenhang steht letztlich das Phänomen der Konvergenz, womit gemeint ist, dass der Sprachgebrauch in Übersetzungen homogener ist als in Originaltexten, Originale sich also tendenziell stärker voneinander unterscheiden als Übersetzungen. Und was für Humanübersetzungen gilt, trifft auch – und wahrscheinlich sogar in noch höherem Maße – auf MÜs und Posteditionen zu. In einer meiner Untersuchungen, bei der fünf Studienteilnehmer:innen (alle erfahrene Literaturübersetzer:innen) eine Kurzgeschichte von Hemingway traditionell übersetzten und fünf andere eine DeepL-Version davon posteditierten, hat sich zum Beispiel klar gezeigt, dass die posteditierten Fassungen einander ähnlicher waren als die Humanübersetzungen. Bei entsprechend breiter MÜ-Verwendung könnten solche Tendenzen längerfristig durchaus zu einer Verarmung übersetzter Sprache führen; Vanmassenhove et al. (2021) beschreiben in diesem Sinne Machine Translationese etwa als »artificially impoverished language«, als künstlich verarmte Sprache, und Toral (2019) spricht von Posteditese als »exacerbated translationese«, also einem Translationese hoch zwei.

MÜ-Spuren in posteditierten Texten haben im Großen und Ganzen zwei Ursachen: Zum einen übernehmen Posteditor:innen eine MÜ-Passage oft ganz bewusst, auch wenn sie die Textstelle in einer herkömmlichen Übersetzungssituation ganz anders übersetzt hätten. Immerhin ist der Zweck einer Postedition ja nicht, alles neu zu übersetzen, sondern zu entscheiden, welches maschinengenerierte Material stehen bleiben kann. Manchmal reicht dann ein »good enough« – oder, wie ein Teilnehmer an einer Studie, bei der eine katalanische MÜ eines englischen Fantasy-Romans zu posteditieren war, lapidar anmerkte: »it makes you a bit lazy«, man wird bequemer (Moorkens et al. 2018: 252). Zum anderen sind MÜ-Spuren aber auch die Folge von Priming-Effekten, die Posteditor:innen mehr oder weniger bewusst sein können. Priming, ursprünglich ein Begriff aus der Psychologie, bezeichnet im Postediting-Kontext die Vorprägung durch die MÜ (Green et al. 2013). Mehrere Projektteilnehmer:innen berichten davon, wie schwer es ihnen gefallen sei, sich »von dem, was schon einmal dort steht, zu lösen und die Sätze noch einmal ganz neu zu denken«[14]. Solches Priming kann auf verschiedensten Ebenen stattfinden. In der genannten Hemingway-Studie haben sich Priming-Effekte nicht nur in Bezug auf Wortwahl und Satzbau gezeigt, sondern auch bei der Interpretation ganzer Szenen. Indem die MÜ bereits einen fertigen Entwurf der erzählten Welt liefert, der beim Posteditieren nicht unbedingt in Frage gestellt wird, müssen Szenen nicht mehr erst im Zuge der Rohfassung individuell aufgebaut und müssen Bedeutungen nicht erst im Leseakt festgelegt werden. Für eine Postedition liest man den Ausgangstext anders als für eine Humanübersetzung, und das hat unweigerlich Auswirkungen auf den Zieltext. Ein Beispiel: In der Hemingway-Geschichte lässt sich der einfache Satz »Luz sat on the bed« im Englischen auf zweierlei Weise interpretieren – im einen Fall sitzt Luz bereits auf dem Bett, im anderen ist sie erst im Begriff sich hinzusetzen. In den fünf Humanübersetzungen finden wir beide Varianten (sogar im schönen Verhältnis 3:2), während alle fünf Posteditor:innen die MÜ-Szene übernahmen (in der Luz noch nicht sitzt), ohne eine alternative Lesart überhaupt in Erwägung zu ziehen (wie die Prozessdaten der Studie zeigen). Das »unvoreingenommene Erfassen von Szenen und Personen« wird durch die MÜ also deutlich erschwert, obwohl es »zum Übersetzen von Erzählungen unabdingbar ist«, wie es in der Peer Review zu einem Arbeitsbericht heißt.[15]

Mitunter wird dieses Priming von Posteditor:innen während der Arbeit am Text auch wahrgenommen, und zwar als Einschränkung der eigenen Freiheit und Kreativität. Wie eine Projektteilnehmerin es formulierte: »Ich hatte das Gefühl, dass DeepL sich wie eine Scheibe zwischen das Original und mich schiebt.«[16] Der Übersetzer Hans-Christian Oeser, der sich für eine großangelegte Postediting-Studie von Dorothy Kenny und Marion Winters (2020) zur Verfügung stellte (die übrigens ergab, dass sein eigener Stil im posteditierten Text um circa ein Drittel weniger präsent ist als in seinen Übersetzungen), zog danach in Counterpoint, dem E-Zine des europäischen Dachverbands der Literaturübersetzer:innen CEATL, folgendes Fazit: »I, for my part, shall continue to avail of electronic tools but, being conscious of the dangers arising to my artistic autonomy, only to spot-check and not over a wide area of text« (Oeser 2020). Oeser werde seinerseits auf digitale Hilfsmittel zwar nicht verzichten, sie im Bewusstsein der damit einhergehenden Risiken für seine künstlerische Freiheit allerdings nur punktuell und nicht für ganze Textabschnitte nutzen.

Die MÜ primt also Posteditor:innen in vielerlei Hinsicht, mit dem Ergebnis, dass posteditierte Texte in der Regel Spuren der MÜ aufweisen werden. In jedem Fall sind sie, was man synthetische Texte nennen könnte: zusammengesetzt aus maschinengenerierten und von Menschen übersetzten Segmenten. Das bedeutet, dass im konkreten Einzelfall durch sorgfältiges Posteditieren zwar vielleicht ein akzeptabler Zieltext entstehen kann, der erfolgreich den Anschein einer Humanübersetzung erweckt, dass der Aufwand dafür allerdings meistens sehr hoch sein wird.

 

Waltraud Kolb ist seit Ende der 1980er-Jahre freiberufliche Übersetzerin und aktuell Assistenzprofessorin für literarisches Übersetzen am Zentrum für Translationswissenschaft der Universität Wien. Ihre Forschungsschwerpunkte sind die Erforschung des Übersetzungsprozesses sowie des Einsatzes von MÜ und PE im Bereich der Literaturübersetzung.

 

Literaturauswahl

Baker Mona. 1993. Corpus Linguistics and Translation Studies – Implications and Applications. In: Text and Technology. In honour of John Sinclair, hg. von Mona Baker, Gill Francis und Elena Tognini-Bonelli. Amsterdam: John Benjamins, 233-250.

Baker, Mona. 1996. Corpus-based translation studies: The challenges that lie ahead. In: Terminology, LSP, and Translation: Studies in Language Engineering in Honour of Juan C. Sager, hg. von Harold Somers. Amsterdam: John Benjamins, 175-186.

Baker, Mona. 1999. The Role of Corpora in Investigating the Linguistic Behaviour of Professional Translators. International Journal of Corpus Linguistics 4 (2), 281-298.

Berman, Antoine. 1999. La traduction et la lettre ou l’auberge du lointain. Paris: Seuil.

Castilho, Sheila und Resende, Natália. 2022. Post-editese in literary translations. Information 13 (2), 66. https://doi.org/10.3390/info13020066

Colman, Toon, Fonteyne, Margot, Daems, Joke, Dirix, Nicolas und Macken, Lieve. 2022.  GECO-MT: The Ghent Eye-tracking Corpus of Machine Translation. In: Proceedings of the 13th Conference on Language Resources and Evaluation (LREC 2022), 29-38. http://www.lrec-conf.org/proceedings/lrec2022/pdf/2022.lrec-1.4.pdf

Daems, Joke, De Clercq, Orphée und Macken, Lieve. 2017. Translationese and post-editese: How comparable is comparable quality? Linguistica Antverpiensia 16, 89-103.

De Clercq, Orphée, De Sutter, Gert, Loock, Rudy, Cappelle, Bert und Plevoets, Koen. 2021. Uncovering machine translationese using corpus analysis techniques to distinguish between original and machine-translated French. Translation Quarterly 101, 21-45.

Fonteyne, Margot, Tezcan, Arda und Macken, Lieve. 2020. Machine Translation Under the Magnifying Glass: Assessing the Quality of an NMT-Translated Detective Novel on Document Level. In: Proceedings of the 12th Conference on Language Resources and Evaluation (LREC 2020), 3790-3798. http://www.lrec-conf.org/proceedings/lrec2020/pdf/2020.lrec-1.468.pdf

Gellerstam, Martin. 1986. Translationese in Swedish novels translated from English. In: Translation Studies in Scandinavia. Proceedings from the Scandinavian Symposium on Translation Theory (SSOTT) II, hg. von Lars Wollin und Hans Lindquist. Lund: Gleerup, 88-95.

Gellerstam, Martin. 2005. Fingerprints in Translation. In: In and Out of English: For Better, For Worse, hg. von Gunilla Anderman und Margaret Rogers. Clevedon etc.: Multilingual Matters, 201-213.

Green, Spence, Heer, Jeffrey und Manning, Christopher D. 2013. The efficacy of human post-editing for language translation. In: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 439-448. https://dl.acm.org/doi/10.1145/2470654.2470718

Guerberof-Arenas, Ana und Toral, Antonio. 2020. The Impact of Postediting and Machine Translation on Creativity and Reading Experience. Translation Spaces 9 (2), 255-282.

Guerberof-Arenas, Ana und Toral, Antonio. 2023. To be or not to be: a translation reception study of a literary text translated into Dutch and Catalan using machine translation. https://doi.org/10.48550/arXiv.2307.02358 (preprint)

Halverson, Sandra L. 2017. Gravitational Pull in Translation: Testing a Revised Model. In: Empirical Translation Studies: New Methodological and Theoretical Traditions, hg. von Gert De Sutter, Marie-Aude Lefer und Isabelle Delaere. Berlin: De Gruyter Mouton, 9-45. https://usearch.univie.ac.at/

Hansen, Damien, Esperança-Rodier, Emmanuelle, Blanchon, Hervé und Bada, Valérie. 2022. La traduction littéraire automatique: Adapter la machine à la traduction humaine individualisée. Journal of Data Mining and Digital Humanities, 9. Dez. 2022. https://doi.org/10.46298/jdmdh.9114

Kenny, Dorothy. 2001. Lexis and Creativity in Translation: A Corpus-Based Study. Manchester: St. Jerome.

Kenny, Dorothy und Winters, Marion. 2020. Machine Translation, Ethics and the Literary Translator’s Voice. Translation Spaces 9 (1), 123-149.

Kolb, Waltraud. 2023. ‘I am a bit surprised’: Literary translation and post-editing processes compared. In: Computer-Assisted Literary Translation, hg. von Andrew Rothwell, Andy Way und Roy Youdale. London: Routledge, 53-68.

Kolb, Waltraud, Dressler, Wolfgang U. und Mattiello, Elisa. 2023. Human and machine translation of occasionalisms in literary texts. Johann Nestroy’s Der Talisman and its English translations. Target. https://doi.org/10.1075/target.21147.kol

Krüger, Ralph. 2020. Explicitation in Neural Machine Translation. Across Languages and Cultures. A Multidisciplinary Journal for Translation and Interpreting Studies 21 (2), 195-216.

Kundera, Milan. 1993/2005. Ein Satz. In: Milan Kundera. Verratene Vermächtnisse. Übers. v. Susanna Roth, Frankfurt am Main: Fischer, 97-115.

Kuzman, Taja, Vintar, Špela und Arčan, Mihael. 2019. Neural Machine Translation of Literary Texts from English to Slovene. In: Proceedings of the Qualities of Literary Machine Translation, 1-9. https://www.aclweb.org/anthology/volumes/W19-73/

Laviosa, Sara. 1998. Core Patterns of Lexical Use in a Comparable Corpus of English Narrative Prose. Meta 43 (4), 1-15.

Lee, Changsoo. 2022. How do machine translators measure up to human literary translators in stylometric tests? Digital Scholarship in the Humanities 37 (3), 813-829.

Macken, Lieve, Vanroy, Bram, Desmet, Luca und Teczan, Arda. 2022. Literary translation as a three-stage process: Machine translation, post-editing and revision. In: Proceedings of the 23rd Annual Conference of the European Association for Machine Translation, 101-110. https://lt3.ugent.be/media/uploads/eamt2022/proceedings-eamt2022.pdf

Matusov, Evgeny. 2019. The Challenges of Using Neural Machine Translation for Literature. In: Proceedings of the Qualities of Literary Machine Translation, 10-19. https://www.aclweb.org/anthology/volumes/W19-73/

Mauranen, Anna und Kujamäki, Pekka (Hg.) 2004. Translation Universals: Do they exist? Amsterdam: John Benjamins.

Mohar, Tjaša, Orthaber, Sara und Onič, Tomaž. 2020. Machine Translated Atwood: Utopia or Dystopia? Elope: English Language Overseas Perspectives and Enquiries 17 (1), 125-141.

Moorkens, Joss, Toral, Antonio, Castilho, Sheila und Way, Andy. 2018. Translators’ Perceptions of Literary Post-editing Using Statistical and Neural Machine Translation. Translation Spaces 7 (2), 240-262.

Oeser, Hans-Christian. 2020. Duel with DeepL. Literary Translator Hans-Christian Oeser on Machine Translation and the Translator’s Voice. Counterpoint 4, 19-23. https://www.ceatl.eu/wp-content/uploads/2020/12/Counterpoint_2020_04.pdf

Prinzl, Marlies Gabriele. 2016. Death to Neologisms: Domestication in the English Retranslations of Thomas Mann’s Der Tod in Venedig. International Journal of Literary Linguistics 5 (3), 1-30.

Tezcan, Arda, Daems, Joke und Macken, Lieve. 2019. When a ‘Sport’ Is a Person and Other Issues for NMT of Novels. In: Proceedings of the Qualities of Literary Machine Translation, 40-49. https://www.aclweb.org/anthology/volumes/W19-73/

Toral, Antonio. 2019. Post-editese: An Exacerbated Translationese. In: Proceedings of MT Summit XVII, Bd. 1, 273-281. https://aclanthology.org/W19-6627/

Toral, Antonio und Way, Andy. 2014. Is Machine Translation Ready for Literature? In: Proceedings of the Translating and the Computer Conference 36, 174-176. https://www.asling.org/tc36/wp-content/uploads/TC36-london2014.pdf

Toral, Antonio und Way, Andy. 2015. Machine-assisted Translation of Literary Text: A Case Study. Translation Spaces 4 (2), 240-267.

Toral, Antonio und Way, Andy. 2018. What Level of Quality Can Neural Machine Translation Attain on Literary Text? In: Translation Quality Assessment. From Principles to Practice, hg. von Joss Moorkens, Sheila Castilho, Federico Gaspari und Stephen Doherty. Cham: Springer, 263-287.

Vanmassenhove, Eva, Shterionov, Dimitar und Gwilliam, Matthew. 2021. Machine Translationese: Effects of Algorithmic Bias on Linguistic Complexity in Machine Translation. In: Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, 2203-2213. https://aclanthology.org/2021.eacl-main.188/

Webster, Rebecca, Fonteyne, Margot, Tezcan, Arda, Macken, Lieve und Daems, Joke. 2020. Gutenberg Goes Neural: Comparing Features of Dutch Human Translations with Raw Neural Machine Translation Outputs in a Corpus of English Literary Classics. Informatics 7 (3). https://doi.org/10.3390/informatics7030032

Headerbild: volodyar