Computerlinguistik gemeinsam mit Übersetzungs- und Dolmetschwissenschaft

Verstehen leicht gemacht

 

Bettina Bock  (Halle/Saale)
„Leichte Sprache“: Regeln und Prinzipien der „Verständlichmachung“

In einem interdisziplinären Leipziger Forschungsprojekt soll die Wirksamkeit der sogenannten „Leichten Sprache“ erstmals systematisch evaluiert werden. Aus linguistischer Perspektive muss untersucht werden, inwiefern sich die derzeitigen Regeln „Leichter Sprache“ positiv auf die Verständlichkeit von Texten für die (äußerst heterogenen) Zielgruppen auswirken und wie diese Regeln ggf. modifiziert, ergänzt oder ausdifferenziert werden müssen. Nach ersten Initiativen in den 90er Jahren, einfache, „leicht verständliche“ Texte für Menschen mit geringen Lesekompetenzen zu erstellen, gründete sich 2006 das „Netzwerk Leichte Sprache“, das einen kontinuierlich überarbeiteten Regelkatalog herausgibt, der als Leitfaden für die Praxis gedacht ist und das Erstellen leicht verständlicher Texte für v.a. (aber nicht nur) Menschen mit Lernschwierigkeiten ermöglichen soll. Die „Leichte Sprache“ wurde also aus der (förderpädagogischen) Praxis heraus entwickelt und lässt sich am ehesten als ‚künstliche Varietät‘ oder als ‚laienlinguistisches Konstrukt verständlichen Sprachgebrauchs‘ charakterisieren. Die bisherigen Empfehlungen und Materialien zur „Leichten Sprache“ zeigen eine relativ einseitige Tendenz zur Reduktion (Reduktion von syntaktischer Komplexität, von Variation, von Satz-/Textlänge, von Information, von Ausdrucksmöglichkeiten, Farbigkeit, Bedeutungsabstufung,…). Die häufig recht pauschal und auch zu allgemein formulierten Regeln (bekannte Wörter, einfache Sätze, Vermeiden von Junktionen etc.) scheinen das Einfachheitsprinzip zu verabsolutieren – was nicht überall zu einem Verständlichkeits-optimum führen muss. (U.a. das ausnahmslose „Metaphernverbot“ wäre zu überprüfen und zu differenzieren, da bildlicher Sprache ja durchaus die Funktion zuzuschreiben ist, schwierige Sachverhalte leichter zugänglich zu machen.) Anhand von exemplarischen Beispielen soll das Spannungsverhältnis zwischen Einfachheit/Reduzierung und optimaler Verständlichkeit reflektiert und diskutiert werden. Ein Seitenblick soll dabei auch auf entsprechende Konzepte in anderen Ländern geworfen werden (z.B. easy read in Großbritannien, lättläst in Schweden). Interessant ist die „Leichte Sprache“ darüber hinaus unter der Perspektive von Sprachlenkung und Sprachkultur. Die empfohlenen Formulierungsweisen sind im Moment ausschließlich auf Informierung und reine Funktionalität ausgerichtet (womit sie sich auch von anderen Arten barrierefreier Kommunikation, wie z.B. DGS und Brailleschrift unterscheiden). Im Sinne von Janich müsste man zu dem Schluss kommen, dass dem Konzept das zu fehlen scheint, was als Voraussetzung von Sprachkultiviertheit gilt: eine facettenreiche Spracharchitektur, Vielfalt und die Fähigkeit zur Modernisierung (Janich 2004: 201, 229). Auch dieser Aspekt soll im Vortrag angerissen werden.

Literatur
Janich, Nina (2004): Die bewusste Entscheidung. Eine handlungsorientierte Theorie der Sprachkultur. Tübingen.


 

Gerhard Edelmann  (Wien)
Kundeninformationsprospekt für Investmentfonds: Erhöhung der Verständlichkeit durch regulierte Sprache

Der Vortrag befasst sich mit regulierter Sprache im Bereich der Fachsprache der Wirtschaft zur Herstellung von Verständlichkeit für Kunden von Finanzprodukten (Anteile an Investmentfonds). Investmentfonds sind sehr komplexe und für Nichtfachleute oft schwierig zu verstehende Anlageformen. Das wesentliche Informationsdokument, der vollständige Prospekt, ist sprachlich auf sehr hohem fachlichem Niveau gehalten, obwohl er sich neben professionellen Investoren auch an Kleinanleger wendet. Daher schreibt das seit 2012 in der EU geltende Kundeninformationsdokument (KIID: Key Investor Information Document) den Fondsgesellschaften u.a. vor, dass dieses Dokument in einer Kleinanlegern angemessenen Sprache gehalten sein soll. Bei Vertrieb von Fondsanteilen in mehreren Ländern müssen die Informationen in allen Sprachen gleich aufbereitet sein. In meinem Vortrag werde ich die sprachlichen Mittel darstellen, die zu der von der Verordnung angestrebten Verständlichkeit führen sollen. In der Folge werde ich ein in mehreren europäischen Sprachen vorliegendes Kundeninformations-dokument mit der ausführlichen Informationsunterlage, dem vollständigen Prospekt, vergleichen und folgende Fragen untersuchen: Ist es möglich, durch Regulierung/Vereinfachung der Sprache überaus komplexe Sachverhalte gleichzeitig richtig und verständlich darzustellen? Ist es möglich, durch Regulierung/Standardisierung der Sprache Übersetzungen in andere Sprachen mit gleichem Verständlichkeitsgrad zu erreichen? Bedarf es noch weiterer Maßnahmen, um das Ziel der Verständlichkeit zu erreichen? Der Vortrag hat folgende Grobgliederung: - Einführung in das Thema: Darstellung der Informationsmittel für den Anleger, v.a. vollständiger Prospekt, Kundeninformationsdokument - Kundeninformationsdokument bei Investmentfonds: Textgestaltung als Stärkung der Verbraucherrechte bei Finanzanlagen in der EU; Mittel zur Herstellung der Verständlichkeit; verständliche Sprache; Übersetzungen - Fallstudie: Vergleich des vollständigen Prospekts mit dem Kundeninformationsdokument - Kritik am Kundeninformationsdokument: Überaus komplexe Materie. erforderliches Fachwissen, Übersetzung In der Folge werde ich darstellen, ob im Falle des Kundeninformationsdokuments bei Investmentfonds die von der EU vorgeschlagene regulierte Sprache zur einer Erhöhung der Verständlichkeit führt und ob aus Übersetzungssicht das Ziel, eine gleichwertige Information in allen Sprachen zur Verfügung zu stellen, erreicht wird.

Literatur
Arntz, Reiner / Picht, Heribert / Mayer, Felix, 2009, Einführung in die Terminologiearbeit, Georg Olms Verlag, Hildesheim/Zürich/New York.
CESR’s guide to clear language and layout for the Key Investor Information document.
Macher, Heinz, 2011, Praxishandbuch Investmentfonds, Springer, Wien, New York.
Roelcke, Thorsten, 2010, Fachsprachen, 3. Auflage, Erich Schmidt Verlag, Berlin.
Stolze, Radegundis, 2009, Fachübersetzen – Ein Lehrbuch für Theorie und Praxis, Frank und Timme, Berlin.


 

Jennifer Krisch  (Stuttgart)
Weak-Words und ihre Auswirkung auf die Qualität von Anforderungsdokumenten

Die Kommunikation zwischen Auftraggeber und Auftragnehmer in der Industrie verläuft meist über Pflichtenhefte und Lastenhefte. Diese Spezifikationsdokumente beinhalten Anforderungen, welche Aussagen über Eigenschaften oder Leistungen eines Produktes, eines Prozesses oder der am Prozess beteiligten Personen machen (Rupp, 2007). Da die Spezifikationsdokumente die Kommunikations-basis der Produktentwicklung sind, ist es sehr wichtig, dass die Dokumente eindeutig und vollständig sind, sodass alle Projektbeteiligten jede Anforderung auf die gleiche Weise verstehen. In (Rupp, 2007) werden Qualitätskriterien für Anforderungen in Spezifikationsdokumenten definiert. Darunter fällt auch das Qualitätskriterium der Vollständigkeit. Der Satz Der Knopf muss lange gedrückt werden widerspricht diesem Kriterium, da lange eine unpräzise Angabe ist, welche einen großen Interpretationsspielraum zulässt. Es handelt sich hierbei um ein sogenanntes Weak-Word. Weak-Words sind Wörter, durch deren Verwendung in einem Satz die Wahrscheinlichkeit steigt, dass der Satz unpräzise wird (Rupp, 2007). Bei bestehenden Systemen zur Qualitätskontrolle von Anforderungen, wie z.B. Requalize(http://www.martin-heidenreich.com/download/scripte/Artikel-ObjektSpektrum-RE.pdf) und DESIRe® (http://www.hood-group.com/en/products/tools/requirements-engineering/desirer/) wird davon ausgegangen, dass schon das bloße Auftreten eines Weak-Words zu einer unpräzisen Anforderung führt. Setzt man allerdings dem Adverb lange im obigen Satz eine Zeitangabe, wie 5 Sekunden voraus, wird deutlich, dass Weak-Words nur in bestimmten Kontexten die Qualität einer Anforderung mindern. In (Krisch, 2013) wurde untersucht, welche Rolle der Kontext von Weak-Words für die Qualität von Anforderungen spielt. Dazu wurden Lastenhefte der Daimler AG als Korpus aufbereitet (tokenisiert, nach Wortart und morphologischen Features getaggt, lemmatisiert und syntaktisch geparst (Bohnet, 2009)) und nach Kontexten für ausgewählte Weak-Words durchsucht (mal, lang, kurz). Die Kontexte werden größtenteils durch Wortart- und Lemma-Muster beschrieben. Auf Grundlage dieser Ergebnisse wurde ein Tool entwickelt, das eine automatische Weak-Word-Analyse durchführt und dem Autor nur dann eine Warnung ausgibt, wenn ein Weak-Word in einem qualitätsmindernden Kontext verwendet wurde. Die Evaluation des Systems hat ergeben, dass die Anzahl der Warnungen, die an den Benutzer zurückgegeben werden, durch eine Kontextanalyse reduziert werden kann, ohne dass problematische Kontexte übersehen werden. Dies stellt eine Verbesserung zu den bisher bekannten Systemen dar. Im Vortrag werden die Verfahren zur Kontextbestimmung, die Architektur und Evaluation des Systems beschrieben. 

Literatur
Bohnet, B. (2009). Efficient Parsing of Syntactic and Semantic Dependency Structures. Proceedings of the Thirteenth Conference on Computational Natural Language Learning , S. 67-72.
Krisch, J. (2013). Identifikation kritischer Weak-Words aufgrund ihres Satzkontextes in Anforderungsdokumenten. Diplomarbeit, Universität Stuttgart, Institut für maschinelle Sprachverarbeitung.
Melchisedech, R. (2000). Verwaltung und Prüfung natürlichsprachlicher Spezifikationen. Shaker.
Rupp, C. (2007). Requirements-Engineering und Management: Professionelle, iterative Anforderungsanalyse für die Praxis. HANSER.
Stoyanova, N. (2013). Verbesserung der Qualität natürlichsprachlicher Spezifikationen. Dissertation Dr. phil., Universität Stuttgart, Fakultät Informatik, Institut für maschinelle Sprachverarbeitung.


 

Christiane Maaß  (Hildesheim)
Übersetzen in Leichte Sprache in der Hildesheimer Medienübersetzerausbildung

Leichte Sprache ist eine Varietät des Deutschen mit reduzierter syntaktischer und morphologischer Komplexität sowie geringer lexikalischer Variabilität. Sie wurde im Umgang mit Lernbehinderten aus der Praxis heraus entwickelt und gewinnt derzeit im Zuge der Umsetzung von Inklusion in allen Bereichen des öffentlichen Lebens an Bedeutung. Schon jetzt müssen Internetauftritte von Bundesbehörden auch in Leichter Sprache angeboten werden, und es gibt zunehmend mehr Angebote in Leichter Sprache in anderen Bereichen des öffentlichen Lebens. An der Universität Hildesheim werden im Rahmen des Schwerpunkts „Orientierung von Menschen mit Sinnesbehinderungen“ im Masterstudiengang „Medientext und Medienübersetzung (MuM)“ ÜbersetzerInnen in Leichter Sprache ausgebildet. Neben der theoretischen Auseinandersetzung mit dem Thema führen die Studierenden eigene, wissenschaftlich begleitete Projekte durch. Dabei werden unterschiedliche Problemstellungen in Übersetzungswissenschaft (inklusive Hilfsmittelkunde) und Fachkommunikation an konkreten Aufgaben aus der Praxis in Verwaltung und Wirtschaft entwickelt. Im Vortrag wird Leichte Sprache in den Forschungskontext zwischen Fachkommunikation, Verständlichkeitsforschung, Übersetzungswissenschaft und disability studies gestellt. Danach werden unterschiedliche Projekte vorgestellt, die an der Universität Hildesheim entstehen bzw. entstanden sind. U.a. wird auf einen Übersetzungsspeicher in Leichter Sprache eingegangen, der Gegenstand eines von der Autorin betreuten Masterarbeitsprojekts ist.


 

Markus Nickl  (Erlangen)
„Alles ein bisschen optimieren…“ Erfolgskriterien für Verständlichkeitsprojekte in Unternehmen

Die Technische Dokumentation ist ein Unternehmensbereich, der sich glücklicherweise gegenüber linguistischen Methoden und Optimierungsmaßnahmen recht aufgeschlossen zeigt. In unserer beruflichen Praxis führen wir bei der doctima GmbH regelmäßig Optimierungsprojekte für Textsorten und Kommunikationsprozesse durch. Doch welche Projekte haben Aussicht auf Erfolg? Woran scheitern Optimierungsmaßnahmen? Und: Wie wichtig sind die linguistischen Modelle für das Gelingen der Projekte?  Aus unserer Praxis schildern wir Beobachtungen zu den Erfolgskriterien von Optimierungsmaßnahmen - in der Vertriebsphase, - bei der Einführung, - im laufenden Betrieb und  - bei der Evaluation von Optimierungsprojekten. Dabei zeigt sich, dass für das erfolgreiche Durchführen von Maßnahmen zu Kommunikationsoptimierung oft Faktoren entscheidend sind, die uns Linguisten a) wenig vertraut sind oder b) als selbstverständlich/selbsterklärend erscheinen. Beispielsweise ist die Messbarkeit der Ergebnisse sowohl in der Vertriebsphase als auch in der Evaluation ein entscheidender Faktor für das Gelingen der Projekte. Andererseits gehen die Problemanalysen der Kunden aus der Sicht des Linguisten oft offensichtlich am Kern des Problems vorbei. Hier sind Einfühlungsvermögen und Analysekompetenz gefragt, aber auch die Fähigkeit linguistisches Knowhow laienspezifisch zu formulieren.  So ergibt sich für die Umsetzung von Maßnahmen zur Kommunikationsoptimierung ein ganzes Panorama von Bedingungen und Fähigkeiten, die Linguisten mitbringen müssen, um erfolgreich auf dem Markt zu bestehen. 


 

Ursula Reuther  (Saarbrücken)
Aus zwei mach eins - Kontrollierte Sprache meets Leichte Sprache

In diesem Beitrag sollen zunächst die Konzepte „Kontrollierte Sprache“ und „Leichte Sprache“ charakterisiert werden, sowohl bezüglich ihrer Inhalte, aber auch im Hinblick auf ihre Zielsetzungen und die damit verbundenen Zielgruppen. In einem zweiten Teil werden die beiden Ansätze zur Sprachstandardisierung gegenübergestellt um Gemeinsamkeiten, spezifische Merkmale und gegebenenfalls auch Widersprüche zu identifizieren. Hierbei werden sowohl die jeweiligen Regelwerke als auch Texte, die gemäß den jeweiligen Vorgaben erstellt wurden, auf ausgewählte Merkmale hin untersucht. Im dritten Teil wird auf den Aspekt der Lesbarkeit und ihrer Berechnung eingegangen. Statistisch basierte Verfahren hierfür, u.a. orientiert am Bildungsgrad der Leser, sowie linguistisch basierte Verfahren werden beschrieben und ihre Anwendbarkeit für unterschiedliche Zielgruppen validiert. Weiterhin wird aufgezeigt, welche Konsequenzen z.B. neue EU-Richtlinien haben, die, wie die überarbeitete EU- Richtlinie zu Medizinprodukten, eine „leichte Lesbarkeit“ für alle Benutzer oder Patienten fordert. Gerade im Bereich von Medizin- und Pharmaprodukten spielen terminologische Konsistenz und Korrektheit sowie weitere Kriterien, die eher im Umfeld der Technischen Redaktion anzusiedeln sind, eine wichtige Rolle. Gleichzeitig muss jedoch der Tatsache Rechnung getragen werden, dass dieser Zielgruppe auch Personen angehören, für die handelsübliche Bedienungsanleitungen oder Gebrauchsanweisungen aufgrund einer kognitiven oder perzeptiven Behinderung nicht verständlich sind. Für diesen Anwendungsfall wird ein kombinierter Ansatz der Sprachstandardisierung untersucht. Ein letzter Teil des Beitrags befasst sich mit den Anforderungen an eine Sprachprüfsoftware, die jeweils aus beiden Ansätzen oder aber auch aus der Kombination beider Ansätze resultieren.

Literatur 
Reuther, U. 2003. Two in one: Can it work? Readability and translatability by means of Controlled Language. In: Proceedings of EAMT-CLAW03, S.124-132. DCU.
Lehrndorfer, A. & Reuther, U. 2008. Kontrollierte Sprache – standardisierende Sprache? In: Muthig, J. (Hrsg.), Standardisierungsmethoden für die Technische Dokumentation, S.97-121. Verlag Schmidt
Röhmhild. Reuther, U. 2012. Regelbasiertes Schreiben – sprachübergreifender Ansatz oder sprachabhängige Regelwerke. In: tcworld GmbH (Hrsg.), tekom Jahrestagung 2012, S. 234-236. Wiesbaden.
Tjarks-Sobhani, M. 2012. Leichte Sprache gegen schwer verständliche Texte. In: technische kommunikation, 34.Jahrgang, 6/2012, S. 25-30.