Bevor Verständlichkeit in der Forschung überhaupt berücksichtigt wurde, gab es einige Ansätze, die als Vorstufen der sogenannten „Prozessorientierten Verständlichkeitsforschung“ gelten – also des für uns spannenden Forschungsbereichs. Das Problem: In diesen sehr basalen Arbeiten wurden ausschließlich Merkmale des Textes untersucht. Schnell wurde deutlich, dass das weder aussagekräftig noch anwendungsorientiert ist. Denn da gab es ja noch eine Komponente, die man gar nicht berücksichtigt hatte: den Leser!
Typisch typografisch: Die Leserlichkeitsforschung
Die erste Stufe, auf der die Erforschung von Verständlichkeit ansetzt, ist die Untersuchung der Leserlichkeit. Betrachtet werden auf diesem sehr niedrigen Niveau lediglich die typografischen und die grafischen Aspekte von Texten.
Dies sind beispielsweise:
- Die Schriftgröße
- Die Schriftart
- Die Länge der Zeilen
- Die Wortabstände
- Der Kontrast zwischen Schrift und Hintergrund
So wenig die isolierte Betrachtung dieser Merkmale bei der Beurteilung von Verständlichkeit hilft, so wichtig war doch ihre Erforschung. Denn mit ihr rücken verständlichkeitsrelevante Aspekte erstmals in den Blick der Wissenschaft. Heute gilt die Leserlichkeitsforschung gleichzeitig als Teil der Lesbarkeitsforschung und als ihr Vorläufer.
Die Lesbarkeitsforschung: Flesh-Reading-Ease & Co
Die Lesbarkeitsforschung wird ab den 1930er Jahren insbesondere in den Vereinigten Staaten von Amerika intensiv diskutiert. Sie setzt im Vergleich zur Leserlichkeitsforschung auf einer etwas höheren Ebene der Beurteilung von Textverständlichkeit an. Hier werden erstmals Merkmale wie Wortschwierigkeit, Wortlänge und Satzlänge in Verbindung gesetzt zu Eigenschaften der Lesbarkeit, beispielsweise zur Lesegeschwindigkeit oder zu Verständnistests. Die Ergebnisse hat man anschließend in eine Formel überführt, die etwas darüber aussagen soll, wie gut lesbar ein Text ist. Eine solche Formel misst zum Beispiel die Wortschwierigkeit, indem sie die Anzahl der Silben pro 100 Wörter zählt oder – je nach Formel – auch die allgemeine Häufigkeit, mit der die Wörter im Text vorkommen.
Der Text: Die Krux mit dem Zählen
Das große Problem an diesen und ähnlichen Formeln ist, dass sie Texte ausschließlich an der Textoberfläche beurteilen. Der bekannteste Index, der mit Zählmustern arbeitet, ist der Reading-Ease-Score von Flesh, auch Flesh-Index genannt. Diese und ähnliche Formeln machen Lesbarkeit an rein quantitativen Aspekten fest. Dass sich über die Verständlichkeit eines Textes mit einem solchen Verfahren gar keine Aussagen machen lassen, lässt sich leicht belegen: Nehmen Sie einen Text, der nach dem Flesh-Index gut verständlich ist und strukturieren Sie diesen wahllos um. An den Ergebnissen, die Ihnen der Index ausspuckt, ändert sich nichts.
Der Leser oder: Da war ja noch was
Ein weiteres Manko dieser frühen Stationen der Verständlichkeitsforschung: Lesermerkmale werden überhaupt nicht berücksichtigt. Die Forschung bleibt damit rein textorientiert. Man sprach in diesem Zusammenhang von einem sogenannten bottom-up-Prozess – einem Vorgang also, der von unten (vom Text) linear nach oben (zum Leser) abläuft. Verständlichkeit wurde demnach definiert als etwas, das der Leser erlangt, indem er die Informationen aus dem Text ganz einfach sinnerschließend aufnimmt – ohne selbst etwas dazutun zu müssen. Die Erkenntnis, dass auch kognitive Prozesse in die Verständlichkeitsforschung mit einbezogen werden müssen, führte später zur sogenannten Prozessorientierten Verständlichkeitsforschung.
Verständlichkeitsforschung 2.0:
Das Zusammenspiel von Text und Leser
Die Prozessorientierte Verständlichkeitsforschung betrachtet erstmals Text UND Leser. Textverständlichkeit wird in ihr als ein Zustand definiert, der aus Textmerkmalen und Leservoraussetzungen aktiv konstruiert wird. Verstehen gelingt demnach aus der Wechselwirkung von bottom-up- und top-down-Prozessen. Das heißt, mal ist der Text das verständlichkeitserzeugende Element (bottom-up), mal der Leser (top-down).
Die Prozessorientierte Verständlichkeitsforschung gliedert sich auf in zwei Forschungsrichtungen mit unterschiedlichen Zielsetzungen.
Die grundlagentheoretisch orientierten kognitionswissenschaftlichen Ansätze, die erstmals die Adressatenorientierung im Blick haben.
Ziel: Der Aufbau theoretischen Hintergrundwissens.
Manko: Sie eignen sich nicht, um Texte verständlicher zu formulieren oder zu verbessern.
Die anwendungsorientierten instruktionspsychologischen Ansätze, die sich hervorragend eignen, um verständliche Texte zu produzieren.
Ziel: Die Beurteilung von Textverständlichkeit und die Optimierung von Texten.
Manko: Die eher simplen Modelle eignen sich nicht für alle Themen und Kommunikationsanlässe.
Fazit:
Die allerersten Ansätze zur Beurteilung von Verständlichkeit waren nur bedingt aussagekräftig. Problematisch war vor allem, dass sie rein textorientiert blieben und damit den Leser überhaupt nicht berücksichtigten. Erst die Integration von kognitionswissenschaftlichen und instruktionspsychologischen Ansätzen hat Modelle hervorgebracht, die bei der Produktion von Texten über hochkomplexe Themen nützlich sind. Vor allem das kommunikationsorientierte Karlsruher Verständlichkeitskonzept von Susanne Göpferich eignet sich für Unternehmen bestens, um komplizierte Informationen verständlich an eine definierte Zielgruppe zu vermitteln.
Sie arbeiten in einem Unternehmen, das einen fachlich komplexen Hintergrund hat und verfassen regelmäßig Texte für unterschiedliche Zielgruppen?
Dann hilft Ihnen möglicherweise die TEXTFORMART-Checkliste dabei, mehr Verständlichkeit zu erzeugen.
Sie haben eine Frage zu Ihren Texten oder zur Verständlichkeit allgemein? Rufen Sie mich an oder schreiben Sie mir kommunikation@textformart.com.