Lesbarkeitsindex-Rechner LIX, Flesch & WSTF
Automatische Textanalyse für Binnendifferenzierung, DaZ und Leichte Sprache.
Methodik
Hinweis
Auf einen Blick
Lesbarkeitsindizes verstehen
Viele Lehrkräfte kopieren deutsche Texte in Standard-Textverarbeitungsprogramme, um die Lesbarkeit zu prüfen, und erhalten sofort katastrophale Werte. Die Software markiert völlig normale Unterrichtsmaterialien als "unlesbar", was dich zu unnötigen Umschreibungen zwingt. Das Problem ist nicht der Text selbst, sondern die zugrunde liegende Formel. Standardmäßige englische Formeln bestrafen deutsche Komposita extrem stark und erzeugen so künstlich hohe Schwierigkeitsgrade. Eine genaue Bewertung erfordert spezialisierte linguistische Modelle, die gezielt auf den DACH-Raum kalibriert sind.
Kurzantwort: Ein Lesbarkeitsindex-Rechner analysiert Texte auf didaktische Eignung und sprachliche Komplexität. Durch das automatische Zählen von Wörtern, Sätzen und Silben berechnet das Tool den LIX-Wert, den Flesch-Wert (Amstad) und die WSTF-Stufe. Diese Werte helfen dir, Materialien für DaZ-Lernende, inklusive Klassen oder Richtlinien für Leichte Sprache passgenau zu optimieren.
Diese drei Indizes erfüllen unterschiedliche Rollen in der Unterrichtsplanung. Anstatt dich auf eine einzige Metrik zu verlassen, liefert dir die parallele Auswertung ein vollständiges strukturelles Profil jedes Textes.
LIX-Wert
Flesch (Amstad)
WSTF-Stufe
Textkomplexitäts-Algorithmen basieren auf unterschiedlichen mathematischen Systemen. Jede Formel nähert sich dem Ersatzmaß "Schwierigkeit" mithilfe verschiedener linguistischer Variablen: Durchschnittliche Satzlänge, Zeichenanzahl oder Silbendichte. Die ursprüngliche englische Flesch-Formel versagt bei deutschen Texten katastrophal. Wörter wie Donaudampfschifffahrt sprengen Standard-Silbengrenzen. Toni Amstad löste dieses Problem 1978 durch die Änderung der grundlegenden Konstanten. Er senkte den Basiswert von 206.835 auf 180 und reduzierte den Multiplikator für die Silbenstrafe von 84.6 auf 58.5, um deutsche Satzstrukturen korrekt zu normieren.
180 − Ø Satzlänge − (58.5 × Silben pro Wort)Der LIX-Wert von Carl-Hugo Björnsson ignoriert Silben komplett. Er geht davon aus, dass die Textschwierigkeit eng mit der physischen Wortlänge korreliert, und bestraft gezielt Wörter mit mehr als sechs Buchstaben. Dieser strukturelle Ansatz macht den LIX äußerst widerstandsfähig über verschiedene Sprachfamilien hinweg und absolut immun gegen unklare phonetische Silbengrenzen.
Ø Satzlänge + Anteil langer WörterDie Wiener Sachtextformel (WSTF) liefert die feinkörnigste Analyse. Bamberger und Vanecek entwickelten diese Formel speziell für deutsche Sachtexte. Sie verwendet eine Gleichung mit vier Faktoren, die komplexe mehrsilbige Wörter gegen die grundlegende Einfachheit einsilbiger Begriffe abwägt.
(0.1935 × Anteil mehrsilbiger Wörter) + (0.1672 × Ø Satzlänge) + (0.1297 × Anteil langer Wörter) − (0.0327 × Anteil einsilbiger Wörter) − 0.875Rohe algorithmische Ausgaben bedeuten ohne standardisierte pädagogische Richtwerte sehr wenig. Lehrkräfte nutzen diese Skalen, um Texte an den Gemeinsamen Europäischen Referenzrahmen (GER) und bestimmte DACH-Schulklassen anzupassen. Die Bewertung eines Textes für DaZ-Lernende erfordert die strikte Einhaltung von Grenzen für die Satzlänge. Ein Text, der sich für Muttersprachler der 6. Klasse eignet, kann einen B1-Lerner dennoch völlig überfordern, wenn der Flesch-Wert zu stark auf kurzes, aber kulturell unbekanntes Vokabular setzt.
| Flesch (Amstad) | LIX-Wert | WSTF-Stufe | GER / Schulklasse | Textkategorie |
|---|---|---|---|---|
| 90 – 100 | < 30 | < 4.0 | Klasse 3-4 / DaZ A1 | Leichte Sprache, Kinderbücher |
| 70 – 89 | 30 – 40 | 4.0 – 6.9 | Klasse 5-6 / DaZ A2 | Jugendliteratur, Einfache Nachrichten |
| 50 – 69 | 40 – 50 | 7.0 – 9.9 | Klasse 7-9 / DaZ B1 | Standardjournalismus, Romane |
| 30 – 49 | 50 – 60 | 10.0 – 12.9 | Oberstufe / DaZ B2-C1 | Komplexe Sachtexte, Essays |
| 0 – 29 | > 60 | > 13.0 | Universität / DaZ C2 | Juristische Verträge (BGB), Fachartikel |
Mathematische Transformationen zeigen dir genau, wie strukturelle Textbearbeitung die Lese-Eignung verändert. Durch die Analyse der rohen Eingabevariablen über drei verschiedene Szenarien hinweg kannst du beobachten, wie die Formeln unterschiedliche sprachliche Entscheidungen gewichten.
Fall 1: Standard Inklusionsklasse (Mittelstufe)
Dr. Weber bewertet einen vereinfachten Zeitungsartikel für eine Inklusionsklasse der 7. Jahrgangsstufe in München. Der Text muss vor der Klausur am Freitag die Anforderungen für DaZ B1 erfüllen. Sie kopiert den Text in das Tool und prüft die rohen Metriken.
Eingabevariablen
150 Wörter insgesamt, 12 Sätze, 30 lange Wörter (>6 Buchstaben), 240 Silben. Mehrsilbige Wörter: 15. Einsilbige Wörter: 80.
Zwischenmetriken
Ø Satzlänge = 12,5. Anteil langer Wörter = 20 %. Silben pro Wort = 1,6.
Ergebnis
LIX-Wert = 32,5, Flesch (Amstad) = 73,9, WSTF = 4,0. Der Text fällt sauber in den "Leicht"-Richtwert, was sicherstellt, dass die B1-Schüler den Stoff ohne kognitive Überlastung verstehen.
Fall 2: Ziel Leichte Sprache (Extreme Einfachheit)
Ein Sonderpädagoge schreibt eine offizielle Museumsbroschüre in ein striktes Format für Leichte Sprache um. Die Regeln schreiben null komplexes Vokabular und extrem kurze Sätze vor.
Eingabevariablen
100 Wörter insgesamt, 15 Sätze, 5 lange Wörter, 120 Silben. Mehrsilbige Wörter: 2. Einsilbige Wörter: 75.
Zwischenmetriken
Ø Satzlänge = 6,67. Anteil langer Wörter = 5 %. Silben pro Wort = 1,2.
Ergebnis
LIX-Wert = 11,67, Flesch (Amstad) = 103,13, WSTF = -1,18. Die negative WSTF-Stufe und ein Flesch-Index von über 100 weisen auf eine außergewöhnlich gute Lesbarkeit hin, die die strengsten Richtlinien für Barrierefreiheit besteht.
Fall 3: Akademischer & Juristischer Text
Ein Rechtsanwaltsfachangestellter überprüft einen Absatz aus dem Bürgerlichen Gesetzbuch (BGB), um festzustellen, ob der Text ohne Vereinfachung direkt in einen Verbrauchervertrag aufgenommen werden kann.
Eingabevariablen
200 Wörter insgesamt, 8 Sätze, 80 lange Wörter, 400 Silben. Mehrsilbige Wörter: 50. Einsilbige Wörter: 60.
Zwischenmetriken
Ø Satzlänge = 25,0. Anteil langer Wörter = 40 %. Silben pro Wort = 2,0.
Ergebnis
LIX-Wert = 65,0, Flesch (Amstad) = 38,0, WSTF = 12,35. Der Flesch-Wert stürzt auf unter 40 ab, und die WSTF verlangt das Leseniveau der 12. Klasse. Der Text muss für ein allgemeines Publikum vollständig umgeschrieben werden.
Der primäre Wert dieser Lesbarkeitsmetriken liegt in der Binnendifferenzierung. In heterogenen Klassen kannst du nicht allen Schülern denselben, einheitlichen Schulbuchtext zuweisen. Du musst abgestufte Materialien kuratieren, die dasselbe Thema auf unterschiedlichen sprachlichen Komplexitätsniveaus behandeln. Anstatt zu raten, ob ein Text für einen schwächeren Leser passt, nutzt du die Lesbarkeitsmetriken, um Materialien empirisch zu sortieren. Wenn ein Geschichtstext einen WSTF-Wert von 9,5 liefert, weißt du sofort, dass er einen Siebtklässler mit Leseschwäche stark frustrieren wird. Um den Wert eines Textes aktiv zu verbessern, wendest du den folgenden redaktionellen Workflow an:
Setze Punkte: Halbiere die durchschnittliche Satzlänge. Finde Konjunktionen wie "und" oder "weil" und ersetze sie konsequent durch harte Satzzeichen. Brich Komposita auf: Ersetze im Deutschen schwere Komposita (z. B. Arbeitslosenversicherungsgesetz) durch beschreibende Nebensätze (Das Gesetz für die Versicherung, wenn man keine Arbeit hat). Das senkt den LIX-Wert drastisch. Eliminiere das Passiv: Passivkonstruktionen blähen die Satzlänge natürlich auf und begraben das Subjekt oft am Ende des Nebensatzes, was sowohl die Flesch- als auch die WSTF-Strafen in die Höhe treibt.
Algorithmische Textanalyse ist völlig blind für semantische Bedeutung, das Text-Layout und das Vorwissen der Zielgruppe. Ein Text, der Quantenphysik ausschließlich mit einsilbigen Wörtern erklärt, wird als "Leichte Sprache" eingestuft, obwohl er für ein Kind konzeptionell völlig unverständlich ist. Die Formeln messen das strukturelle Gerüst, nicht die inhaltliche Tiefe. Bestimmte Formatierungsentscheidungen bringen die Parser berechenbar zum Scheitern. Aufzählungslisten ohne abschließende Satzzeichen (Punkte) werden mathematisch als ein einziger, massiver Schachtelsatz interpretiert. Das lässt die Metrik der Satzlänge künstlich in die Höhe schnellen und ruiniert den Flesch-Wert. Füge Listenelementen immer temporäre Punkte hinzu, bevor du einen Text analysierst. Auch Abkürzungen ("z. B.", "bzw.", "km/h") und numerische Zahlen ("2026", "25 %") bringen die silbenzählenden Algorithmen durcheinander. Während einige fortschrittliche Regex-Parser versuchen, Zahlen phonetisch zu lesen, ist die sicherste Methode, alle Zahlen und Abkürzungen vor der Berechnung vollständig auszuschreiben. Gedichte, dialoglastige Romane und stark stilisierte Prosa liefern aufgrund unregelmäßiger Zeilenumbrüche ebenfalls sprunghafte Ergebnisse.
Wichtiger Hinweis für Lehrkräfte
Diese Berechnung ist eine unverbindliche Schätzung, die für die Unterrichtsplanung und Materialprüfung entwickelt wurde. Wenn du dich ausschließlich auf algorithmische Werte verlässt, ignorierst du kritische Faktoren wie Typografie, Illustrationen und die Motivation der Schüler. Überprüfe deine spezifische Situation mit einem qualifizierten Sonderpädagogen oder Diagnostiker, bevor du formelle Inklusionsplatzierungen auf Basis von Textmetriken vornimmst.