Meine Challenge Wie wir Sprachen lernen

16. November 2020, 10:54 Uhr

Eine neue Fremdsprache zu erlernen, verlangt uns einiges ab. Doch wie kommen wir überhaupt zum Sprechen und was passiert dabei in unserem Gehirn? Ist man irgendwann zu alt, um eine neue Sprache perfekt zu erlernen? Welche Tipps und Tricks helfen beim Lernen? Und brauchen wir in Zeiten moderner Übersetzungstechnologien überhaupt noch Fremdsprachenkenntnisse?

Der richtige Lerntyp, die richtige Motivation

Wer in die Welt einer neuen Sprache eintauchen will, der hat die Qual der Wahl. Schätzungen gehen davon aus, dass es derzeit etwa 6.500 bis 7.000 verschiedene Sprachen auf der Welt gibt. Zum Sprachenlernen braucht es also vor allem eines: die richtige Motivation. Die Sprachwissenschaftlerin Britta Hufeisen von der TU Darmstadt empfiehlt, vor dem Start drei Fragen zu klären: Warum wollen Sie diese Sprache lernen? Was wollen Sie in dieser Sprache lernen? Und wie wollen Sie diese Sprache lernen?

Letztere Frage bezieht sich auf die unterschiedlichen Lerntypen: Die einen lernen am besten, indem sie Lern-CDs oder Podcasts anhören, andere müssen Vokabeln mehrmals aufschreiben, bis sie im Kopf gespeichert sind, wieder andere brauchen visuelle Reize wie zum Beispiel Bilder-Wörterbücher. Da müsse man einfach ausprobieren, so Hufeisen, was für einen selbst am besten funktioniere.

Es ist ein Mythos, dass Sprachenlernen schwierig ist und dass es schwierigere und nicht so schwierige Sprachen gibt. Das ist einfach eine hoch individuelle Einschätzung. Je motivierter ich bin, umso weniger schwierig sind die Sprachen witzigerweise.

Britta Hufeisen

Wichtig sei, sich aber nicht schon im Vorfeld von vermeintlichen Schwierigkeitsgraden verschiedener Sprachen abschrecken zu lassen.

Tipps und Tricks für Sprachenlernen

  • Ein klares Ziel vor Augen haben: Welches Sprachniveau will ich in welcher Zeit erreicht haben? Die gängigen internationalen Sprachniveaus des CEFR bieten eine gute Orientierung.
  • Sprachenlernen ist das neue Hobby: Ohne Zeit und Energie geht es nicht. Also lieber keine weiteren Nebenprojekte starten, sonst kommt es schnell zu Überforderung und Frustration.
  • Weniger ist mehr: Nicht mit mehreren Programmen parallel arbeiten, lieber auf ein Produkt konzentrieren.
  • Nach Kognaten suchen: Wörter finden, die in der Muttersprache sehr ähnlich klingen und auch dasselbe bedeuten.
  • Vorhandenes und neues Wissen verbinden: Die neu zu lernenden Vokabeln mit typischen Alltagssituationen, wie Verabredungen machen oder ein Restaurant besuchen, verknüpfen - solche aktiv erlebenden Abläufe kann unser Gehirn besonders gut abspeichern.
  • Den eigenen Alltag einbeziehen: Beispielsweise beim Gang in die Küche überlegen, wie die typischen Gegenstände dort in der Fremdsprache heißen. Beim nächsten Küchen-Besuch die Vokabeln wiederholen.
  • Entdeckend lernen: Musik und Podcasts in der jeweiligen Sprache anhören, Filme mit Untertiteln angucken oder sich auf fremdsprachigen Webseiten zu seinem Hobby informieren.
  • Modalverben lernen: Können, sollen, müssen, möchten und mögen frühzeitig in der ersten und zweiten Person Singular lernen, denn so kann man einfache Sätze bilden ohne sich den Kopf über Zeitformen und Konjugationen zerbrechen zu müssen.
  • Sofort mit dem Sprechen beginnen: Den perfekten Moment wird es nie geben, also rein ins kalte Wasser! Laut sprechen, mit Menschen sprechen (etwa mit einem Tandem-Partner oder bei Sprachtreffen) und wirklich nur in der Fremdsprache unterhalten.

Einzigartig: die Sprachverarbeitung im Gehirn

Wenn wir sprachlich aktiv sind, dann arbeitet es vorrangig in unserer linken Gehirnhälfte. Vor allem zwei Areale sind wichtig: das Wernicke-Areal kümmert sich um grundlegende Informationen, etwa, welche Silben ein Wort ergeben und welche Bedeutung ein Wort hat. Das Broca-Areal hingegen ist für kompliziertere Sprachgebilde und die Syntax zuständig.

Isabell Wartenburger, Professorin für Patholinguistik und Neurokognition der Sprache an der Uni Potsdam, im Portrait.
Isabell Wartenburger, Professorin für Patholinguistik und Neurokognition der Sprache an der Uni Potsdam Bildrechte: MDR/Karla Fitze

"Diese beiden Areale werden immer wieder als für Sprache wichtig berichtet", erklärt Isabell Wartenburger, Professorin für Patholinguistik und Neurokognition der Sprache an der Uni Potsdam. Das zeige sich zum Beispiel auch bei Menschen, die einen Schlaganfall hinter sich haben: "Wenn der Schlaganfall die linke Hirnhälfte betrifft, und zwar diese beiden Regionen, dann ist es sehr wahrscheinlich, dass die betroffene Person danach eine Sprachstörung aufweisen wird."

Verbunden werden das Wernicke- und das Broca-Areal durch den Fasciculus arcuatus, ein Bündel aus Nervensträngen. Diese "Informations-Autobahn" findet sich in dieser Form nur beim Menschen - und könnte einer der Gründe sein, warum wir als einzige Spezies auf diesem Planeten über ein komplexes Sprachsystem verfügen.

Babys schreien in ihrer Muttersprache

Während das für komplexere Aufgaben zuständige Broca-Areal erst etwa ab dem dritten Lebensjahr seinen Dienst aufnimmt, ist das Wernicke-Areal schon aktiv, bevor wir überhaupt auf die Welt kommen. Das heißt auch: Der Erwerb unserer Muttersprache beginnt bereits im Mutterleib, wo das Kind schon Wochen vor der Geburt über ein gewisses Hörvermögen verfügt und so Umgebungsgeräusche und grundlegende Sprachmuster - etwa die typische Intonation - mitbekommt.

Baby
Kinder erlernen mühelos jede Sprache, in die sie hineingeboren werden. Bildrechte: imago images / Imaginechina-Tuchong

Dass dies bereits prägenden Einfluss hat, zeigt eine Untersuchung zum Schreiverhalten von Babys aus verschiedenen Sprachräumen: "Im Deutschen zum Beispiel haben wir in Aussagesätzen eine fallende Intonation, wir gehen am Ende mit der Stimme runter", erklärt Katharina Zahner, Mitarbeiterin am Baby-Sprachlabor der Uni Konstanz. "Das spiegelt sich akustisch gesehen im Weinen oder Schreien deutscher Babys wider. Im Französischen spricht man hingegen in sogenannten Akzent-Phrasen. Und man konnte zeigen, dass französische Babys kurz vorm erneuten Luftholen mit der Stimme nach oben gehen. Bei deutschen Babys hingegen fällt sie am Ende eines Schreis." Und bei chinesischen Babys lasse sich die tonale Vielfalt ihrer Muttersprache ebenfalls schon in ihren ersten Schreien wiedererkennen.

Der lange Weg zum Sprechen

Vom ersten Schrei zu den ersten Worten ist es dann ein langer Weg. Ein erster wichtiger Schritt: die sogenannte Wortsegmentierung. "Ein Kind muss erstmal erkennen, wo im Sprachfluss ein Wort beginnt und wo es aufhört, um den Begriff dann wiedererkennen und ihm eine Bedeutung zuschreiben zu können. Diese Wortsegmentierung ist mit etwa neun Monaten ausgebildet," erklärt Katharina Zahner. Auch hier helfen wieder prosodische Strukturen, die das Kind bereits im Mutterleib aus seiner Umgebungssprache heraushört, im Deutschen etwa das sogenannte trochäische Betonungsmuster: Im Deutschen beginnen viele Wörter mit einer betonten Silbe. Das Baby erkennt diese Struktur und nutzt die Betonung, um festzustellen: Hier beginnt ein neues Wort.

"Mit etwa eineinhalb bis zwei Jahren beginnt das Kind dann, Zwei-Wort-Äußerungen zu produzieren. Und selbst da spiegelt sich bereits die Grammatik der Sprache wider, die das Kind umgibt: Im Deutschen zum Beispiel sagt das Kind dann 'Saft trinken', das Verb ist hinten. Im Englischen hingegen lauten solche Äußerungen dann 'drink juice', hier steht das Nomen am Ende - da haben wir also eine Spiegelung der Wortstellung in der jeweiligen Sprache", so Zahner.

Babys können jede Sprache lernen

So viel das Kind auf seinem Weg zum Beherrschen der eigenen Muttersprache lernt: Vieles geht in dieser Entwicklung tatsächlich auch verloren. Das kindliche Gehirn mistet sozusagen aus.

Was wir in Verhaltens-Experimenten sehen, ist, dass Kinder mit einer gewissen sprachlichen Offenheit geboren werden, man spricht da auch von einer universellen Wahrnehmung. Babys können fast alle 800 existierenden Sprachlaute unterscheiden, wenn sie geboren werden. Das können Erwachsene nicht mehr.

Katharina Zahner

Eine Studie zeigt zum Beispiel, dass japanische Babys den Unterschied zwischen dem englischen "L" und "R" wahrnehmen können, dieses Differenzierungsvermögen jedoch im Alter von etwa einem Jahr verloren geht. Der Grund: Das Gehirn lernt, dass es diese Unterscheidung für die eigene Muttersprache nicht braucht - und löscht sie.

Untersucht wird dies beispielsweise in Aufmerksamkeits-Tests, bei denen die Blick- und Kopf-Bewegungen von Säuglingen und Kleinkindern genau beobachtet werden, oder "Schnuller-Tests", bei denen ein Sensor die Saug-Rhythmik und -Intensität misst. Den Kindern werden dabei verschiedene Lautreihen vorgespielt, nehmen sie eine Unregelmäßigkeit wahr oder erkennen etwas wieder, reagieren sie entsprechend.

Welche Rolle spielt das Alter?

Dass unser Gehirn nicht benötigte Sprachfertigkeiten aussortiert und sich nur auf die Sprech- und Hörkompetenzen konzentriert, die wir für unsere Muttersprache benötigen, könnte ein Grund sein, warum wir uns als Erwachsene dann schwerer damit tun, eine neue Sprache mit neuen Strukturen und artikulatorischen Merkmalen zu erlernen.

Eine viel diskutierte Frage in der Forschung ist, ob es eine kritische Phase gibt, nach der das Erlernen einer neuen Sprache auf perfektem Niveau unmöglich ist. Die Studienlage hierzu ist mitunter widersprüchlich. Mal ist die Rede davon, dass diese kritische Phase mit sechs Jahren endet, mal mit zehn Jahren, mal mit der Pubertät.

Einig ist man sich nur in dem Grundsatz: Je jünger man ist, wenn man mit der neuen Sprache beginnt, desto einfacher geht das Lernen von der Hand und desto größer sind die Erfolgsaussichten. Als möglicher Grund dafür wird neben dem genannten Verlust der Lautvielfalt unter anderem die abnehmende Neuroplastizität des Gehirns genannt - die Nervenzellen adaptieren neue Muster nicht mehr so schnell wie im Kindesalter.

Was moderne Übersetzungstechnologie kann ...

Aber warum überhaupt an den Schreibtisch setzen, Vokabeln büffeln und Grammatik pauken? Die Übersetzungstechnologien haben in den letzten Jahren beachtliche Sprünge gemacht und jeder, der ein internetfähiges Smartphone besitzt, hat damit auch ein mobiles Nachschlage- und Übersetzungsgerät in der Tasche, erklärt Ralph Krüger, Professor für Sprach- und Übersetzungstechnologie an der TH Köln.

Die große Neuerung der neuronalen maschinellen Übersetzung ist, dass der Ausgangssatz einmal komplett vom System verarbeitet wird. Er wird eingelesen und es wird eine interne Repräsentation dieses Satzes erstellt. Man kann im Prinzip - in Anführungszeichen - davon sprechen, dass die Maschine den Satz als Ganzes liest und versteht.

Ralph Krüger

Der Fortschritt besteht also darin, dass nicht einfach Wort für Wort in die Zielsprache übersetzt wird, sondern dass die künstliche Intelligenz einen Kontext "mitdenkt".

... und wo die Technik an ihre Grenzen kommt

Leben wir also irgendwann in einer Welt, in der wir uns auch ohne Lernen problemlos mit anderssprachigen Menschen verständigen können? Ralph Krüger hält dieses Szenario für unwahrscheinlich, denn: Das Kontextverständnis neuronaler maschineller Übersetzungstechnologien ist limitiert.

Ralph Krüger, Professor für Sprach- und Übersetzungstechnologie an der TH Köln, im Portrait.
Ralph Krüger, Professor für Sprach- und Übersetzungstechnologie an der TH Köln Bildrechte: MDR/Thilo Schmülgen

"Die Maschine sieht ja nur das, was man ihr an sprachlichem Input eingibt", so Krüger. "Dabei findet Sprachverstehen immer in einem Kontext statt. Das eine ist der Diskurskontext: Was passiert im Rest des Textes, was wurde vorher gesagt, was kommt danach. Dann gibt es den Wissenskontext, also das, was man bei seinem Gegenüber an Wissen voraussetzen kann. Da machen wir immer Annahmen und gestalten unsere sprachlichen Aussagen dementsprechend. Und das dritte ist der Situationskontext: Was sind die Rahmenbedingungen? Die haben nämlich maßgeblichen Einfluss darauf, wie wir eine Äußerung verstehen." Neben diesen Kontext-Grenzen, an die künstliche Intelligenz stößt, kommt noch hinzu, dass komplizierte sprachliche Gebilde - etwa Metaphern oder Ironie - oft nicht korrekt decodiert werden.

Warum wir lieber selber lernen sollten

Aber auch jenseits dieser Grenzen moderner Übersetzungstechnologien hält Ralph Krüger die Frage, ob sich das Erlernen einer Fremdsprache lohnt, für überflüssig. Seine Antwort lautet ganz klar: Ja.

Wenn ich diesen kognitiven Aufwand an eine Maschine auslagere, dann ist das eine Fähigkeit, die ich nicht herausbilde. Wir haben breitflächig das komplexe Kopfrechnen verlernt, weil einfach der Taschenrechner hinzugekommen ist. Analog würde ich das beim Fremdsprachenerwerb sehen.

Ralph Krüger

Dieses Phänomen hat einen Namen: "Deskilling", also das Ablegen oder Verlernen bestimmter Kompetenzen, weil sie uns von Technologien abgenommen werden. Einen weiteren Grund, eine Fremdsprache lieber selbst zu lernen statt sich nur mit Übersetzungsprogrammen zu behelfen, sieht Krüger im Herausbilden interkultureller Empathie.

Wenn man eine Sprache erlernt, dann lernt man ja nicht nur eine Syntax und Vokabular, sondern man lernt auch, wie eine bestimmte Sprachgemeinschaft die Realität wahrnimmt und in Worte fasst. Wenn ich mir vorstelle, dass das nur noch vermittelt durch so einen Knopf im Ohr von Google passiert, ohne dass ich mir dann dieser kulturellen Fremdheit bewusst werde, das finde ich eine sehr dystopische Version. So möchte ich mir die Zukunft nicht vorstellen.

Ralph Krüger

0 Kommentare