Westfälische Wilhelms-Universität
Münster
|
Klinik und Poliklinik für Neurologie Albert Schweitzer Strasse 33 48149 Münster Direktor: Prof. Dr. med. E. B. Ringelstein |
Tel. (0251) 83-48016
Fax: (0251) 83-48181 e-mail: r.reilmann@uni-muenster.de www: http://neurologie.uni-muenster.de/ |
|
Forschungsschwerpunkte 2001 - 2002 Fachbereich 05 - Medizinische Fakultät |
||||
Evolution menschlicher Sprache aus einem gestischen Kommunikationssystem
Eine Hypothese
zur
Sprachentwicklung besagt, dass sich die heutige menschliche Sprache aus einem gestischen
Kommunikationssystem entwickelt hat. Dies wird unterstützt von Studien, die zeigen konnten,
dass die
Beobachtung motorischer Gesten zu einer Aktivierung von Sprachregionen des Gehirns führt
(sog.
Spiegelneurone). Möglicherweise verlief die Entwicklung von Sprache über verschiedene
Stadien,
beginnend mit einem Spiegelsystem für das Greifen über ein manuelles und vokales
Gestensystem
bis hin zur heutigen Sprache. In diesem Forschungsprojekt untersuchten wir die enge
Verknüpfung von
Sprachproduktion und -perzeption mit motorischen Gehirnarealen. Schwerpunkt ist die Beeinflussung
der
Erregbarkeit des Handmotorkortex durch Sprachfunktionen, die mittels transkranieller
Magnetstimulation
(TMS) bestimmt wurde. Dabei fanden wir heraus, dass linguistische Funktionen, wie das Hören
oder
Lesen von Sprache, zu einer Aktivierung des Handmotorkortex führten, während dies bei
nichtlinguistischer akustischer oder visueller Verarbeitung nicht der Fall war. Das Ausmass der
motorischen
Aktivierung sowie die Verarbeitung in beiden Hemisphären war vergleichbar (Flöel
et al.,
2003). In einer weiteren Untersuchung beschäftigten wir uns mit der Fragestellung, ob auch
einzelne
Merkmale von Sprache, wie Semantik, Grammatik oder Prosodie, ausreichen, das motorische
System zu
prä-aktivieren. Dabei variierten wir systematisch auditorische Stimuli und haben analog zu
unserer
vorherigen Studie die motorische kortikale Erregbarkeit mittels TMS bestimmt. Die akustischen
Stimuli
bestanden aus a) Sätzen, die alle drei vorhergenannten linguistischen Merkmale beinhalteten,
b) varierten
prosodischen Kontouren ohne semantische und syntaktische Information (parallelisiert für die
prosodische
Kontour und die Länge mit den normalen Sätze), c) flache prosodische Kontouren mit
minimaler
Tonhöhenvariation (parallelisiert für die Länge mit den normalen Sätzen),
d) bitonale
Töne (Oktaven, parallelisiert für die Länge mit den normalen Sätzen) und e) einer
Ruhebedingung. Sowohl die Perzeption von variablen prosodischen Kontouren als auch von normalen
Sätzen führte dabei zu einer bilateralen Aktivierung der Handmotorkortices. Es ergab sich
für
den Motorkortex der sprachdominanten, linken Hemisphäre kein Unterschied im Ausmass der
Aktivierung zwischen Sätzen und prosodischen Kontouren, während im Motorkortex der
nicht
sprachdominanten, rechten Hemisphäre die Aktivierung nach der Perzeption von prosodischen
Kontouren stärker war als nach normalen Sätzen. Ferner korrelierte die
Tonhöhenvariabilität von normalen Sätzen selektiv mit der Größe der
Amplituden der motorisch evozierten Potentiale (MEP) nach Stimulation des rechten Motorkortex
(Rogalewski
et al., 2003). Zusätzlich sahen wir in Pilotdaten eines funktionellen
Magnetresonanzexperimentes
(fMRT) diese Aktivierung des Motorkortex während der Verarbeitung von Sätzen und
prosodischen Kontouren. Wir waren somit in der Lage, unsere vorherigen Ergebnisse eines eng
verbundenen
neuronalen Systems für manuelle und linguistische Gesten zu replizieren. Eine neuartige
Erkenntnis war
allerdings, dass bereits der prosodische Aspekt von Sprache das Aktions-Perzeptions-System
aktivieren kann.
Die Ergebnisse bekräftigen die Vermutung, dass Sprache sich nicht als separates Modul,
sondern
vielmehr innerhalb eines allgemeinen Aktions-Perzeptions-Netzwerkes zur Kodierung und
Dekodierung von
gestischen Informationen entwickelt hat.
Drittmittelgeber: Beteiligte Wissenschaftler: Veröffentlichungen: |
||||