Welche Besonderheit stellt die menschliche Sprache dar?
Dennoch stellt unsere menschliche Sprache etwas Einzigartiges dar
Dabei ist es nicht die Fähigkeit, einzelne Wörter zu lernen, die uns als Menschen ausmacht, sondern die Gabe, diese Wörter nach bestimmten Regeln zu kombinieren und auch die Beschaffenheit der Inhalte, die mittels dieser Sprache kommuniziert werden
Warum ist die Entwicklung von Kommunikationssystemen überlebenswichtig?
Die Entwicklung spezifischer Kommunikationssysteme ist überlebenswichtig für alle Lebewesen, um Informationen über… zu signalisieren
innere Zustände (Paarungsbereitschaft, Aggression)
Umweltbedingungen (Gefahr, Lokalisation von Nahrungsquellen)
Was können Lebewesen zur Kommunikation verwenden?
visuelle Signale 🐺
chemische Signale 🦨
elektrische Signale🐍(Aal)
Schallereignisse, die durch ein sogenanntes Stimmorgan (Syrinx oder Larynx) erzeugt werden🦇
Was sind Vorteile der Kommunikationssignale über Schallereignisse?
Sie können auch in der Dunkelheit übermittelt werden – im Gegensatz zu visuellen Signalen.
Sie können über eine größere Strecke hinweg signalisieren – im Vergleich zur Kommunikation mit chemischen Botenstoffen.
Aus welchen Grundbausteinen setzt sich die menschliche Sprache zusammen?
Die menschliche Sprache setzt sich aus verschiedenen Grundbausteinen zusammen, die hierarchisch angeordnet sind:
Phoneme – Sprachlaute für gesprochene Sprache
Buchstaben – für die geschriebene Sprache
Wie lassen sich die Grundbausteine der Sprache zerlegen?
Diese Bausteine sind letztendlich die Basis größerer linguistischer Einheiten (z. B. Texte oder Sätze), können aber auch immer weiter in kleinere Bestandteile zerlegt werden:
Texte zu Sätzen, Sätze zu Phrasen, Phrasen zu Wörtern, Wörter zu Silben
Die sogenannte Phrasen- oder Konstituentenstruktur bezieht sich auf die Grundstruktur eines Satzes und die Technik, einen Satz schrittweise in kleinere Einheiten (Konstituenten) zu zerlegen, also die Gliederung eines Satzes von Silben zu Wörtern und von Wörtern zu Phrasen
Hierbei können gesprochene Sätze durch Pausen gegliedert werden und geschriebene Sätze werden in Wortgruppen unterteilt, die man durch ein einzelnes Wort ersetzen könnte, ohne groß den Sinn des Satzes zu verändern
Worauf bezieht sich die Phrasen- oder Konstituentenstruktur?
Was sind Konstituenten?
Konstituenten sind kleinere Einheiten eines Satzes
Was ist die Hauptfunktion von Sprache?
Die Hauptfunktion von Sprache beim Menschen ist die Kommunikation mit anderen Menschen.
Welche wichtigen Funktionen erfüllt Sprache?
Vermittlung kommunikativer Inhalte
kognitive Funktion, da sie ein symbolisches Verfahren darstellt, das uns erlaubt, gedankliche Operationen durchzuführen
Das zeigt sich insbesondere bei Lernprozessen, da Sprache eine bedeutende Rolle bei
der Wissensvermittlung
der Wissenskonstruktion
beim Abrufen von bereits gelernten Inhalten spielt
Womit beschäftigt sich die Linguistik und womit die Psycholinguistik?
Die Linguistik konzentriert sich vor allem auf diese kognitive Sprachfunktion, insbesondere auf die Untersuchung und Definition von abstrakten sprachlichen Regularitäten, die wir unbewusst erlernen und beherrschen
Die Psycholinguistik konzentriert sich dagegen auf die menschliche Sprachfähigkeit
Diese Forschungsdisziplin beinhaltet Untersuchungen…
zum menschlichen Spracherwerb
zu den Grundlagen für das Produzieren und Verstehen von Sprache
zur Repräsentation von Sprache im Gehirn
Welche Untersuchungen führte die neurologische Sprachforschung durch und zu welchen Annahmen führte dies?
Lange Zeit stützte sich die neurobiologische Sprachforschung alleine auf Untersuchungen von Zusammenhängen zwischen spezifischen Hirnläsionen und mit diesen einhergehenden Ausfällen oder Störungen der Sprachproduktion und des Sprachverstehens
Dies führte teilweise zu vereinfachten Annahmen, die mit dem Aufkommen weiterer Methoden und neuer Forschung wieder revidiert wurden
Ursprünglich hatte man durch Läsionsstudien angenommen, dass lediglich die linke Hemisphäre für die Sprachverarbeitung von Bedeutung ist
Entsprechend den Beobachtungen bei Patienten ging man davon aus, dass die dritte Stirnhirnwindung (Gyrus frontalis inferior), die auch als Broca-Areal bezeichnet wird, für die Sprachproduktion verantwortlich ist, während der linke Temporallappen, der auch als Wernicke-Areal bezeichnet wird, das Sprachverstehen vermittelt
Allerdings musste diese vereinfachte Sichtweise nach neueren Erkenntnissen Mitte der 1970er-Jahre revidiert werden
In psycholinguistischen Modellen wurde die bislang einfache Teilung in Produktion und Verstehen von Sprache durch den Aspekt von zentralen lexikalischen und syntaktischen Kompetenzen der Sprache ergänzt
Durch welche bildgebende Verfahren zeigten sich Fortschritte im Verständnis neurologischer Grundlagen von Sprachverstehen- und Produktion?
Insbesondere durch das Aufkommen von neueren biopsychologischen Messmethoden, die Messungen der Hirnaktivität während der Sprachverarbeitung ermöglichten, zeigten sich große Fortschritte im Verständnis der neuronalen Grundlagen von Sprachverstehen und Sprachproduktionsprozessen
Vor allem zwei unterschiedliche Klassen von Messverfahren, die unterschiedliche Genauigkeiten bei der räumlichen oder zeitlichen Auflösung bieten, stellen hier wichtige Forschungswerkzeuge dar
Die Elektroenzephalografie (EEG) und die Magnetenzephalografie (MEG) sind zwei Verfahren mit Limitation in der räumlichen Auflösung, erlauben aber die Registrierung von Hirnaktivität mit hoher zeitlicher Auflösung
Zwei weitere wichtige bildgebende Verfahren in der Sprachforschung sind vor allem die Positronenemissionstomografie (PET) und die funktionelle Kernspintomografie (fMRT)
Hier wird die Hirnaktivität mit hoher räumlicher Auflösung bei eingeschränkter Zeitauflösung aufgezeichnet
In welche 3 Phasen lassen sich die Daten zur Sprachverarbeitung im EEG und MEG unterteilen?
Wie werden diese Phasen bezeichnet?
Die zeitliche Struktur der Sprachverarbeitung während des Verstehensprozesses lässt sich anhand der gewonnenen Daten im EEG und MEG grundsätzlich in drei abgrenzbare Phasen unterteilen:
Phase 1: Erstellung der initialen Phrasenstruktur aufgrund von Wortkategorie-Information (Nomen, Verb, Konjunktion etc.); zeitliche Abfolge: 120–250 ms nach Beginn des Reizes.
Phase 2: Verarbeitung von lexikalisch-semantischer Information und Zuweisung thematischer Rollen; 300–500 ms nach Beginn des Reizes.
Phase 3: Abgleichen der bestehenden Informationen und Reanalyse; 500 ms nach Beginn des Reizes
Diese Einteilung in die drei Phasen wird auch als neurokognitives Modell des Sprachverstehens bezeichnet.
Welche Prozesse werden den 3 Phasen des neurokognitiven Modells des Sprachverstehens zugeordnet?
Den drei Phasen werden verschiedene Prozesse zugeordnet, die sich jeweils in einer bestimmten ereigniskorrelierten Hirnpotenzial-(EKP-)Komponente widerspiegeln:
Phase 1: frühe links anteriore Negativierung (ELAN; „early left anterior negativity“),
Phase 2: zentro-parietal verteilte Negativierung um die 400 ms nach Beginn des Wortes (genannt: N400) oder einer links anterioren Negativierung (LAN) und
Phase 3: späte zentro-parietal verteilte Positivierung (P600)
Welche Hirnregionen konnten durch PET und fMRT gefunden werden, die an der Sprachverarbeitung beteiligt sind?
Worüber lassen sie keine Aussage zu?
In den beiden bildgebenden Verfahren – PET und fMRT – konnten zudem gezielte Informationen über die Hirnregionen erlangt werden, die an der Sprachverarbeitung beteiligt sind
Aufgrund der schlechten zeitlichen Auflösungen erlauben die beiden Methoden allerdings keine Aussagen über die Sprachverarbeitung in Echtzeit
Man unterscheidet hierbei die Hirnregionen, die verantwortlich sind für phonologische Aspekte der Sprachverarbeitung (Funktion der Laute für das Sprachsystem einzelner Sprachen), semantische und syntaktische Prozesse
Welche Hirnarelae sind bei welcher Art von Sprachverarbeitung beteiligt?
Die Fähigkeit zur Identifikation von Phonemen und zur phonologischen Identifikation wird über das sogenannte Wernicke-Areal, das sich im linken Temporallappen befindet, vermittelt
Der Gyrus temporalis superior der linken und der rechten Großhirnhemisphäre vermittelt die perzeptuelle Analyse sprachlicher Signale, also die Wahrnehmung und das Erkennen von Formen sprachlicher Einheiten in gesprochenen Äußerungen
Wenn eine exakte Analyse von phonetischen Einheiten oder Sequenzen nötig ist, zeigt sich zudem Aktivität links anterior im posterioren Anteil des Broca-Areals, in der Nähe des prämotorischen Kortex
Bei der Verarbeitung lexikalisch-semantischer Information während der Wahrnehmung von Wörtern kommt es also zur Aktivierung des mittleren temporalen Kortex und des unteren präfrontalen Kortex
Die Verarbeitung syntaktischer Sprachinformation wird sowohl von links inferior frontalen als auch links superior temporalen Hirnarealen unterstützt
Worüber wird die Fähigkeit zur Identifikation von Phonemen und zur phonologischen Identifikation vermittelt?
Welches Hirnareal vermittelt die perzeptuelle Analyse sprachlicher Signale, also die Wahrnehmung und das Erkennen von Formen sprachlicher Einheiten in gesprochenen Äußerungen?
Wo zeigt sich Aktivität, wenn eine exakte Analyse von phonetischen Einheiten oder Sequenzen nötig ist?
Welcher Hirnbereich wird bei der Verarbeitung lexikalisch-semantischer Information während der Wahrnehmung von Wörtern aktiviert?
Von welchen Hirnarealen wird die Verarbeitung syntaktischer Sprachinformation unterstützt?
Was zeigten Untersuchungen bzgl der neuronalen Netwerke der Sprachproduktion?
Auch die neuronalen Netzwerke der Sprachproduktion sind bereits gut untersucht
Generell benötigt der Mensch für die Bildung lautsprachlicher Äußerungen zusammen etwa 100 Muskeln im Bereich des Brustkorbs, Halses (einschließlich Kehlkopf) und Mund-Nasen-Rachen-Raums
Die Produktion von stimmhaften Lauten entsteht durch das Zusammenspiel all dieser Komponenten und wird durch die „Source-filter Theory“ erklärt
Der Kehlkopf versetzt den Luftstrom, der beim Ausatmen erzeugt wird, in Schwingung (dies stellt die Schallquelle dar), und durch die Resonanzeigenschaften des Vokaltrakts (akustischer Filter) werden Laute erzeugt
Die neuronalen Grundlagen der Lautproduktion wurden in erster Linie an nicht menschlichen Primaten untersucht
Lautäußerungen werden hier vor allem durch den anterioren zingulären Kortex, der ein Teil des limbischen Systems ist, und nachgeordnete Strukturen des Mittelhirns kontrolliert
Man geht davon aus, dass diese Strukturen beim Menschen eine Rolle bei der Produktion emotionaler Lautäußerungen und der Umsetzung affektiver Prosodie spielen, da Läsionen in diesen Strukturen zum Verlust der „affektiven Tönung“ sprachlicher Äußerungen führen
Im Vergleich zu den nicht menschlichen Primaten sind beim Menschen allerdings auch neokortikale Areale, gemeinsam mit der Kooperation mit Kleinhirn und Basalganglien, an der Lautproduktion beteiligt
Das betrifft insbesondere das frontale Operkulum einschließlich der vorderen Insel
Wie viele und welche Muskeln benötigt man für die Sprachproduktion?
Was erklärt die Source-filter Theory?
Was zeigten Untersuchungen am Primaten bzgl der neuronalen Grundlagen der Lautproduktion?
Last changeda year ago