Was ist Schall?
Schallwellen zwischen 20Hz (tief) und 20.000Hz (hoch) werden vom Ohr wahrgenommen
Fürs Hören ist zeitliche Dimension wichtiger als die räumliche, da Hören ein Prozess der Verarbeitung von zeitlichen Signalen ist
Sinuston = hat nur eine Frequenz (kommt in Natur fast nie vor)
Klangfarbe kommt durch eine Summe mehrerer Sinustöne
Frequenz (λ): Tonhöhe
Amplitude: Lautstärke
Wie ist der Aufbau des Ohres?
Der Weg des Schalls erfolgt über
Ohrmuschel
Gehörgang
Trommelfell
Gehörknöchelchen (Hammer, Amboss & Steigbügel)
Hörschnecke (Cochlea) -> Auch für Wahnehmung und Orientierung zuständig
Hörnerv
Wie ist der Aufbau der Gehörschnecke (Cochlea)?
ist mit Flüssigkeit gefüllt, die von Schall bewegt wird
Basilarmembran: Unterschiede in Dicke und Flexibilität
Innere Harrzellen sitzen auf Basilarmembran und vibrieren je nach Eigenschaft dieser und codieren somit für unterschiedliche Frequenzen
Wie erfolgt die weitere Verarbeitung von auditiven Signalen nach der Hörmuschel?
Hörmuschel -> Hörnerv -> Thalamus (Medial Geniculate Nucleus) -> Primärer Auditiver Kortex A1 -> Sekundärer Auditiver Kortex A2
Belt entspricht funktionell größtenteils A2, Parabelt geht über A2 hinaus
Tonotopische Organisation: Neurone sind so angeordnet, dass benachbarte Zellen auf ähnliche Frequenzen reagieren (vor allem in A1)
Hierarchische Struktur:
A1: Aktivierung bei Sinustönen
Belt: Aktivierungen für weitere Bandbreiten von Frequenzen als in A1
Belt & Parabelt: Aktivierung bei Vokalisierung (Sprache z.B.) → Reagieren auf Veränderungen im Signal, nicht auf statischen Input
Was ist das Problem vom fMRT in auditiven Studien?
Problem: Generierung des magnetischen Felds mit lauten Knall verbunden → Interferenz mit auditivem Signal oder
Sparse scanning (Hall et al., 1999):
14 Sekunden auditive Sprache (passiv)
14 Sekunden Ruhe
Data Acquisition am Ende von 14 Sek.
Vergleich bei Sparse Scanning:
Baseline (Ende von Ruhe-Periode)
Speech (Ende von Speech-Periode)
Subtraktionsmethode
Wie erfolgt die Lokalisierung eines Geräusches? “Wo”
Laufzeitdifferenz (inter-aural time difference): Wenn das Geräusch z.B. von links kommt, wird es im linken Ohr früher registriert als im rechten Ohr → Links/rechts-Achse
Pegeldifferenz (inter-aural intensity difference): Wenn das Geräusch z.B. von links kommt, wird es im linken Ohr als lauter registriert als im rechten Ohr → Links/rechts-Achse
Resonanzen des Außenohrs → Oben/unten-Achse
Egozentrische (oben genanntes) vs. allozentrische (Position eines Geräusches relativ zu anderen Objekten und daher auch stabil wenn ich den Kopf bewege) Kodierung der Richtung → Integration mit Propriozeption (Körpersinn, also Kopfhaltung, Körperlage usw.) via Dorsal Route (Parietallappen)
Was ist “Missmatch Negativity” (MMN)?
frühzeitiges, automatisches EEG-Signal, welches das Gehirn erzeugt, wenn ein auditiver Reiz von einer erwarteten Regel abweicht
Welche Dissoziationen treten bei Läsionen im auditorischen System auf?
Gedächtnis für Melodien
Erkennen von Rhytmus
Wahrnehmen von Tonhöhe
Wahrnehmung von musikalischem Syntax (Regeln & Struktur wie z.B. Harmonie)
Welche Gestalt-Prinzipien gibt es in der auditorischen Domaine?
Harmonizität (Harmonicity)
Anfangssynchronität (onset synchrony)
Gemeinsames Schicksal (kohärente Modulation in Amplitude und Frequenz) (common fate)
Töne die gleichzeitig ändern, z.B. in Lautstärke, werden als zusammenhängend wahrgenommen
Nähe (proximity)
Töne die zeitlich nah beieinander liegen werden zusammengefasst
Kontinuität (continuity)
Tonfolgen, die logisch fortgesetzt werden, werden als Einheit wahrgenommen
Ähnlichkeit (similarity)
Welche Ähnlichkeiten zeigen Musik und Sprache?
Wichtigkeit von Syntax (Patel, 2003)
Verarbeitung von temporaler Information (z.B. Rhytmus – meist in der linken Gehirnhälfte) vs. Tonhöhe (meist in der rechten Gehirnhälfte)
Was sagt die Speech-to-song Illusion aus?
bei wiederholtem Hören einer Phrase wird diese als gesungen wahrgenommen, da das Hirn Prosodie, Rhytmus und Tonhöhenmuster erkennt
Wird die Phrase allerdings zufällig segmentiert (unjumbled), also in eine andere Reihenfolge gebracht, tritt der Effekt nicht auf
Kann mittels 2x2 design untersucht werden
Auf welchen Ebenen werden verbale Stimuli verarbeitet?
Parallele Verarbeitung (Belin et al., 2011):
Identifizierung des Redenden
Affektive Information
Inhalt des Gesprochenen
fMRT: Bei Hören einer bekannten Stimme auch Aktivierung des Areals für Gesichtererkennung
In welche auditiven Einheiten lässt sich Sprache unterteilen?
γ: Phoneme θ: Silben δ: Phrasen
Was sind die kleinsten Einheiten von Sprache?
Phonemik = untersucht welche Laute einen Bedeutungsunterschied erzeugen; Phonem = kleinste Einheit die gebraucht wird, um zwischen Wörtern zu unterscheiden, sind nicht gleich Buchstaben! Ch = 1 Phonem
Phonetik = beschreibt, wie Laute physikalisch erzeugt werden
Was meint Statistical Learning im Sprachkontext?
Häufigkeit (frequency): Die Paarung Stimulus 1 & Stimulus 2 kommt oft vor
Konsistenz (consistency): Stimulus 1 wird oft/immer von Stimulus 2 gefolgt
Gehirn erkennt Muster und Wahrscheinlichkeiten in Lautfolgen (eine Form von Impliziten, Prozeduralem Lernen)
Zuletzt geändertvor 7 Tagen