(Seite 5) Warum gilt Sprache als zentrales Mittel menschlicher Kommunikation und Reflexion?
Sprache dient
• der Kommunikation mit anderen und
• der Reflexion über uns selbst.
→ Nach der Sapir-Whorf-Hypothese beeinflusst Sprache das Denken.
Details merken:
Kinder erwerben Sprache ohne explizite Anleitung. Tierische Kommunikation ist dagegen signalhaft, weniger flexibel und stark wiederholungsbasiert.
(Seite 5) Was zeigen Studien mit Primaten über Sprachfähigkeit?
• Nach jahrelangem Training können Schimpansen und Bonobos einige hundert Sprachsymbole verwenden.
• Sie zeigen Generalisierung („öffnen“ für Tür und Flasche) und Neuschöpfungen („Wasser + Vogel“ = Schwan).
• Ihre Verstehensleistungen entsprechen etwa einem 2–3-jährigen Kind, sind aber weniger flexibel.
(Seite 6) Welche drei zentralen Kennzeichen menschlicher Sprache gibt es?
Generativität: unbegrenzt viele neue Äußerungen aus begrenztem Wortschatz.
Regelhaftigkeit: systematischer Aufbau nach sprachlichen Regeln.
Situationsunabhängigkeit: Bezug auch auf Abwesendes oder Fiktives.
Sprachliche Äußerungen erfüllen Funktionen wie Mitteilung, Aufforderung, Expression, Handlungsregulation.
(Seite 7) Was beschreibt das klassische Kommunikationsmodell?
Kommunikation als Enkodierungs- und Dekodierungsprozess:
• Sender wandelt Bedeutungen in Zeichen (Wörter) um.
• Empfänger dekodiert Zeichen zurück in Bedeutungen.
→ Erfolg nur bei ähnlichem Zeichen- und Bedeutungsvorrat (gemeinsame Konzepte & Zuordnungen).
(Seite 8) Welche Input- und Output-Modalitäten sind für Sprache relevant?
• Auditive Sprache (Hören, Sprechen)
• Visuelle Sprache (z. B. Gebärdensprache)
• Taktile Sprache (z. B. Braille-Schrift)
→ Sprache ist multimodal – dieselbe Bedeutung kann über verschiedene Sinneskanäle vermittelt werden.
(Seite 9) Was beschreibt der Begriff „Zeichen-Bedeutungs-Zuordnung“?
Er bezeichnet die Verknüpfung von Konzepten mit sprachlichen Formen.
• Konzepte = nicht-sprachliche Wissenseinheiten (im semantischen Langzeitgedächtnis).
• Wörter = sprachliche Realisierung dieser Konzepte.
→ Die Zuordnungen sind willkürlich, nicht systematisch (z. B. „Hund“, „dog“, „chien“).
(Seite 10) Was ist ein Wort – und was nicht?
• Wörter ≠ Konzepte.
• Idiome („auf dem Holzweg sein“) können mehrere Wörter umfassen.
• Komposita (z. B. „Rindfleischetikettierungsüberwachung“) drücken ein Konzept aus.
Wörter bestehen aus Morphemen = kleinste bedeutungstragende Einheiten.
→ freie Morpheme (können allein stehen) und gebundene (nur in Kombination).
(Seite 11) Was sind Phoneme – und wie unterscheiden sie sich von Lauten?
• Phoneme sind die kleinsten lautlichen Einheiten einer Sprache mit bedeutungsunterscheidender Funktion.
• Ersetzt man einen Laut, sodass sich die Wortbedeutung ändert → anderes Phonem.
Beispiel:
„Bar“ → „Bär“ → /a/ vs. /ä/ sind verschiedene Phoneme,
aber gerolltes r vs. nicht gerolltes r = nur verschiedene Laute, keine neuen Bedeutungen.
(Seite 11) Wie viele Phoneme hat eine Sprache typischerweise, und was zeigen Verwechslungsfehler?
• Meist 25–40 Phoneme pro Sprache.
• Verwechslungen treten häufiger auf, wenn Phoneme ähnliche Merkmale teilen
(z. B. „pa“ ↔ „ta“, beide stimmlos).
Gesprochene Sprache ≈ 10 Phoneme / Sekunde,
doch selbst bei künstlicher Beschleunigung auf 50–60 Phoneme / s bleibt sie verständlich.
(Seite 13) Wie entstehen Sprachlaute im Mund-, Nasen- und Rachenraum?
Sprachlaute entstehen durch den Luftstrom, der je nach Artikulation unterschiedlich beeinflusst wird:
Stimmhaftigkeit: Schwingen der Stimmbänder (ja/nein)
Artikulationsort: Wo der Luftstrom blockiert wird (z. B. Lippen, Gaumen, Zunge)
Artikulationsart: Wie die Blockierung geschieht (z. B. Verschlusslaut = plosiv, Reibelaut = frikativ)
→ Diese Merkmale bestimmen, wie ein Laut wahrgenommen wird.
(Seite 14) Was speichert das mentale Lexikon und wie groß ist es?
Das mentale Lexikon ist das „Wörterbuch im Kopf“.
Es enthält zu jedem Wort Informationen über:
• Bedeutung
• Aussprache (Phoneme)
• Schreibweise
• Morphemstruktur
• Wortklasse
Umfang:
• Aktives Wissen: 30.000 – 50.000 Wörter (abhängig vom Bildungsgrad)
• Passives Wissen: 100.000 – 200.000 Wörter (z. B. bei Studierenden)
(Seite 14) Wie entstehen komplexe Wörter – und wie sind sie im mentalen Lexikon gespeichert?
Komplexe Wörter entstehen durch drei Prozesse:
Flexion → Wortformänderung ohne Klassenwechsel (klein → kleiner)
Derivation → Ableitung mit Klassenwechsel (Luft → luftig)
Komposition → Wortzusammensetzung (Fuß + Ball → Fußballfan)
Speicherformen:
• Nach Butterworth (1983): alle Wörter als Ganzes gespeichert.
• Nach Levelt et al. (1999): nur Morpheme gespeichert, beim Sprechen zusammengesetzt.
→ Unterschied zwischen Ganzwort- und Morphembasierter Speicherung.
(Seite 16) Worin besteht das Segmentierungsproblem beim Hören von Sprache?
Gesprochene Sprache ist akustisch kontinuierlich – es gibt keine klaren Pausen zwischen Wörtern.
→ Physikalisch ist oft nicht erkennbar, wo ein Wort endet oder beginnt.
In fremden Sprachen klingt alles wie eine einzige Lautkette („Mänäbtehoi?“).
Auch im Deutschen überlappen Wörter (z. B. „ich“ in „Licht“).
Lösungsansatz:
Bedeutungserschließung hilft bei der Segmentierung (McClelland & Elman, 1968).
(Seite 17) Was beschreibt das Variabilitätsproblem in der Sprachwahrnehmung?
Es zeigt die enorme Unterschiedlichkeit in der akustischen Realisierung von Wörtern:
• Interindividuell: Stimme, Akzent, Tempo
• Situativ: Umgebungslärm, Lautstärke
• Koartikulation: Aussprache hängt von Nachbarlauten ab
(z. B. „M“ in Mond vs. Meer)
→ Trotzdem bleibt die Wahrnehmung konstant: Phoneme werden gleich erkannt, obwohl sie unterschiedlich klingen (Wahrnehmungskonstanz).
(Seite 17) Welche Hypothesen gibt es zum Umgang mit dieser Variabilität?
• Das Gehirn verarbeitet vermutlich nur die wesentlichen Sprachanteile
und ignoriert variable Merkmale.
• Der genaue Mechanismus ist bis heute unklar.
(Seite 18) Was bedeutet kategoriale Wahrnehmung von Sprachsignalen?
Phoneme werden nicht kontinuierlich, sondern in klaren Kategorien wahrgenommen.
→ Kleine akustische Unterschiede werden innerhalb einer Kategorie ignoriert,
aber zwischen Kategorien deutlich erkannt.
Beispiel (Eimas & Corbitt, 1973):
• Variation der Vokaleinsatzzeit von /da/ bis /ta/
• Wahrnehmung springt plötzlich von „da“ auf „ta“,
nicht allmählich → Beweis für kategoriale Wahrnehmung.
(Seite 19) Wie beeinflussen visuelle Reize die Wahrnehmung gesprochener Sprache?
Gesprochene Sprache wird multimodal wahrgenommen – auditive und visuelle Infos werden integriert.
Beispiele:
• McGurk-Effekt: Ton „ba-ba“ + Lippenbewegung „ga-ga“ → Wahrnehmung: „da-da“.
• Bauchrednereffekt: Sprachquelle wird am Ort der sichtbaren Mundbewegung verortet, nicht an der echten Schallquelle.
→ Visuelle Dominanz beeinflusst Sprachverstehen.
(Seite 20) Welche auditiven Kontexteffekte verändern die Lautwahrnehmung?
Phonemischer Restaurierungseffekt (Warren, 1970): Fehlende Laute (z. B. durch Rauschen überdeckt) werden unbewusst ergänzt.
Wortkontext-Effekt (Ganong, 1980): Uneindeutige Laute werden so wahrgenommen, dass ein echtes Wort entsteht (z. B. Glas statt Klas).
Semantische Kontextwirkung (Warren & Warren, 1970): Phonem wird je nach Satzbedeutung anders gehört: • *The eel was on the axle → wheel • … on the shoe → heel • … on the table → meal
→ Der Kontext lenkt die Wahrnehmung einzelner Sprachlaute.
(Seite 21) Wie funktioniert das Kohortenmodell der Worterkennung (Marslen-Wilson, 1993)?
Die Worterkennung läuft inkrementell und parallel ab:
Zu Beginn der Lautfolge werden alle Wörter aktiviert, die zu den gehörten Lauten passen → Kohorte.
Mit jedem weiteren Laut werden unpassende Wörter ausgeschlossen.
Sobald nur ein Kandidat übrig bleibt, ist das Wort erkannt.
→ Worterkennung endet, sobald Eindeutigkeit erreicht ist.
(Seite 22) Was unterscheidet konnektionistische Modelle von modularen Ansätzen?
Konnektionistische Modelle (McClelland & Rumelhart, 1981)
• gehen von interaktiven Prozessen aus – keine strikte Trennung in Wahrnehmung, Lexikon usw.
• Perzeption und Lexikon beeinflussen sich gegenseitig (Top-Down- und Bottom-Up-Verarbeitung).
Uneindeutiger Laut zwischen /g/ und /k/ → wird als echtes Wort („Glas“) wahrgenommen →
Lexikalischer Kontext beeinflusst akustische Wahrnehmung.
(Seite 23) Welche zentralen Mechanismen erklärt das TRACE-Modell (McClelland & Elman, 1986)?
Das TRACE-Modell ist ein mehrschichtiges Netzwerk:
• Merkmalsebene → Phonemebene → Wortebene
• Aktivierungen laufen in beide Richtungen (Top-Down & Bottom-Up).
→ Dadurch werden erklärt:
Kategoriale Wahrnehmung (gegenseitige Hemmung innerhalb der Ebenen)
Wortüberlegenheitseffekt (Wörter aktivieren ihre Buchstaben stärker)
Disambiguierung von zweideutigen Lauten durch Wortkontext.
(Seite 24) Was beschreibt der Wortüberlegenheitseffekt?
Menschen erkennen Buchstaben besser, wenn sie Teil eines echten Wortes sind,
anstatt isoliert oder in einem Nichtwort vorkommen.
Experiment (Reicher, 1969):
• Kurze Darbietung einer Buchstabenkette → Maskierung → Abfrage einzelner Buchstaben.
• Ergebnis: Weniger Fehler, wenn die Buchstaben in Wortkontext eingebettet sind.
→ Kontext erleichtert die visuelle Identifikation sprachlicher Zeichen.
(Seite 25) Wie beeinflusst der visuelle semantische Kontext die Buchstabenwahrnehmung?
Die Wahrnehmung desselben Reizes kann vom Kontext abhängen.
→ Unsere Interpretation wird durch semantische Erwartungen gelenkt.
Ein undeutlicher Buchstabe wird im Wortkontext so gedeutet, dass das Wort sinnvoll bleibt.
→ Top-Down-Einfluss der Bedeutung auf die visuelle Wahrnehmung.
(Seite 26) Was zeigte die Untersuchung von Rayner et al. (2006) zum Lesen von Buchstabenvertauschungen?
Die Internetbehauptung, Buchstabenreihenfolge spiele keine Rolle, stimmt nicht vollständig.
→ Lesbarkeit bleibt, aber Lesegeschwindigkeit sinkt deutlich.
Ergebnisse:
• Vertauschung innerhalb eines Wortes: −11 %
• Vertauschung letzten Buchstabens: −26 %
• Vertauschung ersten Buchstabens: −36 %
→ Anfangs- und Endpositionen sind besonders wichtig für effizientes Lesen.
(Seite 27) Welche drei Methoden werden zur Untersuchung der Worterkennung eingesetzt?
Wortbenennung: – Ein visuell dargebotenes Wort soll so schnell wie möglich laut benannt werden.
Lexikalische Entscheidung: – Prüfen, ob eine Buchstabenkette ein echtes Wort oder ein Nichtwort ist.
Semantische Kategorisierung: – Entscheidung, ob ein Wort zu einer bestimmten Bedeutungskategorie gehört (z. B. „belebt“ oder „Obst“).
→ Diese Verfahren messen Reaktionszeiten und zeigen, wie Wörter im mentalen Lexikon organisiert sind.
(Seite 28) Was versteht man unter semantischer Bahnung (Priming)?
Priming beschreibt eine Erleichterung der Worterkennung, wenn zuvor ein bedeutungsähnliches Wort gezeigt wurde.
→ Die Aktivierung breitet sich im semantischen Netzwerk aus.
Beispiel (Meyer & Schvaneveldt, 1971):
• „BUTTER“ → erleichtert Erkennen von „BROT“ (Prime–Target)
• „GARTEN“ → kein Priming für „BROT“
Arten der Bahnung:
– Semantisch: ähnliche Bedeutung
– (indirekt auch morphologisch oder phonologisch möglich, nicht hier vertieft)
Last changed13 hours ago