Was ist der Unterschied zwischen Lemma und Wortform?
Ein Lemma (z.B. gehen) bündelt alle Wortformen (gehe, ging, gegangen,…etc.) unter einem “Eintrag” im mentalen Lexikon
Problem:
Wenn ein Lemma wirklich rein konzeptionell wäre, müsste es problemlos in allen Sprachen abbildbar sein. Das ist es aber nicht.
Bedeutung eines Wortes ist nicht immer sprachneutral verfügbar (z.B. Zeitgeist)
Welche Spracheinheiten gibt es?
γ: Phoneme
kleinste bedeutungsunterscheidende Lauteinheiten einer Sprache, die Wörter voneinander unterscheiden (z.B. “ch”)
θ: Silben
Rhytmische Einheiten, die aus Phonemen aufgebaut sind
Strukturieren den Redefluss
δ: Phrasen
syntaktische Einheiten die Bedeutung tragen
Morpheme
kleinste bedeutungstragende Einheit einer Sprache
Welche Sprechfehler gibt es?
Wortverdrehungen: “Guess whose mind came to name?”
Morpheme: “I randomed some samply” (“I sampled some randomly”) → Morpheme entspechen syntaktischer Position
Phonemverdrehungen: ”The Lord is a shoving leopard” (“loving shepherd”) → Spoonerism
Malapropismus: “Weapons of mass distraction” (Tony Blair) → Aktivierung von phonologisch ähnlichen Wörtern
“Liegt-mir-auf-der-Zunge”-Phenomen: Aber man weiß z.B. das grammatische Geschlecht und die ungefähre Länge → Anomia nach Schlaganfall → Zugang zu Lemma intakt, aber nicht zu der Wortform
Was ist Syntax?
Syntax umfasst Regeln, die beschreiben, wie Wörter und Morpheme zusammengebaut werden können
Separat von Semantik (z.B. “Flauschige grüne Ideen schlafen erbost”)
Hierarchische Struktur der Wortreihenfolge (s. Syntaktischer Baum)
Beispiel:
Der Mann sah den Hund mit dem Fernglas
Zwei mögliche Bedeutungen:
Der Mann hat ein Fernglas
Der Hund hat ein Fernglas (absurd, aber grammatisch möglich)
👉 Gleiche lineare Reihenfolge,
👉 unterschiedliche hierarchische Struktur
Gibt es eine angeborene Universalgrammatik?
Noam Chomsky: Ja
Evidenz: Fehler bei Kindern
Kinder nutzen hierarchische Struktur und wenden Regeln systematisch an, auch bei fehlerhaften Sätzen, trotz relativ wenig Input
Aber: Was genau ist die Universalgrammatik?
Fähigkeit, syntaktische Regeln zu lernen
Passt sich der Sprache an
Gegenposition: Usage-based Ansatz
Sprache entsteht aus Statistical Learning
Was ist eine Brocas Aphasie?
Historisch: Brocas Aphasie als Problem mit Artikulation (Patient Tan Tan)
Aber: exakte Läsion und Symptomatik schwer nachvollziehbar
Neuere Befunde:
Agrammatism (Funktionswörter und Flexionen fehlen)
Sprachproduktion ohne Funktionswörter (kodieren grammatische Struktur, aber keinen konkreten Inhalt) & Morpheme
Verständnis von komplexen Syntax (“Das Fahrrad, das der Junge gehalten hatte, ist kaputt”)
→ Link zwischen Verständnis & Arbeitsgedächtnis?
Unterteilung innerhalb von Brocas Areal:
• BA44: Syntaktische Verarbeitung & Generierung von Vorhersagen
• BA45: Arbeitsgedächtnis & Semantisches Gedächtnis
Wie zeigt sich der Unterschied in der Verarbeitung von Syntax und Semantik in der Sprachforschung?
Dissoziation zwischen Sematik und Syntaktik
“The bites dog man”: Semantik, keine Syntax
“The train views holidays”: Syntax, keine Sematik
Paradigma: Vergleich von vorhersehbaren versus unerwarteten Wörtern:
I went sailing in my yacht (Semantik +, Syntaktik +)
I went sailing in my apple (Semantik -, Syntaktik +)
I went sailing in my himself (Semantik - , Syntaktik -)
N400:
Aktivierung bei unvorhersehbaren Wörtern
Keine Effekte bei syntaktischen Anomalitäten
P600:
Bei semantischen & syntaktischen Anomalitäten
Ist Syntax ein menschliches Merkmal?
Anatomisch: Komplexe Vokalisierungen bei nicht-Menschen unmöglich
Bonobo Kanzi: Ca. 3000 Wörter gelernt durch Lexigramme und Gebärdensprache
Spontanes Lernen durch Beobachtung bei Training der Mutter
Wörterkombinationen (z.B. “water bird”)
Abstrakte Konzepte (“Besucher”)
- Keine Morphologie
- Vor Allem Wörter über Essen
- Kein (bzw. sehr wenig) Syntax
Was passiert bei Garden-Path Sätzen wie “The old man the boat”?
grammatisch korrekte Sätze, die aufgrund einer zunächst plausiblen, aber falschen hierarchischen Analyse falsch verstanden werden
Semantik aktiviert inadvequate syntaktische Struktur
Welche Interaktionen zwischen Sprache und Wahrnehmung zeigt sich in Untersuchungen?
Grounded Cognition:
Kognitive Repräsentation der Sprache mit sensorischen Merkmalen
Hören der Wörter “lick”, “pick”,“kick” aktiviert Areale in der Motorkortex (Hauk et al., 2004)
Aber: Was ist mit abstrakten Konzepten?
Alternative Hypothese: Top-Down Aktivierung
Was sagt die Theorie der Embodied Cognition?
Kognition ist nicht vom Körper getrennt und damit ist Denken nicht rein abstrakt, sondern verkörpert
Kognitive Prozesse basieren auf
Sensorischen Erfahrungen (Sehen, Hören, Fühlen,…)
Motorischen Erfahrungen (Handlungen, Bewegungen,..)
Körperlichen Zuständen (Haltung, Emotion, Physiologie)
Was ist das mentale Lexikon?
Kenntnis über Aussprache und Bedeutung (ggf. Rechtschreibung) von Wörtern
Was erklärt das Kohortenmodell?
erklärt wie wir ausgesprochene Wörter erkennen
Sequentielle Verarbeitung von Phonemen: z.B. H – HU – HUN - HUND
Uniqueness Point: Der Laut, bei dem das Wort ohne Ambiguität erkannt werden kann
Was beeinflusst, welches Wort aktiviert wird?
Frequenz: Wie oft kommt ein Wort in der Sprache vor? (Korpus-
Analysen)
Imageability: Wie leicht kann man sich das Konzept im inneren Auge
vorstellen? (Rating-Studien)
Welche interaktiven Prozesse der Worterkennung gibt es?
Top-Down Erwartungen (Was du erwartest zu hören, beeinflusst was du tatsächlich hörst):
Hybride Silben: Im Labor erzeugte Laute zwischen /ta/ und /da/
Das Gehirn entscheidet sich nicht rein nach Akustik, sondern nutzt Kontext & Wortwissen, um den Laut „einzuordnen“
Allophone: Phonetische Varianten desselben Phonems
/t/ in Butter oder Tal klingt akustisch anders
Sprache ist also variables und undeutlich - Gehirn normalisiert den Input mithilfe von Top-Down-Wissen (Lexikon, Sprache, Erwartungen)
Hohes Verständnis, trotz Prävalenz von Allophonen in der gesprochenen Sprache
Ganong Effekt: Bei künstlich erstelltem Audio, wo der erste Laut etwas zwischen /k/ und /g/ ist, hören Leute ‘/?is/ als ”kiss” und nicht als “giss”
Wortwissen beeinflusst Wahrnehmung
Neuronales Korrelat: Ventral Stream
Was ist Natural Language Processing?
ist das maschinelle Verarbeiten von natürlicher Sprache
Nutzen:
Erstellen von Korpora: Welche Wörter nutzt man in welchen
Kontexten?
Sentiment Analyses: In welchen Kontexten nutzt man Wörter mit
positiven/negativen Konnotationen?
Was sind semantische Netze?
Ist die Struktur des mentalen Lexikons: Interactive Activation
Ähnliche Wörter können einander aktivieren
Semantisches Priming (z.B. nurse – DOCTOR) -> Inhalt
Orthographisches Priming (loctor – DOCTOR) -> Schriftbild
Aber: Wie wird Ähnlichkeit definiert?
Evidenz für hierarchische Struktur nach Sub- und Suprakategorien: Tier – Vogel – Мeise: posterior zu anterior in lateralem Temporallappen (Rogers et al., 2006)
Aber: Nicht alle Konzepte können leicht hierarchisch eingeordnet werden
Inwiefern liegen Wortbedeutungen in numerischer Form vor?
Hypothetische Repräsentation von semantischen Aspekten von Wörtern:
Erlaubt Vergleiche & Generalisierungen (z.B. “Haben Giraffen Nieren?”)
Gemeint ist ein formales Modell, dass Wörter als Vektoren um hochdimensionalen Raum repräsentiert, wobei semantische Ähnlichkeit durch numerische Nähe repräsentiert wird. Modell, dass
Semantische Ähnlichkeit erklärt
Semantisches Priming vorhersagt (Nahe Vektoren, schnelle Aktivierung)
Generalisierung ermöglicht
Wie hängen Semantik und Kontext zusammen?
”A word is defined by the company it keeps” → Wörter, die in ähnlichen Kontexten vorkommen, haben auch ähnliche Bedeutungen
Wortbedeutungen sind nicht fix, sondern werden durch den Kontext verschoben (Bsp.: “Bank”)
Moving Window als Methode, um zu untersuchen, wie Kontext die Wort- und Satzverarbeitung beeinflusst
Numerische Repräsentation via Vektoren, wenn man zählt wie häufig bestimmte Wörer zusammen mit Wort X dargeboten werden:
Wie erfolgt die Repräsentation semantsicher Informationen, wenn man sie als Aktivitätsmuster in einem neuronalen Netzwerk betrachtet?
3 Schichten:
Input Layer: Was kommt rein?
Hidden Layer: Entwicklung interner Repräsentationen (hypothetisch, semantisch)
Output Layer: Was kommt raus?
Bedeutung entsteht durch
Lernprozesse
Gewichtsanpassungen
Verteilung von Aktivierung
Vergleich zur numerischen Betrachtung/ zum Vektormodell:
Im Vektormodell ist die Bedeutung ein Punkt im Bedeutungsraum
Was ermöglichen Large Language Models?
Vorhersage von Wort anhand von vorhergehendem Text
Repräsentation von Ähnlichkeit → Tool für Generierung von Rating-Daten?
Als Modell der Sprache (oder sogar Kognition?):
Sehr komplex → Black Box Problem
Sehr viel Training benötigt → nicht plausibel
Wie lässt sich ein Modell der neuronalen Repräsentationen mittels Vektoren modellieren?
Vektoren nach Training:
Ähnliche Konzepte haben ähnliche Vektoren → Quantifizierbar als Cosine Similarity
Aber einzelne Zahlen innerhalb von Vektor sind schwer interpretierbar
Neuronale Repräsentation:
Cosine Similarity als gutes Modell der neuronalen Aktivität →
Aktivierung von semantisch ähnlichen Objekten in nah gelegenen Arealen (Oota et al., 2018)
Was ist Morphologie?
die Ebene zwischen Wortform (Orthographie) und Wortbedeutung (Semantik)
Verhaltensstudien: Vergleich von Reaktionszeiten
Morphologische Überlappung schneller Orthographische, Semantische Überlappung schneller als morphologische
Last changed21 days ago