Buffl

5. Sitzung - Bildgebendeverfahren Funktionelle

HM
by Hanna M.

Strukturelle Verfahren







Funktionelle Bildung (zwei Methoden):

 

  • Positronen-Emissions-Tomographie (PET)

  • Funktionelle Magnetresonanztomographie (fMRT)


Grundidee funktioneller Verfahren

 

  • Neuronale Aktivität -> erhöhter Sauerstoff- und Glukoseverbrauch (erhöhter Energieverbrauch)

  • PET misst die Anreicherung bestimmter radioaktiv markierter „Tracer“ in einer Region, z.B. markierte Glukose, markierter Sauerstoff

  • fMRT misst die Sauerstoffsättigung des Blutes (verwendet ein natürlich vorkommendes Signal im Blutstrom)

  • Latenz dieser Reaktionen ist langsam (mehrere Sekunden) -> dramatischer Unterschied zu Elektrophysiologischen Methoden

  • schlechte zeitliche aber gute räumliche Auflösung (komplementär zu EEG (Eigenschaften) , siehe letzte Sitzung) (Antwort dauert viele Sekunden, bis ich messen kann)

  • Verwendung von PET wurde in kognitiven Neurowissenschaft effektiv durch fMRT ersetzt

  • kann aber immer noch nützlich sein, um bestimmte Neurotransmitterwege (durch spezialisierte Tracer) selektiv anzugreifen

 

Ergänzung Buch Funktionelle Bildgebung

 

  • während strukturelle Bildgebung die permanenten Eigenschaften des Gehirns misst, ist die funktionelle Bildgebung darauf ausgelegt, die von Moment zu Moment variablen Eigenschaften des Gehirns zu messen

  • die mit Veränderungen der kognitiven Verarbeitung verbunden sein können

  • Wenn Forscher der funktionellen Bildgebung von einer aktiven Region sprechen, meinen sie damit, dass die physiologische Reaktion bei einer Aufgabe im Vgl zu einer anderen Bedingung größer ist

  • Bei allen funktionellen Bildgebungsverfahren/studien, die kognitive Aufgaben beinhalten, besteht eine grundlegende Anforderung, dass die physiologische Reaktion mit einer oder mehreren Ausgangsreaktionen verglichen werden muss

  • gute experimentelle Praxis erforderlich




PET

  • Invasiv, da nuklearmedizinische Methode: Injektion radioaktiver „Tracer“ (markierte Glukose)

  • Akkumulation der Tracer in Hirnregionen wird gemessen

  • Dadurch Messung von z.B. Glukoseverbrauch

  • Bis zu 30sec bis Akkumulation den „Peak“ erreicht




  • deutlich schlechter als z.B. Einzelzellableitung

  • zeitliche Auflösung: Eher einige Sekunden bis Minuten

  • schlechter als bei EEG/MEG


PET: Grundprinzip

 

  1. Isotop mit kurzer Halbwertszeit (Radionuklid) wird als Tracer an Molekül gehängt (z.B. Glukose, kann aber auch ein Ligand für einen bestimmten Rezeptor sein).

  2. Tracer wird injiziert.

  3. Radionuklid gibt Positronen ab (Positronenemission).

  4. Positronen kollidieren spätestens nach ca. 2-3mm mit Elektron.

  5. Hierbei werden zwei Gammastrahlen im Winkel von 180° freigesetzt.

  6. Diese Strahlung kann gemessen werden, und ein Rückschluss auf die Verteilung des Tracers ist rechnerisch möglich. (wo Signal herkommt

  7. Dort wo der Tracer sich anreichert, ist ein verstärkter radioaktiver Zerfall messbar.


PET: Grundlagen


Links:

  • Tracer, der Positron abgeht -> kollidiert mit Elektron, Gammastrahlen werden freigesetzt

 

Mitte

  • Gammastrahlen können mit Detektoren gemessen werden

  • Aufgrund der unterschiedliche Zeitpunkte zudem die Gammastrahlen an Detektoren ankommen, kann Rückschluss auf Position, wo Zerfall stattgefunden hat, gemacht werden

  • Lokalisation der Prozesse möglich



  • Raclopid -> Tracer, der an Dopamin D2 Rezeptoren bindet


PET

  • Mittlerweile in der psychologischen Forschung weitestgehend durch fMRT ersetzt

  • Hauptnutzung heute nicht mehr die Messung von Hirnaktivität bei kognitiven Tasks, sondern Messung bestimmter Transmitter oder Rezeptoren

  • Tracer binden z.B. an bestimmte Rezeptoren ->Messung der Rezeptorverfügbarkeit


Beispiel

  • 11C-Racloprid: Bindet an Dopamin D2 Rezeptoren und konkurriert so mit dem endogenen Dopamin (um die Bindung an diesem Rezeptoren)

  • Gruppen- oder Bedingungsunterschied in der Akkumulation von 11CRacloprid -> Unterschied in der Anzahl verfügbarer D2 Rezeptoren und/oder der Verfügbarkeit von Dopamin




Abbildung:

  • Wurde Bindung von 11 C Raclopid aufgetragen von gesunder und Kokainabhängiger Person (abgebildet)

  • Farbgebung: rote Bereiche = hohe D2 Rezeptor Verfügbarkeit -> dort Akkommodiert viel Raclopid

  • Grünen Bereiche: Dopamin D2 Rezeptor Verfügbarkeit eher gering

  • Gesunde Person: D2 Rezeptorverfügbarkeit deutlich höher als bei Kokain Abhängigen Person

  • kann bedeuten das Klienten weniger Rezeptoren oder mehr endogenes Dopamin haben, was mit dem Tracer um die Bindung an diese Rezeptoren konkurriert -> können wir mit PET nicht trennen

  • hat sich Verfügbarkeit verändert aufgrund des Missbrauch?



Affenstudie

  • angeschaut, welchen Effekt Kokain aud D2 Rezeptorverfügbarkeit hat

  • Befunde für beide Sachen -> Korrelation mit Selbstadministration ist ein Zeichen dafür, das es auf Risikofaktor zurückgeht

  • nach längerer Selbstadminstration

  • Bilder: links ist D2 Rezeptorverfügbarkeit zur Baseline

  • rechts: Verfügbarkeit nach 12 Monaten Kokain Selbstadministration (Verfügbarkeit an Rezeptoren geht zurück)


fMRT: Grundlagen

Zwei Aspekte sind wichtig:


  1. Was ist die physikalische Grundlage des gemessenen Signals? -> Anknüpfung an unsere früheren Überlegungen zur Grundlage von MRT

  2. Welchen Aspekt der Physiologie spiegelt das Signal wieder? -> neurovaskuläre Kopplung (=Zusammenhang zwischen neuronaler Aktivität und vaskulären Änderungen)




  • können Sauerstoffsättigung des Blutes als körpereigenes Kontrastmittel nutzen


Ergänzung Buch


  • Die bei der fMRT verwendetet Komponente des MR Signals reagiert empfindlich auf die menge an Desoxyhämoglobin im Blut

  • Wenn neuronen Sauerstoff verbrauchen, wandeln sie Oxyhämoglobin in Desoxyhämoglobin um

  • Desoxyhämoglobin hat starke paramagnetische Eigenschaften -> führt zu Verzerrungen im lokalen Magnetfeld

  • Diese Verzerrung kann selbst gemessen werden, um einen Hinweis zu geben von der Konzentration des im Blutes vorhandenen Desoxyhämoglobin

  • Diese Technik wurde BOLD genannt

  • Die Art und Weise, wie sich das BOLD Signal im Laufe der Zeit als Reaktion auf eine Zunahme der neuronalen Aktivität entwickelt, wird als hämodynamsiche Reaktionsfunktion (HRF) bezeichnet

 

HRF hat 3 Phasen

 

  1. Wenn neuronen Sauerstoff verbrauchen, steigt die Menge leicht an von Desoxyhämoglobin, was zu einer Verringerung des BOLD Signals führt

  2. Überkompensation: Als Reaktion auf den erhöhten Sauerstoffverbrauch nimmt die Durchblutung der Region zu

  • Zunahme des Blutflusses ist größer als der erhöhte Verbrauch

  • Bedeutet, dass das BOLD Signal signifikant ansteigt

  • Das ist die Komponente, die im fMRT gemessen wird -> größe dieses Peaks wird als als Hinweis auf das angenommene Ausmaß in der die Region aktiv ist bei Aufgabe angenommen

  1. Schließlich sinken Durchblutung und Sauerstoffverbrauch, bevor sie wieder auf ihr ursprüngliches Niveau zurückkehren

    • Kann eine Lockerung des Venensystems verursachen -> führt erneut zu einem vorübergehenden Anstieg des Deoxyhämoglobins

 

 

  • Gute räumliche Auflösung

  • Zeitliche Auflösung beträgt mehrere Sekunden -> hängt mit der eher trägen hämodynamischen Reaktion zusamme

  • Sehr langsam im Vergleich zu der Geschwindigkeit, mit der kognitive Prozesse ablaufen




  • direkt nach Einstrahlung des RF Pulses geht Longitudinalmagnetisierung wieder auf 0

  • Spins präzisieren in der Ebene in Phase (Phasenkohärenz)

  • durch Spinfeld Interaktion und lokale Magnetfeldhomogenität nimmt Transversalmagnetisierung ab, weil Spins Dephasieren

  • Wichtiger Punkt: Ein Treiber der Abnahme der Transversalmagnetisierung sind diese Homogenität im lokalen Magnetfeld

  • Diese Inhomogenitäten hängt auch davon ab, was die Konzentration von Desoxyhämoglobin in unserer Probe ist


Blutversorgung im Gehirn/ HFR



Blutversorgung im Gehirn

  • Blutversorgungd es gesamten Gehirns

  • können somit den Blutfluss/ Sauerstoffsättigung gut messen

  • aber räumliche Auflösung der fMRT begrenzt (durch räumliche Auflösung des Adersystems/ der Durchblutung)



  • Kapillare ästeln sich sehr fein auf

  • kann relativ gute räumliche Auflösung mit fMRT im Millimeterbereich hinbekommen

Die HFR



  • HRF nimmt diesen Zeitverlauf an (Linie)

  • sehen, der PEAK also stärkste Signal der BOLT antworten messen wir nach 5-8 Sekunden

  • Latenz dramatisch langsam

  • Neuronen feuern im Millisekunden Bereich 




  • Links: Probandne zu unterschiedlichen Zeitpunkten Gesichtern zeigen

  • Linien Links Zeitpunkt, an dem Probanden Stimulus gezeigt bekommen haben

  • Wissen, das jeder einzelne dieser Reize eine hämodynamische Antwortfunktion auslöst, die die Form in der Mitte annimmt

  • Gesichtsreize werden verarbeitet -> erwarten gemessenen BOLT zeitreihe, die der Multiplikation der Präsentationszeitpunkten mit der hämodynamischen Antwort folgt

  • Führt zur Form wie rechts abgebildet (fMRT Zeitreihe)

  • Multiplikation der Zeitpunkte (links) mit HRF

  • Dramatische Überlagerung -> werden viele Gesichter gezeigt: BOLD keine Zeit um zurück zur Baseline zu gelangen

  • Dekorrelation wichtig, damit wir BOLT Antworten voneinander trennen können


Ergänzung Buch

  • Es ist nicht der Fall, dass man warten muss, bis die BOLD Antwort zur Grundlinie (Baseline) zurückkehrt, bevor man weitere Studie präsentiert

  • verschiedene hämodynamische Reaktionsfunktionen können einander überlagert werden

  • Möglich, dass Nullereignisse auftreten (leerer Bildschirm z.B.)

  • Diese Nullereignisse ermöglichen es dem BOLD Signal, in Richtung Grundlinie abzufallen

    -> liefert die notwendige Variabilität des für die Analyse erforderlichen Signals


Experimentelle Designs


  • Ein Block mit Gesichtsreizen, ein Blokc mit Landschaftsreizen (Bildern) die präsentiert werden

  • Gesamt BOLD Aktivität im Gesichtsblock wird mit der im Landschaftsblock verglichen

 

Event related Design (zweite von oben):

  • Reize werden in unterschiedlicher Reihenfolge und Abständen gezeigt

  • hämodynamische Antwortfunktionen zwischen den Bedingungen korreliert nicht mehr -> können die Antworten einzelner Reize voneinander trennen (Vorteil)


Vorteil Block Design:

  • Längere Stimulation über längere Zeiträume -> können stärkere Effekte erwarten, diese sind allerdings weniger spezifisch



  • messen unsere BOLD Aktivität

  • Hirn/ BOLT Aktivität wird über roten und baluen Block gemittelt und diese werdne dann miteinander verglichen



  • vier verschiedenen Reizkategorie 8Gesichter, Häuser usw.)

  • einmal gut und ein,al wurden Bildabschnitte durcheinander gewürfelt

  • wurde gemacht um Luminanz, Kontrasteffekte usw. zu kontrollieren




  • Punkt = Fixationspunkt, das Probanden angeguckt haben

  • I = Intakte Blöcke

  • S = Scrambeld

  • H = Houses

  • O = Object

  • F = Faces

  • S = Scenes

  • PPA = Areal das dann stark reagiert, wenn intakte Szenen gezeigt werden (Blöcke von intakten Szenen)

  • Beispiel, wie man Blockdesigns benutzen kann, um spezialisierungen für bestimmte visuelle Reizkategorien zu untersuchen

  • Können Antworten von einzelnen Reizen nicht voneinander trennen

    ->schnell aufeinanderfolgende Bilder in Blöcken werden gezeigt



  • würden gemessene Zeitreihe in jedem Voxel als linear Kombination der vorhergesagten Aktivierung für diese unterschiedlichen Experimentalbedingungen modellieren


  • zeigt sich, das in bestimmten Gehirnarealen die wichtig sind für Gedächtnisenkodierung eine erhöhte Gehirnaktivität -> für Wörter die erfolgreich enkodiert wurden

  • stärkere Hirnaktivität in medialem Temporallappen und lateralem präfrontalem Kortex für erfolgreich enkodierte Worte

  • diese Analyse ist mit Blockdesign unmöglich, da Antworten auf einzelne Reize nicht voneinander trennbar wären


Experimentelle Designs in der funktionellen Bildgebung

Experimentelle Designs in der funktionellen Bildgebung

 

  • Kategoriale Designs / Kognitive Substraktion

  • Faktorielle Designs

  • Parametrische Designs


Kognitive Substraktion



Modell der Verarbeitungsstufen:

  • haben Input (Cake)

  • Visuelle Analyse

  • geschrieben Wort wird erkannt

  • zwei parallele Prozesse: Bedeutungsabruf und basieren darauf wird Phonem ( Klang) abgerufen

  • sprachliche Output (Cake) kann generiert werden

  • gleichzeitig können Begriffe die damit assoziiert sind aktiviert werden


Ergänzung Buch

  • Idee dahinter: Durch den Vergleich der Gehirnaktivität bei einer Aufgabe, die eine bestimmte kognitive Komponente verwendet (z.B. das visuelle Lexikon)  mit der Aktivität des Gehirns bei einer Basisaufgabe, die dies nicht tut, können Rückschlüsse gezogen werden, welche Regionen auf diese bestimmte kognitive Komponente spezialisiert sind

  • Gehirn im physiologischen Sinne immer aktiv

    -> daher nicht möglich aus einzelner Aufgabe zu schließen, welchen Regionen bestimmte Aspekte der Aufgabe gewidmet sind

  • Vl. Zwischen 2 oder mehr Aufgaben und Bedingungen immer notwendig

 

„Cake“ Studie befasste sich mit der Identifizierung von Hirnregionen, die an Folgendem beteiligt sind:

 

-       (1) Erkennen geschriebener Wörter

-       (2) Sprechen der Wörter

-       (3) Abrufung der Bedeutung der Wörter

 

  • Um herauszufinden, welche Regionen an der Erkennung von geschriebenen Wörtern beteiligt sind, wurde die Gehirnaktivität beim passiven Betrachten von Wörtern (z.B. Kuchen) mit dem passiven Betrachten eines Kreuzes verglichen

  • Logik: sowohl experimentelle als auch grundlegende Aufgaben beinhalten visuelle Verarbeitung (Subtraktion sollte dies aufhaben)

  • aber nur experimentelle Aufgabe beinhaltet visuelle Wortkennung (sollte nach der Subtraktion bleiben)



Beispiel: Was passiert beim Erkennen von Wörtern? -> Passive Betrachtung von Wörtern vs. Fixation (in beiden Fällen visuelle Verarbeitung; Substraktion des visuellen Verarbeitungsprozesses möglich, sodass nur noch Rekognition übrigbleibt)








Oben (Lila)

  • was passiert beim erkennen von Wörtern?

  • passive Betrachtung der Wörter

  • bei beidne visuelle Verabeitung (lässt sich heraus subtrahieren)

 

Zweiter Schritt (Orange)

  • welche Regionen wichtig um Sprachproduktion zu betrieben?

 Grün:

  • Regionen identifizieren, die für Bedeutungsabruf relevant sind

 

  • Baseline: geschriebenes Wort laut vorlesen

  • Experimentalbedingung: Generieren einer Handlung die sich auf das Wort bezieht (sieht das Wort Kuchen und muss Essen sagen)

  • hätten in allen 3 Bedingungen visuelle Verarbeituzng, Sprachproduktion und Worterkennung

  • aber nur den Bedeutungsabruf bei Experimental Bedingung

 

Zur Abbildung (Textbeschreibung Buch)

  • Die kognitive Subtraktion basiert auf der Annahme, dass es möglich ist, zwei Aufgaben (eine experimentelle und eine Basisaufgabe) zu finden, die sich in Bezug auf eine kleine Anzahl kognitiver Komponenten unterscheiden

  • Die Ergebnisse zeigen mehrere Aktivitätsbereiche

 

Ergänzung Buch

  • Um herauszufinden, welche regionen an der Produktion gesprochener Wörter beteilgt sind, verglichen sie das laute lesen des Wortes (siehe Kuchen, sagen sie Kuchen) mit dem passiven Betrachten geschriebener Wörter (siehe Cake)

  • In diesem Fall umfassen sowohl experimentellen als auch grundliegenden Aufgaben die visuelle Verarbeitung des Wortes und die Worterkennung (Subtrahieren sollte diese also aufheben)

  • Aber nur die experimentelle Aufgabe beinhaltet die gesprochene Ausgabe (daher sollte die damit verbundene Aktivität nach Abzug bestehen bleiben

  • Das produzieren einer Sprachausgabe im Zustand des lauten Vorlesens aktiviert den sensumotorischen Kortex bilateral


Probleme mit der Substraktionslogik

 

  • Bei komplexeren Fragestellungen stößt der Ansatz schnell an seine Grenzen -> Problem der adäquaten Kontrollbedingung

  • Grundannahme der „pure insertion“ – Prozesse lassen sich ohne Interaktionen „addieren“ -> aber: Effekte sind oft kontextabhängig -> Faktorielle Designs

  • Hauptproblem Ergänzung Buch: wird davon ausgegangen, dass eine kognitive Komponente  zu einer Aufgabe hinzugefügt werden kann, ohne die anderen Komponenten in der Aufgabe zu ändern

  • Das hinzufügen von neuen Komponenten zu einer Aufgabe kann mit bestehenden Komponenten interagieren

  • Diese Interaktion kann sich als Aktivitätsbereich zeiegn

 

 

Ergänzung Buch

  • Funktionelle Bildgebung erfordert Vergleiche zwischen verschiedenen Zuständen, da das gehirn immer physiologsich aktiv ist

  • Bereiche der „Aktivität“ können immer nur relativ sinnvoll werden; Auswahl einer geeigneten Baseline erfordert gute kognitive Theorie der Elemente, aus der eine Aufgabe besteht

  • Einfachste Weg, dies zu erreichen: kognitive Subtraktion

  • Vergleicht die Aktivität in einer experimentellen Aufgabe mit der Aktivität in einer eng übereinstimmenden Basisline



Parametrische Designs


  • wie sich die neuronale Antwort in verschiedenen Arealen darstellt in Abhängigkeit der Anzahl der Worte die pro Minute einem Probanden präsentiert werden

  • sieht in Mitte linearen Anstieg (je mehr akustischer Input, desto stärker die Aktivität im Auditorischen Kortex)

  • Links U Förmig: Input (verbale) so groß, das es nicht mehr im Arbeitsgedächtnis verarbeitet w erden kann -> kommt zum Abfall

  • sehen allgemein sehr unterschiedliche Antwortprofile in verschiedenen Arealen in Abhängigkeit des akustischen Inputs


Ergänzung Buch

  • Teilnehemr hörten passiv Listen von gesprochenen Wörtern zu

  • Wörter wurden in unterschiedlichen Raten zwischen 0 Wörtern pro Minute (Ruhe) und 90 Wörter pro Minute gesprochen

  • Veränderung der Aktivität in verschiedenen Regionen kann dann mit der Sprechgeschwindigkeit korreliert werden

  • Bereiche, die an Hörwahrnehmung beteiligt sind, (z.B. primäre Hörkortex) ist die Aktivität umso größer, je schneller die Sprechgeschwindigkeit ist

  • Regionen, die an der nicht akustischen Verarbeitung von Sprache beteiligt sind (Wernickes Areal): Aktivität war unabhängig von Sprachgeschwindigkeit mit Vorhandensein von Wörtern verbunden

  • U Form: Region die oft mit verbaleb Arbeitsgedächtnis in Verbidnung gebracht wird: Aktvität nahm mit der Sprechgeschwindigkeit zu, nahm aber dann wieder ab, wenn Sprechgeschwindigkeit schneller wurde

  • Deutet darauf hin, dass Region ein optimales Niveau hat, auf dem sie funktioniert (jenseits dessen sie nicht mehr mithalten kann)

  • Steht im Einklang mit der Vorstellung, dass Arbeitsgedächtnis eine begrenzte Kapazität hat

 

Parametrische Designs: Beispiele

 

  • Interessierende Variable ist kontinuierlich (statt kategorisch, wie bei faktoriellen Designs)

  • Beispiel: Anzahl gesprochener Worte / Minute

  • Werden auch benutzt wenn sich die interessierende Variable von Trial zu Trial ändert:

  • Subjektive Ratings (Schmerz, Arousal, Valenz, ...) -> nicht leicht zu manipulieren, müssen von Probandinnen angegeben werden

  • Reaktionszeiten

  • Physiologische Parameter (Pupillendilatation, Hautleitwert, ...)

  • Parameter von computationalen Modellen

  • Zeitliche Veränderungen in der Amplitude des BOLD Signals (time modulation -> wie sich Amplitude des BOLD Signals über die Zeit hinweg verändert)

  • Hypothesen über die Form der Stimulus-Antwort-Funktion können getestet werden

  • können spezifische Hypothesen testen


 

  • Verarbeitung von visuellen Reizen, die einen unterschiedlichen Grad an Sichtbarkeit haben

  • Bsp.: Ampel bei hellem Tageslicht und Nebel

  • Unterschiedliche Grade der Sichtbarkeit und wie stark diese die visuelle Verarbeitung im Gehirn beeinflussen

  • kategoriales Design: würde Sichtbarkeitsfaktor über einen/wenige Stufe modullieren (Fragen uns wo habe ich mehr Hirnaktivität)

  • Parametrische Design (mehrere Abstufungen der Sichtbarkeit -> kognitive Prozesse modulieren über kontinuierliche Abstufungen)

  • kann mehrere Hypothesen testen (eher lineare oder nicht lineare Anstiege?)

  • Kann Funktionen direkt gegeneinander testen


Analyse von fMRT Daten



Vorgehen: (rechts)

  • haben neurokognitives Modell, von der wir Hypothese ableiten können

  • können Modell damit testen oder zwischen konkurrierenden Modellen vergleichen

  • überlegen Experiment zum testen

  • Interpretieren Daten

 

Links

  • Datenerhebung, während Task von Probanden durchgeführt wird

  • müssen für Kopfbewegung korrigieren

  • danach normalisieren -> Bilder in einen anatomischen Standardraum bringen (damit funktionellen Daten von Probanden im gleichen Standardraum sind)

  • dann wird geglättet

  • Daten werden anhand des Experimentellen Designs aufgeteilt

  • passen Modell an die Daten

 

 

Ergänzung Buch (Analyse von Daten der Funktionellen Bildgebung)

  • Funktionelel Bildgebung ist eine statistsiche Wissenschaft und somit Fehleranfällig

  • Zentrales Problem bei der Analyse: Umgang mit individuellen Unterschieden

  • Lösung: individuelle Unterscheide werden minimiert, indem Daten über viele teilnehmer gemittelt werden

  • Bevor Mittelungsprozess stattfinden kann, müssen daten von Individuen auf verschiedene Weise modifiziert werden

  • Zunächst wird jedes gehirn auf Standard Referenzgehirn abgebildet (Stereotaktische Normalisierung)

  • Daraufhin folgt Glättung – Verbessert Signal Rausch Verhältnis

  • Kann Erkennung gem,einsamer Aktivitätsbereiche bei Individuen verbessern/erleichtern

  • Abbildung oben umfasst Sequenz von anfänglichen Hypothese bis zur Dateninterpretation zusammen (funktionelles Bildgebungsexperiment)

  • Vorteil der fMRT: gute räumliche Auflösung

  •   i.d. Lage, Aktivitätsunterschiede über Millimeter-Entfernungen zu identifizieren

  • Nachteil: kleine räumliche Unterschiede können zu falschen Ergebnissen führen

  • Jedes gehirn unterscheidet sich in Größe und Form

  • Prozess der Stereotactic normalization versucht dies zu korrigieren

  • Weiteres problem: der Kopf jeder Person kann im Laufe der Zeit im Scanner unterschiedlich ausgerichtet werden (Person wackelt/bewegt Kopf im Scanner: somit bewegt sich auch Position jeder aktiven Region)

  • Region dadurch entweder schwerer zu erkennen oder es kann zu Falsch positiven Ergebnis führen

 

Vorverarbeitung (preprocessing) & Smoothing



  • bringen gemessenen funktionellen daten in eine Form, die es uns ermöglicht diese statistisch auswerten zu können

  • 1. Schritt: gemessenen Zeitreihe an Bildern

  • müssen Bewegung korrigierne (Realignment -> Bilder werden aufeinandergedrejt/gepasst, um Abweichung minimieren)

  • Normalisierung ->Bilder werden über lineare/nicht lineare Transformation auf ein anatomisches Referenzgehirn gemapt

  • daten glätten über räumlichen Filter


Glättung

 

  • erhöhen Signal Rauschen Verhältnis

  • vor Glättung Aktivierungsmuster wie rechts oben (gelber kasten)

  • Nach Glättung: ersetzen den Aktivierungswert in jedem Voxel durch einen gewichteten Mittelwert der umliegenden Voxel (über Filter)

  • verschmieren Signal absichtlich ein bisschen

    -> trotz Normalisierung wird es immer kleine anatomische Unterschiede geben

    -> Glättung: können, wenn die Areale der Probanden nicht perfekt übereinanderliegen, wir Effekte  dennoch detektieren können, wenn wir Signal glätten

 

Nächster Schritt:

  • Versuchen Daten mithilfe des experimentellen Designs zu erklären

  • Wird in Form von einer Design Matrix spezifiziert (erhält vorhergesagten BOLT-Zeitreihen für jeweiligen Effekte)

  • jede Spalte bezieht sich auf eine Bedingung (sagt die erwarteten aktivierungszeitreihe vorher)

  • Design Matrix: allgemeines lineares Modell (Regressionsmodell)

  • Bekommen für jede experimentelle Bedingung einen Regressionskoeffizienten, den wir schätzen

  • sagt in jedem Voxel wie stark der Effekt dieser experimentellen Bedingung auf die gemessene BOLT-Zeitreihe ist

  • Bekommen pro Voxel, Probmnd & Bedingung einen Regressionskoeffizient

  • Diese Karten an Regeressionskoeffizienten können wir über Probanden statistisch miteinander vergleichen

 

 

 Ergänzung Buch Smoothing (Glättung)


  • Nachdem jedes gehirn in Standardraum transformiert wurde, finden weitere Stufen der statistischen Vorverarbeitung statt

  • Glätten = wichtiger Teil der Datenmanipulation

  • Glättung breitet sich aus von rohen Aktivierungsniveaus eines Voxels zu benachbarten Voxeln

  • Je höher der Nachbar ist, desto mehr Aktivierung erhält er

  • Je dunkler das Quadrat (siehe Abbildung gelb, orange, rote Quadrate), desto aktiver ist es

  • Voxel D4: zunächst Inaktiv, aber weil es viele aktive Nachbarn hat, wird Voxel durch Glättungsprozess eingeschaltet

  • Voxel L8: Voxel anfänglich aktiv, wird aber durch Glättungsprozess abgeschaltet, weil es inaktive Nachbarn hat

  • Glättung verbesser somit das Signal-Rausch-Verhältnis

  • Glättung erhöh außerdem räumliche Ausdehnung aktiver Regionen


Wiedersprüche zwischen funktionellen Bildgebungsdaten und Läsionsstudien



  • Läsionsstudien: zeigen, dass wenn Areal geschädigt ist, ProbandInnen Aufgabe immer noch ausführen können


Mögliche Gründe:

 

  • Aktivierung reflektiert nur EINE mögliche Strategie, die Aufgabe zu lösen (Läsionspatientinnen verwenden evtl. andere Strategie)

  • Aktivierte Region reflektiert allgemeine /unspezifische kognitive Ressource ->nicht spezifisch für die Aufgabe

  • Aktivierte Region wird inhibiert, nicht erregt

  • Läsionsstudien können die Wichtigkeit der Region nicht detektieren (Power, methodologische Unterschiede, ...)  POWER fehlt um Wichtigkeit des Areals zu detektieren

 

Ergänzung Buch

  • Der aktivierte Bereich spiegelt eine bestimmte Strategie der Teilnehemr wieder, die für die Aufgabenerfüllung nicht unbedingt erforderlich ist

  • Die aktivierte Region spiegelt die Rekrutierung einer allgemeienn kognitiven Ressource wieder (z.. aufgrund erhöhter Aufgabenschwierigkeit, Aufmerksamkeit, Erregung), die nicht spezifisch für die Aufgabe ist

  • Die aktivierte Region wird eher gehemmt als angeregt

  • Die Läsionsstudien waren nicht aussagekräftig genug, um die Bedeutung der region zu erkennen (zu wenige patienten, Läsion nicht an der richtigen Stelle)

 

 

 

Mögliche Gründe:

 

  • Experimentelle und Kontrollbedingung beanspruchen die Region – Bedingungsvergleich führt zu Nullergebnis

  • Detektion von Aktivierung in der Region evtl. schwierig/unmöglich (zu klein, zu große anatomische Variabilität zwischen Probanden, geringes Signal...)

  • Patienten sind beeinträchtigt auf Grund von Schädigungen von Faserbahnen, die durch das Areal laufen (->Diskonnektion)


Ergänzung Buch

  • Wenn experimentelle Aufgabe und Basisuafgabe entscheidend von dieser Region abhängen, dann kann ein Vergleich zwischen Ihnen ein künstliches Null Ergebnis erzeugen

  • Es kann schwierig sein, Aktivität in dieser Region des gehirns zu erkennen

  • Beeinträchtigte leistung nach Läsion spiegelt eher die Schädigungen der Bahnen wieder, die durch die Region verlaufen, als die synaptische Aktivität in der grauen Substanz der Region selbst


Multivariate Analyseverfahren in der Bildgebung

Multivariate Analyseverfahren in der Bildgebung

  • Multi-voxel pattern analysis (MVPA)

  • Verfahren, wo wir uns nicht Aktivierungszeitreihe in einzelnen Voxeln anschauen

  • Informationen über größere Voxelpopulationen werden kombiniert, um bestimmte Vorhersage über ablaufenden kognitive Prozesse treffen zu können



  • wollen wissen, wo im Gehirn Information darüber vorhanden ist, was für eine visuelle Reizkategorie unsere Probanden gerade verarbeiten

  • Probanden werden unterschiedliche Stimulus gezeigt

  • können dann jeweils für jeden Stimulus die Hirnaktivität für ein Set an Voxel messen

  • Jeder Reiz löst Muster an Voxelaktivierungen aus (über Spalten dargestellt)

  • können Voxel in einem bestimmten Areal sein

  • BOLT Antwort auf einzelne Reize in einem Voxel messen wir für viele Stimuli

  • können dann Classifier trainieren (Alogrithmus) -> der Voxelmuster mapt auf eine bestimmte Reizkategorie

  • Feature Space -> hat so viele Dimensionen wie wir Voxel haben

  • Algorithmus mapt uns diese daten in Featurte Space auf eine Kategorie (wurde Schuh oder haus gezeigt?)


  1. Schritt

  • Zeigen unserem Classifier neue Daten (Testdaten Run 3 Test set)

  • Diesmal daten/Stimuli die der Classifier noch nie gesehen hat

  • Wie gut ist Klassifikationsgenauigkeit dieses Algorithmus bei neuen Testdaten? (bekommen test-accuacy heraus)

  • Schritte 1-3 werden weiderholt -> lassen immer wieder unterschiedliche teile der daten raus und trainieren auf die verbleibenden Daten

  • Gut, um zu testen wie gut statistische Modelle generalisieren (Kreuzvalidierung)

  • bekommen durchshcnittliches Testgenauigkeit heraus


Nachtrag Vorlesung

  • Gucken uns nicht einzelne Voxel an wie zuvor

  • MVPA -> gucken uns große Menge an Voxel auf einmal an

  • Gleichzeitig Aktivierungsmuster in einem Areal (z.B. Hippocampus)

  • Trainieren Classifier zwischen um verschiedene Mustern/ reizkategorien voneinander trennen zu können (Klassifikationsalgorythmus)

  • Input -> Klassifikations Algorythmus generiert mir einen Output -> Schuh oder Flache? -> kann bestätigen ob es Schuh oder Flasche war -> stimmt nicht ->Algorythmus wird so lange angepasst, bis er optimal gut Muster für Schuhe und Flaschen unterscheiden kann

  • Muss Hyperebene (Linie) finden im Dimensionalen Raum, die mir Muster Schuhe und Flasche trennt (Abbildung unten rechts)

  • Prinzip der Kreuzvalidierung: Ein Teil der Daten wird zum Training benutzt und ein anderer Teil wird zurückgehalten

    -> kann prpfen ,w ei gut Algorythmus neuen daten klassifizieren kann (hat diese Daten noch nie gesehen)

  • Kreuzvalidierung: neu trainieren und andere Daten raushalten beim tranierung und dann gucken wie gut Algorythmus ist  auf Daten die er noch nie gesehen  hat

  • wiederhole dies und bekomme am Ende durchschnittliche testgenauigkeit von Klassifikationsalgorythmus raus

  • Könne messen was für einen visuellen Stimulus VPn gerade betarchjtete (aber erst anchdem wir Algorythmus trainiert haben)




  • Aktuelle State Space einer neuronalen Population lässt sich als Zusatnd in dem hochdimensionalen raum beschreiben

  • Achsen sind Aktionspotentiale die einzelne Neurone feuern, Populations-Zustand ist Punkt im neuronalen Raum, in dem sich Neuronen Population befindet


Nachrag Vorlesung


  • Rote Punkte: Aktivität die gezeigt wird wenn Gesichter gezeigt werden

  • Blau: bezeichnet Aktivität wenn Häuser gezeigt werden

  • suche grüne Linie (wo muss ich sie durchziehen um maximal gut zwischen diesen beiden Voxeln unterscheidne zu können?)

  • In der Praxis: habe viel mehr als 2 Voxel (hundertdimensionales Koordinatensystem) suzche Hyperebne die mir Aktivität in den 100 Voxeln für gesichtern optimal trennt von der Aktivität von sehen bzw. Häsuer  

  • Abbildung zeigt zweidimensionales Koordinatensystem

  • Stimmt nicht immer, aber bei gutem Training wird es in sehr vielen Fällen richtig sein

  • Wo unterscheiden sich Voxel Muster zwishcne verschiedenen Experimentellen bedingunen? 8Wahrnehmung von gesichtern vs. Häusern)

  • Wie weit ligene Patterns auseinander? (Abbildung rechts) —> Voxelraum: Wie weit liegt Aktivierungsmuster für Berge an Aktivierungsmuster für Häuser usw.

  • Bezuehung sagt mir was darüber, inweiweit Konzepte auf ähnliche Weise repräsentiert sind

  • C & B liegen im Voxelraum dichter beieinander als C & A

 

MVPA

  • Prinzip das gleiche aber andere Beschreibungseben

  • Achsen sind nicht Feuerrate von einzelnen Neuronen, sondern Aktivierung von Voxeln

  • Bei beiden Fällen haben wir hochdimensionalen Zustandsraum (einmal bezieht es sich auf feuerungsrate, einmal auf Aktivierung der Voxel)


Classifier basiert MVPA

  • Kann uns etwas darüber sagen, wo im Gehiern bestimmte Reize/kognitive Zustaände repräsentiert sind

  • Geht nicht darum wo BOLT Antwort höher/niedriger ist

  • Geht darum, wo enthält das Muster über alle Voxel Information über meinen Stimulus

  • Kann ich Information über Stimulus aus Voxelmuster dekodieren?

 

Similarity-Based (Ähnlichkeitsbasiert)

  • Abstände zwischen Patterns angucken

  • Ähnlichkeit in der Repräsentation höher zwischen D & B als C & A

 

MVPA Ergänzung Buch

  • Es wird allgemein angenommen, dass verschiedene Klassen von Objekten (Gesichter, Orte, Wörter usw.) unterschiedliche Regionen im Gehirn aktivieren

  • Studien haben versucht zu zeigen, was eine Person bei einem bestimmten Versuch beobachtet oder sich vorstellt (indem nur begleitende neuronale Aktivität verwendet wurde)

  • Dafür müssen Personen vorab Reihe von Objekten testen um die durchschnittliche Reaktion auf diese Klasse von Objekten relativ zu einer bestimmten grundlinie zu bestimmen

  • Anstatt den Spitzenbereich der Aktivität zu loakliseren (wie bei fMRT) kann man Aktivierungsmuster über verteilten Satz  von Voxeln untersuchen ->MVPA Methode

  • Teilnehmern wurden Bilder aus 8 verschiedenne Kategorien gezeigt

  • Neuronale Aktivität aus einem einzelnen Versuch wurde dann mit den davor bekannten Aktivitätsmuster verglichen, um die wahrscheinlichste Kategorie zu bestimmen, die betrachtet wurde

 

2 Phasen:

  • Zunächst werden Teilnehmern bestimmte Aufgaben oder Stimuli gegeben (Katzen, Hunde usw.)

  • fMRT Daten werden auf übliche Weise gesammelt

  • unterschiedliche Voxel können mehr oder weniger stark auf unterschiedliche Stimuli reagieren

  • ein mathematischer Algorythmus (Classifyer) wird traniert, um die Kategorien basierend auf der Aktivität über mehrere Voxel optimal zu unterscheiden

  • in der nächsten Phase (Testen) erhält der Teilnehemr dann weitere Aufagben oder Reize (z.B. neue Bilder von Katzen und Hunden)und der Algorythmus muss diese einordnen

  • in dieser Phase wird der geist/das gehirn des Teilnehmers effektiv gelesen  

 

Uni- vs. multivariater Analyseansatz

 

Klassische MRT Analyse: massive univariate approach:

  • Jedes Voxel wird einzeln betrachtet

  • Das Signal wird mittels General Linear Model beschrieben und die geschätzten Parameter werden statistisch analysiert

 

Multivariater Ansatz (z.B. MVPA):

  • Information wird über eine Menge an Voxeln kombiniert

  • Classifier-basiert: Wie gut sagt das Aktivierungsmuster in einer bestimmten Region (Voxelpopulation) das Verhalten oder eine Bedingung voraus?

  • Vorhersage wird mittels maschineller Lernverfahren (machine learning) durchgeführt (-> einfache logistische Regression kann auch als Classifier benutzt werden)


Nachtrag Vorlesung


  • Ehe nicht mehr jedes Voxel einzeln durch -> Kombiuniere Informationen über größere Menge an Voxeln

  • Stelle Frage, wenn ich Klassifikationsbasierte Verfahren mache: wie gut sagt mir Aktiviweungsmuster in bestimmten Region Verhalten bzw. experimentelle bedingung vorher?

  • Klassifikationsalgorythmen -> logistische regression z.B.


ZUsammenfassung Bildgebende Verfahren



Auswertung

 

  • Zusammenfassend lässt sich sagen, dass die Bildgebung des Gehirns verwendet werden kann, um auf die Art des Stimulus und einfache kognitive Entscheidungen zu schließen

  • Allerdings unklar, um fMRT jemals in der Lage sein wird, auf konkrete Gedankeninhalte zu schließen

  • Natürliche Grenze für Imaging: sidn alle im Laufe des Lebens unterschiedlichen Katzen, Häusern usw. begegnet; unsere Gehirne unterscheidne sich außerdem alle auf subtile weise

 

Zusammenfassung und wichtigste Punkte

 

  • Strukturelle Bildgebung zeigt die statistsichen physikalsichen Merkmale des Gehirns (nützlich bei Diagnose von Krankheiten)

  • Funktionelle Bildgebung deckt dynamische Veränderungen in der gehirnphysiologie auf (die mit kognitiven Funktionen korrelieren könnten)

  • Neurale Aktivität verbraucht Sauerstoff aus dem Blut -> löst erhöhte Blutfluss in dieser Region aus (gemessen durch PET) und eine Änderung der Menge an Desoxyhämoglobin (gemessen durch fMRT)

  • Gehirn ist immer physiologsich aktiv -> funktionelle Bildgebung muss relative Änderungen der physiologischen Aktivität messen

  • Grundlegende experimentelle Design in funktionellen Bildgebungsforschung besteht darin, die Aktivität in jedem Teil des Gehirns zu subtrahieren, während eine Aufgabe von der Aktivität in denselben Teilen des Gehirns entfernt werden, während ene etwas andere Aufgabe ausgeführt wird

    -> kognitive Subtraktion

  • Andere methoden einschließlich parametrischer und faktorieller Versuchspläne, können viele dieser Probleme minimieren die mit der kognitiven Subtraktion verbunden sind

  • Aufgrund individueller Unterscheid ein funktionellen und strukturellen Anatomie gibt es keinen sicherne Weg, einen Punkt auf einem Gehirn auf den vermeintlich gleichen Punkt auf einem anderen Gehirn abzubilden

  • Aktuelle Bildgebende Verfahren lösen dieses Problem, indem sie individuelle Daten auf ein gemeisnames Standardgehirn abbilden (stereotaktisches Normalisierung) und signifikante Bereiche diffundieren (SMoothing)

  • Ein Bereich der Aktivität bezieht sich auf eine lokale Erhöhung des Stoffwechsels und er Versuchsaufgabe


Author

Hanna M.

Information

Last changed