Gehirn vs. Computer
Computer:
• Transistoren als kleinste Einheit
• Serielle Informationsverarbeitung (ca. 4,6 GHz)
• Datenspeicherung auf Basis von Adressen
• Hoher Aufwand zur Erfassung großer Zusammenhänge
Gehirn:
• Neurone als kleinste Einheiten
• Massiv parallele Informationsverarbeitung (max. 500 Hz/ APs)
• Datenspeicherung assoziativ
(Ortserfassung mit Erinnerung verknüpft)
• Hoher Aufwand zur Erfassung kleiner Details
Was ist ein Neuron?
Zelle
Grundgewebe
Was ist eine vermeintlich gute Darstellung des Kiemenrückziehreflexes
Dekrementierung von nacheinander ankommenden Reizen
Was ist das Problem der Dekrementierung?
Kein Gedächtnis
Kein Reset möglich (Reize, die auf einmal von unterschiedlichen Seiten kommen)
Was ist ein Leaky Integrator? Wie funktioniert dieser?
Integral mit Verlustfunktion / Eimer mit Loch
Wie kann das Problem der Dekrementierung gelöst werden?
über durch Interneurone durchgeführte Rekurrenz/Rückkopplung
Output wird schnell wieder an das Neuron zurückgeleitet
Dies resultiert in der Funktion eines Leaky Integrators
Einzelnes Signal (Input) wird dann z.B. immer aktiv abgeschwächt und man muss nicht auf weitere Inputs warten
Ständiger Reset bei neuem Input
Wie kann sich das bei Rekursion verwendete Omega/W auf das Signal mit Gedächtnis auswirken?
W/Omega < 1
Abschwächung
W/Omega > 1
Verstärkung bis z.B. Schwellenwert
(Bilder !!! Klappt bei mir gerade nid)
Was muss angepasst werden, wenn man multiple Neuronen hat?
Verbindungsgewichte (Omega / Nü); Outputneurone; Inputsignale müssen in Matrizen dargestellt werden
Was ist der VOR und wo kann man ihn finden?
Vestibulo Okular Reflex (Polysynaptischer Reflex)
Einstellen des Gleichgewichts vom Auge nach z.B. einem Schlag auf den Kopf
Wie sehen Input und Output beim VOR aus?
Modulation mit Gedächtnis
Welche konkreten Modelle für den VOR gibt es?
1) parallel Pathway
2) Feedback Modell
Laterale Inhibition:
Kautensehen Limulus: 2-schichtiges Netz
Laterale Inhibition hingegen arbeitet nicht mit periodischen Mustern(s. CPG), sondern fokussiert sich auf die Verstärkung von Kontrasten zwischen benachbarten Neuronenaktivitäten, was vorrangig bei der sensorischen Verarbeitung, wie z. B. der visuellen oder taktilen Wahrnehmung, genutzt wird
Mehrere Inputs durch benachbarte Neuronen, die jeweils visuelle Reize (Inputs) wahrnehmen
Muster Generatoren
CPGs verwenden ihre neuronalen Netzwerke, um periodische, rhythmische Muster zu erzeugen, die z. B. motorische Bewegungen steuern.
-> Laufen, Fliegen, Schwimmen, Verdauen, Herzschlag
Ein eingehendes Signal/ Reiz (Input) wird in mehreren nachfolgenden Neuronen verarbeitet
z.B. Koordinierte Kontraktionen im Verdauungs-System des Hummers
Gegenseitige Hemmung und Erregung von benachbarten Neuronen
Welche Arten gibt es von lateraler Inhibition?
Feedforward
V/Nü (Verbindungsgewichtsmatrix von X auf Y) macht den Job
Recurrent
W/Omega (rekurrente Verbindungsmatrix von Y auf Y) macht den Job
Wie sieht zu folgendem Signal-Input der Output aus?
Was stellt der Output von der Lateralen Inhibition dar?
2-fache räumliche Ableitung mit VZW
Was ist ein Kernel?
Kern der Modellierungsart von Inputsignalen bei der Lateralen Inhibition
Nenne ein Beispiel für einen einfachen Kernel
-1 ; 2 ; -1
reine Interaktion mit dem Nachbarn links und rechts
Wie sehen die Kernels beim Menschen aus?
nicht nur Interaktion mit den direkten Nachbarn
auch mit weiteren (On-Off-Zellen)
Sombrero Funktion als Bspl
Bild!
Wie läuft das Lernen im Hippocampus nach Marr ab?
1: Ereignis sorgt für Aktivierung von Neuronen
2: Lernen
Verbindung von aktivierten Neuronen wird verstärkt
3: neues Ereignis
vorerst aktive Neurone werden nicht mehr benötigt also deaktiviert
starke Verbindung besteht aber weiterhin
4: “Erinnern“
Muster wird wieder vervollständigt
Was sind die 4 Hebbschen Lernregeln?
1: Hepp Pur (deltawij=yi+yj)
2: Postsynaptisch (deltawij=yi*(2yj-1))
3: Präsynaptisch (deltawij=(2yi-1)*yj)
4: Hopfield (deltawij=(2yi-1)*(2yj-1))
Vervollständigen:
Beispiel für kompetitives Lernen und was ist das überhaupt?
Muster erkennen
Gesichtererkennung
Es ist unsupervised
es entsteht unterbewusst bzw. ohne aktive Benachrichtigung des Gehirns
2-schichtiges KNN
z. B. 1. Schicht Feature-Schicht ; 2. Schicht Bewertungs-Schicht
Wie kommt diese Lernart (kompetitives) zustande und wie funktioniert es?
Durch Eigenschaftsräume (Schubladen im Hirn)
wenn ein Gesicht zum Beispiel lange „gescannt“ wurde kann das Gehirn besondere Features in die Eigenschaftsräume packen
In der Output-Schicht (z.B. Bewertungs-Schicht) gewinnt am Ende nur maximal ein Neuron
Neurone stehen in Konkurrenz
Daraufhin werden die Verbindungsgewichte auf den Gewinner angepasst
ein iterativer Prozess
c. Neuron mit maximaler Antwort gewinnt
d. Anpassung Verbindungsgewichte
Wie heißt der bekannte Algorithmus fürs kompetitive Lernen?
SOM = self organizing maps (auch Kohonen-Prozess)
Welche besondere Zellart ist für das Erkennen von Gesichtern zuständig?
Face Cells
Was sind die 3 Schritte vom SOM/Kohonen Algorithmusses ?
1) Erzeugung des neuronalen Netzes
2) aus den ganzen Outputs das Siegerneuron identifizieren
3) Gewichtungen des Neurons anpassen (lokal)
Gewinner verstärken
Verlieren abschwächen
→ Entstehung von Karten durch ständiges Durchlaufen des Prozesses
Sortierung von Frequenzen im auditorischen Kortex zum Beispiel
Was ist das supervised learning ? Was ist unbiologisch daran?
3-Schichtiges KNN
Input-Layer
Hidden-Layer
Output-Layer
Muster-Muster Verknüpfung
z.B. Sprachen lernen
Wie funktioniert das supervised learning?
Im Vorhinein muss bekannt sein, welche korrekten Output man erwartet und welche richtig sind
Input → Output → vgl. mit korrektem Output → Fehlersignal (Berechnung des Fehlers) → Backpropagation (Fehlerrückführung) → Anpassung der Gewichtungen
Was ist das besondere an den 4 hebbschen Lernregeln?
Was sind LIs. Einfachen Leaky aufzeichnen und Formel
a. Leaky Integrator Rückkopplung des Neurons
b. Y(t)=vx(t-1)+wy(t-1)
c. Ausgabe(Zeit)=Gewichtung*Eingabe(Zeit-1)+Leaky Integrator*Ausgabe(Zeit-1)
d. Verstärkende oder Dämpfende Funktion
Warum muss der VOR so komplex sein, der Patellasehnenreflex aber nicht
a. Patellasehnenreflex muss schnell eine Anwort braucht, um ein Kippen oder Fallen zu
verhindern -> Monosynaptisch
b. Gegebenheiten wie Krafteinfluss von außen müssen mit einbezogen werden -> nicht
Monosynaptisch
Was ist ein Reflex? Warum sind Reflexe sinnvoll?
a. Willkürliche, rasche und gleichartige Reaktion eines Organismus auf einen Reiz
b. Zum Schutz vor Außeneinwirkungen und Verletzungen
Modellierung Aplysia ,Wie funktioniert die Habituation? Wofür wird sie benötigt?
a. Kiemenrückzugreflex -> Monosynaptisch
b. Habituation = Reflex wird bei jedesmal nutzen abgeschwächt
c. Dishabituation = Erregung eines anderen Reizes oder durch zei
Beschreiben Sie den Kiemenrückzugsrefelex der Aplysia
Aplysia= Gattung von Meeresschnecken
ein monosynsptischer Schutzrefelx der bei einer Rezung der Kiemen diese zum Schutz in den Körper zurückzieht
bei mehrfacher Reizung der gleichen Intensität&STelle schwacht die Stärke der Reaktion ab(=Habituation)
wenn danach unterschiedlich gereizt wird kommt es wieder zum vollständigen Rückzug (=DIshabituation)
Wie unterscheiden sich die Signale von reccurent und feedfoward?
a. Recurrent: Signal wird nach dem Axonhügel auf Axonhügel der Nachbarneuronen
mit aufgeteilt und behindert diese nach einer Signalentstehung
b. Feedforward: Signal wird vor dem Axonhügel zu den Axonhügeln der Nachbarn
geworfen, somit schon bevor ein Signal entsteht
Winner takes it all Prinzip
SUPERVISED-Lernen erklären, Warum ist die Fehlerrückmeldung für einen Biologen schwer zu verstehen?
a. Hidden layer zwischen Input und Output
b. Vergleich von Muster
Was wurde mit dem Künstlichen Neuronalen Netz gemacht?
Erklären Sie ein Neuron mathematisch?Zeichnen Sie ein Schaltbild. Bild
eine Zelle
Leitet Informationen weiter
y=v*x
Welches Tier nutzt den Leaky Interator (Aplysia → Habituieren)
Erklären Sie den VOR (Vestibulo-Okkular-Reflex) und wie der Leaky Integrator damit zu tun hat.
Was ist echtes Lernen?
Hebbregeln, wofür sind sie gut?
Erklären Sie die Kohonennetze
Mustergenerator (Prinzip und Skizze) BILD
Kombination aus mind. 2 Neuronen die miteinander verschaltet sind und sich so gegenseitig hemmen & verstärken
können so Muskelbewegung verursachen
->wichitg für motorische Vorgäng wie schwimmen und laufen
Reafferenzprinzip & VOR, welche Unterschiede bestehen?
Reafferenzprinzip= neurobiologisches Modell zur Bewegungskontrolle
VOR=
bei Reaff.: bewusste gewollte Kopfbewegung wird neuronal verrbeitet
bei VOR: ungewollte plötzliche Kofbewegung, Reaktion motorisch durch Reflex ohne normale neuronale Verarbeitung
=>Reaf= bewusst, mit Neuronen
=>VOR = ungewollt, ohne Neuronen
Was sind SOM?
Self Organizing Maps nach Kohonen
beschreibt Phänomen das sich im Gehirn Bereiche spezialisieren&organisieren
dadurch sind in verschiedenen Gehirnbereichen verschieideen bekannte Muster gespeichert, die dann wiedererkannt bzw. vor allem vervolständigt werden können
Beschreiben Sie die laterale Inhibition mit Matrix und der mathematischen Bedeutung
dient der Kantendetektkion indem bei Reizung eines Neurons die Nachbarneuronen gehemmt werden
mathem. ist es die numerische dikrete 2. Ableitung mit Vorzeichenwechsel
Matrix, alle Werte haben auf der Hauptdiagonalen den Wert 2 und alle Werte links&rechts daneben inneralbt einer Zeile den Werte -1, di eanderen sind 0
die -1 Werte stehen für die Hemmung der Nachbarn
die 2 Werte für die Stärkung des gereizten Neurons
Nennen Sie alle Lernarten
unsupervised (Autoassoziativ, Kompetitiv)
supervised
evtl. deep learning/self supervised
Welche Unterschiede bestehen zwischen der Biologie und dem supervised Learning
Rückführung von Infos beim supervised Learning durch Backpropagation also durch das gleiche Netz
in Biologie: Informationsleitung nur in eine Richtung daher mit Schleifen
Kompetitives Lernen: Wofür ist das Erkennen von Gesichtern gut?
dient zur vervollständigung von Mustern
im Falle von Gesichterkennung könnnen Gesichter erkannt werden, auch wenn die nur teilweise oder seitlich gesehen werden
im Gehirn wird das unvollständige Gesicht mit bekannten Gesichtern verglichen, dann eins erkannt und so zugeordnet
Beschreiben Sie den Algorithmus beim kompetitiven Lernen.
2 schichtiges Netz zur Musterzuordnung
Bildung von SOM
die Neuronen wetteifern und nur das Siegerneuron gewinnt, die Nachbarn antworten aber besser
Last changed3 days ago