Buffl

Künstliche Neuronale Netze

HM
von Hanna M.

Künstliche Neuronen



X = Input

W = Synaptische Gewichte

B = wird bei Berechnung drauf addiert (Bias = die Spontanfeuerrate)

F = F von der gewichteten Summe der Inputs plus den Bias


—> Neuron hat Spontanfeuerrate die unabhängig ist von den Inputs die kommen


  • Neuron bildet gerichtete Summe der Inputs + Spontanfeuerrate und bildet Funktion

  • Wenn Inputs bestimmte Schwelle überschreiten feuert Neuron (Signal wird weitergeleitet, sonst nicht)


Idee: künstliche Neuronen auf intelligente Weise trainieren und schalten: hoch komplexes Verhalten kann dadurch entstehen




Künstliche Neuronale Netzte


Woher kommen die Gewichte w?

  • Verbindungsstärke zwischen Neuronen ist plastisch und kann sich verändern

  • Gewichte müssen eingestellt werden damit Netzwerk macht was sie wollen was es macht

  • Gewichte müssen daher trainiert werden


  • Die Gewichte müssen gelernt werden -> Das Netz muss trainiert werden.

  • Beispiel: wir haben ein Netzwerk, das Bilder klassifizieren soll. Ist ein Mensch auf dem Bild, JA oder NEIN?

  • Das Netz wir nun mit Bildern trainiert, von denen wir wissen ob ein Mensch drauf ist oder nicht.

  • Die Gewichte werden während des Trainings solange angepasst, bis eine gute Performanz erreicht ist



  • Nehme viele dieser künstlichen Neuronen und schalte sie zusammen —> bekomme dann Systeme die Sachen machen können

  • Viele Units (Künstliche Neuronen) —> Dadurch Millionen von Verbindungen)


—> Wie im Gehirn: Von Retina in CGL, in den Thalamus usw. —> Input wird komplex verrechnet und weitergeleitet


Nicht eingebaut:

  • Kortikale- Subkortikale Systeme usw.

  • Jede Unit mit allen anderen vernetzt —> biologisch unrealistisch


Atari Videospiele:

  • Netz wurde trainiert —> findet Lösung für das Problem wenn man es lang genug trainiert

—> bekommt System raus durch Training das komplexe Dinge lösen kann

Author

Hanna M.

Informationen

Zuletzt geändert