Buffl

Cardset

PT
by Pascal T.

Tuner unterschiede Hyperband, Randomsearch, BayersOptimisation

**Hyperband** Tuner:

       > Motivation: Ineffizientes Training des _RandomSearch_ Tuners, da alle erstellten Netze die max. Anzahl an Epochen `max_epochs` trainiert werden, auch solche, die ein schlechtes Trainingsverhalten aufweisen und/oder deren Parameterkonstellation evident suboptimal ist.

       - Ermittelt durch Permutation aller Hyperparameter jede mögliche Kombination und erstellt für jede einzelne ein Modell

       - Jedes Modell wird trainiert, jedoch nur wenige Epochen, d.h. idR. deutlich unterhalb der konfigurierten max. Anzahl an Epochen `max_epochs`

       - Nach einem gesamten Trainingsdurchlauf werden die besten Modelle gefiltert

       - Die Schritte 2 und 3 werden wiederholt (**iteratives Modell**) solange die Anzahl der Iterationen unterhalb von `hyperband_iterations` liegt

       - Die finalen Modelle durchlaufen das "volle" Training (= `max_epochs`)

   2. **BayesianOptimization** Tuner:

       > Motivation: Jede Hyperparameterkombination in _RandomSearch_ und _Hyperband_ ist zufällig (randomisiert) gewählt $\rightarrow$ Garantiert nicht zwangsläufig optimale Hyperparameterwerte bzw. die Suche dauert ggf. lange

       - Wenige Hyperparameterkonstellationen werden zufällig gewählt und für diese die entsprechenden Modelle trainiert

       - Alle folgenden Hyperparameterkonstellationen werden systematisch anhand der Güte der vorherigen Hyperparameterwerte ermittelt

3. _Hyperband_ und _BayesianOptimization_ liefern nicht zwangsläufig Hyperparameterkonstellationen, die bessere Ergebnisse hervorbringen, sondern sind vor allem **effizienter** bei der Suche. Insbesondere bei **großen Suchräumen** (viele Hyperparameter mit vielen Ausprägungen) ist die Performance besser im Vergleich zum _RandomSearch_ Tuner.

Author

Pascal T.

Information

Last changed