F1: Was ist die Grundannahme jedes maschinellen Lernverfahrens bezüglich der Eingabedaten?
A1: Es gibt eine Ziel-Funktion, die alle Instanzen perfekt in den Lösungsraum abbilden kann, diese ist jedoch unbekannt.
F2: Was ist ein Hypothesenraum im Kontext des maschinellen Lernens?
A2: Der Hypothesenraum umfasst alle möglichen Abbildungen, die durch das Modell repräsentiert werden können, und das Ziel ist, die beste Hypothese zu finden, die zu den beobachteten Daten passt.
F3: Was beschreibt der Begriff "Version Space" im maschinellen Lernen?
A3: Der Version Space ist die Teilmenge der Hypothesen des Hypothesenraums, die mit den Trainingsbeispielen konsistent und vollständig sind.
F4: Was ist induktives Schließen?
A4: Induktives Schließen ist eine Methode, bei der aus einer Menge spezifischer Beobachtungen ein allgemeines Prinzip abgeleitet wird.
F5: Wie unterscheiden sich Induktion und Deduktion?
A5: Induktion ist wahrheitserweiternd und generiert neue Hypothesen, während Deduktion wahrheitserhaltend ist und neue Regeln oder Fakten ableitet.
F6: Was versteht man unter der Induktiven Lernhypothese?
A6: Sie besagt, dass jede Hypothese, die die Ziel-Funktion gut genug über eine ausreichend große Menge an Trainingsinstanzen approximiert, dies auch über unbekannte Beispiele tun wird.
F7: Was ist das Problem bei Modellen mit einem kleinen Hypothesenraum?
A7: Ein kleiner Hypothesenraum kann die tatsächliche Ziel-Funktion ausschließen, was bedeutet, dass das Modell möglicherweise keine konsistente und vollständige Hypothese finden kann.
F8: Was bedeutet "ausreichend große Anzahl an Trainingsinstanzen"?
A8: Die Anzahl der benötigten Trainingsbeispiele korreliert mit der Größe des Hypothesenraums des Modells.
F9: Was ist der induktive Bias im Maschinellen Lernen?
A9: Der induktive Bias ist eine Menge von Annahmen oder Vorwissen, das ein Lernsystem verwendet, um von Daten zu generalisieren, wobei bestimmte Hypothesen gegenüber anderen bevorzugt werden.
F10: Welche typischen induktiven Verzerrungen gibt es?
A10: Eine Hypothese, die den Abstand zwischen Eingabeinstanzen verschiedener Klassen maximiert, wird bevorzugt, und wenn eine einfache und eine komplexe Hypothese die Verlustfunktion minimieren, wird die einfachere Hypothese bevorzugt (siehe Okkams Rasiermesser).
Last changeda year ago