Was ist der Bias-Trick und warum wird er bei der linearen Regression angewendet?
Was ist die zentrale "naive" Annahme beim Naive Bayes Classifier?
Dass alle Features (Merkmale) bedingt unabhängig voneinander sind, gegeben die Klasse. Das vereinfacht die Berechnung der gemeinsamen Wahrscheinlichkeit zu einem einfachen Produkt der Einzelwahrscheinlichkeiten.
Wie lautet die Definition des Mean Squared Error (MSE) in Matrix-Schreibweise?
Wie lautet die Normalengleichung zur Bestimmung der optimalen Gewichte w? Unter welcher Bedingung ist sie lösbar?
Wie lautet die allgemeine Update-Regel für Gewichte im Gradientenabstieg?
Welche Auswirkungen haben eine zu große und eine zu kleine Lernrate n?
Was gibt das Bestimmtheitsmaß $R^2$ an und wie ist sein Wertebereich definiert?
Bedeutung: Es gibt den Anteil der Varianz der Zielvariablen an, der durch das lineare Modell erklärt wird.
Formel: $R^2 = 1 - \frac{\text{Nicht erklärte Varianz (Residuen)}}{\text{Gesamtvarianz der Daten}}$
Wertebereich: Üblicherweise $[0, 1]$.
$1$ = Perfekte Anpassung.
$0$ = Modell hat keine Erklärungskraft (schlechter als der Mittelwert).
Nenne die Formeln für Precision und Recall.
Precision = (Wie verlässlich ist die positive Vorhersage?) TP/(TP+FP)
Recall = (Wie viel Prozent der echten Positiven wurden erkannt?) TP/(TP+FN)
Was ist das Ziel einer Support Vector Machine (SVM) und was sind Support Vektoren?
Finden einer Hyperebene, die die Klassen mit dem maximalen Rand (Margin) trennt.
Support Vektoren: Die Datenpunkte, die der Trennebene am nächsten liegen und deren Lage bestimmen.
Was steuert der Parameter $C$ bei einer Soft-Margin SVM?
Er steuert den Trade-off zwischen der Breite des Rands und der Anzahl der Fehlklassifikationen.
Großes $C$: Wenig Fehler erlaubt (schmaler Rand, Gefahr von Overfitting).
Kleines $C$: Breiterer Rand, aber mehr Fehlklassifikationen werden in Kauf genommen (bessere Generalisierung).
Was ist der Unterschied zwischen Hard Margin und Soft Margin SVM?
Hard Margin: Keine Fehler erlaubt, benötigt perfekt linear trennbare Daten, extrem anfällig für Ausreißer.
Soft Margin: Erlaubt durch den Parameter $C$ Fehler innerhalb des Randes, um robuster gegenüber Rauschen zu sein und besser zu generalisieren.
Warum nutzt man den "Kernel-Trick" bei SVMs?
Um nicht-linear trennbare Daten in einem höherdimensionalen Raum linear trennbar zu machen, ohne die Koordinaten der Punkte explizit transformieren zu müssen (spart Rechenleistung).
Was bedeutet TP, TN, FP und FN und zu welcher Thematisierung gehören sie ?
Es gehört zu Precision und Recall
FP( False Positiv) = Mail die Ham ist wurde als Spam klassifiziert
TP(True Positiv) = Mail die Ham ist wurde als Ham erkannt
FN(False Negativ) = Mail, die Spam ist wurde als Spam klassifiziert
FN(False Negativ) = Mail, die Ham ist wurde als Spam klassifiziert
Der Schlimmste Fall wäre ein hohen FN wert zu haben.
Später ist dafür der Recall entscheidend(Wie viel prozentual korrekt klassifiziert von den korrekten)
Last changed6 days ago