Welche Arten des Machine Learnings gibt es?
überwachtes (supervised) Lernen
Lernen mit beschrifteten Daten
Unüberwachtes (unsupervised) Lernen
Lernen ohne beschrifteten Daten
Bestärktes (reinforcement) Lernen
Lernen durch Trial-and-Error
Semi-überwachtes/ selbst-überwachtes (semi-supervised/ self-supervised) Lernen
Lernen mit begrenzten beschrifteten Daten
Was ist überwachtes Lernen und was sind typische Aufgaben davon?
Ein Lernverfahren, bei dem ein Modell aus gelabelten Trainingsdaten eine Abbildung von Eingaben auf bekannte Zielwerte lernt.
Klassifikation (diskrete Klassen) und Regression (kontinuierliche Werte).
Was ist unüberwachtes Lernen und typischen Aufgaben gibt es dabei?
Ein Lernverfahren, bei dem aus ungelabelten Daten verborgene Strukturen oder Muster erkannt werden.
Clustering, Dimensionsreduktion und Anomalieerkennung.
Was ist bestärkendes Lernen?
Wodurch unterscheidet sich Reinforcement Learning von anderen Lernarten?
Ein Agent lernt durch Interaktion mit einer Umgebung eine Strategie, um langfristige Belohnung zu maximieren.
Durch verzögerte Belohnung, Exploration vs. Exploitation und sequenzielle Entscheidungsprozesse.
Was ist selbstüberwachtes Lernen und wofür wird es häufig eingesetzt?
Ein Spezialfall des unüberwachten Lernens, bei dem Labels automatisch aus den Daten selbst erzeugt werden.
Zum Vortraining großer Modelle, z. B. Sprach- oder Bildmodelle.
Wofür werden Convolutional Neural Networks (CNN) eingesetzt?
CNNs werden vor allem zur Verarbeitung gitterförmiger Daten wie Bilder eingesetzt und nutzen Faltungen zur automatischen Merkmalsextraktion.
Wofür eignen sich Recurrent Neural Networks (RNN)?
RNNs eignen sich zur Verarbeitung sequenzieller Daten (Erkennung von zeitliche Abhängigkeit und Muster in Daten, wie z.B. Sprache, Aktienkurse)
—> zentrales Merkmal: Recurrence
Was ist das zentrale Prinzip von Transformern?
Warum haben Transformer RNNs in vielen Bereichen abgelöst?
Transformer nutzen Self-Attention, um Beziehungen zwischen allen Elementen einer Sequenz parallel zu modellieren.
Durch parallele Berechnung, bessere Skalierung und effizienteres Erfassen langer Abhängigkeiten.
Was ist das Grundprinzip eines generativen Modells?
Ein generatives Modell lernt die Wahrscheinlichkeitsverteilung der Daten und kann neue, ähnliche Daten erzeugen.
Was ist ein Large Language Model (LLM)?
Ein sehr großes neuronales Sprachmodell
meist auf Basis der Transformer-Architektur
wird auf großen Textmengen trainiert, um Wahrscheinlichkeiten für Wort- bzw. Tokenfolgen zu modellieren
Wie erzeugt ein LLM Text?
Ein LLM berechnet iterativ die Wahrscheinlichkeitsverteilung für das nächste Token auf Basis des bisherigen Kontexts und wählt daraus eines aus
Welche Architektur liegt LLMs typischerweise zugrunde und warum wird diese gewählt?
Transformer-Architektur mit Self-Attention-Mechanismen erlaubt es Abhängigkeiten zwischen allen Token einer Sequenz parallel zu modellieren.
Welche grundlegenden Grenzen haben LLMs?
besitzen kein echtes Weltverständnis
können faktisch falsche Aussagen generieren
sind stark abhängig von Trainingsdaten und Promptformulierung
Was bezeichnet man als Halluzinationen bei LLMs?
Plausibel klingende, aber faktisch falsche oder frei erfundene Aussagen, die durch statistische Textgenerierung entstehen
Wie läuft eine Nutzerabfrage in einem LLM vom Texteingang bis zur Ausgabe ab?
Eine Nutzerabfrage wird zunächst tokenisiert und in Vektoren (Embeddings) überführt
Diese Embeddings werden durch mehrere Transformer-Schichten verarbeitet, bestehend aus
Self-Attention (Query/Key/Value)
Feedforward-Netzen (Up- und Down-Projection)
Residualverbindungen
Normalisierung
Am Ende berechnet das Modell Wahrscheinlichkeiten für das nächste Token und wählt ein Token aus
Dieser Prozess wird iterativ wiederholt, bis die Antwort vollständig generiert ist
Last changed5 days ago