Buffl

Masterprüfung

MD
by Marcel D.

 Beschreiben Sie die Begriffe DevOps, DataOps und MLOps und grenzen Sie sie

voneinander ab.

🔧 1. DevOps (Development & Operations)

📌 Definition:

DevOps ist ein Ansatz zur Automatisierung, Integration und Zusammenarbeit zwischen Softwareentwicklung (Development) und IT-Betrieb (Operations), um Software schneller, zuverlässiger und kontinuierlich bereitzustellen.

🎯 Ziele:

  • Schnellere Release-Zyklen

  • Automatisierung von CI/CD (Continuous Integration / Continuous Deployment)

  • Stabile, skalierbare und reproduzierbare Softwarebereitstellung

🔨 Typische Tools:

Git, Jenkins, Docker, Kubernetes, Terraform, Ansible, Prometheus


📊 2. DataOps (Data Operations)

📌 Definition:

DataOps ist ein organisationsweiter Ansatz zur automatisierten, zuverlässigen und skalierbaren Verwaltung von Datenpipelines, mit Fokus auf Datenqualität, Governance und Zusammenarbeit.

🎯 Ziele:

  • Schnelle, reproduzierbare Bereitstellung von Daten (z. B. für Analytics, BI, ML)

  • Automatisierung von Datenpipelines (ETL/ELT)

  • Versionskontrolle und Tests für Datenprozesse

  • Sicherstellung von Datenqualität und -sicherheit

🔨 Typische Tools:

Airflow, dbt, Great Expectations, Apache NiFi, Kafka, Snowflake, Delta Lake


🤖 3. MLOps (Machine Learning Operations)

📌 Definition:

MLOps ist die Anwendung von DevOps-Prinzipien auf Machine-Learning-Projekte. Es umfasst das Training, Deployment und Monitoring von ML-Modellen in produktiven Umgebungen.

🎯 Ziele:

  • Automatisiertes Training, Testing und Deployment von ML-Modellen

  • Versionierung von Daten, Modellen und Code

  • Monitoring der Modellleistung im Betrieb

  • Wiederholbarkeit und Nachvollziehbarkeit von Modellentwicklung

🔨 Typische Tools:

MLflow, Kubeflow, DVC, Tecton, Seldon, Vertex AI, SageMaker, BentoML

 Beschreiben Sie das im Bereich Cloud Computing oft angetroffene Konzept von

“Infrastructure-as-code“, seine Vor- und Nachteile und Anwendungsszenarien.

☁️ Infrastructure-as-Code (IaC)

Infrastructure-as-Code bedeutet, dass IT-Infrastruktur (wie Server, Netzwerke, Datenbanken) nicht manuell, sondern mittels Code definiert und verwaltet wird – oft in YAML, JSON oder deklarativen Sprachen wie Terraform, ARM, CloudFormation etc.

Die Infrastruktur wird dadurch automatisierbarreproduzierbar und versionierbar – ähnlich wie Softwarecode.


✅ Vorteile von IaC

  • Automatisierung: Manuelles Setup entfällt, weniger Fehler

  • Schnelle Wiederherstellung: Infrastruktur lässt sich identisch neu aufbauen (Disaster Recovery)

  • Versionierung & Nachvollziehbarkeit: Änderungen sind dokumentiert (z. B. via Git)

  • Skalierbarkeit: Ressourcen können dynamisch und konsistent erstellt oder angepasst werden

  • Teamarbeit: Infrastruktur kann gemeinsam entwickelt und überprüft werden (z. B. via Pull Requests)

❌ Nachteile von IaC

  • Komplexität bei großen Umgebungen oder Multi-Cloud-Szenarien

  • Einarbeitungsaufwand für neue Tools und Konzepte

  • Fehlkonfigurationen im Code können große Auswirkungen haben

  • Testbarkeit ist anspruchsvoll (z. B. „Was passiert wirklich beim Ausführen?“)

📌 Anwendungsszenarien

  • Automatisiertes Aufsetzen von Cloud-Umgebungen (z. B. für Entwicklung, Test, Produktion)

  • CI/CD-Pipelines, bei denen die Infrastruktur gemeinsam mit dem Code deployed wird

  • Disaster Recovery, z. B. schnelles Wiederherstellen einer Produktionsumgebung

  • Skalierung von Microservices oder Kubernetes-Cluster


Was besagt der AI Act und warum ist dieser für Data Scientists relevant? Wie lautet die Definition von KI im AI Act?

🧠 Was ist der AI Act?

Der EU AI Act (EU-Gesetz über Künstliche Intelligenz) ist die erste umfassende KI-Regulierung weltweit. Er wurde 2024 von der EU verabschiedet und soll Vertrauen, Sicherheit und Transparenz im Umgang mit KI-Systemen schaffen.

🎯 Ziel:

  • Risiken durch KI begrenzen

  • Innovation in der EU fördern

  • Rechte von Menschen schützen

⚖️ Warum ist der AI Act für Data Scientists relevant?

Data Scientists entwickeln, trainieren oder betreiben KI-Systeme – genau das regelt der AI Act. Wichtig ist:

  • Risikoklassifizierung: Der Act teilt KI-Systeme in vier Risikostufen ein:

  • Verbotene KI (z. B. Social Scoring wie in China)

  • Hochriskante KI (z. B. für Medizin, Justiz, Personalwesen)

  • Begrenztes Risiko (z. B. Chatbots – Kennzeichnungspflicht)

  • Minimales Risiko (z. B. Spamfilter)

  • Pflichten für Hochrisiko-KI:

  • Datenqualität sicherstellen

  • Transparente Dokumentation

  • Risikoanalyse & Monitoring

  • Menschliche Kontrolle ermöglichen

➡️ Data Scientists müssen prüfen, ob ihr System in eine Risikoklasse fällt – und ggf. gesetzliche Anforderungen erfüllen.


Definition KI (lt. AI Act):

Die Verordnung ist sachlich anwendbar auf „KI-Systeme“, deren Begriff sehr weit definiert ist.

Danach bezeichnet ein KI-System „Software, die mit einem oder mehreren der in einem Annex I zur Verordnung aufgeführten Techniken und Ansätze entwickelt wurde und für einen durch den Menschen vorgegebenen Satz an vordefinierten Zielen Ausgaben wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die Umgebungen beeinflussen, mit denen sie interagieren“.

Der Kommission wird die Befugnis eingeräumt, die Liste in Annex I

zukünftig zu ändern (Artikel 4).

Welche Standards und Normen? Erklären Sie warum diese notwendig sind anhand eines ISO Standards (zB. ISO 26262 - Road vehicles – Functional safety).

📏 Standards und Normen – warum sind sie notwendig?

Standards und Normen stellen sicher, dass Produkte, Prozesse oder Systeme sicherverlässlichkompatibel und qualitativ hochwertig sind. Sie dienen als gemeinsame Sprache für Unternehmen, Behörden und Entwickler – besonders in sicherheitskritischen Bereichen.


🛡️ Warum sind Standards wie ISO 26262 notwendig?

Standards wie ISO 26262 sind notwendig, um die funktionale Sicherheit von elektrischen und elektronischen Systemen (E/E-Systemen) in Serienfahrzeugen systematisch zu gewährleisten. Gerade in modernen Autos, die stark von Software und Sensorik abhängig sind (z. B. Fahrerassistenzsysteme), können Fehlfunktionen direkt zu Gefährdungen für Leben und Gesundheit führen.


📘 Was regelt ISO 26262 laut Abstract?

Der Abstract beschreibt ISO 26262 als Rahmenwerk für funktionale Sicherheit, das:

  • auf Sicherheitsrelevante E/E-Systeme in Serienfahrzeugen angewendet wird (außer z. B. bei Sonderfahrzeugen),

  • sich auf Gefahren durch Fehlverhalten technischer Systeme konzentriert (nicht z. B. auf Feuer oder elektrische Schläge, außer sie entstehen durch Fehlverhalten),

  • auch den Prozess der Systementwicklung umfasst – nicht nur das technische Produkt selbst,

  • die Integration funktionaler Sicherheit in bestehende Entwicklungsprozesse unterstützt,

  • und den Umgang mit bestehenden oder geänderten Systemen regelt (z. B. Nachrüstungen oder Re-Designs).

🎯 Relevanz der Norm (konkret):

Ein Unternehmen, das sicherheitsrelevante Elektronik im Auto entwickelt, muss durch ISO 26262:

  • mögliche Fehlfunktionen und ihre Folgen frühzeitig analysieren (Gefahrenanalyse),

  • klare technische und organisatorische Anforderungen erfüllen,

  • den gesamten Sicherheitslebenszyklus dokumentieren und nachvollziehbar machen,

  • und sicherstellen, dass auch Änderungen bestehender Systeme funktional sicher integriert werden.

✅ Fazit:

ISO 26262 ist notwendig, um sicherzustellen, dass sicherheitsrelevante elektronische Systeme in Fahrzeugen zuverlässig funktionieren und keine gefährlichen Fehlfunktionen verursachen. Der Standard hilft dabei, technische Sicherheit und Prozesse strukturiert abzusichern – das schützt nicht nur die Nutzer, sondern auch Unternehmen rechtlich und reputativ.

Was besagt die DSGVO und warum benötigt man einen Datenmanagementplan? Wie sieht ein Datenmanagementplan aus?

📜 Was besagt die DSGVO?

Die DSGVO (Datenschutz-Grundverordnung) ist eine EU-Verordnung, die seit Mai 2018 gilt. Sie regelt den Schutz personenbezogener Daten und gilt für alle Organisationen, die Daten von EU-Bürgern verarbeiten – unabhängig vom Standort.

🔑 Kernaussagen der DSGVO:

  • Recht auf Information, Zugriff und Löschung ("Recht auf Vergessenwerden")

  • Einwilligungspflicht bei Datenerhebung

  • Zweckbindung: Daten dürfen nur für den angegebenen Zweck genutzt werden

  • Datensicherheit: Technische und organisatorische Maßnahmen erforderlich

  • Rechenschaftspflicht: Nachweis der DSGVO-Konformität ist Pflicht

📂 Warum braucht man einen Datenmanagementplan (DMP)?

Ein Datenmanagementplan beschreibt, wie mit Daten im Rahmen eines Projekts umgegangen wird – von der Erhebung über Speicherung bis zur Archivierung oder Löschung.

Gründe für einen DMP:

  • Erfüllung von rechtlichen Anforderungen (z. B. DSGVO)

  • Transparenz und Nachvollziehbarkeit im Umgang mit sensiblen Daten

  • Sicherstellung von Datenqualität, Sicherheit und Zugriffskontrolle

  • Wichtig in Forschungsprojekten, z. B. bei EU- oder DFG-Förderung

📝 Wie sieht ein Datenmanagementplan aus? (Beispielstruktur)

Ein typischer DMP enthält:

  1. Beschreibung der Daten

  2. – Welche Daten werden erhoben? (z. B. Text, Bild, personenbezogen)

  3. Zweck der Datennutzung

  4. – Warum werden diese Daten verarbeitet?

  5. Rechtsgrundlage & Einwilligung

  6. – Auf welcher rechtlichen Basis erfolgt die Verarbeitung?

  7. Speicherung & Zugriff

  8. – Wo werden die Daten gespeichert? Wer hat Zugriff?

  9. Sicherheitsmaßnahmen

  10. – z. B. Verschlüsselung, Zugriffskontrollen

  11. Weitergabe an Dritte

  12. – Werden Daten an externe Partner übermittelt?

  13. Aufbewahrungsdauer & Löschung

  14. – Wie lange werden Daten gespeichert, und wie werden sie gelöscht?

  15. Archivierung / Nachnutzung (v. a. in der Forschung)

  16. – Können Daten später weiterverwendet werden?


Nennen und beschreiben Sie die 6 Dimensionen von Trustworthiness. Wie garantiert man Trustworthiness über den ganzen Lifecycle einer KI Applikation?

✅ Die 6 Dimensionen von Trustworthiness bei KI

  1. Rechtmäßigkeit (Lawfulness)→ Die KI muss geltende Gesetze und Vorschriften (z. B. DSGVO, AI Act) einhalten.Beispiel: Datenschutzkonforme Datenerhebung und -verarbeitung.

  2. Ethik (Ethics)→ Die KI muss mit ethischen Grundwerten wie Menschenwürde, Autonomie und Fairness im Einklang stehen.Beispiel: Kein diskriminierendes Verhalten bei Entscheidungen.

  3. Robustheit und Sicherheit (Technical Robustness & Safety)→ Die KI muss technisch zuverlässig, fehlertolerant und gegen Angriffe abgesichert sein.Beispiel: Tests auf fehlerhafte Vorhersagen oder adversarial attacks.

  4. Transparenz→ Entscheidungen der KI sollen nachvollziehbar, erklärbar und dokumentiert sein.Beispiel: Einsatz von erklärbarer KI (XAI), verständliche Modelle und Logs.

  5. Datenschutz und Daten-Governance→ Daten müssen sicher, kontrolliert und im Einklang mit Datenschutzregeln verarbeitet werden.Beispiel: Pseudonymisierung, Zugriffskontrollen, Datenminimierung.

  6. Rechenschaftspflicht (Accountability)→ Es muss klar sein, wer für welche Entscheidungen und Funktionen der KI verantwortlich ist.Beispiel: Rollen- und Verantwortlichkeitsdefinition im Entwicklungsteam.

🔁 Wie garantiert man Trustworthiness über den gesamten KI-Lifecycle?

  1. Planung & Konzeption

  • Risikoanalyse (z. B. Risiko durch Bias oder Fehler)

  • Auswahl geeigneter Datenquellen

  • Festlegung ethischer Leitlinien

  1. Datenmanagement

  • DSGVO-konforme Datenverarbeitung

  • Qualitätssicherung und Daten-Governance

  • Dokumentation der Datenherkunft

  1. Modellentwicklung

  • Einsatz fairer, erklärbarer Algorithmen

  • Validierung und Testen auf Bias & Robustheit

  • Dokumentation von Annahmen und Trainingsdaten

  1. Deployment (Bereitstellung)

  • Zugriffskontrollen und Monitoring

  • Technische Absicherung (z. B. gegen Manipulation)

  1. Nutzung & Monitoring

  • Logging von Entscheidungen

  • Performance-Überwachung und Fehlermeldung

  • Feedback-Mechanismen für Benutzer

  1. Wartung & Weiterentwicklung

  • Regelmäßige Updates und Re-Evaluation

  • Anpassung an neue rechtliche Anforderungen

  • Offenlegung von Änderungen


Welche Metriken gibt es zur Evaluierung von Machine Learning? Beschreiben Sie diese.

Zur Evaluierung von Machine-Learning-Modellen gibt es je nach Aufgabentyp (Klassifikation, Regression, Clustering etc.) verschiedene Metriken. Hier sind die wichtigsten:


🔍 1. Klassifikation (z. B. Spam vs. Nicht-Spam)

🔹 Accuracy (Genauigkeit)

Anteil korrekt klassifizierter Beispiele:

Accuracy = (TP + TN) / (TP + TN + FP + FN)

⚠️ Achtung bei unausgewogenen Klassen! (z. B. 95 % „Nicht-Spam“ → hohe Accuracy trotz schlechtem Modell)

🔹 Precision (Positiver Vorhersagewert)

Wie viele der als „positiv“ klassifizierten Beispiele sind wirklich positiv?

Precision = TP / (TP + FP)

🔹 Recall (Sensitivität, Trefferquote)

Wie viele der tatsächlich positiven Beispiele wurden erkannt?

Recall = TP / (TP + FN)

🔹 F1-Score

Harmonisches Mittel aus Precision und Recall – nützlich bei Klassifizierungsproblemen mit unausgewogenen Klassen.

F1 = 2 × (Precision × Recall) / (Precision + Recall)

🔹 AUC-ROC (Area Under Curve – Receiver Operating Characteristic)

Bewertet die Trennschärfe eines Modells unabhängig vom Schwellenwert – je näher an 1, desto besser.


📈 2. Regression (z. B. Hauspreisvorhersage)

🔹 MSE (Mean Squared Error)

Durchschnittlicher quadrierter Fehler – bestraft große Fehler stärker:

MSE = (1/n) × Σ(yᵢ – ŷᵢ)²

🔹 RMSE (Root Mean Squared Error)

Wurzel des MSE – wieder auf Originaleinheit skaliert (z. B. Euro):

RMSE = √MSE

🔹 MAE (Mean Absolute Error)

Durchschnittlicher absoluter Fehler – robuster gegen Ausreißer als MSE:

MAE = (1/n) × Σ|yᵢ – ŷᵢ|

🔹 R² (Bestimmtheitsmaß)

Erklärt, wie viel Varianz im Zielwert durch das Modell erklärt wird.

R² = 1 – (Residuenvarianz / Gesamtvarianz)

Werte zwischen 0 und 1 (bzw. auch < 0 bei schlechten Modellen)

🧩 3. Clustering (z. B. Kundensegmentierung)

🔹 Silhouette Score

Misst, wie gut ein Punkt zu seinem Cluster passt im Vergleich zu anderen Clustern.

Werte zwischen –1 (falsch zugeordnet) und 1 (gut zugeordnet).

Welche Deep Learning Architekturen haben Sie kennengelernt? Beschreiben Sie diese.

🔹 1. Feedforward Neural Networks (FNN / MLP)

  • Einfachste Form neuronaler Netze

  • Daten fließen nur vorwärts, ohne Schleifen

  • Bestehen aus Input-, Hidden- und Output-Schichten

  • Eingesetzt für einfache Klassifikation und Regression

  • ➡️ Grundlage aller anderen Architekturen

🔹 2. Convolutional Neural Networks (CNN)

  • Speziell für bildbasierte Daten

  • Nutzen Faltungsschichten (Convolutions) zur automatischen Merkmalsextraktion

  • Vorteil: Erkennen lokal bedeutender Muster wie Kanten, Formen etc.

  • ➡️ Anwendungen: Bilderkennung, Objekterkennung, medizinische Bildanalyse

🔹 3. Recurrent Neural Networks (RNN)

  • Entwickelt für sequenzielle Daten (z. B. Text, Sprache, Zeitreihen)

  • Verwenden Schleifen, um Informationen aus früheren Zeitschritten zu behalten

  • Problem: Vanishing Gradient bei langen Sequenzen

🔹 4. Long Short-Term Memory (LSTM) / GRU (Gated Recurrent Unit)

  • Erweiterung von RNNs mit Gedächtnismechanismus

  • Können langfristige Abhängigkeiten speichern und verarbeiten

  • ➡️ Anwendungen: Maschinelle Übersetzung, Sprachmodellierung, Zeitreihenanalyse

🔹 5. Autoencoder

  • Netzwerk zur Datenkompression und -rekonstruktion

  • Besteht aus Encoder (verdichtet Daten) und Decoder (stellt sie wieder her)

  • Wird unüberwacht trainiert

  • ➡️ Anwendungen: Anomalieerkennung, Merkmalsextraktion, Bildrauschen entfernen

🔹 6. Generative Adversarial Networks (GANs)

  • Bestehen aus zwei Netzen: Generator und Discriminator

  • Generator erzeugt Daten, Discriminator prüft, ob sie real oder künstlich sind

  • Trainieren sich im „Wettkampf“ gegenseitig

  • ➡️ Anwendungen: Bilderzeugung, Deepfakes, Datenaugmentation

🔹 7. Transformer

  • Architekturen mit Self-Attention, ursprünglich für NLP

  • Kein rekursives oder sequentielles Rechnen wie bei RNNs

  • Sehr leistungsfähig bei großen Sprachmodellen (z. B. GPT, BERT)

  • ➡️ Anwendungen: Übersetzung, Textverständnis, Chatbots, neuerdings auch Bilder

✅ Fazit:

Du wählst die Architektur je nach Datenart und Aufgabe:

  • CNNs für Bilder

  • RNNs / LSTM / GRU für Sequenzen

  • Transformer für Sprache (und zunehmend andere Bereiche)

  • Autoencoder / GANs für Generierung und Kompression

  • MLPs für einfache Aufgaben und als Basistechnologie


Was versteht man unter Fairness im Bereich der KI. Nennen und beschreiben Sie unterschiedliche Arten von Bias.

Fairness in der KI bedeutet, dass KI-Systeme keine systematische Benachteiligung oder Bevorzugung bestimmter Gruppen oder Individuen verursachen – etwa basierend auf Geschlecht, Herkunft, Alter oder anderen sensiblen Merkmalen.

Ziel ist es, diskriminierungsfreie, gerechte und nachvollziehbare Entscheidungen durch KI-Modelle zu ermöglichen – besonders in sensiblen Bereichen wie Bewerbungsverfahren, Kreditvergabe, Strafverfolgung oder Medizin.


📉 Arten von Bias in KI-Systemen

🔹 1. Data Bias (Datenbias)

Entsteht durch unausgewogene oder unvollständige Trainingsdaten.

Beispiel: Wenn ein Gesichtserkennungssystem überwiegend mit Bildern weißer Männer trainiert wurde, erkennt es andere Gruppen schlechter.

🔹 2. Label Bias

Tritt auf, wenn die Zuordnung der Zielwerte (Labels) fehlerhaft, verzerrt oder subjektiv ist.

Beispiel: In Polizeidaten könnten Verhaftungen häufiger dokumentiert sein für bestimmte Bevölkerungsgruppen – nicht unbedingt objektiv gerechtfertigt.

🔹 3. Measurement Bias (Messfehler)

Entsteht, wenn die Messmethoden selbst verzerrt sind oder für alle Gruppen unterschiedlich wirken.

Beispiel: Ein Online-Test für Intelligenz könnte kultur- oder sprachspezifisch sein.

🔹 4. Selection Bias (Stichprobenverzerrung)

Tritt auf, wenn die Trainingsdaten nicht repräsentativ für die Realität sind.

Beispiel: Ein KI-Modell für Kredite wurde nur mit Daten von Großstädten trainiert – Landbewohner werden schlechter beurteilt.

🔹 5. Algorithmic Bias

Ein Bias, der durch Modellstruktur oder Lernmethoden entsteht – auch wenn die Daten korrekt sind.

Beispiel: Ein Modell minimiert nur den Gesamtfehler und bevorzugt damit automatisch die Mehrheit.

🔹 6. Societal Bias

Reflektiert gesellschaftliche Vorurteile, die in Daten oder Modellen unkritisch übernommen werden.

Beispiel: Ein Sprachmodell reproduziert stereotype Aussagen über Geschlechterrollen.

✅ Fazit:

Fairness in KI bedeutet, systematische Ungleichbehandlung zu erkennen und zu vermeiden.

Bias kann auf vielen Ebenen entstehen – im Datensatzbei der Modellierung oder durch gesellschaftliche Einflüsse– und muss durch sorgfältige Analyse, Tests und Transparenzmaßnahmen aktiv adressiert werden.

Welche Mitigating Bias Methoden haben Sie kennengelernt? Beschreiben Sie diese.

Hier ist eine Übersicht über wichtige Methoden zur Bias-Minderung (Mitigating Bias) in KI-Systemen – sortiert nach dem Zeitpunkt, an dem sie im Machine-Learning-Prozess angewendet werden können:


🛠️ 1. Preprocessing-Methoden (vor dem Training)

Diese Methoden verändern oder verbessern die Trainingsdaten, um Fairness zu fördern.

🔹 Rebalancing / Resampling

  • Über- oder Unterrepräsentierte Gruppen werden ausgeglichen (z. B. durch Oversampling, SMOTE).

  • Ziel: Gleichverteilung der Klassen bzw. Gruppen.

🔹 Fairness-aware Data Transformation

  • Anpassung sensibler Merkmale (z. B. Alter, Geschlecht), um Korrelation mit dem Zielwert zu reduzieren.

  • Beispiel: „Disparate Impact Remover“

🔹 Data Augmentation

  • Erzeugen zusätzlicher Datenpunkte für unterrepräsentierte Gruppen.

  • Z. B. synthetische Bilder für benachteiligte Ethnien bei Gesichtserkennung.

🧠 2. In-processing-Methoden (während des Modelltrainings)

Diese Methoden verändern das Lernverfahren oder die Ziel-Funktion, um Fairness zu fördern.

🔹 Fairness Constraints im Lernalgorithmus

  • Zusätzliche Nebenbedingungen im Optimierungsziel, z. B.:

  • „Gleich hohe False Positive Rate für alle Gruppen“.

🔹 Adversarial Debiasing

  • Es wird ein zweites Modell (Adversary) trainiert, das versucht, sensible Merkmale zu erraten.

  • Das Hauptmodell wird so optimiert, dass diese Merkmale nicht vorhersagbar sind → weniger Bias.

📊 3. Postprocessing-Methoden (nach dem Modelltraining)

Diese Methoden verändern die Ausgaben des Modells, ohne das Modell selbst zu ändern.

🔹 Threshold Adjustment

  • Setzen von unterschiedlichen Schwellenwerten für verschiedene Gruppen, um faire Ergebnisse zu erzielen.

  • Z. B. gleiche True Positive Rate für Männer und Frauen.

🔹 Equalized Odds Postprocessing

  • Ziel: Modell so anpassen, dass es gleiche Fehlerquoten (False Positive/Negative) für alle Gruppen hat.

🔹 Reject Option Classification

  • Wenn das Modell unsicher ist, wird bei sensiblen Gruppen zugunsten der Fairness angepasst.


Was versteht man unter Erklärbarkeit und Transparenz im Bereich Machine Learning. Wie kann man diese beiden Konzepte umsetzen?

Erklärbarkeit (Explainability) und Transparenz (Transparency) sind zentrale Konzepte im Bereich verantwortungsvoller KI – insbesondere bei komplexen oder sicherheitskritischen Anwendungen wie Medizin, Finanzen oder Justiz.


🧠 Was bedeutet Erklärbarkeit?

Erklärbarkeit bezeichnet die Fähigkeit eines KI-Modells, nachvollziehbar zu machenwarum es eine bestimmte Entscheidung getroffen hat.

Beispiel: Warum wurde einem Kunden kein Kredit gewährt?

🔍 Was bedeutet Transparenz?

Transparenz bezieht sich auf die Offenlegung der Struktur, Daten und Prozesse eines Modells – also wie es aufgebaut istwie es trainiert wurde und welche Annahmen gemacht wurden.

Beispiel: Welche Merkmale wurden im Modell verwendet? Wurde das Modell fair trainiert?

🔧 Wie kann man Erklärbarkeit und Transparenz umsetzen?

1. Modellwahl

  • Einfache, intrinsisch erklärbare Modelle verwenden, z. B.:

  • Entscheidungsbäume

  • Lineare Regression

  • Regelbasierte Systeme

2. Post-hoc-Erklärungen (bei komplexen Modellen wie Deep Learning)

  • LIME (Local Interpretable Model-agnostic Explanations):

  • Erklärt lokal, welche Merkmale zur Entscheidung beigetragen haben.

  • SHAP (SHapley Additive exPlanations):

  • Berechnet den Beitrag jedes Merkmals zur Vorhersage – fair und mathematisch fundiert.

  • Feature Importance:

  • Zeigt, welche Eingabegrößen das Modell am stärksten beeinflussen.

3. Visualisierung

  • Entscheidungspfade (bei Entscheidungsbäumen)

  • Heatmaps (z. B. Grad-CAM bei Bildklassifikation)

  • Diagramme zur Modellstruktur und Datenflüssen

4. Dokumentation & Modellkarten

  • Modellkarten (Model Cards for Model Reporting):

  • Zusammenfassungen mit Infos zu Training, Datenquellen, Einsatzgrenzen, Fairness und Performance.

  • Offenlegung von Trainingsdaten, Vorverarbeitung, verwendeten Algorithmen


Auf was muss man achten, um KI-Applikationen sicher zu entwickeln? Welche Standards haben Sie in diesem Bereich kennengelernt?

1. Datensicherheit und Datenschutz

  • DSGVO/GDPR-Konformität sicherstellen: Personenbezogene Daten müssen geschützt, minimiert und zweckgebunden verarbeitet werden.

  • Anonymisierung & Pseudonymisierung von Trainingsdaten.

  • Sicherer Datenzugriff und -speicherung, inkl. Verschlüsselung und Zugriffskontrollen.

2. Modellsicherheit

  • Schutz vor Adversarial Attacks (gezielte Manipulation von Eingabedaten).

  • Erkennung und Begrenzung von Model Inversion oder Membership Inference Attacks.

  • Einsatz von Differential Privacy oder Federated Learning, wo möglich.

3. Transparenz und Erklärbarkeit

  • Einsatz von Explainable AI (XAI)-Techniken, um Entscheidungen nachvollziehbar zu machen (z. B. LIME, SHAP).

  • Dokumentation der Modellarchitektur, Datenquellen und Trainingsprozesse (z. B. Model Cards, Data Sheets for Datasets).

4. Bias, Fairness und Ethik

  • Vermeidung diskriminierender Entscheidungen durch Bias-Audits.

  • Regelmäßige Fairness-Analysen in verschiedenen Nutzergruppen.

  • Berücksichtigung ethischer Richtlinien (z. B. „Ethics Guidelines for Trustworthy AI“ der EU).

5. Monitoring und Auditierbarkeit

  • Kontinuierliches Monitoring der Modellperformance und -sicherheit im Betrieb.

  • Versionierung von Modellen und automatisierte Re-Trains mit dokumentierter Nachvollziehbarkeit.

6. Robuste Entwicklungsprozesse

  • Einsatz sicherer Softwareentwicklungspraktiken (z. B. OWASP Secure SDLC).

  • Automatisierte Tests, CI/CD-Pipelines, Security-Scans (Code, Daten, Modelle).

  • Einsatz von Threat Modeling speziell für KI (z. B. STRIDE angepasst für ML).


Standards und Richtlinien:


  • ISO 26262

  • EU-AI-Akt: Gesetzliche Vorgaben für Hochrisiko-KI-Systeme, inkl. Sicherheits-, Transparenz- und Robustheitsanforderungen.

  • DSGVO


Beschreiben Sie die AI Threat Taxonomy nach ENISA. Welche möglichen Attacken auf KI- Systeme haben Sie kennengelernt. Beschreiben Sie diese.

Die AI Threat Taxonomy der ENISA (European Union Agency for Cybersecurity) beschreibt Bedrohungen für KI-Systeme entlang des gesamten Lebenszyklus – von der Datenbeschaffung über das Training bis hin zum produktiven Betrieb. Sie unterscheidet dabei zwischen klassischen IT-Bedrohungen (wie Datenlecks oder unzureichende Zugriffskontrollen) und spezifischen Angriffen, die sich gezielt gegen KI-Modelle richten.


In der Phase der Datenbeschaffung kann es zu sogenannten Data Poisoning-Angriffen kommen. Dabei schleusen Angreifer manipulierte oder falsche Daten in den Trainingsdatensatz ein, mit dem Ziel, das Verhalten des Modells gezielt zu verzerren. Eine andere Bedrohung ist der Datenabfluss (Data Leakage), bei dem sensible Informationen aus Trainingsdaten ungewollt ins Modell übernommen werden.

Während des Trainings kann es zu Backdoor-Angriffen kommen. Dabei wird das Modell mit bestimmten Mustern trainiert, die es später – etwa durch ein spezielles Symbol im Bild – zu einer falschen Entscheidung verleiten. Auch Model Stealing fällt in diese Phase: Ein Angreifer versucht, über gezielte API-Abfragen ein Modell nachzubilden und so geistiges Eigentum zu stehlen.


In der Test- und Validierungsphase sind insbesondere unzureichende Prüfungen auf Robustheit und Fairness ein Risiko. Angreifer könnten gezielt Lücken im Testspektrum ausnutzen, um Fehlverhalten im realen Betrieb zu provozieren.


Im Deployment, also im produktiven Einsatz, drohen sogenannte Adversarial Attacks. Dabei werden Eingaben minimal manipuliert – etwa bei Bildern, Texten oder Sprache – sodass das Modell bewusst falsche Ausgaben produziert, obwohl die Veränderung für Menschen kaum wahrnehmbar ist. Ein klassisches Beispiel: Ein leicht verändertes Bild eines Stoppschilds wird als Geschwindigkeitsbegrenzung erkannt.

Weitere bekannte Angriffsformen in dieser Phase sind Model Inversion und Membership Inference. Bei Model Inversion versuchen Angreifer, aus den Antworten des Modells Rückschlüsse auf die Trainingsdaten zu ziehen – etwa auf ein Gesichtsbild. Membership Inference zielt darauf ab zu erkennen, ob bestimmte Daten (z. B. Patientendaten) Teil des Trainingsdatensatzes waren, was eine Datenschutzverletzung darstellen kann.


Auch im laufenden Betrieb sind KI-Modelle anfällig. Etwa durch Model Drift Exploits, bei denen Veränderungen im Umfeld oder in der Datenlage bewusst genutzt werden, um die Modellleistung zu verschlechtern. In komplexeren Szenarien werden sogar Shadow Models erstellt – heimliche Parallelmodelle, die legitime Entscheidungen beeinflussen oder überwachen können.


Insgesamt zeigt die ENISA-Taxonomie, dass KI-Systeme neue Angriffsflächen bieten, die über klassische IT-Risiken hinausgehen. Besonders kritisch ist, dass viele dieser Angriffe schwer zu erkennen sind und nicht mit herkömmlichen Sicherheitsmechanismen abgefangen werden können. Daher ist es essenziell, KI-spezifische Schutzmaßnahmen zu integrieren – etwa adversarial training, explainability, Datenschutzmechanismen wie Differential Privacy oder Monitoring auf Abweichungen im Modellverhalten.

Was versteht man unter Human-Centered AI und was sind die Herausforderungen dabei? Beschreiben Sie diese.





Merkmale: Benutzerzentrierung, Transparenz und Erklärbarkeit, Verantwortlichkeit, Partizipation.


Herausforderungen bei der Umsetzung von Human-Centered AI

Die Umsetzung dieses Konzepts ist komplex und mit zahlreichen Herausforderungen verbunden:


1. Erklärbarkeit vs. Modellkomplexität

Moderne KI-Modelle wie Deep Learning oder Transformer-Modelle sind extrem leistungsfähig, aber oft nicht verständlich. Es ist schwierig, ihre Entscheidungen transparent und nachvollziehbar zu machen, ohne ihre Genauigkeit zu beeinträchtigen. Explainable AI (XAI) steckt noch in den Kinderschuhen und liefert oft nur approximative Erklärungen.


2. Fairness und Bias

KI-Modelle übernehmen häufig Vorurteile aus Trainingsdaten, die gesellschaftliche Ungleichheiten widerspiegeln. Diese Verzerrungen aufzudecken und zu korrigieren ist technisch und ethisch anspruchsvoll. Gleichzeitig kann es Zielkonflikte geben: Was als "fair" gilt, hängt vom gesellschaftlichen Kontext ab.


3. Nutzervertrauen und Kontrolle

Viele Menschen vertrauen KI-Systemen entweder zu wenig (Skepsis) oder zu viel (blinder Gehorsam). Eine Herausforderung ist, genau die richtige Balance zu finden: Die Systeme müssen vertrauenswürdig sein, aber der Mensch soll die letzte Entscheidungsinstanz bleiben.


4. Gestaltung intuitiver Mensch-Maschine-Interaktion

Damit KI-Systeme wirklich menschenzentriert sind, müssen sie für verschiedene Zielgruppen zugänglich sein – unabhängig von Bildung, Sprache oder Technikverständnis. Die Gestaltung intuitiver, barrierefreier Benutzeroberflächen ist jedoch oft vernachlässigt.


5. Verantwortung und Haftung

Wer ist verantwortlich, wenn ein KI-System eine falsche Entscheidung trifft? Der Entwickler? Der Nutzer? Der Betreiber? Die Klärung dieser Fragen ist nicht nur rechtlich schwierig, sondern auch entscheidend für das Vertrauen in KI.


6. Datenschutz und ethische Grenzen

HCAI erfordert oft eine hohe Personalisierung, was in Konflikt mit dem Datenschutz stehen kann. Die Herausforderung liegt darin, individuelle Unterstützung zu ermöglichen, ohne private Daten auszubeuten.

Erklären Sie Active Learning.

Active Learning ist eine Methode im maschinellen Lernen, bei der ein Lernalgorithmus gezielt entscheidet, welche Daten er als Nächstes lernen möchte, um seine Leistung mit möglichst wenig gelabelten Daten zu maximieren. Das Ziel ist es, die Effizienz des Trainings zu steigern, insbesondere in Fällen, in denen das Labeln von Daten teuer oder zeitaufwendig ist (z. B. in der Medizin, bei Bild- oder Textklassifikation).


Wie funktioniert Active Learning?

Beim klassischen supervised learning wird das Modell mit einer großen Menge bereits gelabelter Daten trainiert. Beim Active Learning hingegen:

  1. Startet man mit einem kleinen, gelabelten Datensatz.

  2. Das Modell wird damit vorläufig trainiert.

  3. Anschließend entscheidet das Modell selbstständig, welche unlabeled Daten besonders informativ wären, um seine Leistung zu verbessern.

  4. Diese "informativen" Daten werden dann von einem menschlichen Experten gelabelt.

  5. Das Modell wird mit den neu gelabelten Daten erneut trainiert.

  6. Der Zyklus wiederholt sich.


Auswahlstrategien (Query Strategies)

Es gibt verschiedene Methoden, mit denen das Modell entscheidet, welche Daten am wertvollsten sind:

  • Uncertainty Sampling: Das Modell wählt die Datenpunkte aus, bei denen es sich am unsichersten ist (z. B. bei einer Klassifikation, wo die Wahrscheinlichkeit fast 50/50 ist).

  • Diversity Sampling: Es werden möglichst unterschiedliche, repräsentative Datenpunkte ausgewählt.


Vorteile von Active Learning

  • Spart Kosten und Zeit beim Labeln.

  • Bessere Leistung mit weniger gelabelten Beispielen.

  • Besonders nützlich bei großen Mengen unlabeled Data und wenigen Expert:innen.


Herausforderungen

  • Kann fehleranfällig sein, wenn das Modell anfangs schlechte Schätzungen macht.

  • Der Aufbau einer aktiven Lernpipeline ist komplexer als beim klassischen Training.

  • Braucht oft enge Zusammenarbeit mit menschlichen Annotatoren.


Erklären Sie Semi-Supervised Learning.

Semi-Supervised Learning (SSL) ist eine Methode des maschinellen Lernens, bei der ein Modell mit einer kleinen Menge gelabelter Daten und einer großen Menge unbeschrifteter Daten trainiert wird. Ziel ist es, die unbeschrifteten Daten sinnvoll zu nutzen, um die Lernleistung des Modells zu verbessern – insbesondere dann, wenn das Labeln teuer, aufwendig oder zeitlich begrenzt ist.


Wie funktioniert Semi-Supervised Learning?


Im Gegensatz zu Supervised Learning, das ausschließlich gelabelte Daten nutzt, oder Unsupervised Learning, das völlig ohne Labels auskommt, kombiniert Semi-Supervised Learning beides. Die Grundidee:

Ein Modell lernt Strukturen und Muster aus den unbeschrifteten Daten und nutzt die gelabelten Daten, um diese Muster mit konkreten Ausgaben (Klassenzuordnungen etc.) zu verknüpfen.

Beispiel: In einem Datensatz mit 10.000 Bildern von Tieren sind nur 500 Bilder korrekt mit Labels versehen (z. B. „Hund“, „Katze“, „Pferd“). Semi-Supervised Learning nutzt diese 500 Labels und die verbleibenden 9.500 unbeschrifteten Bilder, um ein leistungsfähiges Klassifikationsmodell zu trainieren.


Typische Methoden


Self-Training

Das Modell wird zunächst auf den gelabelten Daten trainiert. Anschließend wird es auf die unbeschrifteten Daten angewendet, um Pseudolabels (also Vorhersagen) zu erzeugen. Nur die sichersten Vorhersagen werden dem Trainingsdatensatz wieder hinzugefügt.


Consistency Regularization

Hierbei wird das Modell dazu gebracht, robust gegenüber Störungen (z. B. Bildrauschen, Textveränderung) zu sein. Die Idee: Wenn ein unbeschrifteter Datensatz leicht verändert wird, sollte die Vorhersage des Modells trotzdem gleich bleiben.


Graph-Based Learning

Datenpunkte werden als Knoten in einem Graphen dargestellt, und ähnliche Punkte werden verbunden. Die Labels „propagieren“ dann durch den Graphen – basierend auf Ähnlichkeiten zwischen gelabelten und unlabelten Punkten.


Vorteile

  • Weniger gelabelte Daten notwendig, was Ressourcen spart.

  • Nutzt die große Menge an unbeschrifteten Daten, die in der Praxis oft leicht verfügbar ist.

  • Kann die Generalisierung des Modells verbessern, weil es mehr über die Datenverteilung lernt.


Herausforderungen

  • Fehlerhafte Pseudolabels können sich negativ auf das Modell auswirken.

  • Die Methode ist empfindlich gegenüber Datenrauschen und unbalancierten Klassen.

  • Erfordert sorgfältiges Design, z. B. welche unbeschrifteten Beispiele einbezogen werden.


Erklären Sie Efficient Supervised Learning.

Efficient Supervised Learning (effizientes überwachtes Lernen) bezeichnet Ansätze, bei denen klassische Supervised-Learning-Modelle so gestaltet oder trainiert werden, dass sie mit weniger Ressourcen – insbesondere weniger gelabelten Daten, Rechenleistung oder Trainingszeit – dennoch eine hohe Leistung erzielen. Ziel ist es, die Effizienz im gesamten Lernprozess zu erhöhen, ohne signifikante Einbußen bei der Modellqualität hinzunehmen.


Was macht Efficient Supervised Learning aus?

Der Begriff ist nicht einheitlich definiert, wird aber oft in folgenden Kontexten verwendet:


Dateneffizienz

Modelle lernen aus wenigen, aber besonders informativen Beispielen. Dadurch sinkt der Bedarf an teuren, umfangreichen Labels.


Recheneffizienz

Das Training und die Inferenz werden durch kleinere Modelle, Sparsity oder Komprimierung beschleunigt – oft relevant für Edge-Devices oder Echtzeitanwendungen.


Speichereffizienz

Reduzierung des Speicherbedarfs für Modellparameter und Trainingsdaten.


Typische Methoden für Efficient Supervised Learning


Pretraining + Fine-Tuning

Ein Modell wird auf großen allgemeinen Daten (z. B. Sprachdaten, Bilder) vortrainiert und dann mit wenigen gelabelten Beispielen für eine spezifische Aufgabe feinjustiert.


Transfer Learning

Wissen aus einer Quelle (z. B. ein Modell für medizinische Bilder) wird auf eine andere, ähnliche Aufgabe übertragen – oft mit weniger neuen Daten.


Few-Shot Learning & Zero Shot Learning

Das Modell lernt, mit nur wenigen Beispielen pro Klasse generalisierbare Konzepte zu erfassen.


Data Augmentation

Künstliches Erzeugen zusätzlicher Trainingsdaten durch Transformationen, z. B. bei Bildern (Drehung, Helligkeit) oder Text (Synonymaustausch).


Model Compression

Reduktion von Modellgröße durch PruningQuantisierung oder Knowledge Distillation, um kleinere, schnellere Modelle zu erzeugen.


Curriculum Learning

Das Modell lernt zuerst einfache Beispiele und steigert dann die Schwierigkeit – ähnlich wie Menschen lernen.


Vorteile

  • Reduzierter Bedarf an gelabelten Daten.

  • Geringere Kosten für Training und Infrastruktur.

  • Schnellere Entwicklungszyklen – besonders nützlich für Start-ups oder Forschung.


Herausforderungen

  • Gefahr von Overfitting bei zu kleinen Datensätzen.

  • Nicht jede Methode funktioniert in jeder Domäne gleich gut.

  • Komplexere Trainingsstrategien können zusätzlichen Entwicklungsaufwand bedeuten.


Was versteht man unter einer Human-Agent Explainability Architecture und wofür benötigt man diese?

Eine Human-Agent Explainability Architecture ist ein konzeptioneller oder technischer Rahmen, der sicherstellt, dass künstliche Agenten (z. B. KI-Systeme, autonome Systeme, Entscheidungsalgorithmen) ihre Entscheidungen und Handlungen verständlich, nachvollziehbar und erklärbar für Menschen machen können. Ziel ist es, eine sinnvolle Interaktion und Kooperation zwischen Mensch und KI zu ermöglichen – insbesondere in sicherheitskritischen oder komplexen Anwendungen.


Was versteht man genau darunter?

Der Begriff bezeichnet eine Architektur oder Struktur, die die Erklärungskomponente eines KI-Systems integriert. Dabei wird berücksichtigt:

  • Was erklärt werden soll (z. B. Entscheidung, Unsicherheit, Absicht).

  • Wem es erklärt werden soll (z. B. Nutzer, Entwickler, Regulierer).

  • Wie es erklärt werden soll (z. B. visuell, verbal, interaktiv).

  • Wann die Erklärung erforderlich ist (z. B. vor einer Aktion, nach einem Fehler, auf Anfrage).

Sie ist damit eine Schnittstelle zwischen dem inneren Zustand des KI-Systems und der menschlichen Wahrnehmung.


Wofür wird eine solche Architektur benötigt?


Vertrauensaufbau

Menschen sind eher bereit, mit KI-Systemen zusammenzuarbeiten, wenn sie deren Entscheidungen verstehen und ihnen vertrauen können.


Transparenz und Verantwortung

In regulierten Bereichen wie Medizin, autonomem Fahren oder Justiz müssen Entscheidungen nachvollziehbar und überprüfbar sein – auch rechtlich.


Fehlerdiagnose und Debugging

Entwickler benötigen verständliche Einsichten in das Verhalten der KI, um sie zu verbessern oder unerwünschte Effekte zu beseitigen.


Nutzerunterstützung bei Entscheidungsfindung

In Systemen mit Mensch-in-der-Schleife (z. B. medizinische Assistenzsysteme) helfen erklärbare Agenten, bessere gemeinsame Entscheidungen zu treffen.


Akzeptanz in der Gesellschaft

Eine erklärbare KI reduziert Ängste vor „Black-Box-Systemen“ und ermöglicht informierte Diskussionen über deren Einsatz.


Herausforderungen bei der Umsetzung

  • Komplexität der Modelle: Viele moderne KI-Modelle (z. B. Deep Learning) sind schwer zu interpretieren.

  • Zielgruppenangepasste Erklärungen: Entwickler brauchen andere Erklärungen als Endnutzer.

  • Trade-off zwischen Genauigkeit und Verständlichkeit: Einfachere Modelle sind oft besser erklärbar, aber weniger leistungsfähig.

  • Zeitliche Anforderungen: In Echtzeitsystemen muss die Erklärung schnell und prägnant sein.


„Wer braucht eigentlich diese Silberscheibe?" Jan Timmer (1982), Vorstand Philips - bitte stellen Sie folgende Aussage in Hinblick auf Innovation und Innovationsmanagement dar.

Die Aussage von Jan Timmer, damaliger Vorstand von Philips – „Wer braucht eigentlich diese Silberscheibe?“ (1982) – bezieht sich auf die Einführung der Compact Disc (CD), die damals als technologische Innovation neu auf den Markt kam. Diese Aussage lässt sich als klassisches Beispiel für die Unsicherheit und Herausforderung im Innovationsmanagement deuten.


📌 Bedeutung der Aussage im Kontext von Innovation

  1. Zweifel an der Marktrelevanz neuer Technologien

  2. Die "Silberscheibe" – also die CD – war eine technologische Neuheit mit vielen Vorteilen gegenüber der Schallplatte oder Kassette. Trotzdem war zu Beginn unsicher, ob der Markt sie akzeptieren würde. Diese Unsicherheit ist typisch für Innovationen:

  3. Technisch machbar bedeutet nicht automatisch marktfähig.

  4. Innovationen brauchen Vision, nicht nur Technologie

  5. Die Aussage zeigt, dass selbst Führungskräfte in innovativen Unternehmen manchmal Schwierigkeiten haben, das Potenzial von Neuerungen zu erkennen. Erfolgreiches Innovationsmanagement erfordert daher nicht nur F&E, sondern auch Marktkenntnis, Kundenverständnis und Vorstellungskraft.

  6. Widerstand gegen Wandel

  7. Oft gibt es eine Zurückhaltung oder Skepsis gegenüber disruptiven Veränderungen – besonders wenn diese bestehende Geschäftsmodelle infrage stellen. Die CD bedrohte etablierte Technologien wie die Schallplatte, was interne Konflikte auslösen kann.


Nennen Sie mindestens drei unterschiedliche Sustainable Development Goals (SDGs) und erklären Sie, wie KI-Projekte helfen könnten, diese SDGs zu erreichen.

1. SDG 3 – Gesundheit und Wohlergehen

Ziel: Ein gesundes Leben für alle Menschen jeden Alters gewährleisten und ihr Wohlergehen fördern.

Beitrag von KI-Projekten:

  • Früherkennung von Krankheiten: KI kann auf Basis medizinischer Bilddaten (z. B. Röntgen, MRT) frühzeitig Anzeichen von Krebs oder anderen Krankheiten erkennen – oft genauer und schneller als der Mensch.

  • Epidemievorhersage: Durch Analyse von Gesundheitsdaten, Reisebewegungen und Klimafaktoren kann KI helfen, Ausbrüche von Krankheiten (z. B. Malaria, COVID-19) frühzeitig zu prognostizieren.

  • Digitale Gesundheitsassistenten: KI-Chatbots oder Sprachsysteme können in ländlichen Regionen grundlegende medizinische Beratung bieten, wo Ärzte fehlen.

2. SDG 13 – Maßnahmen zum Klimaschutz

Ziel: Umgehend Maßnahmen zur Bekämpfung des Klimawandels und seiner Auswirkungen ergreifen.

Beitrag von KI-Projekten:

  • Optimierung von Energieverbrauch: KI kann den Energieeinsatz in Gebäuden, Städten oder Industrien effizient steuern – z. B. durch Smart Grids oder vorausschauende Wartung.

  • Emissionsanalyse und -prognose: KI analysiert Satellitenbilder, Sensordaten und Verkehrsströme, um CO₂-Ausstoß zu messen und Trends vorherzusagen.

  • Klimarisiken modellieren: Mit Machine Learning lassen sich Überschwemmungen, Dürren oder Hitzewellen regional besser vorhersagen, um rechtzeitig Gegenmaßnahmen zu planen.

3. SDG 2 – Kein Hunger

Ziel: Den Hunger beenden, Ernährungssicherheit und eine bessere Ernährung erreichen sowie nachhaltige Landwirtschaft fördern.

Beitrag von KI-Projekten:

  • Ertragsschätzung und Frühwarnsysteme: KI-gestützte Analysen von Satellitenbildern und Wetterdaten helfen, Missernten früh zu erkennen.

  • Präzisionslandwirtschaft: KI hilft Landwirten, Saat, Bewässerung und Düngung effizienter zu steuern – was Erträge steigert und Ressourcen schont.

  • Optimierte Lieferketten: KI kann helfen, Nahrungsmittelverschwendung zu reduzieren, indem sie Transport, Lagerung und Verteilung besser plant.


Der/Die Prüfer*in wird zwei Sustainable Development Goals (SDGs) aus der Liste der UN auswählen. Bitte skizzieren Sie für eines dieser beiden SDGs, wie ein Projekt aussehen könnte, das mit Hilfe von KI versucht, etwas für dieses SDG zu erreichen.

Alles klar—hier ist eine LLM-fokussierte Vertiefung: Für jedes SDG nenne ich konkrete Aufgaben + geeignete LLM-Verfahren/Algorithmen, typische Prompt-/RAG-Muster, Strukturierung (JSON-Schemas), Evaluation und kurz Deployment-Hinweise. Ich konzentriere mich bewusst auf LLMs (inkl. RAG, Tool-Use/Function Calling, Extraktion, Klassifikation, Agenten) und setze klassische ML nur dort ein, wo’s wirklich hilft.

Wiederkehrende LLM-Bausteine (gelten fast überall)

  • RAG-Pipeline: Domainkorpus → Chunking (200–600 Tokens, Overlap 10–20%) → Embeddings (multilingual, z. B. bge-m3/all-MiniLM) → Vektor-DB (HNSW/IVF) → ReRanker (Cross-Encoder) → LLM mit Zitatzwang.

  • Funktionelles Tool-Use: Structured function calling (JSON Schema) zu: Wetter-API, GIS, FHIR, ERP/PLM, Routing-Solver (OR-Tools), Optimierer (Pyomo), Zeitreihen-Forecast (extra Service), IoT-Gateways.

  • Extraktion/IE: NER + Relation Extraction via In-Context-Learning oder leichte LoRA-Anpassung; Ausgabe als pydantic/JSON mit strikter Validierung.

  • Planung/Agentik: ReAct / Toolformer-Stil (Plan → Evidence → Act), Self-Consistency (n>3), CRFM-Style Critic oder Verifier-Model für Qualitätssicherung.

  • Kalibrierung: Logprob-basiertes Confidence-Scoring, Absturzsicherung via Refusal/Don’t-Know + Majority/SC.

  • Sicherheit & Governance: PII-Redaktion, Policy-Guardrails, Fairness-Checklisten, Model Cards, Drift-Monitoring (Retrieval-Hit-Rate, Answer-Faithfulness, ECE).

SDG-spezifische LLM-Algorithmen

1) Keine Armut

Aufgaben: Bedürftigkeitsprüfung, Maßnahmenselektion, Text-Formulare vereinfachen. LLM-Verfahren:

  • Klassifikation & Uplift-Screening via LLM few-shot (Eligibility Label + Begründung, JSON).

  • RAG über Sozialrechtskorpus; Tool-Use für Regel-Engines (Eligibility calculators).

  • Counterfactual Explanations: Prompt „Welche minimalen Änderungen …?“ Eval: F1 der Eligibility-Labels, Policy-Konformität (rule-consistency), Human override-Rate.

2) Kein Hunger

Aufgaben: Beratungs-Copilot für Anbauentscheidungen, Marktinfo-Zusammenfassungen. LLM-Verfahren:

  • Multimodales RAG (Satelliten-Analysen als Textbefund + Bilder-Kurzbeschreibung).

  • Tool-Use: Wetter-API, Preis-Feeds, separater Zeitreihen-Service; LLM plant „Nächste 7 Tage: Säen/Düngen/Ernten“.

  • Low-Literacy UX: Voice-IO + Chain-of-Thought intern, Self-Consistency für robuste Empfehlungen. Eval: Task-success (Erntefenster-Treffer), ökonomischer Impact, Nutzerzufriedenheit.

3) Gesundheit & Wohlergehen

Aufgaben: Triage-Chat, Arztbrief-Summarization, Medikationsabgleich. LLM-Verfahren:

  • Clinician-in-the-loop RAG über Leitlinien (FHIR/HL7) + Evidence-Citations.

  • Structured IE: Symptome/Allergien/Medikation → FHIR JSON.

  • Contraindication Checker via Tool-Use (Drug-DB). Eval: Recall kritischer Warnungen, Halluzinations-Rate, klinische Review-Scores.

4) Hochwertige Bildung

Aufgaben: Tutor, Aufgaben-Generator, Bewertung mit Feedback. LLM-Verfahren:

  • Socratic Tutor Prompting, Knowledge Tracing via LLM-IE (Schwachstellen extrahieren).

  • Item-Generation mit kontrollierter Difficulty (Bloom-Level), Rubric-Scoring.

  • RAG auf Curriculum/Kontext; Critic-Pass zur Fehlerreduktion. Eval: Lernzuwachs, Korrelation mit Lehrkraft-Noten, Halluzinationen < x%.

5) Geschlechtergleichheit

Aufgaben: Bias-Scan von Texten, inklusives Umschreiben, HR-Screening-Erklärungen. LLM-Verfahren:

  • Toxicity/Bias Classifier per LLM (few-shot) + Span-Highlighting.

  • Counterfactual Debiasing: Prompt generiert neutralen Re-Write + Begründung.

  • Fair-RAG (Policies/Guides) + Risk-Scoring. Eval: Bias-Metriken (WEAT-ähnlich), Human review acceptance, A/B auf Bewerberquote.

6) Sauberes Wasser

Aufgaben: Leitungsalarme erklären, Wartungsberichte strukturieren. LLM-Verfahren:

  • Event Summarization aus Sensor-Alerts (aus Zeitreihe kommt extern).

  • Root-Cause Reasoning via ReAct + Wissens-RAG (Hydraulik-Handbuch).

  • Work-Order-IE: Extrahiere Ort/Schacht/Dringlichkeit → CMMS JSON. Eval: Zeit bis Ticket, Korrektheit der Ursachenhypothese.

7) Saubere Energie

Aufgaben: Dispatch-Erklärer, Flex-Potenzialdialog, Regel-Empfehlungen. LLM-Verfahren:

  • Tool-Use zum Optimierer (LP/MILP) → LLM erklärt Ergebnis in Alltagssprache.

  • Policy-RAG (Netzregeln), What-if Planer mit Self-Consistency.

  • Structured Advice mit Constraints (z. B. §-konform, Peak-Shaving <x kW). Eval: Regelkonformität, Einsparungen, Nutzer-Trust.

8) Menschenwürdige Arbeit

Aufgaben: CV↔Job-Matching, Skill-Gap-Analyse, Weiterbildungs-Empfehlungen. LLM-Verfahren:

  • Semantic Matching per LLM-Embeddings + ReRanker; IE extrahiert Skills/Level/Dauer.

  • Path-Planning: Sequenz von Kursen (Agent mit Tools: Kurs-Katalog, Förderungen).

  • Explainable Match: rationale + Highlight-Spans. Eval: Placement-Rate, Match-Akzeptanz, Zeit bis Interview.

9) Industrie/Innovation/Infrastruktur

Aufgaben: Schichtübergaben, Störfall-Analyse, Handbuch-Q&A. LLM-Verfahren:

  • Procedure-RAG (SOPs, P&ID-Texte), Tool-Use zu CMMS/Historians.

  • Fault Tree Reasoning mit Verifier-Pass (kritische Anlagen).

  • Ticket-Auto-Draft + Teileliste-IE. Eval: MTTR-Reduktion, Erstlösungsquote, SOP-Konformität.

10) Weniger Ungleichheiten

Aufgaben: Barrierenberichte, sprachliche Vereinfachung, zielgruppengerechte Hinweise. LLM-Verfahren:

  • Controlled Simplification (Lesbarkeitsgrad), Mehrsprach-Lokalisierung.

  • Policy-Advisor RAG + Counterfactual Policy Notes (Auswirkungen je Gruppe).

  • Sensitive Attribute Redaction vor Weitergabe. Eval: Nutzungsanstieg marginalisierter Gruppen, Lesbarkeits-Scores, Beschwerderate.

11) Nachhaltige Städte

Aufgaben: Bürger-Chat zu Abfall/Rad/ÖPNV, Maßnahmen-Erklärer. LLM-Verfahren:

  • Geo-RAG (Satzung, Fahrpläne) + Tool-Use (Routing-Solver, GTFS-API).

  • IE aus Bürgeranliegen → Ticket (Kategorie/Ort/Foto-Caption).

  • Delib-Summaries: Viele Stimmen → abgestufte Zusammenfassung pro Stakeholder. Eval: First-Contact-Resolution, Ticket-Quality, Zufriedenheit.

12) Nachhaltiger Konsum/Produktion

Aufgaben: Produktpass-Extraktion, Eco-Design-Vorschläge, Lieferanten-Vergleich. LLM-Verfahren:

  • Document IE (BOM, Material, Zertifikate) → harmonisiertes JSON.

  • RAG über Normen (ISO/EN), Tool-Use zu LCA-Engine; LLM erklärt Hotspots.

  • Similarity Search für Wiederverwendungsteile. Eval: Extraktions-F1, LCA-Konsistenz, Re-use-Quote.

13) Klimaschutz

Aufgaben: Emissionsbericht-Copilot, Maßnahmenkatalog, Auditfragen beantworten. LLM-Verfahren:

  • RAG auf GHG-Protocol/SFDR/CSRD; Tool-Use zu Carbon-Calc (Scope 1–3).

  • Scenario Writer: „Wenn Preis X, dann Maßnahme Y…“ mit Self-Check.

  • Citation-Strict Mode (Antworten nur mit Belegen). Eval: Prüfbarkeit (Citations OK), KPI-Verbesserung, Auditor-Akzeptanz.

14) Leben unter Wasser

Aufgaben: Sichtungsberichte zusammenführen, Schutzgebiets-Begründungen. LLM-Verfahren:

  • Multimodales RAG (CV-Model liefert Objekte → LLM schreibt Bericht).

  • Policy-RAG (Fischerei-Regeln), Tool-Use (Strömungsmodell API für Drift).

  • Priority Planner: Einsatzplan mit Gründen + Unsicherheiten. Eval: Precision der Befundtexte, Einsatzeffizienz.

15) Leben an Land

Aufgaben: Kamerafallen-Befunde, Entwaldungs-Alerts erklären, Ranger-Briefings. LLM-Verfahren:

  • IE aus CV-Ergebnissen (Art/Zeit/Ort) → konsolidierter JSON-Befund.

  • Rule-Aware RAG (Schutzstatus, CITES), Counterfactual: „Was spricht dagegen?“

  • Few-shot für Arten-Namensnormalisierung. Eval: Konsistenz mit Expertenlabels, Fehlalarmreduktion.

16) Frieden, Gerechtigkeit, starke Institutionen

Aufgaben: Vergabe-Transparenz, Interessenkonflikte, Whistleblower-Reports strukturieren. LLM-Verfahren:

  • Graph-RAG: Firmennetze + RAG über Ausschreibungsdokumente.

  • Risk-Reasoning: ReAct + Verifier, Evidence-Tables mit Quellen.

  • IE: UBOs, Betragsfelder, Fristen → normalisiertes JSON. Eval: True-Positive-Rate bei Flags, juristische Belastbarkeit (Evidence-score).

17) Partnerschaften zur Zielerreichung

Aufgaben: Projekt-Matchmaking, Förderantrag-Copilot, Best-Practice-Suche. LLM-Verfahren:

  • Hybrid Search (BM25 + Embeddings) + Reranking;

  • Schema-feste Match-Erklärung: Ziele, Regionen, TRL, Budget-Fit → Score + Begründung.

  • Drafting-Agent: Antrag aus Bulletpoints, Citation-enforced Best Practices. Eval: Match-Conversion, Gutachter-Score, Zitattreue.

Prompt-/Schema-Vorlagen (kurz)

System-Prompt (Policy-konform & zitierpflichtig):

Du bist ein fachlicher Copilot. Antworte knapp, nenne Quellenpassagen aus dem Retrieval, gib JSON gemäß Schema aus. Wenn unsicher: “unknown”.

JSON-Schema-Beispiel (universell):

{ "type": "object", "properties": { "recommendations": { "type": "array", "items": { "type": "object", "properties": { "action": {"type": "string"}, "rationale": {"type": "string"}, "constraints": {"type": "array", "items": {"type":"string"}}, "confidence": {"type": "number", "minimum": 0, "maximum": 1}, "citations": {"type": "array", "items": {"type":"string"}} }, "required": ["action","rationale","confidence"] } } }, "required": ["recommendations"] }

Self-Check-Prompt (Critic-Pass):

Prüfe die obige Ausgabe auf Regelverletzungen, fehlende Belege, zu starke Behauptungen. Gib eine korrigierte Version des gleichen JSON zurück.

Deployment-Hinweise (LLM-first)

  • Mehrsprachig (DE/EN/…): Embeddings + LLM multilingual, Terminologie-Normalisierung.

  • LoRA-Feintuning für domänenspezifische Extraktion (kleine, kuratierte Sätze reichen oft).

  • Citations-or-Silence: Wenn Retrieval-Score < Schwelle → knappes „unbekannt / brauche Quelle“.

  • Metriken: Retrieval Hit-Rate, Faithfulness-Score, JSON-Valid-Rate, Human-override, Task-Success.

  • Ops: Canary-Rollout, Red-Team-Prompts, PII-Filter (Pre-/Post-), Kosten-Budget pro Anfrage.

Wenn du möchtest, picke ein konkretes SDG + Use Case, und ich schreibe dir eine präzise End-to-End-LLM-Architektur inkl. Beispiel-Prompts, Schemas, Guardrails und Evaluationsplan (1–2 Seiten, sofort einsetzbar).

Author

Marcel D.

Information

Last changed