Welche Ziele verfolgt die EU AI Strategie?
Förderung der technologischen u. industriellen Leistungsfähigkeit der EU
Verbreitung von KI im gesamten Wirtschaftsraum
-> Zugang zu Daten und Investition in Forschung
Vorbereitung der Gesellschaft auf sozio-ökonomische Veränderung mit KI
-> Förderung von Modernisierung von Bildungs- und Ausbildungssystemen
Sicherstellen, dass KI made in EU entsprechendem rechtlichen und ethischen Rahmen folgt
Welches Problem hat der AIAct im Hinblick auf die Passgenauikeit mit anderer Gesetzgebung?
teils große Überschneidungen mit bereits existierenden Gesetzen
DSGVO
NIS 2
ePrivacy
…
Wie gliedert der AIAct KI Systeme?
Inakzeptables Risiko:
Hoch-Risiko
Limitiertes Risiko
Minimales bis kein Risiko
Was fällt beispielhaft unter verbotene Anwendungen?
System, das Mensch zu Entscheidungen verleitet und dessen einfluss sich der Mensch nicht bewusst ist und das (potentiell) zu signifikantem Schaden für die Person führen kann
System, das Schwachstellen von Menschen/Gruppen ausnutzt, um Verhalten zu beeinflussen, was erheblichen Schaden für die Person bedeuten kann
Biometrische Kategorisierung, um politische Einstellung, religiöse Auffassungen, Rasse festzustellen
Kategorisierung von Menschen im Hinblick auf soziales Verhalten oder persönliche Charakteristiken
Wann ist ein System als Hoch-Risiko einzustufen?
AI system soll als safety Komponente genutzt werden oder ist selbst ein Produkt das in Anhang 2 aufgeführt wird
UND
AI System ist safety Komponente eines Produkts, oder System ist selbst Produkt, dass eine Konformitätsprüfung durch Dritte unterzogen werden muss (basierend auf EU Harmonisierungsvorschriften)
ODER
alle Systeme, die in Anhang 3 gelistet sind
Biometrische Erkennung
Verwaltung kritischer Infrastruktur
Strafverfolgung
AUSNAHME: System stellt keine signifikante Gefahr für Gesundheit, Sicherheit oder Grundrechte von natürlichen Personen dar
Welche Anforderungen gibt es an Hoch-Risiko-Systeme?
Risk management system
iterativer Prozess der gesamten Lebenszyklus des Systems begleitet
Risikoermittlung (auch von potentiellen Risiken)
Maßnahmen, wie die ermittelten Risiken angegangen werden können
Ausreichendes Testen des Systems (vor Auslieferung) um Robustheit sicherzustellen
Data Governance:
angemessene Datensammlung und vorverarbeitung
Ermittlung der Datenqualität
Maßnahmen, um Bias zu entdecken und vermeiden
Fehlerfreie Datensätze
Komplett
Technische Dokumentation
Robustheit, Genauigkeit und Cybersicherheit
Wie wirkt sich der AI Act auf verschiedene Stellen der Wertschöpfungskette aus?
Einige Bereitsteller von Systematic Foundation Models müssen eine Risikobewertung durchführen, intensiv testen und ausreichend dokumentieren bevor das Model auf den Markt gebracht wird
Systematic Foundation Model Bereitsteller und Anbieter von AI tools/services/komponenten müssen Informationen teilen und ihren Klienten dabei helfen dem AI Act rechnung zu tragen
Wird das SFM durch den Klienten ein high-risk system das er anbietet, muss der Klient den entsprechenden Anforderungen nachkommen
Wird das high-risk system verkauft muss der Käufer den entsprechenden Anforderungen auch nachkommen
Nutzer des Systems, die mit Ergebnissen konfrontiert werden verfügen über Reihe von Rechten (z.B. Erklärung der Individuellen Entscheidungsfindung, Recht auf Beschwerde, …)
Wie gehen Amerika, China und die EU mit KI im Vergleich um?
US:
generelle Prinzipien, die in verschiedenen Anwendungssektoren von KI in entsprechenden Gesetzen spezifiziert werden
China:
mehrere langfristige Pläne um globaler Führer der KI-Entwicklung zu werden, besonders was den militärischen Einsatz angeht
EU:
Regulierung um sicherzustellen, dass KI den Kernwerten der EU entspricht
Hofft, dass es ebenso einen globalen Effekt hat wie die DSGVO
fallen seit dem Brexit zurück
Last changeda year ago