In einer Pressemitteilung informiert das BSI über die Veröffentlichung eines Leitfadens zur Entwicklung sicherer KI-Systeme durch internationale Cybersicherheitsbehörden.
Der Leitfaden „Guidelines for Secure AI System Development“ wurde von den Partnerbehörden des BSI aus UK und USA erstellt und von 23 Cybersicherheitsbehörden aus 18 Ländern unterstützt, einschließlich des BSI.
KI-Sicherheit unterscheidet sich durch spezifische Herausforderungen wie adversarial machine learning, welches grundlegende Schwachstellen in ML-Komponenten ausnutzt. Der Leitfaden richtet sich an Anbieter von KI-Systemen, einschließlich solcher, die Modelle von Drittanbietern oder externe APIs verwenden.
Der Leitfaden umfasst vier Schlüsselbereiche im Lebenszyklus der KI-Systementwicklung: sicheres Design, sichere Entwicklung, sichere Bereitstellung und sicheren Betrieb sowie Wartung. Jeder Bereich beinhaltet spezifische Überlegungen und Maßnahmen zur Risikominderung.
1. Sicheres Design: Hier geht es um Risikobewertung, Bedrohungsmodellierung und System- sowie Modellgestaltung.
2. Sichere Entwicklung: Dieser Bereich befasst sich mit der Sicherheit der Lieferkette, Dokumentation und dem Management von Vermögenswerten und technischen Schulden.
3. Sichere Bereitstellung: Schutz von Infrastruktur und Modellen vor Kompromittierung, Entwicklung von Vorfallmanagementprozessen und verantwortungsvolle Freigabe sind hier zentral.
4. Sicherer Betrieb und Wartung: Dieser Teil beinhaltet Richtlinien für Überwachung, Update-Management und Informationsaustausch nach der Bereitstellung eines Systems.
Der Leitfaden folgt dem Ansatz „secure by default“ und orientieren sich an den Praktiken des NCSC und NIST sowie den „secure by design“-Prinzipien von CISA, NCSC und internationalen Cyberagenturen. Sie priorisieren die Sicherheit der Kunden, Transparenz, Verantwortlichkeit und eine Organisationsstruktur, die sicheres Design als geschäftliche Priorität ansieht.