Das Bundesamt für Sicherheit in der Informationstechnik (BSI) stellt im Rahmen des Projekts „Sicherheit von KI-Systemen: Grundlagen“ die folgenden drei Studien zur Sicherheit von Systemen basierend auf Künstlicher Intelligenz (KI) – Artificial Intelligence (AI) vor, welche Handlungsempfehlungen für Experten auf dem Gebiet liefern und auch als Informationsquelle für andere Gruppen wie Entwickler dienen.
– Security of AI-Systems: Fundamentals – Adversarial Deep Learning
Die Studie beschreibt Best Practices zur Zertifizierung von Deep-Learning-Systemen und zur Abwehr von Angriffen und stellt einen experimentellen Rahmen vor, um weitere Forschungsfragen abzuleiten.
– Security of AI-Systems: Fundamentals – Provision or use of external data or trained models
Die Studie beschäftigt sich mit den Sicherheitsrisiken von Maschinellem Lernen in Bezug auf die Robustheit, Transparenz und Entscheidungsgerechtigkeit solcher Systeme, insbesondere bei der gemeinsamen Nutzung von Ressourcen wie Modellen oder Datensätzen durch verschiedene Parteien und identifiziert potenzielle Angriffsvektoren und bewertet vorhandene Abwehrmaßnahmen sowie die damit verbundenen Herausforderungen und gibt Empfehlungen zur Verbesserung der Sicherheit von Maschinellem Lernen.
– Security of AI-Systems: Fundamentals Security Considerations for Symbolic and Hybrid AI
Die Studie analysiert die Sicherheit von Symbolic- und Hybrid-AI, Zusammenwachsen und Komplexität der Themen AI-Security und AI-Safety, was zu neuen Herausforderungen führt, die in dieser Arbeit untersucht werden.
Die Ergebnisse der Studien dienen dem BSI als Grundlage für Beratungsdienstleistungen und Prüfkriterien für KI-Systeme, und verringern durch ihre strukturierte Aufbereitung die Einstiegshürden in das Thema.