information

BSI informiert über Chancen und Risiken von KI-Sprachmodellen

ID 23193

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) veröffentlicht ein Positionspapier, zu den Potenzialen und Gefahren von KI-Sprachmodellen, sogenannten Large Language Models (LLMs), worüber es auch auf dem 19. Deutschen IT-Sicherheitskongress informierte.
Das Positionspapier beschäftigt sich mit den Chancen und Risiken von LLMs im Bereich der IT-Sicherheit. Zunächst werden die Chancen für die IT-Sicherheit durch die Nutzung von LLMs dargestellt. Dazu gehören die Unterstützung bei der Detektion unerwünschter Inhalte wie Spam, Phishing-Mails, Fake News und Hate Speech. LLMs können auch bei der Textverarbeitung, der Erstellung und Analyse von Programmcode sowie bei der Analyse von Datenverkehr helfen.
Es werden auch verschiedene Sicherheitsrisiken beleuchtet, die mit der Nutzung von LLMs verbunden sind. Von Nutzerperspektive aus betrachtet besteht das Risiko, dass Nutzende aufgrund der sprachlichen Qualität und Überzeugungskraft der generierten Texte ein übermäßiges Vertrauen in die Aussagen und Fähigkeiten des Modells haben. Es besteht die Möglichkeit von fehlender Faktizität und Reproduzierbarkeit der generierten Inhalte, insbesondere da LLMs auf stochastischen Korrelationen basieren und nicht unbedingt faktisch korrekt sind. Generierter Code kann ebenfalls Sicherheitslücken enthalten, die im zugrunde liegenden Trainingscode vorhanden sind. LLMs haben auch Schwierigkeiten, aktuelle Informationen zu liefern und können fehlerhafte Reaktionen auf spezifische Eingaben zeigen. Es besteht auch das Risiko von „versteckten“ Eingaben mit manipulativer Absicht, bei denen Angreifende unbemerkt Eingaben in das Modell einspeisen, um den weiteren Verlauf der Interaktion zu manipulieren. Die Vertraulichkeit der eingegebenen Daten kann ebenfalls gefährdet sein, wenn eine externe API verwendet wird.
Um diesen Risiken entgegenzuwirken, sollten Nutzende über die Schwächen von LLMs aufgeklärt werden und die generierten Texte auf ihren Wahrheitsgehalt überprüfen. Eine manuelle Nachbearbeitung der Texte kann ratsam sein, insbesondere bei der Verwendung von LLMs mit direkter Außenwirkung. Es werden auch Missbrauchsszenarien und entsprechende Gegenmaßnahmen diskutiert. LLMs können zur Textproduktion für böswillige Zwecke missbraucht werden, wie zum Beispiel Social Engineering, die Generierung und Ausführung von Malware oder die Verbreitung von Falschinformationen. Nutzende sollten auf diese Risiken aufmerksam gemacht werden und entsprechende Sicherheitsvorkehrungen treffen.
Das BSI betont die Notwendigkeit geeigneter Vorsichtsmaßnahmen gegen diese Risiken. Diese könnten beispielsweise Verschlüsselungsverfahren zur Authentifizierung von Texten und Nachrichten umfassen. Besonders wichtig sei es, Nutzer über die Fähigkeiten künstlicher Intelligenz aufzuklären, um ein zu großes Vertrauen in KI-generierte Inhalte zu vermeiden. Das BSI plant, in Kürze entsprechende Leitlinien für Verbraucher zu veröffentlichen.
Unternehmen und Behörden, die eine Integration von LLMs erwägen, werden aufgefordert, eine Risikoanalyse durchzuführen und die im Positionspapier genannten Risiken in Bezug auf ihre Arbeitsabläufe zu bewerten. Entsprechende Sicherheitsmaßnahmen sollten darauf abgestimmt werden. Aus Sicht des BSI sollten KI-Sprachmodelle derzeit als Werkzeuge betrachtet werden, deren Ergebnisse von menschlicher Intelligenz überprüft werden sollten.

Other Features
automation
consumer protection
cyber security
data protection
digitisation
financial innovation
fraud
model
operational
process
resilience
restrictions
risk
transparency
valuation
working papers
Date Published: 2023-05-10
Regulatory Framework: Proposed Regulation on Artificial Intelligence
Regulatory Type: information

Internationale Cybersicherheitsbehörden veröffentlichen Leitfaden zur Entwicklung ...

ID 25955
In einer Pressemitteilung informiert das BSI über die Veröffentlichung eines Leitfadens zu ...

BSI veröffentlicht neue Publikationsreihe Management Blitzlichter

ID 25380
Das BSI hat eine Informationsinitiative für Führungskräfte mit der Publikation „Mana ...

4. IT-Grundschutz-Tag 2023

ID 25361
Das BSI stellt die Präsentationsmaterialien vom 4. IT-Grundschutz-Tag, der am 11. Oktober ...

Cybersecurity Day

ID 25228
Das BSI lädt zum diesjährigen Cybersecurity Day ein, der am 20. Oktober 2023 in Saarbrücke ...
  • Topic Filter

    Top Tag Search
    Top Tag Search
    Top Tag Search
    Top Tag Search
You are on the training version of RISP core with limited functions and data. Please subscribe to RISP core for professional or academic use. We supply free real time datasets for approved academic research; professional subscriptions start at 950€ plus VAT per annum.

Compare Listings