Sicherheit für KI vs. KI für Sicherheit
Veröffentlicht | 1. August 2025 |
Ein umfassender Leitfaden für Risikomanagement und Governance im Bereich KI
KI für Sicherheit und Sicherheit für KI sind unterschiedliche Begriffe, denen im Bereich der modernen Cyberabwehr eine spezifische Bedeutung zukommt. Im Kontext von KI für Sicherheit werden Machine-Learning- und Deep-Learning-Modelle eingesetzt, um Sicherheitstechnologien zu verbessern, darunter Netzwerk-, Endpoint- und E-Mail-Sicherheit und vieles mehr. Dies trägt zu beschleunigten Ergebnissen und erweiterten Fähigkeiten im Cyberbereich bei, wodurch sich Ihre allgemeine Sicherheitslage verbessert. Sicherheit für KI hingegen umfasst Lösungen, die zur Absicherung und Steuerung von künstlicher Intelligenz konzipiert wurden. Diese Lösungen reduzieren Risiken, die mit der akzeptablen Nutzung von KI und den Entwicklungs- und Produktionszyklen von KI-Modellen verbunden sind.
Wichtige Konzepte
- Sicherheit für KI und KI für Sicherheit: Die zentralen Unterschiede
- Sicherheit für KI
- Sicherheit für KI – Anwendungsfälle
- Was ist KI für Sicherheit?
- KI-Modelle im Cybersecurity-Bereich
- Frameworks für Risikomanagement und Governance im Bereich KI
- Verantwortungsvolle Nutzung von KI mit AI Aware
- Evaluierung der KI-Funktionen von Sicherheitsplattformen: 4 Tipps für CISOs
- Wie Tenable KI im Cybersecurity-Bereich einsetzt
- Nutzung von KI zur Priorisierung konkreter Risiken mit VPR
- KI-Sicherheit – Ressourcen
- KI-Sicherheit – Produkte
Sicherheit für KI und KI für Sicherheit: Die zentralen Unterschiede
Im Kontext von KI für Sicherheit wird künstliche Intelligenz zur Stärkung der Cyberabwehr eingesetzt. Machine Learning (ML), Deep Learning (DL) und generative KI werden dabei in Sicherheitstechnologien eingebettet, um deren Effizienz und Effektivität zu steigern.
Eine durch maschinelles Lernen gestützte Risikobewertung in einer Schwachstellenmanagement-Lösung (Vulnerability Management, VM) hilft Fachkräften beispielsweise bei der Priorisierung von geschäftsschädigenden Schwachstellen. Anstatt sämtliche Schwachstellen mit kritischem und hohem Schweregrad zu entschärfen, was viele Unternehmen immer wieder vor Herausforderungen stellt, müssen sie nur noch eine geringere Anzahl von Sicherheitslücken (sogenannte Exposures) managen.
Darüber hinaus hat generative KI zum Aufstieg von sogenannten Sicherheitsassistenten beigetragen: Diese Assistenten konnten die allgemeine Produktivität von IT-Sicherheitsteams nachweislich steigern und weniger erfahrene Teammitglieder auf ein höheres Level bringen.
Durch KI für Sicherheit wird der Sicherheitsbetrieb insgesamt schneller und adaptiver – und Teams sind besser in der Lage, Daten in einem Umfang zu verarbeiten, der menschliche Kapazitäten übersteigt.
Sicherheit für KI bietet hingegen Schutz vor Sicherheitslücken im Zusammenhang mit Unternehmens-KI und Schatten-KI. Wenn Unternehmen eigene KI-Modelle entwickeln oder Drittanbietertools wie ChatGPT und Gemini einsetzen, vergrößert sich ihre Angriffsfläche. Sicherheit für KI schützt KI-Modelle, Trainingsdaten und die zugrunde liegende Infrastruktur vor einer neuen Kategorie von Bedrohungen, zu der beispielsweise Adversarial Attacks, Data Poisoning und Modelldiebstahl zählen.
Sicherheit für KI
Bei zunehmender Nutzung der folgenden KI-Komponenten durch Teams in Ihrem Unternehmen gewinnt die Absicherung von KI-Tools immer mehr an Bedeutung:
Produktivitätstools wie z. B.:
- ChatGPT
- Gemini
- Microsoft Copilot
Quelloffene KI-Modelle wie z. B.:
- Llama
- Mistral
- Bloom
KI-Bibliotheken wie z. B.:
- PyTorch
- TensorFlow
- Scikit-learn
Datenspeicher wie z. B.:
- S3-Buckets (AWS)
- Azure Blob Storage
- Google Cloud Storage
Large Language Models (LLMs) wie z. B.:
- GPT-4
- Claude 3
- PaLM 2
Doch je umfangreicher diese Tools in Workflows eingebunden werden, die Ihr Unternehmen in den Bereichen Sicherheit, Softwareentwicklung, Finanzen, Marketing und in anderen Bereichen einsetzt, desto größer die Anzahl neuer Risiken.
Hier bezieht sich der Begriff „Sicherheit für KI“ auf die Mitarbeiter, Prozesse, Richtlinien und Tools, die zum Schutz von KI-Infrastruktur und von entsprechenden Nutzungsmustern und Outputs notwendig sind.
In zahlreichen Umgebungen beginnt dies mit der Entwicklung einer Richtlinie zur sicheren, ethisch einwandfreien und angemessenen Nutzung von künstlicher Intelligenz. Parallel dazu erfolgt die Identifizierung von Schatten-KI: Hierbei handelt es sich um KI-Tools, die Ihr Unternehmen nicht „offiziell“ genehmigt bzw. abgesichert hat.
Fragen Sie sich:
- Fügen unsere Entwickler Quellcode in öffentliche KI-Tools ein?
- Laden geschäftliche Nutzer sensible Daten in ChatGPT hoch?
Sicherheit für KI beginnt mit Inventarisierung.
Fragen Sie sich:
- Welche Modelle nutzen wir?
- Wo haben wir sie bereitgestellt?
- Wer kann darauf zugreifen?
Dabei ist Folgendes zu berücksichtigen:
- Genehmigte KI
- Nicht genehmigte KI-Nutzung
- Datenresidenz (Data Residency)
- Datenaufbewahrung
- Richtlinien zum Training von Modellen
- API-Nutzung zwischen LLMs
- KI in Cloud-Systemen
- Feinabstimmung der Modellsteuerung (Model Governance)
Sicherheit für KI ist wichtig – völlig unabhängig davon, ob Sie quelloffene Modelle zur Entwicklung nutzen, KI-Tools von Drittanbietern einsetzen oder KI in interne Anwendungen einbetten.
Sobald Sie wissen, wo sich Ihre Modelle befinden, können Sie entsprechende Kontrollmechanismen anwenden. Hierzu zählen:
- Rollenbasierter Zugriff
- Datenklassifizierung und Datenschutz
- Monitoring des jeweiligen Inferenzverhaltens (Inference Behavior)
- Richtliniendurchsetzung, um unbefugten Zugriff oder Datenlecks zu unterbinden
Bei in der Cloud gehosteter KI-Infrastruktur sollten Ihre Kontrollmechanismen Folgendes absichern:
- Modellparameter und Trainingsdaten
- IaC-Bereitstellungen (Infrastructure as Code)
- APIs, die Modellinferenz offenlegen
- Zugehörige Services wie Vektordatenbanken
Sicherheit für KI – Anwendungsfälle
Sichere KI-Nutzung und Prävention von Datenlecks
Zu den größten KI-Risiken zählt die jeweilige Nutzungsweise.
Mitarbeiter, die sensible Daten ohne entsprechende Leitplanken (sogenannte Guardrails) in KI-Tools einfügen, können unwissentlich proprietäre Daten offenlegen.
Potenzielle Gefahrenquellen
- Entwickler könnten Quellcode in öffentliche KI-Tools einfügen
- Marketingteams könnten Kundenlisten hochladen
- Geschäftliche Anwender könnten vertrauliche Dokumente an einen Chatbot weitergeben
Werden diese Daten in das Modelltraining Dritter eingebracht, können selbst in bester Absicht getroffene Maßnahmen zu Datenschutzverletzungen oder zur Offenlegung von geistigem Eigentum führen.
Wirksame Maßnahmen zur Risikoreduzierung
- Legen Sie klare Regeln fest.
- Erstellen Sie Richtlinien zur akzeptablen Nutzung, die vorgeben, welche Daten Mitarbeiter wann und wo in öffentlichen KI-Tools verwenden dürfen, und setzen Sie diese Richtlinien entsprechend durch.
- Finden Sie heraus, wo KI in Ihrem Unternehmen eingesetzt wird.
- Ermitteln Sie mithilfe von KI-Monitoring-Tools zunächst, wer was verwendet. Hierzu zählen Browser-Plugins, Anwendungen und cloudbasierte KI-Services – ob genehmigt oder nicht.
- Verhindern Sie, dass sensible Daten in Umlauf gebracht werden.
- Nutzen Sie auf KI-Interaktionen abgestimmte DLP-Richtlinien, um Quellcode, persönlich identifizierbare Informationen (Personally Identifiable Information, PII) oder interne Dokumentation zu kennzeichnen, bevor die externe Freigabe erfolgt. Darüber hinaus können Sie Firewalls nutzen, um den Zugriff auf nicht genehmigte KI-IP-Adressen zu blockieren. Beachten Sie jedoch, dass Mitarbeiter diese Maßnahmen umgehen werden – und Sie womöglich immer wieder mit neuen Services Schritt halten müssen.
- Nutzen Sie auf KI-Interaktionen abgestimmte DLP-Richtlinien, um Quellcode, persönlich identifizierbare Informationen (Personally Identifiable Information, PII) oder interne Dokumentation zu kennzeichnen, bevor die externe Freigabe erfolgt. Darüber hinaus können Sie Firewalls nutzen, um den Zugriff auf nicht genehmigte KI-IP-Adressen zu blockieren. Beachten Sie jedoch, dass Mitarbeiter diese Maßnahmen umgehen werden – und Sie womöglich immer wieder mit neuen Services Schritt halten müssen.
Abriegelung Ihrer KI-Entwicklungsumgebung
Bei der KI-Entwicklung kommt ein komplexer Stack zum Einsatz, der z. B. Cloud-Services, APIs, Trainingsdaten, Vektordatenbanken und MLOps-Plattformen (Machine-Learning Operations) umfasst. Durch jede einzelne Ebene besteht eine potenzielle Gefährdung.
Genau hier ist AI-SPM von entscheidender Bedeutung.
Potenzielle Gefahrenquellen
- Fehlerhafte Konfigurationen können Modell-Endpunkte, Trainingsdaten oder Berechtigungen offenlegen.
- Angreifer, die eine offene API oder eine anfällige IAM-Rolle ausfindig machen, könnten Modellparameter (sogenannte Model Weights) entwenden, auf sensible Daten zugreifen oder gar das KI-Verhalten in der Produktion manipulieren.
- Angreifer, die eine offene API oder eine anfällige IAM-Rolle ausfindig machen, könnten Modellparameter (sogenannte Model Weights) entwenden, auf sensible Daten zugreifen oder gar das KI-Verhalten in der Produktion manipulieren.
Schutz von KI-Modellen und KI-Bibliotheken vor Schwachstellen
- Inventarisieren Sie Ihr gesamtes KI-Ökosystem.
- Verfolgen Sie sämtliche Assets – nicht nur die jeweiligen Modelle, sondern auch Services wie SageMaker, Bedrock, Azure AI, Vertex AI und die unterstützende Infrastruktur.
- Scannen Sie auf Fehlkonfigurationen.
- Erfassen Sie öffentliche Buckets, Rollen mit übermäßigen Zugriffsrechten oder API-Sicherheitslücken, bevor daraus ein Risiko entsteht.
- Steuern Sie den Zugriff.
- Wenden Sie strenge rollenbasierte Zugriffskontrollen (RBAC) an und setzen Sie Least-Privilege-Zugriff durch, sodass ausschließlich zugelassene Identitäten auf Ihre KI-Ressourcen zugreifen können.
- Sichern Sie Ihre Supply Chain ab.
- Nutzen Sie Tools wie z. B. KI-Stücklisten (AIBOM), um Abhängigkeiten von Drittanbietern und Risiken bei vorab trainierten Modelle zu überwachen.
Schutz von KI-Modellen zur Laufzeit
KI-Modelle reagieren auf benutzerseitige Eingaben – und Angreifer wissen, wie sie dies zu ihrem Vorteil nutzen. Abwehrmechanismen zur Laufzeit helfen Ihnen, Adversarial Attacks zu erkennen und zu unterbinden, bevor sie ernsthafte Schäden anrichten.
Potenzielle Gefahrenquellen
- Data Poisoning – Hierbei verunreinigen Angreifer Trainingsdaten, um verborgene Schwachstellen einzuschleusen.
- Evasion-Angriffe – Hierbei erstellen Bedrohungsakteure bestimmte Eingaben (sogenannte Inputs), um Ihr Modell zu täuschen, sodass es zu fehlerhaften Klassifizierungen oder Fehlverhalten kommt.
- Model Extraction – Durch bestimmte Abfragemuster kann es hier zu Reverse Engineering von Logik oder zur Offenlegung von sensiblen Trainingsdaten kommen.
- Prompt Injection – Hierbei nutzen Bedrohungsakteure bösartige Prompts, um LLMs so zu manipulieren, dass sie schädliche Ausgaben (Outputs) generieren oder verborgene Anweisungen offenlegen.
Wirksame Gegenmaßnahmen
- Trainieren Sie Modelle auf Resilienz gegenüber Angriffen. Nutzen Sie Angriffsmuster im Rahmen des Modelltrainings, um stärkere Abwehrmechanismen zu entwickeln.
- Filtern und validieren Sie Eingaben. Bereinigen Sie Abfragen, bevor diese in Ihr Modell gelangen, um Injection-Angriffe zu blockieren.
- Überwachen Sie das Modellverhalten. Achten Sie auf Anomalien bei der Modellausgabe, Häufungen von Refusals (sogenannte Refusal Spikes) oder Muster, die auf Missbrauch hindeuten.
Eine lückenlose Sicherheitsstrategie für KI umfasst alle drei Ebenen. Sie benötigen Einblick in die Art und Weise, wie Nutzer mit KI interagieren, Leitplanken für Infrastruktur und Berechtigungen sowie Abwehrmechanismen für Modelle in der Produktion. Mit diesen Schutzvorkehrungen können Ihre Teams Innovationen einführen, ohne vermeidbaren Risiken Tür und Tor zu öffnen.
Was ist KI für Sicherheit?
Welche Vorteile ergeben sich aus KI für Cybersecurity-Technologien?
KI für Sicherheit erweitert Sicherheitstools in Ihrem Stack, sodass Sie Cyberrisiken und Bedrohungen schneller und präziser identifizieren, priorisieren und darauf reagieren können.
KI analysiert riesige Mengen an Telemetriedaten in Echtzeit, um Muster zu erkennen, Risiken abzubilden und die besten Maßnahmen zu empfehlen, um Sicherheitslücken zu beheben und Bedrohungen zu beseitigen.
Prädiktive Bedrohungsanalyse
KI-Modelle ziehen vergangene Angriffe und Threat-Intelligence heran, um entsprechende Vorhersagen zu treffen. Dadurch können Sie Systeme härten, bevor diese von Bedrohungsakteuren ausgenutzt werden.
Basierend auf dem Verhalten von Bedrohungsakteuren, der Exploit-Verfügbarkeit sowie der jeweiligen Exposure von Assets kann KI beispielsweise genau ermitteln, welche Schwachstellen Angreifer am ehesten für Angriffe nutzen werden.
Lösungen mit entsprechenden Tools zur Priorisierung von Schwachstellen nutzen maschinelles Lernen, um Tausenden von Feststellungen auf den Grund zu gehen und tatsächliche Risiken ans Licht zu bringen. Irrelevante Warnmeldungen basierend auf CVSS-Scores werden dabei herausgefiltert – und Unternehmen auf die wirklich wichtigen Schwachstellen hingewiesen.
Wie KI proaktive Sicherheitsabläufe unterstützt
KI-Plattformen führen aus mehreren Quellen stammende Kontextinformationen zu Verhaltensanomalien, Bedrohungen, Schwachstellen und weiteren Sicherheitslücken zusammen, darunter auch zu Cloud-Konfigurationen und Identitätsberechtigungen. Dadurch ist Ihnen stets klar, was gefährdet ist und aus welchen Gründen es darauf ankommt.
Hier einige Beispiele dafür, wie KI Ihre Cyberabwehr verbessern kann:
Finden Sie heraus, wie Risikobewertungen von Tenable dazu beitragen, die Schwachstellenpriorisierung durch ein höheres Maß an Präzision zu optimieren.
Bedrohungs- und Anomalie-Erkennung
KI erstellt eine dynamische Baseline der typischen Merkmale Ihrer Umgebung. Hierzu gehören Logins, das jeweilige Verhalten von Services, API-Aktivitäten sowie operative Abläufe von Cloud-Workloads.
Ein KI-Tool, das Teil Ihrer Cybersecurity-Lösung ist, kann ungewöhnliche Aktivitäten automatisch erkennen. Hierzu zählen beispielsweise Login-Versuche von verdächtigen Standorten aus oder Container, die an ungewöhnlichen Orten herumstöbern.
Diese Art der Anomalieerkennung stützt sich nicht auf vordefinierte Signaturen. Bei der Erkennung von neuartigen Bedrohungen, Zero-Days und Insider-Bedrohungen, die von herkömmlichen signatur- und regelbasierten Tools wahrscheinlich übersehen werden, erweist sie sich daher als besonders effektiv.
Intelligentes Angriffspfad-Mapping
Mithilfe von KI haben Sie das Gesamtbild im Blick. Da Exposure-Daten aus Ihrer gesamten Angriffsfläche in Echtzeit verarbeitet werden, ist erkennbar, aus welchen Schwachstellen, Fehlkonfigurationen und übermäßigen Berechtigungen in Ihren Cloud- und On-Prem-Umgebungen im Zusammenspiel hochriskante Angriffspfade entstehen, die zu Ihren sinnbildlichen Kronjuwelen führen.
Mithilfe von diesen Erkenntnissen können Sie Angriffspfade proaktiv unterbrechen – ob durch Entzug einer Berechtigung, Behebung einer Fehlkonfiguration oder Isolierung eines riskanten Assets.
Erweiterung von Analysen mit generativer KI
Durch generative KI sind komplexe Daten nachvollziehbarer: Generative KI kann Exposure-Pfade zusammenfassen, erklären, was eine Schwachstelle bewirkt, und beschreiben, wie die jeweilige Schwachstelle behoben werden kann – all das in einfacher Sprache.
Anstatt Dashboards oder Wissensdatenbanken zu durchforsten, können Ihre SOC- und Exposure-Analysten Fragen in natürlicher Sprache stellen – und erhalten umgehend Antworten mit umfangreichem Kontext. Dies steigert die Effizienz und verschafft ihnen Zeit, in der sie sich auf höherwertige Aufgaben fokussieren können.
Der Haken dabei? Wenn Ihre generativen KI-Tools nicht mit demselben Maß an Sorgfalt und denselben Zugriffskontrollen abgesichert werden wie andere Systeme, laufen Sie Gefahr, dass neue Sicherheitslücken entstehen. Dadurch setzen Sie sensible Daten, proprietäre Modelle und das Nutzervertrauen aufs Spiel.
KI für Sicherheit erfordert weiterhin menschliche Aufsicht. Doch künstliche Intelligenz nimmt Ihrem Team manuelle Routineaufgaben ab, die Zeit kosten und zu Burnout führen.
Wenn Sie die Ersteinschätzung von Warnmeldungen und die Korrelation und Zusammenfassung von Daten automatisieren, können sich Ihre SOC-Analysten darauf fokussieren, die Absichten von Angreifern besser nachzuvollziehen, Vorfälle zu untersuchen und eine ausgereiftere Cyberabwehr aufzubauen.
Wird Geschwindigkeit und Skalierbarkeit von KI mit menschlicher Expertise kombiniert, profitiert Ihr Unternehmen von einem entscheidenden Vorteil.
Finden Sie heraus, wie KI-Funktionen von Tenable Ihnen helfen können, durch neuartige KI-gesteuerte Angriffe entstehende Cyberrisiken zu managen und unbefugte KI-Nutzung in Ihrer gesamten Umgebung zu erkennen.
KI-Modelle im Cybersecurity-Bereich
Der Begriff „KI-gestützte Sicherheit“ wird fast schon inflationär verwendet. Doch bei näherer Betrachtung der KI-Sicherheitsplattformen, die in der Praxis am besten funktionieren, zeigt sich eine Gemeinsamkeit: Spezialisierung.
- Einige Modelle leisten hervorragende Arbeit bei Vorhersagen.
- Bei anderen Modellen steht die Erkennung von Mustern oder die Interpretation von natürlicher Sprache im Vordergrund.
Je effektiver eine Lösung das jeweilige Modell einem sicherheitsrelevanten Anwendungsfall zuordnet, desto besser und effizienter die Ergebnisse.
Nachfolgend sind einige der wichtigsten Arten von KI-Modellen aufgeführt, mit deren Hilfe Ihre Teams die Sicherheit erhöhen und ihre größten Stärken noch verbessern können:
Überwachtes maschinelles Lernen für Vorhersagen anhand von Mustern
- Funktionsweise: Das Modell lernt aus gekennzeichneten historischen Daten, um Ergebnisse vorherzusagen oder neue Eingaben zu klassifizieren.
- Einordnung im Sicherheitsbereich: Sie müssen wissen, von welchen Schwachstellen tatsächlich ein Risiko ausgeht. Überwachte Machine-Learning-Modelle können aus Billionen von Datenpunkten, früheren Exploit-Trends, Verhaltensweisen von Angreifern sowie der jeweiligen Asset-Kritikalität lernen, um vorherzusagen, welche neuen Schwachstellen Angreifer am ehesten ausnutzen werden.
- Einsatz in der Praxis: Plattformen, die dieses Modell verwenden, können jeder Schwachstelle einen prädiktiven Risiko-Score zuweisen, der auf der tatsächlichen Bedrohungsaktivität basiert. Diese datengestützte Alternative zu statischen CVSS-Scores trägt dazu dabei, Alarmmüdigkeit zu verringern.
Erkennung komplexer Bedrohungen durch Deep Learning
- Funktionsweise: Neuronale Netze wie LSTMs (Long Short-Term Memory Networks) und CNNs (Convolutional Neural Networks) analysieren Muster im Netzwerkverkehr, Verhaltensweisen von Nutzern sowie Dateizugriffsprotokolle, um Zusammenhänge aufzudecken, für die menschliche Analysten Stunden bräuchten.
- Einordnung im Sicherheitsbereich: Wenn es um komplexe Bedrohungen geht, die sich nicht an den typischen Playbooks der Angreifer orientieren, ist Deep Learning unerlässlich. DL-Modelle erfassen Aspekte, die herkömmliche regelbasierte Systeme gänzlich übersehen – insbesondere wenn Angreifer versuchen, Aktivitäten zu verschleiern oder neue bzw. unbekannte Techniken einzusetzen.
- Einsatz in der Praxis: Ein Beispiel wäre Malware, die darauf ausgelegt ist, herkömmliche Erkennungsmethoden durch eine Veränderung ihres äußeren Erscheinungsbilds zu umgehen: Das DL-Modell erkennt die zugrunde liegenden Verhaltensmuster selbst dann, wenn Angreifer Code vorsätzlich modifizieren, sodass dieser „neu“ erscheint. Oder angenommen eine Person mit legitimen Zugriffsrechten geht zu Aktivitäten über, die im Prinzip nicht gegen Richtlinien verstoßen, sich aber dennoch „falsch“ anfühlen – beispielsweise Zugriffe auf Dateien in ungewöhnlicher Reihenfolge oder zu ungewöhnlichen Zeiten. Das System nimmt diese subtilen Verhaltensänderungen wahr.
Wissensdiagramme zur Darstellung der Ausbreitung von Bedrohungen
- Funktionsweise: Entitäten, Nutzer, Assets, Berechtigungen und Schwachstellen werden in einem visuellen, durchsuchbaren Beziehungsnetz miteinander verknüpft.
- Einordnung im Sicherheitsbereich: Diese Modelle bilden die Grundlage für Angriffspfad-Analysen. Anstatt Risiken als isolierte Feststellungen zu betrachten, wird durch diese Analysen deutlich, wie Angreifer mehrere Sicherheitslücken „aneinanderreihen“ können, um sich ihren Weg zu hochwertigen Assets zu bahnen.
- Einsatz in der Praxis: Ein Wissensdiagramm könnte toxische Kombination zum Vorschein bringen, wie z. B. einen öffentlich zugänglichen Server mit einer bekannten Schwachstelle, der (über Dienstkonten mit übermäßigen Zugriffsrechten) eine Verbindung zu Ihrer Produktionsdatenbank herstellt. Das Wissensdiagramm verdeutlicht, wo Sie eingreifen müssen, um entsprechende Angriffspfade zu blockieren.
Enablement: Generative KI und NLP für Analysten
- Funktionsweise: Durch Parsing und Generierung von natürlicher Sprache sind komplexe Sicherheitsdaten stets klar, durchsuchbar und handlungsrelevant.
- Einordnung im Sicherheitsbereich: Anstatt Dashboards zu durchforsten, kann Ihr Team Fragen in einfacher Sprache stellen und erhält für Menschen lesbare Zusammenfassungen von Sicherheitslücken, Bedrohungen und Reaktionsmaßnahmen.
- Einsatz in der Praxis: Ein Analyst kann das Modell fragen, wie eine bestimmte Sicherheitslücke beseitigt werden kann oder welche Assets mit Internetanbindung und Admin-Zugriff in der Umgebung von Schwachstellen betroffen sind, und erhält umgehend präzise, kontextbezogene Antworten. Dies verkürzt Untersuchungszeiten und macht Sicherheitsabläufe für Nicht-Spezialisten leichter zugänglich.
Warum es auf das ausgewählte Modell ankommt
Wenn Anbieter behaupten, künstliche Intelligenz einzusetzen, sollten Sie folgende Fragen stellen:
- Welche Art von KI?
- Für welche Probleme wird KI eingesetzt?
- Welche Datenmenge wurde zum Training des KI-Modells eingesetzt?
- Wie häufig wird das Modell aktualisiert?
- Wie schneidet das Risikobewertungsmodell der Lösung im Vergleich zu CVSS, CISA KEV oder EPSS ab?
Zwischen Plattformen, die einen generischen Algorithmus anwenden, und Plattformen, die mehrere Modelle in strategischer Form und abgestimmt auf spezifische Aufgaben miteinander kombinieren, besteht ein gewaltiger Unterschied.
Die fortschrittlichsten Plattformen im Bereich „KI für Sicherheit“ integrieren sämtliche oben genannten Aspekte miteinander. Dabei kommen ML-Technologien (maschinelles Lernen) zur Vorhersage von Schwachstellen, Wissensdiagramme zur Darstellung von Angriffspfaden und generative KI für Empfehlungen zur Vorfallsreaktion zum Einsatz.
Diese Unterscheidungsmerkmale haben maßgeblichen Einfluss darauf, wie schnell Ihr Team agieren, wie präzise es auf Schwachstellen reagieren und wie effektiv Ihr Unternehmen tatsächlich bestehende Risiken reduzieren kann.
Frameworks für Risikomanagement und Governance im Bereich KI
In den USA ist das NIST AI Risk Management Framework (AI RMF) der primäre Standard für KI-Governance. Hierbei handelt es sich um ein Framework auf freiwilliger Basis, das Unternehmen bei der Verwaltung von KI-Risiken helfen und die Entwicklung von vertrauenswürdigen und verantwortungsvollen KI-Systemen unterstützen soll.
Das Framework umfasst vier Kernfunktionen: Steuern, Abbilden, Messen und Verwalten.
Das NIST AI RMF dient als Blueprint für verantwortungsvolle KI-Governance und KI-Risikomanagement. Es versetzt Ihre Teams in die Lage, KI-Systeme zu entwickeln, auf die Sie sich verlassen können.
Doch um das Framework in die Praxis umzusetzen, bedarf es mehr als guter Vorsätze: Hierzu sind praktische Tools notwendig, die Ihnen tiefen Einblick bieten und verwertbare Erkenntnisse vermitteln.
Plattformen mit leistungsstarken Funktionen für KI-Erkennung und KI-Sicherheit – z. B. Lösungen, die genehmigte wie auch nicht genehmigte KI-Nutzung, KI-Modelle und KI-Infrastrukturen melden – sind in die Phasen „Abbilden“ und „Messen“ des Frameworks unmittelbar eingebunden: Sie legen ein vollständiges Bestandsverzeichnis an und bringen damit verbundene Risiken zum Vorschein.
Durch kontinuierliche Überwachung von KI-Sicherheitslücken und Erkennung von Schwachstellen tragen diese Tools außerdem dazu bei, Risiken mithilfe von gezielten Behebungsmaßnahmen zu managen.
Im Endeffekt können moderne Sicherheitslösungen dabei helfen, verantwortungsvolle KI-Governance in die Praxis umzusetzen und künstliche Intelligenz auf sicherere Weise zu nutzen.
Dabei darf jedoch nicht vergessen werden, dass Frameworks keinesfalls lineare Checklisten sind: Vielmehr dienen sie als Leitfaden für kontinuierliche Prozesse, mit denen Risiken während des gesamten KI-Lebenszyklus gemanagt werden können.
Steuern
Die Funktion „Steuern“ (Govern) bildet den Eckpfeiler des AI RMF – sie etabliert und fördert eine Kultur des Risikomanagements in Unternehmen. Mit ihrer Hilfe werden Richtlinien erstellt und Verantwortlichkeiten festgelegt. Darüber hinaus stellt sie sicher, dass Unternehmen stets über die richtigen Prozesse verfügen, um die übrigen drei Funktionen zu unterstützen.
Mitarbeiter und Richtlinien steuern Governance, doch Technologie bildet die Grundlage und ist zur Durchsetzung von entscheidender Bedeutung. Ohne umfassende Sichtbarkeit und entsprechende Daten, die Sicherheitstools bieten, ist effektive Governance nicht möglich.
Wichtige Steuerungsaktivitäten
- Erstellen Sie Leitlinien zur KI-Bereitstellung und legen Sie entsprechende Risikotoleranzen im Vorfeld fest
- Legen Sie Rollen und Verantwortlichkeiten für KI-Governance fest und weisen Sie sie entsprechend zu
- Fördern Sie eine Kultur, die einen offenen Austausch von Informationen zum Thema KI-Risiken im Unternehmen priorisiert
- Erstellen Sie Prozesse, um Risiken zu managen, die durch KI-Komponenten von Drittanbietern entstehen
Abbilden, Messen und Verwalten
Sobald eine leistungsstarke Grundlage für KI-Governance besteht, sollten KI-Risiken in einem kontinuierlichen Zyklus abgebildet, gemessen und verwaltet werden.
Abbilden
Bei der Funktion „Abbilden“ (Map) stehen Kontext und Erfassung im Vordergrund. Vor der Absicherung von KI-Systemen müssen sich Unternehmen über den jeweiligen Zweck, die entsprechenden Komponenten und potenzielle Auswirkungen im Klaren sein.
Die Phase „Abbilden“ umfasst:
- Erstellung eines umfassenden Bestandsverzeichnisses des jeweiligen KI-Systems, das Modelle und Datenquellen, KI-Services in AWS, Azure und GCP, nicht genehmigte Schatten-KI-Software sowie die Erkennung von Browser-Plugins umfasst
- Dokumentation des Systemkontexts, einschließlich der vorgesehenen Ziele und Funktionen
- Identifizierung potenzieller Risiken für sämtliche Komponenten, darunter auch Elemente von Drittanbietern
Messen
In der Phase „Messen“ (Measure) werden die während der Mapping-Phase festgestellten Risiken evaluiert, um sich ein Bild davon zu machen, wie vertrauenswürdig die zur Ausführung von KI-Systemen genutzte Infrastruktur ist.
Die Phase „Messen“ umfasst:
- Analyse von Datenpipelines und Cloud-Infrastrukturen auf potenzielle Sicherheitslücken, z. B. öffentlich zugängliche Daten-Buckets, unsichere Konfigurationen in KI-Services wie Amazon SageMaker oder IAM-Rollen (Identitäts- und Zugriffsverwaltung), die Personen weit mehr Zugriffsrechte gewähren als nötig
- Kontinuierliche Prüfung und Bewertung von KI-Assets auf Schwachstellen und Fehlkonfigurationen
- Festlegung und Tracking von Kennzahlen mit Bezug zu KI-Sicherheit und KI-Compliance im Zeitverlauf
Verwalten
In der Phase „Verwalten“ (Manage) werden die zuvor abgebildeten und gemessenen Risiken entsprechend behandelt: In Abhängigkeit von den festgelegten Risikotoleranzen sollten hier Ressourcen zugewiesen werden, um die schwerwiegendsten Risiken zu beseitigen.
Die Phase „Verwalten“ umfasst:
- Anwendung von Sicherheitskontrollen zur Risikoreduzierung – wie etwa technische Eindämmungsmaßnahmen, die beispielsweise Cloud-Fehlkonfigurationen beheben, Nutzern übermäßige Berechtigungen entziehen und Daten verschlüsseln
- Tipp: Nutzen Sie eine Sicherheitsplattform, die Maßnahmen durch schrittweise Behebungsanleitungen unterstützt
- Verlagerung von Risiken zu einer Drittpartei, beispielsweise durch entsprechende Cyberversicherungen
- Gegebenenfalls die Entscheidung, von der Bereitstellung eines KI-Systems Abstand zu nehmen, wenn Risiken das akzeptable Maß übersteigen
- Formelle Akzeptanz von Risiken, die sich innerhalb der festgelegten Risikotoleranzen von Unternehmen bewegen
Verantwortungsvolle Nutzung von KI mit AI Aware
Frameworks wie das NIST AI Risk Management Framework (AI RMF) bieten einen wichtigen Blueprint für verantwortungsvolle KI, doch ohne den richtigen Ansatz zur praktischen Umsetzung bleibt all das bloße Theorie.
Genau hier kommt AI Aware ins Spiel. Tenable AI Aware liefert Daten für KI-Governance und trägt dazu bei, Richtlinien zu erstellen und durchzusetzen.
AI Aware verschafft Ihnen das notwendige Maß an Sichtbarkeit, Verständnis und Kontrolle, um KI-Risiken in Ihrem Unternehmen effektiv zu managen. Hierbei geht es um den Übergang von konzeptionellen Leitlinien zur praktischen Umsetzung.
Mit einer Plattform wie Tenable Cloud Security verfügen Sie über die notwendige technische Grundlage, um die Sicherheitslage Ihres Unternehmens mithilfe von Tenable AI Aware zu fördern. Die Lösung bietet Ihnen eine umfassende Inventarisierung zur Abbildung Ihrer gesamten KI-Landschaft, kontinuierliche Analysen zur Messung Ihrer Sicherheitslage, umsetzbare Empfehlungen zur Risikominderung und die benötigte unternehmensweite Sichtbarkeit für effektive KI-Governance.
Sind Sie bereit, über theoretische Frameworks hinauszugehen und KI-Risiken im Unternehmen wirklich zu verstehen und zu managen? Finden Sie heraus, wie Tenable Cloud Security dabei helfen kann.
Evaluierung der KI-Funktionen von Sicherheitsplattformen: 4 Tipps für CISOs
Als CISO überhäufen Sie Exposure Management-Anbieter vermutlich mit gewagten Behauptungen zu ihren KI-gestützten Lösungen. Doch viele dieser Lösungen automatisieren nur Aufgaben.
Ihre Investition in KI-Sicherheit sollte deutlich mehr leisten – und zusätzlich Geschäftsrisiken verringern und Ihr Sicherheitsprogramm stärken.
Hier einige zentrale Fragen, die sich CISOs bei der Evaluierung einer KI-Sicherheitslösung stellen sollten:
Verknüpft die Lösung KI klar und verständlich mit konkreten Sicherheitsergebnissen oder werden nur technische Funktionen aufgezählt?
Stellen Sie folgende Überlegungen an:
- Erklärt der Anbieter, aus welchen Gründen bestimmte KI-Techniken zum Einsatz kommen, und geht die Beschreibung über eine Aufzählung von Modellen oder Buzzwords hinaus?
- Kann der Anbieter seine KI-Architektur mit Ergebnissen verknüpfen, wie z. B. einer schnelleren Behebung, einer kürzeren MTTD/MTTR oder einer reduzierten Exposure?
- Ist die KI für Ihren Anwendungsfall optimiert (z. B. Schwachstellenpriorisierung, Berechtigungsrisiken) oder wird sie nachträglich im System ergänzt?
- Stellt Anbieter Nachweise oder Kennzahlen zur Verfügung, die konkrete Sicherheitsauswirkungen der KI belegen?
Ein Anbieter, der zunächst auf Ergebnisse und nicht auf Algorithmen eingeht, wird Ihnen mit größerer Wahrscheinlichkeit einen strategischen Mehrwert bieten.
Kann die KI klar und verständlich mit Menschen kommunizieren und nicht nur Daten erzeugen?
Stellen Sie folgende Überlegungen an:
- Erklärt die Plattform Feststellungen in einer gemeinsamen Sprache, die Maßnahmen begünstigt und von Analysten nicht erst entschlüsselt werden muss?
- Kann die Plattform technische Warnmeldungen in Kontextinformationen für Geschäftsverantwortliche, Risikoteams oder Prüfer übersetzen?
- Unterstützt die Plattform eine schnellere Ersteinschätzung, indem sie aufzeigt, was auf dem Spiel steht und aus welchen Gründen es darauf ankommt?
- Ist der Output teamübergreifend und nicht nur für die IT- oder Sicherheitsabteilung nutzbar?
KI-Technologie, die Kommunikation verbessert, baut Vertrauen auf und beschleunigt Maßnahmen. Wenn die Plattform nicht die Sprache Ihres Teams spricht, wird sie weder Zusammenarbeit noch Reaktionsmaßnahmen unterstützen.
Passt sich die KI an Ihre geschäftlichen Anforderungen an oder sind Sie zu Anpassungen gezwungen?
Stellen Sie folgende Überlegungen an:
- Kann die KI aus Ihrer Umgebung lernen (z. B. aus dem Nutzerverhalten) und kennt sie Ihre wichtigsten Assets?
- Werden Risikobewertungen basierend auf Ihrer spezifischen Branche und Umgebung und nicht anhand allgemeiner Benchmarks angepasst?
- Ist der Output auf Ihre tatsächliche Angriffsfläche zugeschnitten oder werden alle Unternehmen gleich behandelt?
- Kann sich die KI weiterentwickeln, wenn sich Ihre Umgebung verändert, oder hält sie an statischen Annahmen fest?
Wenn sich künstliche Intelligenz nicht an Ihr Unternehmen anpassen kann, wird sie auch nicht dazu beitragen, tatsächliche Risiken zu managen. Vielmehr wird sie das wirklich Wesentliche übersehen oder Sie mit Nebensächlichkeiten ablenken.
Unterstützt die KI risikobasierte Entscheidungen, begründet durch die jeweilige Exposure und Auswirkung?
Stellen Sie folgende Überlegungen an:
- Priorisiert die KI Feststellungen anhand des tatsächlichen Risikos, nicht nur basierend auf Schweregraden?
- Kann die KI zwischen theoretischen Schwachstellen und Schwachstellen mit realen Exposure-Pfaden unterscheiden?
- Berücksichtigt die KI Ausnutzbarkeit, Asset-Kritikalität und Angreiferverhalten, nicht nur statische CVSS-Scores?
- Hilft die KI Ihrem Team, sich auf Maßnahmen zu fokussieren, die Risiken am schnellsten senken, oder trägt sie durch irrelevante Meldungen von geringer Priorität zu Überlastung bei?
Mithilfe von KI, die risikobasierte Sicherheit ermöglicht, können Sie zielführend agieren – und Ihre begrenzten Ressourcen dadurch auf die wirklich wichtigen Sicherheitslücken fokussieren.
Wie Tenable KI im Cybersecurity-Bereich einsetzt
KI-Tools von Tenable unterstützen beide Seiten der Gleichung für KI-Sicherheit: Einerseits wird KI zur Stärkung der Cybersecurity eingesetzt, andererseits werden die von Ihrem Unternehmen entwickelten bzw. genutzten KI-Systeme abgesichert.
Dieser doppelte Fokus trägt dazu bei, Risiken an zwei kritischen Fronten zu reduzieren: Schutz Ihrer Infrastruktur und Absicherung Ihres KI-Fußabdrucks.
Dies spiegelt sich in drei zentralen Angeboten wider:
- ExposureAI unterstützt Bedrohungserkennung, Exposure-Analysen und priorisierte Behebungsmaßnahmen.
- Schwachstellenmanagement mit AI Aware trägt dazu bei, intelligentere Patching-Entscheidungen basierend auf dem tatsächlichen Risikokontext zu treffen.
- AI-SPM schützt Ihre KI-Modelle, Infrastruktur und Berechtigungen.
Nutzung von KI zur Stärkung der Cyberabwehr – mit ExposureAI
ExposureAI ist die generative Engine hinter der Exposure Management-Plattform Tenable One. Sie verarbeitet mehr als 1 Billion Datenpunkte und hilft Ihnen, Risiken mit hoher Präzision zu erkennen, auf den Grund zu gehen und zu verringern.
ExposureAI bildet die Beziehungen zwischen Assets, Nutzern, Cloud-Services, Identitäten und Schwachstellen ab. Auf Grundlage der Exposure Data Fabric von Tenable werden verstreute Sicherheitsdaten aus der gesamten Angriffsfläche abgerufen, normalisiert und miteinander verknüpft. Durch diese Data Fabric werden unzusammenhängende Feststellungen zu einem umfangreichen, engmaschigen Geflecht aus Erkenntnissen.
Und diese zusammenhängende Ansicht macht den Unterschied.
Anstatt nur isolierte Probleme zu melden, kann ExposureAI komplexe, mehrstufige Angriffsketten erkennen und jede Warnmeldung durch präzisen Kontext ergänzen. Dies ähnelt einem Wissensdiagramm: Durch Strukturierung Ihrer Daten anhand der gegenseitigen Beziehungen ist es möglich, Angriffspfade vom ersten Einstiegspunkt bis hin zu den sinnbildlichen Kronjuwelen schrittweise zu verfolgen.
Durch dieses vollständige Gesamtbild hat Ihr Team im Blick, wo Risiken vorliegen, und kann darüber hinaus erkennen, wie durch das Zusammenspiel sämtlicher Aspekte reale Gefährdungen entstehen. Dies beschleunigt die Priorisierung und Behebung von Problemen.
Diese Grundlage verleiht ExposureAI-Modellen den notwendigen umfassenden Kontext, um punktgenaue Erkenntnisse und klare Empfehlungen zu den nächsten Schritten bereitzustellen. Dadurch verändert sich die Art und Weise, wie Unternehmen Risiken in ihrer gesamten Umgebung ausfindig machen, auf den Grund gehen und beseitigen.
Finden Sie heraus, wie ExposureAI Ihnen helfen kann, irrelevante Meldungen zu Schwachstellen herauszufiltern, sodass Sie sich auf die tatsächlichen Risiken für Ihr Unternehmen fokussieren können.
Priorisierung von Schwachstellen mit AI Aware
Tenable AI Aware verbessert herkömmliche Schwachstellenmanagement-Workflows. Hierzu kommt ML-Technologie zum Einsatz, sodass sich Ihr Team auf diejenigen Sicherheitsschwächen fokussieren kann, die zum gegenwärtigen Zeitpunkt die größten Bedrohungen für Ihr Unternehmen darstellen.
Anstatt auf statische CVSS-Bewertungen zu setzen, berücksichtigt das System die jeweilige Ausnutzbarkeit, Exposure-Pfade, Threat-Intelligence und den Geschäftskontext, um Schwachstellen basierend auf konkreten Risiken zu priorisieren.
AI Aware reduziert irrelevante Meldungen und beschleunigt das Patching, indem die Lösung aufzeigt, welche Schwachstellen Angreifer in Ihrer Umgebung am ehesten ausnutzen werden. Dies trägt dazu bei, von einem reaktiven Ansatz für das Schwachstellenmanagement zu einer risikobasierten Strategie überzugehen.
Finden Sie heraus, wie AI Aware die risikobasierte Priorisierung verbessert.
Absicherung Ihres KI-Stacks mit AI-SPM
Mit zunehmender Nutzung von künstlicher Intelligenz wächst auch die Angriffsfläche. AI-SPM hilft Ihnen bei der Erfassung, Härtung und Steuerung von Cloud-Services, Modellen und Berechtigungen, die Ihre KI-Initiativen unterstützen.
AI-SPM erkennt Infrastrukturen mit KI-Bezug in AWS, Azure und Google Cloud. Die Lösung zeigt genau auf, wie Nutzer mit Plattformen interagieren, und meldet nicht autorisierte Browser-Erweiterungen, Pakete oder Schatten-KI-Services, auf die geschäftliche Nutzer zugreifen.
AI-SPM kann mit CIEM-Tools (Cloud Infrastructure and Entitlement Management) integriert werden, um Least-Privilege-Zugriff durchzusetzen. Die Lösung verfolgt nach, wer auf Ihre Modelle, APIs und sensiblen Daten zugreift, sodass Sie Missbrauch frühzeitig erkennen und Compliance aufrechterhalten können.
Nutzung von KI zur Priorisierung konkreter Risiken mit VPR
Das Tenable Vulnerability Priority Rating (VPR) nutzt maschinelles Lernen, um Schwachstellen dynamische Risikobewertungen zuzuweisen. Diese Bewertungen beruhen nicht einfach nur auf statischen CVSS-Scores sondern auf mehreren konkreten Einflussfaktoren: Anstatt Ihr Team mit Warnmeldungen zu überschwemmen, trägt dies zur Priorisierung von tatsächlichen Risiken bei.
VPR umfasst:
- Exploit-Verfügbarkeit und deren Verwendung für Angriffe (Weaponization)
- Informationen zu aktiven Bedrohungen (Threat-Intelligence) aus öffentlichen Quellen und dem Darknet
- Asset-Exposure und Netzwerkkontext
- Zeitliche Trends und Angreiferverhalten
Beispiel:
- Zwei Schwachstellen könnten einen CVSS-Score von 9,8 aufweisen, doch Bedrohungsakteure nutzen nur eine davon aktiv aus.
- Anstatt basierend auf diesem Score in Hektik zu verfallen und beide Schwachstellen zu beheben, wendet VPR weitere Kennzahlen zur Risikobewertung an. Dadurch wird der Schwachstelle, die tatsächlich mit Bedrohungsaktivitäten verbunden ist, ein entsprechend höherer Risiko-Score zugewiesen. VPR bietet Ihnen die erforderlichen Erkenntnisse, um herauszufinden, welche der Schwachstellen zuerst gepatcht werden muss.
Sie möchten sich ein Bild davon machen, wie ExposureAI und AI-SPM bei der Absicherung Ihrer Umgebung und Ihrer KI-Initiativen ineinandergreifen? Lernen Sie die KI-gestützten Cybersecurity-Lösungen von Tenable kennen.
KI-Sicherheit – Ressourcen
KI-Sicherheit – Produkte
Aktuelles zum Thema Cybersecurity
- Tenable Cloud Security
- Tenable One
- Tenable Vulnerability Management