Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070
8-minute read May 4 2026

Sicherheit für KI: Ein strategisches Framework zur Schließung der KI-Exposure-Lücke

Security for AI a 5-step strategic framework for securing AI cybersecurity

Mit zunehmender KI-Nutzung stehen CISOs vor einer doppelten Herausforderung: Es gilt, Innovationen voranzutreiben und parallel dazu die Risiken einer rasant wachsenden Angriffsfläche einzudämmen. Das fünfstufige Framework von Tenable zur Absicherung von künstlicher Intelligenz bietet einen systematischen Ansatz, der KI-Sicherheitsrisiken reduziert, während Ihr Unternehmen im Eiltempo darauf hinarbeitet, die mit KI verbundenen Produktivitätsvorteile zu realisieren. 

Wichtigste Erkenntnisse

  1. Profitieren Sie von einem fünfstufigen Framework, mit dessen Hilfe Sie die KI-Nutzung in Ihrem gesamten Unternehmen absichern und durch KI-Tools entstehende Sicherheitsrisiken eindämmen können.
     
  2. Die Absicherung von KI-Nutzung in Unternehmen erfordert eine Kombination aus zuverlässigen Funktionen zur Erfassung von KI, Mechanismen zur Absicherung von KI-Workloads und KI-Infrastruktur sowie Transparenz auf Prompt-Ebene. Hinzu kommen die Fähigkeit, KI-Sicherheitsrisiken zusammen mit weiteren Sicherheitslücken – sogenannte Exposures – zu analysieren, sowie technische Kontrollen, die gewährleisten, dass die Richtlinie zur akzeptablen KI-Nutzung Ihres Unternehmens stets eingehalten wird. 
     
  3. In diesem Blogbeitrag erfahren Sie, warum Ihre vorhandenen Sicherheitskontrollen möglicherweise unzureichend sind, was die Absicherung von KI angeht.

 

Im Zuge der Transformation von Unternehmen durch künstliche Intelligenz setzen sich Sicherheitsverantwortliche (zu denen ich auch zähle) mit der Frage auseinander, wie die daraus entstehenden Sicherheitsrisiken möglichst effektiv gemanagt werden können.

Die Herausforderung besteht darin, dass KI inzwischen praktisch überall in Unternehmen eingebettet ist – in Produktivitätstools von Mitarbeitern, SaaS-Plattformen, Entwicklerbibliotheken, Cloud-Services, APIs und Web-Apps. Das Ergebnis: Teams sehen sich mit einer immer größeren KI-Exposure-Lücke konfrontiert; eine riesige und weitgehend unsichtbare Angriffsfläche, zu deren Überwachung herkömmliche Sicherheitstools nicht konzipiert wurden

Erschwerend kommt hinzu, dass sich KI-Risiken häufig nicht isoliert auf ein einzelnes Asset beschränken lassen. Vielmehr gehen diese Risiken aus einer Reihe von miteinander vernetzten Elementen hervor (z. B. Anwendungen, Infrastruktur, Identitäten und Daten), aus denen im Verbund Sicherheitslücken – sogenannte Exposures – entstehen. Ein Beispiel zur Veranschaulichung:

Angenommen, ein Mitarbeiter nutzt einen genehmigten KI-Chatbot zur Bearbeitung von technischen Support-Anfragen, der sich auf Amazon Bedrock-Agents stützt. Diese Agents verfügen über erhöhte Berechtigungen für den Zugriff auf sensible interne Systeme wie ERP- oder CRM-Tools. Verschafft sich ein Bedrohungsakteur über eine ungepatchte Schwachstelle auf dem Mitarbeiter-Laptop Zugriff auf den Agent, kann er diesen zur Kompromittierung von sensiblen Daten nutzen – und schon entpuppt sich die scheinbar sichere Nutzung eines genehmigten KI-Tools als folgenschwere Exposure.

Datenschutz erweist sich in den KI-unterstützten Arbeitsumgebungen der heutigen Zeit als immer schwierigere Aufgabe, da jede der unzähligen Interaktionen mit KI-Assets (z. B. sämtliche Prompts, Datei-Uploads, generierten Antworten, Integrationen und Konfigurationen) geistiges Eigentum, Kundendaten und vertrauliche Pläne in Gefahr bringen kann.

Wie also lässt sich diese komplexe neue Angriffsfläche unter Kontrolle bringen, die bei zunehmender KI-Nutzung in Unternehmen ungehindert wächst? Hier ein strategisches Framework, das ich zur Steuerung, Erfassung und Absicherung von KI implementiert habe – wo auch immer diese in Erscheinung tritt und Risiken für Unternehmen hervorruft: 

Strategisches Framework: 5 Schritte zur Absicherung von KI in Unternehmen

1. Ausschuss für KI-Governance, KI-Framework und Richtlinie zur akzeptablen KI-Nutzung festlegen

Zur Absicherung von KI müssen zunächst klare Erwartungen festgelegt werden, was die akzeptable Nutzung durch Mitarbeiter betrifft. Legen Sie eine Richtlinie zur akzeptablen KI-Nutzung fest, die:

  • eine Liste der genehmigten und nicht genehmigten KI-Tools enthält
  • angemessene und unangemessene geschäftliche Anwendungsfälle definiert
  • darlegt, welche Arten von Daten mit LLMs geteilt und nicht geteilt werden dürfen
  • Regeln für den Umgang mit Daten vorschreibt
  • Urheberrechtsgesetzen Rechnung trägt
  • Konsequenzen bei Richtlinienverstößen darlegt

Basierend auf der Richtlinie zur akzeptablen KI-Nutzung Ihres Unternehmens können Sie Kontrollen implementieren, um die Einhaltung der Richtlinie durchzusetzen und zu überwachen.

2. KI auf der gesamten Angriffsfläche erfassen

Bei Gesprächen über die Absicherung von KI schildern mir andere CISOs häufig, dass KI-Erkennung und KI-Erfassung zu ihren größten Herausforderungen zählen. Das ist nachvollziehbar, denn KI ist zwar allgegenwärtig, lässt sich größtenteils aber sehr schwer ausfindig machen – zum Teil deshalb, weil die Präsenz von KI weit über zentral verwaltete, deutlich sichtbare Systeme hinausgeht. 

Als Sicherheitsverantwortliche dürfen wir die folgenden Aspekte nicht außer Acht lassen:

  • KI-Assets, Agents, Plugins, Browsererweiterungen und Workloads – und zwar unabhängig davon, ob sie...
    • in der Cloud oder On-Prem ausgeführt werden
    • intern oder extern zugänglich sind
    • genehmigt oder nicht genehmigt wurden
  • In Vergessenheit geratene KI-Testbereitstellungen
  • In Endgeräte und Anwendungen eingebettete KI-Tools
  • Sämtliche KI-Software, Bibliotheken, Modelle und Services
  • Öffentlich zugängliche KI-Services, LLM-APIs (Large Language Model) sowie KI-Chatbots auf Endgeräten und in Cloud-Anwendungen

Ihre vorhandenen Lösungen für Data Loss Prevention (DLP), Cloud Access Security Broker (CASB) und Cloud Security Posture Management (CSPM) können als guter erster Ausgangspunkt zur Erfassung von KI-Assets dienen. Doch eine ganzheitliche Erfassung erfordert spezialisierte Discovery-Tools, denn aufgrund ihrer nichtdeterministischen Beschaffenheit hebelt künstliche Intelligenz regelbasierte Sicherheitsvorkehrungen aus. Darüber hinaus sind individuelle Erkennungsfunktionen erforderlich, um eingebettete KI-Tools und KI-Bibliotheken zu identifizieren und nachzuvollziehen, wie KI-Systeme ineinandergreifen und Sicherheitslücken hervorrufen.

Dank eines kontinuierlichen und vollständigen Überblicks über die KI-Nutzung in Ihrem Unternehmen wissen Sie ganz genau, welche Workloads und Infrastrukturen abgesichert werden müssen, und können damit beginnen, die gesamte KI-Exposure Ihres Unternehmens zu bewerten und spezifische Behebungsmaßnahmen entsprechend zu priorisieren.

3. KI-Workloads und KI-Agents absichern

KI-Workloads sind engmaschig miteinander vernetzt und oftmals in hohem Maße fehlkonfiguriert bzw. mit übermäßigen Berechtigungen versehen. Aus diesem Grund umfasst dieser Schritt die proaktive Absicherung der KI-Infrastruktur sowie die Härtung von KI-Workloads – noch bevor Angreifer sie ausnutzen können. Wenn Entwickler in Ihrem Unternehmen beispielsweise KI-fähige Anwendungen in der Cloud erstellen, sollten Sie sicherstellen, dass diese Cloud-Infrastruktur auch abgesichert ist. 

Effektive Schutzvorkehrungen erfordern Funktionen, mit denen Unternehmen:

  • Fehlkonfigurationen und riskante Konfigurationen in cloudbasierten KI-Workloads identifizieren können
  • Schwachstellen erkennen können, die Modelle, Agents, Daten oder APIs möglicherweise unbefugten Zugriffen aussetzen
  • Eine identitätsbasierte Reduzierung der Exposure implementieren können, da sich KI in hohem Maße auf nicht-menschliche Identitäten stützt.
  • Von KI-Workflows genutzte überprivilegierte Dienstkonten, Rollen und Maschinenidentitäten identifizieren und Least-Privilege-Zugriff streng durchsetzen können
  • Potenziellen Angriffspfaden zwischen KI-Assets und KI-Workloads auf den Grund gehen können, die unter Umständen geschäftskritische Systeme beeinträchtigen oder zu sensiblen Daten führen
  • Unberechenbare oder kompromittierte KI-Agents schnell in kontrollierten Umgebungen isolieren können, um die potenziellen Auswirkungen etwaiger Sicherheitsverletzungen zu minimieren

Auf dieses spezifische Thema – Absicherung von KI-Workloads und KI-Agents – werde ich in einem bereits geplanten Blogbeitrag noch näher eingehen. In der Zwischenzeit können Sie sich durch eine tiefgreifende Risikoanalyse Ihres KI-Stacks ein Bild davon machen, wie Schwachstellen bei Identitäten und Fehler in der Infrastruktur zusammenwirken und kritische Sicherheitslücken hervorrufen. Basierend auf diesen Erkenntnissen können Sie Ihren Sicherheitsteams dann handlungsorientierte Playbooks zur Verfügung stellen, die Umgebungen stärker absichern und sicherstellen, dass Services auf sicheren, resilienten und validierten Architekturen ausgeführt werden.

4. KI-Nutzung und KI-Interaktionen bewerten

Dieser Schritt erfordert ein genaues Verständnis der Art und Weise, wie Mitarbeiter mit generativen KI-Tools und autonomen Agents interagieren, um zu gewährleisten, dass sie nicht gegen die Richtlinie zur akzeptablen KI-Nutzung Ihres Unternehmens verstoßen. Es ist von entscheidender Bedeutung, sich darüber im Klaren zu sein, wie Daten durch sämtliche KI-Anwendungen fließen, und zu ermitteln, wo Sicherheitslücken entstehen. 

Hierzu ist ein detaillierter Einblick in folgende Fragestellungen und Aspekte erforderlich:

  • Wer nutzt KI?
  • Zu welchem Zweck wird KI genutzt?
  • Wo haben riskantes Verhalten und Missbrauch ihren Ausgangspunkt?
  • Welche Daten geben Mitarbeiter durch Prompts, Uploads oder automatisierte Maßnahmen an Dritte weiter?
  • Versuche, die darauf abzielen, genehmigte KI-Tools per Jailbreak zu kompromittieren und bösartige Prompts einzubringen

Durch Einblick auf Prompt-Ebene in die mitarbeiterseitige KI-Nutzung kann Ihr Sicherheitsteam Richtlinienverstöße erkennen und sicheres KI-Verhalten verstärken. Darüber hinaus versetzt dieser Einblick Ihr Sicherheitsteam in die Lage, sämtliche sensiblen Daten (einschließlich geistiges Eigentum und personenbezogene Daten) zu identifizieren, die Mitarbeiter oder Agents durch Prompts, Uploads und automatisierte Interaktionen an KI-Tools weitergeben und durch ein versehentliches Datenleck Sicherheitslücken hervorrufen könnten. Und nicht zuletzt kann Ihr Sicherheitsteam dank dieses Einblicks neue KI-spezifische Bedrohungen sowie Missbrauch erkennen und entsprechend darauf reagieren. Hierzu zählen beispielsweise Prompt-Injection-Versuche und weitere bösartige Anweisungen, die auf eine Manipulation von KI-Systemen ausgelegt sind. 

Völlig unabhängig davon, ob ein bösartiges Tool erfasst wird, das mit einem Microsoft Copilot-Agent verbunden ist, oder ob ein Mitarbeiter KI in unangemessenen Situationen missbraucht, für die das entsprechende Tool nicht konzipiert wurde (z. B. interne Entscheidungen bei der Einstellung von Mitarbeitern): Sie müssen schnell reagieren können, um der jeweiligen Exposure Rechnung zu tragen und sichere KI-Nutzung zu verstärken.

5. KI-Sicherheitsrisiken im Kontext weiterer Sicherheitslücken analysieren

Zur Eindämmung von KI-Sicherheitsrisiken reicht es nicht aus, ungepatchte Schwachstellen in KI-Software, „schwache“ Konfigurationen von KI-Systemen und überprivilegierte Agents in Isolation zu erkennen. Schließlich wird künstliche Intelligenz vollumfänglich in sämtliche Anwendungen, Daten und Geschäftsprozesse integriert.

Die Eindämmung von KI-Sicherheitsrisiken erfordert einen einheitlichen, automatisierten Ansatz, mit dem kontextreiche KI-Sicherheitsdaten gesammelt und zusammen mit weiteren Exposure-Daten korreliert und analysiert werden – beispielsweise mit Daten zu öffentlich zugänglichen S3-Buckets, anfälligen Laptops oder verwaisten Konten mit Admin-Berechtigungen. Dieser Ansatz wird bei Tenable als „Exposure Management“ bezeichnet und ist innerhalb der Branche rapide auf dem Vormarsch. Mithilfe von Exposure Management können Sie proaktiv erkennen, wie Sicherheitsschwächen in Ihrer gesamten Umgebung zusammenwirken und Sicherheitslücken hervorrufen: hochriskante Angriffspfade, die zu den sensibelsten Systemen und Daten Ihres Unternehmens führen. 

Exposure Management bringt darüber hinaus Risiken mit präzisem Kontext zum Vorschein, einschließlich der spezifischen KI-Engine sowie der jeweiligen Benutzer und Sitzungen, um ein hochpräzises Problemmanagement und schnelle Reaktionsmaßnahmen zu ermöglichen. Hier geht es darum, nachzuvollziehen, wie toxische Risikokombinationen im Zusammenspiel zu geschäftlicher Exposure führen. Eine Fehlkonfiguration von mittlerer Kritikalität in Amazon Bedrock könnte mit einem nicht abgesicherten LLM verbunden sein, das Agents mit Zugriffsberechtigungen überversorgt. Exposure Management erfordert dieses lückenlose Verständnis der gesamten Umgebung und Angriffsfläche.

KI-Innovation: Ein sicherer Weg in die Zukunft

Durch die rasche Integration von KI im gesamten Unternehmen ist eine komplexe, verflochtene Angriffsfläche entstanden, die sich mittels herkömmlicher Sicherheitskontrollen einfach nicht bewältigen lässt. Sicherheitsverantwortliche müssen von einem reaktiven, Tool-orientierten Ansatz zu einer proaktiven, einheitlichen Strategie übergehen, um die KI-Exposure-Lücke zu schließen.

Durch die Implementierung dieses fünfstufigen Frameworks können Sie eine resiliente Sicherheitslage schaffen, die sich im Gleichschritt mit KI-Technologie weiterentwickelt. Letzten Endes geht es bei effektivem Exposure Management nicht darum, Innovationen auszubremsen. Vielmehr müssen die notwendigen Leitplanken bereitgestellt werden, um zu gewährleisten, dass Ihr Unternehmen die Leistungsstärke von künstlicher Intelligenz auf sichere und zuverlässige Weise nutzen kann.

Author

Mehr erfahren