Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

Was ist Schatten-KI?

Veröffentlicht | 12. Dezember 2025 |

Risiken und Governance-Strategien

Schatten-KI liegt vor, wenn Ihre Mitarbeiter im Rahmen ihrer täglichen Arbeit nicht zugelassene Tools der künstlichen Intelligenz verwenden. Der Einsatz von KI-Ressourcen kann zwar die Produktivität steigern, setzt Ihr Unternehmen jedoch erheblichen potenziellen Datenlecks und Compliance-Risiken aus, die Sie nicht einfach verbieten, sondern auch regulieren müssen.

Wichtige Erkenntnisse zum Thema Schatten-KI

  • Für Ihr Unternehmen besteht ein unmittelbares Risiko von Datenlecks, wenn Benutzer sensibles geistiges Eigentum (IP) oder personenbezogene Daten (PII) in öffentliche KI-Modelle einfügen.
  • KI-Tools zu verbieten funktioniert selten. Sicherheitsverantwortliche sind erfolgreich, wenn sie als Vermittler auftreten, die eine sichere KI-Nutzung ermöglichen.
  • Als ersten Schritt hin zu Governance muss Ihr Unternehmen Sichtbarkeit schaffen, indem es mit Tools wie Tenable AI Exposure standardisierte Sicherheit für KI einführt.

Die KI-Sichtbarkeitslücke: Warum man nicht immer sehen kann, wer KI benutzt

Schatten-IT entsteht, wenn Ihre Mitarbeiter nicht genehmigte Tools für künstliche Intelligenz für ihre Arbeit nutzen, etwa wenn Mitarbeiter generative KI-Anwendungen wie große Sprachmodelle (LLMs) verwenden, um Inhalte zu entwerfen, Bilder zu generieren, Code zu schreiben oder Daten zu analysieren, ohne dafür die Genehmigung Ihres IT-Teams zu haben.

Das Konzept der Schatten-KI ähnelt zwar dem der klassischen Schatten-IT (die Verwendung von nicht genehmigter Software oder Hardware), aber Schatten-KI erhöht Ihr Cyberrisiko. Stellen Sie sich Schatten-KI als Schatten-IT im Turbo vor. 

Traditionelle Schatten-IT erfordert oftmals einen Installations- oder Beschaffungsprozess, was zu Reibungsverlusten führt. Im Gegensatz dazu können Ihre Nutzer umgehend auf browserbasierte, kostenlose KI-Tools zugreifen. Durch den schnellen und einfachen Zugang kann sich KI-Nutzung virusartig in Ihrer Belegschaft ausbreiten, bevor Ihre Sicherheitsteams sie überhaupt feststellen können.

Datenfluss ist ein entscheidendes Unterscheidungsmerkmal zwischen Schatten-KI und Schatten-IT. Während herkömmliche Risiken in der Regel auf nicht genehmigte Software als Schwachstelle abzielen, entstehen die Risiken bei der Schatten-KI durch die Daten, die Sie darin eingeben.

Wenn Mitarbeiter proprietären Code, sensible Kundendaten oder interne Strategiedokumente in öffentliche KI-Modelle einfügen, sind diese Daten nicht mehr unter Ihrer Kontrolle. Die Übermittlung dieser Daten trainiert das Modell, um bessere Ergebnisse zu erzielen, aber sie setzt Ihr Unternehmen zugleich einem Datenleck aus. Die KI kann Ihr geistiges Eigentum erlernen und es zu einem späteren Zeitpunkt als Antwort auf externe Anfragen preisgeben.

Als Best Practice sollten Sie Ihre KI-Tools nach Funktionalität und Risiko kategorisieren:

  • Sanktionierte KI ist im Allgemeinen risikoarm. Denken Sie an unternehmensverwaltete Instanzen von ChatGPT Enterprise, bei denen Sie Datenspeicherung und Datenschutzeinstellungen kontrollieren.
  • Schatten-KI birgt ein variables bis hohes Risiko. Diese nicht verwalteten KI-Tools lassen zu, dass Daten Ihren Perimeter verlassen. Einige sind seriös, wie die kostenlose Version von ChatGPT. Andere, wie z. B. DeepSeek, sind undurchsichtiger und verfügen möglicherweise nicht über die nötige Transparenz oder solide Sicherheitskontrollen.
  • KI-Agents und autonome KI-Tools stellen ein kritisches Risiko dar. Im Gegensatz zu einfachen Chatbots, die in der Regel nur Fragen beantworten, können Agents und autonome Tools Aufgaben ohne menschliche Aufsicht erledigen.

Erfahren Sie, wie Sie Sicherheit von Schatten-KI in Ihre Exposure Management-Strategie integrieren können: Sicherheit für KI vs. KI für die Sicherheit.

Datenabfluss

Schatten-KI birgt unmittelbare Risiken für Ihr geistiges Eigentum und Ihre Compliance. Während es bei herkömmlichen Software-Schwachstellen in der Regel einige Zeit dauert, bis Angreifer sie ausnutzen können, kann es bei generativer KI zu Sicherheitsproblemen kommen, sobald ein Mitarbeiter die Enter-Taste drückt.

Ihr Hauptanliegen sollte ungewollter Datenabfluss sein. 

Wenn Ihre Teams firmeneigenen Code, Finanzprognosen oder sensible Kundendaten in einen öffentlichen KI-Chatbot einfügen, geben sie diese Informationen im Wesentlichen an den Modellanbieter weiter. 

Leider erlauben die meisten öffentlichen Nutzungsbedingungen diesen KI-Anbietern, Eingaben für das Modelltraining zu verwenden. Das bedeutet, dass Ihre Geschäftsgeheimnisse später in der Antwort eines Konkurrenten landen könnten.

Wenn Ihr Unternehmen nicht verwaltete Modelle verwendet, birgt Schatten-KI zudem das Risiko schädlicher oder unethischer KI-Ergebnisse, die zu Reputationsschäden oder Betriebsausfällen führen können.

Abgesehen von Datenverlusten gefährdet die Verwendung von nicht überwachten Verbraucher-Tools die Qualität und Zuverlässigkeit von KI-Ergebnissen, was sich auf den Kerngeschäftsbetrieb auswirken kann.

Autonome KI-Agents

Zudem stehen Sie einer neuen Art von verborgenen Risiken gegenüber: autonomen KI-Agents 

Wie CIO.com feststellt, sind „verborgene Agents“ mehr als nur einfache Chatbots. Sie können komplexe Aufgaben ohne Aufsicht durchführen. Diese KI-Tools umgehen die traditionelle Cybersecurity Governance oft vollständig. 

Wenn Mitarbeiter sanktionierte KI umgehen, arbeiten sie außerhalb Ihres Blickfelds. Laut dem Bericht „Access-Trust Gap“ von 1Password geben 33 % der Mitarbeiter zu, dass sie die KI-Richtlinien nicht immer befolgen. 

Diese unkontrollierten Datenströme lähmen auch Incident Response. Ihr Team kann keine Risikominderung für ein Datenleck vornehmen oder die Einhaltung von Vorschriften bei einen Datenschutzvorfall erfüllen, den es nicht sehen kann. 

Gängige Beispiele für Schatten-KI

Um Schatten-IT effektiv zu regulieren, müssen Sie erkennen, wo sie sich versteckt. Sie kann ohne Ihr Wissen in allen Bereichen Ihres Unternehmens auftreten. Ein häufiger Grund ist der Wunsch der Mitarbeiter, schneller zu arbeiten.

  • Softwareentwickler fügen oft unternehmenseigene Codeblöcke in LLMs ein, um Fehler zu beheben oder Dokumentation zu erstellen. In einem viel beachteten Vorfall haben Samsung-Mitarbeiter versehentlich vertraulichen firmeneigenen Code in einen öffentlichen KI-Assistenten hochgeladen. Auch richten Entwickler häufig nicht autorisierte Cloud-Instanzen ein, um ihre eigenen Open-Source-KI-Modelle zu hosten, was zu Schwachstellen nicht-verwalteter Infrastruktur führt.
  • Marketing- und Vertriebsteams nutzen häufig KI, um E-Mails zu verfassen oder Interessenten zu analysieren. Sie könnten Tabellenkalkulationen mit Kundenlisten oder Umsatzzahlen in öffentliche Tools hochladen, um Zusammenfassungen zu erstellen und dabei versehentlich personenbezogene Daten und Finanzdaten an den KI-Modellanbieter weitergeben.

Selbst risikobewusste Abteilungen wie die Rechtsabteilung und die Personalabteilung können diese Fehler machen. Ein juristischer Mitarbeiter könnte einen vertraulichen Vertrag hochladen, um eine Zusammenfassung komplexer Konditionen zu erstellen, oder ein Personalleiter könnte Leistungsbeurteilungen einfügen, um Feedback zu verfassen. In beiden Fällen gelangen hochsensible interne Daten in den öffentlichen Bereich.

KI-Governance vs. KI-Verbot: Der „Vermittler“-Ansatz

Führungskräfte in Ihrem Unternehmen könnten versucht sein, generative KI gänzlich zu verbieten. Es scheint die einfachere Option zu sein, aber Sie sollten dies nicht tun. 

Strenge KI-Verbote funktionieren selten. Sie treiben die KI-Nutzung in den Untergrund. Mitarbeiter, die glauben, dass KI sie produktiver macht, werden Möglichkeiten finden, das Verbot zu umgehen. Sie werden ihre persönlichen Geräte oder netzwerkexterne VPNs verwenden, so dass Sie keinerlei Einblick haben.

Anstatt zu allem „Nein“ zu sagen, sollten Sie lieber als „Vermittler“ für KI fungieren. Das bedeutet, dass Sie Zugang zu den KI-Tools ermöglichen, die Ihr Unternehmen benötigt, während Sie gleichzeitig die notwendigen Maßnahmen ergreifen, um die Sicherheit Ihrer Daten zu gewährleisten. Sie bewerten und genehmigen Tools im Hinblick auf die Einhaltung von Sicherheitsstandards und stellen einen sanktionierten, regelkonformen Nutzungsrahmen bereit.

Beginnen Sie mit einer eindeutigen Richtlinie zur akzeptablen Nutzung von KI. Ihre KI-Richtlinie sollte klarstellen, welche Datenklassifizierungen für KI sicher sind und welche tabu sind. 

Indem Sie klare Regeln aufstellen, anstatt die Funktionalität zu blockieren, schaffen Sie Vertrauen und motivieren Nutzer, in einer transparenten, kontrollierten Umgebung zu verbleiben.

Benötigen Sie Hilfe bei der Einführung von KI-Governance? Lesen Sie unseren Leitfaden zu Was ist eine Richtlinie zur akzeptablen Nutzung von KI?

Wie Sie Ihr Unternehmen gegen Bedrohungen durch Schatten-KI schützen können: Ein 5-stufiges Framework

Um KI-Innovationen zu ermöglichen und zugleich Ihre Daten zu schützen, benötigen Sie ein kontinuierliches, fünfstufiges KI-Governance-Framework. Tenable ist davon überzeugt, dass Sichtbarkeit die Grundlage für diese Governance bildet. Nur mit einer einheitlichen Sichtbarkeit von IT, Cloud, Identitäten, OT, KI und dem Rest Ihrer Angriffsfläche können Sie Risiken effektiv reduzieren.

1. Gefährdung durch KI ermitteln

Sichtbarkeit ist Ihr grundlegender Schutz gegen die Risiken von Schatten-KI. Sie sollten jedes in Ihrer Umgebung verwendete KI-Tool identifizieren, von autorisierten Unternehmensinstanzen bis hin zu nicht autorisierten öffentlichen Anwendungen, die in den Browsern der Mitarbeiter laufen. 

Zwar setzen viele Unternehmen auf traditionelle Tools wie Data Loss Prevention (DLP), Cloud Access Security Broker (CASB), Endpoint Detection & Response (EDR) oder cloud-native Sicherheitskontrollen, doch reichen diese oft nicht aus. Ihnen fehlt der spezifische Kontext, um KI-Modelle und ihre einzigartigen KI-Datenströme zu verstehen. 

Um die Nutzung von Schatten-KI zu finden, die Sie übersehen, benötigen Sie automatisierte Erkennungsfunktionen, die speziell für KI entwickelt wurden:

AI Aware unterstützt Sie bei der Inventarisierung der KI-Nutzung, indem es entsprechende Apps auf Endgeräten und in Netzwerken ermittelt.

Mithilfe der AI-SPM-Funktionen können Sie KI in Entwicklungsumgebungen inventarisieren, um die Entwicklung von Schatten-KI aufzudecken, bevor sie aktiv eingesetzt wird. Um diesen Workflow abzusichern, verwenden Sie Tenable AI Exposure, um das Risiko vor der Bereitstellung zu validieren und zur Laufzeit kontinuierlich auf Risiken zu überwachen.

2. KI-Risiken bewerten

Sobald Sie die KI-Tools feststellen, bewerten Sie diese. Lesen Sie die Nutzungsbedingungen für jede Anwendung. 

  • Beansprucht der KI-Anbieter das Eigentum an Ihren Eingaben?
  • Werden Ihre Daten verwendet, um öffentliche KI-Modelle zu trainieren?
  • In welcher Region speichert das System Ihre Daten (z. B. in der EU oder in China)?
  • Welche Arten von branchenspezifischen Bestimmungen hält der KI-Anbieter ein?

Klassifizieren Sie dann jedes Tool auf der Grundlage dieser Ergebnisse als „sicher“, „eingeschränkt“ oder „verboten“.

Tenable AI Exposure überwacht diese Schatten-KI-Agents kontinuierlich, um Ihnen genau aufzuzeigen, wie sie arbeiten und welche KI-Risiken sie darstellen.

3. Nutzung mittels Richtlinien regulieren

Formalisieren Sie Ihre Entscheidungen in einer klaren Richtlinie für KI-Governance. Sie sollten genau festlegen, wer KI nutzen darf, welche KI-Tools diese Personen nutzen und welche Daten sie eingeben dürfen. 

Außerdem sollte Ihre Richtlinie klare Rechenschaftskriterien für Aufsichtsrat und CEO festlegen, um zu bestätigen, dass die KI sicher ist und den erwarteten geschäftlichen Nutzen bringt. Als Ausgangspunkt sollten Sie Ihre Strategie für KI-Governance mit dem NIST AI Risk Management Framework (NIST-Rahmenwerk für das Management von KI-Risiken) abstimmen.

Darüber hinaus sollten Sie, um den ROI nachzuweisen, Ihre Kennzahlen über die Risikominimierung hinaus auf die geschäftlichen Auswirkungen ausweiten, z. B. indem Sie die Akzeptanz von genehmigten KI-Tools im Vergleich zu nicht genehmigten Tools verfolgen und den operativen Effizienzgewinn abschätzen, den Ihr Unternehmen durch die Umstellung der Benutzer auf sichere KI-Modelle der Enterprise-Klasse erzielt.

4. Mitarbeiter schulen

Richtlinien sind bedeutungslos ohne entsprechende Schulungsmaßnahmen. Erklären Sie Ihren Mitarbeitern , warum es diese Leitplanken für die KI-Nutzung gibt. Erklären Sie die konkreten Risiken von Datenabfluss durch KI-Tools, damit die Mitarbeiter verstehen, dass Sie die Betriebsgeheimnisse schützen und nicht nur willkürliche Regeln durchsetzen wollen.

5. KI-Nutzung kontinuierlich überwachen und Audits durchführen

Die KI-Landschaft verändert sich täglich. Neue Tools tauchen auf, und sichere Tools ändern ihre Nutzungsbedingungen. Sie müssen eine kontinuierliche Prüfschleife einrichten, um nicht autorisierte Tools aufzuspüren. Wie ISACA aufzeigt, ist die Prüfung dieser nicht autorisierten KI-Tools von entscheidender Bedeutung für die Aufrechterhaltung eines konformen Unternehmens vor dem Hintergrund der schnellen KI-Einführung.

Letztendlich bietet generative KI einen immensen Wert, aber Ihr Unternehmen muss sie sicher und überlegt einsetzen. Lassen Sie nicht zu, dass Nutzung von Schatten-KI zu mehr verborgenen Sicherheitsrisiken führt. Indem Sie für klare Transparenz und Governance sorgen, können Sie Ihre Mitarbeiter zu Innovationen befähigen, ohne Ihre Daten der öffentlichen KI-Domäne zu überlassen.

Sehen, sichern und verwalten Sie Ihr KI-Ökosystem mit Tenable AI Exposure.

Häufig gestellte Fragen zu Schatten-KI

Mit dem Aufkommen und der zunehmenden Verbreitung von KI wächst auch die Anzahl der Fragen in gleichem Maße. Im Folgenden haben wir einige der am häufigsten gestellten Fragen zusammengestellt, um die dringlichsten zu beantworten.

Was ist der Unterschied zwischen Schatten-KI und Schatten-IT? 

Schatten-IT bezieht sich auf jegliche nicht autorisierte Software oder Hardware. Schatten-KI ist eine spezielle Untergruppe, die Tools der künstlichen Intelligenz umfasst. Der entscheidende Unterschied liegt im Risikoprofil. Schatten-IT gefährdet Ihre Infrastruktur, während Schatten-KI in erster Linie die Daten gefährdet, die Sie ihr zuführen.

Gilt ChatGPT als Schatten-KI? 

Wenn ChatGPT auf Ihrer Liste der zugelassenen KI-Tools steht, ist es genehmigt; andernfalls handelt es sich um Schatten-KI.

Wie kann ich die Verwendung von Schatten-KI erkennen? 

Sie können sich nicht auf manuelle Erhebungen verlassen, um die Nutzung von Schatten-KI zu erkennen. Tenable One Exposure Management vereint Daten aus AI Aware, AI-SPM und Tenable AI Exposure, um KI-Sicherheitsrisiken in Endpoints, Netzwerk, Cloud und Identitäten aufzudecken.

Verschaffen Sie sich vollständigen Einblick in KI-Anwendungen und schließen Sie Ihre KI-Exposure-Lücke mit der Exposure Management-Plattform Tenable One.

Cybersecurity-Nachrichten, die Ihnen nutzen können

Geben Sie Ihre E-Mail-Adresse ein, um keine aktuellen Warnungen und Sicherheitshinweise der Experten von Tenable zu verpassen.

× Vertriebsteam kontaktieren