Was ist DeepSeek? Eine vollständige Analyse des disruptiven Open-Source-LLM
Veröffentlicht | 30. April 2025 |
DeepSeek hat sich innerhalb kürzester Zeit als einer der meistdiskutierten Namen im KI-Bereich (künstliche Intelligenz) etabliert
Doch was macht DeepSeek aus, wie funktionieren die KI-Modelle und aus welchen Gründen kommt es bereits zu Datenschutzbedenken, gesetzlichen Verboten und direkten Vergleichen mit OpenAI und Google? Dieser Leitfaden deckt alles Wissenswerte zum Thema DeepSeek ab – angefangen bei der Funktionsweise und den Einsatzfeldern bis hin zu der Frage, wie Unternehmen wie Tenable Kunden bei der Reaktion auf damit verbundene Risiken unterstützen.
Wichtige Konzepte
- Was ist DeepSeek AI?
- Die KI-Modelle von DeepSeek
- Vergleich mit Wettbewerbern
- Anwendungen und Anwendungsfälle
- Zugriff auf DeepSeek
- Auswirkungen auf die KI-Branche
- Künftige Entwicklungen bei DeepSeek
- DeepSeek – Sicherheitsbedenken und Risiken
- Welche Auswirkungen hat DeepSeek auf mein Unternehmen?
- So hilft Tenable
- DeepSeek – FAQ
- DeepSeek AI – Ressourcen
Was ist DeepSeek AI?
DeepSeek ist ein in China ansässiges KI-Unternehmen, das 2023 von Liang Wenfeng gegründet wurde und leistungsstarke Large Language Models (LLMs) entwickelt. DeepSeek wurde von Entwicklern als quelloffene Alternative zu den Modellen US-amerikanischer Tech-Giganten wie OpenAI, Meta und Anthropic ins Leben gerufen.
Mit der Veröffentlichung der beiden quelloffenen Modelle DeepSeek V3 und DeepSeek R1, die es in puncto Funktionen mit einigen der weltweit führenden proprietären LLMs aufnehmen können, sorgte DeepSeek LLM im Januar 2025 auf der internationalen Bühne für Aufsehen.
Die KI-Modelle von DeepSeek
DeepSeek V3
DeepSeek V3 nutzt eine MoE-Architektur (Mixture of Experts), bei der ausschließlich die zur Beantwortung von Prompts notwendigen „Experten“ geladen werden. Darüber hinaus ist Multi-Head Latent Attention (MLA) in DeepSeek V3 eingebunden – eine speicheroptimierte Technik für schnellere Inferenz und entsprechendes Training.
DeepSeek R1
DeepSeek R1 baut auf V3 und ergänzt das Modell um Multi-Token-Prediction (MTP), wodurch es möglich ist, mehrere Token auf einmal zu generieren. Darüber hinaus kommt eine auf Gedankenketten (Chains of Thought, CoT) beruhende Reasoning-Methode zum Einsatz, die den Prozess der Entscheidungsfindung für Nutzer transparenter macht.
*Beide Modelle sind in unterschiedlichen Größen verfügbar (1,5 Milliarden bis 671 Milliarden Parameter). Dadurch können sie in sämtlichen Einsatzszenarien bereitgestellt werden, angefangen bei privaten Laptops bis hin zu GPU-Clustern der Enterprise-Klasse.
Vergleich mit Wettbewerbern
Benchmark-Ergebnisse zeigen, dass sich DeepSeek R1 in Sachen Performance auf derselben bzw. nahezu derselben Ebene wie o1 von OpenAI und Llama 3 von Meta bewegt, obwohl deutlich weniger Infrastruktur für das KI-Training benötigt wird.
Im Gegensatz zu den Frontier-Modellen von OpenAI stießen die vollständig quelloffenen Modelle von DeepSeek auf reges Interesse unter Entwicklern und große Experimentierfreudigkeit innerhalb der Community.
Feature | DeepSeek R1 | OpenAI o1 | Meta Llama 3 |
---|---|---|---|
Open Source
| ✅ Ja
| ❌ Nein
| ✅ Ja (eingeschränkt)
|
CoT-Reasoning
| ✅ Ausführlich
| ✅ Knapp
| ✅ Gewisser Grad an Unterstützung
|
Multi-Token-Prediction
| ✅ Ja
| ❌ Nein
| ✅ Teilweise
|
Datenschutz
| ⚠️ Schwach
| ✅ Stark
| ✅ Stark
|
Resistenz gegenüber KI-Jailbreak
| ❌ Leicht umgehbar
| ✅ Gehärtet
| ✅ Moderat
|
Zensur und Verzerrung | ✅ Ja | ❌ Nein | ❌ Nein |
Anwendungen und Anwendungsfälle
Entwickler nutzen DeepSeek für ein breites Spektrum an Einsatzzwecken. Hierzu zählen:
- Mehrsprachige Chatbots im Kundenservice
- Zusammenfassung von Dokumenten
- Code-Generierung in natürlicher Sprache
- Lehrtätigkeiten und Prüfungsvorbereitung im akademischen Umfeld
- Schnelles Prototyping von KI-Tools
Bedingt durch seine Quelloffenheit und schwachen Leitplanken (sogenannte „Guardrails“) könnte DeepSeek jedoch als Tool für böswillige Aktivitäten dienen und beispielsweise zur Entwicklung von Malware, bei Keylogging-Aktivitäten oder für Ransomware-Experimente eingesetzt werden.
Zugriff auf DeepSeek
DeepSeek ist frei verfügbar – die Modelle können aus öffentlichen Repositorys heruntergeladen und lokal ausgeführt werden. Das vollständige R1-Modell (671 Mrd. Parameter) erfordert GPU-Cluster der Enterprise-Klasse, doch schlankere Versionen (1,5 Mrd. bis 70 Mrd. Parameter) sind auf Hardware der Verbraucherklasse ausführbar.
Darüber hinaus ist DeepSeek in folgender Form zugänglich:
- Weboberfläche
- Mobilgeräte-Apps für iOS und Android
- API-Integrationen (in Entwicklung)
Auswirkungen auf die KI-Branche
DeepSeek steht für ein neues Kapitel im KI-Bereich: Die Modelle sind leistungsstark, frei verfügbar und werden von Behörden immer genauer unter die Lupe genommen.
Die Technologie bietet beeindruckende Funktionen, doch ihr wenig restriktives Design wirft Bedenken in folgender Hinsicht auf:
- Datenschutz und Überwachung
- Sicherheitsleitplanken („Guardrails“)
- Filterung und Verzerrung von Inhalten
- Nutzung durch „offiziell“ genehmigte Akteure oder Akteure mit staatlichen Verbindungen
Diesen Bedenken begegnen Behörden durch KI-Regulierung. In den folgenden Ländern und Behörden ist DeepSeek verboten bzw. Gegenstand von Prüfungen (Stand: Februar 2025):
- US-Bundesbehörden (Pentagon, Kongress, DISA, NASA)
- Italien
- Südkorea
- Taiwan
- Australien
Künftige Entwicklungen bei DeepSeek
Die Roadmap von DeepSeek umfasst:
- Ausweitung des Entwickler-Ökosystems
- Präzisierung der Reasoning-Funktionen von Gedankenketten (CoT)
- Verbesserung der Jailbreak-Resistenz
- Einführung von kostenpflichtigen Cloud-Services mit Premium-APIs
Da Behörden und Sicherheitsforscher aus dem privaten Sektor DeepSeek aber verstärkt unter die Lupe nehmen, wird die weitere Entwicklung davon abhängen, wie gut das Unternehmen Quelloffenheit und verantwortungsvolle KI-Entwicklung in Einklang bringt.
DeepSeek – Sicherheitsbedenken und Risiken
Tenable Research hat vier zentrale Problembereiche bei der Nutzung von DeepSeek identifiziert:
- Datenschutz: Nutzerdaten werden auf Servern in China gespeichert und fallen damit nicht unter die DSGVO und ähnliche Schutzbestimmungen.
- Tracking durch Drittanbieter: Baidu wickelt die Webanalysen von DeepSeek ab – und teilt Netzwerk-/Gerätedaten Berichten zufolge mit ByteDance.
- Sicherheitslücken: Durch ihre schwachen Leitplanken sind die Modelle für Jailbreak-Angriffe und Missbrauch anfällig.
- Zensur und Verzerrung: Tests zeigen, dass es häufig zu Zensur und systematischer Verzerrung kommt.
Welche Auswirkungen hat DeepSeek auf mein Unternehmen?
„Sollte mir die Nutzung von DeepSeek am Arbeitsplatz Sorgen bereiten?“Diese Frage stellten sich zahlreiche Nutzer, als DeepSeek landesweit Schlagzeilen machte.
Tatsache ist, dass der Aufstieg von DeepSeek AI für Unternehmen mit Chancen wie auch Risiken einhergeht: Die Quelloffenheit der DeepSeek-Modelle kann Experimentierfreudigkeit fördern und Innovation beschleunigen, doch parallel dazu ergeben sich erhebliche Sicherheits-, Compliance- und Datenschutzbedenken.
Wichtige zu überwachende DeepSeek-Risiken
- Nutzung von Schatten-KI: Mitarbeiter könnten Chat-Apps, Browser-Erweiterungen oder lokal gehostete Modelle von DeepSeek ohne entsprechende Genehmigung der IT-Abteilung nutzen, wodurch blinde Flecken beim Umgang mit Daten und der akzeptablen Nutzung von KI entstehen.
- Exfiltration von Daten: Die Mobilgeräte- und Web-Apps von DeepSeek sammeln benutzerseitige Eingaben und Verhaltensdaten. Diese werden an Server im Ausland übertragen – und befinden sich folglich außerhalb des Geltungsbereichs der meisten regulatorischen Rahmenbedingungen der westlichen Welt.
- Schwache Leitplanken: Die Jailbreak-Resistenz von DeepSeek ist als minimal einzustufen, wodurch es einfacher möglich ist, unzulässige oder bösartige Outputs zu erzeugen. Kommt es firmenintern zu einer missbräuchlichen Verwendung von DeepSeek, drohen Reputationsschäden und juristische Konsequenzen.
- Unzureichende Abstimmung von Richtlinien: Ohne entsprechenden Einblick sind Unternehmen unter Umständen nicht in der Lage, Richtlinien zur akzeptablen Nutzung, Leitlinien zur Exportkontrolle oder interne Governance-Regelungen für die LLM-Nutzung durchzusetzen.
Welche nächsten Schritte sollten zur Verringerung der DeepSeek-Risiken ergriffen werden?
- Überwachen Sie Umgebungen mithilfe der Erkennungs-Plugins von Tenable AI Aware auf DeepSeek-Aktivitäten.
- Aktualisieren Sie Ihre LLM-Nutzungsrichtlinien, um ausdrücklich auf quelloffene Modelle und nicht autorisierte KI-Tools einzugehen.
- Informieren Sie Nutzer über Risiken, die bei der Nutzung von ungeprüften Modellen und Tools auftreten – insbesondere bezogen auf regulierte oder sensible Daten.
- Stellen Sie Kontrollmechanismen zur Erkennung und Reaktion bereit, die über Cloud-Assets hinausgehen und die Nutzung von KI-Modellen, Browser-Erweiterungen sowie Interaktionen auf Endgeräten (Endpoints) umfassen.
DeepSeek steht für einen Wandel in der Art und Weise, wie KI-Modelle entwickelt und verteilt werden. Unternehmen, die Gefährdungen bewerten, Richtlinien durchsetzen und dadurch einen proaktiven Ansatz verfolgen, sind ideal aufgestellt, um neue Tools zu ihrem Vorteil zu nutzen. Parallel dazu bleiben Sicherheit und Konformität gewahrt.
So hilft Tenable:
AI Aware zur DeepSeek-Erkennung
Mithilfe von Tenable AI Aware kann die unbefugte Nutzung von Tools wie DeepSeek erkannt und überwacht werden – innerhalb Ihrer gesamten Umgebung.
Die in AI Aware enthaltenen kundenspezifischen Plugins bieten Folgendes:
- Erkennung von bekannten ausführbaren DeepSeek-Dateien und entsprechenden Browser-Plugins
- Identifizierung von verwendeten DeepSeek-APIs oder Modellvarianten
- Überwachung der Netzwerkkommunikation mit DeepSeek-Infrastruktur
- Zu den aktiven Plugins zählen:
Diese Erkennungen sind Teil von Tenable Vulnerability Management und Tenable Enclave Security und unterstützen Sicherheitsteams dabei, Richtlinien für neu auftretende KI-Risiken anzuwenden.
Erfahren Sie mehr über AI Aware.
DeepSeek – FAQ
Was ist DeepSeek?
DeepSeek ist ein 2023 gegründetes chinesisches Unternehmen, das quelloffene Large Language Models (LLM) entwickelt. DeepSeek V3 und R1 wurden im Jahr 2025 veröffentlicht.
Bestehen Sicherheitsbedenken bei der Nutzung von DeepSeek?
DeepSeek ist mit Datenschutzrisiken verbunden – insbesondere bezogen auf Daten, die auf Servern in China gehostet werden. Unter Umständen könnte es sicherer sein, DeepSeek lokal auszuführen, als die Website oder Mobilgeräte-Apps zu verwenden.
Welche Unterschiede bestehen bei DeepSeek R1?
R1 macht von einem besonderen CoT-Reasoning-System sowie von Multi-Token-Prediction Gebrauch. Die Performance des Modells entspricht Spitzenmodellen wie OpenAI o1, obwohl stets auf Quelloffenheit gesetzt wird.
Wurde die Nutzung von DeepSeek bereits irgendwo untersagt?
Ja. Etliche Länder und US-Behörden haben die Nutzung von DeepSeek wegen Datenschutz- und Sicherheitsbedenken verboten bzw. eingeschränkt.
Wie erkennt Tenable DeepSeek?
Mithilfe von AI Aware-Plugins überwacht Tenable Umgebungen auf Nutzungsaktivitäten mit DeepSeek-Bezug, identifiziert Schwachstellen und nimmt zudem eine Abstimmung mit Sicherheitsrichtlinien des Unternehmens vor.
DeepSeek steht für einen Durchbruch im Bereich quelloffener KI, birgt aber auch Risiken. Die Modelle des Unternehmens können es mit den besten US-Angeboten aufnehmen, doch hinsichtlich Datenschutz, Verzerrung und Sicherheit bestehen gravierende Bedenken. Tenable kann Ihrem Unternehmen helfen, diese Risiken anzugehen – durch proaktive Erkennung, Richtliniendurchsetzung und Praxistests des LLM-Verhaltens. Dadurch ist Ihr Team in der Lage, Innovationen auf sichere Weise umzusetzen.
Sie möchten mehr über DeepSeek erfahren? Informieren Sie sich in unseren Häufig gestellten Fragen zum Large Language Model (LLM) DeepSeek.
DeepSeek AI – Ressourcen
Aktuelles zum Thema Cybersecurity
- Tenable Cloud Security
- Tenable One
- Tenable Vulnerability Management