Geschrieben von
Volker Lügger
Feb 2025
Die aktuelle Begeisterung rund um Deep Seek zeigt einmal mehr, wie schnell sich der Markt für Large Language Models (LLMs) entwickelt. Doch ist Deep Seek die richtige Wahl für jeden Anwendungsfall?
Was ist Deep Seek?
Deep Seek ist ein neues, leistungsstarkes LLM aus China, das in den letzten Wochen für Aufsehen gesorgt hat. Besonders hervorgehoben werden seine starke Performance in Benchmarks sowie seine Fähigkeit, komplexe Aufgaben effizient zu lösen. Allerdings gibt es noch einige offene Fragen bezüglich der API-Stabilität, der Datenhoheit und der langfristigen Verfügbarkeit in Europa.
Das Fazit vorweg
Deep Seek kann grundsätzlich genutzt werden, doch es gibt einige Aspekte zu beachten. Unsere Kernkompetenz liegt in der Integration von Embeddings und nicht nur in der Nutzung spezifischer LLMs. Das bedeutet, dass wir jedes geeignete Modell einbinden können, sofern es die Anforderungen erfüllt. Ein vergleichbares, aber kostengünstigeres Modell ist o3-mini. Dieses setzen wir bereits erfolgreich in Kundenprojekten ein und eine solide API ist bereits verfügbar. Im Gegensatz dazu ist die API von Deep Seek noch nicht ausgereift, beispielsweise in Bezug auf Function Calling. Die Ergebnisse von o3-mini entsprechen weitgehend denen von Modellen wie 4o und 4o mini.
Datenhoheit und Hosting
Ein wesentlicher Nachteil von Deep Seek ist die fehlende europäische Hosting-Lösung. Unternehmen, die höchste Anforderungen an Datensicherheit haben, müssen Deep Seek entweder selbst hosten oder alternative Anbieter wählen. Ein selbst gehostetes Modell kann jedoch schnell teurer werden als bestehende Cloud-Dienste wie OpenAI.
LLM-Auswahl: Eine Frage des Anwendungsfalls
Die Qualität der Antworten eines LLMs hängt stark von der verfügbaren Speicher- und GPU-Leistung ab. Kleinere Modelle sind günstiger im Betrieb, liefern aber oft nicht die gewünschte Qualität. Deshalb setzen wir nach einigen Lesson Learned in verschiedenen Projekten unterschiedliche Modelle je nach Anwendungsfall ein:
• Einfache Textgenerierung mit gut definierten Daten: 4o mini (ChatGPT)
• Höhere semantische Erkennung: 4o (ChatGPT)
• Spracherkennung: Keine LLMs, sondern eine spezialisierte Python-Library
Ein Beispiel für diese dynamische Modellwahl ist ein Projekt, dass wir für einen internationalen Konsumgüterkonzern durchführen durften. Es zeigt, dass nicht jedes Problem mit einem einzigen Modell gelöst werden kann, sondern der Kombination verschiedener LLMs entscheidend ist.
LLMs sind nicht alles: Die strategische Integration entscheidet
Egal, wie gut ein LLM ist – es entfaltet nur dann sein volles Potenzial, wenn es mit den richtigen Daten versorgt, strategisch integriert und gezielt genutzt wird. Die Marktdynamik zeigt, dass ständig neue, oft bessere Modelle entstehen. Das bedeutet für Unternehmen: Unabhängigkeit von einzelnen Anbietern ist essenziell. Unsere Philosophie ist daher, immer die flexibelste und wirtschaftlich sinnvollste Lösung zu implementieren.
Fazit
Deep Seek ist eine spannende Entwicklung, aber nicht die ultimative Lösung für jeden Anwendungsfall. Viel wichtiger als das LLM selbst ist die richtige Datenstrategie, Integration und Nutzung.