Generative KI

Deep Seek & Co: Warum das richtige LLM nicht alles ist

Geschrieben von

Volker Lügger

Feb 2025

Die aktuelle Begeisterung rund um Deep Seek zeigt einmal mehr, wie schnell sich der Markt für Large Language Models (LLMs) entwickelt. Doch ist Deep Seek die richtige Wahl für jeden Anwendungsfall?

Was ist Deep Seek?

Deep Seek ist ein neues, leistungsstarkes LLM aus China, das in den letzten Wochen für Aufsehen gesorgt hat. Besonders hervorgehoben werden seine starke Performance in Benchmarks sowie seine Fähigkeit, komplexe Aufgaben effizient zu lösen. Allerdings gibt es noch einige offene Fragen bezüglich der API-Stabilität, der Datenhoheit und der langfristigen Verfügbarkeit in Europa.

Das Fazit vorweg

Deep Seek kann grundsätzlich genutzt werden, doch es gibt einige Aspekte zu beachten. Unsere Kernkompetenz liegt in der Integration von Embeddings und nicht nur in der Nutzung spezifischer LLMs. Das bedeutet, dass wir jedes geeignete Modell einbinden können, sofern es die Anforderungen erfüllt. Ein vergleichbares, aber kostengünstigeres Modell ist o3-mini. Dieses setzen wir bereits erfolgreich in Kundenprojekten ein und eine solide API ist bereits verfügbar. Im Gegensatz dazu ist die API von Deep Seek noch nicht ausgereift, beispielsweise in Bezug auf Function Calling. Die Ergebnisse von o3-mini entsprechen weitgehend denen von Modellen wie 4o und 4o mini.

Datenhoheit und Hosting

Ein wesentlicher Nachteil von Deep Seek ist die fehlende europäische Hosting-Lösung. Unternehmen, die höchste Anforderungen an Datensicherheit haben, müssen Deep Seek entweder selbst hosten oder alternative Anbieter wählen. Ein selbst gehostetes Modell kann jedoch schnell teurer werden als bestehende Cloud-Dienste wie OpenAI.

LLM-Auswahl: Eine Frage des Anwendungsfalls

Die Qualität der Antworten eines LLMs hängt stark von der verfügbaren Speicher- und GPU-Leistung ab. Kleinere Modelle sind günstiger im Betrieb, liefern aber oft nicht die gewünschte Qualität. Deshalb setzen wir nach einigen Lesson Learned in verschiedenen Projekten unterschiedliche Modelle je nach Anwendungsfall ein:

• Einfache Textgenerierung mit gut definierten Daten: 4o mini (ChatGPT)

• Höhere semantische Erkennung: 4o (ChatGPT)

• Spracherkennung: Keine LLMs, sondern eine spezialisierte Python-Library

Ein Beispiel für diese dynamische Modellwahl ist ein Projekt, dass wir für einen internationalen Konsumgüterkonzern durchführen durften. Es zeigt, dass nicht jedes Problem mit einem einzigen Modell gelöst werden kann, sondern der Kombination verschiedener LLMs entscheidend ist.

LLMs sind nicht alles: Die strategische Integration entscheidet

Egal, wie gut ein LLM ist – es entfaltet nur dann sein volles Potenzial, wenn es mit den richtigen Daten versorgt, strategisch integriert und gezielt genutzt wird. Die Marktdynamik zeigt, dass ständig neue, oft bessere Modelle entstehen. Das bedeutet für Unternehmen: Unabhängigkeit von einzelnen Anbietern ist essenziell. Unsere Philosophie ist daher, immer die flexibelste und wirtschaftlich sinnvollste Lösung zu implementieren.

Fazit

Deep Seek ist eine spannende Entwicklung, aber nicht die ultimative Lösung für jeden Anwendungsfall. Viel wichtiger als das LLM selbst ist die richtige Datenstrategie, Integration und Nutzung.

Über den Autor

Volker Lügger ist seit 2016 Teil von Milestone Consult und verantwortet seit 2022 den Bereich generative KI. Mit umfassender Erfahrung in KI, Wissensmanagement und Softwareentwicklung hat er bereits zahlreiche große Projekte erfolgreich umgesetzt.

Genau Ihr Thema?

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla.

Wenn Sie wissen möchten, welches Modell für Ihr Unternehmen die beste Wahl ist – wir beraten Sie gerne!

Sprechen Sie uns an