1Mon.·

1 Woche nach dem DeepSeek Chaos (aus der Sicht eines AI Engineers)

Mit Faszination habe ich letzte Woche beobachtet, mit wie viel Entsetzen die Medien und viele der CEO's der Amerikaner auf die Nachricht reagiert haben, dass ein neues und günstigeres Modell genau so gut sein soll wie das von OpenAI.


Zunächst einmal: vor ca. 4 Monaten hatte das Qwen Team, das zu $BABA (+1,33 %) gehört, die Qwen 2.5 Modellserie released. Diese reichten von 0.5b bis hin zu 72b. Das 72b Modell erreichte eine weitaus bessere Performance als jegliche bereits auf dem Markt existierenden Open Source LLMs, inklusive Meta Llama 3.3:

attachment

Wie man sieht ist die Performance nur bedingt schlechter, je nachdem welche Benchmark man nimmt, ist sie sogar besser als Modelle von Anthropic's Claude, OpenAI's GPT-4o und Google's Gemini. Wie viel Aufsehen hat das erregt: 0.


Zumindest in den Medien. Für uns Entwickler ist aber der ständige Fortschritt der open source Modelle ein Blessing, da wir die Modelle zum Beispiel im Falle von qwen2.5:72b quasi einmal komplett runterladen und auf privaten Servern zum laufen bringen, sodass sie abgeschnitten von jeglichen Daten lokal arbeiten. Das bedeutet keinerlei Daten können über eine API Anfrage wie zum Beispiel bei OpenAI's Modellen (eigentlich ein Witz dass sie OpenAI heißen) an den Provider OpenAI zurückfließen und sie diese Daten nicht zum Nachtrainieren ihrer Modelle nutzen können. Dies ist vor allem bei Applikationen mit kritischen Daten essenziell.

By the way wer gerne seinen eigene persönlcihen Assistenten auf seinem Rechner laufen lassen möchte, kann dies zum Beispiel mit der open-source Software Ollama tun. Falls ihr nicht wisst wie viel euer Laptop händeln kann, wenn ihr nicht gerade eine Grafikkarte mit 64GB RAM installiert habt, dann hier eine kurze Übersicht:

  • <=3b Modelle ca. 5GB RAM (z.b. LLama 3.2 3b, qwen2.5:3b)
  • 7/8/9b Modelle ca. 16GB RAM (z.b. qwen2.5:7b, llama3.1:8b)
  • <=70b Modelle ca. 64GB RAM (aber ultra langsam auf CPU only, braucht dann nen Mac mit Apple Silicon oder so)

Also zusammengefasst: selbst mit 3 Jahre altem Windows Rechnern die 32GB RAM haben und nen Intel oder AMD Prozessor könnt ihr LLMs bei euch laufen lassen.

ollama link: https://ollama.com/


So zurück zum Topic: warum hat keiner etwas zum Qwen Erfolg gesagt?

Vielleicht einfach auch weil Qwen's Erfolg nicht mit größeren Tweaks in der Modellarchitektur zu tun hatte. Es ist nämlich so, dass das DeepSeek Team ein paar entscheidende Änderungen in der Modellarchitektur vorgenommen hat, vornehmlich 2 Stück:

Statt das Basismodell mit supervised Finetuning, also vereinfacht gesagt mit gelabeltem Datensatz (gute Antwort/schlechte Antwort) zu trainieren, haben sie es pur mit Reinforcement Learning trainiert (mathematisch eine Art Reward einprogrammiert, wenn gewünschte Trainingserfolge erzielt werden)

In dem Reinforcement Learning Ansatz haben sie ebenfalls entscheidende Änderungen vorgenommen und eine neue Technik (Group Relative Policy Optimization GRPO) etabliert, welche sehr vereinfacht den Feedback Prozess des positiven Lernens beschleunigt.

paper: https://arxiv.org/pdf/2501.12948


Jetzt zum wichtigsten Teil:

Warum DeepSeek einen Teil "weggelassen" hat und warum es für uns Investoren sehr gut sein kann

In einem ausführlichen Artikel hat semianalysis noch einmal aufgeführt, warum gewisse Zahlen nicht so Sinn machen.

TL;DR:

  • $6M "training cost" ist irreführend – exkludiert Infrastruktur und operative Kosten ($1.3Mrd. server CapEx, $715Mio. operating costs)
  • ~50,000+ GPUs (H100/H800/H20) über Umwege bekommen (H100 verbotene GPUS!)
  • Sie könnten Inferenz auch einfach günstig anbieten, wie Google Gemini, (50% günstiger als GPT-4o) um Marktanteil zu gewinnen
  • Ein Export Wurmloch ermöglichte anscheinend ein $1.3Mrd. Ausbau vor H20 Export Restriktionen
  • DeepSeek R1 "reasoning" ist gut, aber Google Gemini's Flash 2.0 ist günstiger und genau so gut mindestens (aus beruflicher Erfahrung: die Gemini Modelle sind mittlerweile sehr gut geworden)
  • in den operativen Kosten die nicht bekannt gemacht worden sind schätzungsweise die Gehälter für Toptalenten in Höhe von bis zu $1.3Mio USD (per capita)

source: https://semianalysis.com/2025/01/31/deepseek-debates/


ASML CEO sagt das dazu:

"In Fouquet's perspective, any reduction in cost is beneficial for ASML. Lower costs would allow artificial intelligence (AI) to be implemented in more applications. More applications, in turn, would necessitate more chips."

source: https://www.investing.com/news/stock-market-news/asml-ceo-optimistic-over-deepseek-93CH-3837637


Persönlich sehe ich es ähnlich, dass AI in Zukunft günstiger und besser wird, dafür müssen Chips ebenfalls besser sein und vor allem mehr Chips produziert werden. Ohne zu tief ins Detail zu gehen, war das eine gute Gelegenheit z.B. $ASML (+2,73 %) , $TSM (+0,89 %) , $NVDA (+3,82 %) und co. zu kaufen.

114
42 Kommentare

Profilbild
Guter Beitrag aber falsche Community. Ich wette, dass 98% der Leser hier nur Bahnhof verstehen. Wie wäre es mit einer Zusammenfassung aus Finanzsicht? Also was heißt das für unser Depot?
31
Profilbild
@DonkeyInvestor gehörst du auch zu den 98%?
2
Profilbild
@DonkeyInvestor hmhh wahrscheinlich hast du recht, ich dachte nur es könnte einen Mehrwert liefern, technische Details näher zu beleuchten und eventuell auch aufzuzeigen, warum DeepSeek eigentlich positiv für Investoren sein kann, vor allem was die Chip Industrie angeht :)
14
Profilbild
1Mon.
@DonkeyInvestor ich hab den Anfang und das Fazit gelesen… das habe ich verstanden, als sehr hilfreich bewertet😉👍🏻
2
Profilbild
@DonkeyInvestor der will dir sagen, dass du Nvidia nicht panisch verkaufen brauchst, sondern das Marktumfeld positiver ist als man vllt wegen deepserk Reaktionen denkt. Dachte du wärst so was wie Informatiker 😜😀
1
Profilbild
@He-Man das geht dich einen scheiß an
2
Profilbild
@Dominik_76 in erster Linie bin ich ein Esel
1
Profilbild
@DonkeyInvestor ach komm.. kannst ruhig zugeben, dass du genau so doof bist wie 98% der Community hier.
1
Profilbild
1
Profilbild
@DonkeyInvestor Ich bin noch mehr Esel.. Denn wer ist der grössere Esel, der Esel oder der, der ihm folgt. Denk mal drauf rum.😀
Profilbild
@Dominik_76 also ich bin 1.95 groß. Kannst du da mithalten?
1
Alle 13 weiteren Antworten anzeigen
Da ich ebenfalls in der Softwareentwicklung tätig bin, fand ich deine Ausführungen interessant. Ich überlege aber auch, wie sich das ganze auf meine Investments auswirkt.
3
Profilbild
@Divy Nach wie vor werden Microsoft und Co. Datencenter ausbauen, sogar hier in Deutschland, wo wir gerade in nicht so rosigen Wirtschaftszeiten agieren, sind GenAI Lösungen von vielen Unternehmen gejagt, manchmal mehr des Hypes wegen als wegen wirklichem Nutzen, aber oft ist dies mit entsprechenden Deployments in der Cloud verbunden oder halt eben auf lokalen Servern mit entsprechenden Grafikkarten. Wie lange das noch so weitergeht? Auf Mark Zuckerberg's Statement im Meta Earnings Call letzte Woche, dass sie massiv in Infrastruktur investieren werden weiterhin, haben die Investoren offensichtlich mit den Schultern gezuckt, so wie der Preis sich überhaupt nicht bewegt hat.
Profilbild
Sehr spannend aus erster Reihe von jmd zu hören, auch bzgl Gemini Erfahrung.
Für welche Uses nutzt du beruflich die Gemini Modelle vorrangig? Basic tasks oder auch als coding Support bzw tiefergreifende Sachen?

Re Auswirkung auf hyperscaler und AI Infrastruktur unterstützt das Jevons Paradox sehr gut die Annahme, dass durch technologische Effizienz Fortschritte auch die Nachfrage und Nutzung steigt, was sich wiederum auf Schaufelhersteller wie die von dir genannten positiv auswirken kann. ( S. https://en.wikipedia.org/wiki/Jevons_paradox)
2
Profilbild
@Bullbender In der Tat denke ich, dass dieses Paradox spot on ist! Was wenn jedes Unternehmen, bald vielleicht jede Einzelperson seinen eigenen persönlichen Assistenten auf seinem Rechner bzw. auf seinem Smartphone hat? Jetzt ist das Konzept noch sehr neu, aber ich denke in Zukunft wird es selbstverständlich sein, seine eigenen Modelle zu haben.

Zu Gemini: die 1.5 pro flash versionen über API waren relativ solide für verschiedene Chatbot Use-cases aufgrund ihres hohen context windows, sprich wie viele Quellen du ihnen mitgeben kannst, bei einer Suche in einer Datenbank im Hingtergrund. Dadurch dass das Modell auch relativ schnell ist, war die Latenz bis zu Antwort an den User auch entsprechend relativ gering.
Fürs coding ist mMn entweder qwen2.5-coder:32b oder deepseek-coder empfehlen, die lasse ich wie oben genannt lokal auf meinem Rechner laufen via Ollama und connecte dass dann in mein VS Code, gibt ne coole Extension die Continue heißt die das für dich macht. So hat man quasi eine Version von Cursor, der AI IDE, for free.
4
Profilbild
@intelligent_invest_99 sehr spannend! Ich nutze Cursor gerne, aber werde mal die Option mit Continue probieren, danke
1
Profilbild
Sehr spannend geschrieben und war ein netter Einblick in diese fremde Thematik
1
Profilbild
Sehr guter Beitrag, danke dafür. 👍😀
1
Profilbild
Vielen Dank für den aufschlussreichen Beitrag. Tangiert auch meine persönlichen AI Ambitionen.
1
Profilbild
Toller Beitrag! Bin auch großer Fan von Ollama, sollte wirklich jeder mal testen
1
Profilbild
@Klassischer Viel zu underrated, wie theoretisch mittlerweile fast jeder kostenlos seine eigenen Modelle auf seiner Maschine haben kann 📈📈🤝
1
Profilbild
@intelligent_invest_99 nutzt du auch OpenWebUI?
1
Profilbild
@Klassischer hab es nur mal ausgetestet und fand es super easy um schnell ne oberfläche zu kreieren👍
Thanks!
1
Profilbild
Sehr fundiert danke. 👍
1
Profilbild
Where is comparison to Grok?
Profilbild
@ben922 grok is not on the benchmarks because its X’s proprietary model
Sehr guter Beitrag, vieles ist ja mittlerweile kurstechnisch und für die IT-technische Betrachtung schon wieder relativiert worden. Der DeepSeek-Schreck ist einer von dutzenden Entwicklungsachritten, an die man sich in ein paar Monaten kaum noch erinnert (wohl aber an DeepSeek).
Aber zweifellos hat der Schreck ein kleines Beben ausgelöst, und da kommt der politische Faktor ins Spiel. China wird hinter den USA zu einem Hauptakteur, langfristig mit oder illegal eingeführte US-Hardware. Und damit gewinnt China an Einfluß, auch wenn die KI on premise im Inselbetrieb läuft hat dieses LLM(wie auch qwen) ganz eigene Wahrheiten gelernt...
Werde Teil der Community