3Mon.·
13
7 Kommentare

Profilbild
Wäre cool wenn man noch die Antworten von Chat GPT dabei haben würde.
9
Profilbild
Bisher zwar nur Verdachtsmomente, aber es wäre eine Erklärung oder zumindest Hypothese für den schnellen Erfolg des KI Modells. https://www.handelsblatt.com/technik/ki/ki-deepseek-koennte-heimlich-openai-daten-abgeschoepft-haben/100104124.html
2
Profilbild
Das liegt daran, weil das die online Version ist, die durch den chinesischen Filter läuft, wenn du deepseek lokal nutzt siehst du andere Ergebnisse
1
Profilbild
Man kann nicht sagen dass DeepSeek versagt. Sondern man sieht dass die KI mit Chinesischem Content der eben gefiltert ist trainiert wurde. Natürlich kann man DeepSeek auch mit anderem Content trainieren. BTW auch in ChatGPT findet sich etlicher woker Content weil die ua Wikipedia als Quelle verwenden.

Es bleibt die um Faktoren bessere Performance von DeepSeek beim Aufbau von LLM Modellen. Der beruht auf dem MoE Ansatz Mixture of Experts. Statt das ganze Netz zu berechnen (wie bei ChatGPT) werden Hotspots sog. Experten Netze berechnet. Also nur Teile. Das bringt die Einsparung bei der Berechnung. Aber das ist Open Source in zahlreichen wissenschaftlichen Artikeln beschrieben. Also kann auch von den Mitbewerbern so gemacht werden oder noch weiter verbessert werden.

Was wir evtl sehen ist dass die Dominanz der HW kippt zu Gunsten der SW. Also evtl. raus aus $NVDA oder $AMD (da tut sich eh nix) und rein in SW $PLTR
Alle 3 weiteren Antworten anzeigen
Werde Teil der Community