Man kann nicht sagen dass DeepSeek versagt. Sondern man sieht dass die KI mit Chinesischem Content der eben gefiltert ist trainiert wurde. Natürlich kann man DeepSeek auch mit anderem Content trainieren. BTW auch in ChatGPT findet sich etlicher woker Content weil die ua Wikipedia als Quelle verwenden.
Es bleibt die um Faktoren bessere Performance von DeepSeek beim Aufbau von LLM Modellen. Der beruht auf dem MoE Ansatz Mixture of Experts. Statt das ganze Netz zu berechnen (wie bei ChatGPT) werden Hotspots sog. Experten Netze berechnet. Also nur Teile. Das bringt die Einsparung bei der Berechnung. Aber das ist Open Source in zahlreichen wissenschaftlichen Artikeln beschrieben. Also kann auch von den Mitbewerbern so gemacht werden oder noch weiter verbessert werden.
Was wir evtl sehen ist dass die Dominanz der HW kippt zu Gunsten der SW. Also evtl. raus aus $NVDA oder $AMD (da tut sich eh nix) und rein in SW $PLTR