2Wo.·

Platzt die KI Blase tatsächlich...??

Lese gerade einen Artikel in der Welt über $005930 Ich nehme den einfach erstmal zur Kenntnis, überlasse ihn aber gerne der Kommunity zur Diskussion.


„Dann platzt die Blase“ – die heiklen Folgen der Samsung-Entdeckung


Ein neues KI-Modell von Samsung benötigt 10.000 Mal weniger Leistung als gängige Konkurrenzserien wie GPT oder Gemini. Diese jetzt publizierte Entdeckung gefährdet die hunderte Milliarden teuren Investitionen von Nvidia, Microsoft Google & Co und könnte als gigantisch große KI-Falle erweisen.

Die wilden Deals der KI-Branche bestimmten in den vergangenen Wochen die Börsennachrichten: Nvidia verkaufte Anfang September Supercomputer im Wert von 100 Milliarden Dollar an das ChatGPT-Startup OpenAI, bekommt dafür Anteile an OpenAI. AMD schloss Anfang Oktober einen ähnlichen Anteile-für-Chips-Deal ab, prompt schoss auch dieser Kurs in die Höhe. Wer den größten Rechenzentrums-Supercomputer-Abschluss verkündet, gewinnt.

Die Börse belohnt die KI-Unternehmen dafür, hunderte Milliarden Dollar in Investitionsgüter mit einem finiten Verfallsdatum zu investieren. Doch was wäre, wenn die Investitionen in Supercomputer gar nicht nötig wären – wenn die gleiche Künstliche Intelligenz auch mit viel weniger Rechenaufwand zu entwickeln wäre?

Diese Frage wirft Alexia Jolicoeur-Martineau, leitende Forscherin für Künstliche Intelligenz beim Advanced Institute of Technology der Firma Samsung in kanadischen Montreal, auf. Sie veröffentlichte diese Woche unter der Überschrift „Weniger ist Mehr“ eine selbst entwickelte Künstliche Intelligenz, die gerade einmal sieben Millionen Parameter nutzt und damit zehntausendmal kleiner ist als die Konkurrenzmodelle von OpenAI, Google und anderen Wettbewerbern. Dennoch übertrifft diese Mini-KI laut den Angaben ihrer Erfinder hochmoderne Sprachmodelle, darunter Googles aktuelles Gemini 2.5 oder o3-mini von OpenAI, bei einigen der schwierigsten Denk-Benchmarks der KI-Forschung.

Das Samsung-Modell geht dafür neue Wege – es entwirft für eine Logik-Aufgabe erst einen ungefähren Lösungsansatz, arbeitet dann in sich wiederholenden Schleifen daran, die Lösung zu optimieren – und benötigt dafür deutlich weniger Rechenleistung als die Konkurrenz. Samsung hat das Programm als Open-Source-Software veröffentlicht, KI-Forscher der Konkurrenz können sich selbst davon überzeugen, dass es funktioniert.

„Die Vorstellung, man müsse sich auf massive, von großen Unternehmen für Millionen von Dollar trainierte Basismodelle verlassen, um schwierige Aufgaben zu lösen, ist eine Falle“, schrieb Jolicoeur-Martineau im sozialen Netzwerk X. „Derzeit konzentriert man sich zu sehr auf die Nutzung von großen Sprachmodellen, anstatt neue Richtungen zu entwickeln und auszubauen

Ob der Samsung-Ansatz tatsächlich eine Revolution in der Forschung aktueller Denk-Modelle darstellt und ob es auch außerhalb eines relativ engen Kreises an Benchmark-Tests besteht, ist aktuell noch nicht von unabhängigen Fachkollegen geprüft.

Doch das ändert nichts daran, dass die Forscherin Jolicoeur-Martineau mit einer Grundsatz-Frage den aktuellen KI-Boom infrage stellt: Was, wenn ein technologischer Durchbruch in der KI-Software plötzlich die milliardenschweren Hardware-Investitionen entwerten sollte?

Was, wenn das Anhäufen von immer mehr stromhungrigen KI-Chips tatsächlich ein Irrweg wäre, wenn nicht die großen LLM-Modelle, sondern Kombinationen von deutlich kleineren, spezialisierten Modellen das Rennen um die allgemeine künstliche Intelligenz machen? Dann wären die milliardenteuren Rechenzentren voller Nvidia-Chips auf einen Schlag deutlich weniger wert – und die wichtigsten Unternehmen des KI-Booms müssten eventuell neu bewertet werden.

Schon anhand der Leistung des vor einigen Wochen veröffentlichten OpenAI-Modells GPT 5 zeigt sich, dass der Grenznutzen der eingesetzten Trainings-Rechenzeit aktuell deutlich abnimmt: Die großen Sprachmodelle werden zwar immer besser, doch die Zeit der großen Leistungssprünge durch stumpfen Einsatz von immer mehr Rechenleistung ist vorerst vorbei.

Es fehlt der nächste große Fortschritt. Sollte der tatsächlich unter dem Motto „Weniger ist mehr“ stehen, dann wären die geplanten Milliardeninvestitionen der kommenden Jahre infrage gestellt, wären die bis jetzt gebauten Rechenzentren eventuell deutlich schneller abzuschreiben als von ihren Erbauern geplant und erhofft.

Anders als bei bisherigen kapitalintensiven technischen Revolutionen, anders als beim Glasfaserboom der frühen 2000er-Jahre oder beim Eisenbahnbau ab 1840, sind die getätigten Investitionen nur flüchtiger Natur. Glasfaser im Boden bleibt wertvoll. Rechenzentren ohne Supercomputer aber sind wenig mehr als gut gekühlte Industriehallen mit sehr groß dimensionierten Stromanschlüssen.

Doch die Supercomputer selbst, die etwa 60 Prozent der Baukosten ausmachen, haben eine Halbwertszeit von lediglich drei Jahren, werden bislang nach fünf bis sechs Jahren ausgetauscht, da ihr hoher Stromverbrauch den Weiterbetrieb unrentabel macht. Sie müssen innerhalb sehr kurzer Zeit ihre Baukosten wieder einspielen, bevor sie wertlos werden. Der Supercomputer „Summit“ im Dienste der US-Nuklearbehörde United States Department of Energy etwa war im Juni 2018 bei seiner Inbetriebnahme dank seiner Nvidia-Chips der schnellste Computer der Welt. Er wurde gerade einmal bis November 2024 betrieben, danach war er überholt

Die Samsung-Forscher hinterfragen mit ihrer Entwicklung also nicht nur die aktuellen großen Modelle der Konkurrenz. Sie hinterfragen indirekt den gesamten aktuellen KI-Boom an der Wall Street, der vor allem auf den Chip-Deals und dem Tauschgeschäft Supercomputer gegen Rechenzeit basiert. Wenn die Technologie weiter so schnell voranschreitet wie bislang, dann könnten viele Investoren, Infrastruktur-Firmen und Rechenzentrums-Betreiber innerhalb kurzer Zeit auf milliardenschweren Investitionsruinen sitzen bleiben.

„Um die angekündigten Investitionen zu refinanzieren, müssten innerhalb der Laufzeiten zehn neue KI-Konzerne von der Dimension und mit den Umsätzen Googles heranwachsen. Das halte ich für unrealistisch“, sagt Damian Borth, KI-Forscher an der Universität St. Gallen. An seinem Institut wurde ein Teil der Grundlagenarbeit zu kleinen Modellen geleistet, auf der die Samsung-Forscher nun aufbauen.

Borth beobachtet seit einigen Monaten, dass „die Neural Scaling Laws saturieren“ – dass also die Regel, dass immer mehr Rechenleistung auch immer intelligentere Modelle bringt, nicht länger gültig ist.

„Light weight models, also KI-Modelle, die deutlich weniger Parameter benötigen, sind der aktuell wichtigste Trend in der Industrie“, erklärt Borth. Der Trend wurde zum Teil aus technischen Vorgaben – Modelle sollen allein auf Smartphones laufen – und zum Teil aus der Not geboren: Nur relativ wenige Forscher haben Zugriff auf genügend Rechenzeit von Supercomputern, um große Modelle zu trainieren. Jetzt bestimmt diese aktuelle Forschungsrichtung den Fortschritt auf dem Weg zur allgemeinen künstlichen Intelligenz, dem heiligen Gral der KI-Forschung.

Borth sieht deswegen eine Diskrepanz zwischen den Markterwartungen von immer größeren Ausgaben für KI-Infrastruktur und der aktuellen Forschung: „Die Frage ist: Braucht man überhaupt so große Modelle, so viele Parameter, um einen Großteil der Aufgaben von KI zu lösen? Wenn nicht, dann benötigen wir auch nicht so viele Supercomputer.“

Doch so lange die großen KI-Firmen weiter die Vision einer allgemeinen Künstlichen Intelligenz aus dem Supercomputer, die bereits in naher Zukunft kommen soll, aufrechterhalten, so lange wird auch der Boom der Rechenzentren weiter finanziert, glaubt Borth. „Das ist schon allein eine Frage der nationalen Sicherheit – die USA können es sich nicht leisten, dieses Rennen zu verlieren.“ Doch der Moment, in dem der Glauben an die Supercomputer-AGI wankt, ist auch der Moment, an dem die KI-Werte an der Börse harsch neu bewertet werden müssen. „Dann platzt die Blase“, sagt Borth. Das KI-Modell aus Montreal könnte ein erster Nadelstich in die Blase sein, weitere dürften folgen.

7
4 Kommentare

Profilbild
Wäre heute fast geplatzt. Einmal überfressen. Und dann fast meine KI Blase, weil ich es fast nicht mehr aufs Klo geschafft hätte.

=> Platzen vorerst abgewendet
8
Profilbild
@DonkeyInvestor hatte das auch schon fast mal, macht stärker 💪
1
Profilbild
10000x kleiner als gängige Modelle! Wow! Wenn das stimmt, wäre das ein weiterer Durchbruch.

Aber warum sollte es das Ende der KI-Super-Rechen-Höllen sein? Dann wird halt das Samsung-Modell auf die KI-Chips aufgespielt und dann sind die eben 10000x effektiver.

Wo ist das Problem? Helft mir mal bitte auf die Sprünge! 🤔
2
Ich bin kein KI Experte oder Techniker sondern ein Banker im Spätherbst seiner beruflichen Laufbahn und habe daher schon so einiges erlebt. Ob eine Blase vorhanden ist, weiß ich nicht. Wie so viele neue disruptive Faktoren sehen wir auch bei KI noch nicht das Ende. KI ist gerade dabei sich zu formieren und zu finden. Es wird dann Ergebnisse geben, die wie immer- Gewinner und Verlierer hervorbringt. Nicht unterschätzen sollte man die nationalen Sicherheitsbemühungen und die Marktmacht einzelner Konzerne, die Entwicklungen in Ihre Richtung beeinflussen werden. Daher denke ich, sollte man den Markt beobachten und selektiv investieren und vielleicht nach unten absichern.
Werde Teil der Community