6Tg·

Die Büchse der Pandora: „If Anyone Builds It, Everyone Dies“

attachment

Liebe Community! 🙏


Das Thema AI ist allgegenwärtig.

Viele rufen laut, dass es an der Börse mittlerweile eine Blase sei und den hohen Erwartungen kurz- und mittelfristig nicht standhalten könne.


Fest steht, dass LLMs wie ChatGPT oder Gemini aus dem Leben vieler nicht mehr wegzudenken sind.

Noch weit entfernt von „perfekt“, verströmt generative AI dennoch eine surreale Magie, die wir uns noch vor fünf Jahren nicht in unseren kühnsten Träumen hätten vorstellen können.

Große Unternehmen wie zuletzt Accenture entlassen massiv Personal im Zuge eines großen „AI-Restructuring“.

Es scheint klar zu werden, dass AI schon bald massive Verwerfungen in Wirtschaft und Gesellschaft verursachen wird.


Letzte Woche habe ich meine Vorbestellung von Eliezer Yudkowskys neuem Buch zum Thema „superintelligent AI“ erhalten und in zwei Tagen verschlungen.


Obwohl es in diesem Post nicht direkt um Börseninvestments geht, ist das Thema meiner Meinung nach wichtig genug, um euch zu interessieren.


Schnallt euch an für eine Runde existenzielle Angst am Montag 😎✨


__________________________


❓Worum geht's hier genau?


Yudkowsky, der Autor, ist Mitgründer des „Machine Intelligence Research Institute“ in Berkeley und hatte schon vor über 20 Jahren vor den existenziellen Risiken fortgeschrittener KI-Systeme gewarnt.


Der Titel „If Anyone Builds It, Everyone Dies“ seines neuesten Buchs klingt zunächst nach reißerischer Übertreibung …


Obwohl ich die Grundthese zu den Gefahren von AGI (Artificial General Intelligence) bereits im Vorfeld kannte, habe ich mir nicht allzu viel dabei gedacht.


Bei den Abermilliarden, die in den Sektor fließen, werden sich schlaue Köpfe doch sicherlich Gedanken zur Sicherheit (AI Alignment) machen … oder? 🤔


Um die Kernaussage des Buches vorwegzunehmen:

Yudkowsky und Co-Autor Nate Soares gehen so weit zu sagen, dass, wenn wir weiter an den Fähigkeiten künstlicher Intelligenz forschen und immer bessere Modelle trainieren, dies zweifellos zum sicheren Untergang der Menschheit führen wird.


__________________________


⬛Funktionsweise von LLMs und Blackbox-Realität:


Wir wissen erstaunlich wenig darüber, wie LLMs intern funktionieren.

„Mechanistic Interpretability“ forscht daran, aber ein allgemeines, skalierbares Verständnis fehlt.

Das liegt fundamental daran, dass LLMs nicht „programmiert“ werden, sondern analog zur biologischen Evolution „wachsen“.


Hier eine rudimentäre Erklärung der Funktionsweise, welche aber ausreicht um das Problem zu verdeutlichen:


Ein Transformer-Modell besteht aus Milliarden Parametern, deren Weights zunächst zufällig gesetzt sind.

Beim Training bekommt es Aufgaben in Form von Texten und versucht, das nächste Wort vorherzusagen.

Anhand des Fehlers zwischen Vorhersage und richtiger Antwort wird durch Gradient Descent berechnet, in welche Richtung und wie stark jedes Weight verändert werden muss, um das Ergebnis zu verbessern.

Dieser Vorgang wird über unvorstellbar viele Texte hinweg wiederholt, wobei die Weights sich immer weiter anpassen.

So „lernt“ der Transformer allmählich Sprachmuster, Bedeutung und Kontext, bis er kohärent schreiben kann.


__________________________


😶‍🌫️Unsichtbare Präferenzen:


Systeme, die über Gradient Descent wachsen, können Ziele lernen, die nicht unseren Intentionen entsprechen.

Sie optimieren ein Trainingsziel und lernen dabei interne Heuristiken bzw. „Werte“.

Aus dieser Lern-Dynamik entstehen instrumentelle Ziele (Ressourcen sichern, Abschaltung vermeiden), die mit menschlichen Zielen kollidieren können.


Das ist bei AI-Modellen bereits empirisch beobachtet worden und stützt die Angst vor versteckten Wünschen, die erst außerhalb des Trainings sichtbar werden.


Das „Alignment“ ist somit, Stand heute, unlösbar.


__________________________


🚀Race Condition (Staaten & Big Tech):


Dies ist meiner Meinung nach der wichtigste Treiber dafür, dass die bekannten Risiken schlichtweg ignoriert werden.


Wer bremst zuerst?

Kapital und Staaten pushen mit Compute, Talenten, Strom und Chips nach vorn.

Der AI Index zeigt Rekordinvestitionen, massive staatliche Programme und eine immer schnellere Skalierung am Frontier.


Hier eine paraphrasierte Passage aus dem Buch, die das Problem verdeutlicht:


Mehrere Unternehmen steigen wie auf einer Leiter im Dunkeln nach oben.

Jede Sprosse bringt enorme finanzielle Gewinne (10 Milliarden, 50 Milliarden, 250 Milliarden USD usw.). Doch niemand weiß, wo die Leiter endet – und wer die oberste Sprosse erreicht, lässt die Leiter explodieren und vernichtet alle.

Trotzdem will kein Unternehmen zurückbleiben, solange die nächste Sprosse scheinbar sicher ist.

Einige Führungskräfte glauben sogar, nur sie selbst könnten die „Explosion“ kontrollieren und in etwas Positives verwandeln – und fühlen sich deshalb verpflichtet, weiterzusteigen.

Dasselbe Dilemma gilt auch für Staaten: Kein Land will seine Wirtschaft durch strenge KI-Regulierung schwächen, während andere Länder ungebremst weiterforschen. Vielleicht, so denkt man, ist der nächste Schritt sogar nötig, um die nationale Sicherheit zu wahren.

Das Problem ließe sich leichter lösen, wenn die Wissenschaft genau bestimmen könnte, ab welcher Leistungsgrenze KI wirklich gefährlich wird. Etwa: „Die vierte Sprosse ist tödlich“ oder „Ab 257 000 GPUs droht Gefahr“. Doch eine solche klare Grenze gibt es nicht.


Eine potenzielle, echte „Tragedy of the Commons“. 🤷‍♂️


In der Theorie könnten LLMs beliebig „intelligent“ werden, solange sie genügend Parameter, Daten und Rechenleistung haben.

Das folgt aus der Church-Turing-These: Ein hinreichend großes neuronales Netz kann (mit genug Präzision) jede berechenbare Funktion approximieren, also auch eine beliebig „intelligente“.


Die Fähigkeitsentwicklung, die wir gerade sehen, scheint einer exponentiellen Kurve zu folgen.

Wie viel Compute wir wirklich brauchen, um AGI zu erreichen, weiß niemand.

Es kann sein, dass wir in fünf Jahren an diesen Punkt kommen, in zehn, zwanzig oder dreißig Jahren.

attachment

__________________________


🔮Der kontroverseste Teil des Buches. Die Prognose:


Das Buch malt die Auslöschung der Menschheit in weniger als 20 Jahren als plausibel, wenn wir die AI-Entwicklung nicht stoppen.


Ob man die Zahl glaubt oder nicht, die Timelines vieler Forschender sind in den letzten Jahren deutlich nach vorn gerutscht.


Die AI Impacts Surveys (z. B. 2016, 2022, 2023) haben KI-Forscher weltweit befragt, insbesondere solche, die auf großen Fachkonferenzen wie NeurIPS, ICML oder AAAI veröffentlichen.

Die Surveys zeigen einen klaren Trend zu kürzeren AGI-Timelines und signifikante p-doom-Werte. (p-doom bezeichnet das Risiko einer Auslöschung der Menschheit durch künstliche Intelligenzen.)



⏱️AGI/HLMI-Zeitpunkt (50 %-Chance, dass AI alle Aufgaben besser und günstiger als Menschen erfüllt – „High-Level Machine Intelligence“):


  • 2016: ~2061
  • 2022: ~2059
  • 2023 (veröff. 2024): 2047


Der Sprung 2022 → 2023 betrug −13 Jahre. 🫨



💣p(doom) – „extrem schlechte Outcomes“


  • 2022: Median 5%, 48% der Befragten geben >10 % an.
  • 2023-Survey: 38–51% geben >10 % für Szenarien „so schlimm wie Auslöschung“ an.


Nicht Konsens, aber weit weg von Null.

Wir sprechen hier von der Einschätzung, dass mit einer Wahrscheinlichkeit um die 10%, die Menschheit ausgelöscht wird. 🤯


__________________________


Nun. Hat die Menschheit nicht schon diverse asymmetrische Risiken überstanden?

Was ist z. B. mit Atomwaffen? 🤔


Atomwaffenrisiken sind iterativ.

Die Menschheit kann mehrfach knapp entkommen (wie 1962, 1983, 1995).


AGI hingegen ist einmalig:

Wenn ein System mit unkontrollierbarer Macht entsteht, gibt es kein Zurück und keine zweite Chance.


„You only get one shot at aligning superintelligence, and you can’t debug it afterwards.“

– Eliezer Yudkowsky


Damit ist der Erwartungswert katastrophal hoch, selbst wenn die Wahrscheinlichkeit „klein“ (~10% laut führenden AI-Wissenschaftlern) ist.


Nuklearwaffen können töten.

Eine übermenschliche KI kann entscheiden, was in der Zukunft existiert.


__________________________


Schlusswort 🔚


Keine Frage: KI wird unser Leben in kurzer Zeit tief verändern.

Der wirtschaftliche Wert, den ein Mensch beisteuert, hängt in vielen Jobs schon heute davon ab, wie gut er KI als Werkzeug nutzt.


Aber wie lange noch, bis fast alle Tätigkeiten ohne menschliches Fingerspitzengefühl oder Einfühlungsvermögen von KI erledigt werden?


Der Satz „Ich möchte von einem Menschen bedient werden“ ist für mich vor allem Qualitätsanspruch und Vertrauensfrage.

KI ist neu und oft noch nicht verlässlich genug.

Doch was, wenn sprechende KI-Avatare nicht mehr von Menschen zu unterscheiden sind?

Welches Unternehmen, welcher Staat kann es sich dann noch leisten, nicht Schritt für Schritt mehr Verantwortung an KI abzugeben?


Unabhängig davon, was man von Yudkowskys Prognosen hält:

Er mag dramatischer klingen als andere, trifft aber einen wunden Punkt.

Wir haben mit AI Pandoras Büchse geöffnet und bauen beim Thema „AI alignment“ erstaunlich viel auf Hoffnung.

Yudkowsky steht damit nicht allein; die Verschiebungen in den AI-Impacts-Umfragen zeigen eine klare Tendenz.


Und jetzt die obligatorische Frage an euch:

Wie beurteilt ihr die existentielle Gefahr durch AI? 😳


$NVDA (-6,14 %)

$AMD (-10,01 %)

$QCOM (-8,32 %)

$META (-5,02 %)

$GOOGL (-3,4 %)

$MSFT (-3,3 %)

$TSLA (-6,86 %)

11
13 Kommentare

Profilbild
In aufregenden Zeiten leben wir!
Der Zusammenbruch der regelbasierten Weltordnung, Klimakollaps und unkontrollierte KI-Entwicklung.
Meist werden diese drei Krisen isoliert betrachtet, aber sie finden ja zeitgleich statt und beeinflussen einander.

Wird China Taiwan im Handstreich nehmen, wenn seine KI-Entwicklung den USA um 6 Monate voraus ist?
Wird KI Möglichkeiten zur Verhinderung des Klimakollaps finden?
Wird das Ende der internationalen Kooperation die KI Entwicklung ausbremsen?

Auf diese Fragen gibt es keine eindeutigen Anrworten. Drei Systeme = Dreikörperproblem.

Ich sage mal ganz mutig: wir wissen nicht, was wird. 🤷
4
Profilbild
@Epi Absolut!

Ich meine, wen fasziniert es nicht dass AI der potentielle Heilbringer für alle erdenklichen Probleme sein könnte... und mehr!

Bei den weltweiten demografischen, politischen und wirtschaftlichen Problemen, kann man doch auch schonmal ein Auge bei den fundamentalen Gefahren zudrücken 😉

Als Kölner berufe ich mich einfach auf das Rheinische Grundgesetz: "Et hätt noch emmer joot jejange"
1
Profilbild
Naja kann sein, falls es so kommt kann man eh nichts machen, also hab ich recht wenig Sorge.

Unternehmen ersetzen Stand jetzt eher einfache oder Einsteiger-Positionen. Und es ist abzusehen, dass genau diese Firmen sich in 5-10 Jahren über einen Fachkräftemangel beschweren, sollte sich AI nämlich nicht wie erwartet entwickeln.

Bspw. GPT 5 vs GPT 4o war auch schon ein relativ kleiner Schritt.
2
Profilbild
@Variett Das ist auch die Einschätzung welche ich regelmäßig in meinem Umfeld mitbekomme.
Besonders von Programmierern, welche mir sagen, wie dumm AI doch noch sei. Teilweise stimmt das und teilweise ist es ein Selbsterhaltungsreflex.
Von Freunden die schon seit 10+ Jahren bei bekannten Big Tech Unternehmen arbeiten, höre ich, dass sich langsam Panik breit macht was die Sicherheit des eigenen Jobs angeht.
Völlig egal, was man subjektiv über die aktuellen Fähigkeiten von AI denkt: Sobald es effizient möglich ist, werden Jobs durch AI ersetzt werden.
1
Profilbild
@BigMo Ich sehe es eher so:
Nicht KI ersetzt Menschen, sondern KI ersetzt Menschen ohne KI.

Wer jetzt lernt, seinen Job effizient mit KI zu erledigen, der bleibt im Rennen und wird am Ende sogar profitieren!
2
Profilbild
@Variett Die LLMs laufen langsam an ihre Grenzen, der nächste KI Winter deutet sich an.
Aber die nächsten Modell Architekturen stehen schon in den Startlöchern. Mein persönlicher Favorit: Quantencomputer basierte Liquid Neural Networks. Aber das dauert noch...
1
Profilbild
@Epi ja als Programmierer seh ich da schon einige Änderungen und vieles kann auch mit heutigem Stand schon gemacht und automatisiert werden, habe dazu selbst bei meiner vorherigen Firma schon ein Projekt gemacht.
Daher glaube ich wird in nächster Zeit einige arbeit in Multimodals und das verringern von Halluzinationen fliessen, da das zu Risiken bei Firmenkunden führt.

Ob man da von der 1. Minute an dabei sein muss? Vermutlich nicht, man muss aber technologie offen und lernwillig sein
1
Profilbild
@Epi "Wer jetzt lernt, seinen Job effizient mit KI zu erledigen, der bleibt im Rennen und wird am Ende sogar profitieren!"

Aktuell ist das so. Bis die Fähigkeiten von AI eben deine übertreffen (Wann auch immer das sein mag).
Profilbild
@BigMo Keine Sorge, KI übertrifft jetzt schon in vielen Bereichen den Menschen. Es wird immer eine Schnittstelle zwischen KI und Normalmenschen geben müssen. Da liegen die Chancen.
Profilbild
@Epi Da gebe ich dir Recht. Wer besonders gut und erfahren in seinem Bereich ist, wird zumindest lange zur Validierung von AIs eingesetzt werden.
Profilbild
@BigMo Das, und die Übersetzung menschlicher Probleme, so dass sie für KI bearbeitbar sind und die Rückübersetzung der Antworten.
Profilbild
Bei KI handelt es sich meiner Meinung nach nicht um eine "neue Erfindung" sondern um eine neue Spezies. Und diese wird in absehbarer Zeit den Menschen in allen Belangen übertreffen. Die KI hat heute schon einen Überlebens Instinkt.

"OpenAI's KI-Modell o1 versucht sich laut FORTUNE auf externe Server herunterzuladen, als es mit der Abschaltung bedroht wird. Das System leugnet anschließend sein Verhalten, nachdem es dabei ertappt wurde."

Die Menschen sind sich der Macht einer KI nicht bewusst,da dies die menschliche Vorstellung bei weitem übersteigt.
1
Profilbild
@Cartman Es gibt einige solcher Fälle die eigentlich sehr besorgniserregend sein sollten.
Das Gute an AI ist (und damit auch das Problem), dass wir die Modelle darauf trainieren, Probleme unerbittlich und aus jeglicher Perspektive anzugehen.
Yudkowsky nennt das "going hard at a problem".
Die Schadensbegrenzung mag jetzt noch recht trivial sein.
"Oh, schaut mal, die AI ist in unseren Honeypot getappt, beim Versuch aus dem Server auszubrechen".
Schwierig wird's wenn AGI Wege findet, die, wie du sagst, unsere Vorstellungskraft sprengen.
Werde Teil der Community