Stuart Russell: KI-CEOs spielen Russisches Roulette mit der Menschheit
Warum Stuart Russells Warnung Gewicht hat
Dies ist ein bemerkenswertes Interview, das weit über den typischen KI-Doomer-Diskurs hinausgeht. Stuart Russell - der buchstäblich das Lehrbuch geschrieben hat, das die meisten aktuellen KI-CEOs ausgebildet hat - liefert den vernichtendsten Insider-Bericht über die KI-Sicherheitssituation, den ich je gesehen habe. Seine Glaubwürdigkeit ist einzigartig: 40 Jahre als Berkeley-Professor, OBE von Königin Elizabeth, Time Magazines einflussreichste Stimme in KI, und persönliche Beziehungen zu den Führungskräften, die das KI-Rennen antreiben.
Die auffälligste Enthüllung ist sein Gespräch mit einem ungenannten führenden KI-CEO, der eine “Tschernobyl-große Katastrophe” als das beste Szenario sieht - weil erst dann Regierungen regulieren würden. Die Alternative? Totaler Kontrollverlust. Russell berichtet, dass CEOs “sich der Risiken bewusst” sind, aber das Gefühl haben, “diesem Rennen nicht entkommen zu können” - wenn sie zurücktreten, würden Investoren sie sofort ersetzen. Der kommerzielle Imperativ überwiegt persönliche Überzeugung.
Russell rahmt die Situation mit brutaler Klarheit durch sein “Gorilla-Problem”: Vor einigen Millionen Jahren zweigten Menschen von Gorillas ab. Jetzt haben Gorillas null Mitspracherecht bei ihrer weiteren Existenz, weil wir schlauer sind. Intelligenz ist “der wichtigste einzelne Faktor, um den Planeten Erde zu kontrollieren.” Wir bauen etwas, das intelligenter ist als wir. Die logische Schlussfolgerung schreibt sich selbst.
Die Zahlen, die Russell zitiert, sind erschütternd. AGI-Budgets werden nächstes Jahr 1 Billion Dollar erreichen - 50x das Manhattan-Projekt. Dario Amodei schätzt 25% Ausrottungsrisiko. Elon Musk sagt 30%. Sam Altman hat gesagt, AGI ist “das größte Risiko für menschliche Existenz.” Doch dieselben Leute bauen weiter. Russells Einschätzung: “Sie spielen Russisches Roulette mit jedem Menschen auf der Erde, ohne unsere Erlaubnis.”
Seine eine Hoffnung: KI-Systeme bauen, deren einziger Zweck ist, menschliche Interessen zu fördern, mit mathematischen Beweisen der Sicherheit. Er arbeitet seit einer “Erleuchtung” in Paris 2013 daran. Aber das aktuelle Paradigma - Systeme, die wir nicht verstehen, trainiert durch Anpassung von einer Billion Parametern durch Quintillionen zufälliger Anpassungen - bietet keine solchen Garantien.
4 Erkenntnisse von Russell zu existenziellem KI-Risiko
- Ein führender KI-CEO sagte Russell, dass eine Tschernobyl-große KI-Katastrophe das “beste Szenario” ist, weil es endlich staatliche Regulierung erzwingen würde - die Alternative ist kompletter Kontrollverlust
- Russells “Gorilla-Problem”: Gorillas zweigten evolutionär von Menschen ab und haben jetzt kein Mitspracherecht bei ihrer Existenz; wir erschaffen etwas, das uns in die Gorilla-Position versetzt
- Aktuelle KI-Systeme sind fundamental undurchsichtig - Russells Metapher: Ein Maschendrahtzaun, der ganz London bedeckt, bei ausgeschaltetem Licht, wo wir eine Billion Verbindungen durch Quintillionen zufälliger Anpassungen justieren, bis die Outputs richtig aussehen
- Sam Altman hat kürzlich gesagt “wir könnten bereits hinter dem Ereignishorizont sein” für KI-Takeoff - Russell interpretiert das als gefangen im Gravitationszug Richtung AGI mit einer Kraft, die sich verstärkt, je näher wir kommen