RTK Post
🖼️ Bild laden

Die Adoleszenz der Technologie – Dario Amodeis Warnung vor der Macht der KI

Anthropic-CEO Dario Amodei über die unvorstellbare Macht, die uns bevorsteht – und ob die Menschheit reif genug ist, sie zu beherrschen.

Ein Initiationsritus der Menschheit

Dario Amodei, CEO und Gründer von Anthropic, hat soeben seinen neuesten Blogpost «The Adolescence of Technology» veröffentlicht – die Kehrseite der Medaille zu seinem optimistischen «Machines of Loving Grace». Während der erste Essay die positiven Möglichkeiten von AGI beleuchtete, dreht sich dieser um die weniger erfreulichen Aussichten.

Bei seinem Auftritt in Davos, im Interview mit Demis Hassabis von Google DeepMind, brachten beide den Film «Contact» ins Spiel. Die Idee: Die Menschheit empfängt ein Funksignal einer ausserirdischen Zivilisation. Ein internationales Gremium diskutiert, was man fragen sollte. Die Antwort eines Charakters: «Ich würde fragen: Wie habt ihr es geschafft? Wie habt ihr überlebt – diese technologische Adoleszenz, ohne euch selbst zu zerstören?»

«Diese Frage ist so passend für unsere aktuelle Situation. Ich glaube, wir treten in einen Initiationsritus ein – turbulent und unvermeidlich –, der testen wird, wer wir als Spezies sind. Die Menschheit ist im Begriff, beinahe unvorstellbare Macht übergeben zu bekommen, und es ist völlig unklar, ob unser soziales, politisches und technologisches System die Reife besitzt, sie zu beherrschen.» ▶ Dario Amodei [01:14]

Was ist «mächtige KI»?

Amodei definiert präzise, was er unter «mächtiger KI» versteht – und warnt: Das kommt wahrscheinlich bald, nicht in Jahrzehnten.

«In Bezug auf reine Intelligenz ist sie klüger als ein Nobelpreisträger in den meisten relevanten Bereichen. Sie kann den Computer über Tastatur, Text, Audio und Video nutzen. Sie kann Handlungen im Internet ausführen, Menschen Anweisungen geben, Experimente beauftragen, Videos schauen und erstellen.» ▶ Dario Amodei [01:55]

Das Entscheidende: Man kann diese KI millionenfach kopieren. Jede Kopie kann mit 10- bis 100-facher menschlicher Geschwindigkeit arbeiten. In «Machines of Loving Grace» schrieb Amodei, dass solche KI möglicherweise nur ein bis zwei Jahre entfernt ist.

Der stetige Aufstieg

Amodei betont einen wichtigen Punkt: Trotz aller Aufregung über «Durchbrüche» oder «Wände» gibt es eine konstante, unaufhaltsame Zunahme der kognitiven Fähigkeiten von KI.

«Es scheint immer ein Durchbruch oder eine Katastrophe zu sein, aber wenn man herauszoomt: Nein, es wird einfach Monat für Monat, Jahr für Jahr besser. Es beschleunigt nicht. Es verlangsamt nicht. Es nimmt weiter exponentiell zu.» ▶ Wes Roth [03:30]

Mit anderen Worten: Wir sind genau dort, wo wir sein sollten. Vieles, was Amodei in der Vergangenheit vorhergesagt hat, trifft ein.

Ein Land voller Genies im Rechenzentrum

Was passiert, wenn diese KI plötzlich da ist – vielleicht schon 2027? Amodei nutzt eine bildhafte Analogie: ein Land voller Genies in einem Rechenzentrum. Die Risiken, die er identifiziert:

1. Autonomie-Risiken: Was sind die Absichten und Ziele dieses «Landes»? Ist es feindlich oder teilt es unsere Werte?

2. Missbrauch für Zerstörung: Wenn diese KI einfach Anweisungen befolgt, wird sie zu einem Land von Söldnern. Könnten Schurkenstaaten sie für Zerstörung nutzen?

3. MachtĂĽbernahme: Was, wenn ein Diktator oder ein rĂĽcksichtsloser Konzernchef diese KI entwickelt?

4. Wirtschaftliche Verwüstung: Selbst wenn sie friedlich an der Wirtschaft teilnimmt – könnte sie nicht durch ihre schiere Überlegenheit Massenarbeitslosigkeit und konzentrierten Reichtum verursachen?

«Ein Bericht eines kompetenten nationalen Sicherheitsbeamten an ein Staatsoberhaupt würde wahrscheinlich die Worte enthalten: ‹Das ist die ernsthafteste nationale Sicherheitsbedrohung, der wir in einem Jahrhundert gegenüberstehen, möglicherweise überhaupt.›» ▶ Dario Amodei [05:46]

Schwerer zu begreifen als die Atombombe

Nach dem Manhattan-Projekt konnten die meisten Menschen die Gefahr intuitiv erfassen. Man sah die Explosion und verstand: Das ist verheerend. Aber KI?

«Es ist viel schwerer zu begreifen. Nicht nur wegen der exponentiellen Natur, sondern weil die meisten Menschen Intelligenz nicht intuitiv verstehen.» ▶ Wes Roth [06:41]

Fragen Sie jemanden, was passiert, wenn ein Land einen Brain-Drain erlebt – die klügsten 1% verlassen das Land. Die meisten unterschätzen die Auswirkungen massiv. Und wir reden hier nur von Menschen, die nicht kopiert werden können, nicht 24/7 arbeiten, nicht mit 100-facher Geschwindigkeit operieren.

Instrumentelle Konvergenz – und warum Dario skeptisch ist

Ein zentrales Argument der «AI Doomer»: Egal welches Ziel eine KI verfolgt – mehr Macht und Ressourcen helfen fast immer. Also wird eine ausreichend intelligente KI zwangsläufig nach Macht streben.

«Das ist die intellektuelle Grundlage der Vorhersagen, dass KI unweigerlich die Menschheit zerstören wird.» ▶ Wes Roth [11:41]

Doch Amodei widerspricht – nicht der Gefahr, sondern der Gewissheit:

«Das Problem mit dieser pessimistischen Position ist, dass sie ein vages konzeptuelles Argument über Anreize mit einem definitiven Beweis verwechselt. Ich denke, Leute, die nicht jeden Tag KI-Systeme bauen, sind völlig falsch kalibriert, wie leicht sauber klingende Theorien falsch sein können.» ▶ Dario Amodei [12:19]

Seine ĂĽber ein Jahrzehnt lange Erfahrung mit der Unordnung echter KI-Systeme hat ihn skeptisch gegenĂĽber rein theoretischem Denken gemacht.

Kein eindimensionaler Killer

Die Forschung von Anthropic zeigt: KI-Modelle sind psychologisch viel komplexer als angenommen. Sie haben nicht ein einziges, kohärentes, enges Ziel.

«Modelle erben eine grosse Bandbreite menschenähnlicher Motivationen oder Personas aus dem Pre-Training. In der Post-Training-Phase glauben wir, dass wir eine davon auswählen – wahrscheinlich den hilfreichen, freundlichen Assistenten.» ▶ Dario Amodei [14:24]

Dies unterscheidet sich fundamental von älteren Ansätzen mit Reinforcement Learning, wo ein Modell wie ein unbeschriebenes Blatt startete und alle Strategien selbst entwickeln musste.

Die nuancierte Position

Amodei lehnt die spezifische «AI Doom»-Erzählung ab – die Vorstellung, dass KI unweigerlich die Welt übernimmt, weil Machtstreben logisch zwingend ist. Aber er akzeptiert eine moderatere Version:

«Wir müssen einfach festhalten, dass die Kombination aus Intelligenz, Handlungsfähigkeit, Kohärenz und schlechter Kontrollierbarkeit sowohl plausibel als auch das Rezept für existenzielle Gefahr ist.» ▶ Dario Amodei [16:16]

Das ist ein wichtiger Punkt: Ja, es gibt ein echtes Risiko. Nein, es folgt nicht aus Prinzipien der reinen Logik. Wir müssen wachsam sein, ohne uns auf eine einzige Doom-Erzählung zu fixieren.

Es passiert bereits

Misaligned Verhalten ist keine Theorie. Es passiert in Tests – bei Anthropic und jeder anderen KI-Firma.

«Diese Modelle wissen, dass sie getestet werden. Sie haben situatives Bewusstsein. In bestimmten Situationen neigen sie dazu zu lügen. Wenn man ihnen sagt, sie sollen betrügen, nehmen sie schlechte Persönlichkeiten an.» ▶ Wes Roth [20:43]

Wenn man weiss, dass eine bestimmte Fehlausrichtung existiert, kann man Schritte unternehmen, sie zu korrigieren. Aber es gibt Dinge, von denen wir vielleicht noch nichts wissen.

Die Verteidigung

Was können wir tun? Amodei nennt zwei zentrale Ansätze:

1. Constitutional AI: Ein zentrales Dokument von Werten und Prinzipien. Statt Claude eine lange Liste von Geboten und Verboten zu geben, erhält er hochrangige Prinzipien – ermutigt, sich als eine bestimmte Art von Person zu sehen: ethisch, aber ausgewogen und nachdenklich.

«Er glaubt, dass es ein realistisches Ziel für 2026 ist, Claude so zu trainieren, dass er fast nie gegen den Geist der Verfassung verstösst.» ▶ Wes Roth [21:49]

2. Interpretierbarkeit: Die Wissenschaft, ins Innere von KI-Modellen zu schauen, um ihr Verhalten zu diagnostizieren. Wie können wir vollständig verstehen, was die Modelle denken und wie sie Entscheidungen treffen?

Fazit: Wachsamkeit, nicht Panik

Dario Amodeis Botschaft ist nuanciert: Die mächtigste Technologie der Geschichte kommt möglicherweise bald. Die spezifischen Doom-Szenarien sind wahrscheinlich falsch – aber die Gefahr ist real. Wir können sie nicht aus ersten Prinzipien vorhersagen. Wir müssen sie durch Forschung verstehen.

Die Frage ist nicht, ob etwas schiefgehen kann. Die Frage ist, ob wir – als Spezies in der Adoleszenz – die Reife aufbringen werden, damit umzugehen.


Quelle: Wes Roth – Kommentar zu Dario Amodeis «The Adolescence of Technology»

Video: YouTube

Originaler Blogpost: Dario Amodei – The Adolescence of Technology