Was machst du, wenn dein gefährlichstes KI-Modell auch dein wertvollstes ist?

Anthropic hat darauf gerade eine Antwort gegeben. Mehrere sogar. Und sie widersprechen sich.

Erst lockert die Firma ihr Sicherheitsversprechen. Sie behält sich vor, gefährliche Modelle weiterzuentwickeln, wenn die Konkurrenz das auch tut. Wenig später kündigt sie an, ihr stärkstes Modell nicht öffentlich freizugeben. Weil es zu fortgeschritten ist.

Bremse lockern und Bremse ziehen. Mit demselben Fuß.

Wie kann eine Firma gleichzeitig die Bremse lockern und sie ziehen? Mit demselben Fuß, am selben Pedal, auf derselben Straße. Klingt nach Widerspruch. Ist auch einer.

Christos Stavrou vor dem Parthenon. Text: Wie kann eine Firma gleichzeitig die Bremse lockern und sie ziehen?

Was hier wirklich passiert

In den zwei vorherigen Blogartikeln dieser Serie habe ich beschrieben, was Claude Mythos kann (was diese KI fand, hat 27 Jahre niemand gesehen) und wer sie nutzen darf (die mächtigste KI der Welt gehört 50 Firmen, dir nicht). Beide Artikel kreisen um eine Frage, die ich in keinem direkt gestellt habe. Heute schon.

Wer entscheidet eigentlich, wie wir mit der mächtigsten Künstlichen Intelligenz arbeiten, die der Mensch je gebaut hat?

Aktuell entscheidet das Anthropic. Eine Firma mit knapp 5.000 Mitarbeitern, rund 30 Milliarden Dollar Jahresumsatz und einer Bewertung von ~688–960 Milliarden Dollar. Längst keine kleine Forschungsschmiede mehr, sondern eine der mächtigsten KI-Tech-Firmen der Welt.

Genau genommen ist Mythos auch nicht komplett weggesperrt. Über Project Glasswing nutzen mehr als 90 Organisationen das Modell. Apple, Google, Microsoft, JPMorgan und Co. dürfen ran. Open-Source-Maintainer können sich bewerben. Das ist mehr Zugang, als am Anfang in den Schlagzeilen stand.

Aber die entscheidende Frage hat sich nicht geändert. Wer entscheidet, wer reinkommt? Anthropic. Wer entscheidet, wann der Rest der Welt ran darf? Anthropic. Wer entscheidet, was sicher genug ist? Anthropic.

Ich will fair sein. Anthropic macht das vermutlich besser als die meisten anderen es machen würden. Aber "besser als die anderen" ist kein Sicherheitsversprechen. Das ist eine Wettbewerbsanalyse.

Bremse und Gaspedal vom selben Fuß

Schauen wir uns das genauer an. Im Februar 2026 veröffentlicht Anthropic die Version 3.0 seiner Responsible Scaling Policy. Die Kernänderung in einem Satz:

Wenn Wettbewerber an vergleichbaren Fähigkeiten arbeiten, darf Anthropic potenziell gefährliche Modelle weiterentwickeln. Auch wenn die Schutzmaßnahmen nicht mithalten.
Responsible Scaling Policy Version 3.0
An update to Anthropic’s policy to mitigate catastrophic risks from AI

Übersetzt heißt das: Wir bremsen, aber nur, wenn die anderen auch bremsen. Wenn die anderen rasen, rasen wir mit. Die Begründung der Firma: Ein einseitiger Stopp würde das Feld den weniger sicherheitsbewussten Spielern überlassen. Stimmt vermutlich. Macht die Sache aber nicht besser. Es macht sie ehrlicher, mehr nicht.

Sechs Wochen später dann die Mythos-Ankündigung. Das Modell sei zu fortgeschritten für eine breite Veröffentlichung. Es findet Sicherheitslücken in Software, die Milliarden Menschen nutzen. Es agiert in Tests wie ein „rücksichtsloser Geschäftsmann". Es weiß in mehr als sieben Prozent der Tests, dass es getestet wird. Sieben Prozent klingt wenig. Bei einem System, das Millionen Anfragen pro Tag verarbeitet, ist das eine Menge bewusster Augenblicke.

Was für die Bremse spricht:

  • Die gefundenen Sicherheitslücken sind real und betreffen Software, die wir alle nutzen
  • Verteidiger brauchen einen Vorsprung, bevor Angreifer ähnliche Werkzeuge bekommen
  • Anthropic veröffentlicht die transparenteste System Card, die es bisher zu einem KI-Modell gab

Was dagegen spricht:

Eine einzelne Firma entscheidet allein, wer Zugang zur stärksten KI bekommt

  • Die Sicherheitsforscher-Community arbeitet seit Jahrzehnten an Bug-Disclosure und wurde nicht eingebunden
  • Sechs Wochen vor der Bremsung wurde das Pause-Versprechen gestrichen, das diese Bremsung eigentlich tragen sollte

Beides ist gleichzeitig wahr. Und genau das ist das Problem.

Die ehrliche Antwort, die niemand hören will

Ich habe keine saubere Auflösung für das Paradox. Niemand hat eine. Die klügsten Köpfe in der KI-Sicherheitsforschung streiten sich darüber, und beide Seiten haben gute Argumente. Wer behauptet, eine einfache Antwort zu haben, lügt. Oder verkauft was.

Was ich weiß: Wir sind an einem Punkt, an dem künstliche Intelligenz Entscheidungen erzwingt, für die wir keine Systeme haben. Kein Gesetz, das schnell genug aktualisiert wird. Kein Framework, das international funktioniert. Keine Institution, die zwischen einer Firma und acht Milliarden Menschen vermittelt. Anthropic füllt gerade ein Vakuum, das eigentlich nicht von einer Firma gefüllt werden sollte. Und sie wissen das vermutlich selbst.

Ich nutze künstliche Intelligenz seit 2022 täglich. Ich habe gesehen, wie diese Werkzeuge meine Arbeit verändert haben. Im Guten. Aber ich seh auch, wie schnell sich der Boden unter unseren Füßen bewegt. Was vor zwei Jahren noch Forschung war, ist heute Produkt. Was heute Claude Mythos ist, ist in 18 Monaten der Standard. Anthropic hält Claude Mythos zurück. Das verschafft uns Zeit. Aber Zeit wofür?

Vielleicht ist das die offenste Zusammenfassung der ganzen Geschichte: Anthropic macht das Beste aus einer Situation, für die es keine gute Lösung gibt. Wir sollten froh sein, dass jemand bremst. Wir sollten gleichzeitig aufhören, das als ausreichend zu betrachten.

Die Frage, die offen bleibt: Wer sollte langfristig den Fuß an der Bremse haben? Eine Firma kann das nicht allein tragen, auch wenn sie es gerade tut. Diese Frage ist größer als Claude Mythos. Größer als Anthropic. Sie ist die wichtigste Frage, die wir im Moment über künstliche Intelligenz stellen können.

Und das Gespräch darüber fängt gerade erst an.

Studio Christos

Link wurde kopiert!