Warum langsame KI besser ist

Du tippst eine Frage in ChatGPT. Drei Sekunden später: Antwort da. Fühlt sich gut an, oder? Schnell, effizient, erledigt.

Bis du merkst, dass die Antwort Müll ist.

Ich hab das oft erlebt. Du fragst was Kompliziertes, die KI gibt dir sofort was aus, und du denkst: "Okay, das war... oberflächlich." Als hätte dir jemand die erste Google-Suche vorgelesen, ohne nachzudenken, ob es überhaupt Sinn ergibt.

Seit einer Weile gibt es was Neues. KI-Modelle, die sich Zeit nehmen. Die nicht sofort antworten. Die erstmal... denken.

Klingt komisch? Dachte ich auch. Bis ich es ausprobiert hab.

Wenn die KI plötzlich nachdenkt (und du wartest)

Claude hat eine Funktion: Extended Thinking. Du stellst eine Frage, und statt direkt zu antworten, siehst du: "Thinking..."

Ich hab das erste Mal gedacht: "Was ist das? Ich will doch nur eine schnelle Antwort."

Dann kam die Antwort. Und sie war anders. Nicht besser im Sinne von "länger" oder "komplizierter". Besser im Sinne von: durchdacht. Als hätte die künstliche Intelligenz tatsächlich überlegt, was ich wirklich wissen will, statt mir nur Textbausteine hinzuwerfen.

Christos Stavrou blickt in die Ferne, darüber das Zitat: KI, die sofort antwortet, ist wie ein Kollege, der deine Frage nicht zu Ende hört.

OpenAI hat das Ganze mit ihrem o1-Modell im September 2024 richtig auf die Bühne gebracht. Das war das erste Mal, dass "Thinking" nicht nur ein Feature war, sondern das Hauptverkaufsargument. Eine KI, die bewusst langsamer antwortet, weil sie verschiedene Lösungswege durchspielt, bevor sie sich festlegt. Wenn du mehr über OpenAi o1 wissen willst, ich hab darüber geschrieben:

OpenAI o1 ✹ Wenn KI ‘Digga, lass mal nachdenken’ sagt
Wenn KI ‘Digga, lass mal nachdenken’ sagt

Der Unterschied zwischen schneller KI und Thinking-KI ist wie der Unterschied zwischen einem Barkeeper, der dir sofort irgendeinen Drink mixt, und einem, der kurz fragt: "Was für einen Abend hast du vor?" Beides funktioniert. Aber eins trifft besser.

Was da eigentlich passiert (ohne dass es zu technisch wird)

Das Verrückte: Die Technologie dahinter heißt "Inference Scaling". Im Grunde bedeutet das: Die künstliche Intelligenz bekommt mehr Rechenzeit, um nachzudenken, bevor sie antwortet.

Was dabei passiert, nennt sich 'Chain-of-Thought-Reasoning' – oder einfach 'Thinking', wie es die meisten KI-Anbieter nennen. Klingt kompliziert, ist aber eigentlich simpel.

Statt sofort eine Antwort rauszuhauen, baut die KI eine Gedankenkette auf:

Sie überlegt verschiedene Ansätze, verwirft schlechte Ideen, prüft Zwischenschritte und landet dann bei der besten Lösung. Wie wenn du ein Problem im Kopf durchspielst, bevor du antwortest. Nur dass die künstliche Intelligenz das in Sekundenbruchteilen macht – aber eben nicht in einem einzigen Schritt.

Das Verrückte ist: Man kann diesen Denkprozess bei manchen Modellen aufklappen und nachlesen. Und das ist teilweise spannender als das Ergebnis.

Keine Ahnung, ob das wirklich "Denken" ist. Aber das Ergebnis fühlt sich so an.

Was ist der Unterschied zwischen Thinking und Reasoning?

Kurze Klärung, weil das immer wieder verwirrt. Reasoning und Thinking meinen dasselbe, nur aus unterschiedlichen Perspektiven:

Reasoning (der technische Begriff):

  • Logisches Schlussfolgern, Schritt-für-Schritt-Denken
  • Was die KI intern macht (Chain-of-Thought-Reasoning)
  • Der Prozess selbst

Thinking (der Marketing Begriff; das, was du siehst):

  • Was OpenAI (o1) und Anthropic (Claude) dir anzeigen
  • "Thinking..." als Status
  • Der sichtbare Moment, in dem Reasoning passiert

Wenn o1 "Thinking" anzeigt, macht es intern Chain-of-Thought-Reasoning. Zwei Worte, ein Vorgang.

Schillernder gläserner Kopf im Profil – symbolisiert den unsichtbaren Denkvorgang hinter KI-Thinking und Chain-of-Thought-Reasoning

Was das für dich bedeutet (außer längeren Wartezeiten)

Seitdem ich Thinking-Modelle nutze, ist mir das aufgefallen:

Schnelle KI ist gut für:

  • Fakten nachschlagen ("Welches Album war zuerst: OK Computer oder Kid A?")
  • Einfache Aufgaben ("Schreib mir eine Zusammenfassung von diesem Text")
  • Brainstorming, wo du einfach viele Ideen brauchst

Thinking-KI ist besser für:

  • Komplexe Probleme, wo es mehrere Lösungswege gibt
  • Strategische Fragen ("Sollte ich für mein Startup zuerst auf organisches Wachstum setzen oder direkt Ads schalten?")
  • Situationen, wo du lieber eine richtige Antwort willst als eine schnelle

Der Trade-off? Zeit. Eine Thinking-KI braucht länger. Manchmal 20 Sekunden, eine Minute, manchmal sogar länger. In einer Welt, in der wir gewohnt sind, dass alles sofort passiert, fühlt sich das an wie Steinzeit.

Aber – und das ist der Punkt – manchmal lohnt es sich zu warten.

Warum die nächste KI-Revolution nicht größer wird, sondern langsamer

Die letzten Jahre ging es in der KI-Welt immer um: größere Modelle, mehr Parameter, schnellere Antworten.

GPT-3 hatte 175 Milliarden Parameter – das war damals offiziell bestätigt und beeindruckend genug.

Bei GPT-4? OpenAI schweigt. Im technischen Bericht zu GPT‑4 wurde bewusst keine Parameterzahl veröffentlicht. Es kursieren Gerüchte über 1 bis 2 Billionen Parameter, manche sprechen von einem Mixture-of-Experts-Setup mit 1,7 Billionen. Andere Analysen tippen eher auf 100 bis 400 Milliarden. Fakt ist: Niemand weiß es genau, und OpenAI sagt nichts.

GPT-5? Gleiche Geschichte. Keine offiziellen Zahlen. Schätzungen reichen von 1,7 bis 5 Billionen Parametern, aber das sind alles externe Vermutungen. OpenAI hält dicht.

Größer bringt nicht mehr so viel

Die wirkliche Innovation liegt darin, dass KI-Modelle länger nachdenken können, statt einfach nur mehr Daten zu fressen.

Das ist wie beim Lernen. Du kannst dir 10.000 Vokabeln reinprügeln, aber wenn du nicht verstehst, wie Sprache funktioniert, wirst du trotzdem nicht fließend sprechen. Thinking-KI ist der Versuch, nicht nur mehr Wissen zu haben, sondern es besser zu nutzen.

Ich habe mal ein Interview mit den KI-Forschern Sebastian Raschka und Nathan Lambert gehört (Lex Fridman Podcast, falls du sowas magst). Die beiden haben gesagt: "Die nächste große Verbesserung wird nicht durch größere Modelle kommen, sondern durch bessere Inference." Also: nicht mehr Daten, sondern mehr Zeit zum Nachdenken.

Das hat mich echt überrascht. Weil es bedeutet: Wir haben vielleicht schon die Technologie für richtig gute KI. Wir müssen sie nur anders nutzen.

Goldene Partikel formen sich innerhalb eines Drahtgitter-Würfels – Visualisierung von Inference Scaling und KI-Reasoning-Prozessen.

Wann du Thinking brauchst (und wann nicht)

Offen gesagt: Die meiste Zeit brauchst du kein Thinking. Wenn du nur checken willst, wie viele Staffeln "Rick and Morty" hat, willst du keine Minute warten. Das wäre so, als würde man einen Philosophen nach der Uhrzeit fragen und er fängt an, über das Wesen der Zeit zu referieren. Aber es gibt Momente, wo es den Unterschied macht.

Ich nutze Thinking, wenn:

  • Ich eine Strategie entwickle (nicht nur eine Idee, sondern eine Roadmap)
  • Ich Code debuggen will (wo ein Fehler tief in der Logik steckt)
  • Ich einen Text schreibe, der nicht nach Template klingen soll (Wie dieser hier? Du merkst schon, wo das hinführt)

Ich nutze es NICHT, wenn:

  • Ich nur einen Fakt wissen will
  • Ich schnell was umformulieren muss
  • Zeit wichtiger ist als Präzision

Das Komische: Seit ich weiß, dass es den Unterschied gibt, nerve ich mich mehr, wenn eine KI sofort antwortet, ohne nachzudenken. Früher fand ich das gut. Jetzt fühlt es sich manchmal an wie eine vorschnelle Antwort von jemandem, der nicht richtig zugehört hat.

Was das für die Zukunft bedeutet (vermutlich)

Wenn ich raten müsste: Thinking wird zum Standard. Nicht sofort, aber irgendwann. Weil die Alternative – immer größere Modelle zu trainieren – irgendwann an ihre Grenzen stößt. Physikalisch, finanziell, ökologisch.

Thinking ist nicht unbedingt billiger pro Anfrage. Aber es könnte effizienter sein als die Alternative: Noch ein riesigeres Modell zu bauen, nur um bessere Ergebnisse zu kriegen.

Offen gestanden finde ich die Idee gut. Eine KI, die nicht sofort antwortet, sondern sich Zeit nimmt, fühlt sich irgendwie... menschlicher an. Nicht im Sinne von "sie ist jetzt bewusst" (ist sie nicht). Sondern im Sinne von: Sie macht nicht einfach das Naheliegende, sondern überlegt, was wirklich gefragt ist.

Wir bewegen uns weg von "KI als Antwort-Automat" hin zu "KI als Denkpartnerin". Und ein gute Partnerin braucht auch mal einen Moment, um seine Gedanken zu sortieren.

Vielleicht ist das die Zukunft. Keine KI, die alles sofort weiß. Sondern eine, die zugibt: "Moment, lass mich kurz nachdenken."

Studio Christos ✺ KI Kreative Intelligenz

Link wurde kopiert!