ChatGPT-Router ✺ Warum du nicht immer das beste Modell bekommst
Du zahlst 20 Euro im Monat für ChatGPT. Und trotzdem antwortet es manchmal, als hätte es den Satz nicht mal zu Ende gelesen.
Das ist kein Bug. Das ist Absicht.
Ich nutze ChatGPT täglich seit 2022. Für Recherche, für Texte, für schnelle Fragen zwischen zwei Meetings. Und ich kannte dieses Gefühl: Montag stellst du eine Frage und bekommst eine brillante Antwort, die dich zehn Minuten lang beschäftigt. Dienstag stellst du eine ähnliche Frage und bekommst etwas, das klingt wie eine Wikipedia-Zusammenfassung von einem Praktikanten. Selbes Tool. Selbes Abo. Komplett andere Qualität. WTF?!
Lange dachte ich, das liegt an mir. Vielleicht war mein Prompt schlecht. Vielleicht hatte ich die falsche Tageszeit erwischt. Vielleicht war künstliche Intelligenz einfach launisch. Bis ich verstanden habe, was wirklich passiert.

Was hinter der Oberfläche steckt
GPT-5 hat ein Feature, über das kaum jemand spricht, obwohl es die wichtigste Neuerung sein dürfte: einen Router. Nathan Lambert, Post-Training-Lead am Allen Institute for AI, nennt es das Headline-Feature, das OpenAI vermutlich Millionen gespart hat. Die Idee dahinter ist simpel und gleichzeitig ein bisschen unangenehm.
Wenn du ChatGPT eine Frage stellst, entscheidet ein System im Hintergrund, welches Modell dir antwortet. Einfache Frage? Du bekommst das günstige, schnelle Modell. Komplexe Frage? Dann schaltet sich das teurere, leistungsfähigere Modell ein. Du merkst davon nichts. Kein Hinweis, kein Label, kein kleiner Disclaimer am Rand.
Du denkst, du redest immer mit derselben KI. Tust du nicht.
Das Prinzip heißt Mixture of Experts und existiert schon länger in der KI-Architektur. Sebastian Raschka, Autor von Build a Large Language Model from Scratch, erklärt es so: Statt eines riesigen Netzwerks, das bei jeder Anfrage komplett aktiv ist, gibt es spezialisierte Teilnetzwerke – Experten. Ein Router entscheidet, welcher Experte für welche Eingabe zuständig ist. Mathematik-Frage? Anderer Experte als eine Übersetzung ins Spanische.
Das ist auf technischer Ebene elegant. Auf Nutzerebene ist es, naja, fragwürdig.
Weil du als User keine Kontrolle darüber hast, was du bekommst. Und – das ist der Teil, der mich als UX-Designer seit 2009 am meisten stört – du weißt nicht mal, dass es passiert.

Warum das mehr als ein technisches Detail ist
Ich habe in meinem letzten Artikel darüber geschrieben, dass ich vier verschiedene KI-Modelle parallel nutze. Claude, ChatGPT, Gemini, manchmal Mistral. Damals dachte ich, die Qualitätsunterschiede liegen zwischen den Anbietern. Jetzt weiß ich: Die Unterschiede existieren auch innerhalb desselben Produkts.
Sebastian Raschka beschreibt seinen eigenen Workflow ziemlich direkt: Für die meisten Alltagsfragen nimmt er das schnelle Modell. Wenn er etwas Geschriebenes gründlich prüfen lassen will, schaltet er in den Pro-Modus und lässt die KI arbeiten, während er Abendessen macht. Nathan Lambert hat regelmäßig fünf Pro-Anfragen gleichzeitig laufen, jede für eine spezifische Recherche-Aufgabe.
Was mir dabei aufgefallen ist:
- Die Forscher wissen, welches Modell sie gerade nutzen, und wählen bewusst
- Normale Nutzer wissen es nicht und denken, sie bekommen immer das Beste
- Der Auto-Modus entscheidet für dich, und meistens wählt er das Günstigere
Und das erklärt eine Menge. Es erklärt, warum dieselbe KI an einem Tag beeindruckt und am nächsten enttäuscht. Es erklärt, warum Prompts, die gestern funktioniert haben, heute mittelmäßige Ergebnisse liefern. Nicht weil die künstliche Intelligenz schlechter geworden ist – sondern weil du mit einer anderen KI sprichst.
Aus UX-Perspektive ist das ein Problem. Transparenz schafft Vertrauen. Intransparenz schafft Frust. Und Frust schafft Nutzer, die denken, sie machen etwas falsch, obwohl das System einfach eine Entscheidung für sie getroffen hat.
Ich verstehe, warum OpenAI das so baut. Die Kosten für künstliche Intelligenz sind brutal. Nicht jede Frage braucht das stärkste Modell. Wenn ich frage, wie viele Kalorien ein Wein hat, muss dafür kein Rechenzentrum auf Hochtouren laufen. Das ist wirtschaftlich sinnvoll. Aber dann sag es mir.
Drei Dinge, die ich seitdem anders mache
- Ich nutze den Thinking-Modus bewusst, wenn ich Qualität brauche, nicht den Auto-Modus
- Ich bewerte KI-Antworten kritischer, weil ich weiß, dass nicht jede Antwort vom selben Modell kommt
- Ich ärgere mich weniger über schwache Antworten, weil ich den Mechanismus dahinter verstehe
Ob das gut oder schlecht ist? Vermutlich beides. Die Kosten für künstliche Intelligenz sind real, und nicht jede Frage braucht das stärkste Modell. Aber der Unterschied zwischen einem guten und einem frustrierenden KI-Erlebnis liegt oft nicht am Prompt. Sondern daran, welches KI-Modell gerade für dich gearbeitet hat, ohne dass du es wusstest.
Seit ich das verstanden habe, nutze ich ChatGPT anders. Bewusster. Und offen gesagt: entspannter. Weil ich mich nicht mehr frage, was ich falsch gemacht habe, wenn eine Antwort flach ausfällt. Ich weiß jetzt einfach, was dahintersteckt.
Manchmal ist das der ganze Unterschied. Nicht ein besseres Tool. Sondern verstehen, wie das Tool funktioniert, das du schon hast.
Studio Christos ✺ KI Kreative Intelligenz