Wie der Reactor denkt.
Die Qualität von KI-Output hängt vom Prozessdesign ab, nicht von der Prompt-Kompetenz. Der Reactor verlagert die Kontrolle: weg vom Prompting, hin zur Gestaltung kognitiver Rezepte.
Ein Stream.
Fünf kombinierbare Schichten.
Jeder API-Aufruf baut einen System-Prompt aus fünf unabhängigen Schichten. Derselbe Rezeptschritt liefert je nach Persona, Kontext und Methode fundamental andere Ergebnisse. Bibliothek mit über 200 Frameworks.
Persona
Kognitive Haltung — analytisch, kreativ, adversarial oder kuratorisch
Method
Eine von 200+ Denkmethoden, injiziert als strukturierte Anweisung
Context
Angepinnter Inhalt + bereinigter Verlauf (full, last_step oder none)
Slot
Modellauswahl — LOGIC, CREATIVE oder SEARCH pro Schritt
Output
Strukturierte Nodes, in Echtzeit gestreamt mit transparentem Reasoning
Drei Slots.
Heterogene Komposition.
Jeder Rezeptschritt deklariert den benötigten kognitiven Slot. Analytische Arbeit geht an Reasoning-Modelle, Recherche an Web-Modelle, Synthese an generative Modelle — alles in einem Workflow.
Analytisches Reasoning
Reasoning-Modelle (o1, o3-mini, Gemini Flash Thinking)
TRIZ-Analyse, Widerspruchserkennung, Scoring, Validierung, adversariales Audit
Ideenfindung & Synthese
Generative Modelle (Claude Sonnet, GPT-4o, Llama 4)
Brainstorming, Storytelling, Konzeptsynthese, Lösungsarchitektur, Copywriting
Faktenbasierte Recherche
Web-Modelle (Perplexity Sonar, Gemini mit Grounding)
Patentrecherche, Wettbewerbsanalyse, Marktforschung, Stand der Technik
Sechs Wege, Denken zu orchestrieren.
Von linearen Pipelines bis zu autonomen, selbstkorrigierenden Schwärmen — jedes Rezept basiert auf kombinierbaren Ausführungsmustern.Alle Rezepte ansehen
Linear Pipeline
Sequenzielle Schritte, jeder baut auf dem vorherigen auf. Einfach, deterministisch, schnell.
e.g. TRIZ Express, Elevator Pitch
Multi-Model Orchestrated
Unterschiedliche Modell-Slots pro Schritt — kreative, analytische und Recherche-Modelle bearbeiten dasselbe Problem aus ihren Stärken.
e.g. TRIZ v8, Pitch Architect
User-Driven Branching
Die Engine pausiert an einem Entscheidungspunkt. Der User wählt einen Pfad, das Rezept verzweigt entsprechend.
e.g. Dilemma Decoder, Branching Demo
Self-Correcting Loop
Autonomer Generieren → Prüfen → Überarbeiten-Zyklus. Die KI bewertet ihren eigenen Output und verfeinert, bis die Qualität passt.
e.g. Aletheia Engine, TRIZ v9 MAX
Parallel Swarm
Mehrere Agenten arbeiten gleichzeitig mit unterschiedlichen Perspektiven. Outputs werden aggregiert und synthetisiert.
e.g. MAD Engine, Ergodic Hive
Kombinierbare Muster
Muster lassen sich frei kombinieren. Echte Rezepte sind Hybride:
- E+FAutonomer Schwarm — parallele Agenten + Selbstkorrektur
- C+FBranching Schwarm — User-Entscheidung → spezialisierter Schwarm
- B+ESlot-basierte Korrektur — kreativ generiert, Logik prüft
- D+ECopilot / Autopilot — User wechselt zwischen manuell und autonom
Glass Box UI.
Jede KI-Antwort ist vollständig transparent. Keine Blackbox. Sehen, was das Modell gedacht hat, bevor es geschrieben hat — strukturierte Daten inspizieren und den Raw-Output debuggen — alles in Echtzeit.
Agenten-Labels zeigen, welcher Spezialist während mehrstufiger Rezepte aktiv ist. Das Cognitive Protocol zeigt den internen Reasoning-Prozess des Modells, bevor ein einziges Wort Output erscheint.
Formatierter Output — sauber, strukturiert, umsetzbar
Nativer Reasoning-Trace aus dem Denkprozess des Modells
Strukturierte Node-Daten — parsebar, exportierbar
Unverarbeiteter Modell-Output für Debugging
TRIZ v8 Orchestrator.
5 spezialisierte Agenten. 3 Modell-Slots. 2 Kontext-Modi. Das Flagship-Rezept zeigt die volle Orchestrator-Kapazität.
Problem in Komponenten, Funktionen und Widersprüche zerlegen.
TRIZ-Widerspruchsmatrix anwenden. Lösungsrichtungen generieren.
Bestehende Lösungen, Patente und analoge Domänen recherchieren.
Alle Erkenntnisse zu konkreten, umsetzbaren Konzepten synthetisieren.
Schwächen, Risiken und unbeabsichtigte Konsequenzen identifizieren.
Context Pruning
Schritte 2 & 3 nutzen last_step — das Modell fokussiert auf den destillierten Output, nicht den gesamten Verlauf.
Slot Diversity
Analyse → Reasoning-Modelle. Recherche → Web-Modelle. Synthese → kreative Modelle. Kein einzelnes Modell macht alles.
Adversarial Close
Schritt 5 sieht den vollen Kontext, nutzt aber ein Reasoning-Modell — maximale Prüfschärfe auf den gesamten Vorschlag.
Warum kognitive Architektur Mega-Prompts schlägt.
Im März 2026 veröffentlichte das Kimi-Team das Paper Attention Residuals — ein mathematischer Beweis für ein Problem, das der Reactor auf der Ebene der Prozesssteuerung bereits architektonisch löst.
PreNorm Dilution
In tiefen Netzen summieren sich residuale Verbindungen auf. Essenzielle frühe Informationen werden durch das Rauschen mittlerer Layer verdünnt — tiefere Schichten verlieren den Zugriff auf die ursprünglichen Signale.
Context Contamination
In Standard-Chats summiert sich der Kontext von Nachricht zu Nachricht. Wenn ein Modell bei Schritt 6 ankommt, ist das ursprüngliche Problem im Rauschen iterativer Zwischenschritte verwässert.
Skip Connections → Epistemic Anchor
Kimi: Spätere Layer überspringen akkumuliertes Rauschen und greifen direkt auf frühe, saubere Schichten zu (Attention Residuals).
Reactor: Der Epistemic Anchor sichert extrahierte Fakten aus Schritt 1 per Auto-Pinning. Spätere Agenten mit context_mode: last_step arbeiten nur mit dem destillierten Output — die Ground Truth bleibt über <pinned_context> direkt erreichbar.
Block-Kompression → Swarm Synthesis
Kimi: Schichten werden in Blöcke gruppiert und auf einen Vektor komprimiert. Spätere Schichten sehen nur die saubere Zusammenfassung, nicht die rohen Einzelschritte.
Reactor: Wenn parallele Agenten arbeiten (Pattern F), komprimiert ein Synthesizer-Step die Outputs in ein dichtes XML-Aggregat. Nachfolgende Schritte verarbeiten nur diesen Knoten — nicht die einzelnen Agenten-Antworten.
Deep & Narrow → Mikroschritte
Kimi: Netze mit Attention Residuals erreichen ihr Optimum bei tieferen, schmaleren Architekturen — flache Netze stagnieren.
Reactor: Viele eng fokussierte Schritte (deep & narrow) schlagen wenige überladene Mega-Prompts (shallow & wide). Wenn die Engine Navigation und Kontext-Bereinigung übernimmt, kann das Modell 100 % seiner Parameter auf die reine Transformation konzentrieren.
Intelligenz in komplexen Systemen entsteht nicht durch endloses Ansammeln von Daten, sondern durch das gezielte Bereinigen von Rauschen — unabhängig davon, ob das System ein neuronales Netz oder eine kognitive Pipeline ist.
Quelle: Kimi / Moonshot AI, Attention Residuals (März 2026) · Benchmark-Ergebnisse ansehen →
Methoden denken vor. Mitdenken. Weiterdenken.
200+ Methoden. 84+ Rezepte. Drei Modell-Slots — bereit zum Steuern.
Reactor starten