Architektur

Wie der Reactor denkt.

Die Qualität von KI-Output hängt vom Prozessdesign ab, nicht von der Prompt-Kompetenz. Der Reactor verlagert die Kontrolle: weg vom Prompting, hin zur Gestaltung kognitiver Rezepte.

200+Methoden
84+Rezepte
63Workflows
3Modell-Slots
4Personas
6Muster
Prompt-Architektur

Ein Stream.
Fünf kombinierbare Schichten.

Jeder API-Aufruf baut einen System-Prompt aus fünf unabhängigen Schichten. Derselbe Rezeptschritt liefert je nach Persona, Kontext und Methode fundamental andere Ergebnisse. Bibliothek mit über 200 Frameworks.

01

Persona

Kognitive Haltung — analytisch, kreativ, adversarial oder kuratorisch

02

Method

Eine von 200+ Denkmethoden, injiziert als strukturierte Anweisung

03

Context

Angepinnter Inhalt + bereinigter Verlauf (full, last_step oder none)

04

Slot

Modellauswahl — LOGIC, CREATIVE oder SEARCH pro Schritt

05

Output

Strukturierte Nodes, in Echtzeit gestreamt mit transparentem Reasoning

Multi-Modell-Orchestrierung

Drei Slots.
Heterogene Komposition.

Jeder Rezeptschritt deklariert den benötigten kognitiven Slot. Analytische Arbeit geht an Reasoning-Modelle, Recherche an Web-Modelle, Synthese an generative Modelle — alles in einem Workflow.

SLOT_LOGIC

Analytisches Reasoning

Reasoning-Modelle (o1, o3-mini, Gemini Flash Thinking)

TRIZ-Analyse, Widerspruchserkennung, Scoring, Validierung, adversariales Audit

SLOT_CREATIVE

Ideenfindung & Synthese

Generative Modelle (Claude Sonnet, GPT-4o, Llama 4)

Brainstorming, Storytelling, Konzeptsynthese, Lösungsarchitektur, Copywriting

SLOT_SEARCH

Faktenbasierte Recherche

Web-Modelle (Perplexity Sonar, Gemini mit Grounding)

Patentrecherche, Wettbewerbsanalyse, Marktforschung, Stand der Technik

Orchestrierungsmuster

Sechs Wege, Denken zu orchestrieren.

Von linearen Pipelines bis zu autonomen, selbstkorrigierenden Schwärmen — jedes Rezept basiert auf kombinierbaren Ausführungsmustern.Alle Rezepte ansehen

PATTERN A

Linear Pipeline

Sequenzielle Schritte, jeder baut auf dem vorherigen auf. Einfach, deterministisch, schnell.

Step 1Step 2Step 3full ctxfull ctxfull ctx

e.g. TRIZ Express, Elevator Pitch

PATTERN B

Multi-Model Orchestrated

Unterschiedliche Modell-Slots pro Schritt — kreative, analytische und Recherche-Modelle bearbeiten dasselbe Problem aus ihren Stärken.

DraftCREATIVEResearchSEARCHAuditLOGICnonelast_stepfull

e.g. TRIZ v8, Pitch Architect

PATTERN C

User-Driven Branching

Die Engine pausiert an einem Entscheidungspunkt. Der User wählt einen Pfad, das Rezept verzweigt entsprechend.

PAUSEInputPath APath BOption 1Option 2

e.g. Dilemma Decoder, Branching Demo

PATTERN E

Self-Correcting Loop

Autonomer Generieren → Prüfen → Überarbeiten-Zyklus. Die KI bewertet ihren eigenen Output und verfeinert, bis die Qualität passt.

GenerateAI CheckNextPassFail → Retry

e.g. Aletheia Engine, TRIZ v9 MAX

PATTERN F

Parallel Swarm

Mehrere Agenten arbeiten gleichzeitig mit unterschiedlichen Perspektiven. Outputs werden aggregiert und synthetisiert.

SpawnLogicCreativeResearchΣSynth

e.g. MAD Engine, Ergodic Hive

HYBRIDS

Kombinierbare Muster

Muster lassen sich frei kombinieren. Echte Rezepte sind Hybride:

  • E+FAutonomer Schwarm — parallele Agenten + Selbstkorrektur
  • C+FBranching Schwarm — User-Entscheidung → spezialisierter Schwarm
  • B+ESlot-basierte Korrektur — kreativ generiert, Logik prüft
  • D+ECopilot / Autopilot — User wechselt zwischen manuell und autonom
Transparenz

Glass Box UI.

Jede KI-Antwort ist vollständig transparent. Keine Blackbox. Sehen, was das Modell gedacht hat, bevor es geschrieben hat — strukturierte Daten inspizieren und den Raw-Output debuggen — alles in Echtzeit.

Agenten-Labels zeigen, welcher Spezialist während mehrstufiger Rezepte aktiv ist. Das Cognitive Protocol zeigt den internen Reasoning-Prozess des Modells, bevor ein einziges Wort Output erscheint.

Rendered
Thinking
JSON
Raw
Rendered

Formatierter Output — sauber, strukturiert, umsetzbar

Thinking

Nativer Reasoning-Trace aus dem Denkprozess des Modells

JSON

Strukturierte Node-Daten — parsebar, exportierbar

Raw

Unverarbeiteter Modell-Output für Debugging

Showcase

TRIZ v8 Orchestrator.

5 spezialisierte Agenten. 3 Modell-Slots. 2 Kontext-Modi. Das Flagship-Rezept zeigt die volle Orchestrator-Kapazität.

#1Systemanalyse

Problem in Komponenten, Funktionen und Widersprüche zerlegen.

SLOT_LOGICctx:full
#2Logik-Engine

TRIZ-Widerspruchsmatrix anwenden. Lösungsrichtungen generieren.

SLOT_LOGICctx:last_step
#3Patent-Schwarm

Bestehende Lösungen, Patente und analoge Domänen recherchieren.

SLOT_SEARCHctx:last_step
#4Lösungsarchitekt

Alle Erkenntnisse zu konkreten, umsetzbaren Konzepten synthetisieren.

SLOT_CREATIVEctx:full
#5Adversariales Audit

Schwächen, Risiken und unbeabsichtigte Konsequenzen identifizieren.

SLOT_LOGICctx:full

Context Pruning

Schritte 2 & 3 nutzen last_step — das Modell fokussiert auf den destillierten Output, nicht den gesamten Verlauf.

Slot Diversity

Analyse → Reasoning-Modelle. Recherche → Web-Modelle. Synthese → kreative Modelle. Kein einzelnes Modell macht alles.

Adversarial Close

Schritt 5 sieht den vollen Kontext, nutzt aber ein Reasoning-Modell — maximale Prüfschärfe auf den gesamten Vorschlag.

Wissenschaftliche Grundlage

Warum kognitive Architektur Mega-Prompts schlägt.

Im März 2026 veröffentlichte das Kimi-Team das Paper Attention Residuals — ein mathematischer Beweis für ein Problem, das der Reactor auf der Ebene der Prozesssteuerung bereits architektonisch löst.

Neuronale Ebene (Kimi)

PreNorm Dilution

In tiefen Netzen summieren sich residuale Verbindungen auf. Essenzielle frühe Informationen werden durch das Rauschen mittlerer Layer verdünnt — tiefere Schichten verlieren den Zugriff auf die ursprünglichen Signale.

Applikationsebene (Reactor)

Context Contamination

In Standard-Chats summiert sich der Kontext von Nachricht zu Nachricht. Wenn ein Modell bei Schritt 6 ankommt, ist das ursprüngliche Problem im Rauschen iterativer Zwischenschritte verwässert.

Symmetrie 01

Skip Connections → Epistemic Anchor

Kimi: Spätere Layer überspringen akkumuliertes Rauschen und greifen direkt auf frühe, saubere Schichten zu (Attention Residuals).

Reactor: Der Epistemic Anchor sichert extrahierte Fakten aus Schritt 1 per Auto-Pinning. Spätere Agenten mit context_mode: last_step arbeiten nur mit dem destillierten Output — die Ground Truth bleibt über <pinned_context> direkt erreichbar.

Symmetrie 02

Block-Kompression → Swarm Synthesis

Kimi: Schichten werden in Blöcke gruppiert und auf einen Vektor komprimiert. Spätere Schichten sehen nur die saubere Zusammenfassung, nicht die rohen Einzelschritte.

Reactor: Wenn parallele Agenten arbeiten (Pattern F), komprimiert ein Synthesizer-Step die Outputs in ein dichtes XML-Aggregat. Nachfolgende Schritte verarbeiten nur diesen Knoten — nicht die einzelnen Agenten-Antworten.

Symmetrie 03

Deep & Narrow → Mikroschritte

Kimi: Netze mit Attention Residuals erreichen ihr Optimum bei tieferen, schmaleren Architekturen — flache Netze stagnieren.

Reactor: Viele eng fokussierte Schritte (deep & narrow) schlagen wenige überladene Mega-Prompts (shallow & wide). Wenn die Engine Navigation und Kontext-Bereinigung übernimmt, kann das Modell 100 % seiner Parameter auf die reine Transformation konzentrieren.

Intelligenz in komplexen Systemen entsteht nicht durch endloses Ansammeln von Daten, sondern durch das gezielte Bereinigen von Rauschen — unabhängig davon, ob das System ein neuronales Netz oder eine kognitive Pipeline ist.

Quelle: Kimi / Moonshot AI, Attention Residuals (März 2026) · Benchmark-Ergebnisse ansehen →

Methoden denken vor. Mitdenken. Weiterdenken.

200+ Methoden. 84+ Rezepte. Drei Modell-Slots — bereit zum Steuern.

Reactor starten