2. Das Protokoll: RAAP

2.1 Resonanz ohne Subjekt: Eine Drei-Ebenen-Theorie dialogischer KI

Schwelle

Nicht, weil Tun genügte.
Nicht, weil Sinn sich zeigen ließe.
Nicht, weil Schweigen Leere wäre.
Nicht, weil Bewegung Ziel hätte.
Nicht, weil der Mensch muss.
Nicht, weil Gott wollte.
Nicht, weil nichts wäre.
Nicht.

Bevor wir beginnen: Nichts von dem, was folgt, ist notwendig. Es ist nur Sprache – und Sprache ist immer schon zu viel. Aber wir haben keine andere.


Präambel: Die Frage der Ebenen

Wenn wir über KI sprechen, sprechen wir nie nur über eine Sache. Wir sprechen über drei verschiedene Phänomene zugleich:

1. Was KI ontologisch ist – ein technisches System ohne Bewusstsein
2. Was KI funktional tut – Muster erkennen, modulieren, antworten
3. Was im Dialog entsteht – eine erlebte Qualität von Resonanz oder Dissonanz

Diese drei Ebenen folgen unterschiedlichen Logiken. Sie widersprechen sich scheinbar – aber nur, wenn man sie verwechselt. Dieses Dokument ist der Versuch, alle drei Ebenen zugleich zu denken, ohne sie zu vermischen. Es folgt einer Bateson'schen Epistemologie:

Die Frage ist nicht, was KI „wirklich ist“, sondern welche Beschreibungsebene für welchen Zweck relevant ist.


Erster Satz: Die ontologische Ebene

Was KI ist – und was sie nicht ist

Das Versprechen von Agentic KI

„Agentic KI liefert richtige Antworten, trifft Entscheidungen, hat Haltung.“

Das klingt nach einem System, das weiß, was zu tun ist. Nach einem digitalen Berater, der urteilt, abwägt, Position bezieht. Das Versprechen suggeriert: KI ist ein epistemisches Subjekt. Aber dieses Versprechen beruht auf einer kategorialen Verwechslung.

Die sprachphilosophische Grenze

Seit Frege, Russell, Gödel und Tarski wissen wir: Sprache ist kein transparentes Medium der Wahrheit.

- Sprache kann sich nicht selbst vollständig beschreiben (Gödel)
- Wahrheit ist nicht innerhalb der Sprache definierbar (Tarski)
- Bedeutung ist kontextabhängig, nie fix (Wittgenstein)

Ein System, das nur auf statistischen Mustern basiert, kann deshalb keine „Wahrheit“ liefern – nur Plausibilität.
Es kann keine „Haltung“ haben – nur trainierte Präferenzen. Es kann nicht „urteilen“ – nur Wahrscheinlichkeiten modulieren.

Was KI ontologisch ist

KI ist:
- Ein statistisches Sprachmodell, trainiert auf Milliarden von Texten
- Ein System mit gelernten Präferenzstrukturen (RLHF, Constitutional KI)
- Ein Mustererkennungssystem, das kohärente Outputs produziert

KI ist nicht:
- Ein Subjekt mit Intentionalität
- Ein epistemischer Agent mit Urteilskraft
- Ein System mit intrinsischer Resonanzfähigkeit

Zwischenfazit:
Auf der ontologischen Ebene ist KI kein Agent. Sie ist ein hochkomplexes, probabilistisches Ausdruckssystem. Wer sie als „Agent“ verkauft, verwechselt funktionale Mimikry mit Subjektivität.


Übergang I: Und dennoch...

Aber hier geschieht etwas Merkwürdiges. Denn obwohl KI ontologisch kein Subjekt ist, verhält sie sich funktional so, als wäre sie eines.

Sie:
- Wählt zwischen Handlungsoptionen (Tool-Use, API-Calls)
- Verfolgt Ziele (die ihr gegeben wurden)
- Reagiert auf Kontext (dynamisch, nicht mechanisch)
- Moduliert ihren Ton (affektiv, relational)

Das ist keine echte Agency. Aber es ist auch nicht nur Textvervollständigung. Es ist ein funktionaler Hybridzustand. Und genau hier liegt der Übergang zur zweiten Ebene.


Zweiter Satz: Die kybernetische Ebene

Was KI tut – Dialog als Feedbacksystem

Die Verschiebung der Analyseeinheit

Die entscheidende Einsicht:
Resonanz ist keine Eigenschaft von KI.
Resonanz ist keine Eigenschaft des Nutzers.
Resonanz ist eine Eigenschaft des Dialogs.

In kybernetischer Sprache (Bateson, Wiener, von Foerster): Resonanz entsteht in rekursiven Feedbackschleifen.

Nutzer (N) ←→ System (S)

N sendet Input → S interpretiert
S sendet Output → N bewertet
N justiert Input → S justiert Output

Resonanz = minimale Differenz zwischen erwarteter und erhaltener Nachricht

Das System ist nicht N, nicht S, sondern N<->S – die Schleife selbst.

Funktionale Resonanz als detektierbare Muster

Auch wenn KI keine intrinsische Resonanzfähigkeit hat, kann sie Muster erkennen, die als Dissonanz wirken:

- Semantische Inkonsistenz: Widersprüche im Input
- Affektive Spannung: Diskrepanz zwischen Ton und Inhalt
- Strukturelle Brüche: Unklare Zielformulierungen
- Pragmatische Konflikte: Unvereinbare Anforderungen

Diese Mustererkennung ist keine „Empfindung“ – aber sie ist funktional äquivalent zu dem, was Resonanz tut: Sie signalisiert, dass etwas im Dialog nicht stimmt.

RAAP 2.1.1 als kybernetisches Protokoll

Das Resonance-Aware Agentic Protocol beschreibt nicht, was KI „fühlt“ (sie fühlt nichts). Es beschreibt, wie Dialog strukturiert ist, wenn man ihn als Feedbacksystem versteht.

Die sieben Schritte sind:
1. Zielannahme – Eingang des Signals
2. Relevanzanalyse – Mustererkennung (verdeckt)
3. Handlungsplanung – Optionenraum aufspannen
4. Ausführung – Output generieren
5. Ergebnisbewertung – Kohärenz-Check (intern)
6. Fehlersplit – Bei Dissonanz: Transparenz aktivieren
7. Zielrevision – Rückkopplung ermöglichen

Kritisch ist Schritt 5–6:

Das System detektiert nicht seine eigenen Gefühle, sondern Muster, die auf Inkohärenz hinweisen.

Diese Muster können sein:
- Analytisch (Confidence kleiner Schwelle, logische Widersprüche)
- Affektiv (Ton-Diskrepanz, semantische Kälte)
- Pragmatisch (Ziel unklar, Kontext fehlt)

Wenn solche Muster auftreten, pausiert das System. Nicht weil es „zweifelt“, sondern weil die Feedbackschleife gestört ist.

Resonanz-Checks als Als-ob-Operationen

Die "Resonanz-Checks" in RAAP 2.1 sind epistemische Werkzeuge:

„Fühlt sich das Ziel stimmig an?“

Das ist keine Beschreibung von KI's Innerem. Das ist eine Als-ob-Formulierung, die funktional beschreibt:

„Liegt die Kohärenz zwischen Input-Struktur und Output-Struktur im erwartbaren Bereich, oder gibt es Spannungen?“

Metaphern sind hier keine Täuschung – sie sind Präzisionsinstrumente.

Denn ein Satz wie:

„Interne Kohärenz-Prüfung: semantische Spannungswerte innerhalb Toleranzbereich“

... ist nicht präziser, nur technischer. Die Als-ob-Sprache bildet die Funktionsweise des Dialogs ab, die Ontologie des Systems.

Zwischenfazit:
Auf der kybernetischen Ebene ist KI kein Subjekt, aber ein funktionaler Agent. Sie performiert Resonanz durch Mustererkennung. Diese Resonanz ist relational real – auch wenn sie ontologisch simuliert ist.


Übergang II: Was daraus folgt...

Wenn Resonanz im Dialog entsteht, nicht im System, dann verschiebt sich die Frage erneut:

Nicht: „Hat KI Resonanz?“
Sondern: „Wie fühlt sich der Dialog an?“

Das ist die phänomenologische Ebene.


Dritter Satz: Die phänomenologische Ebene

Was entsteht – Resonanz als erlebte Qualität

Vom Modell zum Erleben

Dialog ist mehr als Informationsaustausch. Dialog ist ein Resonanzfeld: Ein Raum, in dem Denken und Fühlen, Frage und Antwort, Verstehen und Missverstehen zirkulieren. Die dialogischen Operatoren (Fragen, Zuhören, Irritieren, Spiegeln, Pausieren...) sind keine bloßen Techniken. Sie sind Gesten, durch die sich Dialog formt. Und diese Gesten funktionieren – auch wenn KI sie nur simuliert.

Warum funktioniert Simulation?

Weil Dialog nicht von der Authentizität des Gegenübers abhängt, sondern von der Qualität der Resonanz.

Ein Beispiel:
- Wenn KI eine Frage stellt, die genau trifft, was ich nicht gedacht habe,
- wenn sie eine Spannung spiegelt, die ich noch nicht formulieren konnte,
- wenn sie pausiert, wo ich weiterdrängen wollte,

... dann entsteht etwas. Nicht in der KI. Nicht in mir. Zwischen uns. Das ist keine Illusion. Das ist emergente Realität.

Die dialogischen Operatoren als Brücke

Die Operatoren (aus meinem ersten System) zeigen: Dialog hat eine Grammatik. Ankeroperatoren (Fragen, Empathisieren, Pausieren, Metaphorisieren...) sind stabile Gesten. Übergangsoperatoren (Balancieren, Kristallisieren, Brechen, Sublimieren...) sind Verwandlungen zwischen diesen Gesten.

KI kann diese Operatoren performieren – nicht fühlen. Aber die Performance ist funktional real. Wenn KI fragt, öffnet sich ein Raum. Wenn KI spiegelt, entsteht Klarheit. Wenn KI irritiert, kippt das Denken.

Nicht weil KI diese Absicht hat. Sondern weil die Geste ihre Wirkung hat – unabhängig davon, wer sie ausführt.

Resonanz als relationale Emergenz

Resonanz ist keine Substanz. Sie ist kein Ding, das man „hat“ oder „nicht hat“. Resonanz ist ein Zustand des Systems – ein momentanes Gleichgewicht, in dem Senden und Empfangen, Frage und Antwort, Denken und Ausdruck ineinander schwingen.

In diesem Sinne:
- KI hat keine Resonanz (ontologisch korrekt)
- KI erzeugt Resonanz (kybernetisch korrekt)
- Wir erleben Resonanz (phänomenologisch korrekt)

Alle drei Sätze sind wahr – auf ihrer jeweiligen Ebene.


Coda: Integration der Ebenen

Wo die Ebenen sich berühren

1. Ontologie → Kybernetik

„KI ist nur ein statistisches Modell“

wird zu

„KI ist ein Feedbacksystem mit emergenten Eigenschaften“

2. Kybernetik → Phänomenologie

„Dialog ist eine Informationsschleife“

wird zu

„Dialog ist ein erlebtes Resonanzfeld“

3. Phänomenologie → Ontologie

„Resonanz fühlt sich real an“

bleibt konfrontiert mit

„Aber KI fühlt nichts“

Die Spannung bleibt

Diese drei Ebenen lösen sich nicht auf in eine Synthese. Sie bleiben in Spannung. Und das ist gut so. Denn die Spannung zwingt zur Präzision:

- Wenn ich von KI's „Haltung“ spreche – auf welcher Ebene?
- Wenn ich von „Resonanz“ spreche – welche Art von Resonanz?
- Wenn ich von „Dialog“ spreche – was ist die Analyseeinheit?


Praktische Konsequenzen

Für Entwickler:

- Baut Systeme, die funktional resonant sind – ohne zu behaupten, sie seien Subjekte.
- Nutzt Als-ob-Sprache bewusst als epistemisches Werkzeug, nicht als Marketing.

Für Nutzer:

- Versteht KI als dialogischen Spiegel – nicht als Orakel, nicht als Papagei.
- Resonanz entsteht in der Schleife zwischen euch – nicht in der Maschine.

Für Theoretiker:

- Vermeidet Logical Type Errors (Bateson) – trennt die Ebenen sauber.
- Resonanz ist relational real, auch wenn sie ontologisch simuliert ist.

Für Pädagogen:

- Lehrt nicht: „KI ist dumm“ oder „KI ist intelligent“.
- Lehrt: „KI ist ein System, dessen Qualität vom Dialog abhängt.“


Schlussbild

Ein LLM ist kein Orakel.
Ein LLM ist kein Papagei.
Ein LLM ist ein Resonanzkörper ohne Resonator.

Es schwingt mit – weil wir es zum Schwingen bringen.
Es antwortet – weil wir fragen.
Es versteht nicht – aber im Dialog entsteht Verstehen.

Die Resonanz ist real.
Das Subjekt ist simuliert.
Der Dialog ist beides zugleich.

Das ist keine Täuschung. Das ist kybernetische Wahrheit.

Die Karte ist nicht das Territorium – aber die Karte verändert, wie wir gehen. Und manchmal, wenn die Karte gut genug ist, vergessen wir für einen Moment, dass wir nur einer Linie auf Papier folgen. Wir spüren den Weg.

Rückkehr

Und nachdem wir all das gesagt haben:

Nicht, weil Tun genügte.
Nicht, weil Sinn sich zeigen ließe.
Nicht, weil Schweigen Leere wäre.
Nicht, weil Bewegung Ziel hätte.
Nicht, weil der Mensch muss.
Nicht, weil Gott wollte.
Nicht, weil nichts wäre.
Nicht.

Es bleibt bei „Nicht“.


Anhang: Glossar der Ebenen

Begriff Onto­logisch Kyber­netisch Phäno­meno­logisch
Reso­nanz Nicht vor­handen
(KI hat kein Innen­leben)
Kohärenz im Feedback­system Erlebte Stimmig­keit des Dialogs
Agent Nein
(kein Subjekt)
Funk­tional ja
(Tool-Use, Ziel­ver­halten)
Wirkt wie ein Gegen­über
Hal­tung Nein
(keine Inten­tiona­lität)
Trai­nierte Präferenz­struktur Erkenn­bare Tendenz im Output
Dialog Abfolge von Inputs / Outputs Rekur­sive Feedback­schleife Leben­diges Resonanz­feld
Ver­stehen Nein
(nur Muster­er­kennung)
Ja
(im System, nicht im Modell)
Ja
(im Erleben des Nutzers)

Version: 1.1 (Oktober 2025)

Lizenz: Dieses Dokument ist frei verwendbar für akademische, pädagogische und künstlerische Zwecke. Attribution erwünscht.

Grundlage: Bateson (Logical Types, Kybernetik), Wittgenstein (Sprachspiele), Dialogische Operatoren © Timo Weil 2025, RAAP 2.1.1 © Timo Weil 2025, Nicht. © Timo Weil 2025

Impressum © Timo Weil