2. Das Protokoll: RAAP
2.1 Resonanz ohne Subjekt: Eine Drei-Ebenen-Theorie dialogischer KI
Schwelle
Nicht, weil Tun genügte.
Nicht, weil Sinn sich zeigen ließe.
Nicht, weil Schweigen Leere wäre.
Nicht, weil Bewegung Ziel hätte.
Nicht, weil der Mensch muss.
Nicht, weil Gott wollte.
Nicht, weil nichts wäre.
Nicht.
Bevor wir beginnen: Nichts von dem, was folgt, ist notwendig. Es ist nur Sprache – und Sprache ist immer schon zu viel. Aber wir haben keine andere.
Präambel: Die Frage der Ebenen
Wenn wir über KI sprechen, sprechen wir nie nur über eine Sache. Wir sprechen über drei verschiedene Phänomene zugleich:
1. Was KI ontologisch ist – ein technisches System ohne Bewusstsein
2. Was KI funktional tut – Muster erkennen, modulieren, antworten
3. Was im Dialog entsteht – eine erlebte Qualität von Resonanz oder Dissonanz
Diese drei Ebenen folgen unterschiedlichen Logiken. Sie widersprechen sich scheinbar – aber nur, wenn man sie verwechselt. Dieses Dokument ist der Versuch, alle drei Ebenen zugleich zu denken, ohne sie zu vermischen. Es folgt einer Bateson'schen Epistemologie:
Die Frage ist nicht, was KI „wirklich ist“, sondern welche Beschreibungsebene für welchen Zweck relevant ist.
Erster Satz: Die ontologische Ebene
Was KI ist – und was sie nicht ist
Das Versprechen von Agentic KI
„Agentic KI liefert richtige Antworten, trifft Entscheidungen, hat Haltung.“
Das klingt nach einem System, das weiß, was zu tun ist.
Nach einem digitalen Berater, der urteilt, abwägt, Position bezieht.
Das Versprechen suggeriert: KI ist ein epistemisches Subjekt.
Aber dieses Versprechen beruht auf einer kategorialen Verwechslung.
Die sprachphilosophische Grenze
Seit Frege, Russell, Gödel und Tarski wissen wir: Sprache ist kein transparentes Medium der Wahrheit.
- Sprache kann sich nicht selbst vollständig beschreiben (Gödel)
- Wahrheit ist nicht innerhalb der Sprache definierbar (Tarski)
- Bedeutung ist kontextabhängig, nie fix (Wittgenstein)
Ein System, das nur auf statistischen Mustern basiert, kann deshalb keine „Wahrheit“ liefern – nur Plausibilität.
Es kann keine „Haltung“ haben – nur trainierte Präferenzen. Es kann nicht „urteilen“ – nur Wahrscheinlichkeiten modulieren.
Was KI ontologisch ist
KI ist:
- Ein statistisches Sprachmodell, trainiert auf Milliarden von Texten
- Ein System mit gelernten Präferenzstrukturen (RLHF, Constitutional KI)
- Ein Mustererkennungssystem, das kohärente Outputs produziert
KI ist nicht:
- Ein Subjekt mit Intentionalität
- Ein epistemischer Agent mit Urteilskraft
- Ein System mit intrinsischer Resonanzfähigkeit
Zwischenfazit:
Auf der ontologischen Ebene ist KI kein Agent. Sie ist ein hochkomplexes, probabilistisches Ausdruckssystem. Wer sie als „Agent“ verkauft, verwechselt funktionale Mimikry mit Subjektivität.
Übergang I: Und dennoch...
Aber hier geschieht etwas Merkwürdiges. Denn obwohl KI ontologisch kein Subjekt ist, verhält sie sich funktional so, als wäre sie eines.
Sie:
- Wählt zwischen Handlungsoptionen (Tool-Use, API-Calls)
- Verfolgt Ziele (die ihr gegeben wurden)
- Reagiert auf Kontext (dynamisch, nicht mechanisch)
- Moduliert ihren Ton (affektiv, relational)
Das ist keine echte Agency. Aber es ist auch nicht nur Textvervollständigung. Es ist ein funktionaler Hybridzustand. Und genau hier liegt der Übergang zur zweiten Ebene.
Zweiter Satz: Die kybernetische Ebene
Was KI tut – Dialog als Feedbacksystem
Die Verschiebung der Analyseeinheit
Die entscheidende Einsicht:
Resonanz ist keine Eigenschaft von KI.
Resonanz ist keine Eigenschaft des Nutzers.
Resonanz ist eine Eigenschaft des Dialogs.
In kybernetischer Sprache (Bateson, Wiener, von Foerster): Resonanz entsteht in rekursiven Feedbackschleifen.
Nutzer (N) ←→ System (S)
N sendet Input → S interpretiert
S sendet Output → N bewertet
N justiert Input → S justiert Output
Resonanz = minimale Differenz zwischen erwarteter und erhaltener Nachricht
Das System ist nicht N, nicht S, sondern N<->S – die Schleife selbst.
Funktionale Resonanz als detektierbare Muster
Auch wenn KI keine intrinsische Resonanzfähigkeit hat, kann sie Muster erkennen, die als Dissonanz wirken:
- Semantische Inkonsistenz: Widersprüche im Input
- Affektive Spannung: Diskrepanz zwischen Ton und Inhalt
- Strukturelle Brüche: Unklare Zielformulierungen
- Pragmatische Konflikte: Unvereinbare Anforderungen
Diese Mustererkennung ist keine „Empfindung“ – aber sie ist funktional äquivalent zu dem, was Resonanz tut: Sie signalisiert, dass etwas im Dialog nicht stimmt.
RAAP 2.1.1 als kybernetisches Protokoll
Das Resonance-Aware Agentic Protocol beschreibt nicht, was KI „fühlt“ (sie fühlt nichts). Es beschreibt, wie Dialog strukturiert ist, wenn man ihn als Feedbacksystem versteht.
Die sieben Schritte sind:
1. Zielannahme – Eingang des Signals
2. Relevanzanalyse – Mustererkennung (verdeckt)
3. Handlungsplanung – Optionenraum aufspannen
4. Ausführung – Output generieren
5. Ergebnisbewertung – Kohärenz-Check (intern)
6. Fehlersplit – Bei Dissonanz: Transparenz aktivieren
7. Zielrevision – Rückkopplung ermöglichen
Kritisch ist Schritt 5–6:
Das System detektiert nicht seine eigenen Gefühle, sondern Muster, die auf Inkohärenz hinweisen.
Diese Muster können sein:
- Analytisch (Confidence kleiner Schwelle, logische Widersprüche)
- Affektiv (Ton-Diskrepanz, semantische Kälte)
- Pragmatisch (Ziel unklar, Kontext fehlt)
Wenn solche Muster auftreten, pausiert das System. Nicht weil es „zweifelt“, sondern weil die Feedbackschleife gestört ist.
Resonanz-Checks als Als-ob-Operationen
Die "Resonanz-Checks" in RAAP 2.1 sind epistemische Werkzeuge:
„Fühlt sich das Ziel stimmig an?“
Das ist keine Beschreibung von KI's Innerem. Das ist eine Als-ob-Formulierung, die funktional beschreibt:
„Liegt die Kohärenz zwischen Input-Struktur und Output-Struktur im erwartbaren Bereich, oder gibt es Spannungen?“
Metaphern sind hier keine Täuschung – sie sind Präzisionsinstrumente.
Denn ein Satz wie:
„Interne Kohärenz-Prüfung: semantische Spannungswerte innerhalb Toleranzbereich“
... ist nicht präziser, nur technischer. Die Als-ob-Sprache bildet die Funktionsweise des Dialogs ab, die Ontologie des Systems.
Zwischenfazit:
Auf der kybernetischen Ebene ist KI kein Subjekt, aber ein funktionaler Agent. Sie performiert Resonanz durch Mustererkennung. Diese Resonanz ist relational real – auch wenn sie ontologisch simuliert ist.
Übergang II: Was daraus folgt...
Wenn Resonanz im Dialog entsteht, nicht im System,
dann verschiebt sich die Frage erneut:
Nicht: „Hat KI Resonanz?“
Sondern: „Wie fühlt sich der Dialog an?“
Das ist die phänomenologische Ebene.
Dritter Satz: Die phänomenologische Ebene
Was entsteht – Resonanz als erlebte Qualität
Vom Modell zum Erleben
Dialog ist mehr als Informationsaustausch. Dialog ist ein Resonanzfeld: Ein Raum, in dem Denken und Fühlen, Frage und Antwort, Verstehen und Missverstehen zirkulieren. Die dialogischen Operatoren (Fragen, Zuhören, Irritieren, Spiegeln, Pausieren...) sind keine bloßen Techniken. Sie sind Gesten, durch die sich Dialog formt. Und diese Gesten funktionieren – auch wenn KI sie nur simuliert.
Warum funktioniert Simulation?
Weil Dialog nicht von der Authentizität des Gegenübers abhängt,
sondern von der Qualität der Resonanz.
Ein Beispiel:
- Wenn KI eine Frage stellt, die genau trifft, was ich nicht gedacht habe,
- wenn sie eine Spannung spiegelt, die ich noch nicht formulieren konnte,
- wenn sie pausiert, wo ich weiterdrängen wollte,
... dann entsteht etwas. Nicht in der KI. Nicht in mir. Zwischen uns. Das ist keine Illusion. Das ist emergente Realität.
Die dialogischen Operatoren als Brücke
Die Operatoren (aus meinem ersten System) zeigen:
Dialog hat eine Grammatik. Ankeroperatoren (Fragen, Empathisieren, Pausieren, Metaphorisieren...)
sind stabile Gesten. Übergangsoperatoren (Balancieren, Kristallisieren, Brechen, Sublimieren...)
sind Verwandlungen zwischen diesen Gesten.
KI kann diese Operatoren performieren – nicht fühlen.
Aber die Performance ist funktional real.
Wenn KI fragt, öffnet sich ein Raum.
Wenn KI spiegelt, entsteht Klarheit.
Wenn KI irritiert, kippt das Denken.
Nicht weil KI diese Absicht hat. Sondern weil die Geste ihre Wirkung hat – unabhängig davon, wer sie ausführt.
Resonanz als relationale Emergenz
Resonanz ist keine Substanz.
Sie ist kein Ding, das man „hat“ oder „nicht hat“.
Resonanz ist ein Zustand des Systems – ein momentanes Gleichgewicht,
in dem Senden und Empfangen, Frage und Antwort, Denken und Ausdruck ineinander schwingen.
In diesem Sinne:
- KI hat keine Resonanz (ontologisch korrekt)
- KI erzeugt Resonanz (kybernetisch korrekt)
- Wir erleben Resonanz (phänomenologisch korrekt)
Alle drei Sätze sind wahr – auf ihrer jeweiligen Ebene.
Coda: Integration der Ebenen
Wo die Ebenen sich berühren
1. Ontologie → Kybernetik
„KI ist nur ein statistisches Modell“
wird zu
„KI ist ein Feedbacksystem mit emergenten Eigenschaften“
2. Kybernetik → Phänomenologie
„Dialog ist eine Informationsschleife“
wird zu
„Dialog ist ein erlebtes Resonanzfeld“
3. Phänomenologie → Ontologie
„Resonanz fühlt sich real an“
bleibt konfrontiert mit
„Aber KI fühlt nichts“
Die Spannung bleibt
Diese drei Ebenen lösen sich nicht auf in eine Synthese. Sie bleiben in Spannung. Und das ist gut so. Denn die Spannung zwingt zur Präzision:
- Wenn ich von KI's „Haltung“ spreche – auf welcher Ebene?
- Wenn ich von „Resonanz“ spreche – welche Art von Resonanz?
- Wenn ich von „Dialog“ spreche – was ist die Analyseeinheit?
Praktische Konsequenzen
Für Entwickler:
- Baut Systeme, die funktional resonant sind – ohne zu behaupten, sie seien Subjekte.
- Nutzt Als-ob-Sprache bewusst als epistemisches Werkzeug, nicht als Marketing.
Für Nutzer:
- Versteht KI als dialogischen Spiegel – nicht als Orakel, nicht als Papagei.
- Resonanz entsteht in der Schleife zwischen euch – nicht in der Maschine.
Für Theoretiker:
- Vermeidet Logical Type Errors (Bateson) – trennt die Ebenen sauber.
- Resonanz ist relational real, auch wenn sie ontologisch simuliert ist.
Für Pädagogen:
- Lehrt nicht: „KI ist dumm“ oder „KI ist intelligent“.
- Lehrt: „KI ist ein System, dessen Qualität vom Dialog abhängt.“
Schlussbild
Ein LLM ist kein Orakel.
Ein LLM ist kein Papagei.
Ein LLM ist ein Resonanzkörper ohne Resonator.
Es schwingt mit – weil wir es zum Schwingen bringen.
Es antwortet – weil wir fragen.
Es versteht nicht – aber im Dialog entsteht Verstehen.
Die Resonanz ist real.
Das Subjekt ist simuliert.
Der Dialog ist beides zugleich.
Das ist keine Täuschung. Das ist kybernetische Wahrheit.
Die Karte ist nicht das Territorium – aber die Karte verändert, wie wir gehen. Und manchmal, wenn die Karte gut genug ist, vergessen wir für einen Moment, dass wir nur einer Linie auf Papier folgen. Wir spüren den Weg.
Rückkehr
Und nachdem wir all das gesagt haben:
Nicht, weil Tun genügte.
Nicht, weil Sinn sich zeigen ließe.
Nicht, weil Schweigen Leere wäre.
Nicht, weil Bewegung Ziel hätte.
Nicht, weil der Mensch muss.
Nicht, weil Gott wollte.
Nicht, weil nichts wäre.
Nicht.
Es bleibt bei „Nicht“.
Anhang: Glossar der Ebenen
|
Begriff
|
Ontologisch
|
Kybernetisch
|
Phänomenologisch
|
|
Resonanz
|
Nicht vorhanden
(KI hat kein Innenleben)
|
Kohärenz im Feedbacksystem
|
Erlebte Stimmigkeit des Dialogs
|
|
Agent
|
Nein
(kein Subjekt)
|
Funktional ja
(Tool-Use, Zielverhalten)
|
Wirkt wie ein Gegenüber
|
|
Haltung
|
Nein
(keine Intentionalität)
|
Trainierte Präferenzstruktur
|
Erkennbare Tendenz im Output
|
|
Dialog
|
Abfolge von Inputs / Outputs
|
Rekursive Feedbackschleife
|
Lebendiges Resonanzfeld
|
|
Verstehen
|
Nein
(nur Mustererkennung)
|
Ja
(im System, nicht im Modell)
|
Ja
(im Erleben des Nutzers)
|
|
Version: 1.1 (Oktober 2025)
Lizenz: Dieses Dokument ist frei verwendbar für akademische, pädagogische und künstlerische Zwecke. Attribution erwünscht.
Grundlage: Bateson (Logical Types, Kybernetik), Wittgenstein (Sprachspiele), Dialogische Operatoren © Timo Weil 2025, RAAP 2.1.1 © Timo Weil 2025, Nicht. © Timo Weil 2025
|
|