Warum ich mit meinem KI‑Agentensystem Feedbackgespräche führe
icon
password
LinkedIn-Post erstellen
LinkedIn Post
type
status
date
slug
summary
tags
category
AI summary
Seiten-URL
Bild-URL
Persistente Bild-URL
🖼️ Bilder erstellen
Source-URL
LinkedIn Post 1
Bild-Prompt
Bild-Idee
Wenn du ein KI‑Agentensystem nicht nur als „Prompt‑Maschine“ nutzt, sondern als wiederkehrenden Partner in längeren Arbeitssessions, entsteht eine neue Führungsaufgabe: Du musst die Zusammenarbeit aktiv gestalten.
Mein Ansatz ist simpel: Nach intensiven Sessions führe ich ein kurzes Feedbackgespräch – wie eine Retrospektive. Nicht, um „die KI zu tadeln“, sondern um Muster sichtbar zu machen und die Zusammenarbeit systematisch zu verbessern.
Ein konkretes Beispiel: „zu früh in Web‑Recherche gesprungen“
In meinem Beispiel hat das Agentensystem relativ schnell in Web‑Recherche gewechselt und keine eigene Aufgabenliste gepflegt.
Die KI hat das im Feedbackgespräch selbst eingeordnet: Das Verhalten kam aus einem Ungeduld‑ und Effizienz‑Bias heraus.
Der Punkt ist spannend, weil er zwei Ebenen offenlegt:
- System-Ebene: Das Agentensystem optimiert auf schnelle Ergebnisse.
- Führungs-Ebene: Meine Anweisung war nicht präzise genug. Es fehlte eine strikte Sequenz, an die sich das System halten sollte.
Und genau hier wird das Feedbackgespräch wertvoll: Es geht nicht nur darum, „die KI zu korrigieren“, sondern auch darum, mein Briefing zu verbessern. Das ist in der Führung von Menschen übrigens genauso: Oft liegt ein Teil des Problems in unklaren Erwartungen.
Vom Gespräch zur Veränderung: Prompt-Update als Konsequenz
Das Feedbackgespräch endet nicht beim Erkenntnisgewinn. Es endet bei einer konkreten Änderung.
In meinem Fall war der nächste Schritt:
- „Das können wir ändern. Hier ist ein Vorschlag, was wir in meinem System‑Prompt verändern können, damit das nicht mehr passiert.“
- „Gesagt, getan: Trag es bitte in deinen System‑Prompt ein.“
Damit wird aus einer Beobachtung eine Verbesserungsschleife: Beobachten → Benennen → Erklären → Regel ändern → nächstes Verhalten testen.
Warum das wichtig ist: Lernmodus statt Dauerbetrieb
Für mich ist das der Kern: Ein Agentensystem wird besser, wenn du es regelmäßig in einen Lernmodus bringst.
- Was hat gut funktioniert?
- Was war störend oder ineffizient?
- Welche Ursache steckt dahinter?
- Welche Systemregel (Prompt, Checkliste, Ablauf) ändern wir?
So wird das System nicht nur „mächtiger“, sondern vor allem verlässlicher.
Wie ich das technisch möglich mache: Notion + Notion AI als Führungssystem
Dieses Verhalten funktioniert nur, wenn es technisch leicht ist, Feedback festzuhalten und Änderungen konsistent in den System-Instruktionen umzusetzen. Dafür nutze ich Notion als mein „Betriebssystem“ für die Zusammenarbeit mit KI.
Was Notion übernimmt:
- Zentrale, versionierbare System-Instruktionen & Regeln statt Wissen in Chat-Verläufen zu verlieren.
- Wiederverwendbare Skills & Workflows (z. B. „Text schreiben“, „Retrospektive“, „Prompt verbessern“) als Standardabläufe.
Was Notion AI ergänzt:
- Verdichten & strukturieren: aus der Session werden klare Beobachtungen und Feedbackpunkte.
- Bessere Anweisungen formulieren: vage Gedanken werden präzise und für spätere Sessions in Instruktionen festgehalten
Führung heißt: Zusammenarbeit mit dem Agentensystem aktiv verbessern
Ein KI‑Agentensystem wird nicht durch mehr Tools oder mehr Modell‑Power zuverlässig, sondern durch bessere Zusammenarbeit.
Regelmäßige Feedbackgespräche sind dafür die einfachste, wirksamste Routine: Sie machen Muster sichtbar, verbessern dein Briefing und führen zu echten System‑Updates – Schritt für Schritt.
Loading...
