dekodiert selbstgemacht: Die schnelle Spirale frisst ihre Kinder

Prompt Kit Companion zu: Die schnelle Spirale frisst ihre Kinder

Drei Prompts zum Artikel "Die schnelle Spirale frisst ihre Kinder." Damit messt ihr, wie schnell euer Team echtes Feedback bekommt, ob eure Senior-Leute die Evaluationslast tragen können und ob eure Juniors Urteilsvermögen entwickeln -- oder nur Prompts optimieren. Kopieren, in die KI eurer Wahl einfügen, auf euer Unternehmen anwenden.

Was der Prompt tut

Misst, wie schnell euer Team echtes Feedback bekommt -- vom Markt, vom Kunden, von Nutzern. Nicht von Vorgesetzten.

Wann nutzen

Wenn ihr AI-Tools eingeführt habt und wissen wollt, ob eure Feedback-Infrastruktur mit der neuen Produktionsgeschwindigkeit mithalten kann.

Was du bekommst

Eine Tabelle eurer wichtigsten Arbeitsergebnisse mit Produktionszeit, Feedback-Zeit, Lücke und Feedback-Typ -- plus Markierung der kritischen Bereiche.

Analysiere die Feedback-Geschwindigkeit für [UNTERNEHMEN/BEREICH].

Nimm die fünf wichtigsten wiederkehrenden Arbeitsergebnisse eures Teams (z.B. Kampagnen, Analysen, Angebote, Produktfeatures, Reports).

Für jedes Ergebnis, beantworte:

**WIE SCHNELL KOMMT FEEDBACK?**
- Vom Kunden/Markt/Nutzer: Stunden, Tage, Wochen, Monate, nie?
- Vom Vorgesetzten: (zählt nicht als echtes Feedback — das ist internes Urteil, nicht Marktrealität)
- Ist das Feedback binär (funktioniert/funktioniert nicht) oder weich (vielleicht hat es geholfen)?

**WIE HART IST DAS FEEDBACK?**
Kategorisiere nach dem Drohnen-Spektrum:
- **Binär (wie die Drohne):** Treffer oder nicht. A/B-Test konvertiert oder nicht. Code compiliert oder nicht. → Geschwindigkeit = Lernen.
- **Weich, aber messbar:** Kundenzufriedenheit, NPS, Abschlussquote. Dauert Wochen, aber kommt. → Geschwindigkeit = bedingt Lernen.
- **Weich und verzögert:** "Hat die Strategie funktioniert?" Antwort kommt in Quartalen. → Geschwindigkeit ≠ Lernen. Mehr Iterationen helfen hier nicht.
- **Kein Feedback:** Wir wissen es nie. → Die Spirale dreht ins Leere.

**DIE LÜCKE:**
Vergleiche: Wie schnell könnte euer Team mit AI produzieren (Stunden bis Tage) vs. wie schnell kommt echtes Feedback?

Wenn die Produktionszeit 10x schneller geworden ist, aber die Feedback-Zeit gleich geblieben ist — dann habt ihr kein Produktionsproblem gelöst. Ihr habt ein neues Evaluationsproblem geschaffen.

**ERGEBNIS:**
Erstelle eine Tabelle:
| Arbeitsergebnis | Produktionszeit (mit AI) | Feedback-Zeit (echt) | Lücke | Feedback-Typ |
Markiere alle Zeilen, in denen die Lücke größer als Faktor 10 ist. Das sind die Bereiche, in denen mehr AI-Output nicht mehr Lernen erzeugt — sondern mehr Rauschen.

Output fließt weiter zu: Der Evaluations-Bandwidth-Check

Was der Prompt tut

Prüft, ob eure Senior-Leute die Evaluationslast tragen können, die AI-beschleunigte Produktion erzeugt.

Wann nutzen

Wenn ihr merkt, dass Qualität sinkt oder Senioren überlastet sind, obwohl die Produktion schneller läuft.

Was du bekommst

Ein Evaluations-Engpass-Faktor pro Team plus eine Empfehlung, welche von drei Lösungsoptionen zu eurer Situation passt.

Führe einen Evaluations-Bandwidth-Check für [UNTERNEHMEN/BEREICH] durch.

**SCHRITT 1: EVALUATION KARTIEREN**
Liste die Personen auf, die AI-Output bewerten — nicht technisch (funktioniert der Code), sondern inhaltlich (beantwortet das Ergebnis die richtige Frage):
- Wer gibt das finale "Go" für Kundenlieferungen?
- Wer prüft Analysen auf inhaltliche Richtigkeit?
- Wer entscheidet, ob eine Präsentation die richtige Story erzählt?

**SCHRITT 2: KAPAZITÄT VS. VOLUMEN**
Für jeden Evaluator:
- Wie viele Outputs kann diese Person pro Woche sinnvoll evaluieren? (Nicht: wie viele schafft sie gestresst. Sondern: wie viele mit echtem Urteil.)
- Wie viele Outputs produziert das Team mit AI pro Woche?
- Was passiert mit den Outputs, die nicht evaluiert werden? (Gehen sie ungefiltert raus? Werden sie aufgeschoben? Evaluiert jemand anderes mit weniger Taste?)

**SCHRITT 3: DAS PARADOX IDENTIFIZIEREN**
Wo seht ihr folgendes Muster:
- AI hat die Produktion beschleunigt
- Aber die gleichen 2-3 Leute müssen alles evaluieren
- Also: entweder Qualität sinkt (weniger gründliche Evaluation) oder Geschwindigkeit sinkt (Evaluation wird zum Bottleneck)

Das ist das Spirale-Paradox. Mehr Output, gleiche Evaluationskapazität. Die Lösung ist NICHT "mehr evaluieren." Die Lösung ist eine von drei Optionen:
a) Automatisierte Evaluation wo möglich (Satisfaction Scoring, Digital Twins, automatische Checks)
b) Evaluation verteilen (Juniors in die Evaluation einbinden — aber: Taste aufbauen, nicht nur Checklisten abarbeiten)
c) Weniger produzieren, dafür besser spezifizieren (kürzere Zyklen statt mehr Zyklen)

**ERGEBNIS:**
- Verhältnis: Outputs pro Woche / Evaluationskapazität pro Woche = euer Evaluations-Engpass-Faktor
- Wenn > 3: Ihr habt ein Evaluationsproblem, kein Produktionsproblem
- Empfehlung: Welche der drei Optionen passt zu eurer Situation?

Output fließt weiter zu: Der Nachwuchs-Lernpfad-Audit

Was der Prompt tut

Prüft, ob eure Juniors gerade Urteilsvermögen entwickeln -- oder nur lernen, bessere Prompts zu schreiben.

Wann nutzen

Wenn ihr wissen wollt, ob ihr in fünf Jahren noch Leute habt, die AI-Output steuern können.

Was du bekommst

Eine Einordnung in eins von drei Szenarien plus eine konkrete Maßnahme, die ihr ab nächster Woche umsetzen könnt.

Analysiere den Lernpfad eurer Junior-Mitarbeiter in [UNTERNEHMEN/BEREICH] seit der Einführung von AI-Tools.

**VORHER (ohne AI):**
Wie haben Juniors bei euch typischerweise Urteilsvermögen entwickelt?
- Eigene Arbeit erstellen → Senior korrigiert → aus der Korrektur lernen
- In Meetings sitzen und beobachten, wie Senioren Entscheidungen treffen
- Kundenkontakt: Feedback direkt erleben
- Trial and Error: eigene Fehler machen und die Konsequenzen sehen

**JETZT (mit AI):**
Was hat sich verändert?
- Erstellen Juniors noch eigene Arbeit — oder prompten sie AI und reichen den Output ein?
- Wenn AI das Deck baut: Korrigiert der Senior den Junior oder den AI-Output?
- Wer bekommt das Feedback — der Junior oder das Modell?
- Welche Aufgaben, die früher Lernaufgaben waren, fallen jetzt weg?

**DER TEST:**
Beantworte für eure Juniors:
- Können sie erklären, WARUM ein AI-Output gut oder schlecht ist? (= Taste)
- Oder können sie nur erklären, welcher PROMPT bessere Ergebnisse liefert? (= Syntax)
- Haben sie in den letzten 6 Monaten Domänenwissen aufgebaut — oder Prompt-Wissen?
- Könnten sie ohne AI-Tools eine brauchbare Analyse erstellen? Oder sind sie abhängig?

**DREI SZENARIEN:**
1. **Taste-Beschleunigung:** Juniors evaluieren 100 AI-Iterationen pro Woche statt ein Deck manuell zu bauen. Sie entwickeln Taste schneller durch höhere Feedback-Dichte. (Optimistisch, möglich, braucht Anleitung.)
2. **Prompt-Sackgasse:** Juniors optimieren Prompts, aber verstehen nicht, warum ein Ergebnis für diesen Kontext besser ist als ein anderes. Syntax statt Semantik. (Häufig, gefährlich.)
3. **Lernpfad-Abbruch:** Juniors umgehen den Lernprozess komplett. AI liefert, Senior nickt ab, Junior hat nichts gelernt. (Am häufigsten, am gefährlichsten.)

**ERGEBNIS:**
- In welchem Szenario befinden sich eure Juniors gerade?
- Was müsste sich ändern, damit Szenario 1 eintritt?
- Konkrete Maßnahme: Welche Evaluation-Aufgabe könntet ihr ab nächster Woche bewusst an Juniors delegieren — mit dem Ziel, Taste aufzubauen, nicht nur Output zu prüfen?