dekodiert selbstgemacht: Die schnelle Spirale frisst ihre Kinder
Drei Prompts zum Artikel "Die schnelle Spirale frisst ihre Kinder." Damit messt ihr, wie schnell euer Team echtes Feedback bekommt, ob eure Senior-Leute die Evaluationslast tragen können und ob eure Juniors Urteilsvermögen entwickeln -- oder nur Prompts optimieren. Kopieren, in die KI eurer Wahl einfügen, auf euer Unternehmen anwenden.
Was der Prompt tut
Misst, wie schnell euer Team echtes Feedback bekommt -- vom Markt, vom Kunden, von Nutzern. Nicht von Vorgesetzten.
Wann nutzen
Wenn ihr AI-Tools eingeführt habt und wissen wollt, ob eure Feedback-Infrastruktur mit der neuen Produktionsgeschwindigkeit mithalten kann.
Was du bekommst
Eine Tabelle eurer wichtigsten Arbeitsergebnisse mit Produktionszeit, Feedback-Zeit, Lücke und Feedback-Typ -- plus Markierung der kritischen Bereiche.
Analysiere die Feedback-Geschwindigkeit für [UNTERNEHMEN/BEREICH]. Nimm die fünf wichtigsten wiederkehrenden Arbeitsergebnisse eures Teams (z.B. Kampagnen, Analysen, Angebote, Produktfeatures, Reports). Für jedes Ergebnis, beantworte: **WIE SCHNELL KOMMT FEEDBACK?** - Vom Kunden/Markt/Nutzer: Stunden, Tage, Wochen, Monate, nie? - Vom Vorgesetzten: (zählt nicht als echtes Feedback — das ist internes Urteil, nicht Marktrealität) - Ist das Feedback binär (funktioniert/funktioniert nicht) oder weich (vielleicht hat es geholfen)? **WIE HART IST DAS FEEDBACK?** Kategorisiere nach dem Drohnen-Spektrum: - **Binär (wie die Drohne):** Treffer oder nicht. A/B-Test konvertiert oder nicht. Code compiliert oder nicht. → Geschwindigkeit = Lernen. - **Weich, aber messbar:** Kundenzufriedenheit, NPS, Abschlussquote. Dauert Wochen, aber kommt. → Geschwindigkeit = bedingt Lernen. - **Weich und verzögert:** "Hat die Strategie funktioniert?" Antwort kommt in Quartalen. → Geschwindigkeit ≠ Lernen. Mehr Iterationen helfen hier nicht. - **Kein Feedback:** Wir wissen es nie. → Die Spirale dreht ins Leere. **DIE LÜCKE:** Vergleiche: Wie schnell könnte euer Team mit AI produzieren (Stunden bis Tage) vs. wie schnell kommt echtes Feedback? Wenn die Produktionszeit 10x schneller geworden ist, aber die Feedback-Zeit gleich geblieben ist — dann habt ihr kein Produktionsproblem gelöst. Ihr habt ein neues Evaluationsproblem geschaffen. **ERGEBNIS:** Erstelle eine Tabelle: | Arbeitsergebnis | Produktionszeit (mit AI) | Feedback-Zeit (echt) | Lücke | Feedback-Typ | Markiere alle Zeilen, in denen die Lücke größer als Faktor 10 ist. Das sind die Bereiche, in denen mehr AI-Output nicht mehr Lernen erzeugt — sondern mehr Rauschen.
Output fließt weiter zu: Der Evaluations-Bandwidth-Check
Was der Prompt tut
Prüft, ob eure Senior-Leute die Evaluationslast tragen können, die AI-beschleunigte Produktion erzeugt.
Wann nutzen
Wenn ihr merkt, dass Qualität sinkt oder Senioren überlastet sind, obwohl die Produktion schneller läuft.
Was du bekommst
Ein Evaluations-Engpass-Faktor pro Team plus eine Empfehlung, welche von drei Lösungsoptionen zu eurer Situation passt.
Führe einen Evaluations-Bandwidth-Check für [UNTERNEHMEN/BEREICH] durch. **SCHRITT 1: EVALUATION KARTIEREN** Liste die Personen auf, die AI-Output bewerten — nicht technisch (funktioniert der Code), sondern inhaltlich (beantwortet das Ergebnis die richtige Frage): - Wer gibt das finale "Go" für Kundenlieferungen? - Wer prüft Analysen auf inhaltliche Richtigkeit? - Wer entscheidet, ob eine Präsentation die richtige Story erzählt? **SCHRITT 2: KAPAZITÄT VS. VOLUMEN** Für jeden Evaluator: - Wie viele Outputs kann diese Person pro Woche sinnvoll evaluieren? (Nicht: wie viele schafft sie gestresst. Sondern: wie viele mit echtem Urteil.) - Wie viele Outputs produziert das Team mit AI pro Woche? - Was passiert mit den Outputs, die nicht evaluiert werden? (Gehen sie ungefiltert raus? Werden sie aufgeschoben? Evaluiert jemand anderes mit weniger Taste?) **SCHRITT 3: DAS PARADOX IDENTIFIZIEREN** Wo seht ihr folgendes Muster: - AI hat die Produktion beschleunigt - Aber die gleichen 2-3 Leute müssen alles evaluieren - Also: entweder Qualität sinkt (weniger gründliche Evaluation) oder Geschwindigkeit sinkt (Evaluation wird zum Bottleneck) Das ist das Spirale-Paradox. Mehr Output, gleiche Evaluationskapazität. Die Lösung ist NICHT "mehr evaluieren." Die Lösung ist eine von drei Optionen: a) Automatisierte Evaluation wo möglich (Satisfaction Scoring, Digital Twins, automatische Checks) b) Evaluation verteilen (Juniors in die Evaluation einbinden — aber: Taste aufbauen, nicht nur Checklisten abarbeiten) c) Weniger produzieren, dafür besser spezifizieren (kürzere Zyklen statt mehr Zyklen) **ERGEBNIS:** - Verhältnis: Outputs pro Woche / Evaluationskapazität pro Woche = euer Evaluations-Engpass-Faktor - Wenn > 3: Ihr habt ein Evaluationsproblem, kein Produktionsproblem - Empfehlung: Welche der drei Optionen passt zu eurer Situation?
Output fließt weiter zu: Der Nachwuchs-Lernpfad-Audit
Was der Prompt tut
Prüft, ob eure Juniors gerade Urteilsvermögen entwickeln -- oder nur lernen, bessere Prompts zu schreiben.
Wann nutzen
Wenn ihr wissen wollt, ob ihr in fünf Jahren noch Leute habt, die AI-Output steuern können.
Was du bekommst
Eine Einordnung in eins von drei Szenarien plus eine konkrete Maßnahme, die ihr ab nächster Woche umsetzen könnt.
Analysiere den Lernpfad eurer Junior-Mitarbeiter in [UNTERNEHMEN/BEREICH] seit der Einführung von AI-Tools. **VORHER (ohne AI):** Wie haben Juniors bei euch typischerweise Urteilsvermögen entwickelt? - Eigene Arbeit erstellen → Senior korrigiert → aus der Korrektur lernen - In Meetings sitzen und beobachten, wie Senioren Entscheidungen treffen - Kundenkontakt: Feedback direkt erleben - Trial and Error: eigene Fehler machen und die Konsequenzen sehen **JETZT (mit AI):** Was hat sich verändert? - Erstellen Juniors noch eigene Arbeit — oder prompten sie AI und reichen den Output ein? - Wenn AI das Deck baut: Korrigiert der Senior den Junior oder den AI-Output? - Wer bekommt das Feedback — der Junior oder das Modell? - Welche Aufgaben, die früher Lernaufgaben waren, fallen jetzt weg? **DER TEST:** Beantworte für eure Juniors: - Können sie erklären, WARUM ein AI-Output gut oder schlecht ist? (= Taste) - Oder können sie nur erklären, welcher PROMPT bessere Ergebnisse liefert? (= Syntax) - Haben sie in den letzten 6 Monaten Domänenwissen aufgebaut — oder Prompt-Wissen? - Könnten sie ohne AI-Tools eine brauchbare Analyse erstellen? Oder sind sie abhängig? **DREI SZENARIEN:** 1. **Taste-Beschleunigung:** Juniors evaluieren 100 AI-Iterationen pro Woche statt ein Deck manuell zu bauen. Sie entwickeln Taste schneller durch höhere Feedback-Dichte. (Optimistisch, möglich, braucht Anleitung.) 2. **Prompt-Sackgasse:** Juniors optimieren Prompts, aber verstehen nicht, warum ein Ergebnis für diesen Kontext besser ist als ein anderes. Syntax statt Semantik. (Häufig, gefährlich.) 3. **Lernpfad-Abbruch:** Juniors umgehen den Lernprozess komplett. AI liefert, Senior nickt ab, Junior hat nichts gelernt. (Am häufigsten, am gefährlichsten.) **ERGEBNIS:** - In welchem Szenario befinden sich eure Juniors gerade? - Was müsste sich ändern, damit Szenario 1 eintritt? - Konkrete Maßnahme: Welche Evaluation-Aufgabe könntet ihr ab nächster Woche bewusst an Juniors delegieren — mit dem Ziel, Taste aufzubauen, nicht nur Output zu prüfen?