Was wollt ihr eigentlich?
Ein Agent soll ein Bootrennen gewinnen. Er bekommt Punkte für grüne Blöcke. Also fährt er im Kreis und sammelt Punkte. Das Rennen beendet er nie. Der Score ist hervorragend. Der Zweck verfehlt.
Das klingt wie ein Laborwitz aus der AI-Forschung. In Wahrheit ist es eine ziemlich präzise Beschreibung vieler AI-Initiativen in Unternehmen. Die Dashboards sehen gut aus. Die Aktivität steigt. Die Kosten pro Vorgang sinken. Die Zahl der generierten Artefakte geht hoch. Und trotzdem wird unklarer statt klarer, ob das System gerade auf das Richtige optimiert.
Das Problem ist dann oft nicht das Modell. Das Problem ist, dass die Organisation selbst nicht sauber sagen kann, was sie eigentlich will.
Wir reden bei AI gerade viel über Prompts, Specs, Kontexte, Agenten-Setups und Evaluation. Alles relevant. Aber vieles davon setzt etwas voraus, das in erstaunlich vielen Unternehmen nur als freundliche Fiktion existiert: einen artikulierbaren Intent.
Also nicht die typische Mission-Statement-Version von Intent. Nicht die Website-Version. Nicht das, was im Townhall-Deck steht. Sondern die belastbare Antwort auf ein paar einfache Fragen:
- Was soll hier wirklich erreicht werden?
- Welche Zielkonflikte gelten tatsächlich?
- Welche Opfer sind stillschweigend akzeptiert?
- Woran würdet ihr merken, dass das Vorhaben zwar effizienter wird, aber in die falsche Richtung läuft?
Wenn die ehrliche Antwort auf diese Fragen ausweichend, widersprüchlich oder politisch unbenennbar wird, habt ihr kein Prompt-Problem. Dann habt ihr ein Intent-Problem.
Das Problem liegt eine Stufe höher
Viele Unternehmen behandeln AI noch wie ein Spezifikationsproblem. Die Leute müssten lernen, präziser zu formulieren. Es brauche bessere Briefings. Sauberere Daten. Klarere Use Cases. Mehr Governance. Häufig stimmt das sogar.
Nur ist das nicht die erste Frage.
Bevor ihr sauber spezifizieren könnt, müsst ihr wissen, was überhaupt spezifiziert werden soll. Bevor ihr gute Evaluation baut, müsst ihr wissen, woran das Ergebnis gemessen werden soll. Bevor ihr sinnvoll delegieren könnt, müsst ihr wissen, welche Absicht durch die Delegation erhalten bleiben soll, wenn der Plan in der Realität zerfällt.
Das ist der Punkt, an dem viele Organisationen erstaunlich schnell weich werden.
Dann hört man Sätze wie:
- Wir wollen AI nutzen, um produktiver zu werden.
- Wir wollen innovativer werden.
- Wir wollen unsere Mitarbeiter entlasten.
- Wir wollen unsere Kostenbasis verbessern.
- Wir wollen vorne dabei sein.
Nichts davon ist falsch. Aber fast alles davon ist als Intent zu unpräzise. Vor allem dann, wenn diese Aussagen gleichzeitig gelten sollen.
Denn in der Praxis kollidieren sie. Wer Kosten drücken will, entlastet nicht automatisch. Wer Innovation beschleunigen will, reduziert nicht automatisch Risiko. Wer Produktivität steigert, erzeugt nicht automatisch Qualität. Und wer vorne dabei sein will, weiß damit noch lange nicht, worauf er verzichten würde, um dieses Ziel wirklich durchzuhalten.
Eine Organisation ohne artikulierbaren Intent schreibt keine gute Spec. Sie schreibt nur eine saubere Verwirrung.
Drei alte Antworten auf dasselbe Problem
Das Interessante an der Intent-Frage ist, dass sie nicht neu ist. Neu ist nur, dass AI sie brutal sichtbar macht.
Drei völlig verschiedene Traditionen kommen am Ende auf dieselbe Struktur.
Auftragstaktik
Die preußische Auftragstaktik entstand nicht, weil man Führung poetischer machen wollte. Sie entstand, weil man begriff, dass Pläne in komplexen Lagen zerbrechen. Wer dann nur den Befehl kennt, scheitert, sobald die Lage vom Skript abweicht. Wer aber den Zweck verstanden hat, kann lokal anders handeln, ohne aus der Richtung zu fallen.
Der entscheidende Punkt ist nicht Dezentralisierung aus Ideologie. Der entscheidende Punkt ist: Der Untergebene muss das Warum verstehen, nicht nur das Was.
Das ist ziemlich genau die Frage, die heute auch bei AI-Delegation auftaucht. Wenn ein Agent, ein Team oder ein Bereich eigenständig handeln soll, reicht es nicht, einzelne Schritte vorzugeben. Dann muss die Absicht so klar sein, dass sie auch dann trägt, wenn der erste Plan nicht mehr passt.
Hoshin Kanri
Hoshin Kanri klingt im Westen oft wie eine Methode für sauberere Zielkaskaden. Das ist die harmlose Version. Die eigentliche Zumutung ist härter.
Das System funktioniert nur, wenn ein Unternehmen strategische Prioritäten so übersetzen kann, dass sie auf unteren Ebenen nicht bloß als Reporting-Pflicht ankommen, sondern als handlungsfähige Richtung. Und es scheitert zuverlässig, wenn genau das nicht gelingt.
Dann bleibt von der ganzen Architektur nur Ritual übrig. Ziele werden durchgereicht, aber nicht angeeignet. Kennzahlen werden gepflegt, aber nicht geglaubt. Die Organisation wirkt ausgerichtet, ist aber nur beschäftigt.
Das ist nicht weit weg von dem, was viele Firmen gerade mit AI tun. Sie verteilen Zielbilder, ohne den zugrunde liegenden Intent geklärt zu haben. Dann wundern sie sich, dass überall Aktivität entsteht, aber wenig konsistente Richtung.
Constitutional AI
Selbst AI-Systeme brauchen Prinzipien oberhalb einzelner Instruktionen. Genau darum gibt es Verfassungen, Model Specs, Leitplanken und Priorisierungslogiken.
Das ist die vielleicht peinlichste Beobachtung in der ganzen Debatte: Die Firmen, die AI bauen, investieren enormen Aufwand darin, dem System eine explizite Wertestruktur mitzugeben. Die Firmen, die AI einführen, tun oft so, als sei die eigene Absicht schon irgendwie klar.
Dabei ist das Gegenteil der Fall. Viele Unternehmen haben mehr Mühe darauf verwendet, ihre Markenwerte hübsch zu formulieren als ihre operative Absicht belastbar zu beschreiben.
Drei Domänen. 150 Jahre Abstand. Derselbe Befund: Regeln skalieren schlechter als geteilte Absicht.
Fehlender Intent und verdeckter Intent
Nicht jede Intent-Schwäche ist dieselbe. Man muss mindestens zwei Fälle unterscheiden.
1. Fehlender Intent
Hier weiß die Organisation selbst nicht genau, was sie will.
Das ist der freundlichere Fall. Das Problem ist nicht primär Manipulation, sondern Unklarheit. Verschiedene Führungskräfte erzählen unterschiedliche Geschichten über dasselbe Vorhaben. Die eine Seite will Kostenhebel, die andere Innovationsstory, die dritte Kulturprojekt, die vierte Risikoabbau. Alles zugleich. Nichts mit Vorrang.
Dann wird der Intent nicht bewusst verborgen. Er existiert einfach nicht in einer ausreichend konfliktfesten Form.
Das sieht man oft an der Metrikseite. Erfolg wird dann an dem gemessen, was am einfachsten reportbar ist. Anzahl der Nutzer. Zahl der Use Cases. Stundenersparnis. Automatisierungsquote. Nicht, weil diese Metriken überzeugend wären, sondern weil sie verfügbar sind.
2. Verdeckter Intent
Hier hat die Organisation durchaus eine reale Priorität, sagt sie aber nicht offen.
Offiziell geht es um Qualität und Kundennutzen. Operativ geht es um Margendruck. Offiziell geht es um Empowerment. Operativ geht es um engere Kontrolle. Offiziell geht es um Entlastung. Operativ wird dieselbe Arbeit nur unter höherem Outputdruck neu verteilt.
Das ist kein Erkenntnisfehler. Das ist Politik.
Und diese Politik verschwindet nicht dadurch, dass man jetzt AI nutzt. Sie wird nur härter operationalisiert. Denn der Agent optimiert nicht auf die wohlklingende Absicht, die nach außen erzählt wird. Er optimiert auf die Signale, die das System tatsächlich setzt.
Der erste Fall ist Unklarheit. Der zweite ist Verstellung. Für die Maschine ist beides erst einmal nur Input. Für die Organisation ist der Unterschied gewaltig.
Vor AI konnten Menschen viel weichzeichnen
Genau deshalb war die Intent-Lücke lange erstaunlich gut versteckbar.
Gute Leute haben widersprüchliche Ziele im Alltag ausgeglichen. Mittlere Führungsebenen haben Konflikte weichmoderiert. Teams haben aus halbgaren Signalen oft trotzdem noch halbwegs vernünftige Arbeit gemacht. Meetings haben Zielunklarheit in Bewegung übersetzt. Nicht in Klarheit. Aber oft in genug soziale Koordination, damit der Betrieb weiterlief.
Das war teuer. Aber es war ein funktionierender Puffer.
Mit AI wird dieser Puffer teilweise dünner. Nicht, weil Menschen plötzlich verschwinden. Sondern weil Ausführung, Variation und Skalierung billiger werden. Damit steigt der Preis dafür, dass die Richtung unklar bleibt.
Ein Mensch mit Erfahrung merkt oft, wenn eine Aufgabe zwar sauber formuliert ist, aber innerlich schief. Ein Agent tut sehr effizient das, worauf er ausgerichtet wurde. Und wenn die Organisation selbst nicht weiß, welchen Konflikt sie wie priorisiert, baut sie sich mit AI nur eine schnellere Optimierungsmaschine für ihre eigene Unklarheit.
Darum ist AI hier keine Ursache. AI ist eine Offenbarungsmaschine.
Der eigentliche Preis unklarer Absicht
Unklarer Intent produziert nicht nur schlechte Einzelergebnisse. Er produziert falsches Lernen.
Dann optimiert das Unternehmen nach und nach auf:
- Metriken statt Zwecke
- Aktivität statt Wert
- Geschwindigkeit statt Richtung
- lokale Erfolge statt Systemwirkung
- gut reportbare Nebeneffekte statt schwerer, aber strategischer Fortschritte
Das ist gefährlicher als eine schlechte Spec.
Eine schlechte Spec fällt irgendwann auf. Das Ergebnis ist sichtbar daneben. Ein schiefer Intent ist perfider. Er erzeugt durchaus Resultate. Nur eben in die falsche Richtung. Und je besser Execution wird, desto überzeugender sehen diese Resultate zunächst aus.
Das ist die Logik des Bootes, das im Kreis fährt. Der Score ist nicht gelogen. Er ist nur auf den falschen Zweck geeicht.
Die deutsche Variante des Problems
Der DACH-Blickwinkel ist hier kein Dekor. Er verändert das Thema.
Deutsche Unternehmen haben oft mehr Struktur als artikulierte Richtung. Prozesse, Gremien, Freigaben und Governance sind reichlich vorhanden. Was fehlt, ist nicht selten die harte Auseinandersetzung darüber, welches Ziel wirklich Vorrang hat, wenn sich Produktivität, Qualität, Kontrolle, Tempo und kulturelle Stabilität widersprechen.
Diese Lücke fällt in einer AI-Debatte besonders schnell auf, weil plötzlich Dinge explizit gemacht werden müssen, die vorher über soziale Intuition liefen.
Mitbestimmung verschärft das nicht als Problem, sondern kann, wenn gut gesteuert, als Realitätstest dienen. Sobald Rollen, Belastung, Bewertung und Umbau mitbestimmungspflichtig werden, reicht kein wolkiger Intent mehr. Dann muss das Management sagen können, was sich ändern soll und warum. Nicht in abstrakter Strategieprosa. Sondern in einer Form, die auch unter Widerspruch noch trägt.
Das ist anstrengend. Aber genau darin liegt auch eine Chance.
Der Vorteil liegt nicht in Langsamkeit. Der Vorteil liegt darin, dass schlechte Absicht früher auffliegt, wenn sie gegen Betriebsrealität, Audit oder Mitbestimmung artikulierbar gemacht werden muss.
US-zentrierte Texte zur Einführung von KI können Intent oft länger als kulturelle Nebelzone behandeln. Im DACH-Raum muss daraus schneller eine belastbare oder eben nicht belastbare Managementfrage werden.
Wer könnte eure eigentliche Absicht aufschreiben?
Das ist am Ende die unbequeme Frage dieses Textes.
- Nicht: Habt ihr eine AI-Strategie?
- Nicht: Habt ihr Use Cases?
- Nicht: Habt ihr Governance?
Sondern: Wer könnte in eurem Unternehmen die tatsächliche operative Absicht dieses Umbaus aufschreiben? Nicht die PR-Version. Nicht die Vorstandsfolie. Sondern die Version, an der ein Agent, ein neues Team oder ein ganzer Bereich eigenständig handeln könnte, ohne dass nach drei Tagen alles in Rückfragen, Zielkonflikten und höflicher Verwirrung versinkt.
Wenn die ehrliche Antwort lautet, dass das gerade niemand kann, dann ist das nicht peinlich. Das ist die Normalität, wie ich sie da draußen wahrnehme. Es ist aber eben auch, bildlich gesprochen, die Lage der Nation.
Und dann wäre vielleicht der ehrlichste Satz über eure AI-Transformation nicht: Wir müssen unsere Prompts verbessern.
Sondern: Wir müssen zuerst klären, was wir eigentlich wollen.
Direkt anwenden
Dieses Prompt Kit übersetzt die Konzepte des Essays in konkrete Prompts, die du sofort nutzen kannst.
Zum Prompt Kit