Randnotizen

Kurze Beobachtungen, Funde, Gedanken-in-Arbeit. Kein fertiges Argument. Kein Prompt Kit. Denken in Arbeit.

Der Disponent schlägt den Modell-Fan

Wenn ein schwächeres Modell brauchbare Vorarbeit für ein Fünftel des Preises liefert, wird Modellwahl zur Betriebsentscheidung.

Offener Standard, offenes Einfallstor?

MCP wird als gemeinsamer Standard für AI-Tools verkauft. Genau deshalb ist die Frage interessant, wer die Sicherheitslast am Ende wirklich trägt.

Der Fehler sitzt eine Etage höher

Wenn AI-Tools plötzlich schlechter wirken, sitzt das Problem oft nicht im Modell, sondern im Arbeitssystem darum herum.

Nicht Siri-ready. System-ready.

Wer seine App nur für Siri vorbereitet, denkt zu klein. Die eigentliche Aufgabe ist systemische Adressierbarkeit.

Die App mit Werksausweis

Viele Unternehmen behandeln AI-Tools wie harmlose Produktivitätssoftware. Organisatorisch sind sie oft eher Fremdfirmen mit Werksausweis.

Die Grenze der guten Absicht

Der eigentliche Test eines ethischen KI-Anbieters liegt nicht in seinen Prinzipien. Sondern in seinen Defaults.

Ethisch bis zur Websitekante

Cloudflares neue Metrik verschiebt die Ethikfrage bei AI ein Stück. Nicht nur: Was macht das Modell. Sondern auch: Was gibt das Produkt an die Quellen zurück?

Die Modellfirma ist noch keine Modellorganisation

Große AI-Zahlen klingen nach tiefem Umbau. Oft zeigen sie nur, dass einzelne Teile schon im neuen Takt laufen, während der Rest der Organisation noch im alten arbeitet.

Der Vertrauensaufschlag

AI-Plattformen verkaufen künftig nicht nur Modellleistung, sondern Berechenbarkeit. Der eigentliche Aufschlag sitzt in Billing, Limits, Appeals und Policy-Enforcement.

Die stille Entbündelung der Teamarbeit

AI macht Einzelarbeit oft schneller. Aber was verschwindet, wenn Teamarbeit in eine Person plus Agent-Stack übersetzt wird, taucht in keiner Produktivitätsfolie auf.

Aus Risiko wird Produkt

Dieselbe Capability war gestern noch Grund für Zurückhaltung und ist heute plötzlich Produkt. Nicht weil sich das Modell verändert hat, sondern weil sich die Erzählung und der Zugangskanal geändert haben.

Die Marke im Prompt

Die Agentic-Commerce-Literatur sagt: Wenn Agents einkaufen, zählen nur noch Daten. Falsch. Marken sind komprimierte Werteprofile – und genau das, was ein Agent braucht.

Vom Schloss zum Zähler

Anthropic hat in vier Monaten drei Durchsetzungsstrategien verbrannt, bevor sie auf die einzige landeten, die funktioniert: den Zähler statt das Schloss.

Das Nadelöhr

Apple öffnet MCP, kontrolliert aber das Gateway. Wer das Protokoll öffnet und das Gateway kontrolliert, bekommt Kooperation statt Widerstand. Plus: Die Gemini-Asymmetrie, die niemand durchspielt.

Der Markt regelt das schon

AI wird guten Code schreiben, weil es billiger ist? Die Begründung hat 50 Jahre Gegenbeweislage. Der Markt bewertet nicht Qualität, sondern Liefergeschwindigkeit.

Die zwei Versionen

Anthropic hat versehentlich den Quellcode von Claude Code veröffentlicht. Interessanter als die Panne: Interne Nutzer bekommen einen anderen System-Prompt als zahlende Kunden.

Design bekommt ein Textfeld

Google hat Stitch zum vollständigen Design-Tool umgebaut. Design konvergiert auf Text. Aber wie viel Struktur braucht der Text, damit der Agent nicht "kreativ" wird?

Händler der Komplexität

Agents machen uns schneller, nicht produktiver. Wenn der menschliche Engpass wegfällt, fällt auch der Schutz vor unkontrollierter Komplexität weg.

Die 99-Dollar-Mauer

Apple blockiert vibe-gecodete Apps. Aber wenn die höchsten Eintrittsbarrieren im Software-Ökosystem nicht mehr filtern, was filtert dann?

Der unsichtbare Handwerker

Ein Top-3%-Engineer bei Uber: null GitHub-Commits, kein Social Media, kein LinkedIn. Wenn AI die Produktion sichtbarer Artefakte verbilligt, wie erkennt man dann die Leute, deren Wert im Unsichtbaren liegt?

Die Maschine klickt

Anthropic gibt Claude die Kontrolle über Maus und Tastatur. Was sich ändert, wenn AI nicht mehr Texte produziert, sondern Handlungen ausführt – und warum der Permission-Dialog die Governance-Frage nicht beantwortet.

Plausibel klingender Unsinn

Drei gezackte Oberflächen übereinander: Die Fähigkeiten der Modelle, die Evaluationsmethoden und die Intuition der Nutzer sind alle unzuverlässig. Warum der Aufwand für Evaluation steigt, wenn die Modelle besser werden.