Aus Risiko wird Produkt
Vor zwei Wochen war Claude Mythos noch das Modell, das Anthropic laut Leak nicht frei in die Welt lassen konnte. Zu gefaehrlich fuer Cybersecurity. Zu gut in genau den falschen Dingen. Diese Woche ist aus derselben Faehigkeit ein Produkt geworden: Project Glasswing, ein Programm fuer Security-Research unter kontrollierten Bedingungen.
Das ist erstmal keine Ueberraschung. Natuerlich versucht jedes Unternehmen, aus seiner staerksten Faehigkeit ein Geschaeft zu machen. Interessant ist etwas anderes: wie schnell sich die Erzaehlung gedreht hat.
Gestern war dieselbe Capability noch Begruendung fuer Zurueckhaltung. Heute ist sie Begruendung fuer Markteintritt.
Die Faehigkeit selbst hat sich in drei Tagen nicht moralisch veraendert. Die Verpackung hat sich veraendert. Statt "zu riskant fuer Release" heisst es jetzt: "wertvoll fuer ausgewaehlte Partner mit dem richtigen Sicherheitsrahmen". Gleiches Modell, anderer Rahmen, andere Zielgruppe, andere Sprache.
Genau das duerfte in den naechsten Monaten oefter passieren. Nicht nur bei Anthropic. Immer dann, wenn Frontier-Modelle an eine Grenze stossen, an der offene Verfuegbarkeit zu riskant, aber Nichtverfuegbarkeit zu teuer wird, entsteht dazwischen ein dritter Raum: kontrollierte Kommerzialisierung.
Das ist kein Safety-Thema allein. Es ist ein Go-to-Market-Muster.
Ein Unternehmen entdeckt, dass eine Faehigkeit oeffentlich schwer zu rechtfertigen ist, intern aber zu wertvoll, um sie liegen zu lassen. Also baut es kein offenes Produkt und auch kein vollstaendiges Verbot. Es baut ein Programm. Zugang nur fuer bestimmte Gruppen, mit Auflagen, Monitoring und einer Geschichte, die das Risiko in Verantwortung uebersetzt.
Damit wird aus einem Problem eine Produktkategorie.
Fuer unsere Perspektive ist das vor allem ein Terrain-Signal. Die Umgebung aendert sich. Zwischen "open release" und "closed lab" entsteht ein Markt fuer Faehigkeiten, die zu stark, zu heikel oder zu erklaerungsbeduerftig fuer den normalen Produktkanal sind. Wer AI nur als Modellvergleich denkt, verpasst diesen Layer komplett. Entscheidend ist nicht nur, was ein Modell kann. Entscheidend ist, unter welchen institutionellen Bedingungen seine Faehigkeiten verkauft werden duerfen. Und, nicht zu vergessen, wer sich den fruehen Zugang leisten kann.
Man koennte es auch nuechterner sagen: Safety wird hier nicht nur zur Grenze des Produkts. Safety wird Teil des Produkts.
Das heisst nicht, dass das zynisch ist. Es kann voellig vernuenftig sein, ein starkes Cyber-Modell nur in eng kontrollierten Kontexten verfuegbar zu machen. Aber man sollte sich nicht vormachen, dass es nur um Risikominimierung geht. Es geht auch um Paketierung, Zugangskontrolle und Preislogik.
Wer daraus etwas fuer das eigene Unternehmen mitnehmen will, sollte deshalb weniger fragen, ob ein Modell "zu gefaehrlich" ist. Die interessantere Frage ist: Welche Faehigkeiten in eurem Haus sind offiziell noch Ausnahmefall, werden aber in Wahrheit schon fuer eine spaetere Produktform vorbereitet?
Fragt euch selbst, oder fragt eure AI: Welche eurer heiklen Faehigkeiten werden gerade noch als Risiko beschrieben, obwohl sie in Wahrheit schon wie ein zukuenftiges Produkt behandelt werden?
Quellen
- paddo.dev: Project Glasswing: Anthropic Weaponizes Its Own Risk (08.04.2026)
- Simon Willison: Anthropic's Project Glasswing - restricting Claude Mythos to security researchers - sounds necessary to me (07.04.2026)
- Latent Space: [AINews] Anthropic @ $30B ARR, Project GlassWing and Claude Mythos Preview (08.04.2026)