Anthropic hat ein Problem. Sie haben ihr bisher leistungsfähigstes KI-Modell entwickelt – Claude Mythos – und halten es bewusst zurück. Nicht, weil es nicht funktioniert. Sondern weil es zu gut funktioniert. Das Modell kann Sicherheitslücken in Software finden, die jahrzehntelang unentdeckt blieben. Es kann Schwachstellen identifizieren und ausnutzen, die selbst Experten übersehen. Und genau deshalb sagt Anthropic: Zu gefährlich. Statt einer öffentlichen Veröffentlichung gibt es streng kontrollierten Zugang für eine Handvoll Partner. In dieser Folge schauen wir uns an, warum ein Unternehmen sein bestes Produkt versteckt, was das über die Zukunft der KI verrät – und ob wir an einem Punkt angekommen sind, an dem mächtiger nicht automatisch besser bedeutet.

